Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Le blog de hugo,

L’intelligence artificielle pour déshabiller des femmes : c’est illégal et "vraiment inquiétant", y compris en Belgique

27 Septembre 2023, 07:46am

Publié par hugo 🏳️‍⚧️🏳️‍⚧️🏳️‍⚧️🏳️‍⚧️

L’intelligence artificielle pour déshabiller des femmes : c’est illégal et "vraiment inquiétant", y compris en Belgique

Espagne : des clichés pornographiques d'ados créés par l'IA (RS RTBF INFO 22/09/2023)
Pour voir ce contenu, connectez-vous gratuitement


Connectez-vous
25 sept. 2023 à 12:39 - mise à jour il y a 2 heures

8 min
Par Marie-Laure Mathot via

La Première
PARTAGER


Écouter l'article
C’est une rentrée des classes qui a commencé bien péniblement pour une vingtaine d’adolescentes d’Almendralejo dans le sud de l’Espagne. Elles ont reçu des photos d’elles entièrement nues. D’elles ? Pas vraiment. Ces photos n’ont jamais été prises. Elles ont été générées par une intelligence artificielle sur base de photos reprises sur leur compte Instagram.

Si elles étaient entièrement vêtues sur ces photos, l’intelligence artificielle a permis de mettre ces mineures à nu. L’une d’entre elles a 11 ans.

Ce sont souvent des garçons adolescents à l’origine des "deepnudes" qui n’imaginent pas les conséquences que cela peut avoir.
Ce sont souvent des garçons adolescents à l’origine des "deepnudes" qui n’imaginent pas les conséquences que cela peut avoir. © Getty images – Motortion
Selon plusieurs médias espagnols relayés par Euronews, ce sont de jeunes garçons qui ont généré ces photos. L’un d’entre eux aurait même demandé de l’argent avant d’envoyer la photo d’une jeune fille nue.

Un délit

"C’est un délit", a réagi la mère d’une de ces jeunes filles sur Instagram, Miriam Al Adib. "C’est une barbarie d’adolescents qui ne se rendent pas compte de ce qu’ils ont fait […] Cela peut se retrouver sur Onlyfans ou des sites pornographiques. C’est un délit vraiment grave", dit-elle en proposant aux mères des autres jeunes filles victimes de sextorsion de s’unir pour porter plainte. L’affaire a été transmise au parquet des mineurs.

De graves conséquences pour ceux qui ont réalisé ces photos

Le maire de la ville a même lancé un avertissement, indique Euronews. "Il s’agit peut-être d’une plaisanterie au départ, mais les implications sont bien plus importantes et pourraient avoir de graves conséquences pour ceux qui ont réalisé ces photos."

Les mères de ces jeunes filles se sont en effet rassemblées pour faire front, porter plainte et rappeler aux jeunes filles qu’elles n’y sont pour rien. Miriam Al Adib a directement créé des vidéos sur Instagram pour dénoncer ces comportements.

Les victimes étaient en crise d’angoisse

Trois jours plus tard, une BD est même publiée pour sensibiliser les jeunes garçons aux dangers de ce genre de comportements avec ce commentaire : "Ce qui s’est passé avec les filles d’Almendralejo nous donne de l’espoir, il semble qu’il y ait un changement de conscience brutal. Avant que @miriam_al_adib ne dénonce ce qui était arrivé à sa fille (et à beaucoup d’autres filles), ces c******* croyaient s’en tirer comme ça. L’histoire se répétait : les victimes étaient en crise d’angoisse, honteuses et silencieuses. Et maintenant elles sont toutes ensemble, sans peur et avec l’attitude "Ce feu nous l’avons éteint ensemble !" À plus d’histoires où nous nous unissons et perdons notre peur !"

Voir cette publication sur Instagram
Une publication partagée par ModernaDePueblo (@modernadepueblo)

En Belgique aussi, "c’est un phénomène réel et vraiment inquiétant", commente Catherine Van de Heyning, professeure à l’Université d’Anvers. Elle enseigne notamment les droits fondamentaux européens. Magistrate, elle est aussi substitut du procureur du roi. Elle fait partie d’un groupe de recherche sur la prévalence, l’impact et le cadre juridique des "deepnude", ces photos ou vidéos de personnes nues avec des visages de personnes qui n’ont jamais tourné ces images.

"Nos recherches montrent que ces applications sont utilisées en Belgique. En particulier, par les jeunes hommes. On pense que c’est parce qu’ils maîtrisent davantage les technologies et qu’ils font partie de groupes où se partagent ces technologies", explique-t-elle.

L’éducation aux médias et à la sexualité, c’est vraiment super important

"Quand on leur demande pourquoi, on pense toujours que c’est pour des raisons sexuelles mais le plus souvent, c’est 'parce que c’est drôle' entre copains, ou par ennui. C’est tout le problème : ils pensent que ce n’est pas grave parce que ce n’est pas le vrai corps mais clairement, pour la victime, l’impact est réel. Comme quoi, et je sais que le sujet est sensible chez vous mais l’éducation aux médias et à la sexualité, c’est vraiment super important." Ces notions sont en effet au programme des animations Evras, l’éducation à la vie relationnelle, affective et sexuelle.

"On constate aussi le début d’extorsion d’argent sur base de ces images. On pourrait se demander pourquoi les victimes payeraient pour une image fictive mais on constate une crainte de leur part : celle de ne pas être crue car l’image est très réaliste." Selon les recherches, les victimes sont des hommes comme des femmes mais pour les secondes, les images circulent beaucoup plus, elles sont beaucoup plus virales. "C’est donc principalement des images de femmes que l’on retrouve finalement sur le web. L’impact est donc beaucoup plus grand pour les femmes."

Quelques cas sont passés en justice en Belgique mais "on pense que les victimes ne le signalent pas car elles pensent que ce n’est pas punissable comme le corps est fictif." Le nombre de victimes est donc sous-estimé. Mais l’impact est bel et bien important.

Facile et illégal
Les applications d’intelligence artificielle permettent en effet très facilement de "déshabiller" n’importe qui. Ou plutôt n’importe quelle femme : la page d’accueil de l’application utilisée en Espagne ne propose aucune mise à nu d’hommes. Le slogan est d’ailleurs : "Déshabillez n’importe qui, déshabillez les filles gratuitement." Il est donc évident que l’objectif est de le faire sans le consentement de la femme photographiée. L’application signale également qu’elle n’enregistre aucune donnée. Le service est proposé en anglais et en russe. Selon Euronews, cela coûte 10 euros pour 25 photos de nu.

Le "service" est donc ultra-accessible mais n’en est pas moins complètement illégal.

D’abord, sur le plan de la protection de la vie privée. Pour les auteurs d’abord : le fait d’aller chercher une photo de quelqu’un et de la transmettre à l’application viole la loi sur la protection de la vie privée sur trois principes.

La transparence : toute personne dont les données sont traitées a le droit de savoir quelles données exactement sont traitées, pour quoi, par qui, comment et dans quel but.
La finalité : Ce principe est important dans le cas d’espèce car il sous-tend le fait que même si une photo est publique (par exemple postée par une personne sur un réseau social), elle ne peut être collectée et réutilisée par un tiers par la suite dans n’importe quel but. Il doit y avoir une base juridique pour le faire.
La sécurité : les données doivent être traitées de manière à garantir une sécurité appropriée aux données personnelles, y compris la protection contre le traitement non-autorisé ou illicite.
La société qui a créé l’app est elle aussi en infraction. Quand on regarde qui se cache derrière ce site internet via une application comme who.is, il est possible de voir que cette application existe depuis avril 2023, depuis peu donc, et qu’elle est hébergée aux États-Unis. Le reste des informations, comme l’adresse ou le nom de l’entreprise derrière cette app a été caché.

"Le droit à la protection de la vie privée, la Réglementation générale de protection des données (RGPD), est applicable dans tous les États membres de l’Union européenne, y compris pour les sociétés qui proposent des services en Europe", explique Nathalie Smuha, professeure à la Faculté de droit de KU Leuven et chercheuse en droit et éthique de la technologie à l’Université de New York. "Si elles utilisent des données personnelles de citoyens européens, elles tombent sous cette législation." L’image de quelqu’un, l’enregistrement de sa voix aussi sont des données à caractère personnel.

Pas question donc de faire une "blague" en clonant la voix d’un camarade sans son autorisation. Là aussi, il y a eu des cas d’abus où une mère américaine a reçu un message de sa fille disant qu’elle s’était fait kidnapper. Il n’en était rien. C’était la voix de cette jeune fille clonée par une IA pour la mettre en détresse.

"Cette législation dit qu’il faut une base juridique, légale pour pouvoir utiliser les photos de quelqu’un. Il y en a plusieurs. Le consentement en est une. Et dans le cas espagnol, clairement, aucune de ces femmes ne l’a donné. C’est donc une première infraction."

Autre aspect sur lequel les utilisateurs et la société sont en infraction : la propriété intellectuelle. "La protection d’image et d’identité s’applique", précise la chercheuse de la KULeuveun.

Sur le volet pénal aussi
En Belgique, il est également possible d’attaquer ces comportements sur le plan pénal. Et là aussi, à plusieurs niveaux. D’abord, notre législation protège les victimes grâce à l’article sur le voyeurisme. Depuis 2016, il est interdit d’observer une personne nue à son insu, que ce soit par une caméra physique ou des logiciels espions, mais il est également interdit de faire observer des nus sans consentement. "Cela s’applique aux logiciels espions mais aussi à l’intelligence artificielle ou créée grâce avec Photoshop depuis des photos existantes", explique Catherine Van de Heyning.

Une législation renforcée cette année avec le nouveau Code pénal sexuel : il est interdit d’envoyer des photos de personnes nues sans le consentement de celle qui la reçoit. L’idée de base est d’interdire d’envoyer des "dick pic", des photos de pénis. Mais peut aussi s’appliquer dans ce cas-ci.

Enfin, le Code pénal interdit la sextorsion, le fait de demander de l’argent sous menace de publier la photo d’une personne nue, même si celle-ci l’a envoyée elle-même avec consentement à la base.

Une question se pose néanmoins dans ce cas-ci car la "mise à nu" est créée par une intelligence artificielle. Il ne s’agit donc pas du vrai corps des personnes ciblées. Est-ce que ce droit pénal s’applique ? Pour la magistrate flamande, Catherine Van de Heyning, la réponse est oui. "Créer une image à base d’une photo qui existe et générer un corps nu est d’office puni par l’article sur le voyeurisme. C’est donc punissable."

Ce que les auteurs et les apps risquent
Sur le volet pénal, le voyeurisme, dont fait partie la génération de "deepnude", est puni d’un emprisonnement de six mois à cinq ans si la victime est majeure. Si la victime a moins de 16 ans, c’est 10 à 15 ans de prison.

"Les personnes victimes de ces abus peuvent porter plainte à l’Autorité de protection des données de leur pays", explique Nathalie Smuha. "Une enquête est ouverte. L’autorité de protection de la vie privée va contrôler s’il y a infraction et peut imposer une amende qui peut être élevée. Si c’est une grande société, cela peut monter à plusieurs millions." En mai dernier par exemple, Meta avait reçu une amende record d’1,2 milliard d’euros.

"Mais pour cela, il faut d’abord trouver la société. Si elle n’est pas en Europe, c’est déjà plus compliqué. La réglementation RGPD s’applique mais il faut encore les retrouver, avoir leur adresse, pour envoyer une notification, un courrier avec l’amende. Ensuite, la société va-t-elle payer ? S’ils l’ignorent, on ne peut pas envoyer la police belge aux États-Unis. On peut juste leur demander de les aider."

Une autre possibilité est de bloquer le site internet sur le territoire européen. "Mais le problème est qu’il y en aura un trois jours plus tard qui va apparaître", explique Nathalie Smuha. "Ou alors ce sera accessible sur le dark web où il y a plein d’applications comme celles-là qui sont plus difficiles à trouver pour la police." Et donc aussi, pour les utilisateurs.

Il est aussi possible de passer devant un tribunal civil si l’une ou l’autre partie n’est pas d’accord avec la décision de l’Autorité de protection des données.

Une nouvelle législation à venir
Pour mettre au clair le flou qui peut rester sur les images générées par l’intelligence artificielle, une nouvelle réglementation européenne est en train d’être discutée. "Une fois que ce texte sera appliqué, dans le meilleur des cas dans deux ans, il sera obligatoire d’indiquer si l’image a été générée par une intelligence artificielle. Si la voix a été clonée, c’est pareil." Et vu la vitesse à laquelle les applications d’intelligence sont créées, il y aura probablement encore beaucoup de cas d’abus et de fake news d’ici là.

Une autre directive européenne sur les violences sexuelles doit également voir le jour. "L’idée est de faciliter le dialogue avec les plateformes en ligne pour repérer ces 'deepnudes'", explique Catherine Van de Heyning. "Aujourd’hui, Meta, Google etc. entraînent leurs algorithmes à les reconnaître mais les plateformes pornographiques ne prennent par contre aucune initiative pour lutter contre les images générées par IA." Et ce, sans le consentement de la personne dont le visage est utilisé.

Et la magistrate anversoise de conclure : "Le droit est important mais la vraie solution, c’est l’éducation aux médias et sexuelle pour dire : ce n’est pas drôle."


 https://www.rtbf.be/article/lintelligence-artificielle-pour-deshabiller-des-femmes-cest-illegal-et-vraiment-inquietant-y-compris-en-belgique-11259804

Ce qui s’est passé avec les filles d’Almendralejo nous donne de l’espoir, il semble qu’il y ait un changement brutal de conscience. Avant cela... | Instagram (en anglais)       

CETTE  APPLICATION EST SEXISTES !!!!! 

Commenter cet article