logo_blanc
Rechercher

Le site Etsy héberge des deepfakes pornographiques de célébrités

EtsyLogo Etsy. | Source : Getty Images

Des images pornographiques générées par l’intelligence artificielle d’au moins 55 célébrités étaient disponibles à l’achat sur Etsy, jusqu’à ce que Forbes en informe la société. Entre-temps, la fonction de recommandation et de « recherches connexes » d’Etsy dirigeait les utilisateurs vers encore plus d’articles.

Article de Cyrus Farivar pour Forbes US – traduit par Flora Lucas

 

Sur Etsy, tout le monde peut acheter des t-shirts et des photos d’Olivia Munn dédicacés par l’actrice elle-même. Il existe également des tasses pour les fans de l’actrice et mannequin américaine, que l’on peut personnaliser. Et, jusqu’à mardi, vous pouviez acheter des images numériques d’Olivia Munn générées par l’IA (deepfake), dont certaines étaient pornographiques.

« Avec une résolution de 300 DPI, les détails d’Olivia prennent vie, ce qui la rend idéale pour l’art numérique, la conception et l’impression. Olivia célèbre l’élégance de la forme féminine d’une manière artistique et de bon goût, ce qui la rend appropriée pour une variété d’applications créatives », peut-on lire dans la description d’une image en vente pour 2,49 dollars.

Bryan Sullivan, l’avocat d’Olivia Munn, qui a joué dans The Newsroom et dans de nombreux films de superhéros, a déclaré que sa cliente se sentait « violée et offensée » par ces images. « C’est scandaleux et c’est une violation des droits de ma cliente, et plus important encore, de sa dignité », a-t-il déclaré à Forbes. « Nous allons prendre des mesures pour retirer ces images et empêcher que cela ne se reproduise. Et j’ai déjà entamé ce processus avec Etsy. »

Bien que Bryan Sullivan ait déclaré avoir immédiatement informé Etsy après avoir été contacté par Forbes le 13 décembre, Etsy n’a retiré les images que six jours plus tard, après que Forbes ait contacté l’entreprise directement.

D’autres vendeurs proposaient des images similaires à des prix légèrement plus élevés (5,51 dollars) et faisaient même preuve de créativité : « Jenna Ortega vient de prendre un bain. Parties intimes rasées, poitrine surdimensionnée. » Un autre vendeur proposait de réaliser « n’importe quelle célébrité que vous aimez nue dans différentes positions… qu’elle soit nue, en plein acte sexuel ou simplement en lingerie », pour la modique somme de 0,92 dollar.

 


« Pour parler en termes crus, c’est sur Etsy, merde ! C’est comme ça qu’on sait que cette pratique est devenue courante, on la trouve sur Etsy. »

Hany Farid, professeur, UC Berkeley


 

Etsy supprime les comptes mis en cause par Forbes, mais le problème n’est pas résolu

Etsy a supprimé ces comptes (16 identifiés par Forbes), mais a laissé des milliers d’autres comptes contenant de la pornographie générée par l’IA, tous facilement repérables avec les termes de recherche les plus rudimentaires. « Nous sommes profondément attachés à la sécurité de notre marché et de notre communauté, et nous avons supprimé les annonces en question dès qu’elles ont été portées à notre attention », a déclaré Alice Wu, responsable de la sécurité chez Etsy, dans un communiqué envoyé par courriel à Forbes. « Les imitations de célébrités nues sont interdites. Étant donné qu’il s’agit d’un problème émergent sur Internet, nous travaillons activement à renforcer nos efforts d’application dans ce domaine. »

La société Etsy, qui a atteint une capitalisation boursière de près de dix milliards de dollars en facilitant la vente de bibelots et d’objets artisanaux, est confrontée à un problème de deepfake pornographique, engendré par la généralisation de l’IA.

Etsy a refusé d’expliquer sa politique concernant les images de personnes réelles (non connues) générées par l’IA ou d’expliquer pourquoi il y a tant d’images pornographiques artificielles sur son site. « Bien que certains contenus matures soient autorisés sur Etsy, la pornographie est interdite », a ajouté Alice Wu.

Malgré cette politique, une recherche avec les mots clefs « deepfake porn » a donné plus de 1 600 résultats au 18 décembre. Certains de ces résultats n’ont rien de pornographique et proposent simplement des services non explicites pour « faire sa propre vidéo deepfake ». Après que Forbes a contacté Etsy, le nombre de résultats pour ce terme de recherche était tombé à un peu moins de 1 500. De même, lundi, la recherche « ai nude » a donné plus de 4 000 résultats. Après que Forbes a contacté Etsy, ce nombre est tombé à moins de 3 700.

Certaines de ces images générées par l’IA étaient des deepfakes de célébrités féminines comme Olivia Munn, Jenna Ortega ou Ariana Grande. D’autres étaient entièrement constituées de personnes inventées, principalement des femmes.

Les annonces étaient très claires sur ce qu’elles vendaient. « Ce lot contient 40 images JPG de haute qualité, non censurées, représentant de nombreuses et magnifiques jeunes femmes entièrement nues, générées par l’IA, dans des poses et des lieux différents. Il n’y a pas de doublons avec d’autres paquets », peut-on lire dans une annonce.

 

Un problème de grande ampleur sur le site Etsy

Bien que la politique d’Etsy en matière d’objets interdits prohibe, au moment de la publication, la vente de pornographie (définie comme « du matériel qui décrit ou montre explicitement des actes sexuels, des organes sexuels ou d’autres comportements érotiques dans le but d’exciter ou de stimuler la sexualité »), il y a beaucoup de pornographie vendue sur le site.

Au moment de la publication de cet article, les recherches les plus directes sur des expressions telles que « AI porn » renvoyaient des images explicites, notamment des collections générées artificiellement de « goth sluts », « naughty nurses » et « winter flashing », ainsi qu’un oreiller décoratif représentant des rapports sexuels oraux.

Pendant ce temps, les algorithmes de recommandation d’Etsy orientaient les utilisateurs vers des images similaires. Au bas de la liste de la fausse image d’Olivia Munn, aujourd’hui supprimée, figuraient des listes de plusieurs autres images érotiques générées artificiellement de femmes célèbres vendues par le même vendeur, ainsi que des suggestions pour « explorer les recherches connexes » en utilisant des termes tels que « nsfw ai art » et « olivia munn nude ».

Selon Hany Farid, professeur d’informatique à l’université de Berkeley et expert en technologies d’IA générative, il n’y a « aucune raison technique » pour qu’Etsy ne puisse pas mieux filtrer ces matériaux. Les recherches de la même expression (« deepfake porn ») sur d’autres plateformes de commerce électronique, notamment Amazon et eBay, ne donnent pas de résultats similaires.

Officiellement, Etsy a établi une distinction entre les images de nu, qu’elle autorise, et la pornographie, qu’elle ne permet pas. Etsy adhère à une définition juridique commune du genre, interdisant les images représentant des organes sexuels ou des actes sexuels « dans un but d’excitation sexuelle ».

« Nous travaillons encore à déterminer la place des produits générés par l’IA sur notre marché, mais les annonces générées par l’IA qui violent nos politiques de longue date seront supprimées », a déclaré Alice Wu dans un communiqué. Elle ajoute que si les vendeurs sont « responsables du respect de nos politiques », Etsy surveille le site « à la fois manuellement et par le biais de contrôles automatiques ». Elle refuse d’expliquer exactement ce que cela implique ou pourquoi, si de telles précautions sont en place, une simple recherche de « AI porn » continue de renvoyer des produits contenant des deepfakes pornographiques d’actrices bien connues.

 

Le deepfake pornographique est facilité par la généralisation de l’IA

Ces dernières années, le deepfake pornographique, qui touche de manière disproportionnée les femmes, est devenu beaucoup plus sophistiqué, beaucoup plus facile à créer et a maintenant proliféré à des niveaux sans précédent, selon les experts.

Des logiciels facilement disponibles peuvent prendre presque n’importe quelle image et la rendre pornographique, souvent avec des détails presque réalistes. Des sites internet consacrés à la modification d’images de femmes réelles en utilisant l’IA pour enlever leurs vêtements permettent déjà à quiconque de créer une infinité d’images pornographiques générées par l’IA en quelques secondes, mais ces sites ne sont pas des plateformes de commerce électronique cotées en bourse.

Selon Hany Farid : « Pour parler en termes crus, c’est sur Etsy, merde ! C’est comme ça qu’on sait que cette pratique est devenue courante, on la trouve sur Etsy. »

La société Etsy, fondée en 2005, est entrée en bourse en 2015. En 2022, l’entreprise a réalisé un bénéfice de 643 millions de dollars, contre 627 millions de dollars l’année précédente. Elle a licencié 11 % de ses effectifs au début du mois de décembre. Elle a également du mal à gérer un flot de contenus générés par l’IA, comme des livres de coloriage bizarres et une pléthore de tasses à café bon marché avec des dictons amusant, a rapporté The Atlantic au début de l’année.

Selon un vendeur d’Etsy qui proposait à la vente ces fausses images de célébrités, elles ne sont « pas particulièrement populaires », car « de nos jours, tout le monde peut générer des images explicites artificielles à l’aide de l’IA ». Les autres vendeurs n’ont pas répondu aux demandes d’interview de Forbes.

Rebecca Delfino, professeur de droit à l’université Loyola Marymount de Los Angeles, qui étudie depuis des années l’intersection entre les deepfakes et la loi, a déclaré à Forbes qu’il n’existait pas de loi fédérale américaine protégeant les victimes réelles des deepfakes, mais qu’il existait des lois au niveau des États. « Lorsque vous vendez quelque chose d’une manière commerciale et que vous le commercialisez en masse, vous êtes soumis à toute une série de revendications de droits d’auteur, [de] l’appropriation de la ressemblance à la diffamation, à la fausse lumière, et dans certains États comme la Californie et New York, il y a maintenant des actions civiles », a-t-elle déclaré, en indiquant les États où beaucoup de ces célébrités sont basées.

 

Premier amendement

Selon Rebecca Delfino, la plupart des avocats de célébrités enverraient une mise en demeure à Etsy afin de protéger leurs clients. À ce jour, ajoute-t-elle, aucune affaire majeure n’a mis à l’épreuve les nouvelles lois des États en matière de pornographie fictive. Toutefois, un deepfake non pornographique est actuellement jugé par un tribunal fédéral de Los Angeles.

Au début de l’année, Kyland Young, une personnalité de la télé-réalité californienne, a poursuivi avec succès une société ukrainienne, Neocortext, qui fabrique l’application de substitution de visage « Reface ». Kyland Young a fait valoir que Neocortext avait violé son droit à la publicité en vertu de la législation de l’État de Californie en permettant aux utilisateurs de payer pour s’insérer dans des images fixes de Kyland Young, ou même pour échanger leur visage contre son corps. Ce mois-ci, Neocortext a fait appel de sa défaite devant la 9e cour d’appel du circuit américain, arguant que son application est protégée par le premier amendement.

Les recours juridiques étant limités (sans parler du temps et des ressources nécessaires pour les exercer), la responsabilité de gérer la prolifération des deepfakes pornographiques incombe en grande partie aux plateformes technologiques qui les hébergent et les rendent accessibles, qu’il s’agisse d’Etsy ou de Google, qui permet de trouver facilement d’autres sites publiant des deepfakes pornographiques.

« Je ne pense pas que ce problème puisse être résolu par des mises en demeure et des avocats », a déclaré Hany Farid. « C’est Internet. Il faut savoir où se trouvent les points de contrôle. »

 

À lire également : Le meilleur moyen de lutter contre les deepfakes est l’utilisation de méthodes simples

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC