De fausses images pornographiques de Taylor Swift provoquent l’indignation générale
La classe politique américaine et les fans de Taylor Swift ont exprimé leur indignation vendredi alors que de fausses images pornographiques mettant en scène la chanteuse, créées grâce à l’IA générative, ont été largement partagées ces derniers jours sur X (ex-Twitter) et d’autres plateformes.
L’une de ces images a ainsi été vue plus de 47 millions de fois sur le réseau social. Selon les médias américains, l’image est restée sur X pendant plus de 17 heures avant d’être supprimée.
Les fausses images (« deepfakes ») pornographiques de femmes célèbres, mais visant également beaucoup de personnes anonymes, ne sont pas nouvelles.
Mais le développement de programmes d’intelligence artificielle (IA) générative risque de produire un flux incontrôlable de contenus dégradants, selon de nombreux activistes et régulateurs.
Le fait que de telles images touchent cette fois-ci Taylor Swift, au deuxième rang des artistes les plus écoutés au monde sur la plateforme Spotify, pourrait cependant aider à sensibiliser les autorités au problème, étant donné l’indignation de ses millions de fans.
« Le seul +point positif+ à ce que cela arrive à Taylor Swift est qu’elle pèse suffisamment pour qu’une loi soit votée permettant d’éliminer ça. Vous êtes des malades », a ainsi posté sur X Danisha Carter, une influenceuse disposant d’une audience de plusieurs centaines de milliers de personnes sur les réseaux sociaux.
« Alarmés »
La Maison Blanche a également exprimé sa préoccupation sur le sujet.
« Nous sommes alarmés par les informations faisant état de la circulation de ces fausses images », a déclaré devant la presse Karine Jean-Pierre, la porte-parole de l’exécutif américain.
Elle a rappelé le rôle important des réseaux sociaux dans la modération des contenus.
« Malheureusement, trop souvent, nous savons que le manque d’application des règles a un impact disproportionné sur les femmes et les filles, qui sont les principales cibles du harcèlement en ligne », a-t-elle ajouté.
X est connu pour avoir des règles sur la nudité moins strictes qu’Instagram ou Facebook.
Apple et Google ont un droit de regard sur les contenus circulant sur les applications via les règles qu’ils imposent sur leurs systèmes d’exploitation mobile, mais ils ont toléré cette situation sur X, jusqu’à présent.
Dans un communiqué, X a assuré avoir « une politique de tolérance zéro » sur la publication non consentie d’images de nudité.
La plateforme a déclaré « retirer concrètement toutes les images identifiées » de la chanteuse et « prendre les mesures appropriées contre les comptes les ayant postées ».
Les représentants de la chanteuse américaine ne se sont pour l’heure pas exprimés.
« Garde-fous »
« Ce qui est arrivé à Taylor Swift n’est pas nouveau, des femmes sont la cible de fausses images sans leur consentement depuis des années », a rappelé pour sa part l’élue démocrate Yvette Clarke, qui a soutenu une loi pour lutter contre le phénomène. « Avec les avancées de l’IA, créer ces images est plus simple et moins cher ».
Tom Kean Jr., membre républicain du Congrès, a averti que « l’IA progresse plus rapidement que les garde-fous nécessaires. Que la victime soit Taylor Swift ou n’importe quel jeune de notre pays, nous devons ériger des barrières pour lutter contre ce phénomène préoccupant ».
Une étude réalisée en 2019 estimait que 96% des vidéos deepfakes étaient de nature pornographique.
Selon le magazine Wired, 113.000 vidéos de ce type ont été mises en ligne sur les principaux sites pornographiques pendant les neuf premiers mois de 2023.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici