TENDANCES
Comparateur
- AUTO
Le conseil de surveillance de Meta (Facebook, Instagram) a annoncé se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des deepfakes mettant en scène Taylor Swift.
Les deux cas ont été sélectionnés « pour évaluer si les règlements de Meta et leur application sont efficaces pour traiter (le problème) des images à caractère sexuel générées par l’intelligence artificielle », note dans un communiqué ce conseil surnommé « cour suprême ».
Mis en place par le géant des réseaux sociaux et composé de membres indépendants, le conseil est chargé de trancher des questions épineuses de modération des contenus.
Le premier cas choisi par le conseil de surveillance de Meta concerne une image générée par IA d’une femme nue postée sur Instagram, « ressemblant à une personnalité publique indienne », indique le communiqué. Un utilisateur s’est plaint que l’entreprise ne retire pas cette image. « Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l’intimidation et le harcèlement », relève le conseil.
Le deuxième cas concerne une image postée sur un groupe Facebook de création de contenus par IA, montrant « une femme nue avec un homme qui lui tripote les seins ». La femme « ressemble à une personnalité publique américaine », également nommée dans la légende.
Meta avait retiré l’image et l’avait ajoutée à une banque de contenus qui fait partie de son système d’application des règles, pour trouver et supprimer automatiquement de ses plateformes les images déjà identifiées par des employés comme problématiques.
En janvier dernier, une fausse image pornographique Taylor Swift avait été vue 47 millions de fois sur X (ex-Twitter) avant d’être supprimée par le réseau social, une quinzaine d’heures après avoir été mise en ligne. L’affaire avait suscité l’indignation de ses fans, de nombreuses personnalités et même de la Maison Blanche.
Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, 96% des fausses vidéos en ligne sont de la pornographie non consentie et la plupart d’entre elles représentent des femmes, célèbres ou pas.
Sony Pictures a levé le voile sur la bande-annonce officielle d’Anaconda, une parodie du nanar culte des années 90 attendue dans les...
YouTube dévoile une suite d’outils d’intelligence artificielle générative destinés aux créateurs de Shorts....
Les nuages sombres s’accumulent pour Nvidia : dans la foulée de l’accusation antitrust, les autorités chinoises par...
DJI vient de dévoiler le Mini 5 Pro, un drone compact promettant des performances photo-vidéo dignes des modèles pros tout en restant...
PayPal dévoile une nouveauté dans le domaine des paiements entre particuliers avec le lancement de PayPal Links. Cette nouvelle...
mais le « dommageables » est également discutable. Ça écorne leur égo plus que leur carrière, car je ne connais personne dont la carrière ait été ruiné par des deepfakes. Au mieux, c’est de la pub gratuite, comme toutes ces stars sur le déclin qui leak leur sextapes.