YouTube élargit à Hollywood sa fonction de détection des deepfakes générés par intelligence artificielle, ce qui pourrait entraîner la suppression de certaines vidéos mettant en scène des célébrités. Derrière cet élargissement, la plateforme ne se limite pas au retrait de contenus : elle commence aussi à structurer la gestion de l’image synthétique des artistes.

L’outil permet aux personnalités publiques de repérer sur YouTube des contenus IA qui reproduisent leur visage, puis de demander leur retrait. Toutes les demandes ne seront pas acceptées pour autant car l’examen reste encadré par la politique de confidentialité de la plateforme appartenant à Google et laisse subsister des usages protégés comme la parodie ou la satire.
Un contrôle élargi, mais pas automatique
YouTube avait d’abord lancé les tests auprès des créateurs à l’automne dernier, avant d’élargir le programme aux responsables politiques et aux journalistes en mars. L’ouverture aux célébrités marque donc une nouvelle étape, avec une couverture même pour des personnalités qui ne disposent pas elles-mêmes d’un compte YouTube.
Pour rejoindre le dispositif, les participants doivent fournir une pièce d’identité et un selfie vidéo. La détection se concentre sur le visage et ne porte pas, à ce stade, sur la voix ou sur d’autres éléments d’identification.
Le système n’offre toutefois aucun droit de suppression automatique. YouTube indique d’ailleurs que les créateurs déjà intégrés au programme n’ont demandé le retrait que d’un très petit nombre de vidéos, ce qui montre que l’outil sert autant à surveiller l’usage d’une image qu’à faire disparaître massivement des contenus.
Vers une monétisation des deepfakes IA ?
YouTube rapproche cette fonction à Content ID, son outil de repérage des contenus protégés par le droit d’auteur. La comparaison a une limite importante : contrairement à Content ID, la détection d’apparence ne permet pas encore aux personnes concernées de monétiser les vidéos de tiers qui utilisent leur image.
C’est pourtant la direction suggérée par l’ensemble du dispositif. La plateforme a récemment annoncé une fonction autorisant les créateurs à cloner numériquement leur apparence avec l’IA pour l’insérer dans des vidéos, tandis que l’agence CAA, qui a soutenu l’extension du programme, dispose déjà d’une base de données biométriques de ses clients pour protéger ou exploiter commercialement leur image.
Cette logique ouvre plusieurs scénarios pour Hollywood. Certaines célébrités voudront faire retirer les deepfakes IA les visant, d’autres pourraient tolérer des créations de fans et une partie de l’industrie pourrait finir par accepter ces usages à condition d’en contrôler le cadre et d’en capter les revenus.