TENDANCES
Comparateur
- AUTO
YouTube fait face à une vague de critiques après des révélations selon lesquelles la plateforme utilise l’intelligence artificielle pour modifier des vidéos, notamment des Shorts, sans l’autorisation des créateurs. Cette pratique soulève des questions sur la transparence et l’éthique dans la gestion des contenus d’utilisateurs.
Rhett Shull, un YouTubeur suivi par près de 750 000 abonnés, a publié une vidéo pour dénoncer ces altérations. En comparant un Short publié sur YouTube et la même vidéo sur Instagram, il a constaté des différences flagrantes. Les cheveux semblent irréels, comme ceux d’une poupée. La peau paraît trop lisse et les oreilles semblent changer de forme pendant la vidéo. Il souligne un rendu artificiel non intentionnel. Ces observations ont été confirmées par d’autres créateurs, comme Rick Beato, qui ont remarqué des changements similaires dans leurs vidéos.
Un fil de discussion sur Reddit, datant de juin, avait déjà alerté sur ces modifications, avec de nombreux utilisateurs partageant des preuves de retouches automatiques. Ce qui choque le plus, c’est l’absence de consentement : YouTube applique ces changements par IA sans prévenir ni consulter les créateurs, une pratique jugée problématique par la communauté.
Face à la polémique, YouTube a répondu via Rene Ritchie, responsable éditorial et des relations avec les créateurs. « Nous menons une expérience sur certains YouTube Shorts, utilisant une technologie d’apprentissage automatique traditionnelle pour désembuer, réduire le bruit et améliorer la clarté des vidéos pendant leur traitement », a-t-il déclaré dans un message sur X (ex-Twitter). Il compare ces ajustements aux optimisations automatiques des smartphones modernes lors de l’enregistrement vidéo. Le officiel de Team YouTube a précisé que ces modifications relèvent d’une « expérimentation pour améliorer la qualité vidéo avec un apprentissage automatique traditionnel, et non de l’IA générative ».
Cependant, cette distinction entre IA générative et apprentissage automatique ne convainc pas tous les observateurs. Samuel Woolley, professeur à l’université de Pittsburgh, souligne que « l’apprentissage automatique est une sous-catégorie de l’intelligence artificielle ». Il ajoute que, quelle que soit la technologie utilisée, modifier des vidéos sans consentement explicite « pourrait éroder la confiance du public dans les contenus en ligne ».
Cette controverse s’inscrit dans un contexte où YouTube intègre de plus en plus l’IA dans ses fonctionnalités. En juillet, la plateforme a annoncé utiliser l’IA pour estimer l’âge des utilisateurs afin de proposer des contenus adaptés et des protections appropriées. Par ailleurs, YouTube a renforcé ses politiques contre les contenus « inauthentiques » générés par IA, visant à limiter la propagation de vidéos de faible qualité.
Pourtant, ces efforts semblent contradictoires avec l’application secrète de modifications automatiques, qui risque de brouiller la frontière entre authenticité et manipulation algorithmique. Pour leur part, les YouTubeurs estiment que ces changements non autorisés menacent la relation de confiance avec leur public.
Les créateurs de Cobra Kai relancent K2000 sur grand écran Si l’on en croit le souvent bien renseigné The Hollywood Reporter,...
Le très attendu Replaced, développé par Sad Cat Studios, ne sortira finalement pas en 2025. Le studio a confirmé que ce jeu...
L’intelligence artificielle s’apprête à avoir un impact dans l’éducation en France. La ministre de...
Après Apple TV+ et son blockbuster F1 (plus de 600 millions de dollars de recettes), c’est donc au tour de Netflix de faire trembler le...
Will Smith est accusé d’avoir falsifié le public de sa tournée via l’intelligence artificielle Décidément,...