TENDANCES
Comparateur
- AUTO
Une plainte fédérale ciblant la loi du Minnesota « Utilisation de la technologie Deep Fake pour influencer une élection » a pris un tournant particulièrement savoureux (et inquiétant à la fois) suite aux allégations selon lesquelles un afidavit en soutien à la loi contiendrait des éléments qui auraient été hallucinés par une IA, et ce alors que ces mêmes éléments ont été rapportés lors d’une déclaration sous serment. Les avocats qui contestent la loi affirment désormais que le document déposé par jeff Hancock, le directeur du Stanford Social Media Lab, au nom du procureur général Keith Ellison inclut des citations relatives à des études ou des recherches…totalement inexistantes ! Ces sources, apparemment fabriquées (ou plutôt hallucinées) par ChatGPT ou un autre grand modèle de langage, soulèvent évidemment bien des questions sur la validité même de l’affidavit.
Le document fait notamment référence à des études telles que « L’influence de la vidéo deepfake sur les attitudes et comportements politiques » ou bien encore « Deepfakes and the Illusion of Authenticity : Cognitive Processes Behind Misinformation Acceptance », deux papiers de recherche dont on ne retrouve aucune trace nulle part. c’est peu dire que cette révélation ajoute une nouvelle dimension à la plainte, soulignant au passage les risques de s’appuyer sur du contenu généré par l’IA dans des contextes juridiques et académiques.
TikTok annonce que son réseau social fermera ses portes ce dimanche, le 19 janvier 2025, aux États-Unis. Cela fait suite à...
Google a informé l’Union européenne qu’il ne s’engageait pas à intégrer le travail des organisations de...
Les robots humanoïdes G1 d’Unitree font leur footing dans la dernière vidéo publiée par la firme chinoise, et c’est...
L’année passée a été difficile pour l’émulation, avec une pression croissante de la part de Nintendo qui a...
Un incendie s’est déclaré à la Moss Landing Energy Storage Facility (en Californie), la plus grande installation de stockage...
18 Jan. 2025 • 7:13
17 Jan. 2025 • 20:46
17 Jan. 2025 • 19:21
17 Jan. 2025 • 18:52
3 commentaires pour cet article :