TENDANCES
Comparateur
- AUTO
Une plainte fédérale ciblant la loi du Minnesota « Utilisation de la technologie Deep Fake pour influencer une élection » a pris un tournant particulièrement savoureux (et inquiétant à la fois) suite aux allégations selon lesquelles un afidavit en soutien à la loi contiendrait des éléments qui auraient été hallucinés par une IA, et ce alors que ces mêmes éléments ont été rapportés lors d’une déclaration sous serment. Les avocats qui contestent la loi affirment désormais que le document déposé par jeff Hancock, le directeur du Stanford Social Media Lab, au nom du procureur général Keith Ellison inclut des citations relatives à des études ou des recherches…totalement inexistantes ! Ces sources, apparemment fabriquées (ou plutôt hallucinées) par ChatGPT ou un autre grand modèle de langage, soulèvent évidemment bien des questions sur la validité même de l’affidavit.
Le document fait notamment référence à des études telles que « L’influence de la vidéo deepfake sur les attitudes et comportements politiques » ou bien encore « Deepfakes and the Illusion of Authenticity : Cognitive Processes Behind Misinformation Acceptance », deux papiers de recherche dont on ne retrouve aucune trace nulle part. c’est peu dire que cette révélation ajoute une nouvelle dimension à la plainte, soulignant au passage les risques de s’appuyer sur du contenu généré par l’IA dans des contextes juridiques et académiques.
Google a annoncé qu’il ne commercialisera plus de nouveaux thermostats connectés Nest en Europe, en raison des exigences...
Microsoft déploie officiellement Recall, sa fonctionnalité d’intelligence artificielle controversée, sur Windows 11....
Meta annonce que Facebook va réduire la portée des comptes diffusant des contenus liés au spam et les exclure de la...
Lors du procès antitrust contre Google aux États-Unis, Yahoo a révélé son intention potentielle d’acquérir...
Orange renforce son engagement en faveur du climat en signant un plan de progrès avec le groupe Camusat, spécialiste des infrastructures...
25 Apr. 2025 • 22:39
25 Apr. 2025 • 17:14
3 commentaires pour cet article :