TENDANCES
Comparateur
- AUTO
Vous avez probablement déjà entendu parler des deepfakes. Pour rappel, c’est une technique de synthèse multimédia reposant sur l’intelligence artificielle (IA). Les personnes mal intentionnées les utilisent pour superposer des fichiers audio ou vidéo existants à d’autres fichiers. L’année dernière, Facebook a décidé de bannir les vidéos deepfakes, Twitter lui a ensuite emboîté le pas.
Identifier les deepfakes n’est pas une mince affaire. Toutefois, un groupe de chercheurs de plusieurs universités américaines a trouvé une astuce pour identifier une fausse vidéo.
Une étude parue dans Arxiv.org a affirmé que les visages générés par des IA présenteraient des imperfections au niveau des pupilles. En effet, cette partie des yeux, qui a une forme circulaire, est compliquée à reproduire pour un algorithme.
En regardant simplement les pupilles des personnes dans les photos ou les vidéos, vous parviendrez ainsi à savoir presque immédiatement si le fichier est un vrai ou un faux. Les chercheurs affirment de leur côté que cette technique est efficace à hauteur de 80 %.
Néanmoins, il faut savoir que si les chercheurs et développeurs ne cessent d’évoluer, les personnes mal intentionnées évoluent également. Ainsi, il est probable que les algorithmes de deepfakes soient constamment modifiés pour corriger les imperfections.
C’est la semaine du Black Friday,l’avant dernière semaine du mois de novembre, qui est une période de grosses promotions pour...
La tablette Pixel Tablet 2 ne verra visiblement pas le jour, avec Google ayant décidé d’annuler sa sortie. Le modèle existant,...
Jessica Rosenworcel, la première femme à occuper le poste de présidente permanente de la FCC (Federal Communications Commission),...
Une plainte fédérale ciblant la loi du Minnesota « Utilisation de la technologie Deep Fake pour influencer une...
Le département de la Justice (DOJ) des États-Unis a officiellement estimé aujourd’hui que Google doit vendre Chrome. Cela fait...
21 Nov. 2024 • 22:43
21 Nov. 2024 • 20:09
21 Nov. 2024 • 18:56
21 Nov. 2024 • 18:44