TENDANCES
Comparateur
- AUTO
Spécialiste des solutions de cybersécurité, McAfee vient de présenter lors du CES 2024 une technologie capable de détecter les deepfakes audio, et évidemment ils y a de l’IA derrière tout ça. Le Projet Mockingbird de McAfee serait ainsi capable de déterminer la nature artificielle d’une voix « enregistrée » avec un niveau de précision particulièrement élevé (90%). Ce taux de réussite spectaculaire est obtenu grâce à une conjonction de plusieurs types d’IA (contextuelles, comportementales, etc.) qui permet de déceler la moindre variation anormale dans un extrait vocal.
Etant donné l’explosion des fakes et de la myriade des manipulations numériques effectuées, la solution de McAfee est promise à un bel avenir. Les risques liés à la reproduction de la voix ou de l’apparence d’un individu sont bien réels, et font peser des menaces réelles sur les démocraties basées sur l’indépendance et la confiance accordée aux informations (on se souvient des faux clichés montrant le Président Emmanuel Macron dans les manifestations, le Pape en doudoune ou Donal Trump arrêté par la Police américaine).
McAfee n’a pas encore précisé s’il comptait faire de son Projet Mockingbird une solution de cybersécurité commercialisable, mais étant donné le passif de l’éditeur, il est très portable qu’une solution clef en main soit disponible dans le courant de l’année.
La Fédération Française de Football (FFF) annonce avoir fait l’objet d’une cyberattaque qui se veut assez massive, avec...
Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...
La plateforme de cryptomonnaies Coinbase annonce que la Securities and Exchange Commission (SEC), le gendarme boursier américain, a accepté...
YouTube Premium Lite va être un nouvel abonnement avec l’avantage d’être moins cher que l’offre existante. Selon Bloomberg,...
Les États-Unis ont investi un montant record de 338 milliards de dollars dans la transition énergétique en 2024, et principalement...
21 Feb. 2025 • 21:02