TENDANCES
Comparateur
- AUTO
On connaît déjà tous les deepfakes. D’ailleurs, des chercheurs ont trouvé un moyen pour les détecter facilement. Cependant, la lutte contre les usurpations d’identité et les arnaques appuyée par l’utilisation de la technologie n’est pas finie pour autant.
Connaissez-vous l’arnaque au président ou faux ordres de virements (FOV) ? Il s’agit d’une escroquerie en vogue consistant à usurper l’identité d’un chef d’entreprise. Eh bien, les escrocs viennent de booster cette forme d’arnaque en y ajoutant l’intelligence artificielle.

L’incident s’est produit aux Emirats arabes unis. Le directeur d’une grande banque a effectivement été dupé par la voix clonée du patron d’une société qu’il avait comme client. A la suite d’une discussion avec ce prétendu propriétaire d’entreprise, le banquier a validé un virement de 35 millions de dollars.
Fort heureusement, une fois le pot-aux-roses découvert, les autorités – aidées par des enquêteurs américains – ont pu retrouver 17 personnes impliquées. Néanmoins, cette arnaque au président boostée à l’IA pourrait devenir une pratique courante chez les arnaqueurs dans un avenir proche. Cela pourrait prendre la forme d’un proche qui nous demande subitement de l’argent alors que sa boîte e-mail a été piratée, par exemple.
En tout cas, nul doute qu’avec les Deep Voices, les escrocs pourraient faire plus de victimes qu’avec les méthodes connues jusqu’à présent. C’est pourquoi, la vigilance est de mise.
McDonald’s vient de retirer sa dernière campagne publicitaire, entièrement réalisée avec l’intelligence...
Emmanuel Macron accélère sur la régulation numérique. En déplacement à Saint-Malo ce mercredi, le...
Selon plusieurs sources proches du dossier, SpaceX envisagerait une introduction en bourse entre la mi-2026 et la fin 2026, avec pour objectif de lever...
L’administration Trump s’apprête à serrer la vis pour les touristes étrangers exemptés de visa, y compris les...
La première grande mise à jour d’Android XR pour le Samsung Galaxy XR est désormais déployée, et cette...
10 Dec. 2025 • 20:03
3 commentaires pour cet article :