TENDANCES
Comparateur
- AUTO
On connaît déjà tous les deepfakes. D’ailleurs, des chercheurs ont trouvé un moyen pour les détecter facilement. Cependant, la lutte contre les usurpations d’identité et les arnaques appuyée par l’utilisation de la technologie n’est pas finie pour autant.
Connaissez-vous l’arnaque au président ou faux ordres de virements (FOV) ? Il s’agit d’une escroquerie en vogue consistant à usurper l’identité d’un chef d’entreprise. Eh bien, les escrocs viennent de booster cette forme d’arnaque en y ajoutant l’intelligence artificielle.

L’incident s’est produit aux Emirats arabes unis. Le directeur d’une grande banque a effectivement été dupé par la voix clonée du patron d’une société qu’il avait comme client. A la suite d’une discussion avec ce prétendu propriétaire d’entreprise, le banquier a validé un virement de 35 millions de dollars.
Fort heureusement, une fois le pot-aux-roses découvert, les autorités – aidées par des enquêteurs américains – ont pu retrouver 17 personnes impliquées. Néanmoins, cette arnaque au président boostée à l’IA pourrait devenir une pratique courante chez les arnaqueurs dans un avenir proche. Cela pourrait prendre la forme d’un proche qui nous demande subitement de l’argent alors que sa boîte e-mail a été piratée, par exemple.
En tout cas, nul doute qu’avec les Deep Voices, les escrocs pourraient faire plus de victimes qu’avec les méthodes connues jusqu’à présent. C’est pourquoi, la vigilance est de mise.
Amazon MGM Studios et Sony Pictures Television ont choisi Ryan Hurst pour prêter ses traits à Kratos dans la future série God of War...
À partir d’aujourd’hui, l’ensemble des membres Amazon Prime en France peuvent accéder gratuitement à M6+ sur Prime...
La justice californienne passe à l’offensive contre l’intelligence artificielle Grok. Le procureur général...
Sony fait le bilan de l’année 2025 et dévoile quels ont été les jeux PlayStation les plus...
L’année 2026 marque un tournant brutal pour l’industrie des smartphones : les consommateurs doivent se préparer à payer...
3 commentaires pour cet article :