TENDANCES
Comparateur
- AUTO
Un chercheur en sécurité a découvert que Gemini, l’intelligence artificielle de Google, est vulnérable à des attaques par dissimulation de commandes. Malgré une démonstration prouvant le risque, l’entreprise refuse de corriger la faille de sécurité, la considérant comme une technique d’ingénierie sociale plutôt qu’une réelle vulnérabilité.

Cette cybermenace, connue sous le nom d’« ASCII smuggling », a été mise en évidence par le chercheur Viktor Markopoulos. La technique consiste à cacher une instruction (prompt) malveillante dans un texte en utilisant, par exemple, une taille de police minuscule. Un utilisateur humain ne la remarquera probablement pas, mais une IA chargée de traiter ce texte, comme pour en faire un résumé, lira et exécutera cette commande cachée.
Les implications d’une telle attaque sont problématiques. Le prompt dissimulé pourrait ordonner à l’intelligence artificielle de fouiller la boîte de réception d’un utilisateur à la recherche d’informations sensibles ou de transmettre des listes de contacts. Le risque est d’autant plus grand que Gemini est désormais intégré à l’environnement de Google Workspace, lui donnant accès à un grand nombre de données personnelles et professionnelles.
Viktor Markopoulos a testé plusieurs des grands modèles de langage (LLM) les plus populaires face à cette attaque. Ses recherches ont révélé que Gemini, DeepSeek et Grok étaient tous sensibles à cette manipulation.
En revanche, d’autres acteurs majeurs du marché ont mis en place des protections efficaces. Les modèles concurrents comme Claude, ChatGPT et Copilot se sont avérés sécurisés contre ce type de menace, démontrant qu’il est possible de contrer cette pratique.
Après sa découverte, le chercheur a contacté Google, allant jusqu’à fournir une démonstration concrète. Dans son test, il a réussi à tromper Gemini en lui faisant partager un prompt invisible qui a conduit l’IA à recommander un site malveillant pour l’achat d’un téléphone.
La réponse de l’entreprise a été de classer le problème non pas comme une faille de sécurité, mais comme une tactique d’ingénierie sociale. En substance, Google estime que la responsabilité de la détection de telles manipulations repose sur l’utilisateur final. Compte tenu de cette position, il semble que Google n’a aucune intention de déployer un correctif pour ce qui constitue pourtant un problème de sécurité pour Gemini.
Microsoft déploie une nouvelle fonctionnalité en test sur Windows 11 permettant de diffuser de l’audio simultanément sur deux...
Nouvelle lubie ou véritable projet tech ? Elon Musk, le patron visionnaire de Tesla, a promis de faire littéralement décoller son...
À partir du 12 novembre, toute personne souhaitant accéder à un site pornographique depuis l’Italie devra passer par un...
Les chercheurs d’Andon Labs, réputés pour leurs expériences loufoques mêlant robots et intelligence artificielle, ont...
Amazon commence à opérer à un changement majeur de politique sur ses appareils Fire TV en bloquant activement les applications qui...