TENDANCES
Comparateur
- AUTO
Un chercheur en sécurité a découvert que Gemini, l’intelligence artificielle de Google, est vulnérable à des attaques par dissimulation de commandes. Malgré une démonstration prouvant le risque, l’entreprise refuse de corriger la faille de sécurité, la considérant comme une technique d’ingénierie sociale plutôt qu’une réelle vulnérabilité.

Cette cybermenace, connue sous le nom d’« ASCII smuggling », a été mise en évidence par le chercheur Viktor Markopoulos. La technique consiste à cacher une instruction (prompt) malveillante dans un texte en utilisant, par exemple, une taille de police minuscule. Un utilisateur humain ne la remarquera probablement pas, mais une IA chargée de traiter ce texte, comme pour en faire un résumé, lira et exécutera cette commande cachée.
Les implications d’une telle attaque sont problématiques. Le prompt dissimulé pourrait ordonner à l’intelligence artificielle de fouiller la boîte de réception d’un utilisateur à la recherche d’informations sensibles ou de transmettre des listes de contacts. Le risque est d’autant plus grand que Gemini est désormais intégré à l’environnement de Google Workspace, lui donnant accès à un grand nombre de données personnelles et professionnelles.
Viktor Markopoulos a testé plusieurs des grands modèles de langage (LLM) les plus populaires face à cette attaque. Ses recherches ont révélé que Gemini, DeepSeek et Grok étaient tous sensibles à cette manipulation.
En revanche, d’autres acteurs majeurs du marché ont mis en place des protections efficaces. Les modèles concurrents comme Claude, ChatGPT et Copilot se sont avérés sécurisés contre ce type de menace, démontrant qu’il est possible de contrer cette pratique.
Après sa découverte, le chercheur a contacté Google, allant jusqu’à fournir une démonstration concrète. Dans son test, il a réussi à tromper Gemini en lui faisant partager un prompt invisible qui a conduit l’IA à recommander un site malveillant pour l’achat d’un téléphone.
La réponse de l’entreprise a été de classer le problème non pas comme une faille de sécurité, mais comme une tactique d’ingénierie sociale. En substance, Google estime que la responsabilité de la détection de telles manipulations repose sur l’utilisateur final. Compte tenu de cette position, il semble que Google n’a aucune intention de déployer un correctif pour ce qui constitue pourtant un problème de sécurité pour Gemini.
La fonction de remplissage automatique de Google Chrome, déjà très utilisée pour les adresses et les mots de passe, devient...
Si vous avez déjà pesté contre votre PC qui redémarre au lieu de s’éteindre après avoir cliqué sur...
Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...
Le Roi des Monstres s’apprête à rugir de nouveau. Après le triomphe mondial de Godzilla Minus One en 2023 (sans doute l’un...
La plateforme X, sous la houlette de Elon Musk, lance une nouveauté majeure dans le domaine de la messagerie chiffrée avec...