TENDANCES
Comparateur
- AUTO
Google lance un nouveau programme qui récompense tous ceux qui trouvent des failles de sécurité dans ses systèmes d’intelligence artificielle, dont Gemini. La récompense peut atteindre 30 000 dollars.

Les failles que recherche activement Google concernent l’exploitation malveillante des modèles de langage et des systèmes génératifs. L’entreprise illustre sa démarche avec des exemples précis : une injection de prompt pourrait commander à Google Home de déverrouiller une porte, tandis qu’une autre technique permettrait d’exfiltrer l’intégralité des e-mails d’une victime vers le compte d’un attaquant.
La définition retenue couvre les vulnérabilités permettant d’altérer les comptes ou données utilisateurs. Un cas avéré démontrait qu’un événement Google Agenda modifié pouvait manipuler des volets connectés et éteindre l’éclairage domestique. Ces actions non autorisées constituent la priorité absolue du programme
Depuis deux ans, l’entreprise a distribué plus de 430 000 dollars aux chercheurs en sécurité spécialisés en IA avec un programme test. Ces experts traquent systématiquement les moyens d’abuser des fonctionnalités intelligentes intégrées aux produits de Google.
Les récompenses s’échelonnent selon plusieurs critères. La somme de base atteint 20 000 dollars pour les vulnérabilités touchant les produits phares : le moteur de recherche, les applications de Gemini, ainsi que les outils Workspace comme Gmail et Google Drive. Des multiplicateurs récompensent la qualité du rapport tandis qu’un bonus nouveauté peut porter le montant total à 30 000 dollars. Les tarifs diminuent pour les autres services tels que Jules ou NotebookLM, ainsi que pour les exploitations de moindre gravité comme le vol de paramètres secrets du modèle.
Les simples hallucinations de Gemini ne suffisent pas à décrocher une récompense. Google oriente les problématiques de contenu généré vers d’autres procédures. Les sorties inappropriées comme les discours haineux ou les violations de droits d’auteur doivent transiter par le canal intégré au service. Cette approche permet aux équipes de sécurité IA d’analyser le comportement du modèle et d’implémenter un entraînement correctif à l’échelle globale.
L’annonce du programme s’accompagne du lancement de CodeMender. Cet agent d’intelligence artificielle détecte et corrige les vulnérabilités dans le code source. Google affirme avoir déployé 72 correctifs de sécurité dans des projets open source grâce à cet outil, chaque intervention étant validée par un chercheur humain avant déploiement.
L’Arcep a dévoilé aujourd’hui les conclusions de sa campagne annuelle pour la qualité des réseaux mobiles entre...
Soulagement pour les joueurs PC : si vos jeux ont des chutes de FPS depuis quelques semaines sans raison apparente, votre carte graphique n’est pas...
Quelques jours après le complet succès du deuxième vol de sa nouvelle méga-fusée, Blue Origin frappe à nouveau...
Le télescope spatial James Webb continue de transformer notre compréhension du cosmos. Cette fois, l’instrument de la NASA a permis de...
20 Nov. 2025 • 21:14
2 commentaires pour cet article :