TENDANCES
Comparateur
- AUTO
Des hackers affiliés aux gouvernements russe, chinois, iranien ou nord-coréen utilisent ChatGPT pour identifier des vulnérabilités dans les systèmes informatiques, préparer des opérations de phishing ou désactiver des logiciels antivirus, rapportent OpenAI et Microsoft.

OpenAI indique avoir « perturbé » l’utilisation de l’intelligence artificielle générative par ces acteurs para-gouvernementaux, avec la collaboration de Microsoft Threat Intelligence, cellule qui répertorie les menaces posées aux entreprises en matière de cybersécurité. « Les comptes OpenAI identifiés comme affiliés à ces acteurs ont été clôturés », a précisé le créateur de ChatGPT.
Emerald Sleet, groupe de hackers nord-coréens, et Crimson Sandstorm, associé aux Gardiens de la Révolution iraniens, se sont servis du chatbot pour générer des documents susceptibles d’être utilisés pour du phishing, selon l’étude. Crimson Sandstorm a également utilisé des modèles de langage (LLM), à la base des interfaces d’IA générative, pour mieux comprendre comment désactiver des logiciels antivirus, selon Microsoft.
Quant au groupe Charcoal Typhoon, considéré comme proche des autorités chinoises, il a eu recours à ChatGPT pour tenter de détecter des vulnérabilités en prévision de possibles attaques informatiques.
« L’objectif du partenariat entre Microsoft et OpenAI est de s’assurer de l’utilisation sûre et responsable des technologies appuyées sur l’intelligence artificielle, comme ChatGPT », selon Microsoft. Le groupe indique avoir contribué à renforcer la protection des modèles de langage d’OpenAI.
Le rapport relève que l’interface a refusé d’aider Salmon Typhoon, un autre groupe de pirates qui est proche du gouvernement chinois, à générer du code informatique à des fins de piratage, « adhérant ainsi aux règles éthiques » intégrées au logiciel. « Comprendre comment les acteurs malveillants les plus avancés utilisent nos programmes à des fins malveillantes nous renseigne sur des pratiques qui pourraient devenir plus répandues à l’avenir », explique OpenAI.
« Nous ne parviendrons pas à bloquer toute tentative » mal intentionnée, prévient OpenAI. « Mais en continuant à innover, collaborer et partager, nous compliquons la tâche des acteurs malveillants qui veulent passer inaperçus ».
Anthropic vient de franchir une étape dans l’automatisation du travail en connectant directement son chatbot Claude à neuf...
Les députés français ont adopté ce lundi à l’Assemblée nationale l’article central d’une...
Take-Two et Rockstar Games envisageraient de ne pas commercialiser la version disque de Grand Theft Auto VI (GTA 6) en même temps que...
La Commission européenne a intégré aujourd’hui WhatsApp à la liste des très grandes plateformes en ligne,...
SpaceX se prépare à franchir une nouvelle étape dans son programme spatial avec le premier vol d’essai de Starship V3,...
26 Jan. 2026 • 19:12
26 Jan. 2026 • 18:38