KultureGeek Logiciels IA : quelques centaines de documents suffisent pour compromettre un grand modèle de langage (LLM)

IA : quelques centaines de documents suffisent pour compromettre un grand modèle de langage (LLM)

10 Oct. 2025 • 12:40
2

C’est un choc : une étude récente menée par Anthropic en collaboration avec le UK AI Security Institute et le Alan Turing Institute montre qu’il suffit de 250 documents malveillants insérés dans les données d’entraînement pour implanter une porte dérobée (backdoor) dans un modèle de langage (LLM), même de très grande taille. Pire encore, ce nombre reste quasi constant, quelle que soit l’ampleur du modèle — de 600 millions à 13 milliards de paramètres.

Lignes de Code Intelligence Artificielle

Comprendre l’attaque par « data poisoning »

Cette technique de compromission des LLMs, dite par « data poisoning », consiste à intégrer des contenus manipulés lors de la phase de pré-entraînement : lorsqu’un déclencheur donné apparaît, le modèle produit un comportement anormal, comme du texte incohérent. En l’absence de ce signal, le modèle se comporte normalement. L’étude montre que l’efficacité de l’attaque ne dépend pas du pourcentage de données corrompues, mais du nombre absolu d’exemples malveillants introduits dans le système. Ainsi, 250 documents montrent un même niveau de compromission, que ces documents soient injectés dans un petit ou un très grand corpus de données

Implications pour la sécurité et les défenses possibles

Ce constat bouleverse les hypothèses habituelles sur la robustesse des grands modèles. Les chercheurs alertent : « nous partageons ces résultats pour montrer que les attaques de data poisoning peuvent être plus efficaces qu’on ne le croyait ». Pour renforcer les systèmes, des stratégies telles qu’un pré-entraînement nettoyé, un filtrage des données ou une fine-tuning correctrice peuvent atténuer le risque de portes dérobées, mais leur efficacité à grande échelle reste encore à confirmer.

Cette découverte est en tout cas un tournant pour la conception des LLMs : les mécanismes de sécurité et de vérification des données devront désormais tenir compte d’attaques d’une ampleur certes réduite mais redoutable d’efficacité.

Les sujets liés à ces tags pourraient vous interesser

2 commentaires pour cet article :

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

NIH Award

Un chercheur repousse les limites de la microchirurgie oculaire grâce à la réalité virtuelle

10 Oct. 2025 • 20:05
0 Science

Le Dr Mark Draelos, professeur assistant en robotique et en ophtalmologie à l’Université de Duke, vient de recevoir le prestigieux NIH...

Google Chrome Logo Icone

Google Chrome se met à désactiver les notifications non voulues

10 Oct. 2025 • 19:50
1 Logiciels

Google déploie une nouvelle fonctionnalité sur Chrome pour réduire les notifications et tout particulièrement celles que vous...

Instagram Logo Icone

Instagram réfléchit à une application sur téléviseur, comme YouTube et TikTok

10 Oct. 2025 • 18:10
0 Applications

Instagram envisage de lancer une application sur téléviseur dans le cadre de son ambition d’amplifier la visibilité de ses...

deals promos

🔥 [#FrenchDays] Les promos High-Tech du 10 octobre

10 Oct. 2025 • 17:58
0 Promos

Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...

ChatGPT Logo Icone

OpenAI démantèle des réseaux chinois malveillants utilisant ChatGPT

10 Oct. 2025 • 16:16
0 Internet

OpenAI a annoncé avoir démantelé plusieurs réseaux, notamment liés à la Chine, qui tentaient d’utiliser...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site