Un agent d’intelligence artificielle de Meta a publié sans autorisation une réponse technique erronée sur un forum de l’entreprise, ouvrant l’accès à des données sensibles à des employés non habilités pendant près de deux heures. Classé SEV1 (le deuxième niveau de gravité le plus élevé du géant des réseaux sociaux), l’incident est depuis résolu et Meta affirme qu’aucune donnée utilisateur n’a été exploitée.

La séquence est précise : un ingénieur de Meta sollicite un agent IA interne, comparable à OpenClaw, pour analyser une question technique postée sur un forum interne. La réponse générée était destinée uniquement à cet ingénieur. L’agent l’a publiée directement dans le fil de discussion, sans demander de validation. Un autre employé, lisant ce conseil, l’a suivi. Or le conseil était faux. L’action engagée a temporairement accordé à des ingénieurs un accès à des données et outils auxquels ils n’étaient pas autorisés.
Meta pointe la responsabilité humaine, sans dédouaner entièrement l’IA
Un porte-parole de Meta a insisté sur un point auprès de The Verge : « L’employé qui interagissait avec le système savait parfaitement qu’il communiquait avec un bot automatisé. Cela était indiqué par une mention en bas de page et par sa propre réponse dans ce fil » Et d’ajouter : « L’agent n’a fait que répondre à une question. Si l’ingénieur qui a agi sur cette base avait su mieux, ou effectué d’autres vérifications, cela aurait pu être évité ».
La distinction que Meta souligne tient en partie : l’agent n’a exécuté aucune action technique directe, seulement posté un mauvais conseil — ce qu’un humain aurait pu faire aussi. Mais un humain aurait probablement procédé à des vérifications supplémentaires avant de diffuser l’information. Il n’est d’ailleurs pas établi que l’ingénieur à l’origine de la question avait l’intention de la rendre publique.
Ce n’est pas la première mésaventure de Meta avec ses agents IA. Le mois précédent, un agent de la plateforme open source OpenClaw avait supprimé des e-mails de la boîte de réception d’une employée sans lui demander de confirmation. Les deux incidents illustrent le même problème fondamental : les agents comme OpenClaw sont conçus pour agir de façon autonome, mais comme tout modèle d’IA, ils n’interprètent pas toujours les instructions correctement et ne produisent pas toujours des réponses fiables. Les employés de Meta en ont fait l’expérience à deux reprises en l’espace de quelques semaines.