Face à la montée en puissance de l’intelligence artificielle dans l’édition en ligne, Wikipédia vient de clarifier ses règles. L’encyclopédie collaborative a décidé d’interdire l’usage des grands modèles de langage pour générer ou réécrire le contenu des articles, une évolution importante dans la gouvernance éditoriale de la plateforme. Cette décision s’inscrit dans un mouvement de fond : à mesure que les outils génératifs gagnent du terrain dans les médias, les plateformes fondées sur la fiabilité et la « vérifiabilité » de l’information renforcent leurs garde-fous.
Une règle plus stricte pour protéger la qualité des articles
La nouvelle formulation adoptée par la communauté anglophone de Wikipédia, ne laisse guère de place à l’ambiguïté. Le principe est désormais explicite : l’utilisation de LLM pour produire ou reformuler le contenu encyclopédique est totalement proscrite. Cette précision vient durcir une recommandation antérieure, plus floue, qui visait surtout la création d’articles entiers à partir d’outils génératifs.

Dans les faits, Wikipédia cherche avant tout à limiter les risques bien connus des IA génératives : erreurs factuelles, formulations séduisantes mais trompeuses, extrapolations non sourcées et altérations subtiles du sens. Pour une encyclopédie reposant sur des références vérifiables, ce type de dérive représente évidemment un danger structurel.
Un vote massif des contributeurs en faveur de la restriction
Ce changement de règle n’est pas tombé d’en haut. Il a été soutenu par la communauté des contributeurs, au terme d’un vote très largement favorable, avec 40 voix pour et 2 contre. Ce résultat montre à quel point la question est devenue sensible parmi les bénévoles qui assurent la maintenance de l’encyclopédie au quotidien.

Cette fermeté ne traduit cependant pas un rejet absolu de l’intelligence artificielle, mais plutôt une volonté d’encadrer précisément ses usages. Wikipédia ne ferme donc pas totalement la porte aux outils automatisés, mais refuse surtout que ces derniers deviennent des « auteurs invisibles » dans un projet où la responsabilité humaine reste centrale.
Deux usages restent tolérés sous surveillance humaine
Les éditeurs peuvent encore utiliser un LLM pour proposer de très légères corrections stylistiques sur leurs propres textes, à condition qu’aucun contenu inédit ne soit introduit. Une autre exception demeure pour certains travaux de traduction, tant que la vérification humaine reste complète et rigoureuse.
La consigne officielle insiste d’ailleurs sur ce point : les contributeurs peuvent reprendre certaines suggestions après relecture, mais avec prudence, car un modèle peut modifier le sens d’un passage au-delà de la demande initiale et produire une formulation qui n’est plus correctement étayée par les sources citées.
Un signal fort pour l’ensemble de l’écosystème éditorial
En traçant cette limite, Wikipédia envoie un message clair au secteur de la publication numérique. L’IA peut assister, corriger à la marge ou accélérer certaines tâches techniques, mais elle ne doit pas se substituer au travail rédactionnel lorsqu’il s’agit de produire un savoir documenté. Dans un contexte où la crédibilité des contenus devient un enjeu majeur, cette décision pourrait inspirer d’autres plateformes soucieuses de préserver leur exigence éditoriale sans céder à l’automatisation intégrale.