TENDANCES
Comparateur
- AUTO
Ce n’est pas vraiment l’évolution qui était attendue par les utilisateurs du célèbre chatbot : certaines réponses de ChatGPT intègrent désormais des références issues de Grokipedia, une encyclopédie générée par IA et développée par xAI, la société d’Elon Musk. Cette intégration, repérée par plusieurs observateurs, relance le débat sur la fiabilité des sources utilisées par les modèles conversationnels.
Lancée à l’automne, Grokipedia avait été présentée comme une réponse à ce que son fondateur considérait comme un biais idéologique des encyclopédies collaboratives traditionnelles. Rapidement, plusieurs analyses ont toutefois relevé des contenus problématiques, mêlant des articles proches de Wikipédia et des affirmations parfois factuellement erronées, notamment sur des sujets sociaux et historiques sensibles comme l’esclavage, le mouvement LGBT, etc.

Jusqu’ici, ces contenus semblaient confinés à l’écosystème xAI et aux outils associés, mais selon des investigations récentes, ChatGPT aurait cité Grokipedia à plusieurs reprises pour répondre à des questions portant sur des thèmes relativement obscurs, et ce sans mentionner explicitement les limites ou les controverses (pour ne pas dire plus) entourant cette base de données.
Les cas observés montrent que ces citations n’apparaissent généralement pas sur les sujets les plus médiatisés ou sensibles, mais plutôt sur des thématiques de niche, parfois liées à des informations historiquement contestées. Cette diffusion indirecte soulève une question centrale : comment garantir la qualité et la neutralité des connaissances synthétisées par les intelligences artificielles à mesure que leurs sources se multiplient ?
![]()
Contactée à ce sujet, OpenAI a rappelé que ses modèles s’appuient sur « un large éventail de sources publiques et de points de vue » afin de produire des réponses équilibrées. Certes, mais en l’état ChatGPT perd donc en fiabilité puisque l’IA répète des données erronées sur des sujets parfois très sensibles, sachant que le point de vue, l’idéologie ou la simple opinion n’ont pas à prendre le dessus sur des données scientifiquement établies ou vérifiées par des spécialistes du domaine (et encore plus si l’IA ne précise pas la nature et l’origine de ces données).
Alors que de nouvelles encyclopédies automatisées émergent et que les frontières entre données vérifiées et contenus synthétiques deviennent toujours plus floues, ces anomalies illustrent l’urgence de renforcer les mécanismes de validation et de transparence au sein même des IA. Pour les utilisateurs comme pour les éditeurs de technologies, la question n’est plus seulement de produire des réponses rapides, mais aussi de garantir leur fiabilité dans un environnement informationnel toujours plus fragmenté.
Ubisoft a annoncé un projet de rupture conventionnelle collective visant à supprimer jusqu’à 200 postes au sein de son...
Google vient d’accepter de payer 68 millions de dollars pour mettre un terme à une action collective l’accusant d’avoir...
Meta s’apprête à franchir une nouvelle étape dans la monétisation de ses plateformes sociales. Le groupe américain...
La nouvelle entité américaine de TikTok traverse un démarrage compliqué. Les bugs techniques s’accumulent, à...
Anthropic vient de franchir une étape dans l’automatisation du travail en connectant directement son chatbot Claude à neuf...
3 commentaires pour cet article :