TENDANCES
Comparateur
- AUTO
Ce n’est pas vraiment l’évolution qui était attendue par les utilisateurs du célèbre chatbot : certaines réponses de ChatGPT intègrent désormais des références issues de Grokipedia, une encyclopédie générée par IA et développée par xAI, la société d’Elon Musk. Cette intégration, repérée par plusieurs observateurs, relance le débat sur la fiabilité des sources utilisées par les modèles conversationnels.
Lancée à l’automne, Grokipedia avait été présentée comme une réponse à ce que son fondateur considérait comme un biais idéologique des encyclopédies collaboratives traditionnelles. Rapidement, plusieurs analyses ont toutefois relevé des contenus problématiques, mêlant des articles proches de Wikipédia et des affirmations parfois factuellement erronées, notamment sur des sujets sociaux et historiques sensibles comme l’esclavage, le mouvement LGBT, etc.

Jusqu’ici, ces contenus semblaient confinés à l’écosystème xAI et aux outils associés, mais selon des investigations récentes, ChatGPT aurait cité Grokipedia à plusieurs reprises pour répondre à des questions portant sur des thèmes relativement obscurs, et ce sans mentionner explicitement les limites ou les controverses (pour ne pas dire plus) entourant cette base de données.
Les cas observés montrent que ces citations n’apparaissent généralement pas sur les sujets les plus médiatisés ou sensibles, mais plutôt sur des thématiques de niche, parfois liées à des informations historiquement contestées. Cette diffusion indirecte soulève une question centrale : comment garantir la qualité et la neutralité des connaissances synthétisées par les intelligences artificielles à mesure que leurs sources se multiplient ?
![]()
Contactée à ce sujet, OpenAI a rappelé que ses modèles s’appuient sur « un large éventail de sources publiques et de points de vue » afin de produire des réponses équilibrées. Certes, mais en l’état ChatGPT perd donc en fiabilité puisque l’IA répète des données erronées sur des sujets parfois très sensibles, sachant que le point de vue, l’idéologie ou la simple opinion n’ont pas à prendre le dessus sur des données scientifiquement établies ou vérifiées par des spécialistes du domaine (et encore plus si l’IA ne précise pas la nature et l’origine de ces données).
Alors que de nouvelles encyclopédies automatisées émergent et que les frontières entre données vérifiées et contenus synthétiques deviennent toujours plus floues, ces anomalies illustrent l’urgence de renforcer les mécanismes de validation et de transparence au sein même des IA. Pour les utilisateurs comme pour les éditeurs de technologies, la question n’est plus seulement de produire des réponses rapides, mais aussi de garantir leur fiabilité dans un environnement informationnel toujours plus fragmenté.
Sony envoie une notification directement sur les PlayStation 4 pour encourager les joueurs ayant encore cette console sortie en 2013 à acheter une...
Google déploie son assistant Gemini dans Maps pour accompagner les trajets à pied et à vélo. Cette mise à jour permet...
La 5G millimétrique (mmWave), qui propose des débits vraiment très rapides, est au point mort en France. Jugée trop...
La société chinoise XREAL enrichit les possibilités de ses appareils connectés en annonçant une fonctionnalité...
L’Arcep ouvre une enquête administrative ciblant l’ensemble des opérateurs français (Orange, SFR, Bouygues Telecom et Free...
4 commentaires pour cet article :