Des dissensions internes secouent aujourd’hui l’un des géants de l’intelligence artificielle. Plusieurs chercheurs affirment en effet qu’OpenAI freine la publication de ses travaux les plus alarmants – notamment ceux consacrés aux effets néfastes de l’IA – , ce qui aurait entrainé le départ de plusieurs scientifiques.
Quand la recherche économique devient un lobby déguisé
Si l’on en croit certaines fuites, au moins deux membres de l’équipe de recherche économique d’OpenAI ont démissionné ces derniers mois. Parmi eux, Tom Cunningham a mis un terme à son contrat en septembre, estimant que l’équipe « fonctionnait désormais comme un levier de propagande » plutôt que comme un laboratoire indépendant. Alors qu’OpenAI avait été créée à l’origine comme une organisation de recherche autour de l’IA, la montée en puissance de ses produits commerciaux aurait modifié les priorités au détriment des études alertant sur les risques de l’IA.

OpenAI avait même publié des recherches scrutant les effets de l’automatisation sur l’emploi, comme l’influente étude de 2023 sur les secteurs les plus vulnérables à la montée de l’IA. Ce travail de mise en perspective n’existerait plus vraiment : les travaux révélant des pertes d’emplois ou des conséquences socio-économiques négatives seraient désormais écartés au profit d’analyses vantant uniquement les gains de productivité.
Des tensions entre intégrité scientifique et intérêts commerciaux
Après le départ de Cunningham, la direction d’OpenAI via son directeur de la stratégie a défendu la politique interne de l’entreprise en déclarant que l’entreprise « n’est pas qu’un laboratoire de recherche, mais un acteur global qui assume les conséquences de l’IA ». Des propos très « corporate » en somme, et qui ne suffiront sans doute pas à éteindre la controverse : peut-on encore parler de recherche objective lorsqu’un acteur privé détient à la fois les clés de l’innovation, de la diffusion et de la communication, et que les recherches/études sont réalisées dans ses propres murs ?