KultureGeek Internet Des employés d’OpenAI mettent en garde contre les dangers de l’IA

Des employés d’OpenAI mettent en garde contre les dangers de l’IA

7 Juin. 2024 • 20:52
2

Les entreprises les plus avancées dans le domaine de l’intelligence artificielle doivent accepter que leurs employés portent publiquement un regard critique sur leurs activités et les risques liés à l’IA, ont réclamé plusieurs employés d’OpenAI sous couvert d’anonymat, ainsi que des anciens de la start-up.

OpenAI Logo ChatGPT

« Dans la mesure où ces sociétés ne sont pas soumises à la supervision des autorités, les employés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes », expliquent les 13 signataires de la lettre ouverte. Parmi eux figurent quatre employés d’OpenAI et sept anciens.

Ces signataires regrettent que « des clauses de confidentialité exhaustives les empêchent d’exprimer nos préoccupations » publiquement. Dans la mesure où les problèmes que souhaitent évoquer ces employés ne relèvent pas d’activités illégales, ils ne peuvent bénéficier du statut de lanceur d’alerte, soulignent-ils.

« Certains d’entre nous craignent des représailles (au cas où ils communiqueraient ouvertement), compte tenu des précédents qui existent dans l’industrie », selon la lettre. Parmi les risques cités, « le renforcement des inégalités, la manipulation, la désinformation, en allant jusqu’à la perte de contrôle de systèmes d’IA autonomes qui pourraient entraîner l’extinction de l’humanité ».

S’ils estiment que ces risques peuvent être limités avec le concours de la communauté scientifique, des autorités et du public, « les entreprises de l’IA sont incitées financièrement à échapper à une supervision efficace ».

Les auteurs de la lettre demandent ainsi aux sociétés phares de l’IA de « soutenir une culture de la critique ouverte en permettant à leurs employés actuels et anciens de mettre en avant publiquement des inquiétudes liées à leurs technologies ». Ils encouragent aussi la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.

Les sujets liés à ces tags pourraient vous interesser

2 commentaires pour cet article :

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

Google Mode IA Moteur de Recherche

Le Mode IA de Google affiche désormais des publicités

21 Nov. 2025 • 19:00
0 Internet

C’était inévitable et c’est désormais une réalité : Google commence à afficher des publicités...

Black Friday AliExpress : des centaines de bons plans + codes

21 Nov. 2025 • 17:16
0
Windows 11 Bureau PC Portable

Le gaming s’améliore sur Windows Arm avec plusieurs changements

21 Nov. 2025 • 17:03
0 Actu OS

L’an dernier, Qualcomm avait juré que les jeux fonctionneraient sans problème sur ses PC portables sous Windows Arm avec le processeur...

Agile One robot

Agile ONE : l’Europe aussi a son robot humanoïde

21 Nov. 2025 • 15:15
0 Science

Agile Robots, une start-up munichoise spécialisée dans la robotique alimentée par l’IA, vient de lancer son tout premier robot...

ChatGPT Discussions Groupe

Après un test, ChatGPT propose les discussions de groupe pour tout le monde

21 Nov. 2025 • 14:10
1 Internet

OpenAI fait savoir que les discussions de groupe dans ChatGPT sont maintenant disponibles pour tous les utilisateurs dans le monde. Il y avait eu un test...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site