TENDANCES
Comparateur
- AUTO
Sam Altman serait-il devenu un autre homme ? Loin en tout cas de son image de « manipulateur » peu soucieux des questions éthiques, le CEO d‘OpenAI (ChatGPT) vient d’annoncer que sa firme collabore avec l’U.S. AI Safety Institute pour fournir un accès anticipé à son prochain grand modèle d’IA générative pour des tests de sécurité. Cette initiative, ainsi qu’un accord similaire avec un organisme équivalent au Royaume-Uni, ont évidemment pour premier objectif de contrer les critiques selon lesquelles OpenAI aurait « dépriorisé » la sécurité de l’IA au profit du développement de technologies d’IA de plus en plus puissantes. Pour rappel, au mois de mai dernier, OpenAI a dissous une unité axée sur la prévention de systèmes d’IA « superintelligents » devenant incontrôlables, ce qui a conduit à la démission de membres clés de l’équipe et a suscité de vives inquiétudes concernant l’engagement de l’entreprise envers les problématiques éthiques et de sécurité.
En réponse à ces critiques, OpenAI a promis d’éliminer les clauses restrictives de non-dénigrement, de créer une commission de sécurité et d’allouer 20 % de ses ressources de calcul à la recherche sur la sécurité. Malgré ces engagements forts, certains observateurs restent sceptiques, en particulier après qu’OpenAI ait créé la commission de sécurité avec des membres internes et réaffecté un cadre supérieur en sécurité de l’IA à une autre division du groupe. Plus récemment encore, cinq sénateurs américains ont envoyé un courrier de doléances à OpenAI sur ces questions de sécurité, à laquelle le directeur de la stratégie d’OpenAI, Jason Kwon, a répondu en réaffirmant le dévouement de l’entreprise à des protocoles de sécurité rigoureux.
L’accord d’OpenAI avec l’U.S. AI Safety Institute coïncide avec le soutien de la startup au Future of Innovation Act, un projet de loi du Sénat qui autoriserait l’Institut de sécurité à définir des normes pour les modèles d’IA. Hélas, cette initiative a de nouveau conduit à des spéculations portant cette fois sur l’influence supposée d’OpenAI sur l’élaboration des politiques d’IA au niveau fédéral, certains rappelant qu’Altman fait partie du conseil de sécurité et de protection de l’intelligence artificielle du département américain de la Sécurité intérieure. Face tu perds, pile je gagne….
TikTok annonce que son réseau social fermera ses portes ce dimanche, le 19 janvier 2025, aux États-Unis. Cela fait suite à...
Google a informé l’Union européenne qu’il ne s’engageait pas à intégrer le travail des organisations de...
Les robots humanoïdes G1 d’Unitree font leur footing dans la dernière vidéo publiée par la firme chinoise, et c’est...
L’année passée a été difficile pour l’émulation, avec une pression croissante de la part de Nintendo qui a...
Un incendie s’est déclaré à la Moss Landing Energy Storage Facility (en Californie), la plus grande installation de stockage...
18 Jan. 2025 • 7:13
17 Jan. 2025 • 20:46
17 Jan. 2025 • 19:21
17 Jan. 2025 • 18:52