TENDANCES
Comparateur
- AUTO
OpenAI a passé un accord avec le gouvernement américain qui prévoit l’accès à ses nouveaux modèles de langage avant leur lancement, notamment pour identifier de possibles risques.

Les modèles de langage permettent de générer, selon les cas, du texte, de l’image ou du son sur requête en langage courant, à l’instar de ChatGPT.
L’AI Safety Institute (Institut de la sécurité de l’intelligence artificielle), organe créé en 2023 par le gouvernement de Joe Biden, a conclu la même convention avec l’un des grands concurrents d’OpenAI, Anthropic, selon un communiqué publié aujourd’hui.
Les deux start-up se sont engagées à collaborer avec l’institut pour « évaluer les capacités (des modèles) et les risques de sécurité », ainsi qu’à travailler à « des méthodes pour gérer ces risques », a indiqué l’AI Safety Institute. « Ces accords ne sont qu’un début, mais ils marquent une étape importante pour aider à orienter vers une approche responsable l’avenir de l’IA », a déclaré Elizabeth Kelly, directrice de l’Institut.
La progression des grands modèles de langage (LLM) augmente sans cesse leurs capacités mais aussi les risques associés, en particulier en cas d’utilisation mal intentionnée.
Dans le même temps, la Maison Blanche s’est efforcée d’obtenir des engagements volontaires de la part des grandes entreprises sur les mesures de sécurité de l’IA. Plusieurs grandes entreprises ont pris des engagements non contraignants pour investir dans la recherche sur la cybersécurité et la discrimination, et pour travailler sur le filigrane des contenus générés par IA.
Google s’apprête à lever une restriction historique au niveau de Gmail pour permettre aux utilisateurs de changer leur adresse...
L’Autorité italienne de la concurrence (AGCM) a ordonné à Meta de geler sa politique interdisant aux entreprises...
La cyberattaque qui cible La Poste depuis lundi montre ses premiers signes d’essoufflement ce mercredi. Bien que l’offensive soit toujours...
L’administration Trump a annoncé des sanctions ciblant cinq figures majeures de la régulation technologique en Europe, dont...
2 commentaires pour cet article :