TENDANCES
Comparateur
- AUTO
OpenAI et Anthropic ont convenu de collaborer avec l’US AI Safety Institute en partageant leurs modèles d’IA avant et après leur mise sur le marché. Ce partenariat vise à améliorer la sécurité de ces modèles sur la base des « retours » d’analyse de l’UASI. Annoncé par le CEO d’OpenAI Sam Altman, cet accord marque le début d’une collaboration technique entre ces deux sociétés et l’Institut (qui fait partie du National Institute of Standards and Technology/NIST), collaboration qui devrait déboucher sur des lignes directrices pour les modèles d’IA, de tests de référence et de meilleures pratiques permettant d’évaluer les systèmes d’IA potentiellement dangereux.

L’annonce de cet accord intervient alors que les régulateurs fédéraux et étatiques, dont l’assemblée législative de Californie, cherchent à mettre en place des mesures de sécurité (et donc des contraintes) pour les technologies d’IA générative. La Californie a ainsi récemment approuvé un projet de loi sur la sécurité de l’IA qui exige des tests approfondis pour les modèles d’IA dont le développement a coûté plus de 100 millions de dollars ou qui nécessitent une puissance de calcul importante. Cette loi impose par exemple aux entreprises d’IA de mettre en place des « interrupteurs d’arrêt » pour désactiver les modèles devenus incontrôlables. A noter que l’accord conclu avec l’US AI Safety Institute est non contraignant, mais ce dernier représente tout de même une étape importante vers des IA sécurisées et qui ne puissent pas dériver vers un simili-Skynet.
SOURCEEngadget
Face à un accueil mitigé pour son modèle GPT-5, OpenAI a dévoilé GPT-5.1, une mise à jour visant à...
Fort du succès du Steam Deck, Valve revient en force sur le marché de la réalité virtuelle avec l’annonce du Steam...
Sony vient de dévoiler la liste des jeux qui vont disponibles sur le PlayStation Plus en novembre avec les abonnements Premium et Extra. La liste...
Alors que les géants du numérique comme Meta et OpenAI multiplient les centres de données pour soutenir la croissance fulgurante de...
12 Nov. 2025 • 17:55