TENDANCES
Comparateur
- AUTO
OpenAI et Anthropic ont convenu de collaborer avec l’US AI Safety Institute en partageant leurs modèles d’IA avant et après leur mise sur le marché. Ce partenariat vise à améliorer la sécurité de ces modèles sur la base des « retours » d’analyse de l’UASI. Annoncé par le CEO d’OpenAI Sam Altman, cet accord marque le début d’une collaboration technique entre ces deux sociétés et l’Institut (qui fait partie du National Institute of Standards and Technology/NIST), collaboration qui devrait déboucher sur des lignes directrices pour les modèles d’IA, de tests de référence et de meilleures pratiques permettant d’évaluer les systèmes d’IA potentiellement dangereux.
L’annonce de cet accord intervient alors que les régulateurs fédéraux et étatiques, dont l’assemblée législative de Californie, cherchent à mettre en place des mesures de sécurité (et donc des contraintes) pour les technologies d’IA générative. La Californie a ainsi récemment approuvé un projet de loi sur la sécurité de l’IA qui exige des tests approfondis pour les modèles d’IA dont le développement a coûté plus de 100 millions de dollars ou qui nécessitent une puissance de calcul importante. Cette loi impose par exemple aux entreprises d’IA de mettre en place des « interrupteurs d’arrêt » pour désactiver les modèles devenus incontrôlables. A noter que l’accord conclu avec l’US AI Safety Institute est non contraignant, mais ce dernier représente tout de même une étape importante vers des IA sécurisées et qui ne puissent pas dériver vers un simili-Skynet.
SOURCEEngadget
Les principales plateformes de Meta, dont Facebook, Instagram, Messenger, WhatsApp et Threads, subissent une panne mondiale ce mercredi. Meta a...
Un tribunal américain des faillites a bloqué il y a quelques heures la vente du site Infowars, appartenant à Alex Jones, au site...
Sony présente les jeux qui seront disponibles en décembre pour les joueurs qui ont les abonnements Extra et Premium du PlayStation Plus. Ce...
Path of Fury: Episode I – Tetsuo’s Tower promet une expérience intense de kung-fu de type « pulp » en...
12 Dec. 2024 • 8:04
12 Dec. 2024 • 7:00
11 Dec. 2024 • 22:04
11 Dec. 2024 • 21:38