TENDANCES
Comparateur
- AUTO
Les 27 pays membres de l’Union européenne ont définitivement approuvé aujourd’hui AI Act, une législation inédite au niveau mondial pour réguler les systèmes d’intelligence artificielle afin de favoriser l’innovation en Europe tout en limitant les possibles dérives.
Les co-législateurs de l’UE avaient trouvé un accord début décembre au terme de négociations difficiles, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d’avenir. Le texte avait été adopté le 13 mars à une très large majorité par les eurodéputés.
Avec « cette législation historique, la première du genre dans le monde », l’Europe « souligne l’importance de la confiance, de la transparence et de la responsabilité (…), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne », a déclaré Mathieu Michel, secrétaire d’État belge au Numérique, dont le pays assure la présidence du Conseil de l’UE jusqu’à fin juin.
Cette législation s’appliquera pour l’essentiel à partir de 2026. Elle adopte une approche « fondée sur le risque » et impose aux différents systèmes d’intelligence artificielle des contraintes proportionnées aux dangers qu’ils représentent pour la société.
Les systèmes d’IA ne présentant qu’un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumis à des exigences renforcées avant d’être autorisés dans l’UE.
Ces exigences incluront par exemple un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.
Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.
Des règles spécifiques s’appliqueront aux IA génératives comme ChatGPT d’OpenAI pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d’auteur.
Enfin, les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l’opinion.
C’est la semaine du Black Friday,l’avant dernière semaine du mois de novembre, qui est une période de grosses promotions pour...
La tablette Pixel Tablet 2 ne verra visiblement pas le jour, avec Google ayant décidé d’annuler sa sortie. Le modèle existant,...
Jessica Rosenworcel, la première femme à occuper le poste de présidente permanente de la FCC (Federal Communications Commission),...
Une plainte fédérale ciblant la loi du Minnesota « Utilisation de la technologie Deep Fake pour influencer une...
Le département de la Justice (DOJ) des États-Unis a officiellement estimé aujourd’hui que Google doit vendre Chrome. Cela fait...
21 Nov. 2024 • 22:43
21 Nov. 2024 • 20:09
21 Nov. 2024 • 18:56
21 Nov. 2024 • 18:44