TENDANCES
Comparateur
- AUTO
Voilà qui ne devrait pas rester sans réponses du côté américain : si l’on en croit des documents de recherche universitaires examinés par Reuters, tout indique que des institutions de recherche chinoises liées à l’Armée populaire de libération (PLA) auraient utilisé le modèle d’intelligence artificielle Llama de Meta pour créer un outil d’intelligence artificielle baptisé ChatBIT à destination de l’armée. Des chercheurs de l’Académie des sciences militaires (AMS) et d’autres institutions auraient perfectionné le modèle Llama 13B de Meta pour développer une IA capable de recueillir des renseignements et de prendre des décisions opérationnelles, affirmant qu’elle surpassait certains modèles d’IA proches du ChatGPT-4 d’OpenAI pour certaines tâches.
Bien que les conditions d’utilisation de Meta AI interdisent toute exploitation militaire ou à des fins d’espionnage de ses modèles, la nature ouverte et open source du modèle Llama limite la capacité de Meta à faire respecter ces restrictions. « Toute utilisation de nos modèles par l’Armée populaire de libération est non autorisée et contraire à notre politique d’utilisation acceptable, » a rétorqué Molly Montgomery, le directeur des règles publiques de Meta. Voilà qui ne manquera pas en tout cas de revitaliser le débat autour des moyens de contrôle des IA, des moyens qui semblent déjà échapper aux sociétés créatrices de ces mêmes intelligences artificielles.
Il va peut-être falloir ralentir la cadence : un comité consultatif de la NASA a averti SpaceX qu’il fallait accorder la...
Amazon a été porté par le cloud et a largement dépassé les attentes du marché au troisième trimestre avec...
Les frères jumeaux Tim et Greg Hildebrandt ont marqué la culture populaire des années 80/90. Les deux artistes ont signé...
Voilà qui ne devrait pas rester sans réponses du côté américain : si l’on en croit des documents de recherche...
Star Wars : Skeleton Crew débarquera sur Disney+ le 3 décembre prochain avec la diffusion des deux premiers épisodes. La série...
1 Nov. 2024 • 19:27
1 Nov. 2024 • 18:50
1 Nov. 2024 • 16:43
Un commentaire pour cet article :