KultureGeek Logiciels Le Pentagone utiliserait l’IA pour identifier les cibles militaires lors des frappes aériennes

Le Pentagone utiliserait l’IA pour identifier les cibles militaires lors des frappes aériennes

27 Fév. 2024 • 9:50
0

Si l’on en croit les sources (que l’on espère bien informées) de Bloomberg, le Pentagone aurait commencé à utiliser l’intelligence artificielle (IA) dans les opérations militaires, plus précisément pour identifier des cibles lors des frappes aériennes en utilisant des algorithmes de vision par ordinateur. Ces algorithmes auraient été utilisés pour mener plus de 85 frappes aériennes au Moyen-Orient, visant divers sites en Irak et en Syrie.

missile

Ces bombardements menés via l’IA faisaient partie de la réponse de l’administration Biden à une attaque de drone antérieure en Jordanie ayant entraîné la mort de trois membres du service américain. Les algorithmes d’IA ont été développés dans le cadre du projet Maven, un projet lancé en 2017 pour promouvoir une plus grande automatisation au sein du Département de la Défense. Pour rappel, le projet Maven avait créé de fortes turbulences chez Google à l’époque où le géant américain y participait, de nombreux employés du groupe refusant que leur société participe à la création de logiciels à objectifs militaires. Google s’était par la suite retiré du projet.

Cette tendance à utiliser l’IA pour l’acquisition de cibles soulève de nombreuses préoccupations éthiques, bien que les Etats-Unis ne soient pas le seul pays à utiliser l’IA dans ses opérations militaires : récemment en effet, un rapport a indiqué qu’Israël avait également utilisé un logiciel d’IA pour le choix des cibles lors des bombardement à Gaza. Connu sous le nom de « La Bible », ce programme compile des données pour suggérer des cibles potentielles, y compris des armes, des véhicules ou même des êtres humains.

On se demande aussi désormais si l’utilisation de l’IA pour l’identification des cibles n’a pas joué un rôle lors de plusieurs grosses erreurs d’analyse des objectifs militaires (mariages ou réunions de famille prise par erreur pour cible par exemple).  L’usage de l’IA pour des opérations militaires potentiellement létales peut aussi emmener à réduire la responsabilité humaine, les erreurs de ciblage étant alors attribués à une défaillance logicielle. Un vrai dilemme moral… dont ne se serait pas longtemps encombré le Pentagone…

Les sujets liés à ces tags pourraient vous interesser

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

OpenAI Logo

OpenAI reporte la sortie de son modèle ouvert pour l’IA

13 Juil. 2025 • 18:00
0 Internet

OpenAI, l’entreprise à l’origine de ChatGPT, repousse la sortie de son modèle d’intelligence artificielle open source,...

TikTok Logo

TikTok : la Chine dément un stockage illégal de données après une enquête en Europe

11 Juil. 2025 • 20:51
1 Internet

La Chine a réagi au sujet de l’enquête européenne qui vise TikTok, propriété du groupe chinois ByteDance,...

Orange Logo

Orange teste la bande de 6 GHz pour la 5G avec de gros débits

11 Juil. 2025 • 20:34
1 Mobiles / Tablettes

Orange a mené avec succès une série d’essais techniques sur son campus d’innovation Orange Gardens à...

Red Sonja 1

Red Sonja : le premier trailer du film sur le personnage culte de Dynamite Comics… a de quoi laisser sceptique

11 Juil. 2025 • 20:16
0 Geekeries

Le premier trailer de Red Sonja, adaptation cinématographique du personnage culte de Dynamite Comics, vient d’être...

Elon Musk pas content

Grok 4 va chercher l’avis de Musk pour répondre aux sujets les plus « sensibles »

11 Juil. 2025 • 19:56
6 Logiciels

Et une preuve de plus que nous vivons en pleine dystopie : Grok 4, le nouveau modèle d’intelligence artificielle de xAI, a rapidement...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site