KultureGeek Logiciels Des radiologues peinent à repérer les radiographies générées par IA

Des radiologues peinent à repérer les radiographies générées par IA

4 min.
2 Avr. 2026 • 11:45
0

L’intelligence artificielle générative s’invite dans le secteur de l’imagerie médicale… et ce n’est pas pour le meilleur. Une étude récemment publiée montre en effet que des radiographies synthétiques produites par IA sont désormais suffisamment crédibles pour tromper des spécialistes entraînés à détecter les moindres anomalies visuelles. Ce constat ouvre un champ de vulnérabilités très concret (et très inquiétant) pour les hôpitaux, les patients, et plus généralement pour l’ensemble de la chaîne de confiance qui repose sur l’authenticité des images médicales.

Des faux clichés médicaux de plus en plus difficiles à distinguer

Pour mesurer l’ampleur du phénomène, des chercheurs ont soumis un ensemble de radiographies réelles et d’images générées par ChatGPT  à plusieurs radiologues en exercice, issus de différents pays et niveaux d’expérience. Les résultats sont loin d’être rassurants : lorsque les médecins ignoraient qu’ils étaient confrontés à des faux potentiels, leur capacité à les identifier chutait fortement (41% de détections d’IA). Même lorsqu’ils savaient que des images synthétiques se trouvaient dans le lot, leurs performances étaient loin du 100% de fiabilité (75% de détections d’IA).

IA Radiographies

Ci-dessus : radiographies réelles et fausses générées par ChatGPT-4o, correspondant à la même anatomie. A, C, E et G sont réelles. Les autres sont des faux. © Radiological Society of North America (RSNA)

Le plus troublant est que ces faux ne se limitaient pas à des images grossières. Ces présentaient des structures anatomiques suffisamment cohérentes pour semer le doute, y compris chez des experts formés à l’analyse d’images complexes. Plus inquiétant encore, la même éttude montre également que certains modèles d’IA multimodaux – ici ChatGPT-4o/5, Google’s Gemini 2.5 Pro, et Meta’s Llama 4 Maverick – peinent à repérer les radiographies artificielles, y compris lorsqu’ils évaluent des images créées à l’aide de technologies proches, ce qui signifie qu’il n’existe pas à l’heure actuelle de systèmes capables de détecter de façon fiable les fausses radios générées par l’IA.

Un risque majeur de fraude

Les implications de cette étude dépassent largement le cadre académique. Des radiographies falsifiées pourraient être utilisées dans des contentieux médicaux ou des procédures d’assurance, par exemple pour faire croire à une fracture, à une lésion ou à une aggravation inexistante. Dans un univers où l’image médicale constitue souvent une preuve décisive, la perspective de faux documents visuellement convaincants devient un problème aussi bien juridique que clinique.

Les hôpitaux pourraient aussi devenir des cibles

L’autre menace concerne la cybersécurité. Si des pirates parvenaient à injecter des images synthétiques dans les systèmes hospitaliers, ces derniers pourraient alors perturber des diagnostics, semer la confusion dans les dossiers patients et fragiliser la confiance dans les archives médicales numériques. Autrement dit, le danger ne vient pas seulement de l’extérieur : il touche aussi l’intégrité même des infrastructures de santé.

Former, détecter et sécuriser devient urgent

Face à cette montée des deepfakes médicaux, les chercheurs plaident pour la création d’outils de détection dédiés, de bases d’entraînement pédagogiques et de protocoles renforcés d’authentification des images. Certains indices reviennent déjà souvent dans les faux les plus convaincants : os trop lisses, colonne vertébrale anormalement droite, symétrie excessive des poumons ou fractures dessinées avec une netteté suspecte. Mais ces « marqueurs d’IA » ne suffiront pas longtemps à donner le change à mesure que les modèles génératifs progresseront (et ils progressent vite).

 

Les sujets liés à ces tags pourraient vous interesser

Laisser un commentaire

Sauvegarder mon pseudo et mon adresse e-mail pour la prochaine fois.

Quelques règles à respecter :
  • 1. Restez dans le sujet de l'article
  • 2. Respectez les autres lecteurs : pas de messages agressifs, vulgaires, haineux,…
  • 3. Relisez-vous avant de soumettre un commentaire : pas de langage SMS, et vérifiez l'orthographe avant de valider (les navigateurs soulignent les fautes).
  • 4. En cas d'erreur, faute d'orthographe, et/ou omission dans l'article , merci de nous contacter via la page Contact.

Nous nous réservons le droit de supprimer les commentaires qui ne respectent pas ces règles


Les derniers articles

Google Gemini Logo

Gemini lance des nouveautés en France, dont la mémoire et l’import

29 Avr. 2026 • 19:41
0 Internet

Google déploie trois nouvelles fonctionnalités de personnalisation pour Gemini en France. L’objectif est de transformer...

FC 26

PlayStation Plus : les jeux offerts en mai 2026 (dont FC 26)

29 Avr. 2026 • 18:21
0 Jeux vidéo

Sony lève le voile sur liste des jeux offerts en mai 2026 avec le PlayStation Plus. Il y a trois titres, soit autant que le mois dernier. Ils...

SFR Logo

SFR : les résultats de la maison-mère en net recul juste avant le rachat

29 Avr. 2026 • 17:20
1 Business

Altice France traverse une phase pour le moins mouvementée  : alors que la maison mère de SFR discute exclusivement avec Bouygues...

Google Logo Icone Application

L’Australie veut forcer Meta, Google et TikTok à payer les médias

29 Avr. 2026 • 17:00
0 Internet

Une loi proposée par l’Australie veut obliger Meta, Google et TikTok à signer des accords avec les médias locaux plutôt...

Meta Logo

Meta : l’Europe accuse Facebook et Instagram de laisser passer les enfants

29 Avr. 2026 • 15:29
0 Internet

La Commission européenne accuse Meta de ne pas empêcher efficacement les enfants de moins de 13 ans d’accéder à Instagram...

Les dernières actus Apple sur iPhoneAddict :

Comparateur

Recherchez le meilleur prix des produits Hi-tech

Recherche

Recherchez des articles sur le site