Skip to main content
Non classifié(e)

Chat-GPT4 Vision face à la radiologie : promesses, limites et vigilance

By 7 avril 2025avril 24th, 2025No Comments
chat gpt 4 vision

Si l’intelligence artificielle progresse à pas de géant, ses capacités en imagerie médicale ne sont pas encore au niveau des attentes cliniques. Chat-GPT4 Vision, le premier modèle de langage capable d’interpréter à la fois texte et image, montre des résultats prometteurs en radiologie… mais aussi des limites importantes, notamment en lecture d’images.

Une IA multimodale, conçue pour assister les professionnels

chat gpt 4 visionChat-GPT4 Vision est un modèle d’intelligence artificielle multimodal capable de traiter simultanément du texte et des images. Concrètement, cela signifie qu’il peut analyser une image radiologique tout en répondant à une question formulée en langage naturel. Une avancée prometteuse, en particulier dans un domaine où l’image est au cœur de l’analyse.

Une étude rigoureuse pour tester Chat-GPT4 Vision

Une équipe américaine a soumis Chat-GPT4 Vision à 377 questions extraites d’examens de formation en radiologie diagnostique, dont près de la moitié comportaient des images. Le modèle a obtenu 65,3 % de bonnes réponses au global, mais avec une forte disparité :

  • 81,5 % sur les questions textuelles,

  • 47,8 % sur les questions visuelles.

Compréhension textuelle : un point fort indéniable

Lorsqu’il s’agit d’analyser une information écrite, Chat-GPT4 Vision est performant. Il peut :

  • synthétiser des rapports,

  • vulgariser des données complexes,

  • et assister dans la rédaction médicale.

Autrement dit, l’outil peut soutenir le travail documentaire du radiologue.

Lecture d’images : des performances très inégales

Face aux images, la performance chute. Si les résultats sont corrects pour certaines spécialités comme la radiologie thoracique (jusqu’à 69 %), Chat-GPT4 Vision échoue quasi totalement en médecine nucléaire.

Les causes :

  • Analyse visuelle limitée,

  • Manque de formation médicale spécifique,

  • Hallucinations (erreurs plausibles mais fausses).

Hallucinations : un risque clinique à ne pas sous-estimer

Certaines réponses erronées sont données avec assurance. C’est là que réside le danger : des interprétations fausses mais convaincantes, difficiles à détecter pour un non-spécialiste.
Cela souligne que la lecture radiologique reste une compétence médicale contextualisée, difficilement modélisable à l’identique.

Le rôle des invites : un levier de performance limité

Les chercheurs ont testé plusieurs types de formulations pour voir si le “prompting” améliorait les résultats :

  • invite simple,

  • raisonnement par étape (“chaîne de réflexion”),

  • formulation longue.

Résultat : légère amélioration uniquement sur les questions textuelles. Sur les images, aucune amélioration notable. Pire, Chat-GPT4 Vision a refusé de répondre à plus de 120 questions, la plupart incluant des images.

Un potentiel réel… mais à manier avec prudence

Points positifs :

  • Bonne maîtrise des contenus textuels,

  • Utilité potentielle pour la pédagogie ou l’aide documentaire.

Limites actuelles :

  • Lecture d’images instable,

  • Risques d’erreurs graves,

  • Refus de réponse fréquents.

Vers une IA radiologique de confiance : quelles perspectives ?

Pour aller plus loin, il faudra :

  • intégrer des bases de données spécialisées en radiologie,

  • former l’IA avec des cas cliniques validés,

  • encadrer les usages avec des garde-fous.

Le développement d’IA en radiologie est une voie d’avenir, mais qui exige rigueur, éthique et validation scientifique.

En conclusion

Chat-GPT4 Vision ne remplace pas le radiologue. Il peut assister, documenter, vulgariser… mais il ne voit pas. Sa fiabilité en imagerie médicale reste à construire. Pour l’instant, la prudence s’impose.