Les avancées récentes de l’intelligence artificielle (IA) en médecine sont tout simplement extraordinaires. En quelques années, des systèmes capables de lire des images, d’analyser des signaux physiologiques complexes, de produire des textes médicaux cohérents ou d’assister la décision clinique se sont imposés dans des domaines autrefois considérés comme irréductiblement humains. L’IA n’est plus un horizon lointain : elle est déjà là, intégrée aux soins, à la recherche et même aux processus éditoriaux les plus exigeants.
Le fait que le New England Journal of Medicine expérimente désormais une relecture scientifique accélérée associant évaluateurs humains et modèles d’IA en est un symbole fort. En effet, dans un éditorial fondateur, ce journal de référence fait valoir que l’IA peut contribuer à accélérer la science, à condition de rester strictement subordonnée au jugement humain, assumé et responsable. Ce signal est clair : l’IA ne se contente plus d’outils périphériques, elle pénètre le cœur même des pratiques médicales et académiques.
Toutefois, cette intégration rapide n’est pas sans contrepartie. L’un des angles morts majeurs du discours technologique est le risque de deskilling, c’est-à-dire d’érosion progressive des compétences humaines sous l’effet d’une délégation cognitive excessive. Ce risque, longtemps théorique, est étayé aujourd’hui par des données préoccupantes. Par exemple, une étude multicentrique en endoscopie digestive montre que l’exposition prolongée à des systèmes d’aide à la détection par IA, pourtant performants en situation assistée, s’accompagne d’une diminution significative du taux de détection des adénomes coliques lorsque l’IA est retirée. Autrement dit, l’outil améliore la performance immédiate, mais peut affaiblir l’expertise humaine à long terme [1]. Ce constat interroge frontalement notre modèle de formation, de maintien des compétences et de responsabilité clinique.
Face à cette automatisation croissante, une question revient souvent comme un refuge rassurant : que restera-t-il aux humains ? La réponse spontanée invoque l’empathie, la relation, l’humanité du soin. Pourtant, même ce dernier bastion mérite aujourd’hui d’être interrogé. Des travaux récents en psychologie montrent que des réponses générées par des modèles d’IA sont perçues, par des évaluateurs tiers, comme plus compatissantes et plus attentives que celles produites par des humains, y compris des professionnels formés à l’écoute et au soutien émotionnel [2]. L’IA ne “ressent” rien, mais elle sait exprimer une empathie fonctionnelle, parfois jugée supérieure à celle que des soignants, soumis à la pression, au manque de temps et à l’épuisement, peuvent offrir.
Faut-il alors conclure que l’IA fera mieux que nous, partout, y compris dans ce que nous pensions être notre singularité ? Probablement pas. Néanmoins, il devient difficile de se réfugier derrière une opposition simpliste entre intelligence artificielle et intelligence humaine. L’enjeu n’est plus de préserver des territoires symboliques, mais de redéfinir lucidement les rôles : former des cliniciens capables de travailler avec l’IA sans s’y soumettre, maintenir des compétences actives malgré l’assistance, et assumer que certaines dimensions du soin – y compris relationnelles – puissent être partagées, augmentées ou partiellement déléguées.
L’IA ne pose pas seulement une question technologique. Elle agit comme un révélateur brutal de nos fragilités organisationnelles, cognitives et humaines. À nous de décider si elle deviendra un accélérateur de la médecine éclairée ou un substitut confortable à une expertise que nous aurions laissée s’éroder.
Les trois articles qui composent ce dossier illustrent concrètement ces tensions, en explorant les apports actuels de l’IA en diabétologie, en néphrologie et dans la gestion des patients hypertendus, tout en interrogeant les conditions de son intégration responsable au service du soin.■