Dossier

Intelligence artificielle en psychiatrie : perspectives et applications


(pdf / 97,82 Ko)

Les applications potentielles de l’IA en psychiatrie comprennent [1] :

  • L’analyse de grandes bases de données pour faire émerger de nouvelles pistes de recherche clinique ou thérapeutique.
  • L’analyse prédictive à partir de données hétérogènes : transition vers un état pathologique, tentative de suicide, réponse au traitement, rechute précoce.
  • L’aide au diagnostic : analyse en IA de biomarqueurs avec une meilleure spécificité permettant ­d’affiner la sémiologie différentielle. Identification des sujets à risque et interventions précoces.
  • Les agents conversationnels et LLM : analyse symptomatique et émotionnelle, assistance thérapeutique.
  • Les traitements personnalisés : prise en compte des données individuelles pour des options thérapeutiques plus adaptées.

Pourquoi la psychiatrie a-t-elle besoin d’outils nouveaux ?

Si la médecine était une enquête policière, on y retrouverait tous les acteurs habituels : la victime (le patient), le criminel (la maladie), les preuves (les symptômes) et le détective (le médecin) aidé de son équipe (les soignants). Ces derniers devront rassembler les preuves, les relier entre elles pour déterminer qui est le coupable et comment il a agi pour enfin le mettre hors d’état de nuire (le traitement). Le détective peut oublier ou surestimer des preuves ou le criminel peut ne pas avoir agi seul, ce qui brouille les pistes (comorbidité). On comprend alors que toutes les enquêtes, même si elles ont des points communs, ne devront pas s’appuyer sur une preuve unique et surtout nommer toujours le même coupable qui sera condamné de la même manière ! Ces processus sont donc individualisés et cela nous paraît logique.

En suivant cette analogie, on comprend pourquoi l’évolution actuelle de la médecine tend vers une personnalisation des soins qui prend en compte les facteurs biologiques et environnementaux du patient : elle doit permettre d’améliorer le diagnostic, de proposer un traitement plus ciblé et, enfin, servir à la prévention des rechutes ou récidives, voire prévenir la transition vers la maladie. La santé mentale ne devrait pas déroger à cette règle. Pourtant, la mise en œuvre de cette “psychiatrie individualisée” se heurte à de nombreux obstacles. D’une part, la maladie psychique peut être considérée comme un système complexe, c’est-à-dire constitué d’un nombre important d’éléments, eux-mêmes en interaction, ajoutant de nombreuses boucles de rétroaction ou faisant émerger des propriétés nouvelles. Ces systèmes sont donc par essence difficiles à appréhender dans leur globalité et donc à modéliser. D’autre part, les outils diagnostiques catégoriels actuellement utilisés ne prennent pas ou peu en compte l’hétérogénéité des troubles dont l’expression peut varier selon les individus et les cultures. Et malgré une inflation du nombre de catégories diagnostiques à chaque version de ces manuels, on observe toujours en pratique des diagnostics instables, voire impossibles à poser. Surtout si l’on cherche à appliquer de manière rigoureuse les grilles de lecture de ces systèmes experts, un autre paramètre fondamental va s’imposer : le temps. Car ces approches peuvent être rapidement chrono­phages et donc peu compatibles avec la pression des consultations en période de crise ou la difficulté d’accès au système de soins.

Considérons que pour être mise en œuvre, la psychiatrie de précision doit intégrer des informations dont les sources sont multiples, complétées par une croissance importante des données scientifiques issues de la recherche dont il faut aussi hiérarchiser l’apport potentiel. Bref, cette complexité interroge les limites de nos capacités de raisonnement et d’intégration des connaissances et de la nécessité d’outils nouveaux pour accéder à cette psychiatrie de précision. La discipline a connu des espoirs importants avec certains travaux, mais aussi beaucoup de désillusions : les études dans le domaine de la génétique peinent à trouver des applications pratiques, l’imagerie fonctionnelle est loin d’être accessible pour le soin courant et si les biomarqueurs font l’objet de nombreuses recherches, peu sont spécifiques et donc rarement utilisés au quotidien. Parmi les révolutions récentes dont a bénéficié la médecine, l’intelligence artificielle (IA) semble être la technologie qui offre les meilleurs outils pour surmonter les défis de cette complexité et reconsidérer les données scientifiques sous un autre angle [2]. Peut-être pourrons-nous alors accéder à cette psychiatrie personnalisée et répondre aux défis plus globaux auxquels nous sommes confrontés en tant que soignants [3].

IA : de quoi parle-t-on ?

L’IA suscite autant d’espoirs que de craintes, il convient donc d’en définir les contours pour mieux envisager la suite de notre propos. Conceptualisée en 1955 lors de la conférence de Dartmouth sous l’impulsion de J. McCarthy, l’IA est un domaine informatique axé sur la conception de systèmes capables d’accomplir des tâches qui, traditionnellement, nécessitent l’intelligence humaine. Son objectif principal est de développer des machines qui peuvent percevoir, comprendre, raisonner, apprendre et prendre des décisions de manière autonome. Elle englobe un large éventail de techniques et d’approches telles que l’apprentissage automatique, l’apprentissage profond, la vision par ordinateur, le traitement du langage naturel, la robotique. Ces méthodes permettent aux systèmes d’IA d’analyser des quantités massives de données, d’en extraire des connaissances et de générer des modèles ou des représentations du savoir. À ce jour, il ne s’agit pas d’une machine avec une conscience de soi ou du monde, elle n’est pas capable d’expérience subjective comme chez l’homme. Sa “supériorité” dans certains domaines repose donc surtout sur la puissance de calcul qui lui est allouée et la performance des algorithmes utilisés.

Les grands principes

l’IA repose donc sur différents types de techniques algorithmiques, dont il est important de connaître les principes pour comprendre leurs applications potentielles, mais aussi leurs limites.

On entend souvent parler de l’apprentissage automatique qui repose sur des algorithmes améliorant leur performance automatiquement à partir de données qui leur sont fournies. Ils permettent par entraînement et “retour d’expérience” d’estimer des nouvelles données qui peuvent aussi être des concepts, voire une probabilité de survenue d’événements futurs. Ils sont représentés principalement par 2 grands types de méthodes de classification :

  • le premier type, dit “d’apprentissage par l’exemple”, est “supervisé” dans la mesure où l’on va travailler sur un nombre de classes prédéterminé par un expert (les “étiquettes” déjà connues). Il est surtout utilisé, par exemple, dans l’estimation de survenue d’un événement (transition vers la psychose, rechute de maladie, réponse au traitement) : les données sont associées aux étiquettes, l’algorithme cherche à trouver des différences entre les données en fonction de ces étiquettes. Lorsqu’un nouveau set de données est présenté à l’algorithme désormais “entraîné”, il va “dire” à quelle classe il appartient ;
  • l’autre méthode, dite “non supervisée”, ne repose plus sur des classes explicitées en amont. L’algorithme va chercher à déterminer “tout seul”, de manière exploratoire, la meilleure classification des données : les plus semblables sont regroupées tout en vérifiant que celles qui sont les moins proches appartiennent bien à des groupes distincts. Cette méthode est optimale pour découvrir des caractéristiques ou des structures qui ne sont pas encore connues ou directement observables mais dont on suppose qu’elles jouent un rôle : il s’agit des “variables latentes”. L’expert peut alors intervenir pour valider la cohérence de la classification et son utilité avant de chercher à appliquer les résultats obtenus. De plus, les données utilisées se doivent d’être de qualité. Cette méthode permet par exemple de regrouper les patients en sous-groupes en fonction de critères tels que l’histoire de la maladie ou les caractéristiques cliniques, d’analyser des données biologiques ou d’imagerie pour détecter des anomalies pouvant influencer la survenue d’événements.

Il est possible, lorsqu’une tâche a été apprise pour résoudre un problème donné, de l’étendre à d’autres problématiques ayant des points communs, on appelle cela “l’apprentissage par transfert”. C’est ce que fait l’humain lorsqu’il procède par analogie.

Enfin, le Graal serait l’apprentissage profond (deep learning). Il s’agit d’une méthode d’apprentissage automatique qui travaille par “couches” à partir de données brutes : chaque niveau transforme les données de la couche inférieure en concept de plus en plus abstrait et fait apparaître à son niveau le plus élevé une nouvelle connaissance.

Les systèmes “experts” quant à eux utilisent des règles, le plus souvent des opérateurs logiques de type “si”, “alors” simulant le raisonnement humain en exploitant des bases de connaissances ­spécifiques à un type de problématique. Ils sont conçus pour aider la prise de décision dans des contextes complexes : poser un diagnostic, proposer un traitement plus spécifique ou individualisé.

Ces méthodes sont donc prometteuses pour une meilleure exploitation des biomarqueurs et surtout pour une classification plus valide des troubles psychiques [4]. Certains types d’algorithmes vont permettre de traiter des informations difficiles à manipuler intuitivement par l’humain à partir de données issues de l’imagerie cérébrale (structurelle ou fonctionnelle) [5], de paramètres biologiques ou génétiques, et enfin des comportements analysés à l’aide d’autres techniques (psychologie expérimentale automatisée, EEG, potentiels évoqués, etc.).

Des avancées sont attendues dans la détection fiable d’états prémorbides et les diagnostics précoces. En effet, les algorithmes d’IA peuvent croiser, comme nous l’avons vu, des ensembles de données hétérogènes. Parmi les recherches les plus abouties, on peut évoquer les travaux d’imagerie cérébrale menés en Allemagne par N. Koutsouleris et P. Fusar Poli sur le risque de transition psychotique chez les sujets dits à “ultra haut risque”. Grâce à un set de données issues d’IRM bien entraîné par des techniques d’apprentissage automatique supervisé, les dernières données établissent des scores de risque de plus en plus fins [6]. Ces mêmes méthodes peuvent analyser diverses sources de données (dont le contenu des réseaux sociaux) pour prédire d’autres événements, notamment les tentatives de suicide, le risque individuel de rechute ou de récidive d’une maladie, la réponse thérapeutique ou les réactions indésirables aux médicaments. Ceci permet d’intervenir précocement et d’allouer les ressources thérapeutiques avec une meilleure efficience.

Analyse du langage,une piste essentielle

Pour certains auteurs, il existe une catégorie d’outils basés sur l’IA ayant un fort potentiel en psychiatrie [7] : le traitement automatique de la langue naturelle (TALN). Cette technologie utilise des connaissances issues de la linguistique, du codage informatique et des algorithmes de l’IA pour qu’ils traitent et analysent de grandes quantités de données en langage naturel. L’objectif principal du TALN est de pouvoir comprendre les données textuelles à disposition, en prenant en compte le contexte dans lequel elles sont intégrées. Ce type de technologie permet d’analyser la sémantique, la syntaxe, l’intention et la valence émotionnelle contenues dans le texte pour produire un langage semblable à l’homme, mais aussi de faire des “fouilles” et trouver les relations existant entre les données textuelles. Une analyse de la littérature dans un domaine spécifique peut être effectuée en un temps record, avec une synthèse pouvant répondre à des requêtes spécifiques. Aujourd’hui, les données personnelles de santé sont informatisées et il est possible d’accéder aux dossiers médicaux des patients qui comportent des informations analysables par ces outils alors qu’elles ne sont pas nécessairement formalisées, mais aussi de les croiser avec des résultats d’essais cliniques : on peut dans l’absolu faire émerger des caractéristiques nous aidant à mieux comprendre par exemple pourquoi un patient répond ou non à un traitement, l’IA peut alors développer des modèles thérapeutiques spécifiques à chaque patient, plus efficaces car mieux adaptés aux besoins de celui-ci. L’IA permet surtout de créer des “classes” qui, en psychiatrie, peuvent être des comportements, des symptômes ou des diagnostics. Parmi les techniques utilisées et considérées comme une avancée majeure, les grands modèles de langage (GLM) entraînés par des apprentissages supervisés et profonds sur de très grands corpus de données analysent avec précision le langage et ont une capacité générative qui impressionne (ChatGPT en est le représentant le plus connu) ; ils peuvent proposer du contenu textuel adapté au contexte, et parfois de manière créative. Les chatbots thérapeutiques en bénéficieront de toute évidence : ces agents conversationnels, même s’ils ne se substituent pas au thérapeute “humain”, pourront délivrer un soutien thérapeutique structuré entre 2 consultations “physiques”, proposer de la psychoéducation personnalisée, mais aussi analyser l’état émotionnel des patients et le restituer ensuite au thérapeute. Cependant, plusieurs défis semblent s’imposer et retarder leur mise en œuvre [8]. Premièrement, les psychothérapies font partie d’un domaine où les débats sont nombreux, en particulier sur leur définition même, leur validité et leur déroulement optimal. Deuxièmement, si la relation thérapeutique en est un des piliers, alors un non-humain peut-il les délivrer ? Troisièmement, l’IA est encore “restreinte” à des tâches spécifiques, or l’intelligence générale, qui prend en compte un vaste corpus de connaissances et de concepts, semble indissociable des thérapies, ce qui serait un frein à leur numérisation.

Exemple de technologie intégrative : le phénotype numérique

Le terme “phénotype” se réfère aux caractéristiques observables d’un organisme qui résultent de l’inter­action entre ses gènes et l’environnement. Formalisé par Jain en 2015 et Torous en psychiatrie l’année suivante [9], le phénotype numérique prend en compte les données collectées par exemple sur un smartphone, qui seront exploitées par des algorithmes d’IA embarqués. On les obtient principalement de manière passive, c’est-à-dire automatiquement : GPS, accéléro­mètre, activité physique, analyse de la voix et du langage, capteurs connectés analysant des paramètres biologiques (fréquence cardiaque, tension artérielle, conductance cutanée, sommeil). Mais aussi en analysant l’activité de la personne (données actives) : temps passé sur l’écran, nombre et horaires des interactions sociales, comportement de navigation sur Internet. On obtient alors des biomarqueurs qui caractérisent une sémiologie numérique individuelle, permettant potentiellement une détection précoce d’événements cliniques ou de proposer des interventions individualisées en réponse à ces marqueurs et leur évolution temporelle. Ces outils peuvent apporter au patient des données plus précises sur son état et contrôler les biais cognitifs pouvant affecter la décision médicale et contribuer à équilibrer la relation thérapeutique [10]. Ce nouveau concept nécessite une solide réflexion éthique quant à la sécurisation des données et au respect de la vie privée et, bien sûr, des études de validité respectant des critères scientifiques stricts [11].

Pourquoi la révolution est-elle si tardive en psychiatrie ?

Les technologies liées à l’IA se distinguent par leur caractère innovant en raison de leurs capacités à engendrer des changements significatifs. Toutefois, comme le souligne H.C. Kim [12], il convient d’en spécifier différentes catégories. Certaines sont qualifiées d’émergentes, car elles apportent de nouvelles idées ou améliorent les services offerts. Un exemple notable est la convergence technologique qui regroupe plusieurs outils accomplissant des tâches ou des objectifs similaires comme le smartphone. D’autres technologies, en revanche, sont qualifiées de “disruptives”, car elles introduisent des ruptures en créant de nouvelles méthodes ou de nouveaux procédés qui remplacent les anciens, ce sont souvent elles qui inquiètent une communauté professionnelle car perçues comme une menace pouvant les remplacer. Enfin, on peut également qualifier certaines technologies “d’immatures”, car elles nécessitent une poursuite de leur développement et sont encore à un niveau formatif. L’intégration des outils reposant sur l’IA dans la pratique clinique en psychiatrie n’est pas aussi avancée que dans d’autres disciplines médicales. Une étude récente sur ce sujet conclut que l’IA offre un potentiel prometteur dans les soins de santé mentale, mais la plupart des recherches en sont encore au stade formatif ou de preuve de concept [13].

Nous avons parlé des troubles psychiques comme un exemple de système complexe biopsychosocial, ce qui explique en partie la difficulté à formaliser correctement les questions posées à l’IA.

Conclusion

“Mieux vaut prendre le changement par la main avant qu’il ne nous prenne par la gorge”, disait W. Churchill. Cette citation semble plus d’actualité que jamais avec l’IA, car la transformation de la discipline est en marche et l’ignorer nous priverait de perspectives majeures en psychiatrie. Il ne faut pas cependant s’y engouffrer sans une solide réflexion éthique et scientifique, et surtout préparer les praticiens à ces changements [14] car nous avons la possibilité d’améliorer le diagnostic, le soin et de découvrir de nouvelles pistes pour faire progresser la recherche. ■

Références

1. Stern E et al. How can digital mental health enhance psychiatry? Neuroscientist 2022:10738584221098603.

2. Ray A et al. Artificial intelligence and psychiatry: an overview. Asian J Psychiatr 2022;70:103021.

3. Smith KA et al. Digital mental health: challenges and next steps. BMJ Ment Health 2023;26(1):e300670.

4. Bzdok D, Meyer-Lindenberg A. Machine learning for precision psychiatry: opportunities and challenges. Biol Psychiatry Cogn Neurosci Neuroimaging 2018;3(3):223-30.

5. Vieira S et al. Using deep learning to investigate the neuroimaging correlates of psychiatric and neurological disorders: methods and applications. Neurosci Biobehav Rev 2017;74(Pt A):58-75.

6. Fusar-Poli P et al. PSMD EBRA cluster (annex 1). Ethical considerations for precision psychiatry: a roadmap for research and clinical practice. Eur Neuropsychopharmacol 2022;63:17-34.

7. Brunn M et al. The future is knocking: how artificial intelligence will fundamentally change psychiatry. Acad Psychiatry 2020;44(4):461-6.

8. Grodniewicz JP, Hohol M. Waiting for a digital therapist: three challenges on the path to psychotherapy delivered by artificial intelligence. Front Psychiatry 2023;14:1190084.

9. Jain SH et al. The digital phenotype. Nat Biotechnol 2015;33:462-3.

10. Mouchabac S et al. Improving clinical decision-making in psychiatry: implementation of digital phenotyping could mitigate the influence of patient’s and practitioner’s individual cognitive biases. Dialogues Clin Neurosci 2022;23(1):52-61.

11. Mouchabac S et al. Prevention of suicidal relapses in adolescents with a smartphone application: Bayesian network analysis of a preclinical trial using in silico patient simulations. J Med Internet Res 2021;23(9):e24560.

12. Kim HC. A disciplinary framework to study user acceptance of innovative technologies. 2014 International Symposium on Computer, Consumer and Control. https://ieeexplore.ieee.org/abstract/document/6846117

13. Graham S et al. Artificial intelligence for mental health and mental illnesses: an overview. Curr Psychiatry Rep 2019;21(11):116.

14. Bourla A et al. Psychiatrists’ attitudes toward disruptive new technologies: mixed-methods study. JMIR Ment Health 2018;5(4):e10240.


Liens d'intérêt

S. Mouchabac déclare avoir reçu des honoraires en tant que consultant, conférencier de la part d’Ethypharm, ­Bioserenity et ­Angelini Pharma.