Santé mentale : un avatar IA en soutien

Des amis Facebook aux confidences anonymes sur les forums, Internet a toujours démultiplié nos possibilités de nous sentir entouré·es et écouté·es. Et l’IA générative (branche de l’IA permettant la création de contenus textuels, visuels ou vidéo, dont l’outil le plus représentatif est Chat GPT) n’échappe pas au phénomène.
Deux tiers des Suisses ont déjà utilisé un ChatBot dans leur vie, dont 81 % des 18 à 35 ans. Dans quel but ? Essentiellement la recherche, le calcul et l’écriture. Pourtant, les témoignages d’internautes en ayant profité pour dialoguer lors d’une rupture amoureuse, une dépression ou simplement déposer leurs soucis sont nombreux. La tendance apparait très en vogue chez les jeunes : ils cherchent avec l’IA à recevoir des conseils, obtenir de nouvelles perspectives sur une situation ou encore être accompagné∙e par une présence empathique… disponible 24h/24.
De quelle manière et surtout jusqu’à quel point l’IA peut-elle nous conseiller ? Plusieurs journaux suisses ont mis en lumière le témoignage d’une personne qui, suite à une hospitalisation en psychiatrie, met du temps à trouver un professionnel disponible pour des séances individuelles. Dans cette attente, elle crée son propre ChatBot avec ChatGPT, et liste dans un tableau Excel les événements importants de son parcours de vie. Sur la base de ce document, l’IA lui propose un programme thérapeutique concret et adapté à ses besoins.
Malgré son scepticisme, l’utilisateur voit ses symptômes s’améliorer grâce à ce suivi, qu’il souhaite maintenir jusqu’à son premier rendez-vous avec un·e véritable thérapeute. Conscient de la fragilité des sources avec ce genre d’outil, il interroge régulièrement l’IA sur ses références.
Cet exemple démontre une problématique avérée en Suisse à l’heure actuelle : le manque de psychologues ou de psychiatres disponibles sur le marché face à une demande croissante. Mais l’avantage des Chatbots réside aussi dans l’anonymat de la démarche. En interagissant avec un écran, la peur du jugement s’amoindrit, à l’heure où les problèmes de santé mentale sont encore parfois stigmatisés. Pour les personnes qui s’exprimeraient plus facilement à une IA, il s’agit ainsi d’une solution discrète et peu coûteuse pour être entendues.
Finalement, des témoignages relèvent la capacité des ChatBots à interagir sans limite de patience : contrairement aux humains, ils ne sont pas sujets à la fatigue, ni à d’autres soucis personnels pouvant entraver l’empathie. Aux Etats-Unis, par exemple, une étude a comparé les réponses de Chat GPT face à celles d’un conseiller humain dans le cadre de thérapie conjugale : il s’est révélé compliqué d’identifier les réponses humaines face à celles de l’IA. Une autre recherche de l’Université de Genève évalue que Chat GPT aurait, d’après les tests, un intelligence émotionnelle jugée satisfaisante : il existe une logique dans la manière dont nous gérons nos émotions, et l’IA semble l’avoir comprise. Ces résultats sont bien sûr à relativiser puisqu’il existe plusieurs formes d’empathie et que dans les faits, un ChatBot nous aide parce qu’on le lui demande, sans se soucier sincèrement de notre situation.
Le principal risque demeure, évidemment, que les ChatBots généralistes fournissent à leurs « patient∙es » virtuel∙les des informations erronées. L’accès de l’IA a une quantité infinie de sources -parfois non actuelles ou contradictoires- n’est pas forcément un avantage ; en matière d’accompagnement, les thérapeutes humains ont certes « lu » moins de livres que Chat GPT, mais peuvent sélectionner la méthode thérapeutique la plus adaptée selon la personne en face. Les ChatBots, en revanche, délivrent une image simplifiée des maladies mentales, ce qui conduit à proposer de traiter des problèmes complexes par un simple échange de messages. Ainsi, même s’il s’agit de cas isolés, la toile rapporte des situations où des personnes suicidaires sont passées à l’acte soi-disant encouragées par l’IA.
De plus, dans une société où la connectivité permanente est reconnue comme facteur de stress, le recours permanent à une plateforme IA pour se confier représente aussi une tendance à la dépendance ou au repli sur soi, néfastes pour la santé mentale. Comme le confie Thomas Berger, professeur de psychologie à l’Université de Berne, à la Berner Zeitung, la disponibilité permanence de l’IA peut aussi empêcher les patients de développer leurs propres stratégies d’adaptation.
Finalement, ChatGPT ne nous contredit pas, ou rarement. À but lucratif ? Les plateformes cherchent à garder leurs utilisateur·rices le plus longtemps possible ; dans cette idée, mieux vaut dire aux gens ce qu’ils veulent entendre. Or, toujours selon M. Berger, les personnes ont parfois besoin d’être challengées pour avancer. Sans oublier qu’avec l’IA, la question de la protection des données est sujette à d’importantes zones d’ombre.
Finalement, pour profiter des avantages que l’IA nous offre tout en évitant les dérives, il s’agit d’abord d’éduquer ses publics à l’utiliser de manière adéquate. Ensuite, il convient de privilégier l’échange avec des outils développés par des professionnels de la santé mentale et entraînés à des fins d’accompagnement. L’Université de Dartmouth, aux Etats-Unis, travaille par exemple sur « Therabot », un programme sous surveillance des experts dont les premiers tests sur les personnes malades sont encourageants.
Dans la même idée, notre avatar « Ella » a été mis en place en collaboration avec les entreprises Kuble – House of Intelligence (spécialiste de l’IA) et WorkMed AG, centre de compétence spécialisé en santé mentale au travail. Intégrée à l’application web « EtwasTun ? » pour la prévention du stress et des conflits sur le lieu de travail, elle permet aux utilisateurs un dialogue live en direct. Et certains cabinets de psychothérapie se sont déjà lancés dans des démarches hybrides : en exemple ylah.ch, entreprise bernoise, qui propose une approche mêlant les contacts humains avec ceux d’une App virtuelle à utiliser entre les sessions pour optimiser la thérapie.
En outre, c’est finalement en matière d’analyse de données et de diagnostics que les outils de l’IA semblent le plus prometteurs en psychiatrie, qu’il s’agisse des techniques d’imagerie du cerveau, ou la pose de diagnostics précoces à partir du langage, de la voix ou des expressions faciales.
En conclusion... Si les outils sont vérifiés et fiables, il est difficile de ne pas reconnaître les bienfaits que l’IA peut apporter en matière de santé mentale, surtout à titre préventif. À condition, toutefois, de garder son esprit critique affûté et surtout, ne pas s’y adresser exclusivement en cas de troubles sévères. En situation de crise ou de décompensation, les Chatbots devraient immédiatement conseiller leurs « patient∙es » d’accourir vers un thérapeute humain. Et que Chat GPT dispose de ce réflexe, cela n’est pas garanti.
Sources (articles de presse) :