Intelligence artificielle et santé mentale : innovations, défis et implications cliniques – Par Alice Lemay

L’intelligence artificielle en santé mentale

Dans notre société actuelle, il est possible de constater une augmentation des troubles anxieux, dépressifs et liés au stress dans la population générale, et ce, particulièrement chez les jeunes et les étudiant.e.s. Malgré l’augmentation des troubles de santé mentale, il y a pourtant une difficulté à avoir accès à des services professionnels appropriés, en raison des listes d’attente, des coûts élevés ou de la pénurie de professionnels. Face à cet enjeu, il devient pertinent d’examiner le rôle potentiel de l’intelligence artificielle (IA) en santé mentale, notamment en tant qu’outil pour améliorer l’accessibilité et le soutien psychologique (Torous et al., 2017). En effet, l’IA est de plus en plus présente depuis les dernières années. Elle pourrait donc avoir certains bénéfices, mais aussi des risques et des limites.

L’IA correspond à la capacité qu’ont les algorithmes intégrés dans des systèmes d’apprendre à exécuter des tâches automatiques sans intervention humaine à chaque étape (World Health Organization, 2024). Ainsi, ils peuvent analyser des données, reconnaître des éléments et faire des prédictions. L’IA est divisée en plusieurs catégories, dont une qui correspond à l’IA générative. Dans celle-ci, les algorithmes peuvent générer du nouveau contenu comme du texte, des images ou des vidéos. Un type d’IA générative plus développé se nomme grands modèles multimodaux (LMM). Ces modèles facilitent les interactions humain-ordinateur en imitant certains aspects de la communication humaine. C’est ce type d’IA précisément qui aurait une large utilité dans les soins de santé, la santé publique, et bien plus (World Health Organization, 2024).

Sachant que l’IA est capable d’interpréter des données et de produire des réponses de plus en plus complètes, elle représente une opportunité de bonifier le soutien, le suivi et les interventions en santé mentale. 

Innovations actuelles

Tout d’abord, l’IA est pertinente pour le dépistage. En effet, des algorithmes peuvent analyser des questionnaires, le langage écrit ou oral, ainsi que des comportements numériques comme l’utilisation du cellulaire, le sommeil ou l’activité physique (Torous et al., 2017). Ceci peut donc aider à détecter précocement des symptômes dépressifs ou anxieux ainsi que des signes de risque suicidaire. Bien que cette détection soit pertinente et précieuse, la fiabilité de ces évaluations dépend fortement de la qualité et de la représentativité des données utilisées. Des biais peuvent entraîner des détections faussement positives ou négatives, et donc avoir des conséquences cliniques importantes (Alder et al., 2024).

L’IA est également utile pour les interventions sur le plan psychologique. Les outils utilisés par l’IA dans ces situations sont les chatbots thérapeutiques. Ce sont des agents conversationnels qui utilisent des techniques issues de la thérapie cognitivo-comportementale (TCC), de la psychoéducation et de la gestion du stress (Fitzpatrick et al., 2017; Cruz-Gonzalez et al., 2025). L’utilisation de chatbots basés sur la TCC est associée à une réduction modérée des symptômes anxieux et dépressifs chez les jeunes adultes. Toutefois, il est évident que ces interventions ne peuvent remplacer l’intervention humaine d’un professionnel.

Finalement, l’IA serait pertinente pour le suivi psychologique. Elle permettrait d’effectuer un suivi pour l’humeur, le sommeil ou l’activité quotidienne. Ceci favoriserait aussi une conscience de soi et l’engagement dans sa propre prise en charge (Mikaeili et al., 2025). La pertinence de ce suivi est qu’il soit accessible 24h/7 et anonyme, ce qui peut réduire la stigmatisation ressentie par les personnes qui l’utilisent. Cependant, une surveillance excessive peut aussi engendrer de l’anxiété ou une hyperfocalisation sur les symptômes, ce qui souligne l’importance d’un usage encadré de cette technologie (American Psychological Association, 2023). 

Limites de l’IA

Malgré ses grandes avancées, l’IA possède des limites majeures. Tout d’abord, elle ne possède pas de conscience, d’émotions ou d’expérience subjective. En effet, l’empathie qu’elle semble exprimer est simulée à partir de modèles linguistiques et ne repose sur aucun vécu réel (American Psychological Association, 2023; World Health Organization, 2024). Celle-ci peut donc créer une illusion de relation, ce qui est particulièrement problématique pour les personnes vulnérables. Les êtres humains sont conçus pour répondre avec empathie et leur neurobiologie est aussi orientée vers la compréhension du vécu d’autrui, souvent discutée dans la littérature sous l’angle des neurones miroirs (East Vancouver Counselling, 2025). Il s’agit donc d’aspects non négligeables que l’IA ne peut pas reproduire.

Aussi, l’IA peut créer des « hallucinations », c’est-à-dire de produire des informations incorrectes, mais présentées avec assurance. Ces erreurs peuvent être dangereuses dans des contextes cliniques sensibles, comme la gestion des idées suicidaires ou de la psychose (East Vancouver Counselling, 2025; World Health Organization, 2024).

Finalement, l’IA montre aussi des biais basés sur les données avec lesquelles elle a été programmée. Notamment, Obermeyer et al. (2019) ont démontré l’existence de biais raciaux dans un algorithme utilisé en santé, menant à une sous-estimation des besoins cliniques des personnes racisées.

Implications cliniques

Face aux divers bénéfices et limites de l’IA, il est évident qu’elle devrait être considérée comme un outil complémentaire, et non comme un substitut du professionnel en santé mentale. Elle peut être pertinente pour soutenir la psychoéducation, pour assurer un suivi entre les séances ou pour la prévention. Toutefois, le diagnostic, l’évaluation et les décisions cliniques doivent demeurer sous la responsabilité d’un clinicien (American Psychological Association, 2023). Une formation adéquate des professionnels serait alors essentielle afin de développer une compréhension critique des outils basés sur l’IA et de leurs limites, afin d’assurer une utilisation sécuritaire (World Health Organization, 2024; Torous et al., 2017).

Conclusion

Bien que l’IA représente une innovation prometteuse pour améliorer l’accès, la prévention et le soutien en santé mentale, elle comporte des limites importantes. Notamment, elle est dépourvue de conscience ou d’empathie réelle et de jugement clinique. Son utilisation doit donc reposer sur une approche centrée sur la personne, être encadrée par des normes rigoureuses et être soutenue par une formation adéquate des professionnels.

Texte révisé par Emilia Cabrera Mallette.

Références

Adler, D. A., Stamatis, C. A., Meyerhoff, J., Mohr, D. C., Wang, F., Aranovich, G. J., Sen, S., & Choudhury, T. (2024). Measuring algorithmic bias to analyze the reliability of AI tools that predict depression risk using smartphone sensed-behavioral data. Npj Mental Helath Research, 3(17). https://doi.org/10.21203/rs.3.rs-3044613/v1 

American Psychological Association. (2024). Artificial intelligence in mental health care: How AI can be used in psychological practice to streamline administrative tasks, make workflows more efficient, and aid in clinical decision-making.  https://www.apa.org/practice/artificial-intelligence-mental-health-care

Cruz-Gonzalez, P., He, A. W., Lam, E. P., Ng, I. M. C., Li, M. W., Hou, R., Chan, J. N., Sahni, Y., Vinas Guasch, N., Miller, T., Lau, B. W., & Sánchez Vidaña, D. I. (2025). Artificial intelligence in mental health care: a systematic review of diagnosis, monitoring, and intervention applications. Psychological medicine55, e18. https://doi.org/10.1017/S0033291724003295 

East Vancouver Counselling. (2025). AI therapy: Ethics and considerations (is it a good idea?). https://eastvancouvercounselling.ca/ai-therapy-ethical-considerations/ 

Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR mental health4(2), e19. https://doi.org/10.2196/mental.7785 

Mikaeili, N., Naeim, M., & Narimani, M. (2025). Reimagining Mental Health with Artificial Intelligence: Early Detection, Personalized Care, and a Preventive Ecosystem. Journal of multidisciplinary healthcare18, 7355–7373. https://doi.org/10.2147/JMDH.S559626 

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science (New York, N.Y.)366(6464), 447–453. https://doi.org/10.1126/science.aax2342 

Torous, J., Linardon, J., Goldberg, S. B., Sun, S., Bell, I., Nicholas, J., Hassan, L., Hua, Y., Milton, A., & Firth, J. (2025). The evolving field of digital mental health: current evidence and implementation issues for smartphone apps, generative artificial intelligence, and virtual reality. World psychiatry : official journal of the World Psychiatric Association (WPA)24(2), 156–174. https://doi.org/10.1002/wps.21299 

World Health Organization. (2024). Ethics and governance of artificial intelligence for health : Guidance on large multi-modal models. https://iris.who.int/server/api/core/bitstreams/e9e62c65-6045-481e-bd04-20e206bc5039/content 

Image : L’image de couverture a été générée par le logiciel Canva.


Commentaires

Laisser un commentaire