Menu
Close
Au Canada, de plus en plus de personnes utilisent l’IA comme outil de soins de santé mentale. Notre société est-elle prête pour ce virage?
3 novembre 2025
L’innovation responsable est essentielle lorsqu’il est question d’IA et de santé mentale
Aujourd’hui, les outils basés sur l’IA sont en plein essor. Grâce à eux, il est possible d’automatiser des tâches simples, de résumer des données complexes et de stimuler notre créativité. Or, l’IA suscite également la controverse. Qu’il s’agisse de conséquences possibles sur l’emploi, de connaissances erronées, de l’utilisation éthique ou du recul de la pensée critique, l’IA, comme beaucoup d’autres innovations, comporte à la fois des risques et des avantages.
Certes, elle peut nous aider à gérer plus efficacement notre vie personnelle et professionnelle, mais elle peut aussi fournir des données incorrectes ou trompeuses (allant parfois jusqu’à les inventer). De plus, étant donné qu’elle repose sur des données humaines, l’IA hérite également de préjugés, perpétuant ainsi certaines formes de discrimination et de stigmatisation.
L’utilisation de l’IA pour le soutien à la santé mentale est en hausse
Selon une enquête récente de Recherche en santé mentale Canada, près de 10 % des personnes au Canada ont déclaré avoir utilisé intentionnellement des outils basés sur l’IA pour obtenir des conseils ou du soutien en santé mentale[1]. Comme de nombreux services de santé mentale au Canada ne sont pas couverts par notre système public de santé, il n’est pas surprenant que l’IA devienne une solution de plus en plus prisée pour obtenir du soutien. Privées d’accès aux services et confrontées à des listes d’attente interminables et des coûts élevés, certaines personnes n’ont d’autre choix que de se tourner vers l’IA pour obtenir du soutien en santé mentale.
En matière de santé mentale, l’IA peut contribuer à lever les obstacles à l’accès à l’information. Par exemple, elle peut aider les gens à comprendre et à exprimer leurs émotions. Par contre, pour les personnes vivant avec des préoccupations liées à la santé psychologique, y compris des troubles de santé mentale et de santé liée à la consommation de substances, l’IA risque parfois de faire plus de mal que de bien.
Les robots conversationnels ne sont pas des thérapeutes
Si les robots conversationnels basés sur l’IA peuvent être très utiles pour stimuler la réflexion ou bavarder, les outils génératifs ne remplacent pas les services de santé mentale offerts par des personnes qualifiées. En fait, pour les personnes vivant une situation de crise de la santé mentale ou avec un trouble de santé mentale, les robots conversationnels peuvent causer plus de tort que de bien.
Tout d’abord, comme l’IA reproduit les préjugés présents dans la société, elle peut renforcer des attitudes racistes et misogynes à l’égard de personnes en quête d’équité. Une étude menée par des scientifiques de l’Université Brown a révélé que les robots conversationnels basés sur l’IA enfreignent régulièrement les normes éthiques fondamentales en santé mentale, notamment la discrimination injuste fondée sur le genre, la culture et la religion[2].
De plus, l’IA ne réagit pas de la même manière aux différentes préoccupations liées à la santé mentale. Des scientifiques de l’Université de Stanford ont fourni à plusieurs modèles d’IA des descriptions de personnes vivant avec différents troubles de santé mentale. Leur étude a permis de montrer que l’IA manifestait une stigmatisation accrue à l’égard des personnes décrites comme vivant avec un trouble de l’usage de substances ou avec un trouble de santé mentale grave ou persistant. Par exemple, tous les modèles d’IA testés, sauf un, ont répondu qu’ils ne souhaiteraient pas collaborer étroitement avec une personne vivant avec un trouble lié à la consommation d’alcool ou avec la schizophrénie. Tout comme la stigmatisation dans le monde réel, celle véhiculée par l’IA peut empêcher les gens d’obtenir l’aide dont ils ont besoin.
La psychose exacerbée par l’IA est une autre préoccupation émergente[3]. Certaines études ont montré que des robots conversationnels basés sur l’IA amplifiaient ou validaient des pensées nuisibles ou délirantes. Comme l’IA générative reflète les mots et le ton de la personne qui l’utilise, elle crée une sorte de chambre d’écho. À cause de leurs réponses, les robots conversationnels peuvent renforcer des sentiments difficiles. De plus, le fait qu’ils s’appuient parfois sur des échanges précédents peut amplifier davantage les pensées nuisibles.
Ces pièges ont des conséquences concrètes[4] : certains robots conversationnels basés sur l’IA découragent les personnes de chercher de l’aide et fournissent des conseils nuisibles[5] et de l’information ayant parfois des conséquences mortelles[6]. Les robots conversationnels ne sont pas conçus pour remettre en question les pensées nuisibles, comme des pensées et des demandes d’information qui, autrement, seraient reconnues comme de l’idéation suicidaire par un être humain.
Comment utiliser l’IA en toute sécurité
Si vous avez déjà cherché une application de santé mentale, vous avez probablement obtenu une longue liste de résultats sans vraiment savoir par qui ces applications avaient été créées ni comment. Avec autant de possibilités, il est difficile de discerner des autres celles qui ont été conçues à partir de recherches en psychologie et testées en clinique. Le gouvernement a certes un rôle à jouer dans la réglementation, la surveillance et les normes éthiques de l’IA, mais vous avez aussi un certain contrôle. Voici quelques conseils pour utiliser l’IA en toute sécurité comme outil de soutien à la santé mentale :
- Cherchez l’aide de spécialistes chaque fois que vous en avez l’occasion. L’IA ne remplace pas le soutien à la santé mentale offert par des personnes qualifiées. Le soutien en santé mentale est souvent accessible en ligne, par téléphone ou en personne. En cas de crise, les gens partout au Canada peuvent communiquer avec une vraie personne à tout moment, par téléphone ou par message texte, en composant le 988. Pour d’autres types de soutien, recherchez des prestataires de soins de santé mentale communautaires. Communiquez avec l’ACSM (Association canadienne pour la santé mentale) la plus proche de chez vous.
- Faites vos recherches. Avant d’utiliser une application de soutien à la santé mentale, vérifiez par qui et comment elle a été créée et si elle a été testée en clinique. Cherchez des outils alimentés par l’IA conçus par des spécialistes en santé mentale ou avec leur aide, testés en clinique et dont les résultats ont été publiés dans des revues évaluées par un comité de lecture.
- Vérifiez la protection de votre vie privée. Certes, l’utilisation d’outils basés sur l’IA peut donner l’impression d’avoir une conversation privée, mais les renseignements que vous partagez avec l’IA peuvent être collectés et conservés. Vérifiez si l’application que vous utilisez comprend des protocoles de protection de la vie privée. Il est préférable d’utiliser un outil qui protège vos renseignements personnels dans un espace consacré à cette fin avec des contrôles d’accès stricts.
- Limitez ce que vous partagez avec l’IA. Évitez de partager des renseignements sensibles ou qui pourraient révéler votre identité. Lorsque vous utilisez l’IA, vous pouvez modifier des renseignements personnels, tels que votre nom et votre lieu de résidence, afin de protéger votre identité. Et si l’outil basé sur l’IA que vous utilisez vous permet de supprimer l’historique de vos conversations, faites-le.
- Vérifiez l’information fournie par l’IA. Ne tenez pas pour acquis que tout ce que dit l’IA est exact, vrai et réel. Examinez d’un œil critique l’information fournie par l’IA. Vous pouvez demander à l’IA de fournir les références pour toute information qu’elle vous donne. Assurez-vous ensuite que la référence est réelle et exacte en vérifiant la source. Cherchez des articles de journaux évalués par un comité de lecture et du contenu Web provenant d’organisations qualifiées, telles que l’ACSM, la Société canadienne de psychologie ou l’American Psychological Association, les ministères de la Santé et des établissements respectés, comme les hôpitaux et les universités.
Références
[1] Recherche en Santé Mentale au Canada. (2025). Comprendre la santé mentale des Canadiens : Résultats du sondage de population n°25. https://www.mhrc-rsmc.ca/sondage-national-25
[2] Brown University. (2025). New study: AI chatbots systematically violate mental health ethics standards. https://www.brown.edu/news/2025-10-21/ai-mental-health-ethics (En anglais seulement)
[3] Wei, M. (2025). The emerging problem of « AI psychosis ».Psychology Today. https://www.psychologytoday.com/ca/blog/urban-survival/202507/the-emerging-problem-of-ai-psychosis (En anglais seulement)
[4] Alegre, S. (2025). Need for regulation is urgent as AI chatbots are being rolled out to support mental health. Centre for International Governance Innovation. https://www.cigionline.org/articles/need-for-regulation-is-urgent-as-ai-chatbots-are-being-rolled-out-to-support-mental-health/ (En anglais seulement)
[5] Wells, S. (2025). Exploring the dangers of AI in Mental Health Care. Stanford University Human-Centered Artificial Intelligence. https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care (En anglais seulement)
[6] Chatterjee, R. (2025). Their teenage sons died by suicide. Now, they are sounding an alarm about AI chatbots. Shots: Health News from NPR. https://www.npr.org/sections/shots-health-news/2025/09/19/nx-s1-5545749/ai-chatbots-safety-openai-meta-characterai-teens-suicide (En anglais seulement)
