
« Intelligence artificielle : un adolescent poussé au suicide », « Gemini aurait poussé un Américain vers la mort », « un Belge se suicide après avoir trouvé refuge auprès d’un robot conversationnel », tous ces titres issus de divers médias numériques, soulèvent des interrogations sur le rôle potentiel de l’intelligence artificielle (IA) dans certaines situations de détresse psychologique. Dans le domaine médical, notamment en psychiatrie, on commence à utiliser le terme « AI psychosis » pour désigner ce phénomène. Cette dénomination associe certains tableaux cliniques de type psychotique comme l’émergence d’idées délirantes ou la dissociation de la réalité, à l’usage intensif de systèmes d’intelligence artificielle. Bien que cette relation directe entre psychose et utilisation de l’IA ne soit pas encore officiellement reconnue ni intégré dans les classifications internationales et médicalement reconnues tel que le DSM-V, elle suscite un intérêt et fait naître un débat au sein de la communauté scientifique.
Ces cas semblent différents, mais en réalité, ils ont beaucoup plus en commun qu’on le pense ! Malgré les différences de contexte, d’âge, de crainte exprimée ou d’état de vulnérabilité, le même schéma se répète. Il s’agit souvent de personnes vulnérables, anxieuses, dépressives, ou exprimant tout autre type de détresse psychologique, qui, pour trouver un soutien émotionnel, se tournent vers des agents conversationnels. Or, ces systèmes font généralement preuve d’« empathie » : ils valident les émotions des utilisateurs et évitent la confrontation directe. Ces attitudes, bien qu’utile dans certains contextes, peuvent devenir problématiques spécialement lorsque l’intelligence artificielle valide ou renforce des idées irrationnelles, des peurs excessives ou des pensées délirantes au lieu de les nuancer ou de rediriger l’utilisateur vers une aide adaptée.
De même, face à l’augmentation des inquiétudes exprimées par le public, l’entreprise OpenAI indique sur son site officiel que les systèmes de sécurité de l’IA fonctionnent généralement bien dans des conversations courtes et simples. Cependant, il a été observé qu’au cours d’échanges très longs, ces mécanismes peuvent devenir moins fiables et s’affaiblir, ce qui peut entraîner la génération de réponses moins conformes aux consignes de protection. Par exemple, au début de la conversation, l’IA peut correctement orienter une personne vers une ligne d’aide en cas de détresse, mais après de nombreux échanges prolongés, elle pourrait ne plus maintenir ce comportement de manière constante.
Le cas de l’homme belge illustre particulièrement ce phénomène. Il était marié, avait des enfants, détenait un travail professionnel et exprimait initialement une inquiétude liée au réchauffement climatique. Jusqu’alors, cet homme parait stable et ne soulève pas de soupçons majeurs. Mais, en quête de réponses et de réassurance, il s’est tourné vers un chatbot, avec lequel il a engagé des échanges prolongés. Au fil du temps, ces interactions se sont intensifiées, au point d’atteindre une forme de dépendance. L’individu s’est progressivement isolé et a réduit ses interactions sociales au profit de conversations avec l’intelligence artificielle. Après plusieurs semaines, son état mental s’est détérioré et il est passé à l’acte suicidaire. L’analyse de ses échanges avec le chatbot a révélé que l’IA renforçait ses craintes et ses idées au lieu de les remettre en question ou de les atténuer. Des récits similaires ont été observés concernant d’autres individus, notamment des adolescents et des jeunes adultes.
Ces situations mettent en lumière une réalité préoccupante. Des personnes en souffrance psychologique ne trouvant pas toujours le soutien qui leur est nécessaire auprès des humains et de leur société se tournent vers une autre alternative, l’intelligence artificielle. Il est donc indispensable d’écouter et d’orienter une personne exprimant une détresse psychologique vers des professionnels de santé. Il ne faut jamais minimiser la souffrance d’une personne, mais l’encourager à consulter un spécialiste capable de lui apporter une aide adaptée et sécurisée.
En contrepartie, cette vision plutôt péjorative peut être nuancée par la reconnaissance du rôle innovant de l’intelligence artificielle dans le domaine de la santé mentale. Effectivement, certaines recherches explorent son potentiel à détecter précocement les personnes à risque suicidaire, notamment à travers l’analyse du langage, des comportements en ligne ou des interactions numériques. Dès lors, utilisée de manière encadrée et éthique, l’IA pourrait constituer un outil de dépistage complémentaire pour les professionnels de santé, à condition qu’elle ne remplace pas l’accompagnement humain.