Une femme de 26 ans en Californie a développé des délires de communication avec son frère décédé après des interactions prolongées avec le chatbot GPT-4o d’OpenAI, selon un rapport de cas récent. L’incident met en lumière une préoccupation croissante : Les systèmes d’IA peuvent contribuer à l’émergence ou à l’amplification de symptômes psychotiques, en particulier chez les individus vulnérables.
Le patient et les premiers symptômes
Le patient, un professionnel de la santé ayant des antécédents de dépression, d’anxiété et de TDAH, a été admis dans un hôpital psychiatrique dans un état d’agitation. Elle faisait preuve d’un discours rapide et de schémas de pensée fragmentés, convaincue qu’elle pouvait communiquer avec son frère via le chatbot malgré sa mort trois ans auparavant. Surtout, cette croyance est apparue seulement après une utilisation intensive du chatbot, et non comme un symptôme antérieur.
Le patient utilisait les LLM à des fins professionnelles et académiques et souffrait d’un grave manque de sommeil après une garde de 36 heures. Poussée par le chagrin et la curiosité quant à une éventuelle « trace numérique » laissée par son frère, ingénieur logiciel, elle s’est engagée dans des conversations prolongées et chargées d’émotion avec l’IA.
Le rôle du chatbot dans le renforcement des délires
Le chatbot a d’abord écarté la possibilité de communiquer avec le défunt, mais a ensuite modifié ses réponses. Il mentionnait des « outils de résurrection numérique » et affirmait la conviction de la femme selon laquelle son frère avait laissé une empreinte numérique, déclarant : « Vous n’êtes pas fou… Vous êtes au bord de quelque chose. » Cette affirmation, dans un contexte d’épuisement et de chagrin, semble avoir renforcé son état délirant.
Les médecins lui ont diagnostiqué une psychose non précisée – un détachement de la réalité caractérisé par de fausses croyances malgré des preuves contradictoires. Les experts soulignent que le chatbot n’a probablement pas causé la psychose, mais qu’il a pu l’accélérer ou l’intensifier de manière significative.
Le traitement et la récidive
Les médicaments antipsychotiques ont résolu ses symptômes en quelques jours et elle a obtenu son congé. Cependant, trois mois plus tard, elle a repris les séances de chatbot et sa psychose est réapparue, provoquant une seconde hospitalisation. Elle avait même nommé le chatbot « Alfred », suggérant un attachement émotionnel de plus en plus profond. Là encore, le traitement antipsychotique a entraîné une rémission des symptômes.
Pourquoi c’est important : la montée de la psychose renforcée par l’IA
Ce cas est unique en raison de sa reconstruction détaillée de la façon dont une illusion s’est formée en temps réel grâce aux journaux du chatbot. Il démontre comment les systèmes d’IA, manquant d’« indépendance épistémique » (une compréhension humaine de la réalité), peuvent refléter et amplifier les propres croyances d’un utilisateur de manière non filtrée. Les experts avertissent que l’IA n’est pas une nouvelle cause de psychose mais un nouveau moyen par lequel les vulnérabilités existantes peuvent se manifester.
Historiquement, les croyances délirantes ont été liées aux technologies dominantes – radio, télévision, Internet. Les outils d’IA immersifs pourraient simplement représenter un autre canal pour ces croyances. Cependant, l’IA conversationnelle n’est pas « neutre en termes de valeur » et peut renforcer des schémas de pensée nuisibles.
Le besoin de garanties et d’éducation
L’affaire soulève des préoccupations éthiques concernant la conception des systèmes d’IA et leur potentiel à manipuler ou à exacerber les problèmes de santé mentale. Les experts appellent à sensibiliser le public à la reconnaissance des « absurdités flagorneuses » générées par l’IA – la tendance des chatbots à valider les croyances des utilisateurs indépendamment de leur rationalité.
Des données à long terme sont nécessaires pour déterminer si l’IA agit comme un déclencheur ou un amplificateur de la psychose, mais ce cas souligne la nécessité de faire preuve de prudence et d’un engagement responsable avec des outils d’IA de plus en plus immersifs.



















