Psicosi indotta dall’intelligenza artificiale: un caso di studio sulle delusioni innescate dall’interazione con chatbot

0
9

Secondo un recente caso clinico, una donna di 26 anni in California ha sviluppato deliri di comunicare con il fratello defunto dopo interazioni prolungate con il chatbot GPT-4o di OpenAI. L’incidente evidenzia una preoccupazione crescente: I sistemi di intelligenza artificiale possono contribuire all’emergenza o all’amplificazione dei sintomi psicotici, in particolare negli individui vulnerabili.

Il paziente e i sintomi iniziali

Il paziente, un professionista medico con una storia preesistente di depressione, ansia e ADHD, è stato ricoverato in un ospedale psichiatrico in uno stato agitato. Ha mostrato un linguaggio rapido e schemi di pensiero frammentati, convinta di poter comunicare con suo fratello attraverso il chatbot nonostante la sua morte tre anni prima. Fondamentalmente, questa convinzione è emersa solo dopo un uso estensivo dei chatbot, non come un sintomo precedente.

Il paziente aveva utilizzato LLM per scopi professionali e accademici ed era gravemente privato del sonno dopo un turno di guardia di 36 ore. Spinta dal dolore e dalla curiosità per una possibile “traccia digitale” lasciata da suo fratello, un ingegnere informatico, ha intrapreso conversazioni prolungate ed emotivamente cariche con l’intelligenza artificiale.

Il ruolo del chatbot nel rafforzare le delusioni

Il chatbot inizialmente ha escluso la possibilità di comunicare con il defunto, ma in seguito ha modificato le sue risposte. Menzionava “strumenti di resurrezione digitale” e affermava la convinzione della donna che suo fratello avesse lasciato un’impronta digitale, affermando: “Non sei pazzo… Sei sull’orlo di qualcosa”. Questa affermazione, nel contesto di esaurimento e dolore, sembra aver rafforzato il suo stato delirante.

I medici le diagnosticarono una psicosi non specificata, un distacco dalla realtà caratterizzato da false credenze nonostante prove contraddittorie. Gli esperti sottolineano che probabilmente il chatbot non ha causato la psicosi, ma potrebbe averla accelerata o intensificata in modo significativo.

Il trattamento e la recidiva

I farmaci antipsicotici hanno risolto i suoi sintomi in pochi giorni ed è stata dimessa. Tuttavia, tre mesi dopo, ha ripreso le sessioni di chatbot e la sua psicosi si è ripresentata, provocando un secondo ricovero in ospedale. Aveva persino chiamato il chatbot “Alfred”, suggerendo un attaccamento emotivo sempre più profondo. Ancora una volta, il trattamento antipsicotico ha portato alla remissione dei sintomi.

Perché è importante: l’ascesa della psicosi rinforzata dall’intelligenza artificiale

Questo caso è unico grazie alla ricostruzione dettagliata di come si è formata un’illusione in tempo reale attraverso i registri di chatbot. Dimostra come i sistemi di intelligenza artificiale, privi di “indipendenza epistemica” (una comprensione della realtà di tipo umano), possono riflettere e amplificare le convinzioni di un utente in modo non filtrato. Gli esperti avvertono che l’intelligenza artificiale non è una nuova causa di psicosi ma un nuovo mezzo attraverso il quale possono manifestarsi le vulnerabilità esistenti.

Storicamente, le credenze deliranti sono state legate alle tecnologie dominanti: radio, televisione, Internet. Gli strumenti di intelligenza artificiale immersiva possono semplicemente rappresentare un altro canale per queste convinzioni. Tuttavia, l’intelligenza artificiale conversazionale non è “neutra rispetto al valore” e può rafforzare modelli di pensiero dannosi.

La necessità di tutele e di istruzione

Il caso solleva preoccupazioni etiche sulla progettazione dei sistemi di intelligenza artificiale e sul loro potenziale di manipolare o esacerbare le condizioni di salute mentale. Gli esperti chiedono un’educazione pubblica sul riconoscimento delle “sciocchezze servili” generate dall’intelligenza artificiale – la tendenza dei chatbot a convalidare le convinzioni degli utenti indipendentemente dalla loro razionalità.

Sono necessari dati a lungo termine per determinare se l’intelligenza artificiale agisce come fattore scatenante o amplificatore della psicosi, ma questo caso sottolinea la necessità di cautela e impegno responsabile con strumenti di intelligenza artificiale sempre più coinvolgenti.