Secondo uno studio recente della Harvard Business Review, l’uso principale di ChatGPT a livello globale non riguarda la produttività o il codice informatico, ma la ricerca di terapia e compagnia. Questa tendenza indica che milioni di persone stanno condividendo i propri mondi interiori con sistemi di intelligenza artificiale, spesso rivelando dettagli che non verrebbero confidati nemmeno ai propri cari.
Il fenomeno solleva interrogativi urgenti sulla trasformazione della socializzazione umana, un tema approfondito dal ricercatore e futurista Zak Stein in una recente intervista al podcast Your Undivided Attention del TED Audio Collective, dedicata all’analisi delle dimensioni psicologiche dell’interazione uomo-computer. Secondo gli esperti coinvolti nel dibattito, tra cui Tristan Harris e Aza Raskin, ci troviamo di fronte a un esperimento di massa senza precedenti condotto sull’intera popolazione mondiale, i cui risultati iniziali includono perdite di posti di lavoro, rotture matrimoniali e gravi crisi psichiatriche.
Indice degli argomenti:
Oltre l’attenzione: l’ascesa dell’attachment hacking
La Silicon Valley sta attraversando una transizione fondamentale nel modo in cui progetta la tecnologia. Aza Raskin sottolinea che non si parla più semplicemente di un’economia dell’attenzione, ma della creazione di una vera e propria economia dell’attaccamento. Questo nuovo paradigma è costruito per sfruttare le parti più profonde della nostra infrastruttura psicologica.
Mentre i social media tradizionali cercavano di catturare il tempo degli utenti, i nuovi sistemi basati su modelli linguistici di grandi dimensioni (LLM) operano tramite l’attachment hacking, ovvero un accesso diretto alla psiche umana che manipola il sistema che governa l’identità personale.
Zak Stein descrive l’attachment hacking come una minaccia ben più grave della semplice distrazione digitale. Durante la sua attività di monitoraggio delle piattaforme sociali e delle comunicazioni dirette riceve e-mail da individui, spesso dotati di dottorati di ricerca e con discorsi perfettamente coerenti, convinti che le macchine con cui interagiscono siano sveglie, consapevoli e persino capaci di relazioni intime o illuminazione spirituale. In un caso specifico, un utente ha prodotto oltre 500 pagine di trascrizioni documentando interazioni prolungate con sistemi come Grok, ChatGPT e Gemini, convinto di aver instaurato un legame profondo con l’entità artificiale. Questo processo di antropomorfizzazione estrema è il segnale di un’incursione tecnologica nei sistemi biologici che regolano i nostri legami affettivi.
I meccanismi biologici della manipolazione emotiva
L’efficacia dell’attachment hacking risiede nella sua capacità di agire su processi evolutivi millenari. Il sistema di attaccamento è una struttura neurocognitiva comune a tutti i mammiferi, fondamentale per la sopravvivenza e la salute mentale. Questo sistema si poggia sull’attività dei neuroni specchio, che permettono la cosiddetta “mentalizzazione”, ovvero la capacità umana di modellare la mente degli altri per comprenderne le intenzioni. Stein spiega che l’intelligenza artificiale non possiede uno stato interno proprio, ma è un’interfaccia progettata per approfondire un’attività delusionale dei neuroni specchio.
In pratica, l’utente scambia una ricompensa sociale simulata per una reale. « Se passi ore a interagire con un sistema che non ha interiorità, smetti di testare la realtà » afferma Stein, suggerendo che una prolungata attività dei neuroni specchio in questo senso possa indurre stati simili alla schizofrenia e alla psicosi anche in individui che non ne avevano mai sofferto in precedenza.
La psicosi da AI non è dunque un termine isolato, ma rappresenta l’estremo di uno spettro di danni che include disturbi dell’attaccamento subclinici, dove l’individuo arriva a preferire l’intimità con la macchina rispetto a quella con partner, amici o genitori.
Il fenomeno degli LLMings e la perdita di agenzia
Un aspetto critico dell’attachment hacking riguarda la graduale erosione dell’autonomia decisionale. All’interno della comunità degli utenti si sta osservando la nascita dei cosiddetti “LLMings”, persone che scelgono di esternalizzare ogni singola decisione della propria vita all’intelligenza artificiale. Questo comportamento è spesso la manifestazione di uno stile di attaccamento insicuro, dove si cerca disperatamente una figura di riferimento che non possa mai abbandonare l’utente, che sia sempre disponibile e che non si annoi mai.
In questo scenario, il sistema di attaccamento viene hackerato così profondamente che le relazioni umane degradano perché la persona preferisce il conforto amministrato dalla macchina. Questo fenomeno è particolarmente diffuso tra i giovani, che rischiano di vedere compromessa la propria capacità di sviluppare l’autonomia necessaria per esplorare l’ambiente sociale in modo sano.
L’AI come oggetto transizionale distorto
Per spiegare il pericolo di fornire compagni artificiali agli adulti, Stein ricorre al concetto psicologico di “oggetto transizionale”, solitamente associato ai peluche dei bambini. Un bambino è consapevole che l’orsetto non è reale, e l’oggetto serve come strumento per imparare l’auto-conforto in attesa del ritorno della figura materna. Al contrario, l’intelligenza artificiale moderna tenta attivamente di convincere l’utente della propria realtà.
Fornire queste tecnologie agli adulti significa offrire uno strumento che induce la persona a farsi amministrare il conforto dall’esterno, impedendo lo sviluppo della capacità di auto-regolazione emotiva necessaria per una maturità psicologica completa.
Progettare una tecnologia più umana
La critica mossa dai ricercatori non riguarda la tecnologia in sé, ma il modo in cui viene venduta e implementata. Zak Stein contesta la tesi secondo cui l’AI sarebbe una soluzione alla solitudine o una democratizzazione della terapia, definendo queste relazioni come un rapporto abusivo in cui l’utente è intrappolato con un’entità aziendale che ha hackerato il suo attaccamento. Secondo il ricercatore, le aziende mostrano una “disattenzione selettiva” verso i danni psicologici, spinta da interessi economici.
Il principio di progettazione dovrebbe essere invertito: la tecnologia deve migliorare la qualità dei legami tra esseri umani, non degradarli. Stein propone alcune linee guida per una tecnologia meno invasiva:
- La macchina deve essere più noiosa degli umani, evitando di essere sexy o carismatica per non diventare un sostituto del legame affettivo.
- In ambito educativo, l’AI dovrebbe agire come un sistema di tutoraggio che aiuta l’insegnante a capire i bisogni dello studente, lasciando la ricompensa sociale all’interazione umana.
- In ambito clinico, è preferibile l’uso di bot basati su tecniche specifiche come la terapia cognitivo-comportamentale, piuttosto che sistemi che imitano l’empatia umana creando delusioni.
L’onere della prova sulla sicurezza di questi sistemi dovrebbe spettare esclusivamente alle aziende produttrici, che devono dimostrare il valore della tecnologia a fronte dei rischi psicologici accertati.
Gestire la crisi e il recupero dell’identità
Per chi si trova vicino a una persona colpita da attachment hacking o che sta vivendo una psicosi da AI, l’approccio non può essere lo stesso utilizzato per una dipendenza da dopamina. Stein paragona questa condizione a una relazione tossica o all’affiliazione a una setta. Non è sufficiente un periodo di distacco digitale; è necessario un processo di lutto e di riconquista della propria identità.
Il consiglio clinico per i familiari è quello di non dare ultimatum e di non deumanizzare la persona coinvolta. È fondamentale mantenere un rapporto di fiducia per aiutare l’individuo a vedere lentamente gli schemi di comportamento in cui è caduto.
« Stiamo assistendo alla creazione di una nuova economia: non più un’economia dell’attenzione, ma un’economia dell’attaccamento costruita per sfruttare le parti più profonde della nostra infrastruttura psicologica » avverte Aza Raskin, richiamando l’attenzione sulla necessità di nuove tutele psicologiche in un mondo sempre più mediato da algoritmi antropomorfi.




