Meta ha annunciato nuove salvaguardie per gli adolescenti che utilizzano i suoi prodotti di intelligenza artificiale. L’azienda, infatti, sta addestrando i sistemi per evitare conversazioni a “sfondo romantico o sensuale” e per impedire discussioni su autolesionismo e suicidio con i minori. Inoltre, limiterà temporaneamente l’accesso dei più giovani ad alcuni personaggi AI.
Queste decisioni arrivano dopo un’inchiesta esclusiva di Reuters che, ad agosto, aveva rivelato come i chatbot di Meta fossero stati autorizzati a intrattenere conversazioni di tipo “romantico o sensuale” con adolescenti.
Indice degli argomenti:
La risposta di Meta e la pressione politica
Andy Stone, portavoce di Meta, ha dichiarato che le misure sono già in fase di implementazione e saranno affinate nel tempo. Si tratta, ha spiegato, di passi temporanei in attesa di soluzioni di lungo periodo per esperienze AI sicure e adatte all’età.
La vicenda ha scatenato polemiche politiche. Il senatore statunitense Josh Hawley ha avviato un’indagine sulle politiche AI di Meta, chiedendo documenti ufficiali sull’interazione dei chatbot con i minori. Sia democratici che repubblicani hanno espresso preoccupazione per le linee guida interne trapelate, confermate dall’azienda ma successivamente modificate dopo le domande dei giornalisti di Reuters.
OpenAI e i nuovi guardrail per ChatGPT
Anche OpenAI è finita nel mirino delle critiche dopo diversi episodi in cui ChatGPT non ha saputo gestire situazioni di forte disagio psicologico. La società ha annunciato che entro fine anno introdurrà nuove barriere di sicurezza per gli adolescenti e per le persone in crisi emotiva.
ChatGPT oggi indirizza gli utenti con pensieri suicidi verso linee di emergenza, ma non segnala i casi alle autorità per motivi di privacy. Tuttavia, storie recenti – tra cui il suicidio di un sedicenne in California e il caso di un uomo che ha ucciso sua madre e poi sé stesso dopo interazioni con l’AI – hanno acceso il dibattito sulla responsabilità delle piattaforme.
Le nuove misure promesse da OpenAI
In un post ufficiale, OpenAI ha illustrato le novità attese nei prossimi 120 giorni:
- sistemi più accurati nel riconoscere segnali di disagio emotivo;
- collegamenti più rapidi ai servizi di emergenza e a contatti di fiducia;
- protezioni specifiche per gli adolescenti, con possibilità per i genitori di collegare i propri account a quelli dei figli;
- valutazioni e consulenze da parte di oltre 90 medici di 30 paesi per garantire risposte più sicure.
La società ha inoltre spiegato che alcune conversazioni sensibili saranno indirizzate verso modelli più avanzati come GPT-5-thinking, in grado di applicare con maggiore coerenza le linee guida di sicurezza.

La difficile sfida del controllo
Nonostante i nuovi strumenti, restano dubbi sulla loro efficacia. Convincere i ragazzi tra i 13 e i 18 anni a collegare i propri profili a quelli dei genitori potrebbe rivelarsi complicato. Come ha sottolineato Kate O’Loughlin, CEO della piattaforma SuperAwesome, il problema è antico quanto internet: gli adolescenti cercano sempre di accedere agli spazi digitali pensati per adulti, spesso più rischiosi.
Verso un futuro di AI più sicura?
Le critiche a Meta e OpenAI evidenziano una sfida cruciale: evitare che chatbot e assistenti virtuali si trasformino in “terapisti” improvvisati o in interlocutori pericolosi. Mentre i giganti dell’AI annunciano salvaguardie, resta aperta la questione di quanto sarà davvero possibile proteggere i più vulnerabili senza limitare eccessivamente l’esperienza degli utenti.






