ANALISI

Pregiudizi negli LLM: l’intervento umano può aggravarli



Indirizzo copiato

Nuove ricerche indicano che intervenire manualmente nei grandi modelli di linguaggio AI può intensificare anziché mitigare i pregiudizi razziali. Gli sforzi per ridurre le visioni razziste esplicite nei modelli come ChatGPT di OpenAI potrebbero in realtà rafforzare stereotipi più sottili e ben nascosti

Pubblicato il 14 mar 2024



LLM

I modelli di linguaggio di grandi dimensioni (LLM) diventano più subdolamente razzisti con l’intervento umano: i ricercatori hanno scoperto che certi pregiudizi si aggravano man mano che i modelli si espandono. Dalla loro nascita, è stato evidente che i grandi modelli di linguaggio come ChatGPT assorbono visioni razziste dalle milioni di pagine internet su cui vengono addestrati. Gli sviluppatori hanno cercato di renderli meno tossici. Tuttavia, nuove ricerche suggeriscono che tali sforzi, soprattutto con l’espansione dei modelli, stanno solo limitando le visioni razziste esplicite, mentre permettono a stereotipi più velati di diventare più forti e meglio nascosti.

Continua a leggere questo articolo

Articoli correlati