I modelli di linguaggio di grandi dimensioni (LLM) diventano più subdolamente razzisti con l’intervento umano: i ricercatori hanno scoperto che certi pregiudizi si aggravano man mano che i modelli si espandono. Dalla loro nascita, è stato evidente che i grandi modelli di linguaggio come ChatGPT assorbono visioni razziste dalle milioni di pagine internet su cui vengono addestrati. Gli sviluppatori hanno cercato di renderli meno tossici. Tuttavia, nuove ricerche suggeriscono che tali sforzi, soprattutto con l’espansione dei modelli, stanno solo limitando le visioni razziste esplicite, mentre permettono a stereotipi più velati di diventare più forti e meglio nascosti.
ANALISI
Pregiudizi negli LLM: l’intervento umano può aggravarli
Nuove ricerche indicano che intervenire manualmente nei grandi modelli di linguaggio AI può intensificare anziché mitigare i pregiudizi razziali. Gli sforzi per ridurre le visioni razziste esplicite nei modelli come ChatGPT di OpenAI potrebbero in realtà rafforzare stereotipi più sottili e ben nascosti

Continua a leggere questo articolo
Argomenti
Canali



