Ricercatori di Anthropic sostengono di aver scoperto indizi sul funzionamento interno dei grandi modelli linguistici (LLM), potenzialmente utili per prevenire il loro uso improprio e limitare le possibili minacce. Una delle peculiarità più strane e inquietanti dei principali sistemi di intelligenza artificiale odierni è che nessuno – nemmeno chi li costruisce – sa realmente come funzionano. Questo perché i grandi modelli linguistici non sono programmati riga per riga da ingegneri umani, come avviene per i programmi informatici convenzionali. Al contrario, questi sistemi apprendono essenzialmente da soli, ingerendo enormi quantità di dati e identificando schemi e relazioni nel linguaggio, utilizzando poi queste conoscenze per prevedere le parole successive in una sequenza.
RICERCA
Anthropic ha esplorato i segreti della black box dei LLM
I ricercatori affermano di aver scoperto indizi sul funzionamento interno dei grandi modelli linguistici. Questi studi potrebbero essere utili per prevenire il loro uso improprio e limitare le possibili minacce

Continua a leggere questo articolo
Aziende
Argomenti
Canali