AI GENERATIVA

I dati sintetici nell’addestramento AI: perché si rischia il collasso



Indirizzo copiato

Una ricerca pubblicata sulla rivista Nature evidenzia i pericoli nell’uso dei dati sintetici per addestrare modelli di intelligenza artificiale, suggerendo la possibile degenerazione e la perdita di utilità nel tempo

Pubblicato il 25 lug 2024



lepre americana

Lo hanno chiamato: “il problema del crollo del modello”, ossia come la mancanza di dati umani limita il progresso dell’AI. Una ricerca pubblicata su Nature il 24 luglio* suggerisce che l’utilizzo di “dati sintetici” generati da computer per addestrare i principali modelli di intelligenza artificiale potrebbe portare a risultati insensati in futuro. L’utilizzo di tali dati potrebbe portare al rapido deterioramento dei modelli di AI.

Continua a leggere questo articolo

Articoli correlati