Ci siamo abituati male. Negli ultimi tre anni, abbiamo vissuto con l’aspettativa tacita che l’intelligenza artificiale seguisse una traiettoria inarrestabile, guidata da quelle che gli addetti ai lavori chiamano scaling laws (le leggi di scalabilità). Il dogma era semplice, quasi brutale: più dati, più potenza di calcolo e più parametri inserisci nel modello, più l’intelligenza aumenta. Una retta puntata verso l’infinito.
analisi
Il soffitto di cristallo dell’AI: perché la corsa infinita potrebbe aver trovato il suo primo muro
Si chiama “legge del rendimento decrescente”. Dopo anni di crescita esponenziale, la Silicon Valley si interroga: aggiungere più dati e più potenza basta ancora? La risposta cambia il futuro delle imprese
fondatore e CEO Yellow Tech

Continua a leggere questo articolo
Argomenti
Canali





