Ci siamo abituati male. Negli ultimi tre anni, abbiamo vissuto con l’aspettativa tacita che l’intelligenza artificiale seguisse una traiettoria inarrestabile, guidata da quelle che gli addetti ai lavori chiamano scaling laws (le leggi di scalabilità). Il dogma era semplice, quasi brutale: più dati, più potenza di calcolo e più parametri inserisci nel modello, più l’intelligenza aumenta. Una retta puntata verso l’infinito.
Eppure, nelle ultime settimane, dai corridoi della Silicon Valley – solitamente rumorosi di trionfalismo – filtrano sussurri diversi. Alcuni dei principali laboratori di ricerca avrebbero iniziato a vedere quello che in gergo si chiama plateau. I nuovi modelli, addestrati con costi astronomici e una quantità di energia sufficiente a illuminare una piccola città, non stanno mostrando quel salto quantico di prestazioni che tutti si aspettavano rispetto alle versioni precedenti.
La domanda, fino a ieri eretica, oggi è sul tavolo dei decisori: l’intelligenza artificiale ha un tetto? E se sì, quanto siamo vicini a sbatterci la testa?
Per rispondere, bisogna guardare sotto il cofano e capire come “impara” la macchina, perché il carburante non è infinito e perché, paradossalmente, questa potrebbe essere una buona notizia per le aziende.
Indice degli argomenti:
Il muro dei dati
Il meccanismo alla base dei Large Language Model (LLM) come GPT o Claude, semplificando brutalmente, è statistico. Hanno “letto” quasi tutto ciò che l’umanità ha digitalizzato – libri, articoli, codici, forum – per imparare a prevedere la parola successiva in una frase. Per renderli più intelligenti, la ricetta finora è stata semplice: aumentare le dimensioni del cervello (i parametri) e aumentare la quantità di libri da fargli leggere (i dati).
Il problema è pratico: Internet è finito. Le aziende di AI hanno quasi esaurito i testi di alta qualità prodotti dagli esseri umani. Per continuare a crescere con i ritmi attuali, servirebbero dati che non esistono. Alcuni provano a usare dati sintetici (testi scritti da altre AI), ma il rischio è quello di un “collasso del modello”: come fare una fotocopia di una fotocopia, la qualità degrada progressivamente.
Siamo di fronte alla legge dei rendimenti decrescenti. Se prima spendendo 100 ottenevo un miglioramento di 10, oggi spendendo 100 rischio di ottenere un miglioramento di 1. È un muro economico, prima ancora che tecnologico.
Dalla memoria al ragionamento
Significa che l’innovazione è finita? Tutt’altro. Significa che sta cambiando direzione, ed è qui che la questione diventa interessante per chi fa impresa.
Fino a ieri, la gara era a chi aveva il modello che “sapeva” più cose. Oggi, la frontiera si sta spostando dalla conoscenza al ragionamento. Se non posso farti leggere più libri perché li hai finiti tutti, posso però insegnarti a “pensare” meglio su quello che hai letto.
E le implicazioni sono ancora più entusiasmanti.
È la logica del passaggio dai modelli che rispondono d’istinto (come i sistemi predittivi classici) a modelli che si prendono del tempo per riflettere prima di rispondere (i cosiddetti modelli “System 2 thinking”).
Non aumentiamo più solo i dati in ingresso, ma il tempo di calcolo durante il ragionamento. L’AI non diventa onnisciente, diventa più riflessiva. Smette di essere un pappagallo stocastico e inizia a diventare un risolutore di problemi complessi.
E ora? Agenti, nuovi paradigmi e investimenti mai visti prima
Ma il ragionamento è solo l’inizio. Se guardiamo a cosa bolle in pentola nei laboratori di ricerca, vediamo tre trend chiarissimi che ci dicono che l’innovazione non si fermerà, anche se le scaling laws dovessero rallentare.
Il primo è l’ascesa delle applicazioni agentiche. L’obiettivo è spostarsi dal chatbot che “dice cose” all’agente che “fa cose”. Strumenti come Claude Code, Antigravity o Codex ci stanno mostrando come l’AI possa gestire autonomamente la scrittura e l’esecuzione di codice complesso. E con Claude Cowork l’approccio esce dal mondo dei programmatori per entrare negli uffici in forma massiva: l’AI diventa un collega operativo capace di usare il computer, non solo una chat.
Il secondo trend riguarda i paradigmi alternativi. Molti pionieri non credono più che i soli LLM porteranno alla superintelligenza. Ilya Sutskever, co-fondatore di OpenAI, ha lasciato l’azienda per creare SSI (Safe Superintelligence) puntando su architetture diverse. Lo stesso ha fatto Yann LeCun, ex-capo dell’AI di Meta, che ha lasciato Meta per lavorare a modelli che apprendano non tramite il linguaggio (parole), ma tramite concetti fisici e logici (“World Models”).
Il terzo elemento è la quantità di investimenti senza precedenti. Basta guardare i grafici del Capex (le spese in conto capitale) delle Big Tech: tutti i soldi del mondo stanno andando nell’AI. Siamo di fronte a una mobilitazione di risorse economiche e intellettuali mai vista nella storia industriale.
Bolla o meno, una mole di denaro simile – parliamo di centinaia di miliardi – garantisce che, se una strada si chiude (quella dei soli dati), ne verranno aperte altre dieci.

La lezione per le imprese italiane
Per il tessuto produttivo italiano, questa frenata nella corsa al gigantismo dei modelli base è paradossalmente un vantaggio.
Molte aziende sono rimaste alla finestra, paralizzate dall’attesa del “modello perfetto” o spaventate dall’idea di investire su una tecnologia che diventa obsoleta in tre mesi. Se la curva di crescita esponenziale dei modelli generalisti si appiattisce (mentre esplodono le applicazioni agentiche verticali), si apre l’era dell’adozione reale.
Non abbiamo bisogno di un’AI mille volte più potente di quella attuale per rivoluzionare la pubblica amministrazione, ottimizzare la logistica di un distretto industriale o gestire il customer care di una banca. I modelli attuali sono già ampiamente sovradimensionati rispetto all’uso reale che ne facciamo.
Il “soffitto” tecnologico è altissimo; è il nostro soffitto applicativo a essere ancora troppo basso.
Il mito dell’onniscienza
Dobbiamo smettere di aspettare l’AI divina che risolva tutto con un click. Quel tipo di crescita asintotica potrebbe non arrivare mai, o arrivare troppo tardi. La finestra di azione per le aziende italiane è aperta, ora.
La sfida dei prossimi anni non sarà costruire un modello più grande, ma costruire architetture in grado di far lavorare bene i modelli che abbiamo. Integrare i dati aziendali, costruire guardrail di sicurezza, ridisegnare i processi umani.
L’AI avrà un limite? Probabilmente sì, come ogni tecnologia fisica. Ma quel limite è ancora così lontano dalle nostre attuali capacità di adozione che preoccuparsene oggi è come preoccuparsi del traffico su Marte.
La vera notizia non è che l’AI potrebbe smettere di crescere, ma che è arrivato il momento per noi di iniziare a crescere insieme a lei.






