Per un certo periodo di tempo si è pensato che l’intelligenza artificiale dovesse diventare sempre meno costosa, man mano che si sviluppava; economica a tal punto da essere “troppo a buon mercato per essere misurata”. L’attualità sta dimostrando il contrario. Sviluppatori e piccole aziende che acquistano AI “all’ingrosso” dai colossi del settore, per alimentare app e servizi, si trovano oggi con costi più alti del previsto.
Indice degli argomenti:
Più “pensiero”, più costi
Il paradosso nasce dal fatto che, sebbene il prezzo unitario del token stia scendendo, i nuovi modelli consumano sempre più token per completare compiti complessi. Funzioni come ricerca approfondita, agenti AI multi-step e assistenza al coding richiedono catene di ragionamento elaborate, ri-esecuzioni delle query, raccolta di informazioni dal web e persino mini-programmi interni. Tutto questo, prima di restituire una risposta magari lunga una sola frase.
I numeri del consumo
La differenza è netta:
- Chatbot base: 50-500 token
- Riassunto breve: 200-6.000 token
- Assistenza al coding semplice: 500-2.000 token
- Scrittura di codice complesso: 20.000-100.000+ token
- Analisi legale: 75.000-250.000+ token
- Workflow multi-agente: 100.000 fino a oltre 1 milione di token
Più “intelligenza” significa più consumo, e quindi più spese infrastrutturali.
Margini in calo per le aziende
Secondo Notion, un’azienda di IT, due anni fa i margini della società erano intorno al 90%, in linea con il software cloud tradizionale. Oggi, circa 10 punti percentuali vengono erosi dalle spese AI. Per le startup di “vibecoding” come Cursor o Replit, che forniscono strumenti di programmazione assistita, la questione è ancora più critica: alcuni utenti si ritrovano a consumare in pochi giorni crediti che sarebbero dovuti bastare per un mese intero.
Replit ha introdotto un modello di “prezzi basati sullo sforzo”, facendo pagare di più le richieste più complesse. Le proteste non sono mancate, ma l’azienda sostiene di non aver visto rallentamenti significativi nei ricavi.
La sfida della sostenibilità
Secondo Martin Casado, partner di Andreessen Horowitz, la corsa all’AI non potrà evitare consolidamenti. Alcune startup cercano margini immediati, altre puntano soltanto alla distribuzione rapida, bruciando capitale per conquistare utenti. Nel frattempo, i giganti come Google, Meta, OpenAI e Anthropic possono permettersi di spendere oltre 100 miliardi di dollari l’anno in infrastrutture, grazie ai ricavi di altre attività o a investimenti cospicui.
“AI più stupide” come soluzione
Il CEO di T3 Chat, Theo Browne, suggerisce una via alternativa: spingere i consumatori verso modelli più economici e meno potenti, che richiedono meno risorse. OpenAI, ad esempio, offre versioni leggere come GPT-5 Nano a circa 0,10 dollari per milione di token, mentre GPT-5 “completo” arriva a 3,44 dollari. Una differenza enorme che potrebbe ridisegnare il mercato.
Il costo dei token: una competizione rischiosa
La questione è cruciale: se i grandi attori possono permettersi di offrire strumenti avanzati persino gratis – come Google ha fatto a giugno con il suo tool di coding – quanto a lungo potrà reggere il boom dell’AI, se i colossi finiscono per cannibalizzare i propri clienti?




