analisi

Se i colossi dell’AI “cannibalizzano” i propri clienti



Indirizzo copiato

Nonostante la riduzione del costo per token, le nuove generazioni di modelli AI richiedono sempre più “ragionamento”, moltiplicando l’uso di risorse e alzando le fatture per startup e sviluppatori. Dal coding all’analisi documentale, i costi esplodono, aprendo una nuova sfida tra giganti e piccole imprese: chi pagherà il conto dell’AI?

Pubblicato il 1 set 2025



Se i colossi dell’AI “cannibalizzano” i propri clienti

Per un certo periodo di tempo si è pensato che l’intelligenza artificiale dovesse diventare sempre meno costosa, man mano che si sviluppava; economica a tal punto da essere “troppo a buon mercato per essere misurata”. L’attualità sta dimostrando il contrario. Sviluppatori e piccole aziende che acquistano AI “all’ingrosso” dai colossi del settore, per alimentare app e servizi, si trovano oggi con costi più alti del previsto.

Più “pensiero”, più costi

Il paradosso nasce dal fatto che, sebbene il prezzo unitario del token stia scendendo, i nuovi modelli consumano sempre più token per completare compiti complessi. Funzioni come ricerca approfondita, agenti AI multi-step e assistenza al coding richiedono catene di ragionamento elaborate, ri-esecuzioni delle query, raccolta di informazioni dal web e persino mini-programmi interni. Tutto questo, prima di restituire una risposta magari lunga una sola frase.

I numeri del consumo

La differenza è netta:

  • Chatbot base: 50-500 token
  • Riassunto breve: 200-6.000 token
  • Assistenza al coding semplice: 500-2.000 token
  • Scrittura di codice complesso: 20.000-100.000+ token
  • Analisi legale: 75.000-250.000+ token
  • Workflow multi-agente: 100.000 fino a oltre 1 milione di token

Più “intelligenza” significa più consumo, e quindi più spese infrastrutturali.

Margini in calo per le aziende

Secondo Notion, un’azienda di IT, due anni fa i margini della società erano intorno al 90%, in linea con il software cloud tradizionale. Oggi, circa 10 punti percentuali vengono erosi dalle spese AI. Per le startup di “vibecoding” come Cursor o Replit, che forniscono strumenti di programmazione assistita, la questione è ancora più critica: alcuni utenti si ritrovano a consumare in pochi giorni crediti che sarebbero dovuti bastare per un mese intero.

Replit ha introdotto un modello di “prezzi basati sullo sforzo”, facendo pagare di più le richieste più complesse. Le proteste non sono mancate, ma l’azienda sostiene di non aver visto rallentamenti significativi nei ricavi.

La sfida della sostenibilità

Secondo Martin Casado, partner di Andreessen Horowitz, la corsa all’AI non potrà evitare consolidamenti. Alcune startup cercano margini immediati, altre puntano soltanto alla distribuzione rapida, bruciando capitale per conquistare utenti. Nel frattempo, i giganti come Google, Meta, OpenAI e Anthropic possono permettersi di spendere oltre 100 miliardi di dollari l’anno in infrastrutture, grazie ai ricavi di altre attività o a investimenti cospicui.

“AI più stupide” come soluzione

Il CEO di T3 Chat, Theo Browne, suggerisce una via alternativa: spingere i consumatori verso modelli più economici e meno potenti, che richiedono meno risorse. OpenAI, ad esempio, offre versioni leggere come GPT-5 Nano a circa 0,10 dollari per milione di token, mentre GPT-5 “completo arriva a 3,44 dollari. Una differenza enorme che potrebbe ridisegnare il mercato.

Il costo dei token: una competizione rischiosa

La questione è cruciale: se i grandi attori possono permettersi di offrire strumenti avanzati persino gratis – come Google ha fatto a giugno con il suo tool di coding – quanto a lungo potrà reggere il boom dell’AI, se i colossi finiscono per cannibalizzare i propri clienti?


Articoli correlati