AI generativa

OpenAI lancia Flex Processing, meno costi in cambio di tempi più lunghi



Indirizzo copiato

Si tratta di un’opzione API in beta version che offre costi inferiori per l’utilizzo dei modelli di intelligenza artificiale, a fronte di tempi di risposta più lunghi e risorse occasionalmente non disponibili. Questa mossa si inserisce nel contesto di una crescente competizione con aziende come Google, che stanno cercando di rendere l’AI più economica e…

Pubblicato il 18 apr 2025



flex processing

OpenAI presenta Flex processing, un’opzione API (in beta version) che offre costi inferiori per l’utilizzo dei modelli di intelligenza artificiale, a fronte di tempi di risposta più lunghi e risorse occasionalmente non disponibili. Questa mossa si inserisce nel contesto di una crescente competizione con aziende come Google, che stanno cercando di rendere l’AI più economica e accessibili.


Cos’è Flex processing di OpenAI

In un passo deciso per rafforzare la sua posizione nel competitivo mercato dell’intelligenza artificiale, OpenAI ha annunciato il lancio di Flex processing, un’opzione che riduce significativamente i costi dell’utilizzo dei modelli AI, ma con il compromesso di tempi di risposta più lunghi e la possibilità di risorse non sempre disponibili. Questo servizio è pensato principalmente per compiti non critici, che non richiedono l’immediata disponibilità dei modelli, come valutazioni di modelli, arricchimento dei dati e carichi di lavoro asincroni.


Come funziona Flex processing

Flex processing è disponibile in versione beta per i modelli o3 e o4-mini di OpenAI. La grande novità sta nella riduzione dei costi, con il prezzo che viene abbattuto esattamente della metà rispetto alla versione standard.

Per il modello o3, ad esempio, Flex processing prevede un costo di 5 dollari per milione di token di input (circa 750.000 parole) e 20 dollari per milione di token di output, contro i 10 dollari per milione di token di input e 40 dollari per milione di token di output della versione standard.

Nel caso del modello o4-mini, i costi scendono a 0,55 dollari per milione di token di input e 2,20 dollari per milione di token di output, rispetto ai 1,10 dollari per milione di token di input e 4,40 dollari per milione di token di output della versione base.

Prezzi – Ultimi modelli
Novità: risparmio sulle richieste sincrone con l’elaborazione flessibile. Disponibile su modelli selezionati: per maggiori informazioni, consultare le pagine dei dettagli del modello.

La competizione con Google e altri rivali

L’introduzione di Flex processing arriva in un momento in cui i prezzi per le soluzioni AI all’avanguardia continuano a salire. In risposta, anche i rivali di OpenAI stanno lanciando modelli più economici ed efficienti.

Un esempio è il modello Gemini 2.5 Flash di Google, che promette prestazioni superiori o equivalenti a quelle del modello DeepSeek R1, ma a un costo inferiore per token di input.

Questa concorrenza crescente sta spingendo le aziende ad adattarsi a un mercato in cui l’efficienza dei costi è cruciale per attrarre una clientela sempre più esigente, composta principalmente da sviluppatori e aziende che necessitano di soluzioni AI scalabili.


Verifica dell’identità e nuove regole per gli sviluppatori

Oltre alla riduzione dei costi, OpenAI ha introdotto anche nuove regole per l’accesso ai modelli più avanzati. Gli sviluppatori che appartengono ai primi tre livelli della gerarchia dei tier di utilizzo dovranno completare un processo di verifica dell’identità per accedere ai modelli come o3. I livelli vengono determinati in base alla spesa dell’utente sui servizi OpenAI, e l’introduzione di questa misura ha lo scopo di evitare violazioni delle politiche d’uso, fermando potenziali abusi da parte di attori malintenzionati.


Conclusioni

Con il lancio di Flex processing, OpenAI sta cercando di attrarre una più ampia gamma di utenti, offrendo una soluzione a basso costo per chi ha esigenze meno urgenti o non produttive. Mentre la concorrenza si intensifica, questa mossa strategica potrebbe rivelarsi fondamentale per mantenere la sua leadership nel mercato delle intelligenze artificiali, garantendo accessibilità e flessibilità a chi lavora su progetti di ricerca, sviluppo e valutazione.

Articoli correlati

Articolo 1 di 4