Il 2 aprile 2026 OpenAI ha annunciato l’acquisizione di TBPN, talk show tecnologico fondato nel 2024 da John Coogan e Jordi Hays. A prima vista può sembrare un’operazione laterale: non un laboratorio di ricerca, non una società di semiconduttori, non una piattaforma cloud. In realtà racconta molto bene la fase che sta attraversando il mercato dell’intelligenza artificiale. E si sposa con un picco di acquisizioni che le big tech stanno facendo da gennaio a oggi.
Le grandi aziende tech stanno cercando di presidiare i punti in cui i modelli di AI diventano potere industriale: l’infrastruttura di calcolo, il software che orchestra i carichi, la sicurezza, l’inferenza, gli agenti, la robotica e perfino (con TBPN) i canali che orientano la conversazione pubblica.
Reuters riferisce che OpenAI intende usare TBPN per articolare meglio la propria visione e influenzare il dibattito sull’impatto dell’AI; i termini economici non sono stati resi pubblici. OpenAI, nel suo annuncio ufficiale, ha aggiunto che TBPN manterrà l’indipendenza editoriale, ma entrerà nella Strategy org dell’azienda e riporterà a Chris Lehane.
Alcuni si sono sorpresi di questa acquisizione, apparsa anomala in un periodo in cui OpenAI ha promesso di focalizzarsi su temi più legati al business, evitare divagazioni (e per questo motivo chiude Sora al pubblico). Ma il punto è proprio questo: comprare TBPN fa parte della strategia critica per il futuro dell’AI. Vale per OpenAI come per i suoi concorrenti.
Indice degli argomenti:
Cosa fanno gli altri attori della scena AI
Qualche giorno fa Google ha completato l’acquisizione dell’azienda di cybersecurity Wiz, comprata per 32 miliardi di dollari, la più grande della sua storia: Reuters ha dato conto dell’accordo nel marzo 2025, dell’ok dell’Unione europea il 10 febbraio 2026, mentre Google ha comunicato il completamento dell’operazione l’11 marzo 2026.
Nello stesso ciclo, Nvidia ha acquisito SchedMD, la società che sviluppa Slurm, uno dei software più usati per gestire i carichi nei supercomputer e in numerosi ambienti AI.
Intanto Amazon, Microsoft e Meta hanno accelerato sulle rispettive famiglie di chip proprietari.
TBPN e il valore industriale della comunicazione
TBPN nasce come show online dedicato a tecnologia, startup e venture capital, con interviste a figure di primo piano della Silicon Valley. Reuters ricorda tra gli ospiti Mark Zuckerberg, Satya Nadella, James Cameron e Sam Altman. Proprio per questo l’operazione ha un significato che va oltre il media buying o il branding tradizionale. OpenAI sostiene che il marchio manterrà indipendenza editoriale, e il sito ufficiale dice esplicitamente che il programma continuerà a scegliere autonomamente ospiti e linea editoriale. Ma l’acquisizione inserisce comunque quel canale dentro l’apparato strategico e comunicativo dell’azienda.
Per una società che negli ultimi mesi è finita al centro di discussioni su governance, sicurezza, rapporti con i governi e impatto sociale dell’AI, controllare una piattaforma capace di parlare ogni giorno a founder, investitori, sviluppatori e addetti ai lavori diventa un asset industriale.
Non produce calcolo, ma incide sulla fiducia, sulla reputazione e sul contesto in cui l’AI viene adottata e regolata.
Google compra Wiz e rafforza la catena che va dal cloud al silicio
L’operazione più grande di questa fase resta Wiz. Reuters ha confermato che l’accordo da 32 miliardi di dollari è il più grande mai fatto da Google; l’Unione europea ha dato il via libera il 10 febbraio 2026 e Google ha annunciato la chiusura l’11 marzo. Il punto non è solo la cybersecurity in senso classico.
Secondo Google, Wiz porta in dote una piattaforma pensata per proteggere ambienti cloud e AI su più provider, quindi proprio il terreno in cui oggi girano modelli, dati e applicazioni di intelligenza artificiale. Per Google significa rafforzare Google Cloud in un’area dove compete direttamente con AWS e Microsoft Azure.
Ma la mossa su Wiz si capisce fino in fondo solo se la si legge insieme al fronte hardware. Il 31 marzo 2026 Google Cloud ha scritto nelle proprie release notes che TPU7x, prima versione della famiglia Ironwood, è entrata in disponibilità generale per training e inference su larga scala, con enfasi su prestazioni e convenienza economica per LLM, mixture of experts e modelli di diffusione.
Pochi giorni dopo, il 6 aprile, Broadcom ha firmato l’accordo con Google. In altre parole, Google prova a presidiare insieme almeno tre livelli della stessa catena: il cloud, la sicurezza e una quota crescente del silicio su cui girano i carichi di AI.
Qui c’è anche un punto che nel testo originale andava reso più esplicito: la competizione non riguarda più soltanto chi ha il modello più performante, ma chi riesce a offrire capacità disponibile, costo per training, costo per inference e controllo dei colli di bottiglia. Il lessico usato da Google sul TPU7x è indicativo: non insiste soltanto sulla potenza, ma anche sulla cost-effectiveness. È la stessa grammatica industriale che ormai ricorre in tutte le comunicazioni dei grandi hyperscaler.
La lezione di Nvidia: il vantaggio è nello stack, non solo nella GPU
Il caso Nvidia aiuta a leggere meglio tutto il resto. Per anni l’azienda è stata vista soprattutto come il fornitore dominante di GPU per l’AI. Oggi il suo vantaggio si misura sempre più nella capacità di allargarsi dal chip ai livelli adiacenti dello stack. Il 6 aprile 2026 Reuters ha riferito che l’acquisizione di SchedMD ha suscitato preoccupazioni tra alcuni operatori del settore, perché Slurm gestisce circa il 60% dei supercomputer mondiali ed è usato anche da diversi attori dell’AI, tra cui Meta, Mistral e Anthropic.
Il timore, espresso da fonti citate dall’agenzia, è che il controllo di quel software possa tradursi in un vantaggio ulteriore per l’hardware Nvidia rispetto ai concorrenti. Nvidia ha dichiarato di voler mantenere Slurm open source e vendor-neutral, ma proprio il fatto che la discussione si concentri sul software di orchestrazione mostra dove si sta spostando la partita.
Pochi giorni prima, il 31 marzo, l’investimento da 2 miliardi di dollari in Marvell, presentato come parte di una partnership sull’AI. Anche qui il punto non è soltanto aggiungere capacità produttiva. L’obiettivo è facilitare l’adozione di chip personalizzati e infrastrutture costruite in modo compatibile con l’ecosistema NVLink Fusion, integrando semicustom silicon, networking e interconnessioni ottiche.
La lezione è: chi controlla il chip prova anche a controllare orchestrazione, interconnessione, software di sistema e integrazione nei data center. Le altre big tech si stanno muovendo nella stessa direzione proprio per ridurre questa dipendenza.
Amazon, Microsoft e Meta: il silicio proprietario come leva strategica
Amazon segue questa linea con Trainium. Nella documentazione ufficiale AWS definisce Trainium una famiglia di acceleratori progettati per training e inference ad alte prestazioni e con efficienza di costo su larga scala.
Il 3 novembre 2025 AWS ha annunciato che Project Rainier, sviluppato con Anthropic, ha portato online quasi 500 mila chip Trainium2.
Anthropic oggi usa una combinazione di hardware che comprende Trainium di AWS, TPU di Google e GPU di Nvidia. Il segnale è importante: persino i grandi clienti dell’AI stanno cercando di distribuire il rischio su più architetture, invece di dipendere da un unico fornitore. Va però aggiunta una sfumatura che nel testo originale mancava: questa diversificazione non elimina l’asimmetria esistente, perché AWS resta comunque il partner infrastrutturale centrale di Anthropic.
Microsoft si è mossa con Maia 200. Nel post ufficiale del 26 gennaio 2026 l’azienda presenta il chip come un acceleratore per inference costruito a 3 nanometri e progettato per migliorare l’economia della generazione di token. Questo dettaglio chiarisce la logica industriale: se il costo dell’inference diventa il vero collo di bottiglia dei servizi AI distribuiti su larga scala, possedere un acceleratore proprietario significa agire direttamente su margini, prezzi e capacità di servire clienti enterprise. Microsoft insiste anche sul tema del performance per dollar e sull’integrazione del chip dentro una infrastruttura eterogenea.
Meta, dal canto suo, continua a espandere MTIA. Nel post ufficiale dell’11 marzo 2026 la società scrive che sta sviluppando e distribuendo quattro nuove generazioni di chip nei prossimi due anni, con un’accelerazione molto più rapida dei normali cicli del settore. Meta spiega inoltre che questi chip sono al centro della propria strategia infrastrutturale e che vengono ottimizzati soprattutto per ranking, recommendation e carichi GenAI, con un forte focus sull’inferenza e sulla riduzione dei costi.
Anche qui il senso è: advertising, feed, recommendation e agenti richiedono carichi sempre più specializzati. Affidarsi solo a chip esterni espone a costi più alti e a minore controllo sulla traiettoria tecnologica.
Acquisizioni, chip e media raccontano la stessa strategia
Le acquisizioni degli ultimi mesi e il lancio di chip proprietari da parte delle big tech non sono due fenomeni separati. Raccontano la stessa strategia. Da una parte le aziende comprano competenze, software e startup in grado di rafforzare un nodo specifico dello stack. Dall’altra costruiscono chip, interconnessioni e infrastrutture proprietarie per ridurre la dipendenza da fornitori esterni e difendere i margini. Google compra Wiz e sviluppa i TPU.
- Amazon spinge Trainium e rafforza la propria capacità infrastrutturale con progetti come Rainier.
- Microsoft investe su Maia.
- Meta accelera su MTIA.
- Nvidia, che parte da una posizione dominante sulle GPU, cerca di estendere quel vantaggio ai livelli software, di orchestrazione e di networking.
- OpenAI, che non ha una piattaforma cloud propria paragonabile a quella dei grandi hyperscaler, compra un media verticale come TBPN e presidia un altro livello decisivo: la distribuzione del racconto e l’influenza sulla conversazione pubblica.
La questione ora è quali aziende riusciranno a controllare il maggior numero di passaggi tra il data center e l’utente finale: il silicio, il cloud, la sicurezza, il software che coordina i carichi, i sistemi che abbattono il costo dell’inference, gli agenti che eseguono compiti e i canali che formano consenso attorno a queste tecnologie. In questa fase dell’AI, il valore si concentra proprio lì.








