Bilanciare obiettivi di profitto con la tutela dell’umanità è una sfida complessa per qualsiasi impresa. Ma lo è ancora di più per chi ritiene che il proprio settore possa contribuire, nel lungo termine, all’estinzione della razza umana. Questo paradosso è al centro del dibattito attorno alla governance delle aziende di intelligenza artificiale, dove innovazione tecnologica e responsabilità sociale si intrecciano in modo inedito e talvolta conflittuale.
Indice degli argomenti:
Governance aziendale e AI: missione umanitaria o profitto?
Nessuna generazione di imprenditori, forse, ha creduto tanto nella portata rivoluzionaria del proprio operato quanto gli attuali pionieri dell’intelligenza artificiale. Per rassicurare l’opinione pubblica – e forse anche sé stessi – molti dei principali attori del settore hanno creato strutture di governance peculiari, pensate per impedire che il profitto prevalga sul bene dell’umanità.
Ma questi meccanismi reggeranno davvero nel momento in cui i due obiettivi entreranno in conflitto? Le recenti vicende di OpenAI rappresentano un banco di prova emblematico, con implicazioni profonde per l’intera industria.
OpenAI: dalle origini no profit alla svolta commerciale

Fondata nel 2015 da un gruppo guidato da Sam Altman come entità no profit, OpenAI nasceva con una missione precisa: “promuovere l’intelligenza digitale nel modo più utile all’umanità, senza essere vincolata dall’esigenza di generare un ritorno economico”. Tra i primi finanziatori figurava Elon Musk.
Tuttavia, dopo alcuni anni, Altman si rese conto che le risorse filantropiche non sarebbero bastate a sostenere la potenza di calcolo necessaria. Così, nel 2019, OpenAI avviò una struttura for-profit ibrida. Gli investitori commerciali – tra cui Microsoft, diventato il principale – avrebbero avuto un limite ai profitti, con le eccedenze destinate alla componente no profit. Fondamentale: il controllo dell’intera operazione sarebbe rimasto nelle mani del consiglio della no profit, incaricato di mantenere la priorità sulla missione umanitaria.
“Sarebbe saggio considerare qualsiasi investimento in OpenAI Global, LLC come una donazione”, si leggeva nella comunicazione agli investitori. Nonostante ciò, Microsoft e altri finanziatori sostennero economicamente lo sviluppo di ChatGPT, che avrebbe stupito il mondo.
OpenAI: verso la fine della supervisione no profit?
Negli ultimi tempi, però, alcuni investitori hanno manifestato crescente insoddisfazione per questo modello, in particolare SoftBank, che ha spinto per un cambiamento radicale della governance. A dicembre, OpenAI ha proposto una ristrutturazione che, sotto una formulazione apparentemente innocua, avrebbe eliminato il controllo della no profit sull’attività for-profit.
In base al nuovo assetto, la fondazione no profit sarebbe diventata un semplice azionista con diritto di voto, come gli altri, utilizzando i proventi per finanziare iniziative benefiche in ambiti come salute, istruzione e scienza. Ma per molti osservatori si trattava di un tradimento della struttura originale.
Una lettera aperta firmata da importanti personalità dell’AI ha denunciato il piano, definendolo una violazione degli obblighi legali autoimposti da OpenAI per garantire che l’IA fosse orientata al bene dell’umanità.
Il dietrofront (parziale) di aprile 2025: il consiglio no profit resta, ma i profitti crescono
OpenAI ha pubblicato una nuova versione del piano che cerca di rispondere alle critiche. Il cambiamento più importante riguarda il mantenimento del controllo da parte del consiglio della no profit. Tuttavia, il nuovo piano prevede comunque l’eliminazione dei limiti ai profitti per gli investitori commerciali.
Resta da capire se tale compromesso sarà sufficiente per soddisfare stakeholder potenti come Microsoft o SoftBank. In ogni caso, OpenAI può ancora vantare vincoli più stringenti rispetto al suo grande rivale DeepMind.
DeepMind, Anthropic e xAI: le altre vie alla governance etica
Quando DeepMind fu acquisita da Google nel 2014, i fondatori imposero che il lavoro del team fosse supervisionato da un comitato etico indipendente. Ma quell’accordo fu presto disatteso. “Penso che fossimo stati un po’ troppo idealisti”, ha ammesso Demis Hassabis, co-fondatore di DeepMind, in un’intervista a Parmy Olson per il libro Supremacy.
Più coerente sembra la strada intrapresa da Anthropic, fondata nel 2021 da ex dipendenti OpenAI preoccupati per l’allontanamento della loro ex azienda dalla missione originale. Anthropic ha istituito un “Long-Term Benefit Trust”, un ente composto da cinque membri indipendenti con il compito di salvaguardare l’interesse dell’umanità. Entro quattro anni, questo trust avrà la maggioranza nel consiglio d’amministrazione.
Anthropic è strutturata come una public benefit corporation (PBC), ovvero una società i cui amministratori devono tenere conto anche dell’interesse collettivo, oltre a quello degli azionisti. Anche xAI di Elon Musk e la stessa OpenAI (nella nuova configurazione) adotteranno la formula PBC.
Public Benefit Corporation: garanzia o illusione?
Nonostante l’apparente nobiltà dell’intento, il modello PBC offre garanzie limitate. In pratica, solo gli azionisti significativi – e non il pubblico – possono agire legalmente in caso di violazioni degli obblighi fiduciari verso la società. La capacità effettiva di queste strutture di frenare le derive speculative resta dunque discutibile.
Un esempio lampante è il caso di novembre 2023: il consiglio di OpenAI ha licenziato Altman per presunte violazioni dei principi guida dell’organizzazione, ma presto ha dovuto fare marcia indietro di fronte alla rivolta di dipendenti e investitori. Altman è tornato alla guida e la maggior parte dei direttori è uscita di scena. In altre parole, la capacità reale del consiglio no profit di far valere la missione umanitaria è stata drasticamente ridimensionata.
L’urgenza della regolazione pubblica
Due degli ex direttori di OpenAI, Helen Toner e Tasha McCauley, hanno firmato un editoriale per The Economist in cui mettevano in guardia: “I vincoli autoimposti dalle startup dell’AI non possono resistere in modo affidabile alla pressione degli incentivi economici”.
Per questo, sostengono, serve un intervento pubblico deciso. “Per fare in modo che l’ascesa dell’AI giovi a tutti, i governi devono iniziare subito a costruire un quadro normativo efficace”.
Verso un’AI governance globale?
L’Europa si è già mossa in questa direzione con l’approvazione del Regolamento AI (AI Act), primo tentativo globale di normare lo sviluppo e l’uso dell’intelligenza artificiale in base a un sistema di rischi.
Negli Stati Uniti, invece, la situazione è più fluida: influenti figure della Silicon Valley come Marc Andreessen si oppongono apertamente alla regolazione, e l’amministrazione Trump ha mostrato scarso interesse per controlli severi.
Ma la posta in gioco è alta. Crescono le evidenze sui rischi dell’AI nel peggiorare le disuguaglianze razziali e di genere nel mondo del lavoro e nella società. E i pericoli a lungo termine potrebbero essere ancora più gravi. Nel 2023, molti leader del settore – tra cui Altman e Hassabis – hanno sottoscritto una dichiarazione secondo cui “mitigare il rischio di estinzione derivante dall’AI dovrebbe essere una priorità globale”.
Se i leader dell’AI fossero semplicemente illusi sul potere delle proprie invenzioni, potremmo forse dormire sonni tranquilli. Ma, considerato l’andamento degli investimenti nel settore, sarebbe un errore fatale dare per scontato che tutto andrà per il meglio.