ANALISI

AI generativa: più sicura se on-premises. Si afferma il GPT privato



Indirizzo copiato

Le organizzazioni vorrebbero avere accesso a tutti i vantaggi delle soluzioni AI attualmente disponibili, ma temono che i modelli basati sul cloud pubblico possano comportare troppi rischi

Pubblicato il 30 mag 2024

Mehul Doshi

Director Business Development EMEA CLC & Head of Business Italy di Fujitsu



bandi AI

Dopo il lancio di ChatGPT, l’AI generativa sembrava poter ribaltare la maggior parte dei piani dei leader aziendali riguardo il futuro delle loro organizzazioni, senza aspetti negativi. Il concetto di fondo era più o meno questo: se riuscite a pensare alla domanda giusta, c’è una buona probabilità che l’AI vi dia una risposta che vi porterà in un posto nuovo, inesplorato ed entusiasmante – anche se ci si può legittimamente chiedere quale possa essere la “domanda giusta”.

I rischi di affidarsi alle AI “pubbliche”

Poco tempo dopo è emerso però chiaramente che affidarsi alle AI pubbliche e ai Large Language Model (LLM) come ChatGPT, Bing, Claude e Bard, su piattaforme cloud pubbliche porti con sé anche una serie di rischi. Sebbene le esperienze nel cloud pubblico per quanto riguarda la ricchezza delle funzionalità e la velocità dell’innovazione siano infatti state straordinarie, le organizzazioni si preoccupano ora – e a ragione – dell’accuratezza, della parzialità e della privacy dei dati, della fuga di proprietà intellettuale, della conformità alle nuove normative, dei rischi dal punto di vista legale ancora poco chiari e della crescita vertiginosa dei costi. Tutti fattori che, di qui in avanti, limiteranno sempre più l’uso del cloud pubblico.

Si tratta di un elenco piuttosto lungo di preoccupazioni, che si sommano a un problema di fiducia più profondo, quando si parla di AI.

Di conseguenza, molte aziende stanno esplorando (o stanno già implementando) l’AI generativa on-premises. In effetti, secondo un recente rapporto, la scelta del luogo in cui i clienti intendano eseguire l’AI generativa è divisa oggi quasi esattamente a metà, fra cloud pubblico da una parte e on-premise ed edge dall’altra.

Mi sento di confermare questa tendenza. Stiamo già lavorando, infatti, con i nostri clienti e il nostro ecosistema di partner su questo tema e abbiamo già co-creato con loro una soluzione di AI generativa on-premises. Questa soluzione è disponibile anche sul nostro AI Test drive, una piattaforma sul quale sono in corso diversi POC (Proof of Concept) insieme a clienti di aziende di diverse dimensioni, in vari settori verticali, in tutta Europa.

LLM, la radice del problema

I modelli linguistici di grandi dimensioni si basano su insiemi di dati di apprendimento enormi, ma comunque limitati. Questo comporta dei rischi sulla potenziale accuratezza, come l’anteporre la generalizzazione alla specificità, la mancanza di verifica o l’assenza di una fonte di verità. Un’altra preoccupazione è quella di rischiare di perpetrare o addirittura amplificare i pregiudizi. La presenza di eventuali pregiudizi nei dati di addestramento può, infatti, indurre il modello a generare contenuti distorti.

Oltre ai rischi legati all’utilizzo di AI generative pubbliche, le piattaforme cloud pubbliche possono comportare rischi per la sicurezza, come la violazione della privacy dei dati, la perdita di proprietà intellettuale e – come abbiamo appena visto – anche rischi operativi.

Un modello on-premises è più preciso, flessibile e controllabile

Riportare un modello AI on-premises, e dunque all’interno del perimetro di un’organizzazione, significa che le aziende possono essere molto più attente riguardo alle proprie necessità per la sicurezza, la privacy o riguardo la sovranità dei dati. Inoltre, possono essere molto più precise su ciò che è effettivamente contenuto nel modello, riducendo i rischi di distorsione e di informazioni false o non aggiornate.

Le organizzazioni possono anche personalizzare il loro modello per i vari casi d’uso specifici. Possono assicurarsi che l’AI sia addestrata su dati di alta qualità, diversificati e rappresentativi, e aggiornarla continuamente con nuovi dati per migliorarne l’accuratezza, corroborando i risultati dell’AI generativa con altre fonti affidabili e informando gli utenti sui punti di forza e sui limiti dell’AI.

Le fonti di dati possono essere selezionate con molta più accuratezza, includendo pool che non sarebbero disponibili per un’AI pubblica – come, ad esempio, le informazioni derivanti dai diversi team di lavoro o situate in una intranet o extranet. I dati su prodotti e servizi possono essere ritirati o aggiornati in base alle modifiche che gli stessi prodotti e servizi subiscono nel corso del tempo. Si possono anche creare modelli riservati alle esigenze di specifiche unità aziendali o dipartimenti.

Ad esempio, i team legali vorranno ricevere consigli da un’intelligenza artificiale per cui le normative hanno la precedenza sulle considerazioni di marketing. In termini pratici, questo mette gli utenti nella posizione di porre domande come: “Sulla base delle versioni più aggiornate delle nostre presentazioni di vendita e delle nostre strategie di marketing, quali saranno i messaggi più persuasivi da indirizzare verso i nostri 10 principali clienti nel secondo trimestre?”.

Nel complesso, la gestione interna dell’AI generativa offre una flessibilità e una capacità di supervisione e controllo che le opzioni basate sul cloud non possono garantire.

Un approccio più sostenibile

In definitiva, le organizzazioni devono tenere presenti tutte queste considerazioni nelle loro valutazioni. Abbiamo parlato di fiducia per quanto riguarda l’accuratezza, la parzialità, la privacy e la sicurezza, ma il tema dell’impatto ambientale diventerà probabilmente altrettanto importante nei prossimi mesi. La crescita esponenziale dei volumi che alimentano le impressionanti capacità dell’intelligenza artificiale ha un costo energetico e di raffreddamento che potrebbe rivelarsi sempre più insostenibile.

Tuttavia, la maggior parte dei casi d’uso aziendali non richiede modelli enormi e, mentre aumentano le preoccupazioni per il fabbisogno energetico e di raffreddamento dell’AI generativa, le soluzioni on-premises offrono una strada più sostenibile.

L’hosting on-premises consente, infatti, di adattare le dimensioni, le prestazioni e i costi del modello alle esigenze dell’organizzazione. Le soluzioni on-premise, opportunamente personalizzate, possono essere dimensionate in modo corretto, a differenza di un approccio unico e “monolitico” al cloud. In questo modo si allineano l’efficienza operativa da una parte, e gli impegni presi in ambito ESG dall’altra.

Conclusioni

Con tutti questi vantaggi, non c’è da stupirsi che l’AI generativa on-premise stia attirando così tanta attenzione.

La sua implementazione, al contempo, sta diventando sempre più semplice. Noi, ad esempio, forniamo architetture di riferimento per ottimizzare la configurazione e il dimensionamento dell’infrastruttura e uno stack completo insieme ai nostri partner, scelti a seconda del caso d’uso.

Articoli correlati

Articolo 1 di 4