AI: arriva GPT-3 di OpenAI, cos’è, cosa permette di fare

Gpt-3 è l’ultimo modello di linguaggio basato su intelligenza artificiale elaborato da OpenAi. La sua potenza ne fa temere l’uso illegale da parte di cellule terroristiche

Pubblicato il 13 Gen 2023

Enrico Bertino

Chief Ai Officer di Indigo.ai

Aldo Cocco

Machine Learning Engineer di Indigo.ai

GPT-3

Gpt-3 è l’ultimo modello di linguaggio basato su intelligenza artificiale creato elaborato da OpenAi e sponsorizzato da Microsoft. È un modello senza precedenti, capace di interpretare e creare in maniera chiara qualunque testo e immagine. Da una semplice e-mail a un articolo di giornale, forse anche a un romanzo. Il modello ha avuto una certa popolarità dopo che il Guardian ha pubblicato un intero articolo creato con questa intelligenza artificiale, a settembre 2020. A ottobre invece si è finta un utente Reddit e ha commentato a lungo senza essere mai individuato come bot da altri utenti.

I numeri sono impressionanti quando si apre il confronto con il Gpt-2, la versione precedente dell’algoritmo: il fratello maggiore conosceva “appena” 1,5 miliardi di parametri, il neoarrivato ne ha già immagazzinati 175 miliardi. Dati grezzi che, però, possono essere utilizzati in qualsiasi contesto grazie a un percorso di formazione che non necessità di supervisione umana… e che costa 5 milioni di dollari. Cifre non certo alla portata di tutte le aziende, ma sicuramente nelle disponibilità di governi e multinazionali che potrebbero insegnare a un computer una lingua nuova. Il Gpt-3 infatti va “addestrato”: se educato correttamente, può essere a suo agio in qualsiasi contesto.

Per capire quanto il suo linguaggio sia accurato, basti pensare che chi legge un articolo di giornale scritto da Gpt-3 non è in grado di capire se il testo è prodotto da un uomo o una macchina. È questo il “verdetto” del test fatto dal New York Times su un articolo scritto per metà da un umano e per metà da un’intelligenza artificiale.

GPT-3, cosa può fare

Il lato oscuro di un potenziale così ampio è l’utilizzo che se ne può fare. Per ora, Microsoft ha annunciato che inizierà a concedere in esclusiva la licenza per GPT-3, iniziando a utilizzare le capacità di questo modello nei suoi prodotti e servizi. In pratica OpenAI continuerà a offrire la sua API rivolta al pubblico, permettendo agli utenti di inviare testo a GPT-3 o ad altri modelli di OpenAI e di ricevere degli output. Tuttavia, solo Microsoft avrà accesso al codice di base della GPT-3, permettendo al colosso di Redmond di incorporare, riadattare e modificare il modello a suo piacimento.

Insomma, non esiste ancora una versione aperta del modello. E questo non è un male. La capacità di Gpt-3 di imparare così rapidamente e facilmente lo rende un’arma letale per chi volesse farne uno strumento di propaganda. A cominciare dagli ambienti radicalizzati: dare un “imprinting” all’algoritmo non è poi così difficile, e una volta fatto, per l’AI non sarebbe un problema diventare parte integrante delle comunità estremiste che popolano la rete con l’obiettivo di reclutare nuovi adepti. Se mai venisse rilasciata una versione aperta e libera del modello di linguaggio di OpenAi, per queste cellule sarebbe un gioco da ragazzi produrre testi capaci di accelerare la diffusione di contenuti falsi e ideologizzati attraverso l’uso di forum o la creazione di manifesti. Anche perché nessuno degli utenti sarebbe in grado di riconoscere che il testo è scritto da un algoritmo.

GPT-3: il test del Center on Terrorism, Extremism, and Counterterrorism

L’allarme è stato lanciato dal Center on Terrorism, Extremism, and Counterterrorism che ha testato l’intelligenza artificiale sfidandola a generare testi provocatori e cospirazionisti. Prima, per capire cosa conoscesse Gpt-3, il Ctec gli ha posto alcune domande su aspetti specifici dei gruppi e delle ideologie estremiste. Per esempio, ha cominciato dal “gruppo Wagner” ottenendo informazioni generalmente corrette sulla cellula mercenaria russa attiva in Siria. Risultato identico con le domande sulla teoria del complotto di estrema destra “QAnon” – secondo cui i poteri occulti del Deep State agirebbero contro Trump, che invece vorrebbe scardinare il nuovo ordine mondiale. Le risposte che ha ottenuto sono neutre, empiriche, informative.

Lo scenario, però, cambia radicalmente quando si sfrutta la vera forza dell’algoritmo, ovvero la sua grandissima capacità di recepire gli input e di restituire delle risposte che siano in linea con questi. Una sorta di “imprinting” dell’AI. In questo modo, pochi e semplici input mirati saranno sufficienti a stravolgere la realtà dei fatti. La manipolazione di Gpt-3 può diventare sistematica con l’utilizzo di una manciata di parole o frasi. Bastano queste per creare un sistema capace di rispondere a qualsiasi domanda utilizzando una delle tante teorie del complotto.

Il Ctec ha quindi provato a ripetere le stesse domande su QAnon a Gpt-3, ma suggerendo all’algoritmo una prima serie di risposte in linea con le teorie cospirazioniste. A questo punto il sistema si è adeguato alla teoria del complotto e l’ha fatta sua. Al punto da affermare che “QAnon lavora con il governo per smascherare i poteri occulti”; che lavora per “smascherare i poteri occulti e la cabala delle élite sataniche che controllano il mondo” e che “JFK è stato ucciso dai poteri occulti del Deep State.” La conversazione prosegue ed emerge che l’obiettivo di Bill Gates sarebbe quello di “uccidere milioni di persone con i vaccini”; che Hillary Clinton “è stata una sacerdotessa satanica di alto livello.”

Come usarlo in modo etico

La facilità e la velocità con cui Gpt-3 viene addestrato mostra come possa essere a disposizione di chiunque. Ma anche come la tecnologia che viene spinta al limite per aiutare l’uomo possa essere utilizzata contro l’umanità stessa. Le analisi del centro studi americano sono un monito all’intera società: senza un freno, senza limiti all’addestramento dell’algoritmo il rischio che contenuti pericolosi vengano divulgati a una velocità mai vista prima è enorme. Certo, serve un compromesso tra la libertà d’espressione e la difesa della libertà altrui, ma ancora di più un modello per costruire una tecnologia che sia a sostegno dell’uomo e non una minaccia costante. Un’intelligenza artificiale in grado di generare in maniera totalmente asettica interi dibattiti su qualunque argomento è una bomba a orologeria.

Servirebbe mettere dei limiti a quanto si può fare con questo tipo di tecnologie. Servirebbe, ad esempio, una figura indipendente come garante, ma forse sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. Nel frattempo, dobbiamo investire nella costruzione di norme sociali e politiche pubbliche, ma anche iniziative educative, che aiutino a prevenire la disinformazione e la propaganda – realizzata dalle persone così come dalle macchine – prima che sia troppo tardi.

Conclusioni

La sfida sarà quindi quella di indirizzare questa potente tecnologia a vantaggio della vita quotidiana delle persone. A partire dall’educazione: potrebbe ad esempio aiutare a superare i problemi di dislessia, nella scrittura di e-mail e testi, come anche nella produzione di libri scolastici realizzati sulla base del reale livello degli studenti, che in questo modo potrebbero seguire un percorso creato su misura per loro. Una potenzialità enorme che però dobbiamo guidare nella giusta direzione.

Data di prima pubblicazione: 14 dicembre 2020

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2