ANALISI

AI, i punti chiave da monitorare nel 2024



Indirizzo copiato

Il report “AI Outlook for 2024” di Deutsche Bank offre uno sguardo alle sfide e alle opportunità che l’AI potrebbe affrontare nell’anno appena iniziato. Dalle elezioni alla regolamentazione. Inoltre, le applicazioni reali dell’AI generativa in ambito aziendale sono ancora quasi tutte in fase di sperimentazione

Pubblicato il 17 gen 2024




Quest’anno rappresenta un punto di svolta cruciale per l’AI generativa, che si appresta a passare dalla fase di sperimentazione a quella di implementazione, e inizia a delineare chi saranno i vincitori e i perdenti. Il report “AI Outlook for 2024” di Deutsche Bank fornisce una visione prospettica per il 2024, accompagnata da un breve excursus storico. Per la prima volta, l’AI si troverà anche ad affrontare le sfide del voto. La regolamentazione, o la sua mancanza, in questo momento critico avrà un impatto duraturo.

L’orizzonte dell’intelligenza artificiale per il 2024

Sono cinque i punti cardine sui quali l’AI generativa dovrà confrontarsi nel 2024:

1. Il diritto d’autore diventa il primo banco di prova per i vincitori e i vinti dell’AI

2. I modelli open source sfidano i giganti proprietari.

3. La maggior parte dell’IA non è generativa e alcuni non lo sono nemmeno.

4. I vincitori del settore di oggi potrebbero essere gli altri vincitori di domani

5. La verità potrebbe essere una vittima nelle prime elezioni dell’AI

Il diritto d’autore, primo banco di prova per i vincitori e i perdenti dell’AI

Il diritto d’autore sta diventando il punto di partenza per determinare i primi vincitori e perdenti dell’AI generativa, mentre le cause legali e le indagini antitrust colmano un vuoto normativo. Il 27 dicembre, il New York Times ha avviato una causa federale contro OpenAI e il suo principale investitore Microsoft, accusandoli di aver violato la legge sul copyright e danneggiato il suo marchio addestrando i grandi modelli linguistici (LLM) di OpenAI sui contenuti del Times. La questione riguarda come saranno monetizzati i contenuti generati dall’AI e chi fornisce il vero valore. I modelli di AI sono addestrati su enormi quantità di dati, principalmente raccolti su Internet. Alcuni creatori di contenuti stanno portando le aziende di AI in tribunale, mentre altri hanno deciso che se non possono batterle, è meglio allearsi con esse.

OpenAI ha risposto alla causa del New York Times l’8 gennaio, sostenendo che l’utilizzo dei materiali rientra nel “fair use”, che esistono opzioni opt-out e che il “rigurgito” è raro. L’azienda ha affermato che sarebbe “impossibile” addestrare i migliori modelli di intelligenza artificiale senza utilizzare materiali protetti da copyright.

Il caso del New York Times segue le cause per copyright negli Stati Uniti contro OpenAI e Meta da parte di autori professionisti di narrativa e saggistica, tra cui la US Author’s Guild, che rappresenta tra gli altri John Grisham. Nel frattempo, Getty Images ha citato in giudizio Stability AI per aver copiato più di 12 milioni di fotografie a scopo di addestramento. A novembre gli editori musicali, tra cui Universal, hanno chiesto un’ingiunzione per impedire ad Anthropic di riprodurre i loro testi protetti da copyright o di utilizzarli per addestrare il suo modello Claude.

Cosa significa questo per i produttori di contenuti?

I produttori di contenuti si trovano in una situazione difficile. È un duro colpo per un modello di business già messo a dura prova dalla perdita di abbonamenti alla stampa, pubblicità e annunci negli ultimi due decenni.

D’altra parte, l’AI generativa permetterà ai produttori di contenuti di fornire contenuti passati e presenti in modi nuovi, come le domande e risposte con gli abbonati o la generazione di immagini addestrate sulle loro foto. Può anche automatizzare alcune attività routinarie e analizzare e sintetizzare in modo più efficiente i dati per creare nuovi contenuti. Alcuni hanno anche deciso di collaborare con piattaforme di AI generativa. Almeno in questo modo possono condividere parte del bottino.

L’Associated Press e Axel Springer, editore di Politico, Business Insider, Bild e Welt, hanno firmato accordi per concedere in licenza a OpenAI contenuti per la formazione in cambio dell’utilizzo in applicazioni tecnologiche. Da parte loro, le principali aziende di cloud, Amazon, Microsoft e Google di Alphabet, hanno voluto evitare che le preoccupazioni sulla proprietà intellettuale scoraggiassero potenziali

In che altro modo l’AI viene limitata?

Le cause sul copyright rappresentano anche la definizione di standard con altri mezzi, mentre le autorità di regolamentazione valutano come mitigare i rischi di una tecnologia in rapida evoluzione e poco compresa.

Negli ultimi mesi sono stati effettuati esami antitrust sul rapporto tra Microsoft e OpenAI da parte di Stati Uniti, Regno Unito e Unione Europea; un avviso preliminare di applicazione da parte del Commissario per l’Informazione del Regno Unito a Snap per la sua potenziale incapacità di valutare adeguatamente i rischi per la privacy del suo chatbot My AI; e un’indagine riferita dalla Federal Trade Commission degli Stati Uniti per stabilire se OpenAI abbia violato le leggi sulla protezione dei consumatori effettuando lo scraping di dati pubblici e pubblicando informazioni false attraverso ChatGPT.

Quali sono i progressi compiuti nella regolamentazione specifica dell’AI?

La regolamentazione richiederà più tempo. La legge sull’AI dell’Unione Europea, sebbene approvata in via provvisoria il mese scorso, necessita ancora di alcuni dettagli prima di essere adottata. In seguito verrà applicato solo progressivamente nell’arco di altri 24 mesi. Gli Stati Uniti, invece, stanno mettendo insieme un mosaico di leggi esistenti, accordi volontari, come il watermarking dei contenuti sintetici, e un ordine esecutivo della Casa Bianca su aree quali la trasparenza e i test. Il Regno Unito sta adottando un approccio ancora più leggero; la scorsa settimana è stato riferito che sta pianificando di stabilire “test chiave” da soddisfare prima di introdurre nuove leggi sull’AI.

Cosa ci aspetta nel 2024

La causa del New York Times contro OpenAI sarà il banco di prova decisivo per la ripartizione dei guadagni della torta dei contenuti dell’intelligenza artificiale. Si tratta di una battaglia quasi esistenziale tra i figli del manifesto dei vecchi e dei nuovi media, che si sta già scaldando e che suggerisce che nessuna delle due parti è pronta ad arrendersi. Il risultato influenzerà le autorità di regolamentazione di tutto il mondo, che decideranno se la normativa esistente è sufficiente e come definire una nuova normativa in caso contrario.

I modelli open-source sfidano i giganti proprietari

Il dominio dei LLM proprietari, guidati da ChatGPT di OpenAI e dai suoi modelli GPT-3 e GPT-4, potrebbe essere solo temporaneo. I modelli open-source, tipicamente più piccoli, più economici e personalizzabili, li stanno tallonando. Con una stima di 1,8 trilioni di parametri computazionali, il colosso GPT-4 di OpenAI sembra essere la prova vivente che più grande è meglio, offrendo capacità generali che non possono essere replicate da modelli di una frazione delle loro dimensioni. OpenAI e i suoi più grandi colleghi affermano che i modelli proprietari rinchiusi nelle aziende Big Tech offrono anche standard più elevati di governance, servizio clienti e sicurezza. Tuttavia, la diffusione di molte migliaia di modelli open-source con codice liberamente disponibile indica un potenziale futuro alternativo. Molti dei quasi mezzo milione di modelli elencati sulla piattaforma Hugging Face sono basati su LLaMA, open-source di Meta, che è trapelato pochi giorni dopo il suo lancio alla fine dello scorso febbraio, o sul suo successore LLaMA-2, lanciato a luglio in versioni leggere da 7 miliardi, 13 miliardi e 70 miliardi di parametri.

Nuove tecniche, come la Low-Rank Adaptation (LoRA), stanno inoltre rendendo semplice ed economico sfornare nuove versioni perfezionate di modelli pre-addestrati su larga scala.

Perché utilizzare modelli open-source?

I sostenitori dei modelli open-source affermano che essi stimolano la concorrenza e l’innovazione consentendo a più persone e aziende di costruire, adattare e utilizzare l’AI in modo rapido ed economico. Sebbene più persone che apportano modifiche al codice possano introdurre difetti nella qualità, nelle prestazioni e sic nellaurezza, i sostenitori affermano che la comunità spesso individua e risolve i bug più rapidamente di un’azienda. Gli utenti pagano poco o nulla per utilizzare il software e non sono vincolati a un unico fornitore. Ciò che manca alle aziende con applicazioni ad alto rischio in termini di solidi accordi sui livelli di servizio, viene guadagnato in flessibilità e controllo sulle modalità di adattamento del software. L’open-source consente loro di applicare l’AI generativa in modo sicuro ai loro dati proprietari, attenuando il rischio di allucinazioni e fughe di notizie. Molte applicazioni open-source sono diffuse da anni e alcune, come Apache e Linux, hanno quote di mercato importanti. La tecnologia fa gola anche agli Stati che vogliono rompere la morsa degli Stati Uniti attraverso i propri campioni open-source, come Falcon degli Emirati Arabi Uniti e Mistral della Francia.

Come stanno reagendo le Big Tech?

Anche le grandi aziende tecnologiche si stanno avvicinando a modelli più piccoli che, una volta addestrati, possono lavorare in modo sicuro su un computer portatile o su un telefono, invece di richiedere una connessione costosa, più lenta e potenzialmente pericolosa ai server cloud di un centro dati a centinaia di chilometri di distanza. Forse non hanno le capacità dei modelli più grandi, ma sono sufficienti per una serie di attività in movimento. L’ultimo LLM di Google, Gemini, lanciato il mese scorso, è disponibile in tre diverse dimensioni, con la minuscola versione Nano che raggiunge 1,8 miliardi di parametri, un millesimo della dimensione dichiarata del GPT-4.

La regolamentazione è la risposta?

La regolamentazione sarà un fattore determinante per il destino dell’AI open-source. I principali attori, come OpenAI, chiedono una regolamentazione del settore, sostenendo che i modelli open-source danno libero sfogo a chiunque di manipolare il codice sorgente e di abusare dei modelli senza restrizioni. A loro dire, i guard rail sono essenziali per creare la fiducia che consente agli utenti di adottare le nuove tecnologie. Ma i sostenitori dell’open-source affermano che i rischi sono esagerati e che una maggiore regolamentazione soffocherà l’innovazione e la concorrenza, vincolando le aziende più piccole a una burocrazia costosa.

Cosa ci aspetta nel 2024

La contrapposizione tra modelli proprietari e open-source non è solo un dibattito tecnico. Se nel 2024 una manciata di modelli proprietari prenderà decisamente il sopravvento, sostenuti da una regolamentazione avversa al rischio, è probabile che ciò porti a sistemi di AI più centralizzati e più facili da controllare. Se invece la miriade di modelli open-source continuerà a prendere piede, soprattutto in assenza di regolamentazione, è probabile che si arrivi a sistemi di AI più liberi e più difficili da monitorare e controllare.

Sistemi selezionati d’intelligenza artificiale multimodali e linguistici con oltre 50 miliardi di euro parametri, n parametri in bn. Fonte: Il nostro mondo in dati, Deutsche Bank

La maggior parte dell’AI non è generativa, alcune non sono nemmeno AI

Le applicazioni reali dell’AI generativa in ambito aziendale sono ancora quasi tutte in fase di sperimentazione. La maggior parte dei prodotti sbandierati come parte della rivoluzione dell’AI generativa sono in realtà AI predittiva tradizionale. Altri utilizzano l’AI generativa solo come interfaccia per i chatbot, mentre il vero lavoro dietro le quinte viene svolto dall’AI predittiva.

Alcuni non utilizzano affatto l’intelligenza artificiale, come ha osservato l’FTC statunitense nell’avvertimento rivolto ai pubblicitari lo scorso febbraio: “Tenete sotto controllo le vostre affermazioni sull’intelligenza artificiale”. I fornitori di alcuni dei più stravaganti gadget potenziati con l’intelligenza artificiale esposti al CES di Las Vegas della scorsa settimana dovrebbero prendere nota.

Per cosa è meglio l’AI predittiva tradizionale?

L’AI predittiva è il predecessore deterministico dell’AI generativa. Conosciuta anche come AI discriminativa, è basata su regole e quindi è la migliore per individuare schemi in grandi quantità di dati strutturati, che non sarebbero sufficienti per un analista umano.

Utilizza il deep learning per classificare i dati, rilevare le anomalie e fare previsioni in un modo che lo rende ideale per l’analisi quantitativa, il trading algoritmico, la modellazione del rischio, il rilevamento delle frodi e la previsione della domanda.

Tra gli esempi annunciati di recente vi sono la previsione di strutture biochimiche, il vaglio di ricerche accademiche sulla sostenibilità alla ricerca di temi specifici e l’utilizzo di uno stetoscopio potenziato dall’intelligenza artificiale per la diagnosi di patologie cardiache.

L’utilizzo dell’AI generativa per questi compiti sarebbe una soluzione costosa, lenta e poco trasparente. Se vogliamo una risposta chiara, usiamo l’AI predittiva.

In che modo l’AI generativa è diversa?

L’AI generativa è probabilistica e utilizza le reti neurali per identificare modelli all’interno di dati non strutturati e generare nuovi contenuti. Per questo motivo è la migliore per la scrittura e la codifica, la sintesi e le domande e risposte con i robot del servizio clienti.

Mentre l’AI predittiva eccelle nell’analisi del sentiment che prevede lo scraping delle dichiarazioni degli utili alla ricerca delle parole predeterminate “declino”, “caduta” e “avvertimento”, l’AI generativa dovrebbe essere in grado di cogliere i segnali negativi quando un amministratore delegato dice eufemisticamente che le prospettive sono “niente di cui scrivere”.

Perché le imprese non stanno ancora adottando l’AI generativa?

Le imprese devono affrontare una serie di ostacoli nell’adozione dell’AI generativa, come evidenziato nel recente rapporto “Where’s my AI revolution?”. La tecnologia dipende dall’inserimento in un quadro hardware e software che richiede tempo per essere creato e diffuso, come dimostra il lasso di tempo di diversi anni che intercorre tra il lancio dello smartphone e le applicazioni killer come il ride-sharing, la consegna dei pasti e i social media che lo hanno definito.

Dal punto di vista della tecnologia e dei dati, gli ostacoli includono la complessa integrazione tecnologica con i sistemi preesistenti, la necessità di dati sicuri e di alta qualità e i rischi per la sicurezza. All’inizio dello scorso anno, aziende come Samsung, Amazon, JP Morgan e Accenture hanno vietato l’utilizzo di ChatGPT per motivi di lavoro, per timore di fughe di dati.

Anche una volta risolte le questioni tecniche, vi sono problemi di governance legati alle “allucinazioni” (imprecisioni dichiarate con sicurezza), ai pregiudizi, alla proprietà intellettuale e all’allineamento della strategia e delle parti interessate, nonché all’incertezza normativa.

A ciò si aggiungono le questioni culturali relative ai talenti e all’accettazione da parte di dipendenti e clienti.

Dove l’AI generativa sta già avendo un impatto?

I consumatori esperti di tecnologia e gli utenti aziendali (di solito al di fuori di settori fortemente regolamentati) utilizzano ChatGPT e altri chatbot per attività semplici e a basso rischio, dove le preoccupazioni per i dati sono minime e la supervisione umana dei risultati è sufficiente.

Tra queste, la generazione della prima bozza di codice informatico e di materiali di marketing personalizzati, la creazione di immagini e l’assistenza agli agenti del servizio clienti. Ad esempio, Amazon, eBay e LinkedIn hanno iniziato a offrire strumenti di intelligenza artificiale per aiutare gli utenti a scrivere annunci e post sui prodotti.

A novembre OpenAI ha dichiarato di avere oltre 100 milioni di utenti attivi settimanali di ChatGPT. Ha costruito un’infrastruttura di offerte aziendali premium e di analisi dei dati attorno al prodotto originale.

L’intero settore si sta rapidamente espandendo al di là dei plug-in, del prompt chaining e dell’analisi dei dati. Ci sono scorci allettanti di potenziali utilizzi come agenti, in hardware personalizzati e in applicazioni multimodali emergenti come text-to-video o addirittura video-to-video, dove strumenti come Runway Gen-2 consentono agli utenti di modificare un video esistente in base a un prompt di testo, come trasformare un golden retriever in un dalmata coperto di macchie.

Dove si utilizzerà per la prima volta l’AI generativa sul lavoro?

Il primo posto in cui è più probabile che gli utenti mettano le mani sull’AI generativa al lavoro è probabilmente quello degli strumenti per l’aumento della produttività integrati nel software esistente.

Tra questi spicca Microsoft 365 Copilot. Lo strumento ha iniziato a funzionare per i clienti delle grandi imprese a partire da novembre, al prezzo di 30 dollari al mese per utente. All’inizio di quest’anno è prevista anche la comparsa di copiloti per le vendite e l’assistenza. Alphabet sta lanciando la propria versione, Duet AI per Google Workspace Enterprise.

L’implementazione richiederà del tempo, ma è probabile che alla fine venga diffusa e radicata nei flussi di lavoro; aspettiamoci una traiettoria a curva S piuttosto che un razzo diretto verso la Luna… Per Microsoft, questo dovrebbe portare a un’accelerazione significativa dei ricavi fino a un CAGR di metà decennio nei prossimi tre anni, come illustrato in “Dimensionamento dell’incremento di Office 365 Copilot”.

Cosa ci aspetta nel 2024

Quest’anno l’AI generativa passerà dalla sperimentazione all’implementazione.

Tuttavia, si tratterà di strumenti che migliorano le attività, integrati nel software esistente, piuttosto che di applicazioni trasformative. Il suo giorno di gloria arriverà presto, ma ci saranno molte altre false albe lungo la strada.

I vincitori del settore di oggi potrebbero essere i perdenti di domani

La corsa al dominio dell’AI generativa è appena iniziata. La storia è piena di esempi di primi che vengono superati. Ricordate AltaVista e Blackberry, uno dei primi motori di ricerca più popolari e il pioniere degli smartphone per le e-mail aziendali?

I primi vincitori della corsa all’oro dell’intelligenza artificiale generativa sono stati i fornitori di infrastrutture, come i produttori di chip e i fornitori di servizi cloud. In testa c’è Nvidia, con il suo controllo su oltre il 95% delle unità di elaborazione grafica (GPU) specializzate utilizzate per addestrare modelli linguistici di grandi dimensioni e poi per eseguirli, la cosiddetta inferenza. AMD è seconda per distacco in questo mercato in cui si vince (quasi) tutto.

Quali sono le alternative alle GPU di Nvidia?

Stanno emergendo alternative alle GPU. I grandi fornitori di servizi cloud stanno lavorando a chip di silicio propri, noti come ASIC (Application-Specific Integrated Circuits), che sono adattati ai loro carichi di lavoro e riducono la loro dipendenza da Nvidia.

Queste includono le Tensor Processing Unit (TPU) di Google, che secondo l’azienda sono da due a tre volte più efficienti dal punto di vista energetico rispetto a GPU comparabili, e i processori AWS Graviton di Amazon e gli acceleratori Trainium e Inferentia, che secondo l’azienda offrono fino al 50% di prestazioni in più per watt.

nvidia H200

Meta ha presentato la prima generazione di Meta Training and Inference Accelerator (MTAI) a maggio. A novembre Microsoft ha svelato il proprio chip personalizzato, il Maia AI Accelerator. Maia e il suo equivalente in termini di CPU completano l’offerta di infrastrutture di Microsoft, dal silicio al software e ai sistemi di raffreddamento, in uscita all’inizio di quest’anno.

Sciogliere Nvidia dalla sua posizione dominante non sarà facile, anche perché è saldamente radicata non solo attraverso i suoi chip e i suoi data center, ma anche attraverso un ecosistema più ampio che comprende anche il suo software CUDA, standard del settore.

In quali altri settori le alternative a Nvidia stanno facendo progressi?

I concorrenti si stanno facendo strada. Nvidia è leader nello “switching”, che consente alle GPU e alle CPU di comunicare tra loro nei data center. I suoi switch Infiniband a banda larga e bassa latenza devono affrontare la concorrenza degli switch Ethernet, forniti da Broadcom e Marvell, che sembrano funzionare in modo più efficiente su scala.

Inoltre, l’aumento di LLM di dimensioni ridotte rende probabile che un numero sempre maggiore di elaborazioni dell’intelligenza artificiale nella fase di inferenza venga gestito ai margini di smartphone, automobili e altri dispositivi, eliminando la necessità di instradare i dati verso centri dati dotati di chip Nvidia.

Il rapporto prezzo/utili di Nvidia si è più che dimezzato, scendendo a circa 27x dai suoi recenti massimi. A titolo di confronto, la rivale californiana AMD è ora scambiata a 38x e ASML, l’azienda olandese che produce le macchine fotolitografiche utilizzate per produrre i chip più avanzati al mondo, a 33x. Il mercato dei semiconduttori, che sfiora i 600 miliardi di dollari, è anche molto soggetto alle oscillazioni della domanda e dell’offerta, con un’impennata della domanda di chip AI che non trova riscontro in altri settori.

Per il momento, il business dei data center di Nvidia, che rappresenta l’80% delle vendite, è in linea con le previsioni.

Quanto è solido il dominio di ChatGPT?

All’altra estremità dello spettro di prodotti c’è ChatGPT di OpenAI, il chatbot che si trova in cima agli LLM GPT-3 e GPT-4 e che è diventato un sinonimo di AI generativa.

Secondo Similarweb, riceve circa 1,6 miliardi di visite al mese, più di 70 volte il numero del suo equivalente più vicino, Claude di Anthropic, e ben quattro volte il numero di visite di Bard, il motore di ricerca potenziato da chatbot di Google. Tutti questi utenti sono importanti quando il prodotto impara direttamente da ogni interazione.

Visite web da desktop e da mobile, in tutto il mondo (miliardi)
Fonte : Similarweb, Deutsche Bank

Le ripercussioni della bufera di OpenAI

sam altman microsoft
Sam_Altman, Ceo OpenAI (foto Wikipedia)

Il colpo e il contro-colpo di stato di OpenAI di novembre, pur avendo lasciato l’amministratore delegato Sam Altman in una posizione più potente che mai, potrebbe essere stato l’apice del dominio di OpenAI sull’AI generativa.

In primo luogo, ha messo in luce l’inconciliabile tensione al centro dell’identità etica di OpenAI.

Per dirla con un’espressione, da un grande potere derivano grandi responsabilità, in questo caso verso i fornitori di capitale e di calcolo e non verso gli ideali più elevati degli “altruisti efficaci” che dominavano il consiglio di amministrazione di OpenAI versione 1.0.

In secondo luogo, sembra aver consolidato la posizione di Microsoft come intermediario di potere dell’AI nella Silicon Valley. OpenAI, che ha ricevuto un investimento di 10 miliardi di dollari da Microsoft lo scorso anno, è ora irreversibilmente legata a Microsoft. L’azienda più grande può trarre profitto da qualsiasi aumento di OpenAI, ma nel frattempo sta perseguendo i propri piani di AI, con scarsa dipendenza da OpenAI. Tra questi, l’inserimento di 365 Copilot in prodotti ben integrati, come modo semplice per le aziende di adottare e integrare l’AI direttamente nelle loro attività. Grazie alla sua AI, la scorsa settimana Microsoft ha superato Apple come azienda di maggior valore al mondo, con una valutazione di quasi 2,9 trilioni di dollari.

In terzo luogo, la vicenda di OpenAI ha scosso i clienti e le autorità di regolamentazione dall’attenzione che avevano per ChatGPT. Ha fatto apparire le alternative dei concorrenti più attraenti di prima. E ha fatto pressione sulle autorità di regolamentazione affinché ci pensino due volte a permettere a una piccola azienda con una governance non convenzionale di volare così vicino al sole in una tecnologia chiave. Una cosa è che Microsoft o Google siano troppo grandi per fallire, un’altra è una startup esplosiva.

Cosa ci aspetta nel 2024

È improbabile che quest’anno si verifichino grandi scossoni tra le principali aziende di infrastrutture per l’AI, con l’inerzia dei contratti pluriennali, delle catene di fornitura dell’hardware e del software annodato negli ecosistemi dei clienti aziendali. Ma per OpenAI sarà più difficile. Il GPT-4 deve probabilmente essere ancora superato, ma le visite a ChatGPT hanno raggiunto il massimo a maggio e le alternative più semplici si stanno moltiplicando. Cercheremo segnali che dimostrino che l’azienda è in grado di resistere alla mercificazione dei LLM e di fornire soluzioni end-to-end indispensabili per le imprese.

La verità potrebbe essere una vittima delle prime elezioni dell’AI

Per coloro che sono preoccupati dei rischi dell’AI generativa per la verità, il momento del ciclo elettorale non avrebbe potuto essere più favorevole dal lancio di ChatGPT nel novembre 2022. Il ciclo elettorale dell’anno scorso è stato il più tranquillo dall’inizio del secolo, il primo senza una elezione importante in un paese leader del G7.

Quest’anno sarà uno dei più affollati, con gli elettori di paesi che rappresentano circa la metà della popolazione mondiale che si recheranno alle urne, tra cui l’India, probabilmente tra aprile e maggio, il Parlamento europeo a giugno, il Regno Unito in autunno e gli Stati Uniti a novembre, oltre a Indonesia, Pakistan, Bangladesh e Russia, tra molti altri.

La democrazia sta per scontrarsi con la forza più dirompente almeno dall’ascesa dei social media, che hanno giocato un ruolo decisivo per la prima volta nell’elezione del Presidente degli Stati Uniti Barack Obama nel 2008.

I social media hanno permesso la distribuzione di massa. Ora l’intelligenza artificiale generativa consente la generazione di massa di contenuti da parte di chiunque abbia un computer portatile. Il mondo è impreparato alla potenziale valanga di pubblicità personalizzata, disinformazione mirata e deepfake realistici, per non parlare della più generale diluizione di informazioni accurate.

deepfake

In che modo l’AI generativa viene utilizzata nelle campagne politiche

I promotori di campagne elettorali stanno già utilizzando immagini generate dall’intelligenza artificiale per creare contenuti sociali e i sondaggisti stanno simulando i risultati utilizzando intervistati generati dall’intelligenza artificiale. Negli Stati Uniti, l’anno scorso il Comitato nazionale repubblicano ha pubblicato uno spot con immagini generate dall’intelligenza artificiale di un futuro da incubo sotto Joe Biden, mentre deepfake ampiamente condivisi in Slovacchia e Bangladesh hanno mostrato candidati dell’opposizione che esprimono opinioni impopolari. Il prossimo passo sarà il materiale elettorale generato dall’intelligenza artificiale che supererà i consulenti delle campagne nei test dei sondaggi.

C’è poco da dubitare che mettere in dubbio tutte le informazioni favorisca una parte o l’altra in diverse fasi del ciclo elettorale e intacchi la legittimità democratica.

Cosa stanno facendo i legislatori e le aziende tecnologiche?

I legislatori e le autorità di regolamentazione saranno sollecitati a considerare modi pratici per affrontare le minacce, sulla base di approcci quali i principi di Hiroshima del G7 sull’autenticazione dei contenuti e le disposizioni dell’ordine esecutivo della Casa Bianca sul watermarking dei contenuti generati dall’AI.

Il Centro nazionale per la sicurezza informatica del governo britannico ha avvertito a novembre che gli LLM saranno “quasi certamente utilizzati per generare contenuti falsificati” nelle prossime elezioni generali, alimentati da “bot iperrealistici” e campagne avanzate di deepfake.

L’intelligenza artificiale stessa può essere utilizzata per identificare e affrontare alcuni dei potenziali danni. Alcune aziende tecnologiche, tra cui OpenAI e Anthropic, si sono impegnate a vagliare le query in entrata per eliminare possibili campagne di disinformazione, anche se i modelli open-source non offrono la stessa rete di sicurezza.

Alcuni stanno anche rafforzando i controlli sulla pubblicità politica. Google, che possiede YouTube, è stata la prima delle grandi piattaforme pubblicitarie digitali a impegnarsi a obbligare gli inserzionisti a segnalare in modo evidente quando i loro annunci contengono immagini, audio e video alterati digitalmente che “raffigurano in modo inautentico [persone o eventi] reali o dall’aspetto realistico”. A novembre è stata seguita da Meta, società madre di Instagram, Facebook e WhatsApp. La mossa non è stata però universale: altre aziende, tra cui X, precedentemente nota come Twitter, Spotify e Hulu della Disney, hanno allentato le loro regole.

Cosa ci aspetta nel 2024

Quest’anno segna un punto di svolta per la democrazia e una cartina di tornasole per il modo in cui il mondo affronterà le campagne elettorali industrializzate e iper-personalizzate. La disinformazione e l’informazione generata dall’intelligenza artificiale sono salite in cima all’agenda, al primo posto nell’indagine Global Risks Report 2024 del WEF, dopo che l’anno scorso non figurava nemmeno nell’elenco. È un buon segno, dato che la consapevolezza è la migliore vaccinazione contro la manipolazione.

Articoli correlati

Articolo 1 di 3