ANALISI

Il 2024 sarà l’anno della “mentalità aumentata”, ecco perché



Indirizzo copiato

Gli assistenti AI context-aware presto cambieranno il mondo, portando potenti capacità insieme a nuovi rischi per la privacy, fornendo informazioni preziose coordinate con precisione con qualsiasi cosa si stia facendo, dicendo o guardando. L’opinione di Louis Rosenberg, ricercatore pioniere nel campo dell’AI e della realtà aumentata

Pubblicato il 2 gen 2024



Rosenberg Mixed Reality

Quando si utilizza l’espressione “assistente AI”, la maggior parte delle persone pensa a strumenti come Siri o Alexa, che permettono di fare semplici richieste attraverso comandi verbali. Ma gli assistenti di prossima generazione includeranno un nuovo ingrediente che cambierà tutto: la consapevolezza del contesto. Questa capacità aggiuntiva consentirà a questi sistemi di rispondere non solo a ciò che diciamo, ma anche alle immagini e ai suoni in cui siamo immersi, catturati da telecamere e microfoni su dispositivi alimentati dall’intelligenza artificiale che indosseremo sul corpo.

L’avvento degli assistenti AI context-aware

Che lo si aspetti o meno, gli assistenti AI context-aware arriveranno presto e cambieranno significativamente il nostro mondo nel giro di pochi anni, scatenando una marea di potenti capacità insieme a un torrente di nuovi rischi per la privacy.

Louis Rosenberg

Louis Rosenberg ricercatore pioniere nel campo dell’AI e della realtà aumentata – noto per aver fondato Immersion Corporation e Unanimous AI e per aver sviluppato il primo sistema di realtà mista presso l’Air Force Research Laboratory – traccia un profilo dei nuovi assistenti virtuali e introduce il concetto “mentalità aumentata”.

Il lato positivo è che questi assistenti forniranno informazioni preziose, coordinate con precisione con qualsiasi cosa si stia facendo, dicendo o guardando. Le indicazioni saranno fornite in modo così fluido e naturale: una voce che sa tutto, dalle specifiche dei prodotti in vetrina, ai nomi delle piante che incrociate durante un’escursione, al piatto migliore che potete preparare con gli ingredienti nel frigorifero.

Sul versante negativo, questa voce sempre presente potrebbe essere altamente persuasiva – persino manipolativa – mentre ci assiste nelle attività quotidiane, soprattutto se le aziende utilizzeranno questi assistenti per distribuire pubblicità conversazionale mirata.

L’ascesa degli LLM multimodali

Il rischio di manipolazione dell’AI può essere mitigato, ma è necessario che i responsabili politici si concentrino su questo aspetto critico, che finora è stato ampiamente ignorato. Naturalmente, i legislatori non hanno avuto il tempo: la tecnologia che rende gli assistenti context-aware praticabili per l’uso tradizionale è disponibile solo da meno di un anno.

La tecnologia è quella dei modelli linguistici di grandi dimensioni multimodali, una nuova classe di LLM in grado di accettare come input non solo messaggi di testo, ma anche immagini, audio e video. Si tratta di un progresso importante, perché i modelli multimodali hanno improvvisamente dato ai sistemi di intelligenza artificiale i propri occhi e le proprie orecchie, che utilizzeranno per valutare il mondo che ci circonda mentre forniscono indicazioni in tempo reale.

Il primo modello multimodale mainstream è stato ChatGPT-4, rilasciato da OpenAI nel marzo 2023. Il più recente ingresso di rilievo in questo spazio è stato Gemini LLM di Google, annunciato solo poche settimane fa.

C’è poi il LLM multimodale di Meta AnyMAL che recepisce anche gli indizi di movimento. Questo modello va oltre gli occhi e le orecchie, aggiungendo un senso vestibolare del movimento. Questo potrebbe essere utilizzato per creare un assistente AI che non si limiti a vedere e sentire tutto ciò che proviamo, ma che consideri anche il nostro stato fisico di movimento.

I nuovi Ray-Ban di Meta

Con questa tecnologia AI disponibile ora per l’uso da parte dei consumatori, le aziende si stanno affrettando a inserirla in sistemi in grado di guidarci nelle interazioni quotidiane. Ciò significa applicare una telecamera, un microfono e dei sensori di movimento sul corpo in modo da alimentare il modello di AI e consentirgli di fornire un’assistenza consapevole del contesto per tutta la vita.

Il posto più naturale per collocare questi sensori è negli occhiali, perché in questo modo le telecamere guardano nella direzione dello sguardo della persona. I microfoni stereo sugli occhiali (o sugli auricolari) possono anche catturare il sonoro, consentendo all’intelligenza artificiale di conoscere la direzione da cui provengono i suoni.

L’azienda che attualmente sta aprendo la strada ai prodotti in questo spazio è Meta. Due mesi fa ha iniziato a vendere una nuova versione dei suoi occhiali intelligenti Ray-Ban, configurata per supportare modelli avanzati di intelligenza artificiale. Il 12 dicembre ha iniziato a fornire l’accesso anticipato alle funzionalità dell’intelligenza artificiale, che includono notevoli capacità.

Nel video di lancio, Mark Zuckerberg ha chiesto all’assistente AI di suggerirgli un paio di pantaloni da abbinare a una camicia e l’assistente ha risposto con suggerimenti qualificati.

Una guida simile potrebbe essere fornita mentre si cucina, si fa la spesa, si viaggia e, naturalmente, si socializza. Da notare che l’assistenza sarà consapevole del contesto.

Immagine che contiene occhiali, accessorio, occhiali da sole, occhialeDescrizione generata automaticamente

Meta: occhiali intelligenti (Wikimedia Commons)

La spilla wearable di Humane

Un’altra azienda di alto profilo che è entrata in questo spazio è Humane, che ha sviluppato una spilla indossabile con telecamere e microfoni. Il dispositivo viene commercializzato dall’inizio del 2024 e probabilmente catturerà l’immaginazione degli appassionati di tecnologia.

I sensori indossati sugli occhiali potrebbero essere più efficaci di quelli indossati sul corpo, perché rilevano la direzione dello sguardo dell’utente e possono anche aggiungere elementi visivi alla linea di vista. Oggi questi elementi sono semplici sovrapposizioni, ma nei prossimi cinque anni diventeranno esperienze di realtà mista ricche e coinvolgenti.

Immagine che contiene gadgetDescrizione generata automaticamente

Spilla indossabile Humane (Wikimedia Commons)

Indipendentemente dal fatto che questi assistenti AI consapevoli del contesto siano abilitati da occhiali sensorizzati, auricolari o spille, saranno ampiamente adottati nei prossimi anni. Questo perché offriranno potenti funzionalità, dalla traduzione in tempo reale di lingue straniere ai contenuti storici.

Ma soprattutto, questi dispositivi forniranno assistenza in tempo reale durante le interazioni sociali, ricordandoci i nomi dei colleghi che incontriamo per strada, suggerendoci cose divertenti da dire nei momenti di pausa delle conversazioni o persino avvertendoci quando l’interlocutore si sta infastidendo o annoiando in base a sottili indicazioni facciali o vocali (fino a microespressioni non percepibili dagli esseri umani ma facilmente rilevabili dall’AI).

I rischi dei nuovi assistenti AI

I rischi maggiori sono rappresentati dal modo in cui entità aziendali o governative potrebbero inserire la propria agenda, consentendo potenti forme di influenza conversazionale che ci indirizzano con contenuti personalizzati generati dall’AI per massimizzare l’impatto su ciascun individuo. Per informare il pubblico su questi rischi di manipolazione, la Responsible Metaverse Alliance ha recentemente pubblicato Privacy Lost.

Privacy Lost (2023) è un cortometraggio sui pericoli di manipolazione dell’AI

Assistenti AI, uno scenario inquietante?

Per molte persone, l’idea di permettere agli assistenti AI di sussurrare nelle loro orecchie è uno scenario inquietante che vorrebbero evitare. Il problema è che, una volta che una percentuale significativa di utenti verrà istruita da potenti strumenti di intelligenza artificiale, quelli di noi che rifiuteranno queste funzioni si troveranno in una posizione di svantaggio.

In effetti, il coaching dell’intelligenza artificiale entrerà probabilmente a far parte delle norme sociali di base della società: tutti coloro che incontreremo si aspetteranno di ricevere informazioni su di loro in tempo reale durante la conversazione. Potrebbe diventare scortese chiedere a qualcuno che lavoro fa o dove è cresciuto, perché queste informazioni appariranno semplicemente negli occhiali o verranno sussurrate all’orecchio.

E quando diremo qualcosa di intelligente o perspicace, nessuno saprà se l’abbiamo inventato noi o se stiamo semplicemente ripetendo ciò che ci sussurra l’assistente AI. Ci stiamo dirigendo verso un nuovo ordine sociale in cui non siamo solo influenzati dall’AI, ma effettivamente aumentati nelle nostre capacità mentali e sociali dagli strumenti di intelligenza artificlae forniti dalle aziende.

Questa tendenza tecnologica si può definire “mentalità aumentata”; con i recenti progressi, come i LLM context-aware, non ci sono più barriere tecniche.

Questa spinta da parte delle aziende potrebbe creare un pericoloso divario digitale tra chi può permettersi strumenti di potenziamento dell’intelligenza e chi no. O, peggio ancora, chi non può permettersi un abbonamento potrebbe essere spinto ad accettare annunci sponsorizzati attraverso un’aggressiva influenza conversazionale dell’intelligenza artificiale.

L’esigenza di una regolamentazione forte

Stiamo per entrare in un mondo in cui le aziende potranno letteralmente metterci in testa voci che influenzano le nostre azioni e opinioni. Questo è il problema della manipolazione dell’AI, ed è molto preoccupante. C’è urgentemente bisogno di una regolamentazione aggressiva dei sistemi di AI che “chiudono il cerchio” intorno ai singoli utenti in tempo reale, rilevando le nostre azioni personali e imprimendo al contempo un’influenza personalizzata.

Purtroppo, il recente ordine esecutivo sull’AI della Casa Bianca non ha affrontato la questione, mentre la recente legge sull’AI dell’UE (AI Act) l’ha solo sfiorata. Eppure, i prodotti di consumo progettati per guidarci durante la nostra vita stanno per invadere il mercato. La speranza è che i politici di tutto il mondo si concentrino sui pericoli unici dell’influenza conversazionale alimentata dall’AI, soprattutto se fornita da assistenti consapevoli del contesto. Solo se affronteranno questi problemi in modo ponderato, i consumatori potranno godere dei vantaggi della guida AI senza che questa porti la società su strade pericolose.

Articoli correlati

Articolo 1 di 3