AI generativa

Meta lancia la sua app AI, un assistente vocale personale disponibile ovunque



Indirizzo copiato

Costruita con il modello Llama 4, l’app consente interazioni vocali, generazione di immagini, suggerimenti personalizzati e integrazione con dispositivi come gli occhiali Ray-Ban Meta. Annunciata nel corso dell’evento LlamaCon, l’app è disponibile come piattaforma autonoma, oltre che integrata nei principali social di Meta

Pubblicato il 30 apr 2025



Meta Llama app

Meta ha annunciato, il 29 aprile nel corso dell’evento LlamaCon – il primo organizzato esclusivamente per sviluppatori AI – il lancio della prima versione della sua app AI: uno strumento progettato per offrire un’esperienza conversazionale, intelligente e personalizzata. Sviluppata con il modello Llama 4, l’app Meta AI rappresenta il primo passo verso la creazione di un’intelligenza artificiale che si adatta ai gusti, alle abitudini e ai contesti dell’utente.

L’app è ora disponibile come piattaforma autonoma, oltre che integrata nei principali social di Meta — WhatsApp, Instagram, Facebook e Messenger — ed è stata pensata per diventare il nuovo compagno vocale degli utenti, ovunque si trovino.

Appare ovvio che Meta sia la prima ad aggiungere una componente social al suo assistente AI. In tutto il settore, i chatbot AI e i social media stanno convergendo: X di Elon Musk si è già integrato strettamente con Grok. OpenAI sta pianificando di aggiungere un feed social a ChatGPT.


Funzionalità vocali e interazione naturale

Una delle principali novità è l’interazione vocale con l’AI, resa più fluida e naturale grazie alla tecnologia full-duplex, che permette all’assistente di parlare in modo più simile a una conversazione reale, senza dover leggere risposte scritte. Questa funzione può essere attivata o disattivata a piacimento ed è disponibile in USA, Canada, Australia e Nuova Zelanda.

L’assistente vocale può anche generare ed editare immagini, tutto attraverso un semplice scambio verbale o testuale. Un’icona sullo schermo segnala quando il microfono è in uso, garantendo trasparenza e controllo all’utente.


Un feed per scoprire e condividere

Meta AI introduce un Discover feed, una sezione in cui esplorare i migliori prompt usati da altri utenti, con la possibilità di modificarli e condividerli. Nulla viene pubblicato senza il consenso esplicito dell’utente. Il feed vuole essere un luogo di ispirazione collettiva, per sperimentare con l’intelligenza artificiale e scoprire nuove modalità d’uso.


Intelligenza personalizzata

Grazie a Llama 4 e all’esperienza di Meta nella personalizzazione delle piattaforme, l’app Meta AI è progettata per adattarsi all’utente. Può ricordare preferenze, come la passione per i viaggi o le lingue straniere, e fornire risposte più pertinenti attingendo alle informazioni che l’utente ha scelto di condividere tramite il proprio profilo Facebook o Instagram.

Se gli account sono collegati tramite l’Accounts Center, l’intelligenza artificiale sarà in grado di offrire un’esperienza ancora più raffinata e su misura. Le risposte personalizzate sono disponibili attualmente negli Stati Uniti e in Canada.


Integrazione con occhiali Ray-Ban Meta

Gli occhiali Ray-Ban Meta rappresentano uno dei dispositivi più innovativi dell’era dell’intelligenza artificiale. La nuova app Meta AI si fonde con l’app Meta View, consentendo agli utenti di iniziare una conversazione con l’assistente dagli occhiali e riprenderla successivamente sull’app o sul web.

In alcuni Paesi è possibile passare dalla conversazione vocale via occhiali a quella tramite app, anche se la direzione inversa — dall’app agli occhiali — al momento non è supportata. Tutti i dispositivi, impostazioni e contenuti precedenti saranno automaticamente trasferiti nella nuova scheda Devices dell’app.


Una versione desktop migliorata

L’esperienza Meta AI arriva anche sul web, con una versione ottimizzata per schermi di grandi dimensioni e per l’uso desktop. Include interazioni vocali, il Discover feed e una nuova esperienza di generazione di immagini, con opzioni avanzate per modificare stile, atmosfera, luce e colori.

Meta sta inoltre testando in alcuni Paesi un editor di documenti avanzato che consente di creare testi e immagini ed esportarli in PDF, oltre alla possibilità di importare documenti da far analizzare all’assistente AI.


Controllo totale per l’utente

L’app Meta AI è stata pensata per offrire un’interazione intuitiva e personalizzata. È possibile attivare il microfono con un solo tocco, anche durante altre attività sul dispositivo. Chi preferisce avere il comando vocale sempre attivo può abilitarlo dalle impostazioni tramite la funzione Ready to talk.

Meta sottolinea l’impegno nel mettere l’utente al centro, offrendo strumenti semplici per gestire l’esperienza e i propri dati, assicurando il pieno controllo delle funzionalità AI.


Un passo verso il futuro

Con questa app, Meta non si limita a lanciare un nuovo prodotto: apre la strada a un nuovo paradigma di interazione con l’intelligenza artificiale. Il rilascio della prima versione è solo l’inizio di un percorso che punta a rendere la tecnologia più personale, utile e integrata nella vita quotidiana.

Meta invita ora gli utenti a provare l’app, sperimentare, condividere feedback e contribuire così a costruire il futuro della sua AI.



Articoli correlati

Articolo 1 di 4