attualità

OpenAI posticipa il lancio dell’assistente vocale per ChatGPT



Indirizzo copiato

Il Voice mode era previsto inizialmente per giugno. L’azienda ha citato la necessità di ulteriori test di sicurezza. Le funzionalità, tra cui la lettura della voce e delle emozioni, saranno disponibili in autunno per gli utenti paganti

Pubblicato il 28 giu 2024




OpenAI ritarda il lancio dell’assistente vocale, perché è necessario più tempo per i test di sicurezza. La società di intelligenza artificiale aveva pianificato di rilasciare nuove funzionalità vocali per ChatGPT nel mese di giugno, ma ha annunciato che un rilascio generale avverrà invece in autunno. L’azienda aveva mostrato per la prima volta gli strumenti in una demo a maggio, suscitando entusiasmo tra gli utenti di ChatGPT — ma anche la minaccia di una causa legale da parte dell’attrice Scarlett Johansson, che ha affermato che l’azienda ha copiato la sua voce per una delle sue personalità artificiali.

Le funzionalità vocali di ChatGPT saranno disponibili a tutti in autunno

OpenAI aveva inizialmente pianificato di offrire le nuove funzionalità ad alcuni abbonati paganti a fine giugno, ma sta posticipando quel rilascio iniziale di un mese, ha detto l’azienda in una dichiarazione su X. Le funzionalità saranno disponibili per tutti gli utenti paganti in autunno, ha aggiunto l’azienda, precisando però che “le tempistiche esatte dipendono dal raggiungimento dei nostri elevati standard di sicurezza e affidabilità.” OpenAI aveva aggiunto per la prima volta la capacità per ChatGPT di parlare con una delle diverse voci sintetiche, o “personalità,” alla fine dello scorso anno.

OpenAI ha dichiarato che necessita di tempo extra per migliorare la nuova versione vocale del suo chatbot nel riconoscere e bloccare alcuni contenuti senza divulgare dettagli specifici. Molti strumenti AI sono stati criticati per aver inventato informazioni false, diffuso contenuti razzisti o sessisti o mostrato pregiudizi nei loro output. Progettare un chatbot che tenta d’interpretare e imitare le emozioni aumenta la complessità delle sue interazioni, aprendo nuovi modi affinché qualcosa possa andare storto.

“Il Voice Mode avanzato di ChatGPT può comprendere e rispondere con emozioni e segnali non verbali, avvicinandoci sempre più a conversazioni naturali in tempo reale con l’AI,” ha dichiarato OpenAI. “La nostra missione è portare queste nuove esperienze a voi in modo ponderato.”

La vicenda di Scarlett Johansson

La demo di maggio utilizzava una di quelle voci per mostrare un sistema AI più avanzato chiamato GPT-4o che permette al chatbot di parlare con toni espressivi, rispondere al tono della voce e alle espressioni facciali della persona e avere conversazioni più complesse. Una delle voci, che OpenAI chiama Sky, somiglia alla voce del bot AI interpretato dalla Johansson nel film del 2013 “Her,” su un uomo solitario che si innamora del suo assistente AI. Il CEO di OpenAI, Sam Altman ha negato che l’azienda abbia addestrato il bot sulla voce della Johansson.

Il Washington Post ha riportato il mese scorso che l’azienda ha assunto un altro attore per fornire audio d’addestramento, secondo documenti interni e interviste con direttori del casting e l’agente dell’attore. Mentre le più grandi aziende tecnologiche del mondo e startup come OpenAI corrono a competere nell’intelligenza artificiale generativa, diversi progetti hanno incontrato ostacoli imprevisti.

Articoli correlati

Articolo 1 di 3