News

Perché DeepMind non sta implementando Sparrow

La consociata britannica della società madre di Google Alphabet afferma che il nuovo chatbot AI è un “agente di dialogo utile e riduce il rischio di risposte non sicure e inappropriate” ma è un modello proof-of-concept

Pubblicato il 27 Set 2022

Sparrow_Header

Il nuovo chatbot di intelligenza artificiale (AI) di DeepMind, Sparrow, viene salutato come un passo importante verso la creazione di sistemi di apprendimento automatico (ML) più sicuri e meno prevenuti, grazie alla sua applicazione dell’apprendimento per rinforzo basato sull’input dei partecipanti alla ricerca umana per la formazione. La consociata britannica della società madre di Google Alphabet afferma che Sparrow è un “agente di dialogo utile e riduce il rischio di risposte non sicure e inappropriate”. L’agente è progettato per “parlare con un utente, rispondere alle domande e cercare su Internet utilizzando Google quando è utile cercare prove per informare le sue risposte”.

Tuttavia, DeepMind considera Sparrow un modello proof-of-concept basato sulla ricerca che non è pronto per essere implementato, ha affermato Geoffrey Irving, ricercatore sulla sicurezza presso DeepMind e autore principale del documento che introduce Sparrow.

“Non abbiamo implementato il sistema perché pensiamo che abbia molti pregiudizi e difetti di altri tipi”, ha detto Irving. “Penso che la domanda sia: come valuti i vantaggi della comunicazione – come comunicare con gli umani – rispetto agli svantaggi? Tendo a credere nelle esigenze di sicurezza di parlare con gli esseri umani… Penso che sia uno strumento per questo a lungo termine”.

Irving ha anche osservato che non valuterà ancora il possibile percorso per le applicazioni aziendali che utilizzano Sparrow, se alla fine sarà più utile per gli assistenti digitali generali come Google Assistant o Alexa o per specifiche applicazioni verticali.

DeepMind affronta le difficoltà del dialogo

Una delle principali difficoltà con qualsiasi AI conversazionale riguarda il dialogo, ha detto Irving, perché c’è così tanto contesto che deve essere considerato.

“Un sistema come AlphaFold di DeepMind è incorporato in un chiaro compito scientifico, quindi hai dati come l’aspetto della proteina piegata e hai una nozione rigorosa di quale sia la risposta, ad esempio se avessi la forma giusta”, ha detto. Ma nei casi generali, “hai a che fare con domande labili e umane – non ci sarà una definizione completa di successo”.

Per affrontare questo problema, DeepMind si è rivolto a una forma di apprendimento per rinforzo basata sul feedback umano. Ha utilizzato le preferenze dei partecipanti allo studio a pagamento (utilizzando una piattaforma di crowdsourcing) per addestrare un modello su quanto sia utile una risposta.

Pregiudizi nel “ciclo umano”

Eugenio Zuccarelli, scienziato dei dati sull’innovazione presso CVS Health e ricercatore presso il MIT Media Lab, sottolinea che potrebbero esserci ancora pregiudizi nel “ciclo umano” – dopo tutto, ciò che potrebbe essere offensivo per una persona potrebbe non essere offensivo per un’altra.

Zuccarelli, nativo di Genova, ha aggiunto che gli approcci basati su regole potrebbero rendere le regole più rigorose, ma mancano di scalabilità e flessibilità. “È difficile codificare ogni regola a cui possiamo pensare, specialmente con il passare del tempo, queste potrebbero cambiare e la gestione di un sistema basato su regole fisse potrebbe impedire la nostra capacità di scalare”, ha affermato. “Sarebbero preferibili soluzioni flessibili in cui le regole vengono apprese direttamente dal sistema e regolate automaticamente con il passare del tempo.” Infine, Zuccarelli ritiene che Sparrow sia “sicuramente un passo nella giusta direzione”, aggiungendo che l’AI responsabile deve diventare la norma.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4