CONNESSIONI SINTETICHE

Google Bard introduce il double-check per l’accuratezza delle risposte



Indirizzo copiato

Disponibile solo per ricerche in lingua inglese, verrà presto estesa a tutti gli account. Quando Bard genera una risposta o una soluzione, l’utente avrà a disposizione un nuovo pulsante “G”, che offrirà la possibilità di effettuare una ricerca aggiuntiva per verificare la risposta fornita

Pubblicato il 9 ott 2023

Gioele Fierro

CEO e Founder Promezio Engineering




Bard double-check

Google sta lavorando a interessanti soluzioni per migliorare l’attendibilità delle risposte generate dalla sua intelligenza artificiale, Bard. Al fine di garantire la qualità e l’affidabilità dei testi prodotti, Bard ha introdotto una nuova funzionalità, chiamata “double-check”, che fa uso delle informazioni disponibili sul web per verificare le risposte. Questo nuovo strumento potrebbe avere un impatto significativo sulla fiducia che gli utenti riporranno nei contenuti generati dall’intelligenza artificiale.

Il dubbio e la fiducia sono strettamente correlati tra loro, infatti. Prima di definire affidabile un’informazione abbiamo bisogno di controllarla, di verificare l’attendibilità delle fonti e magari di soppesare pareri diversi sullo stesso argomento. Ma quando le persone interagiscono con le macchine, le cose cambiano. Esiste il bias dell’automazione, ossia quel fenomeno che porta gli utenti a considerare le risposte generate da un computer come corrette e ottimali. La realtà, però, è ben diversa: le AI generative hanno diversi problemi di affidabilità, e possono avere “allucinazioni” che le portano a dare risposte parziali, errate o, in alcuni casi, totalmente inventate.

Come funziona il double-check di Bard

Il double-check di Google Bard è una nuova specifica introdotta da Google per migliorare la precisione e l’affidabilità delle risposte fornite da Bard, la sua AI generativa. Questa funzionalità utilizza la forza principale di Google: l’accesso diretto a un enorme dataset indicizzato di informazioni presenti su internet. Al momento questa nuova feature è disponibile solo per ricerche in lingua inglese, ma verrà presto estesa a tutti gli account.

Ecco come funziona il double-check di Google Bard:

Risposta iniziale: quando Bard genera una risposta o una soluzione, l’utente avrà a disposizione un nuovo pulsante “G”. Tale pulsante offrirà la possibilità di effettuare una ricerca aggiuntiva per verificare la risposta fornita da Bard.

  • Risposta evidenziata in verde: risposta confermata. Ci sono fonti affidabili che supportano la risposta data da Bard.
  • Risposta senza evidenziazione: né conferme né smentite online. È come se Bard dicesse “no comment.” Potrebbe essere una risposta per la quale non è possibile reperire informazioni chiare online.
  • Risposta evidenziata in arancione: risposta dubbia; alcune pagine internet esprimono forti dubbi o suggeriscono un possibile errore nella risposta di Bard.

L’utente ha la possibilità di cliccare su ciascuna delle risposte evidenziate, sia in verde che in arancione, per essere reindirizzato a una nuova finestra del browser. In questa nuova finestra, l’utente può visualizzare direttamente le fonti online che confermano o smentiscono la risposta di Bard. Questo permette di esaminare in prima persona le fonti per fare una valutazione personale delle varie opinioni sul tema e, di conseguenza, stimare l’affidabilità della risposta generata dall’intelligenza artificiale.

Il double-check di Google Bard è uno strumento che assicura agli utenti un maggiore controllo e una maggiore trasparenza sulle risposte generate dall’intelligenza artificiale. Permette loro di verificare autonomamente la validità delle risposte esaminando le fonti e le varie opinioni sul tema, per prendere decisioni informate.

La fiducia degli utenti: la prossima sfida per le AI generative

La fiducia degli utenti rappresenta un fattore cruciale per l’avanzamento dell’intelligenza artificiale. È necessario individuare un nuovo equilibrio tra dubbio e fiducia, superando il bias dell’automazione attraverso una maggiore consapevolezza, e migliorando l’architettura delle AI per fornire agli utenti nuovi strumenti per garantire l’affidabilità. Senza fiducia, sarà impossibile applicare l’AI a scenari quotidiani che richiedono interazione, collaborazione e decisione. Ma questa fiducia non è scontata, dev’essere guadagnata attraverso la dimostrazione di attendibilità, trasparenza e responsabilità degli strumenti basati sull’AI.

L’era di internet è stata una rivoluzione senza precedenti per la comunicazione globale. Ma con il progresso tecnologico sono emerse nuove sfide, tra cui la diffusione rampante di disinformazione e la manipolazione delle masse attraverso contenuti distorti. L’avvento dell’intelligenza artificiale ha suscitato sia speranze che preoccupazioni in merito a questa problematica. L’AI potrebbe essere sia parte del problema che parte della soluzione, a seconda di come viene utilizzata e regolamentata. Se da una parte l’AI può essere utilizzata per creare contenuti falsi e ingannevoli in modo più sofisticato rispetto alle persone, dall’altra parte può anche essere utilizzata per sviluppare strumenti avanzati per la verifica e la correzione delle informazioni.

Gli sviluppatori e i fornitori di AI hanno un ruolo cruciale in questo contesto. Devono impegnarsi a creare soluzioni etiche, sicure e rispettose dei diritti umani. Questo include l’adozione di principi chiari di responsabilità nell’uso dell’AI e la trasparenza nella creazione e nell’addestramento degli algoritmi.

Descrizione generata automaticamente

Le AI che dubitano di se stesse

È essenziale che le AI generative acquisiscano la capacità di dubitare di se stesse, poiché questa caratteristica contribuisce in modo significativo a migliorare l’affidabilità e la qualità delle informazioni che offrono agli utenti.

L’abilità di esprimere incertezza è un elemento cruciale nella comunicazione umana, e lo è in egual misura per le intelligenze artificiali. Quando un sistema IA è in grado di riconoscere e segnalare la sua incertezza su una risposta o la presenza di dati di ingresso incerti, si apre la porta a un dialogo più trasparente e informativo. Gli utenti possono così essere avvisati quando una risposta potrebbe non essere completamente accurata o potrebbe richiedere ulteriori verifiche.

Ciò favorisce la fiducia degli utenti nell’intelligenza artificiale e promuove una collaborazione più efficace tra l’AI e le persone, consentendo loro di prendere decisioni più informate, basate su una comprensione più chiara delle informazioni disponibili.

Articoli correlati

Articolo 1 di 4