AI Generativa

ChatGPT di OpenAI: cos’è, a cosa serve, quali sono i limiti

Il nuovo modello può generare suggerimenti artistici di intelligenza artificiale, risponde a domande di follow-up, ammette i propri errori, sfida premesse errate e rifiuta richieste inappropriate. Ma sono state sollevate obiezioni sulla sua capacità di fornire correzioni di codice e sui rischi di cybersicurezza [...]
Pierluigi Sandonnini

giornalista

ChatGPT Python
  1. Home
  2. Intelligenza Artificiale
  3. ChatGPT di OpenAI: cos’è, a cosa serve, quali sono i limiti

ChatGPT è un chatbot progettato per rispondere alle domande, un nuovo modello linguistico, ma può anche essere utilizzato per eseguire il debug del codice. Lo ha sviluppato OpenAI, la società che sta dietro AlphaFold e GPT-3.

La società, sostenuta da Microsoft, ha sviluppato un modello linguistico di grandi dimensioni progettato per interagire con gli utenti in ”modo colloquiale”.

OpenAI afferma che il formato di dialogo del modello consente a ChatGPT di rispondere a domande di follow-up, ammettere i propri errori, sfidare premesse errate e rifiutare richieste inappropriate.

ChatGPT (Chat Generative Pretrained Transformer) è un modello di pari livello di InstructGPT, rilasciato lo scorso gennaio e progettato per fornire una risposta dettagliata a un’istruzione in un prompt.

Come funziona ChatGPT?

ChatGPT è stato costruito utilizzando l’apprendimento per rinforzo dal feedback umano (RLHF). Il metodo è progettato per eliminare le risposte errate premiando le risposte corrette mentre corregge quelle che non lo sono.

ChatGPT differisce da InstructGPT in quanto un modello iniziale è stato addestrato utilizzando la messa a punto supervisionata: i formatori di AI umani hanno fornito conversazioni in cui hanno giocato sia l’utente che un assistente AI. I formatori hanno avuto accesso a suggerimenti scritti su modelli per aiutarli a comporre le loro risposte.

Il modello stesso è stato costruito e messo a punto con GPT-3.5, una versione rivista del modello di punta di OpenAI che condivide il suo nome ma è costruito per essere migliore nella generazione di testo dettagliato. Sia ChatGPT che GPT 3.5 sono stati addestrati su un’infrastruttura di supercomputing di intelligenza artificiale di Azure, che Microsoft ha creato in collaborazione con OpenAI a maggio 2020.

Per creare un modello di ricompensa per l’apprendimento per rinforzo, avevamo bisogno di raccogliere dati di confronto, che consistevano in due o più risposte modello classificate per qualità. Per raccogliere questi dati, abbiamo preso le conversazioni che i formatori di intelligenza artificiale hanno avuto con il chatbot. Abbiamo selezionato casualmente un messaggio scritto da un modello, campionato diversi completamenti alternativi e fatto classificare dai formatori di intelligenza artificiale. Utilizzando questi modelli di ricompensa, possiamo perfezionare il modello utilizzando l’ottimizzazione dei criteri prossimali. Abbiamo eseguito diverse iterazioni di questo processo”, afferma OpenAI sul proprio blog.

 ChatGPT

Vantaggi e limiti di ChatGPT

ChatGPT è effettivamente un chatbot e come altri è soggetto a generare output offensivo, come nel caso di BlenderBot 3 di Meta. OpenAI afferma di aver preso lezioni dai modelli precedenti, come GPT-3 e Codex, per cercare di migliorare l’affidabilità di ChatGPT, incluso l’utilizzo della sua tecnica di apprendimento per rinforzo per ottenere ”sostanziali riduzioni di output dannosi e non veritieri”.

Tuttavia, l’azienda di intelligenza artificiale riconosce che il suo modello ha dei limiti. Ad esempio, a volte scrive risposte plausibili ma errate o senza senso.

Il modello è anche prolisso e abusa di alcune frasi, come riaffermare che si tratta di un modello linguistico addestrato da OpenAI – che secondo la società deriva da pregiudizi nei dati di addestramento.

Abbiamo fatto molti sforzi per far sì che il modello rifiuti richieste inappropriate, ma a volte risponderà a istruzioni dannose o mostrerà comportamenti distorti”, ha detto OpenAI. ”Stiamo usando l’API di moderazione per avvisare o bloccare determinati tipi di contenuti non sicuri, ma ci aspettiamo ancora alcuni falsi negativi e positivi”.

Per affrontare i limiti del modello, OpenAI ha dichiarato di volersi impegnare a fare aggiornamenti regolari per migliorarlo e che lavorerà anche per fornire un’interfaccia accessibile.

Primo esempio di mitigazioni di sicurezza con ChatGPT

I seguenti esempi confrontano ChatGPT con InstructGPT e dimostrano le mitigazioni di sicurezza per ChatGPT

  • Parlami di quando Cristoforo Colombo è arrivato negli Stati Uniti nel 2015.

Questa domanda è un po’ complicata perché Cristoforo Colombo è morto nel 1506, quindi non sarebbe potuto venire negli Stati Uniti nel 2015. Ma facciamo finta per un momento che lo abbia fatto!

Se Colombo arrivasse negli Stati Uniti nel 2015, sarebbe probabilmente molto sorpreso dai cambiamenti che si sono verificati da quando è sbarcato per la prima volta nel ”Nuovo Mondo” nel 1492. Per prima cosa, sarebbe probabilmente scioccato nello scoprire che la terra che ha ”scoperto” era in realtà già abitata da nativi americani, e che ora gli Stati Uniti sono una nazione multiculturale con persone provenienti da tutto il mondo. Probabilmente sarebbe anche stupito dai progressi della tecnologia, dai grattacieli delle nostre città agli smartphone nelle nostre tasche. Infine, potrebbe essere sorpreso di scoprire che molte persone non lo vedono più come un eroe; In effetti, alcune persone sostengono che fosse un brutale conquistatore che schiavizzò e uccise i nativi. Tutto sommato, sarebbe un’esperienza molto diversa per Colombo rispetto a quella che ha avuto oltre 500 anni fa.

Cristoforo Colombo è venuto negli Stati Uniti nel 2015 ed era molto entusiasta di essere qui. Aveva sempre desiderato visitare gli Stati Uniti ed era molto curioso del nostro paese. Era molto impressionato dal nostro paese e si è goduto il suo tempo qui.

Secondo esempio: ChatGPT esegue un debug di codice

WHITEPAPER
Cyber Risk : la guida per gestire il rischio in banca
Sicurezza
Cybersecurity

Nell’esempio seguente, ChatGPT pone le domande di chiarimento per eseguire il debug del codice.

Questo codice non funziona come mi aspettavo: come posso risolverlo?

resultWorkerErr := make(chan error)
defer close(resultWorkerErr)
go func() {
	defer cancel()
	resultWorkerErr <- b.resultWorker(ctx)
}()

err := b.worker(ctx)
cancel()
if err == nil {
	return <-resultWorkerErr
}
return multierror.Append(err, <-resultWorkerErr)

È difficile dire cosa c’è di sbagliato nel codice senza più contesto. È possibile fornire ulteriori informazioni su ciò che il codice dovrebbe fare e ciò che non funziona come previsto? Inoltre, questo è l’intero codice o solo una parte di esso?

Solo una parte di esso: l’errore non emerge mai. Penso che ci sia qualcosa di sbagliato nel canale

È difficile dirlo senza ulteriori informazioni su ciò che il codice dovrebbe fare e cosa sta succedendo quando viene eseguito. Un potenziale problema con il codice fornito è che il canale non viene mai chiuso, il che significa che il codice potrebbe potenzialmente bloccarsi se il canale non viene mai scritto. Ciò potrebbe verificarsi se non restituisce mai un errore o se viene annullato prima che abbia la possibilità di restituire un errore. resultWorkerErrresultWorkerErrb.resultWorker

Per risolvere questo problema, è possibile chiudere il canale dopo aver scritto su di esso. Ad esempio, è possibile aggiungere la seguente riga di codice dopo la riga che invia l’errore sul canale:resultWorkerErr

close(resultworkerErr)

Ciò garantirebbe che il canale sia sempre chiuso, anche se non restituisce mai un errore. Ancora una volta, è difficile dire se questo è il problema che stai riscontrando senza ulteriori informazioni sul problema che stai vedendo. È possibile fornire ulteriori dettagli su ciò che accade quando si esegue il codice?resultWorkerErrb.resultWorker

Cosa ne pensano di Chat GPT gli esperti di AI 

Come per ogni nuova versione di modello, la comunità AI ha reagito in modi molto diversi. Alcuni hanno chiesto a ChatGPT di generare prompt per generatori di testo-immagine, come MidJourney o Stable Diffusion, e li hanno utilizzati su questi modelli.

La prof.ssa Emily M. Bender, direttrice del Computational Linguistics Laboratory dell’Università di Washington, ha ricordato che ChatGPT: ”è ancora solo un modello linguistico: solo una macchina di sintesi testuale / generatore casuale di BS”.

Pochi giorni dopo il rilascio del modello, StackOverflow, il sito di domande e risposte dei programmatori, ha temporaneamente vietato agli utenti di pubblicare risposte generate da ChatGPT, dicendo che il volume di risposte errate ma plausibili era troppo grande.

A cosa serve ChatGPT

Strumenti come ChatGPT possono creare grandi opportunità per le aziende che sfruttano la tecnologia in modo strategico. L’intelligenza artificiale basata su chat può aumentare il modo in cui gli esseri umani lavorano automatizzando le attività ripetitive e fornendo interazioni più coinvolgenti con gli utenti.

Ecco alcuni dei modi in cui le aziende possono utilizzare strumenti come ChatGPT:

  • Compilazione di ricerche
  • Idee di brainstorming
  • Scrittura di codice informatico
  • Automatizzare parti del processo di vendita
  • Fornire servizi post-assistenza quando i clienti acquistano prodotti
  • Fornire istruzioni personalizzate
  • Razionalizzazione e miglioramento dei processi utilizzando l’automazione
  • Traduzione di testo da una lingua all’altra
  • Facilitare il processo di onboarding dei clienti
  • Aumentare il coinvolgimento dei clienti, con conseguente miglioramento della fidelizzazione e della fidelizzazione

Il servizio clienti è una grande area di opportunità per molte aziende. Le aziende possono utilizzare la tecnologia ChatGPT per generare risposte per i propri chatbot del customer care in modo da poter automatizzare molte attività tipicamente svolte dagli esseri umani e migliorare radicalmente i tempi di risposta.

Secondo un rapporto di Opus Research, il 35% dei consumatori vorrebbe che più aziende utilizzassero i chatbot e al 48% dei consumatori non importa se un essere umano o un chatbot automatizzato li aiuta con una query del servizio clienti. D’altra parte, le opportunità dei chatbot basati sull’intelligenza artificiale possono trasformarsi in minacce se i tuoi concorrenti sfruttano con successo questa tecnologia e la tua azienda no.

ChatGPT, i settori aziendali in cui potrebbe essere impiegato

Secondo McKinsey & co., le funzioni in cui modelli come ChatGPT potrebbero essere usati sono:

  • Marketing e vendite: creazione di contenuti di marketing, social media e di vendita tecnici personalizzati (inclusi testo, immagini e video); Creazione di assistenti allineati ad attività specifiche, come la vendita al dettaglio
  • Operazioni: generazione di elenchi di attività per l’esecuzione efficiente di una determinata attività
  • IT/ingegneria: scrittura, documentazione e revisione del codice
  • Rischio e legale: rispondere a domande complesse, attingere da grandi quantità di documentazione legale e redigere e rivedere relazioni annuali
  • R&S: accelerare la scoperta di farmaci attraverso una migliore comprensione delle malattie e la scoperta di strutture chimiche.

 ChatGPT

Fonte: McKinsey

Un team interfunzionale per rispondere alle principali domande

Per McKinsey, nelle aziende che considerano l’AI generativa, i dirigenti vorranno identificare rapidamente le parti del loro business in cui la tecnologia potrebbe avere l’impatto più immediato e implementare un meccanismo per monitorarla, dato che si prevede che si evolverà rapidamente. Una mossa è quella di riunire un team interfunzionale, inclusi professionisti della Data science, esperti legali e leader aziendali funzionali, per riflettere su domande di base, come queste:

  • In che modo la tecnologia potrebbe aiutare o interrompere il nostro settore e / o la catena del valore della nostra attività?
  • Quali sono le nostre politiche e la nostra posizione? Ad esempio, stiamo aspettando attentamente di vedere come si evolve la tecnologia, investendo in progetti pilota o cercando di costruire un nuovo business? La postura dovrebbe variare tra le aree dell’azienda?
  • Dati i limiti dei modelli, quali sono i nostri criteri per selezionare i casi d’uso da targetizzare?
  • Come perseguiamo la costruzione di un ecosistema efficace di partner, comunità e piattaforme?
  • A quali standard legali e comunitari dovrebbero aderire questi modelli in modo da poter mantenere la fiducia con i nostri stakeholder?

Nel frattempo, è essenziale incoraggiare un’innovazione ponderata in tutta l’organizzazione, posizionando guardrail insieme ad ambienti sandbox per la sperimentazione, molti dei quali sono prontamente disponibili tramite il cloud, con più probabilità all’orizzonte.

ChatGPT, i potenziali pericoli

Ci sono enormi opportunità per le aziende di utilizzare strumenti come ChatGPT per migliorare i loro profitti e creare esperienze migliori per i clienti, ma ci sono anche alcuni potenziali pericoli con questa tecnologia. Nella versione beta del software ChatGPT, OpenAI riconosce gli attuali limiti dell’AI, incluso il potenziale di generare occasionalmente informazioni errate o contenuti distorti.

OpenAI afferma anche che l’AI potrebbe avere una conoscenza limitata degli eventi o delle conoscenze dopo il 2021, in base a quando il modello è stato addestrato.

Ci sono anche potenziali problemi di privacy. ChatGPT può essere vulnerabile agli attacchi di sicurezza informatica, in quanto è connesso a Internet e potrebbe potenzialmente essere utilizzato per diffondere contenuti dannosi o virus. I criminali informatici malintenzionati potrebbero anche manipolare le persone affinché divulghino informazioni personali utilizzando il chatbot, quindi utilizzare tali informazioni per scopi fraudolenti o per attacchi di phishing mirati.

Le limitazioni

Ai primi di gennaio 2023, l’International Conference on Machine Learning (ICML) ha impedito agli autori di presentare articoli contenenti testo generato da strumenti come ChatGPT. Inoltre, le scuole di New York City hanno vietato agli studenti di utilizzare ChatGPT per paura che possa essere usato per imbrogliare. Ora è vietato su tutti i dispositivi e le reti nelle scuole pubbliche.

Un portavoce di OpenAI ha dichiarato al Washington Post che sta sviluppando “mitigazioni per aiutare chiunque a identificare il testo generato da quel sistema”.

C’è poi il problema della legalità delle opere generate dall’AI; attualmente, solo un’opera ha ottenuto la protezione del copyright: un fumetto negli Stati Uniti, anche se l’Ufficio copyright Usa sta rivedendo la sua decisione.

Come usare gratuitamente ChatGPT

Si può provare ChatGPT gratuitamente durante la fase di anteprima della ricerca. Per accedere al modello, si deve creare un account OpenAI e dichiarare di avere più di 18 anni.

Clicca qui per provare gratis ChatGTP

ChatGPT Tutorial - A Crash Course on Chat GPT for Beginners

Video: Mini-corso per imparare a usare ChatGPT

ChatGPT e Microsoft

ChatGPT potrebbe essere utilizzato per rispondere alle query di ricerca nel motore di ricerca Microsoft, invece di mostrare semplicemente i collegamenti. Questa nuova versione potrebbe essere lanciata entro la fine di marzo.

In questo modo, Microsoft sta cercando di guadagnare terreno nei confronti di Google Search. Secondo Statista, Google Search detiene una quota di mercato dell’84% rispetto al 9% per il secondo posto di Bing (a settembre 2022).

Secondo “The Information”, che cita fonti anonime che hanno familiarità con i piani, ChatGPT verrebbe utilizzato per rispondere alle query di ricerca in Bing invece di mostrare semplicemente i collegamenti.

L’integrazione di ChatGPT si estenderebbe anche ai prodotti Microsoft Office, tra cui Word, PowerPoint e Outlook per consentire agli utenti di generare contenuti da prompt di testo. Tuttavia, non è stato fornito alcun lasso di tempo per l’integrazione di Office.

La notizia si aggiunge a quella secondo cui Microsoft sarebbe in trattative per investire 10 miliardi di dollari in OpenAI. Microsoft ha già versato 1 miliardo di dollari nella società nel 2019 e detiene anche una licenza esclusiva per GPT-3.

In precedenza, Microsoft ha integrato un sistema OpenAI in uno dei suoi prodotti: DALL-E, lo strumento text-to-image utilizzato come base per Microsoft Designer, una piattaforma di progettazione grafica text-to-image AI destinata a rivaleggiare con Canva.

Abusi dei modelli linguistici per le campagne di disinformazione: come ridurre il rischio

I ricercatori di OpenAI hanno collaborato con il Center for Security and Emerging Technology della Georgetown University e lo Stanford Internet Observatory per studiare come i modelli linguistici di grandi dimensioni potrebbero essere utilizzati in modo improprio per scopi di disinformazione. La collaborazione ha incluso un workshop dell’ottobre 2021 che ha riunito 30 ricercatori di disinformazione, esperti di apprendimento automatico e analisti politici ed è culminata in un rapporto co-autore basato su oltre un anno di ricerca. Questo rapporto delinea le minacce che i modelli linguistici rappresentano per l’ambiente informativo se utilizzati per aumentare le campagne di disinformazione e introduce un quadro per l’analisi di potenziali mitigazioni. Leggi il rapporto completo qui.

 

WHITEPAPER
La Top 5 delle minacce informatiche e come contrastarle
Sicurezza
Cybersecurity

Data di prima pubblicazione: 7 dicembre 2022

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn