AI Generativa

ChatGPT di OpenAI: tutto sul chatbot più famoso al mondo



Indirizzo copiato

Il nuovo modello linguistico può generare suggerimenti artistici di intelligenza artificiale, risponde a domande di follow-up, ammette i propri errori, sfida premesse errate e rifiuta richieste inappropriate. Ma sono state sollevate obiezioni sulla capacità di questa AI generativa di fornire correzioni di codice e sui rischi di cybersicurezza

Aggiornato il 20 giu 2024




ChatGPT cioè Chat Generative Pretrained Transformer è un modello di pari livello di InstructGPT e progettato per fornire una risposta dettagliata a un’istruzione in un prompt.

ChatGPT è un modello linguistico sotto forma di chatbot, in grado di rispondere alle domande ma può anche essere utilizzato per eseguire il debug del codice. Lo ha sviluppato OpenAI, la società, sostenuta da Microsoft e che sta dietro AlphaFold e GPT-3.

ChatGPT risponde a domande di follow-up, ammette i propri errori, sfida premesse errate e rifiuta richieste inappropriate. Questo fino a ieri. Oggi con la versione ChatGPT-4o, dove la o sta per omni, parola latina che significa tutto, l’AI compie un ulteriore passo in avanti verso l’umanizzazione.

Intelligenza artificiale per l’Italia

Indice degli argomenti:

ChatGPT-4o, l’ultima sfida di OpenAi: umanizzare il chatbot

ChatGPT-4o presentato da OpenAI il 13 maggio 2024, rappresenta un passo significativo verso un’interazione uomo-computer più naturale e intuitiva.

Questo modello di intelligenza artificiale rivoluzionario abilita una comunicazione fluida e versatile attraverso la combinazione di testo, audio, immagini e video. In più riesce a riconoscere le emozioni umane e a interagire in maniera naturale. E OpenAI ha promesso che sarà gratuito per tutti.

Tra le sue caratteristiche principali troviamo:

  • Risposte audio rapide: ChatGPT-4o reagisce agli input audio in tempi brevissimi, con una latenza media di soli 320 millisecondi, simile al tempo di risposta umano in una conversazione.
  • Prestazioni elevate su testo e codice: il modello eguaglia le prestazioni di GPT-4 Turbo su testo in inglese e codice, mostrando un notevole miglioramento su testi in lingue non inglesi.
  • Comprensione avanzata di audio e immagini: ChatGPT-4o eccelle nella comprensione di audio e immagini rispetto ai modelli precedenti, aprendo nuove possibilità per l’interazione uomo-macchina.
  • Sicurezza integrata: la sicurezza è un elemento fondamentale di ChatGPT-4o. Il modello è stato progettato con diverse misure di sicurezza integrate, tra cui il filtraggio dei dati di training e il perfezionamento del comportamento post-training. Sono stati inoltre implementati nuovi sistemi di sicurezza per le uscite audio.

Tuttavia, è importante sottolineare che ChatGPT-4o è ancora in fase di sviluppo e presenta alcune limitazioni. Ad esempio, le uscite audio sono attualmente limitate a una selezione di voci preimpostata. Gli sviluppatori stanno lavorando per rilasciare le altre modalità nel corso delle prossime settimane e mesi, con particolare attenzione alla sicurezza e all’usabilità.

Cos’è ChatGPT di OpenAI e quando nasce

Per rispondere alla domanda: cos’è ChatGPT, dobbiamo fare un passo indietro, fino a novembre 2022 quando la startup OpenAI, allora sconosciuta, stregò il mondo presentando ChatGPT.

Cioè un modello di linguaggio di grandi dimensioni che si basa sul modello linguistico GPT-3.5 e si distingue per la sua capacità di interagire con gli utenti in modo conversazionale, rispondendo alle domande in modo completo e informativo, anche se aperte, impegnative o strane.

Cosa si può chiedere a ChatGPT

Oltre a rispondere alle domande, ChatGPT può essere utilizzato per:

  • Generare diversi formati di testo creativi, come poesie, codice, script, brani musicali, e-mail, lettere, ecc.
  • Tradurre lingue.
  • Scrivere diversi tipi di contenuti creativi.
  • Rispondere alle tue domande in modo informativo, anche se aperte, impegnative o strane.
  • Seguire le tue istruzioni e completare le tue richieste con attenzione.

Ci sono tantissime cose che possiamo chiedere, per avere risposte utili.

In sostanza possiamo usarlo sia per avere informazioni in modo diretto (più diretto rispetto a un motore di ricerca) sia per aiutarci a scrivere qualcosa.

Esempi di utilizzo:

  • Richiesta di informazioni di base – ChatGPT può aiutarvi a ottenere informazioni di base su qualsiasi cosa. Ad esempio, potete usare ChatGPT per semplici ricette.
  • Scrivere un saggio o un riassunto su qualsiasi argomento – Chat GPT può aiutare a scrivere un saggio su quasi tutti gli argomenti.
  • Scrivere una canzone o poesia su qualsiasi argomento.
  • Scrivere un’e-mail in uno stile definito.
  • Scrivere una sceneggiatura cinematografica.
  • Scrivere un codice.
  • Eseguire il debug del codice.
  • Chiedete consigli su qualsiasi cosa: turismo, diete…

Consigli per l’uso di ChatGPT

  1. Meglio essere specifici. Come spiega Bloomberg, se chiediamo ChatGPT “Che cos’è il marxismo?”, per esempio, avremo risposta passabile, probabilmente non migliore di quella su Wikipedia o Google. Invece, rendete la domanda più specifica: “Quali sono stati gli sviluppi importanti del marxismo francese nella seconda metà del XIX secolo?”. ChatGPT farà molto meglio, ed è anche il tipo di domanda a cui è difficile rispondere con Google e Wikipedia.
  2. ChatGPT farà ancora meglio se gli farete domande una dopo l’altra, per approfondire o spiegare meglio punti specifici. Chiedetegli informazioni sugli specifici marxisti francesi che cita, su cosa facevano e su come si differenziavano dalle loro controparti tedesche.
  3. ChatGPT è particolarmente bravo nel “confronto e nella contrapposizione”. In sostanza, ChatGPT ha bisogno lo indirizziamo bene. Una domanda ben fatta gli dà più punti di riferimento fissi. Dovete impostare l’atmosfera, il tono e il livello intellettuale della vostra domanda, a seconda del tipo di risposta che desiderate.
  4. Un altro modo per affinare le capacità di ChatGPT è quello di chiedere risposte con la voce di una terza persona. Se chiediamo: “Quali sono i costi dell’inflazione?”, potreste ottenere risposte che non sono esattamente sbagliate, ma nemmeno tanto interessante. Più interessante: “Quali sono i costi dell’inflazione? Rispondete utilizzando le idee di Milton Friedman”.

Limiti di ChatGPT

ChatGPT è effettivamente un chatbot e come altri è soggetto a generare output errati (allucinazioni) o offensivi, come nel caso di BlenderBot 3 di Meta.

OpenAI afferma di aver preso lezioni dai modelli precedenti, come GPT-3 e Codex, per cercare di migliorare l’affidabilità di ChatGPT, incluso l’utilizzo della sua tecnica di apprendimento per rinforzo per ottenere ”sostanziali riduzioni di output dannosi e non veritieri”. Ha applicato anche filtri etici per limitare hate speech e disinformazione.

Tuttavia, l’azienda di intelligenza artificiale riconosce che il suo modello ha dei limiti. Ad esempio, a volte scrive risposte plausibili ma errate o senza senso. Ha problemi anche nel fare calcoli.

Le allucinazioni del modello linguistico GPT

A volte ha quelle che gli esperti chiamano “allucinazioni”, confondendo realtà con fantasia. GPT coglie infatti, come detto, i rapporti statistici tra le parole; ma non ha contezza dei rapporti tra parole e il mondo. Non conosce né capisce insomma, davvero, ciò che scrive.

Può alimentare così la disinformazione, ad esempio in ambito medico o politico, come rilevato da molti esperti, nonostante i filtri presenti.

OpenAi prova a superare le allucinazioni di GPT-3

Il modello è anche prolisso, tende ad avere uno stile piatto e abusa di alcune frasi, come riaffermare che si tratta di un modello linguistico addestrato da OpenAI – che secondo la società deriva da pregiudizi nei dati di addestramento.

OpenAI afferma anche che l’AI potrebbe avere una conoscenza limitata degli eventi o delle conoscenze dopo il 2021, in base a quando il modello è stato addestrato.

Abbiamo fatto molti sforzi per far sì che il modello rifiuti richieste inappropriate, ma a volte risponderà a istruzioni dannose o mostrerà comportamenti distorti”, ha detto OpenAI. ”Stiamo usando l’API di moderazione per avvisare o bloccare determinati tipi di contenuti non sicuri, ma ci aspettiamo ancora alcuni falsi negativi e positivi”.

Per affrontare i limiti del modello, OpenAI ha dichiarato di volersi impegnare a fare aggiornamenti regolari per migliorarlo e che lavorerà anche per fornire un’interfaccia accessibile.

Cosa ne pensano di ChatGPT gli esperti di AI

Come per ogni nuova versione di modello, la comunità AI ha reagito in modi molto diversi. Alcuni hanno chiesto a ChatGPT di generare prompt per generatori di testo-immagine, come MidJourney o Stable Diffusion, e li hanno utilizzati su questi modelli.

La prof.ssa Emily M. Bender, direttrice del Computational Linguistics Laboratory dell’Università di Washington, ha ricordato che ChatGPT: ”è ancora solo un modello linguistico: solo una macchina di sintesi testuale / generatore casuale di BS”.

Pochi giorni dopo il rilascio del modello, StackOverflow, il sito di domande e risposte dei programmatori, ha temporaneamente vietato agli utenti di pubblicare risposte generate da ChatGPT, dicendo che il volume di risposte errate ma plausibili era troppo grande.

Al WAICF 2023, l’evento annuale dedicato all’intelligenza artificiale che si tiene a Cannes, alcuni scienziati hanno criticato ChatGPT, ridimensionandone la portata e parlando addirittura di “illusione”.

Come usare gratuitamente ChatGPT

Si può provare ChatGPT gratuitamente durante la fase di anteprima della ricerca. Per accedere al modello, si deve creare un account OpenAI e dichiarare di avere più di 18 anni.

Con la versione gratuita è possibile ora accedere al nuovo modello, con un limite di utilizzo orario (superato il limite si userà il modello 3.5) e alcune funzioni bloccate (come la generazione di immagini).

Come iniziare a usare Chat GPT: un breve corso

ChatGPT Tutorial - A Crash Course on Chat GPT for Beginners

ChatGPT a pagamento

La versione a pagamento si chiama ChatGPT Plus costa 20 dollari al mese chiamata ChatGPT Plus. Per un uso senza attesa e senza limiti di caratteri.

ChatGPT e Bing di Microsoft

ChatGPT può essere utilizzato per rispondere in modo sintetico alle query di ricerca nel motore di ricerca Bing di Microsoft, invece di mostrare semplicemente i collegamenti.

In questo modo, Microsoft sta cercando di guadagnare terreno nei confronti di Google Search. Secondo Statista, Google Search detiene una quota di mercato dell’84% rispetto al 9% per il secondo posto di Bing (a settembre 2022).

Microsoft ha incorporato la tecnologia di OpenAI anche in Edge, il suo browser web, come una sorta di assistente di scrittura superpotenziato. Gli utenti possono ora aprire un pannello in Edge, digitare un argomento generico e ottenere un paragrafo, un post sul blog, un’e-mail o un elenco di idee generati dall’IA e scritti in uno dei cinque toni disponibili (professionale, informale, informativo, entusiasta o divertente). Possono incollare il testo direttamente in un browser web, in un’applicazione di social media o in un client di posta elettronica.

Gli utenti possono anche chattare con l’AI integrata in Edge su qualsiasi sito web che stanno visualizzando, chiedendo riassunti o informazioni aggiuntive. In una dimostrazione impressionante di martedì, un dirigente Microsoft ha navigato sul sito web di Gap, ha aperto un file PDF con i risultati finanziari trimestrali più recenti dell’azienda e ha chiesto a Edge di riassumere i dati principali e di creare una tabella di confronto con i risultati finanziari più recenti di un’altra azienda di abbigliamento, Lululemon. L’IA ha fatto entrambe le cose, quasi istantaneamente.

L’integrazione di ChatGPT in futuro – come dichiarato dall’azienda – si estenderà a tutti i prodotti Microsoft Office, tra cui Word, PowerPoint e Outlook per consentire agli utenti di generare contenuti da prompt di testo.

Una prima integrazione è in Outlook, il suo servizio di posta elettronica, con uno strumento che aiuta i venditori a scrivere e-mail personalizzate.

Microsoft ha già versato 1 miliardo di dollari nella società nel 2019 e detiene anche una licenza esclusiva per GPT-3. Nel 2023 ha investito altri 13 miliardi di dollari in OpenAI.

In precedenza, Microsoft ha integrato un sistema OpenAI in uno dei suoi prodotti: DALL-E, lo strumento text-to-image utilizzato come base per Microsoft Designer, una piattaforma di progettazione grafica text-to-image AI destinata a rivaleggiare con Canva.

Anche Copilot, basato su GPT-3, è uno strumento Microsoft e serve per assistere nella programmazione.

Come si addestra un’intelligenza artificiale large language model: approfondimento

Fase 1: obiettivi

Ogni sistema di intelligenza artificiale ha bisogno di un obiettivo. I ricercatori lo chiamano funzione obiettivo. Può essere semplice – ad esempio, “vincere il maggior numero possibile di partite a scacchi” – o complicata, come “prevedere le forme tridimensionali delle proteine, utilizzando solo le loro sequenze di amminoacidi”.

La maggior parte dei modelli linguistici di grandi dimensioni ha la stessa funzione obiettivo di base: Data una sequenza di testo, indovinare cosa viene dopo. Più avanti daremo a MailBot obiettivi più specifici, ma per ora atteniamoci a questo.

Fase 2: raccogliere molti dati

Successivamente, dobbiamo raccogliere i dati di addestramento che insegneranno a MailBot come scrivere. L’ideale è mettere insieme un archivio di testo di dimensioni colossali, che di solito significa miliardi di pagine raschiate da Internet, come post di blog, tweet, articoli di Wikipedia e notizie.

Per iniziare, utilizzeremo alcune librerie di dati gratuite e disponibili pubblicamente, come l’archivio di dati web Common Crawl. Ma vorremo anche aggiungere la nostra salsa segreta, sotto forma di dati proprietari o specializzati. Forse daremo in licenza alcuni testi in lingua straniera, in modo che MailBot impari a comporre e-mail in francese o spagnolo, oltre che in inglese. In generale, più dati abbiamo e più diverse sono le fonti, migliore sarà il nostro modello.

Prima di poter inserire i dati nel nostro modello, dobbiamo suddividerli in unità chiamate token, che possono essere parole, frasi o anche singoli caratteri. La trasformazione del testo in pezzi di dimensioni ridotte aiuta il modello ad analizzarlo più facilmente.

Fase 3: costruire la rete neurale

Una volta che i dati sono stati tokenizzati, dobbiamo assemblare il “cervello” dell’I.A., un tipo di sistema noto come rete neurale. Si tratta di una complessa rete di nodi (o “neuroni”) interconnessi che elaborano e memorizzano informazioni.

Utilizziamo qui un tipo di rete neurale relativamente nuovo, noto come modello trasformatore. Questi modelli sono in grado di analizzare più parti di testo contemporaneamente, rendendoli più veloci ed efficienti. (I modelli trasformatori sono la chiave di sistemi come ChatGPT, il cui acronimo completo sta per “Generative Pretrained Transformer”).

Fase 4: addestramento della rete neurale

Successivamente, il modello analizzerà i dati, token per token, identificando schemi e relazioni. Potrebbe notare che “Caro” è spesso seguito da un nome o che “Cordiali saluti” precede di solito il vostro nome. Identificando questi schemi, l’AI impara a costruire messaggi che abbiano un senso.

Il sistema sviluppa anche un senso del contesto. Ad esempio, potrebbe imparare che “banca” può riferirsi a un istituto finanziario o alla riva di un fiume, a seconda delle parole circostanti.

Man mano che apprende questi schemi, il modello di trasformazione disegna una mappa: una rappresentazione matematica enormemente complessa del linguaggio umano. Tiene traccia di queste relazioni utilizzando valori numerici noti come parametri. Molti dei migliori LLM oggi hanno centinaia di miliardi di parametri o più.

L’addestramento potrebbe richiedere giorni o addirittura settimane e un’immensa quantità di potenza di calcolo. Ma una volta terminato, sarà quasi pronto per iniziare a scrivere le vostre e-mail.

Stranamente, potrebbe sviluppare anche altre abilità. Quando gli LLM imparano a prevedere la parola successiva in una sequenza, più e più volte, possono acquisire altre abilità inaspettate, come ad esempio saper scrivere un codice. I ricercatori di Intelligenza Artificiale chiamano questi comportamenti emergenti, e a volte ne sono ancora confusi.

Fase 5: perfezionare il modello con l’aiuto di persone

Una volta addestrato un modello linguistico di grandi dimensioni, è necessario calibrarlo per un lavoro specifico. Un chatbot utilizzato da un ospedale potrebbe avere bisogno di capire i termini medici, ad esempio.

Per mettere a punto il bot, potremmo chiedergli di generare una serie di e-mail, assumere persone che le valutino in base all’accuratezza e poi inserire le valutazioni nel modello finché non migliora.

Si tratta di un’approssimazione dell’approccio utilizzato con ChatGPT, noto come apprendimento per rinforzo con feedback umano.

Come si è arrivati a ChatGPT: la storia tecnologica

Il successo di OpenAI non è arrivato dal nulla. Il chatbot è l’iterazione più raffinata di una serie di modelli linguistici di grandi dimensioni che risalgono ad anni fa. Ecco come siamo arrivati a questo punto.

Anni ’80-’90: reti neurali ricorrenti

ChatGPT è una versione di GPT-3, un modello linguistico di grandi dimensioni sviluppato da OpenAI. I modelli linguistici sono un tipo di rete neurale che è stata addestrata su moltissimi testi. (Le reti neurali sono software ispirati al modo in cui i neuroni nel cervello degli animali si segnalano a vicenda). Poiché il testo è composto da sequenze di lettere e parole di lunghezza variabile, i modelli linguistici richiedono un tipo di rete neurale in grado di dare un senso a questo tipo di dati. Le reti neurali ricorrenti, inventate negli anni ’80, possono gestire sequenze di parole, ma sono lente da addestrare e possono dimenticare le parole precedenti in una sequenza.

Nel 1997, gli informatici Sepp Hochreiter e Jürgen Schmidhuber hanno risolto questo problema inventando le reti LTSM (Long Short-Term Memory), reti neurali ricorrenti con componenti speciali che consentono di conservare più a lungo i dati passati di una sequenza di input. Le LTSM potevano gestire stringhe di testo lunghe diverse centinaia di parole, ma le loro capacità linguistiche erano limitate.

2017: Trasformatori

La svolta che ha portato all’attuale generazione di modelli linguistici di grandi dimensioni è arrivata quando un team di ricercatori di Google ha inventato i trasformatori, un tipo di rete neurale in grado di tracciare la posizione di ogni parola o frase in una sequenza. Il significato di una parola dipende spesso dal significato di altre parole che la precedono o la seguono. Tenendo traccia di queste informazioni contestuali, i trasformatori possono gestire stringhe di testo più lunghe e catturare il significato delle parole con maggiore precisione. Ad esempio, “hot dog” ha un significato molto diverso nelle frasi “Agli hot dog va data molta acqua” e “Gli hot dog vanno mangiati con la senape”.

2018-2019: GPT e GPT-2

I primi due grandi modelli linguistici di OpenAI sono arrivati a pochi mesi di distanza l’uno dall’altro. L’azienda vuole sviluppare un’intelligenza artificiale polivalente e generica e ritiene che i modelli linguistici di grandi dimensioni siano un passo fondamentale verso questo obiettivo. GPT (acronimo di Generative Pre-trained Transformer) ha fatto scuola, battendo i benchmark più avanzati dell’epoca per l’elaborazione del linguaggio naturale.

GPT combinava i trasformatori con l’apprendimento non supervisionato, un modo per addestrare i modelli di apprendimento automatico su dati (in questo caso, moltissimi testi) che non sono stati annotati in precedenza. In questo modo il software è in grado di individuare da solo gli schemi nei dati, senza che gli venga detto cosa sta guardando. Molti successi precedenti nel campo dell’apprendimento automatico si sono basati sull’apprendimento supervisionato e su dati annotati, ma l’etichettatura manuale dei dati è un lavoro lento che limita le dimensioni dei set di dati disponibili per l’addestramento.

Ma è stato il GPT-2 a creare il maggior scalpore. OpenAI ha dichiarato di essere così preoccupata che le persone possano usare GPT-2 “per generare un linguaggio ingannevole, distorto o abusivo” che non avrebbe rilasciato il modello completo. Come cambiano i tempi.

2020: GPT-3

Il GPT-2 era notevole, ma il seguito di OpenAI, il GPT-3, colpito davvero la comunità scientifica.

La sua capacità di generare testi simili a quelli umani ha rappresentato un grande balzo in avanti. GPT-3 può rispondere a domande, riassumere documenti, generare storie in diversi stili, tradurre tra inglese, francese, spagnolo e giapponese e molto altro ancora. Il suo mimetismo è sorprendente.

Uno dei risultati più notevoli è che i guadagni di GPT-3 sono stati ottenuti grazie al sovradimensionamento di tecniche esistenti piuttosto che all’invenzione di nuove. GPT-3 ha 175 miliardi di parametri (i valori di una rete che vengono regolati durante l’addestramento), rispetto agli 1,5 miliardi di GPT-2. Inoltre, è stato addestrato su un numero molto maggiore di reti. Inoltre, è stato addestrato su un numero molto maggiore di dati.

Ma l’addestramento su testi presi da Internet comporta nuovi problemi. GPT-3 ha assorbito gran parte della disinformazione e dei pregiudizi che ha trovato online e li ha riprodotti su richiesta. Come ha riconosciuto OpenAI: “I modelli addestrati su Internet hanno pregiudizi su scala Internet”.

Dicembre 2020: testo tossico e altri problemi

Mentre OpenAI era alle prese con i pregiudizi di GPT-3, il resto del mondo tecnologico stava affrontando una resa dei conti di alto profilo sull’incapacità di contenere le tendenze tossiche dell’IA. Non è un segreto che i modelli linguistici di grandi dimensioni possano emettere testi falsi o addirittura odiosi, ma i ricercatori hanno scoperto che la risoluzione del problema non è sulla lista delle cose da fare per la maggior parte delle aziende Big Tech. Quando Timnit Gebru, co-direttore del team di etica dell’AI di Google, è stato coautore di un documento che evidenziava i potenziali danni associati ai modelli linguistici di grandi dimensioni (tra cui gli elevati costi di calcolo), non è stato accolto con favore dai dirigenti dell’azienda. Nel dicembre 2020, Gebru è stata allontanata dal suo posto di lavoro.

Gennaio 2022: InstructGPT

OpenAI ha cercato di ridurre la quantità di disinformazione e di testo offensivo prodotto da GPT-3 utilizzando l’apprendimento per rinforzo per addestrare una versione del modello sulle preferenze dei tester umani. Il risultato, InstructGPT, è stato migliore nel seguire le istruzioni delle persone che lo utilizzano – noto come “allineamento” nel gergo dell’intelligenza artificiale – e ha prodotto meno linguaggio offensivo, meno disinformazione e meno errori in generale. In breve, InstructGPT è meno tossico, a meno che non gli venga chiesto di esserlo.

Maggio-luglio 2022: OPT, BLOOM

Una critica comune ai modelli linguistici di grandi dimensioni è che il costo del loro addestramento rende difficile per tutti i laboratori, tranne quelli più ricchi, costruirne uno. Ciò solleva il timore che un’intelligenza artificiale così potente venga costruita da piccoli team aziendali a porte chiuse, senza un adeguato controllo e senza il contributo di una comunità di ricerca più ampia. In risposta, una manciata di progetti collaborativi ha sviluppato modelli linguistici di grandi dimensioni e li ha rilasciati gratuitamente a tutti i ricercatori che vogliono studiare e migliorare la tecnologia. Meta ha costruito e regalato OPT, una ricostruzione di GPT-3. Hugging Face ha guidato un consorzio di circa 1.000 ricercatori volontari per costruire e rilasciare BLOOM.

Dicembre 2022: ChatGPT

Persino OpenAI è sbalordita dal modo in cui ChatGPT è stato accolto. Nella prima dimostrazione che l’azienda mi ha fornito il giorno prima del lancio online, ChatGPT è stato presentato come un aggiornamento incrementale di InstructGPT. Come quel modello, ChatGPT è stato addestrato usando l’apprendimento per rinforzo sul feedback di tester umani che hanno valutato le sue prestazioni come interlocutore fluido, accurato e inoffensivo. In effetti, OpenAI ha addestrato GPT-3 a padroneggiare il gioco della conversazione e ha invitato tutti a giocare. Da allora, milioni di persone stanno giocando.

A cosa serve ChatGPT in pratica

Strumenti come ChatGPT possono creare grandi opportunità per le aziende che sfruttano la tecnologia in modo strategico. L’intelligenza artificiale basata su chat può aumentare il modo in cui gli esseri umani lavorano automatizzando le attività ripetitive e fornendo interazioni più coinvolgenti con gli utenti.

Ecco alcuni dei modi in cui le aziende possono utilizzare strumenti come ChatGPT:

  • Compilazione di ricerche
  • Idee di brainstorming
  • Scrittura di codice informatico
  • Automatizzare parti del processo di vendita
  • Fornire servizi post-assistenza quando i clienti acquistano prodotti
  • Fornire istruzioni personalizzate
  • Razionalizzazione e miglioramento dei processi utilizzando l’automazione
  • Traduzione di testo da una lingua all’altra
  • Facilitare il processo di onboarding dei clienti
  • Aumentare il coinvolgimento dei clienti, con conseguente miglioramento della fidelizzazione e della fidelizzazione

Il servizio clienti è una grande area di opportunità per molte aziende. Le aziende possono utilizzare la tecnologia ChatGPT per generare risposte per i propri chatbot del customer care in modo da poter automatizzare molte attività tipicamente svolte dagli esseri umani e migliorare radicalmente i tempi di risposta.

Secondo un rapporto di Opus Research, il 35% dei consumatori vorrebbe che più aziende utilizzassero i chatbot e al 48% dei consumatori non importa se un essere umano o un chatbot automatizzato li aiuta con una query del servizio clienti. D’altra parte, le opportunità dei chatbot basati sull’intelligenza artificiale possono trasformarsi in minacce se i tuoi concorrenti sfruttano con successo questa tecnologia e la tua azienda no.

ChatGPT, i settori aziendali in cui esprime il meglio delle potenzialità

Secondo McKinsey & co., le funzioni in cui modelli come ChatGPT potrebbero essere usati sono:

  • Marketing e vendite: creazione di contenuti di marketing, social media e di vendita tecnici personalizzati (inclusi testo, immagini e video); Creazione di assistenti allineati ad attività specifiche, come la vendita al dettaglio
  • Generazione di elenchi di attività per l’esecuzione efficiente di una determinata attività
  • IT/ingegneria: scrittura, documentazione e revisione del codice
  • Rischio e legale: rispondere a domande complesse, attingere da grandi quantità di documentazione legale e redigere e rivedere relazioni annuali
  • R&S: accelerare la scoperta di farmaci attraverso una migliore comprensione delle malattie e la scoperta di strutture chimiche.

A questo possiamo aggiungere tra le altre cose:

  • un uso ora fatto da Morgan Stanley: supporto alle decisioni manageriali usando l’analisi big data del proprio capitale informativo interno (documenti).
  • sintesi di (video) call
 ChatGPT

Fonte: McKinsey

Un team interfunzionale per rispondere alle principali domande

Per McKinsey, nelle aziende che considerano l’AI generativa, i dirigenti vorranno identificare rapidamente le parti del loro business in cui la tecnologia potrebbe avere l’impatto più immediato e implementare un meccanismo per monitorarla, dato che si prevede che si evolverà rapidamente.

Una mossa è quella di riunire un team interfunzionale, inclusi professionisti della Data science, esperti legali e leader aziendali funzionali, per riflettere su domande di base, come queste:

  • In che modo la tecnologia potrebbe aiutare o interrompere il nostro settore e / o la catena del valore della nostra attività?
  • Quali sono le nostre politiche e la nostra posizione? Ad esempio, stiamo aspettando attentamente di vedere come si evolve la tecnologia, investendo in progetti pilota o cercando di costruire un nuovo business? La postura dovrebbe variare tra le aree dell’azienda?
  • Dati i limiti dei modelli, quali sono i nostri criteri per selezionare i casi d’uso da targetizzare?
  • Come perseguiamo la costruzione di un ecosistema efficace di partner, comunità e piattaforme?
  • A quali standard legali e comunitari dovrebbero aderire questi modelli in modo da poter mantenere la fiducia con i nostri stakeholder?

Nel frattempo, è essenziale incoraggiare un’innovazione ponderata in tutta l’organizzazione, posizionando guardrail insieme ad ambienti sandbox per la sperimentazione, molti dei quali sono prontamente disponibili tramite il cloud, con più probabilità all’orizzonte.

ChatGPT per i professionisti

Il modello di AI generativa di OpenAI offre una serie di opportunità per aumentare l’efficienza e la produttività. È possibile utilizzarlo per generare risposte automatiche per le e-mail, anche personalizzate. Come traduttore, aiuto nella scrittura di articoli, racconti, brevi narrazioni, aiuto nella scrittura di codice, debug e riconoscimento/ricerca di errori.

Leggi come nella mini-guida ChatGPT per professionisti: come sfruttare al massimo la piattaforma di OpenAI.

La risposta di Google con Gemini

Google Gemini è una famiglia di modelli di linguaggio di grandi dimensioni multimodali, sviluppati da Google DeepMind. È considerato il successore di LaMDA e PaLM 2 .

Google per progettare Gemini ha investito circa 300 milioni di dollari nella startup AI Anthropic, fondata da ex ingegneri OpenAI che hanno lavorato su GPT-3 acquisendo una partecipazione del 10% .

Esistono tre versioni di Gemini:

  • Gemini Ultra: il modello più grande per attività altamente complesse.
  • Gemini Pro: il modello migliore per le prestazioni generali su una vasta gamma di attività.
  • Gemini Nano: il modello più efficiente per attività su dispositivo come lo smartphone.

Gemini è già integrato in diversi prodotti Google, tra cui:

  • La ricerca di Google
  • Gmail, Documenti, Fogli di Google e altro ancora in Google Workspace
  • Pixel 8 Pro (come Gemini Nano)
  • Android Studio

C’è anche l’app Google Gemini che aiuta con la scrittura, la pianificazione, l’apprendimento e altro ancora.

Abusi dei modelli linguistici per le campagne di disinformazione: come ridurre il rischio

I ricercatori di OpenAI hanno collaborato con il Center for Security and Emerging Technology della Georgetown University e lo Stanford Internet Observatory per studiare come i modelli linguistici di grandi dimensioni potrebbero essere utilizzati in modo improprio per scopi di disinformazione.

La collaborazione ha incluso un workshop dell’ottobre 2021 che ha riunito 30 ricercatori di disinformazione, esperti di apprendimento automatico e analisti politici ed è culminata in un rapporto co-autore basato su oltre un anno di ricerca. Questo rapporto delinea le minacce che i modelli linguistici rappresentano per l’ambiente informativo se utilizzati per aumentare le campagne di disinformazione e introduce un quadro per l’analisi di potenziali mitigazioni.

Cronologia dello sviluppo e delle vicende di ChatGPT di OpenAI

ChatGPT e Cina

Il governo di Pechino fornirà supporto finanziario alle aziende cinesi che sviluppano le proprie versioni di ChatGPT. Baidu, Alibaba, NetEase e JD.com sono tra i primi a mostrare interesse nello sviluppo di strumenti di intelligenza artificiale generativa. Intanto, OpenAI ha vietato agli utenti cinesi di accedere a ChatGPT.

ChatGPT allarma il mondo del lavoro

Dicembre 2022: lo staff dell’American Writers and Artists Institute, organizzazione che riunisce i copywriter, si rende conto della portata di ChatGPT, delle sue capacità, che rientrano perfettamente nella sfera di competenza di coloro che generano contenuti, come testi pubblicitari e post di blog, e lo fanno per vivere. Secondo un sondaggio condotto dal sito web di ricerca di lavoro ZipRecruiter, il 62% delle persone in cerca di lavoro si è detto preoccupato che l’intelligenza artificiale possa ostacolare le loro carriere.

Anche OpenAI ammette, dopo aver condotto una ricerca, che ChatGPT può mettere a rischio posti di lavoro. In particolare, rivela che l’80% della forza lavoro statunitense potrebbe vedere almeno il 10% delle proprie attività lavorative influenzate da GPT. Per la sua ricerca OpenAI utilizza il suo ultimo modello linguistico di apprendimento automatico (LLM), GPT-4, nonché l’esperienza umana. Ecco quali sono i lavori più a rischio.

Per ChatGPT arrivano i plugin…

23 marzo 2023: OpenAI annuncia di avere iniziato il supporto per i plugin in ChatGPT, che aiutano il chatbot ad accedere a informazioni aggiornate, eseguire calcoli o utilizzare servizi di terze parti. Expedia, FiscalNote, Instacart, KAYAK, Klarna, Milo, OpenTable, Shopify, Slack, Speak , Wolfram e Zapier sono tra i primi a crearli.

…e i rischi per la cybersecurity

Alla stessa data, la divisione threat intelligence di Check Point Software Technologies Ltd., fornitore di soluzioni di cybersecurity a livello globale, rende pubblica una prima analisi facendo emergere cinque scenari che potrebbero consentire ai criminali informatici di sfruttare il tool di OpenAI in modo più rapido e preciso. CPR avverte sul potenziale di ChatGPT 4 nell’accelerazione dell’esecuzione di crimini informatici.

In Italia il Garante della privacy dà lo stop a ChatGPT: raccolta illecita di dati personali

31 marzo 2023: L’Autorità contesta a OpenAI l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi e di sistemi per la verifica dell’età dei minori. Il 20 marzo il chatbot aveva subito una perdita di dati riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Il Garante della privacy detta a OpenAI le condizioni per la rimozione del blocco italiano

11 aprile 2023: l’Autorità dà tempo alla società fino al 30 aprile per mettersi in regola. La limitazione provvisoria sarà sospesa se OpenAI adotterà le misure richieste: rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti e un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni.

Preoccupazioni per la privacy non soltanto in Italia

ChatGPT: i Garanti della privacy europei lanciano una task force

Dopo GPT arriva Auto-GPT

OpenAI annuncia la versione Business di ChatGPT

ChatGPT Business: in arrivo la versione per le aziende

ChatGPT torna accessibile dall’Italia

Dal pomeriggio di venerdì 28 aprile 2023, ChatGPT è di nuovo accessibile anche gli utenti italiani, dopo 28 giorni di blocco in seguito al provvedimento dell’Autorità Garante della Privacy italiana.

ChatGPT di nuovo accessibile dall’Italia

I primi firewall per proteggere i dati

Ai primi di maggio 2023 vengono presentati Arthur Shield, un firewall per i dati di AI e NeMo Guardrails di Nvidia, che fornisce un linguaggio di policy per aiutare a proteggere gli LLM dalla perdita di dati sensibili o da risposte errate cosiddette “allucinate”. Sono i primi strumenti messi a disposizione per garantire la perdita dei dati, o data breach, con sistemi di AI generativi come ChatGPT.

ChatGPT sull’app store di Apple

18 maggio 2023: OpenAI lancia ChatGPT sugli smartphone iOS. L’applicazione sarà inizialmente disponibile solo negli Stati Uniti, ma si espanderà presto ad altri paesi e ai dispositivi Android.

OpenAI lancia ChatGPT sull’app store di Apple

ChatGPT per iPhone disponibile anche in Italia

Statement on AI Risk

30 maggio 2023: Oltre 350 personalità del mondo hi-tech firmano una breve dichiarazi0one in cui chiedono regole per “mitigare il rischio di estinzione dell’umanità” a causa dell’intelligenza artificiale

OpenAI annuncia aggiornamenti di GPT-3.5-turbo e GPT-4 e calo dei prezzi

ChatGPT supporta comandi vocali e input da immagini

ChatGPT diventa multimodale: ora supporta vocali e immagini

Mercedes è la prima casa automobilistica a introdurre ChatGPT sulle proprie vetture negli Usa

Microsoft ha stretto una partnership con Mercedes: a partire dal 16 giugno, la piattaforma di intelligenza artificiale generativa è stata resa disponibile per 900mila veicoli Mercedes dotati del sistema di infotainment MBUX dell’azienda tramite un aggiornamento software.

Disponibili per gli utenti gratuiti le “istruzioni personalizzate”

21 agosto 2023: Sono esclusi, per ora, gli utenti dell’Ue e del Regno Unito. Consentono di comunicare solo una volta la propria identità e i tipi di risposta desiderati, in modo che il chatbot applichi questo obiettivo alle risposte future.

 

ChatGPT, disponibili per gli utenti gratuiti (ma non per tutti) le “istruzioni personalizzate”

OpenAI lancia ChatGPT Enterprise

29 agosto 2023: arriva finalmente la versione di ChatGPT per le aziende.

OpenAI lancia la versione business di ChatGPT

ChatGPT è un chatbot progettato per rispondere alle domande, un nuovo modello linguistico, ma può anche essere utilizzato per eseguire il debug del codice. Lo ha sviluppato OpenAI, la società che sta dietro AlphaFold e GPT-3.

La società, sostenuta da Microsoft, ha sviluppato un modello linguistico di grandi dimensioni progettato per interagire con gli utenti in ”modo colloquiale”.

OpenAI afferma che il formato di dialogo del modello consente a ChatGPT di rispondere a domande di follow-up, ammettere i propri errori, sfidare premesse errate e rifiutare richieste inappropriate.

ChatGPT (Chat Generative Pretrained Transformer) è un modello di pari livello di InstructGPT, rilasciato lo scorso gennaio e progettato per fornire una risposta dettagliata a un’istruzione in un prompt.

Intelligenza artificiale per l’Italia

ChatGPT, i potenziali pericoli

Ci sono enormi opportunità per le aziende di utilizzare strumenti come ChatGPT per migliorare i loro profitti e creare esperienze migliori per i clienti, ma ci sono anche alcuni potenziali pericoli con questa tecnologia. Nella versione beta del software ChatGPT, OpenAI riconosce gli attuali limiti dell’AI, incluso il potenziale di generare occasionalmente informazioni errate o contenuti distorti.

Ci sono anche potenziali problemi di privacy, per tutte le informazioni che ottiene dagli utenti.

ChatGPT può essere vulnerabile agli attacchi di sicurezza informatica, in quanto è connesso a Internet e potrebbe potenzialmente essere utilizzato per diffondere contenuti dannosi o virus. I criminali informatici malintenzionati potrebbero anche manipolare le persone affinché divulghino informazioni personali utilizzando il chatbot, quindi utilizzare tali informazioni per scopi fraudolenti o per attacchi di phishing mirati.

Infine, iniziano a manifestarsi i timori per un utilizzo diffuso di ChatGPT da parte delle aziende. In particolare, si teme che l’adozione di questo strumento possa portare al taglio di posti di lavoro. Secondo un sondaggio di Sortlist Data Hub effettuato in Regno Unito, Belgio, Germania, Spagna, Paesi Bassi e Francia, infatti, ChatGPT potrebbe provocare tagli nell’organico per il 26% delle aziende tecnologiche europee. A rischiare di più sono i lavoratori di marketing e public relation

Le limitazioni

Ai primi di gennaio 2023, l’International Conference on Machine Learning (ICML) ha impedito agli autori di presentare articoli contenenti testo generato da strumenti come ChatGPT. Inoltre, le scuole di New York City hanno vietato agli studenti di utilizzare ChatGPT per paura che possa essere usato per imbrogliare. Ora è vietato su tutti i dispositivi e le reti nelle scuole pubbliche.

Un portavoce di OpenAI ha dichiarato al Washington Post che sta sviluppando “mitigazioni per aiutare chiunque a identificare il testo generato da quel sistema”.

C’è poi il problema della legalità delle opere generate dall’AI; attualmente, solo un’opera ha ottenuto la protezione del copyright: un fumetto negli Stati Uniti, anche se l’Ufficio copyright Usa sta rivedendo la sua decisione.

Il gigante dei servizi finanziari JP Morgan Chase ha vietato al suo personale di utilizzare ChatGPT. Lo riferisce la CNN, citando fonti che affermano che la decisione, che si applica al personale globale, è dovuta a problemi di conformità sull’utilizzo di software di terze parti.

Bing e Edge con ChatGPT anche sui dispositivi mobili

Microsoft ha esteso i suoi prodotti potenziati dall’AI anche agli smartphone iOS e Android. Inoltre, ha lanciato Bing per Skype e ha allungato il tempo delle chat: fino a 6 per sessione, per un massimo di 60 chat totali al giorno, con l’obiettivo di arrivare presto a 100.

ChatGPT 4 e GPT4

A marzo 2023 OpenAi ha pubblicato GPT 4 (la quarta versione di GPT) e di conseguenza ChatGPT 4, oltre a fornire le Api di GPT4 per altri servizi e altre aziende. Bing ha integrato già la quarta versione.

ChatGPT 4 può essere usato per ora solo dagli utenti Open Ai a pagamento.

ChatGPT4 è un aggiornamento significativo rispetto alla versione precedente del modello. In particolare, è stato trainato su un set di dati molto più grande e diversificato. Ciò significa che il modello è in grado di comprendere una gamma più ampia di domande e risposte rispetto alla versione precedente. Inoltre, ci sono stati due grandi cambiamenti nell’approccio di sviluppo della nuova versione. In primo luogo, invece di utilizzare un modello di lingua pre-addestrato, i ricercatori hanno deciso di utilizzare un modello di apprendimento per rinforzo. Ciò significa che ChatGPT4 è stato in grado di apprendere in modo più efficiente dall’interazione con gli utenti. In secondo luogo, i ricercatori hanno utilizzato una tecnica di generazione di risposte più avanzata chiamata “sequential fine-tuning” che ha permesso al modello di generare risposte più coerenti e naturali.

Scrive Open AI.

Abbiamo impiegato 6 mesi per rendere il GPT-4 più sicuro e allineato. Nelle nostre valutazioni interne, il GPT-4 ha l’82% in meno di probabilità di rispondere a richieste di contenuti non ammessi e il 40% in più di probabilità di produrre risposte fattuali rispetto al GPT-3.5.

Una delle maggiori migliorie di GPT-4 è la sua capacità di generare testi più precisi e di qualità superiore rispetto a GPT-3. GPT-4 è stato addestrato su un vasto database di testi, consentendogli di comprendere e interpretare meglio le complessità del linguaggio umano. Inoltre, GPT-4 può anche generare testo che è più coerente e fluente, rendendolo una scelta migliore per le imprese che cercano di generare testi professionali, come descrizioni di prodotti, contenuti web e pubblicità.

GPT-4 offre inoltre la possibilità di generare testi più lunghi, fare sintesi ed estrapolare informazioni da lunghi rapporti e documenti e di utilizzare immagini. Quest’ultimo punto è fondamentale per le aziende che cercano di creare contenuti visuali di alta qualità e non solo per descrivere il loro prodotto, ma anche per visualizzarlo. Ad esempio, un’azienda che vende abbigliamento può utilizzare GPT-4 per generare testi che descrivono sia le caratteristiche dei prodotti che le immagini dei vestiti indossati da modelli, offrendo una migliore esperienza di acquisto per i clienti.

Un miliardo di visualizzazioni di pagina

Il 14 marzo 2023, OpenAI annuncia che ChatGPT ha raggiunto un miliardo di visualizzazioni di pagina.

OpenAI: aggiornamenti di GPT-3.5-turbo e GPT-4 e calo dei prezzi

OpenAI dà l’accesso a Internet a ChatGPT

28 settembre 2023: OpenAI annuncia su X (ex Twitter) che ChatGPT

è ora in grado di navigare in Internet per fornire informazioni aggiornate e autorevoli, complete di link diretti alle fonti

grazie all’integrazione con il motore di ricerca Bing di Microsoft. Non è più limitato ai dati prima di settembre 2021.

Leggi tutto: OpenAI dà accesso a Internet a ChatGPT – AI4Business

ChatGPT di OpenAI è in grado di riassumere e analizzare i documenti caricati

31 ottobre 2023: gli abbonati a ChatGPT Plus e a ChatGPT for Enterprise possono inserire PDF, file di dati o “qualsiasi altro documento” per l’analisi. Grazie alle nuove capacità di gestione dei documenti si riduce il divario con il chatbot rivale Claude

Leggi tutto: OpenAI aggiornamento ChatGPT riassume analizza documenti –

Arrivano i GPTs, versioni personalizzate da condividere e vendere

7 novembre 2023: OpenAI lancia un nuovo strumento per creare una versione su misura del chatbot, adattabile a vari contesti, non solo professionali: i GPTs. Permette di creare assistenti virtuali personalizzati, senza richiedere competenze di programmazione. Disponibile per gli utenti ChatGPT Plus ed Enterprise, prossimamente verrà esteso a un pubblico più ampio. Arrivano anche GPT4-Turbo e il copyright shield.

Chiunque può facilmente costruire il proprio GPT, senza bisogno di codifica. Li si può realizzare per se stessi, solo per uso interno della propria azienda o per tutti. Crearne uno è facile come iniziare una conversazione, dargli istruzioni e conoscenze aggiuntive e scegliere cosa può fare, come cercare sul web, creare immagini o analizzare dati.

Per provare i GPTs: chatgpt.com/create.

Esempi di GPT sono disponibili per gli utenti di ChatGPT Plus ed Enterprise, tra cui Canva e Zapier AI Actions. OpenAI offrirà presto questa possibilità a più utenti.

Leggi tutto: ChatGPT: arrivano le versioni personalizzate da condividere e vendere

Buon compleanno ChatGPT! Un anno rivoluzionario per l’AI

Il 30 novembre 2022 nasceva il modello sviluppato da OpenAI. AI4business.it ha chiesto proprio a ChatGPT di narrare un anno di successi e di innovazioni significative che hanno non solo rivoluzionato le sue funzionalità, ma anche l’intero settore dell’AI.

Leggi tutto: Buon compleanno ChatGPT: un anno rivoluzionario per l’AI – AI4Business

OpenAI riapre ai nuovi utenti gli abbonamenti a ChatGPT Plus

15 dicembre 2023: OpenAI riapre gli abbonamenti a ChatGPT Plus ai nuovi utenti, dopo aver sospeso le iscrizioni per un mese. Tuttavia, gli abbonati che scelgono di utilizzare GPT-4 sono limitati a 40 messaggi ogni tre ore. Inoltre, non è ancora chiaro quando gli utenti potranno accedere all’ultimo e più potente modello linguistico di OpenAI, GPT-4 Turbo

Leggi tutto: OpenAI riapre ai nuovi utenti gli abbonamenti a ChatGPT Plus

Arrivano GPT Store e ChatGPT Team

Store offre una vasta gamma di GPT personalizzati sviluppati dai partner e dalla comunità. Team offre l’accesso ai modelli avanzati, come GPT-4 e DALL-E 3, e a strumenti come l’analisi avanzata dei dati.

Leggi tutto: Arrivano GPT Store e ChatGPT Team, ecco cosa permettono di fare

Leggi tutto: GPT Store: ecco il marketplace per modelli linguistici generativipillar

ChatGPT è in grado di ricordare le conversazioni con gli utenti

14 febbraio 2024: OpenAI continua a trasformare ChatGPT in un assistente digitale automatizzato capace di competere con servizi come Siri di Apple o Alexa di Amazon e ha dotato il bot della capacità di attingere a un insieme molto più ampio e dettagliato di informazioni.

La nuova tecnologia è disponibile, inizialmente, per un numero limitato di utenti. Sarà accessibile sia a chi utilizza la versione gratuita di ChatGPT, sia a chi è abbonato a ChatGPT Plus. Come funziona? Mentre si chatta con ChatGPT gli si può chiedere di ricordare qualcosa di specifico o lasciare che raccolga i dettagli da solo. La memoria di ChatGPT migliorerà man mano che lo si usa e si inizieranno a notare i miglioramenti nel tempo.

Come con qualsiasi funzione di ChatGPT, si mantiene il controllo dei dati dell’organizzazione.

ChatGPT aveva offerto inizialmente una forma limitata di memoria: quando su chattava con il bot, le risposte si basavano su ciò che era stato detto precedentemente nella stessa conversazione. Con la nuova funzione, invece, il bot può attingere informazioni da conversazioni precedenti e costruisce questa memoria identificando e archiviando automaticamente informazioni che potrebbero essere utili in futuro.

OpenAI ha introdotto anche le chat temporanee, durante le quali le conversazioni e i ricordi non vengono archiviati.

Leggi tutto: ChatGPT ora ricorda le conversazioni con gli utenti


OpenAI migliora ChatGPT: è possibile modificare le immagini generate


3 marzo 2024: OpenAI aggiunge una nuova funzionalità “pennello”, alimentata da DALL-E 3, che e amplia notevolmente le capacità del modello per gli utenti, offrendo più controllo e utilità. Disponibile solo per le versioni Premium basate su GPT-4

Leggi tutto: OpenAI migliora ChatGPT: ora è possibile modificare le immagini generate

Che cos’è il selettore del modello su ChatGPT a pagamento

Ad aprile 2024 OpenAI ha introdotto una nuova funzione in GPT-4, limitatamente alle versioni a pagamento. Si tratta della funzione “Dynamic”, che consente di passare da un modello all’altro in ChatGPT a seconda del piano e delle esigenze

Chi dispone di un piano ChatGPT a pagamento (ChatGPT Plus, Team o Enterprise), può scegliere tra alcune opzioni di modello.

Come funziona Dynamic

GPT-3.5 è il modello più veloce e l’impostazione predefinita per gli utenti gratuiti.

GPT-4 è il modello più capace. È disponibile per gli utenti ChatGPT Plus, Team ed Enterprise.

Gli abbonati a ChatGPT Plus possono accedere a GPT-4 con un limite di utilizzo. A partire dal 5 gennaio 2024, il limite è di 40 messaggi ogni 3 ore. In alcuni casi, è possibile regolare dinamicamente il limite di messaggi in base alla domanda e alle prestazioni del sistema per dare priorità e rendere GPT-4 accessibile al maggior numero di persone. I messaggi inutilizzati non si accumulano.

Quando l’opzione Dynamic è selezionata, viene scelto automaticamente il modello migliore da utilizzare per la richiesta, in base a una combinazione di intelligenza, capacità e velocità. In pratica, ciò significa che GPT-4 verrà utilizzato per la maggior parte delle attività. Per le richieste più semplici potrebbe essere utilizzato GPT-3.5 per velocizzare le risposte e risparmiare i messaggi GPT-4 limitati.

In attesa di GPT-5

28 maggio 2024: in un post sul proprio blog, OpenAI rivela di avere avviato l’addestramento del successore di GPT-4, la tecnologia che alimenta ChatGPT. Il Ceo, Sam Altman, lo aveva già annunciato in un podcast con Bill Gates e poi durante un evento all’università di Stanford. Altman ha confermato che l’affidabilità sarà al centro dell’evoluzione di GPT nei prossimi due anni. “Se si pone a GPT-4 la maggior parte delle domande diecimila volte, una di queste sarà probabilmente abbastanza buona, ma non sa sempre quale; vorremmo ottenere ogni volta la migliore risposta su diecimila, quindi l’aumento dell’affidabilità sarà importante”.

Leggi tutto: GPT-5, tutto quello che sappiamo sul prossimo modello di OpenAI



Articoli correlati

Articolo 1 di 4