EVENTI

AWS annuncia nuovi modelli e nuove funzionalità in Amazon Bedrock



Indirizzo copiato

Gli ultimi modelli di Anthropic, Cohere, Meta, Stability AI e Amazon ampliano la scelta dei clienti per supportare una varietà di casi d’uso. I clienti hanno più opzioni per personalizzare i modelli in Amazon Bedrock con il supporto per la messa a punto dei modelli Cohere Command, Meta Llama 2 e Amazon Titan, mentre è in arrivo Claude di Anthropic

Pubblicato il 30 nov 2023



AWS re:Invent 2023Photo by Noah Berger
AWS re:Invent 2023 Photo by Noah Berger

Terzo giorno di AWS re:Invent: Amazon Web Services ha annunciato le innovazioni di Amazon Bedrock che ampliano la scelta dei modelli e offrono nuove funzionalità, rendendo più facile per i clienti costruire e scalare applicazioni di intelligenza artificiale generativa (AI) personalizzate per le loro aziende. Amazon Bedrock è un servizio completamente gestito che offre un facile accesso a una scelta di modelli linguistici di grandi dimensioni leader del settore e ad altri modelli di base di AI21 Labs, Anthropic, Cohere, Meta, Stability AI e Amazon, insieme a un’ampia serie di funzionalità di cui i clienti hanno bisogno per creare applicazioni di AI generativa, semplificando lo sviluppo e supportando al contempo la privacy e la sicurezza.

Questi annunci democratizzano ulteriormente l’accesso all’AI generativa, offrendo ai clienti una scelta ancora più ampia di modelli leader del settore e nuove funzionalità per valutarli, semplificando le modalità di personalizzazione dei modelli con dati rilevanti e proprietari, fornendo strumenti per automatizzare l’esecuzione di attività complesse e dotando i clienti di tutele per costruire e distribuire applicazioni in modo responsabile. Insieme, queste nuove aggiunte ad Amazon Bedrock trasformano il modo in cui le organizzazioni di tutte le dimensioni e di tutti i settori possono utilizzare l’AI generativa per stimolare l’innovazione e reinventare le esperienze dei clienti. Per iniziare a utilizzare Amazon Bedrock si può visitare aws.amazon.com/bedrock.

“L’IA generativa è pronta a diventare la tecnologia più trasformativa del nostro tempo e siamo ispirati dal modo in cui i clienti la stanno applicando a nuove opportunità e affrontano le sfide aziendali”, ha dichiarato Swami Sivasubramanian, Vice President of Data and AI di AWS. “Man mano che i clienti incorporano l’IA generativa nelle loro aziende, si rivolgono ad Amazon Bedrock per la scelta di modelli leader, le funzioni di personalizzazione, le capacità di agente, la sicurezza e la privacy di livello aziendale in un’esperienza completamente gestita. Con ancora più strumenti a portata di mano, i clienti utilizzano Amazon Bedrock per sfruttare tutto il potenziale dell’IA generativa per reimmaginare le esperienze degli utenti, reinventare le loro aziende e accelerare i loro viaggi nell’IA generativa”.

Le organizzazioni desiderano utilizzare l’AI generativa per un’ampia gamma di casi d’uso, come la generazione di aumenti di produttività, la guida di esperienze utente innovative e la reimmaginazione del lavoro, ma l’AI generativa si sta evolvendo rapidamente, con nuove opzioni e innovazioni quotidiane. Con tanta fluidità in questo spazio, la capacità di adattamento dei clienti è probabilmente lo strumento più prezioso di tutti. Le organizzazioni devono essere in grado di sperimentare, implementare, iterare e modificare i modelli più recenti e più avanzati disponibili, ed essere pronte ad abbracciare immediatamente ciò che arriverà domani. Per affrontare queste sfide, AWS ha sviluppato Amazon Bedrock per rendere la costruzione di una serie di modelli e il passaggio da uno all’altro facile come una chiamata API, per mettere le più recenti tecniche di personalizzazione dei modelli nelle mani di tutti gli sviluppatori e per mantenere i clienti sicuri e i loro dati privati. L’annuncio introduce nuovi modelli e funzionalità che renderanno ancora più facile per i clienti costruire e scalare applicazioni di AI generativa.

Swami Sivasubramanian at AWS re:Invent 2023 Photo by Noah Berger

Gli ultimi modelli di Anthropic, Cohere, Meta e Stability AI, le aggiunte alla famiglia Amazon Titan

Nessun modello è ideale per tutti i casi d’uso. I modelli variano per capacità, prezzo e prestazioni. I clienti devono poter accedere facilmente a una varietà di modelli, in modo da poterne provare diversi, passare da uno all’altro e combinare i modelli migliori per le loro esigenze. Con Amazon Bedrock, i clienti possono promuovere una rapida innovazione con le versioni più recenti dei modelli, tra cui i nuovi Anthropic Claude 2.1 e Meta Llama 2 70B, e i nuovi Cohere Command Light, Cohere Embed English, Cohere Embed multilingue, Meta Llama 2 13B e Stability AI Stable Diffusion XL 1.0, tutti accessibili tramite API.

Oltre ad Amazon Titan Text Embeddings e ai modelli Amazon Titan Text (ora generalmente disponibili), AWS sta introducendo Amazon Titan Image Generator e Amazon Titan Multimodal Embeddings per offrire ai clienti una scelta e una flessibilità ancora maggiori per costruire applicazioni di AI generativa con i modelli. Esclusiva di Amazon Bedrock, i modelli Amazon Titan sono creati e pre-addestrati da AWS su set di dati ampi e diversificati per una varietà di casi d’uso, con un supporto integrato per l’uso responsabile dell’AI. Inoltre, Amazon indennizza i clienti contro le richieste di risarcimento per la violazione dei diritti d’autore di terze parti da parte dei modelli Amazon Titan disponibili in generale o dei loro output.

Claude 2.1 di Anthropic in Amazon Bedrock

Anthropic ha portato Claude 2.1, l’ultima versione del suo modello linguistico, su Amazon Bedrock. Claude 2.1 offre una finestra di contesto di 200K token e una maggiore precisione su documenti lunghi. I clienti possono ora elaborare documenti pesanti come i bilanci e i dataset interni, e Claude 2.1 è in grado di riassumere, eseguire Q&A o contrastare i documenti, e molto altro ancora. Anthropic riferisce che Claude 2.1 ha ottenuto significativi miglioramenti in termini di onestà, con una riduzione di due volte delle dichiarazioni false rispetto al modello precedente.

Meta Llama 2 70B in Amazon Bedrock

Llama 2 è la nuova generazione di modelli linguistici di Meta. Llama 2 è stato addestrato su un numero di dati superiore del 40% rispetto a Llama 1 e ha una lunghezza di contesto doppia. Il modello Llama 2 da 70 miliardi di parametri è ora disponibile su Amazon Bedrock, in aggiunta al modello Llama 2 da 13 miliardi di parametri annunciato di recente. Costruito sulla base del modello Llama pre-addestrato, Llama 2 è ottimizzato per i casi d’uso del dialogo grazie alla messa a punto con set di dati di istruzioni e oltre 1 milione di annotazioni umane. I modelli hanno ottenuto risultati competitivi rispetto a diversi benchmark esterni, tra cui test di ragionamento, codifica, competenza e conoscenza, e offrono un’interessante combinazione di prezzo e prestazioni in Amazon Bedrock.

Il nuovo generatore di immagini Amazon Titan è disponibile in anteprima

Amazon Titan Image Generator aiuta i clienti di settori come la pubblicità, l’e-commerce, i media e l’intrattenimento a produrre immagini realistiche di qualità da studio o a migliorare le immagini esistenti utilizzando suggerimenti in linguaggio naturale, per una rapida ideazione e iterazione su grandi volumi di immagini e a basso costo. Il modello è in grado di comprendere richieste complesse e di generare immagini pertinenti con una composizione accurata degli oggetti e distorsioni limitate, riducendo la generazione di contenuti dannosi e attenuando la diffusione della disinformazione.

I clienti possono utilizzare il modello nella console Amazon Bedrock inviando una richiesta in linguaggio naturale per generare un’immagine o caricando un’immagine per la modifica automatica, prima di configurare le dimensioni e specificare il numero di variazioni che il modello deve generare. Per modificare, i clienti possono isolare parti di un’immagine per aggiungere o sostituire dettagli (ad esempio, inserendo una tavola da surf in una scena di spiaggia o sostituendo le montagne con una foresta sullo sfondo di una pubblicità di auto), oppure possono estendere i bordi di un’immagine con dettagli aggiuntivi nello stesso stile dell’originale.

Sulla base degli impegni assunti da AWS all’inizio di quest’anno alla Casa Bianca, Amazon Titan applica una filigrana invisibile a tutte le immagini che genera per contribuire a ridurre la diffusione della disinformazione fornendo un meccanismo discreto per identificare le immagini generate dall’AI e per promuovere lo sviluppo sicuro, protetto e trasparente della tecnologia AI. AWS è tra i primi fornitori di modelli a rilasciare su larga scala filigrane invisibili integrate nei risultati delle immagini e progettate per essere resistenti alle alterazioni.

Swami Sivasubramanian at AWS re:Invent 2023 Photo by Noah Berger

Disponibile il nuovo Amazon Titan Multimodal Embeddings

Amazon Titan Multimodal Embeddings aiuta i clienti a creare esperienze di ricerca e raccomandazione multimodali più accurate e contestualmente rilevanti per gli utenti finali. Il modello converte immagini e brevi testi in embeddings – rappresentazioni numeriche che consentono al modello di comprendere facilmente i significati semantici e le relazioni tra i dati – che vengono memorizzati nel database vettoriale del cliente. Gli utenti finali possono inviare query di ricerca utilizzando qualsiasi combinazione di immagini e testo. Il modello genererà embeddings per la query di ricerca e li abbinerà agli embeddings memorizzati per produrre risultati di ricerca e di raccomandazione più accurati e pertinenti per gli utenti finali.

Amazon Titan Multimodal Embeddings si aggiunge al modello esistente Amazon Titan Text Embeddings, utilizzato per convertire input di testo come singole parole, frasi o persino documenti di grandi dimensioni in embeddings per casi d’uso come la ricerca e la personalizzazione.

La nuova funzionalità aiuta i clienti a valutare, confrontare e selezionare in modo efficiente il modello migliore per i loro casi d’uso e le loro esigenze aziendali.

Model Evaluation on Amazon Bedrock

Oggi le aziende hanno a disposizione un’ampia gamma di modelli per alimentare le loro applicazioni di AI generativa. Per trovare il giusto equilibrio tra accuratezza e prestazioni per il proprio caso d’uso, le aziende devono confrontare in modo efficiente i modelli e trovare l’opzione migliore in base alle metriche preferite. Per confrontare i modelli, le aziende devono prima dedicare giorni all’identificazione dei benchmark, all’impostazione degli strumenti di valutazione e all’esecuzione delle valutazioni, il che richiede una profonda esperienza nella scienza dei dati. Inoltre, questi test non sono utili per valutare criteri soggettivi (ad esempio, la voce del marchio, la pertinenza e lo stile) che richiedono un giudizio attraverso flussi di lavoro noiosi, che richiedono molto tempo e una revisione umana. Il tempo, le competenze e le risorse necessarie per questi confronti, per ogni nuovo caso d’uso, rendono difficile per le aziende scegliere il modello ottimale per un compito, limitando l’uso dell’AI generativa.

AWS rende disponibile in anteprima Model Evaluation on Amazon Bedrock, che aiuta i clienti a valutare, confrontare e selezionare i modelli migliori per il loro caso d’uso specifico, utilizzando valutazioni automatiche o umane. Nella console di Amazon Bedrock i clienti scelgono i modelli da confrontare per una determinata attività, come la risposta a domande o la sintesi di contenuti. Per le valutazioni automatiche, i clienti selezionano criteri di valutazione predefiniti (ad esempio, accuratezza, robustezza e tossicità) e caricano il proprio set di dati di test o scelgono tra i set di dati integrati e disponibili pubblicamente.

Per i criteri soggettivi o i contenuti sfumati che richiedono un giudizio sofisticato, i clienti possono facilmente impostare flussi di lavoro di valutazione basati sull’uomo con pochi clic. Questi flussi di lavoro sfruttano la forza lavoro interna del cliente o utilizzano una forza lavoro gestita fornita da AWS per valutare le risposte dei modelli. Durante le valutazioni basate sull’uomo, i clienti definiscono le metriche specifiche del caso (ad esempio, rilevanza, stile e voce del marchio). Una volta terminato il processo di configurazione, Amazon Bedrock esegue le valutazioni e genera un report, in modo che i clienti possano facilmente capire come il modello si è comportato in base a criteri chiave e possano effettuare compromessi ottimali e selezionare rapidamente i modelli migliori per i loro casi d’uso.

I modelli Cohere Command, Meta Llama 2 e Amazon Titan possono ora essere messi a punto in Amazon Bedrock, il supporto per Claude 2 di Anthropic è in arrivo

Oltre a RAG, le organizzazioni possono sfruttare la messa a punto per addestrare ulteriormente il modello su un compito specifico (ad esempio, la generazione di testo), utilizzando set di dati etichettati per adattare i parametri del modello alla loro attività ed estendere la sua conoscenza con il lessico e la terminologia utilizzati dall’organizzazione e dagli utenti finali.

Per mettere a punto un modello, i clienti iniziano selezionando il modello e utilizzando Amazon Bedrock per creare una copia. I clienti puntano poi ad esempi etichettati in Amazon Simple Storage Service (Amazon S3). Amazon Bedrock addestra in modo incrementale il modello (aumentando il modello copiato con le nuove informazioni) su questi esempi e il risultato è un modello privato e più preciso che fornisce risposte più pertinenti e personalizzate. I dati dei clienti vengono crittografati in transito e a riposo, in modo che tutti i dati preziosi dei clienti rimangano sicuri e privati. AWS e i fornitori di modelli di terze parti non utilizzeranno alcun input o output di Amazon Bedrock per addestrare i loro modelli di base.

Agents for Amazon Bedrock

Sebbene i modelli siano efficaci nella conversazione e nella creazione di nuovi contenuti, offrono un valore maggiore se sono in grado di intraprendere azioni, risolvere problemi e interagire con una serie di sistemi per completare attività in più fasi (ad esempio, prenotare viaggi o ordinare parti di ricambio). Tuttavia, ciò richiede integrazioni personalizzate per collegare i modelli alle fonti di dati aziendali, alle API e ai sistemi interni ed esterni. Gli sviluppatori devono scrivere il codice per orchestrare le interazioni tra i modelli, i sistemi e l’utente, in modo che l’applicazione possa eseguire una serie di chiamate API in un ordine logico. Per collegare il modello con le fonti di dati, gli sviluppatori devono implementare RAG, in modo che il modello possa personalizzare le proprie risposte in base all’attività. Infine, gli sviluppatori devono predisporre e gestire l’infrastruttura necessaria, nonché stabilire politiche per la sicurezza e la privacy dei dati. Queste fasi richiedono tempo e competenze, rallentando lo sviluppo di applicazioni di AI generativa.

Ora disponibile, Agents for Amazon Bedrock, completamente gestito, consente alle applicazioni di intelligenza artificiale generativa di eseguire attività in più fasi utilizzando i sistemi e le fonti di dati aziendali. Gli agenti possono pianificare ed eseguire la maggior parte delle attività aziendali, come rispondere a domande sulla disponibilità dei prodotti o prendere ordini. I clienti possono creare un agente con un semplice processo di configurazione, selezionando prima il modello desiderato, scrivendo alcune istruzioni in linguaggio naturale (ad esempio, “sei un allegro agente del servizio clienti” e “controlla la disponibilità dei prodotti nel sistema di inventario”) e fornendo l’accesso ai sistemi aziendali e alle basi di conoscenza. Gli agenti analizzano automaticamente la richiesta e la suddividono in una sequenza logica, utilizzando le capacità di ragionamento del modello per determinare le informazioni necessarie. L’agente agisce quindi identificando le API da chiamare e decidendo quando chiamarle per soddisfare la richiesta. Gli agenti recuperano anche le informazioni necessarie da fonti di dati proprietarie per fornire risposte accurate e pertinenti. Gli agenti eseguono ogni volta questo processo in background, in modo sicuro e privato, sollevando i clienti dalla necessità di progettare richieste, gestire il contesto della sessione o orchestrare i sistemi manualmente. Con Agents for Amazon Bedrock, i clienti possono migliorare l’accuratezza e la velocità di sviluppo delle loro applicazioni di intelligenza artificiale generativa.

Guardrails per Amazon Bedrock

Le organizzazioni riconoscono la necessità di gestire le interazioni all’interno delle applicazioni di AI generativa per un’esperienza utente pertinente e sicura. Sebbene molti modelli utilizzino controlli integrati per filtrare i contenuti indesiderati e dannosi, le organizzazioni desiderano personalizzare ulteriormente le interazioni per rimanere su argomenti rilevanti per la loro attività, allinearsi con le politiche aziendali e aderire ai principi dell’IA responsabile.

Le organizzazioni possono avere la necessità di cambiare modello, di utilizzare più modelli o di replicare i criteri in tutte le applicazioni, e vogliono un modo semplice per distribuire in modo coerente le loro preferenze in tutte queste aree contemporaneamente. Per creare sistemi di protezione personalizzati con questo tipo di protezioni e integrarli nelle applicazioni sono necessarie competenze approfondite, e i processi possono richiedere mesi. Le organizzazioni vogliono un modo semplificato per applicare policy e regole chiave nelle applicazioni di AI generativa, per offrire esperienze utente pertinenti e supportare un uso più sicuro della tecnologia.

Ora disponibile in anteprima, Guardrails per Amazon Bedrock consente ai clienti di implementare protezioni per le applicazioni di AI generativa personalizzate in base ai casi d’uso e ai principi dell’AI responsabile, migliorando la sicurezza e la privacy delle interazioni con gli utenti. I guardrail garantiscono la coerenza del modo in cui i modelli di Amazon Bedrock rispondono ai contenuti indesiderati e dannosi all’interno delle applicazioni. I clienti possono applicare i guardrail a tutti i modelli linguistici di grandi dimensioni in Amazon Bedrock, nonché a modelli perfezionati e in combinazione con Agents for Amazon Bedrock. Per creare un guardrail nella console di Amazon Bedrock, i clienti iniziano con le descrizioni in linguaggio naturale per definire gli argomenti negati nel contesto della loro applicazione. I clienti possono anche configurare soglie per i discorsi d’odio, gli insulti, il linguaggio sessualizzato e la violenza per filtrare i contenuti dannosi al livello desiderato.

All’inizio del 2024, i clienti potranno anche eliminare le informazioni personali nelle risposte dei modelli, impostare filtri per le bestemmie e fornire un elenco di parole personalizzate per bloccare le interazioni tra utenti e modelli. I guardrail valutano automaticamente sia le query degli utenti sia le risposte dei modelli per individuare e prevenire i contenuti che rientrano nelle categorie riservate. I clienti possono creare più guardrail per supportare casi d’uso diversi e applicare gli stessi guardrail a più modelli. Guardrails per Amazon Bedrock consente ai clienti di innovare in modo sicuro fornendo un’esperienza utente coerente e standardizzando i controlli di sicurezza e privacy nelle applicazioni di AI generativa.

Articoli correlati

Articolo 1 di 4