ANALISI

McKinsey: nel 2024 un reset della GenAI per trasformare il potenziale in valore



Indirizzo copiato

Il ritorno sull’investimento nell’intelligenza artificiale generativa si verificherà solo quando le aziende decideranno di apportare cambiamenti più profondi e strutturali al loro business e avranno imparato dalle lezioni apprese con le trasformazioni digitali

Pubblicato il 7 mar 2024



software intelligenza artificiale

Il vero ritorno sull’investimento nell’intelligenza artificiale generativa (Gen AI) potrebbe arrivare solo quando le aziende decideranno di operare interventi più profondi e strutturali sul proprio business. È tempo di un reset della Gen AI. È il tema del paper “A generative AI reset: Rewiring to turn potential into value in 2024″ di McKinsey.

Come ottenere un vantaggio competitivo dalla Gen AI

L’iniziale entusiasmo e l’effervescenza di attività del 2023 stanno lasciando spazio a riflessioni e ricalibrature, poiché le aziende si rendono conto che sfruttare l’enorme potenziale della gen AI è più difficile del previsto. Con il 2024 che si preannuncia come l’anno in cui la Gen AI dovrà dimostrare il suo valore, le aziende dovrebbero tenere a mente le lezioni apprese con le trasformazioni digitali e dell’AI: il vantaggio competitivo deriva dalla costruzione di capacità organizzative e tecnologiche per innovare, implementare e migliorare soluzioni su larga scala – in pratica, ricablare l’azienda per una diffusa innovazione digitale e dell’AI.

Portare i progetti pilota su larga scala e creare valore significativo è difficile

Le aziende che cercano di ottenere rapidamente risultati con la Gen AI dovrebbero muoversi velocemente. Ma coloro che sperano che la Gen AI offra una scorciatoia oltre la difficile – e necessaria – chirurgia organizzativa sono destinati a incontrare risultati deludenti. Avviare progetti pilota è (relativamente) facile; portare i progetti pilota su larga scala e creare valore significativo è difficile perché richiede un ampio insieme di cambiamenti nel modo in cui il lavoro viene effettivamente svolto.

Prendiamo in considerazione cosa ha significato tutto ciò per una compagnia di telecomunicazioni della regione del Pacifico. L’azienda ha assunto un responsabile dei dati e dell’AI con il mandato di “abilitare l’organizzazione a creare valore con i dati e l’AI”. Il responsabile dei dati e dell’AI ha lavorato con il business per sviluppare la visione strategica e implementare la roadmap per gli use case. Dopo una scansione dei domini (cioè, percorsi del cliente o funzioni) e delle opportunità di use case in tutta l’impresa, la leadership ha dato priorità al dominio della manutenzione/servizio domestico per avviare un progetto pilota e poi scalare come parte di una sequenza più ampia di iniziative. Hanno puntato, in particolare, allo sviluppo di uno strumento Gen AI per aiutare i dispatcher e gli operatori del servizio a prevedere meglio i tipi di chiamate e le parti necessarie quando si effettua la manutenzione delle abitazioni. La leadership ha messo in atto team di prodotto cross-funzionali con obiettivi e incentivi condivisi per costruire lo strumento Gen AI. Come parte di uno sforzo per migliorare le competenze dell’intera impresa nel lavorare meglio con i dati e gli strumenti Gen AI, hanno anche istituito un’accademia di dati e AI, in cui i dispatcher e gli operatori del servizio si sono iscritti come parte della loro formazione. Per fornire la tecnologia e i dati necessari per la Gen AI, il responsabile dei dati e dell’AI ha anche selezionato un grande modello linguistico (LLM) e un provider di cloud che potesse soddisfare le esigenze del dominio e servire altre parti dell’impresa. Il responsabile dei dati e dell’AI ha anche supervisionato l’implementazione di un’architettura dei dati in modo che i dati puliti e affidabili (compresi gli storici dei servizi e i database degli inventari) necessari per costruire lo strumento gen AI potessero essere consegnati rapidamente e in modo responsabile.

AI

Sei capacità per realizzare il cambiamento necessario all’AI

La guida McKinsey per competere nell’era del digitale e dell’AI (Wiley, giugno 2023) fornisce un manuale dettagliato sulle sei capacità necessarie per realizzare il tipo di cambiamento ampio che sfrutta la tecnologia digitale e dell’AI. Esploriamo come estendere ciascuna di queste capacità per implementare con successo un programma Gen AI su larga scala. Pur riconoscendo che siamo ancora agli albori e che c’è molto da imparare, l’esperienza ha dimostrato che sfruttare l‘opportunità della Gen AI richiede alle aziende di ricablare il modo in cui lavorano nei seguenti modi.

1. Capire dove i copiloti Gen AI possono dare un vero vantaggio competitivo

L’eccitazione generale attorno alla Gen AI e la sua relativa facilità d’uso hanno portato a un’ondata di sperimentazione nelle organizzazioni. Tuttavia, la maggior parte di queste iniziative non genererà un vantaggio competitivo. Una banca, ad esempio, ha acquistato decine di migliaia di licenze GitHub Copilot, ma poiché non aveva una chiara idea di come lavorare con la tecnologia, i progressi sono stati lenti. Un altro sforzo poco focalizzato che vediamo spesso è quando le aziende cercano di incorporare la Gen AI nelle loro capacità di servizio al cliente. Il servizio al cliente è una capacità commodity, non fa parte del core business per la maggior parte delle aziende. Sebbene la Gen AI possa aiutare a migliorare la produttività in tali casi, non creerà un vantaggio competitivo. Per creare un vantaggio competitivo, le aziende dovrebbero prima capire la differenza tra essere un “prenditore” (un utente di strumenti disponibili, spesso tramite API e servizi in abbonamento), uno “shaper” (un integratore di modelli disponibili con dati proprietari) e un “maker” (un costruttore di LLM).

Per ora, l’approccio “maker” è troppo costoso per la maggior parte delle aziende, quindi il punto dolce per le imprese è implementare un modello “prenditore” per miglioramenti della produttività mentre si costruiscono applicazioni “shaper” per il vantaggio competitivo. Gran parte del valore a breve termine della Gen AI è strettamente legato alla sua capacità di aiutare le persone a svolgere meglio il loro lavoro attuale. In questo modo, gli strumenti Gen AI agiscono come copiloti che lavorano fianco a fianco con un dipendente, creando un blocco iniziale di codice che uno sviluppatore può adattare, ad esempio, o redigendo un ordine di acquisto per una nuova parte che un operaio in campo può rivedere e inviare. Questo significa che le aziende dovrebbero concentrarsi su dove la tecnologia del copilota può avere il maggiore impatto sui loro programmi prioritari.

Per creare un vantaggio competitivo, le aziende dovrebbero prima capire la differenza tra essere un “prenditore” (un utente di strumenti disponibili, spesso tramite API e servizi in abbonamento), uno “shaper” (un integratore di modelli disponibili con dati proprietari) e un “maker” (un costruttore di LLM).

2. Esempi di copilota attraverso tre archetipi di AI generativa

Alcune aziende industriali, ad esempio, hanno identificato la manutenzione come un dominio critico per il loro business. La revisione dei rapporti di manutenzione e il passaggio del tempo con i lavoratori in prima linea possono aiutare a determinare dove un copilota Gen AI potrebbe fare una grande differenza, come nell’identificazione rapida e precoce dei problemi con i guasti delle attrezzature. Un copilota Gen AI può anche aiutare a identificare le cause principali dei guasti dei camion e a raccomandare soluzioni molto più rapidamente del solito, oltre ad agire come una fonte continua di best practice o procedure operative standard. La sfida con i copiloti è capire come generare entrate da una maggiore produttività. Nel caso dei centri di servizio al cliente, ad esempio, le aziende possono smettere di reclutare nuovi agenti e utilizzare l’attrito per ottenere potenzialmente reali guadagni finanziari. Definire i piani su come generare entrate dalla maggiore produttività fin dall’inizio, quindi, è fondamentale per catturare il valore.

3. Migliorare le competenze del personale ed essere chiari sulle competenze specifiche che servono per la Gen AI

Ormai, la maggior parte delle aziende ha una discreta comprensione delle competenze tecniche Gen AI di cui hanno bisogno, come il fine-tuning del modello, l’amministrazione del database vettoriale, l’ingegneria dei prompt e l’ingegneria del contesto. In molti casi, queste sono competenze che puoi formare il tuo personale esistente a sviluppare. Coloro che hanno già capacità di AI e machine learning (ML) hanno un forte vantaggio iniziale. Gli ingegneri dei dati, ad esempio, possono imparare il processing multimodale e la gestione del database vettoriale; gli ingegneri MLOps (operazioni di machine learning) possono estendere le loro competenze a LLM Ops (operazioni di grandi modelli linguistici); e i data scientist possono sviluppare competenze in ingegneria dei prompt, rilevamento dei bias e fine-tuning.

3. Un campione delle nuove competenze necessarie per l’AI generativa

Il processo di apprendimento può richiedere da due a tre mesi per raggiungere un livello decente di competenza a causa delle complessità nell’apprendere cosa possono e non possono fare i vari LLM e come utilizzarli al meglio. I programmatori devono acquisire esperienza nella costruzione di software, nel testing e nella validazione delle risposte, ad esempio. Ci sono voluti tre mesi a una società di servizi finanziari per formare i suoi migliori data scientist a un alto livello di competenza. Sebbene siano disponibili corsi e documentazione – molti fornitori di LLM hanno boot camp per gli sviluppatori – abbiamo scoperto che il modo più efficace per costruire capacità su larga scala è attraverso l’apprendistato, formando persone per poi formare altre persone, e costruendo comunità di professionisti. Ruotare gli esperti attraverso i team per formare gli altri, programmare sessioni regolari per le persone per condividere le conoscenze acquisite, e organizzare sessioni bi-settimanali di revisione della documentazione sono pratiche che si sono dimostrate efficaci nella costruzione di comunità di professionisti.

È importante tenere presente che le competenze Gen AI di successo riguardano più della semplice competenza nella programmazione. L’esperienza McKinsey nello sviluppo della propria piattaforma Gen AI, Lilli, ha mostrato che il miglior talento tecnico Gen AI ha competenze progettuali per scoprire dove concentrare le soluzioni, comprensione contestuale per garantire che vengano generate le risposte più pertinenti e di alta qualità, competenze collaborative per lavorare bene con esperti di conoscenza (per testare e validare le risposte e sviluppare un approccio di cura appropriato), forti competenze forensi per capire le cause dei guasti (il problema è nei dati, nell’interpretazione dell’intento dell’utente, nella qualità dei metadati sugli embedding, o in qualcos’altro?), e competenze di anticipazione per concepire e pianificare possibili risultati e per inserire il giusto tipo di tracciamento nel loro codice.

Un puro programmatore che non ha intrinsecamente queste competenze potrebbe non essere un membro del team così utile. Sebbene l’attuale aggiornamento delle competenze si basi in gran parte su un approccio “impara sul lavoro”, vediamo un mercato in rapida crescita per le persone che hanno appreso queste competenze nell’ultimo anno. Questa crescita delle competenze sta avanzando rapidamente. GitHub ha riferito che gli sviluppatori stavano lavorando a progetti Gen AI “in grandi numeri”, e che 65mila progetti pubblici Gen AI sono stati creati sulla sua piattaforma nel 2023 – un salto di quasi il 250 percento rispetto all’anno precedente.

4. Formare un team centralizzato per stabilire standard che consentano una scalabilità responsabile

Per garantire che tutte le parti del business possano scalare le capacità Gen AI, la centralizzazione delle competenze è un primo passo naturale. L’obiettivo critico di questo team centrale sarà sviluppare e mettere in atto protocolli e standard per supportare la scalabilità, garantendo che i team possano accedere ai modelli minimizzando al contempo il rischio e contenendo i costi. Il lavoro del team potrebbe includere, ad esempio, l’acquisto di modelli e la prescrizione di modi per accedervi, lo sviluppo di standard per la prontezza dei dati, l’istituzione di librerie di prompt approvate e l’allocazione delle risorse.

Durante lo sviluppo di Lilli, il team McKinsey aveva in mente la scalabilità quando ha creato un’architettura open plug-in e ha stabilito standard su come dovrebbero funzionare e essere costruite le API. Il team ha sviluppato strumenti standardizzati e infrastrutture dove i team potevano sperimentare in sicurezza e accedere a un GPT LLM, un gateway con API pre-approvate a cui i team potevano accedere, e un portale per sviluppatori self-service.

L’obiettivo è che questo approccio, nel tempo, possa aiutare a spostare “Lilli come prodotto” (che pochi team utilizzano per costruire soluzioni specifiche) a “Lilli come piattaforma” (che i team in tutta l’impresa possono accedere per costruire altri prodotti). Per i team che sviluppano soluzioni Gen AI, la composizione del team sarà simile a quella dei team AI ma con ingegneri dei dati e data scientist con esperienza in gen AI e più contributori dalle funzioni di gestione del rischio, compliance e legali. L’idea generale di dotare i team di risorse federate dalle diverse aree di competenza non cambierà, ma la composizione delle competenze di un team intensivo gen-AI lo farà.

5. Impostare l’architettura tecnologica per scalare

Costruire un modello Gen AI è spesso relativamente semplice, ma renderlo pienamente operativo su larga scala è un’altra questione. Si sono visti ingegneri costruire un chatbot di base in una settimana, ma rilasciare una versione stabile, accurata e conforme che scala può richiedere quattro mesi. Ecco perché, come mostra l’esperienza, i costi effettivi del modello possono essere inferiori al 10-15 percento dei costi totali della soluzione. Costruire per la scalabilità non significa costruire una nuova architettura tecnologica. Ma significa concentrarsi su alcune decisioni chiave che semplificano e accelerano i processi senza svuotare le casse.

Tre di queste decisioni si distinguono:

1. Concentrati sul riutilizzo della tua tecnologia. Il riutilizzo del codice può aumentare la velocità di sviluppo degli use case Gen AI dal 30 al 50 percento. Un buon approccio è semplicemente creare una fonte per strumenti approvati, codice e componenti. Una società di servizi finanziari, ad esempio, ha creato una libreria di strumenti di produzione, che erano stati approvati sia dai team di sicurezza che legali, e li ha resi disponibili in una libreria per i team da utilizzare. Ancora più importante è prendersi il tempo per identificare e costruire quelle capacità che sono comuni tra gli use case prioritari. La stessa società di servizi finanziari, ad esempio, ha identificato tre componenti che potevano essere riutilizzati per più di 100 use case identificati. Costruendo prima questi, sono stati in grado di generare una parte significativa del codice base per tutti gli use case identificati – dando essenzialmente a ogni applicazione un grande vantaggio.

2. Concentra l’architettura sull’abilitazione di connessioni efficienti tra i modelli Gen AI e i sistemi interni. Perché i modelli gen AI funzionino efficacemente nell’archetipo shaper, hanno bisogno di accedere ai dati e alle applicazioni di un’azienda. I progressi nei framework di integrazione e orchestrazione hanno ridotto significativamente lo sforzo necessario per realizzare queste connessioni. Ma delineare quali sono queste integrazioni e come abilitarle è fondamentale per garantire che questi modelli funzionino in modo efficiente.

3. Sviluppa le capacità di test e garanzia di qualità. L’esperienza nella creazione di Lilli ha insegnato a McKinsey a dare priorità ai test rispetto allo sviluppo. Il team ha investito non solo nello sviluppo di protocolli di test per ogni fase dello sviluppo, ma anche nell’allineamento dell’intero team in modo che, ad esempio, fosse chiaro chi doveva firmare specificamente ogni fase del processo. Ciò ha rallentato lo sviluppo iniziale, ma ha accelerato il ritmo e la qualità complessivi della consegna, riducendo gli errori e il tempo necessario per correggere gli errori.

6. Garantire la qualità dei dati e concentrarsi sui dati non strutturati per alimentare i modelli

La capacità di un’azienda di generare e scalare valore dai modelli di intelligenza artificiale di generazione dipenderà da quanto bene sfrutterà i propri dati. Come per la tecnologia, sono necessari aggiornamenti mirati all‘architettura dei dati esistente  per massimizzare i futuri vantaggi strategici dell’IA di generazione:

  • Sii mirato nell’aumentare la qualità dei dati e l’aumento degli sforzi. Sebbene la qualità dei dati sia sempre stata un problema importante, la scala e la portata dei dati che i modelli di intelligenza artificiale possono utilizzare, in particolare i dati non strutturati, hanno reso questo problema molto più consequenziale. Per questo motivo, è fondamentale disporre delle giuste basi di dati, dal chiarimento dei diritti decisionali alla definizione di processi di dati chiari, fino alla definizione di tassonomie in modo che i modelli possano accedere ai dati di cui hanno bisogno. Le aziende che lo fanno bene legano i loro sforzi di qualità e aumento dei dati all’applicazione e al caso d’uso specifici dell’AI/generazione di intelligenza artificiale: non è necessario che questa base di dati si estenda a ogni angolo dell’azienda. Ciò potrebbe significare, ad esempio, lo sviluppo di un nuovo archivio di dati per tutte le specifiche delle apparecchiature e i problemi segnalati per supportare meglio le applicazioni copilota di manutenzione.
  • Comprendi quale valore è bloccato nei dati non strutturati. La maggior parte delle organizzazioni ha tradizionalmente concentrato i propri sforzi sui dati strutturati (valori che possono essere organizzati in tabelle, ad esempio prezzi e funzionalità). Ma il vero valore degli LLM deriva dalla loro capacità di lavorare con dati non strutturati (ad esempio, diapositive, video e testo di PowerPoint). Le aziende possono mappare quali fonti di dati non strutturati sono più preziose e stabilire standard di tagging dei metadati in modo che i modelli possano elaborare i dati e i team possano trovare ciò di cui hanno bisogno (l’etichettatura è particolarmente importante per aiutare le aziende a rimuovere i dati dai modelli, se necessario). Sii creativo nel pensare alle opportunità di dati. Alcune aziende, ad esempio, intervistano i dipendenti senior quando vanno in pensione e inseriscono le conoscenze istituzionali acquisite in un LLM per migliorare le loro prestazioni di copilota.
  • Ottimizza per ridurre i costi su larga scala. Spesso c’è una differenza di dieci volte tra ciò che le aziende pagano per i dati e ciò che potrebbero pagare se ottimizzassero la loro infrastruttura di dati e i costi sottostanti. Questo problema deriva spesso dal fatto che le aziende ridimensionano i loro proof of concept senza ottimizzare il loro approccio ai dati. In genere spiccano due costi. Uno è rappresentato dai costi di archiviazione derivanti dal fatto che le aziende caricano terabyte di dati nel cloud e vogliono che tali dati siano disponibili 24 ore su 24, 7 giorni su 7. In pratica, le aziende raramente hanno bisogno di più del 10% dei loro dati per avere quel livello di disponibilità e l’accesso al resto in un periodo di 24 o 48 ore è un’opzione molto più economica. Gli altri costi riguardano il calcolo con modelli che richiedono l’accesso su chiamata a migliaia di processori per essere eseguiti. Ciò è particolarmente vero quando le aziende costruiscono i propri modelli (l’archetipo maker), ma anche quando utilizzano modelli pre-addestrati e li eseguono con i propri dati e casi d’uso (l’archetipo shaper). Le aziende potrebbero dare un’occhiata da vicino a come ottimizzare i costi di calcolo sulle piattaforme cloud: ad esempio, mettere alcuni modelli in coda per l’esecuzione quando i processori non vengono utilizzati è un’opzione molto più economica.

Nel 2024 l’AI generativa diventerà pienamente operativa per tutta l’azienda

Secondo Salesforce, l’AI è destinata a entrare in contatto con ogni reparto e flusso di lavoro e un importante passo in avanti verrà fatto quando i modelli linguistici di grandi dimensioni (LLM) saranno utilizzati non solo per la generazione di contenuti e l’analisi, ma anche per lo sviluppo di processi decisionali e l’automazione dei flussi di lavoro.

Sebbene i LLM fondamentali costituiranno la spina dorsale dell’AI generativa, le aziende inizieranno a utilizzare anche una combinazione di modelli linguistici più piccoli e specifici per motivi di costi, prestazioni e latenza.

La query semantica modificherà radicalmente il servizio clienti

Una domanda scritta in linguaggio “umano” che viene tradotta in linguaggio macchina. Le aziende possono fornire un servizio rapido, dettagliato e iper-personalizzato grazie a un’AI in grado di utilizzare testo, immagini, video e audio per la ricerca. Questo pone le basi per un’economia digitale più intuitiva e reattiva, a vantaggio sia delle aziende che degli utenti finali.

Poiché l’intelligenza artificiale diventa sempre più abile nel ricavare informazioni da insiemi di dati strutturati e non, Salesforce prevede un aumento delle aziende che adotteranno funzionalità di query semantiche con la fusione di dati strutturati, come i dati di vendita e i dati demografici dei clienti, e di dati non strutturati come blogpost, recensioni dei clienti e commenti sui social media.

Armonizzazione dei dati

Tutto questo è possibile solo se l’AI è alimentata da dati accurati e completi. Tuttavia, la piena fiducia nella qualità dei dati di un’azienda è difficile da raggiungere, soprattutto per gli stakeholder aziendali.

Nel 2024 l’attenzione alla democratizzazione dei dati e delle analisi diventerà prioritaria. I dati e le analisi diventeranno più interattivi, e andranno a identificare automaticamente le anomalie nei dati aziendali sottostanti, a fornire approfondimenti in linguaggio naturale e a offrire agli utenti la possibilità di porre domande e ottenere risposte in modo rapido, senza dover ricorrere a un analista.

La rivoluzione dell’AI si basa anche sulla fiducia

Non sono pochi i clienti che hanno manifestato preoccupazioni etiche sul modo in cui le aziende intendono impiegare questa tecnologia. Sebbene questo possa indurre molte aziende a essere caute circa l’adozione dell’AI generativa, un recente studio di Salesforce ha evidenziato le misure che le aziende possono adottare per mantenere o rafforzare la fiducia dei clienti senza frenare l’innovazione. Ad esempio: il 57% dei clienti afferma che una maggiore visibilità sulle modalità di utilizzo dell’AI da parte di un’azienda accrescerebbe la loro fiducia nei confronti dell’AI stessa e il 52% si sentirebbe più tranquillo nel suo utilizzo se l’essere umano ne convalidasse i risultati.

Data la velocità di adozione da parte delle aziende, l’uso dell’AI generativa potrebbe presto diventare un punto di riferimento piuttosto che un vantaggio competitivo. Ma un utilizzo aperto, etico e trasparente della stessa potrebbe essere ciò che distingue le aziende nella percezione

Articoli correlati

Articolo 1 di 4