EVENTI

Google compie 25 anni nel segno dell’AI



Indirizzo copiato

Dall’introduzione del machine learning per correggere l’ortografia delle query nella Ricerca, nel 2001, fino alle reti Transformer, passando per BERT, AlphaFold, TensorFlow, per arrivare a Bard e a PaLM 2

Pubblicato il 27 set 2023



google 25 anni

In occasione del 25° compleanno di Google, ripercorriamo alcune delle tappe dell’AI più importanti fino ad ora del gigante del Web.

2001: il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query

Larry Page, il co-fondatore di Google, ha detto: “Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno”. Google ha fatto sua questa vision quando ha iniziato a usare per la prima volta una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.

Un'animazione di una ricerca errata di "gobbledygook".

2006: Google Traduttore

Cinque anni dopo, Google ha lanciato Google Traduttore, che usa il machine learning per tradurre automaticamente diverse lingue. Le prime traduzioni sono state dall’arabo all’inglese, e viceversa. Oggi Google Traduttore supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia è in grado di tradurre testi, immagini e perfino conversazioni in tempo reale, abbattendo le barriere linguistiche nella comunità globale, aiutando le persone a comunicare ed estendendo l’accesso alle informazioni come mai era accaduto prima.

2015: TensorFlow per l’AI democratica

L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’AI più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’AI a livello mondiale. TensorFlow è ora uno dei framework di machine learning più noti ed è stato usato per sviluppare una vasta gamma di applicazioni, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.

2016: AlphaGo

Nell’ambito della Google DeepMind Challenge Match, AlphaGo è diventato il primo programma di AI a battere un campione mondiale umano di Go, un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questa vittoria leggendaria ha dimostrato il potenziale che il deep learning ha nel risolvere problemi complessi che si pensava fossero impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha innescato una conversazione globale sul futuro dell’AI e ha dimostrato che i sistemi di AI possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.

2016: le TPU permettono un’implementazione dell’AI più rapida ed efficiente

Le Tensor Processing Unit, o TPU, sono chip progettati su misura che inventati appositamente per il machine learning e ottimizzati per TensorFlow. Sono in grado di addestrare ed eseguire modelli AI molto più velocemente rispetto ai chip tradizionali e sono quindi ideali per applicazioni di AI su larga scala. La versione v5e, annunciata ad agosto 2023, è la Cloud TPU più versatile, scalabile e conveniente ideata fino ad oggi. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per dollaro fino a 2,5 volte maggiore per LLM e modelli AI in confronto alla Cloud TPU v4.

2017: Google Research introduce Transformer

Il documento di Google Research,”Attention Is All You Need” ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a capire la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di AI generativa e comprensione del linguaggio più notevoli di oggi. Transformer ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.

2018: BERT aiuta la Ricerca a comprendere meglio le query

La ricerca su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT, che aiuta la Ricerca a comprendere le query degli utenti meglio. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT aiutano Google a capire le parole nel contesto. Ciò ha portato a un miglioramento significativo della qualità nella Ricerca e ha reso più semplice per gli utenti porre domande usando un linguaggio naturale invece di dover elencare parole chiave.

2020: AlphaFold risolve il problema del ripiegamento proteico

DeepMind ha fatto un balzo nel campo dell’AI con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al “problema del ripiegamento proteico”. Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie. Da 50 anni gli scienziati cercano di prevedere il modo in cui una proteina si ripiega allo scopo di comprendere e curare le malattie. AlphaFold fa proprio questo.

Nel 2022, tramite l’AlphaFold Protein Structure Database, Google ha condiviso gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.

2023: Bard agevola la collaborazione con l’AI generativa

LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di AI generativa, tra cui Bard, che hanno catturato l’immaginazione a livello mondiale. Bard, che è stato lanciato a marzo 2023, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue. Fra tutto ciò che è possibile fare con Bard, gli usi più popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi.

2023: PaLM 2

A maggio 2023 Google ha introdotto PaLM 2, il suo modello LLM di prossima generazione che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, tra cui Bard, le funzionalità di AI generativa in Gmail e in Workspace ed SGE, esperimento di integrazione profonda dell’AI generativa nella Ricerca Google. Google sta usando PaLM 2 per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.

Il futuro

Con la guida dei principi dell’AI verso un approccio audace e responsabile, Google è già al lavoro su Gemini, il prossimo modello creato per le innovazioni future dei nostri prossimi 25 anni.

Articoli correlati

Articolo 1 di 3