startup

Covariant svela RFM-1, l’AI che fa imparare i compiti ai robot come gli umani



Indirizzo copiato

La startup, derivata da OpenAI, presenta un modello di intelligenza artificiale addestrato su anni di dati e su diverse tipologie di input e promette una nuova era di robotica adattativa

Pubblicato il 13 mar 2024



Covariant RFM-1

Covariant, azienda derivata da OpenAI, ha sviluppato un modello di intelligenza artificiale che aiuta i robot a imparare compiti come gli esseri umani. Il nuovo modello, denominato RFM-1, è stato addestrato su anni di dati raccolti dalla piccola flotta di robot selezionatori di articoli di Covariant che i clienti hanno utilizzano nei magazzini in tutto il mondo, oltre a parole e video provenienti da internet. Il modello sarà rilasciato nei prossimi mesi.

RFM-1 accetta cinque diversi tipi di input

Nell’estate del 2021, OpenAI ha chiuso il suo team di robotica, annunciando che i progressi erano ostacolati dalla mancanza di dati necessari per addestrare i robot su come muoversi e ragionare utilizzando l’intelligenza artificiale. Ora tre dei primi ricercatori di OpenAI affermano che la startup da loro creata nel 2017, chiamata Covariant, ha risolto questo problema e svelato un sistema che combina le capacità di ragionamento dei grandi modelli linguistici con la destrezza fisica di un robot avanzato. L’azienda spera che il sistema diventi più capace ed efficiente man mano che viene implementato nel mondo reale.

Cosa può fare RFM-1? In una dimostrazione, i co-fondatori di Covariant Peter Chen e Pieter Abbeel hanno mostrato come gli utenti possono sollecitare il modello utilizzando cinque diversi tipi di input: testo, immagini, video, istruzioni per robot e misurazioni. Ad esempio, mostragli un’immagine di un cesto pieno di attrezzature sportive e digli di prendere il pacchetto di palline da tennis. Il robot può quindi afferrare l’oggetto, generare un’immagine di come apparirà il cesto dopo che le palline da tennis saranno sparite o creare un video che mostra una vista dall’alto di come apparirà il robot mentre svolge il compito.

Se il modello prevede che non sarà in grado di afferrare correttamente l’oggetto, potrebbe addirittura rispondere: “Non riesco a ottenere una buona presa. Hai qualche consiglio?” Una risposta potrebbe suggerirgli di utilizzare un numero specifico delle ventose sulle sue braccia per ottenere una presa migliore – otto contro sei, ad esempio. Questo rappresenta un salto in avanti, mi ha detto Chen, nei robot che possono adattarsi al loro ambiente utilizzando dati di addestramento piuttosto che il complesso codice specifico del compito che alimentava la precedente generazione di robot industriali. È anche un passo verso luoghi di lavoro dove i manager possono dare istruzioni in linguaggio umano senza preoccuparsi dei limiti del lavoro umano.

Il robot avrà bisogno di moltissimi dati per essere utile

Lerrel Pinto, ricercatore che dirige il laboratorio di robotica e intelligenza artificiale a scopo generale presso la New York University e non ha legami con Covariant, afferma che anche se i roboticisti hanno costruito prima robot multimodali di base e li hanno utilizzati in ambienti di laboratorio, l’implementazione su larga scala di uno in grado di comunicare in così tanti modi rappresenta un’impresa impressionante per l’azienda. Per superare i suoi concorrenti, Covariant dovrà mettere le mani su abbastanza dati perché il robot diventi utile in natura, afferma Pinto.

I pavimenti dei magazzini e i moli di carico sono i luoghi dove sarà messo alla prova, interagendo costantemente con nuove istruzioni, persone, oggetti e ambienti. “I gruppi che riusciranno ad addestrare buoni modelli saranno quelli che hanno accesso a grandi quantità di dati sui robot o la capacità di generare tali dati”, dice.

Covariant afferma che il modello ha una capacità di ragionamento “umanoide“, ma ha le sue limitazioni. Durante la dimostrazione, quando è stato chiesto al robot di “restituire la banana al contenitore due”, ha faticato a ripercorrere i suoi passi, portandolo a prendere una spugna, poi una mela, poi una serie di altri oggetti prima di riuscire finalmente a svolgere il compito della banana.

“Non capisce il nuovo concetto”, spiega Chen, “ma è un buon esempio – potrebbe non funzionare ancora bene nei luoghi in cui non si dispone di buoni dati di addestramento.”

Un cambio di paradigma nella robotica

Il nuovo modello dell’azienda incarna un cambio di paradigma che sta attraversando il mondo della robotica. Invece di insegnare a un robot come funziona il mondo manualmente, attraverso istruzioni come equazioni fisiche e codice, i ricercatori lo stanno insegnando nello stesso modo in cui gli esseri umani imparano: attraverso milioni di osservazioni. Il risultato “può davvero agire come un cervello flessibile molto efficace per risolvere compiti robotici arbitrari”, sostiene Chen.

Il campo delle aziende che utilizzano l’AI per alimentare sistemi robotici più agili è destinato a diventare affollato. All’inizio di marzo, la startup di robotica umanoide Figure AI ha annunciato che collaborerà con OpenAI e ha raccolto 675 milioni di dollari da giganti tecnologici come Nvidia e Microsoft. Marc Raibert, il fondatore di Boston Dynamics, ha recentemente avviato un’iniziativa per integrare meglio l’AI nella robotica. Ciò significa che i progressi nell’apprendimento automatico probabilmente inizieranno a tradursi in progressi nella robotica. Tuttavia, alcuni problemi rimangono irrisolti. Se i grandi modelli linguistici continueranno ad essere addestrati su milioni di parole senza compensare gli autori di quelle parole, forse ci si aspetterà che i modelli di robotica vengano anche addestrati su video senza pagare i loro creatori. E se i modelli linguistici allucinano e perpetuano pregiudizi, quali equivalenti emergeranno nella robotica?

Conclusioni

Nel frattempo, Covariant andrà avanti, desiderosa di far continuare a imparare e affinare RFM-1. Alla fine, i ricercatori mirano a far addestrare il robot su video che il modello stesso crea – il tipo di apprendimento meta che suscita preoccupazioni su cosa succede se gli errori commessi dal modello si accumulano. Ma con una tale fame di dati di addestramento, i ricercatori lo vedono quasi come inevitabile. “L’addestramento su quello sarà una realtà”, dice Abbeel. “Se ne parlassimo ancora tra sei mesi, è di quello che parleremmo.”

Articoli correlati

Articolo 1 di 4