NEWS

Meta AI annuncia un nuovo studio su come il cervello elabora il linguaggio

In collaborazione con NeuroSpin (CEA), centro di ricerca per l’innovazione nell’imaging cerebrale e l’Istituto nazionale francese per la ricerca in scienze digitali (INRIA).

Pubblicato il 03 Mag 2022

Meta AI

Meta AI sta lavorando con NeuroSpin (CEA), un centro di ricerca con sede a Parigi per l’innovazione nell’imaging cerebrale e l’Istituto nazionale francese per la ricerca in scienze digitali (INRIA). Il lavoro fa parte della più ampia attenzione di Meta AI sull’intelligenza artificiale a livello umano che può imparare con poca o nessuna supervisione umana.

Comprendendo meglio come il cervello umano elabora il linguaggio, i ricercatori ipotizzano di poter raccogliere informazioni che aiuteranno a guidare lo sviluppo dell’IA in grado di apprendere ed elaborare il discorso in modo efficiente come fanno le persone.

Il braccio di ricerca della società madre di Facebook ha annunciato lo scorso 28 aprile uno studio a lungo termine per comprendere meglio come il cervello umano elabora il linguaggio. I ricercatori stanno esaminando come il cervello e i modelli linguistici di intelligenza artificiale rispondono alle stesse frasi parlate o scritte.

“Stiamo cercando di confrontare i sistemi di intelligenza artificiale con il cervello, letteralmente”, ha detto Jean-Rémi King, ricercatore senior presso Meta AI.

Il linguaggio parlato, ha osservato, rende gli esseri umani del tutto unici e capire come funziona il cervello è ancora una sfida e un processo in corso. La domanda di fondo è: “Cosa rende gli esseri umani molto più potenti o molto più efficienti di queste macchine? Vogliamo identificare non solo le somiglianze, ma individuare le differenze rimanenti”.

Nel deep learning, più livelli di reti neurali lavorano in tandem per imparare. Questo approccio è stato applicato nel lavoro dei ricercatori di Meta AI per evidenziare quando e dove le rappresentazioni percettive di parole e frasi vengono generate nel cervello mentre un volontario legge o ascolta una storia.

Negli ultimi due anni, i ricercatori hanno applicato tecniche di deep learning a set di dati pubblici di neuroimaging estratti da immagini di attività cerebrale in risonanza magnetica (MRI) e tomografia computerizzata (CT) di volontari. Questi sono stati raccolti e condivisi da diverse istituzioni accademiche, tra cui l’Università di Princeton e il Max Planck Institute for Psycholinguistics.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2