L’AI spiegata agli umani
Il settore dell’intelligenza artificiale è attraversato da una polemica che vede al centro Facebook e la sua gestione degli algoritmi che influenzano gli utenti.
Tutto è nato da un articolo di MIT Technology Review a firma di Karen Hao, che chi è del settore conosce in quanto autrice dei principali pezzi sull’intelligenza artificiale della rivista: How Facebook got addicted to spreading misinformation. Un titolo che nella versione iniziale (si legge ancora nel campo “title” della pagina) era il più macchinoso “He got Facebook hooked on AI. Now he can’t fix its misinformation addiction.”
Il “lui” (he) del titolo è Joaquin Quiñonero Candela, a capo del team Responsible AI (nato come “Society and AI”, SAIL) di Facebook, una squadra che ha il compito di monitorare gli effetti sulla società degli algoritmi dell’azienda. Joaquin era anche lo sviluppatore che negli anni aveva creato diversi algoritmi di raccomandazione per mostrare agli utenti argomenti che toccassero esattamente i loro interessi. Tali modelli non si curavano se la notizia fosse vera o falsa, se incitasse all’odio o se mettesse le persone in pericolo, ad esempio diffondendo bugie sui vaccini. L’importante è che gli utenti fossero attratti da tali contenuti, che li cliccassero, commentassero, condividessero. Il termine chiave per chi si occupa di queste cose è “engagement”: una notizia con un alto engagement viene spinta verso ancora più utenti, soprattutto coloro che gli algoritmi di machine learning prevedono saranno attratti dai contenuti, invogliati a rispondere, engaged.
Anche chi ritiene, giustamente, che tali notizie siano false e le commenta per confutarle viene conteggiato fra gli utenti attratti da tale contenuto, del resto l’indignazione è un sentimento usato molto spesso dai social media e dalle testate online per attirare attenzione. Il tutto in un turbine di viralità e di emozioni contrapposte che porta gli utenti a passare sempre più tempo sul social, aumentando il numero di connessioni al giorno e i minuti (o sarebbe meglio dire ore?) di attività sul servizio, tutti numeri che le aziende poi sfoggiano soddisfatte nei rapporti trimestrali per gli investitori e nelle statistiche per gli inserzionisti.
Questo era il “far west” dei social media per buona parte degli anni Dieci. Quindi nel marzo del 2018 scoppiò lo scandalo Cambridge Analytica che tutti conosciamo, e appena un mese dopo Facebook diede a Quiñonero la gestione del SAIL e il compito, forse un po’ generico, di far sì che quegli algoritmi che lui aveva contribuito a creare non causassero danni sociali.
Gli algoritmi di Facebook: l’articolo di Karen Hao
L’articolo di Hao, che nelle foto mostra un Quiñonero apparentemente preoccupato e pensieroso, rincara la dose nell’occhiello: “Gli algoritmi di AI hanno dato all’azienda un’insaziabile abitudine per le bugie e i discorsi di odio. Ora l’uomo che li ha costruiti non riesce a risolvere il problema.” Il che non lascia molto spazio alle interpretazioni su quale sia il problema e chi sia il colpevole: Facebook sarebbe rea di usare modelli AI che amplificano fake news e odio sociale, e neppure chi lavora al suo interno è in grado di risolvere questo pericoloso problema.
Nel suo pezzo, che qui riassumerò solo brevemente, Karen Hao spiega che nella prima metà dello scorso decennio Facebook iniziò a puntare molto sul machine learning, creando due team dedicati: il Facebook AI Research (FAIR) lab e l’Applied Machine Learning (AML) lab, poi rinominato in Facebook AI Applied Research (FAIAR) lab. A guidare FAIR venne chiamato Yann LeCun, in assoluto uno dei maggiori ricercatori di deep learning che il settore possa offrire, mentre Quiñonero guidava l’AML. La giornalista spiega che Facebook già da tempo era al corrente che i suoi algoritmi favorissero la polarizzazione delle persone, citando una presentazione interna del 2016 visionata dal Wall Street Journal, dove una ricercatrice dell’azienda aveva scoperto che il social network non solo ospitava un alto numero di gruppi estremisti, ma che il 64% di tutte le adesioni a tali gruppi erano dovute agli strumenti di raccomandazione di Facebook, soprattutto le funzionalità “Gruppi suggeriti” e “Scopri”.
Nell’articolo poi sono evidenti i riferimenti a Facebook come un’azienda dove la crescita è l’obiettivo assoluto, a costo di far naufragare molti tentativi di mettere un freno agli algoritmi troppo polarizzanti. Come un progetto del 2017 di modificare gli algoritmi per aumentare la diversità dei gruppi da suggerire agli utenti, al fine di ridurre la polarizzazione politica. Purtroppo però le modifiche sarebbero state “anti-crescita” e il progetto venne abbandonato. O come una proposta di variare i contenuti mostrati a quegli utenti che l’algoritmo identificava come in uno stato di depressione. Quando le modifiche suggerite impattavano sull’engagement, è la tesi nell’articolo, le proposte faticavano a ottenere luce verde, disincentivando così i ricercatori dell’azienda a muoversi in direzioni che sapevano sarebbero state osteggiate dal management.
La squadra di Quiñonero, quindi, visto che proponeva idee e modifiche che non promuovevano la crescita, ma che anzi andavano in certi casi contro l’engagement, riceveva poche risorse per proseguire il lavoro. Finché pochi mesi dopo, nell’agosto di quell’anno, il presidente USA Donald Trump si scagliò contro i social network che – a detta sua – avevano dei pregiudizi algoritmici (bias) contro i Repubblicani. Il team Responsible AI/SAIL iniziò finalmente a ricevere più fondi e la sua missione diventò quella di risolvere il problema dei bias. Cosa che distolse l’attenzione del gruppo verso la gestione dei contenuti estremisti e polarizzanti.
L’articolo riporta inoltre affermazioni contrastanti da parte dei responsabili di Facebook, dove un portavoce afferma che a prendersi cura di questi problemi non vi è un solo team, bensì una moltitudine di squadre, sollevando così il team di Quiñonero da gran parte delle responsabilità, mentre il CTO Mike Schroepfer avrebbe apparentemente dichiarato il contrario, sostenendo che assegnare tutto a un singolo team era nelle migliori pratiche dell’azienda.
Infine, all’inizio di quest’anno fu la volta dei disordini a Washington D.C., dove alcuni dei manifestanti si organizzarono anche attraverso Facebook, e il social network è precipitato nuovamente sul banco degli imputati. Verso la fine dell’articolo la giornalista racconta di un Quiñonero molto titubante alla domanda se Facebook avesse giocato un ruolo (leggi: se avesse quindi delle responsabilità) nella sanguinosa rivolta di Capitol Hill. Righe che lasciano nel lettore una sensazione di incertezza, facendogli chiedere se a Facebook sappiano davvero come controllare i loro algoritmi. E se anche lo sanno, quanto siano disposti a farlo.
La risposta di Facebook
La risposta di Facebook all’articolo di Karen Hao non si è fatta attendere e ha interessato più fronti.
Anzitutto, come riporta il caporedattore di MIT Technology Review Gideon Lichfield nella sua lettera di commiato (sta per diventare direttore editoriale di Wired), Facebook ha inviato una lunga lista di obiezioni, contestando i contenuti dell’articolo. Lista che Lichfield non ha esitato a definire “da spaccare il capello, oppure inesattezze”. Poi è stata la volta di Yann LeCun, che in un commento su Twitter ha parlato di mancanza di correttezza giornalistica e ha assicurato non solo che gli algoritmi di Facebook non incoraggiano contenuti falsi e provocatori solo per aumentare l’engagement, ma che incitazioni all’odio, bullismo ed esortazioni alla violenza vengono cancellate dal social network. I sistemi di intelligenza artificiale, ha continuato LeCun, nell’ultimo trimestre hanno cancellato preventivamente il 94,7% di tali contenuti, e la polarizzazione politica americana non deve essere imputata a Facebook, poiché altri Paesi dove il social network è molto usato (Svezia, Norvegia, Germania) hanno registrato una diminuzione della polarizzazione.
Ma quella di Yann LeCun non è solo una difesa d’ufficio dell’azienda per cui lavora. Secondo lui il gruppo di Quiñonero non ha mai avuto fra i suoi compiti quello di gestire i problemi della disinformazione e dei messaggi d’odio, i gruppi che si occupano di questi problemi in Facebook hanno al loro interno centinaia di persone, confermando così che tali problematiche siano effettivamente appannaggio di altri team, come suggeriva a Karen Hao un portavoce dell’azienda.
Nella diatriba si è inserita anche Timnit Gebru, la ricercatrice AI di Google che qualche mese fa venne costretta a lasciare il suo posto, che sempre via Twitter si è scagliata contro LeCun, accusandolo di danneggiare i colleghi. Ma la reale possibilità che questa diatriba si trasformi nella solita “piazzata” da social non dovrebbe far distogliere l’attenzione dal vero problema.
Non solo Facebook: le radici del problema degli algoritmi di AI
Il vero problema è che gli algoritmi di intelligenza artificiale possono davvero influenzare i nostri comportamenti, come ampiamente dimostrato da numerose ricerche, incluse le intenzioni di voto. Anche chi, leggendo queste righe, si ritiene immune a qualsivoglia manipolazione (gli influenzati sono sempre gli altri) in realtà si illude. Chi più chi meno, siamo tutti influenzabili, e i modelli di deep learning stanno diventando sempre più bravi a farlo. Il fatto che non ce ne accorgiamo non è che una testimonianza della loro sofisticatezza.
Aggiungiamo a questo il fatto che oggi noi tutti passiamo la maggior parte del nostro tempo connessi a una manciata di siti o di servizi online, sempre gli stessi. Concentriamo volontariamente la nostra attenzione su pochi indirizzi, dando a queste aziende ampie possibilità per conoscerci e raggiungerci in qualsiasi momento. Molte di queste piattaforme, in genere social network, sono transnazionali e possono agire contemporaneamente su più popolazioni, facendo magari modifiche in un senso per gli utenti di Francia e Germania e nell’altro senso per gli utenti di Spagna e Italia, analizzando i risultati e apportando ulteriori modifiche.
Poi quando un giornale, o un governo, vogliono vederci chiaro, queste aziende si chiudono a riccio e mostrano gli aculei. Oggi parliamo di Facebook, ma non penso che altri “giganti del web” si comporterebbero diversamente. Al di là delle polemiche o delle questioni di lana caprina su quale sia il team interno che se ne occupa, gli algoritmi che squadre di ingegneri (incentivati da manager con l’occhio sui KPI aziendali) calano dall’alto su milioni di cittadini andrebbero forse valutati più attentamente. In Francia ci stanno provando con un piccolo team governativo. Pochissime persone, ma è pur sempre un inizio.