AI sicura: la regolamentazione non basta, a guidare il cambiamento saranno le aziende

Sylvain Duranton

Global Leader BCG Gamma

Steve Mills

Chief AI Ethics Officer BCG GAMMA

regolamentazione
  1. Home
  2. Intelligenza Artificiale
  3. AI sicura: la regolamentazione non basta, a guidare il cambiamento saranno le aziende

Un’ondata di regolamentazione tecnologica sta investendo il mondo. I legislatori e i regolatori dell’Unione Europea, degli Stati Uniti, dell’India e di altri Paesi stanno lavorando a nuove leggi e sistemi di regolamentazione che influenzeranno il modo in cui le organizzazioni e noi stessi, in qualità di cittadini e consumatori, utilizzeremo l’intelligenza artificiale (AI).

Proprio come nel caso dell’AI, l’attuazione di questi regolamenti passa spesso inosservata, ma presto influenzerà quasi ogni aspetto della nostra vita. Questo avviene perché, che lo vogliamo o meno, l’AI si va diffondendo ovunque: può aiutarci a scoprire della nuova musica, parcheggiare l’auto o giocare contro di noi in un videogioco.

La regolamentazione dell’AI può far bene al business

Di recente, abbiamo intervistato i dirigenti senior di più di 1.000 grandi organizzazioni e i risultati parlano da sé: l’86% degli intervistati afferma che le proprie aziende si sono attivate concretamente per usare l’AI in modo responsabile. Sebbene solo il 21% delle società campione abbia programmi a uno stadio “maturo”, la stragrande maggioranza ha comunque iniziato il proprio percorso verso l’AI responsabile. Ciò vuol dire che queste aziende si sono attivate per assicurarsi che i sistemi di AI sviluppati producano risultati equi, imparziali e dimostrabili, che siano sicuri e rispettino la privacy degli utenti, che supportino gli esseri umani senza sostituirli e che minimizzino gli impatti sociali e ambientali negativi.

Vi è un altro risultato importante che emerge dal sondaggio: il 42% dei leader mira a un uso responsabile dell’AI per i vantaggi che ne conseguono per il business. Questa risulta essere di gran lunga la motivazione più importante, quasi più importante di tutte le altre messe insieme. Ciò è indicativo del vantaggio competitivo che viene associato al concetto di comportamento responsabile.

Tuttavia, la sfida principale per molti dirigenti è la mancanza di standard chiari, fattore che li costringe a crearne di propri. Una buona regolamentazione stabilisce degli standard comuni e rafforza i requisiti di trasparenza, in modo che i clienti possano farsi la loro opinione, premiando le aziende che utilizzano l’AI responsabilmente. Questo aiuterà a costruire la fiducia e a dimostrare che l’AI responsabile è in linea con i diritti e i valori fondamentali della persona.

L’approccio dell’UE: nessun divieto, ma usi proibiti

La regolamentazione richiederà un coordinamento internazionale, senza il quale ci ritroveremo con un mosaico frammentato di leggi incoerenti che peggioreranno ulteriormente la situazione. Il Regolamento generale sulla protezione dei dati dell’UE (GDPR), entrato in vigore nel 2018, ha avuto un impatto significativo anche oltre i confini europei. Lo stesso vale per il regolamento sopraccitato, che potrebbe diventare di fatto lo standard globale in futuro. Per questo vale la pena esaminare l’approccio dell’UE.

In primo luogo, non verrà introdotto alcun divieto assoluto sulle tecnologie basate sull’AI, ma solo alcuni cosiddetti “usi proibiti”. Basti pensare al riconoscimento facciale automatico, che può essere utilizzato per la sorveglianza di massa o, molto più banalmente, per sbloccare il telefono. È un approccio “smart” che gli attivisti hanno accusato di non essere abbastanza rigoroso, ma che ha il vantaggio di lasciare la porta aperta a future ricerche, nonché alla scoperta di nuovi utilizzi.

[QUIZ] SECURITY/BACKUP
Protezione dei dati: sei sicuro di avere una strategia efficace? Scoprilo nel Quiz
Business Analytics
Business Intelligence

In secondo luogo, la proposta di regolamento dell’UE è sorprendentemente tecnologica. Richiede che i sistemi di AI siano addestrati sulla base di dati di alta qualità e che siano al contempo trasparenti, soggetti a supervisione umana, robusti e accurati. Questi requisiti dovranno essere definiti più chiaramente, ma la presenza di regolatori che conoscono gli ingredienti per una “buona” AI è di per sé un segnale incoraggiante.

regolamentazione

Regolamentazione UE: una visione più equilibrata riguardo al potenziale dell’AI

Il regolamento dell’UE sull’intelligenza artificiale parla di “sistemi AI ad alto rischio”, che possono causare danni “fisici o psicologici” attraverso l’utilizzo di “tecniche subliminali” o lo sfruttamento delle vulnerabilità di un “gruppo specifico di persone sulla base della loro età o delle disabilità fisiche o mentali”. Il regolamento vieta, inoltre, all’AI di fornire un “punteggio sociale” alle autorità pubbliche.

Ogni tecnologia “potente” può essere abusata, quindi risulta comprensibile che l’UE voglia implementare misure democratiche di salvaguardia. Tuttavia, il linguaggio dei nuovi regolamenti rischia di amplificare le preoccupazioni esistenti dei cittadini riguardo alla tecnologia. Ricordiamoci che, nella maggior parte dei casi, l’uso dell’AI è del tutto innocuo: basta chiedere a Siri o Alexa, o guardare nella vostra playlist Discover Weekly su Spotify. I regolatori dovrebbero pertanto sforzarsi di avere un tono equilibrato, che incoraggi i cittadini a rimanere vigili, ma che lasci spazio d’espressione a tutti gli impatti positivi che l’AI può fornire.

L’AI può generare numerosi benefici se ha lo spazio vitale

In fondo, l’AI è un metodo informatico per ridurre gli sprechi: per tagliare il tempo, gli sforzi, l’energia e i materiali superflui che, al contrario, l’intelligenza naturale tende spesso a sprecare. Gli studi di BCG dimostrano che applicando l’AI alla sostenibilità aziendale si potrebbero ridurre le emissioni globali del 10%. Inoltre, l’AI ha reso possibile la medicina personalizzata e il rapido sviluppo di vaccini; ha consentito il tracciamento dei contatti e il monitoraggio del contagio, il quale ha permesso agli esperti di salute pubblica di comprendere come si è diffuso il Coronavirus. L’AI consente, inoltre, di assegnare i beni di soccorso nelle economie devastate, di ridurre gli shock nei sistemi finanziari e di distribuire il credito in modo più equo e meno sbilanciato.

È evidente che l’AI può fare del bene. I legislatori dovrebbero concentrarsi sulle poche applicazioni associate al rischio e dare alle altre spazio per svilupparsi.

I regolatori dell’UE probabilmente sosterrebbero che questo è esattamente il motivo per cui differenziano tra casi d’uso “inaccettabili”, “ad alto rischio” e “a rischio moderato/basso”. Queste categorie sembrano di facile gestione, ma non è così semplice. I requisiti per i casi d’uso ad alto rischio sono talmente onerosi che realisticamente solo le grandi aziende avranno le risorse per affrontarli. Anche quando si rientra nella categoria “rischio moderato/basso” si viene comunque incoraggiati dal regolamento a conformarsi volontariamente alle norme. Questo pone le aziende in una posizione difficile, in quanto dovranno decidere se affrontare i costi e la complessità legate a tali sfide oppure rendere conto ai clienti del mancato impegno. I regolatori dovrebbero invece concentrarsi su una via di mezzo di regolamentazione per la categoria “moderato/basso rischio” che incoraggi la trasparenza e la responsabilità senza, però, imporre una serie di requisiti.

Non bisogna soffocare l’innovazione

Il diritto dell’UE è spesso complesso e come tale lo è anche la regolamentazione dell’AI. Questo potrebbe finire per soffocare l’innovazione, soprattutto per le piccole e medie imprese, mentre, al contrario, le grandi piattaforme con i loro “eserciti” di avvocati e lobbisti potrebbero venirne fuori indenni. Questo è esattamente quello che è successo con il GDPR, che ha portato le medie imprese a spendere circa 3 milioni di dollari per i loro requisiti normativi nel 2017-2018, costretto diversi giornali e aziende pubblicitarie ad abbandonare il mercato dell’UE e lasciato molte piccole imprese europee in difficoltà nel tentativo di conformarsi ai requisiti. L’anno scorso, la confusione sulle disposizioni di legge ha bloccato almeno 40 studi clinici e osservazionali sui fattori di rischio e sull’esposizione al cancro.

A questo timore si aggiunge il linguaggio vago del nuovo regolamento UE e della definizione stessa di AI, un fattore che probabilmente porterà a un aumento dei costi di implementazione e all’emergere di scappatoie per aggirare la legge. Ciò potrebbe trascinare le aziende in una “terra di nessuno” fatta di incertezza legale, dove chi non usa “dati completi” potrebbe ricevere multe pari al 6% del fatturato globale. Ma chi dirà loro cosa definisce una “serie completa di dati”? Preferiremmo di gran lunga che i regolatori lavorassero per fasi e richiedessero in primis una forte trasparenza, a partire dalla quale potremmo lavorare insieme per definire standard chiari.

Le organizzazioni migliori otterranno le concessioni per usare l’AI

I nuovi regolamenti stabiliranno dei requisiti legali, ma ciò non sarà sufficiente per ottenere l’approvazione della società. Le organizzazioni che vogliono la concessione per utilizzare l’AI o qualsiasi altra tecnologia su scala dovranno guadagnare la fiducia delle persone. Questo significa dimostrare loro che stanno usando l’AI in modo responsabile e non solo che hanno raggiunto la soglia stabilita dalla legge.

Questo è ciò che le aziende che si basano sulla raccolta e la vendita dei dati personali dei loro utenti potrebbero presto imparare a proprie spese. Apple ha riconosciuto l’importanza della fiducia degli utenti e ha dato agli utenti degli iPhone e degli iPad il controllo sui loro dati personali. Se molti utenti dovessero, però, negare la condivisione di queste informazioni, ciò potrebbe mettere a dura prova il loro modello di business.

I leader aziendali intelligenti lo capiscono ed è per questo che aziende come Twitter e Chanel hanno fatto di tutto per assicurarsi che le loro applicazioni basate sull’AI funzionino bene per tutte le popolazioni. Anche quando Twitter ha avuto un problema con una nuova funzione, la società si è dimostrata trasparente riguardo al problema, fornendo ai clienti una chiara spiegazione di ciò che era successo e illustrando le misure intraprese per affrontare il problema. Questo livello di trasparenza è necessario per le aziende che vogliono ottenere la concessione per usare l’AI.

Una concessione per operare rappresenta un modo fondamentalmente nuovo di fare business. Nel caso dell’AI, ci vorranno nuovi strumenti e formati che rispettino il processo decisionale umano. Il consiglio per le aziende è di adottare misure per favorire l’uso responsabile dell’AI e di essere aperte e trasparenti sulle azioni intraprese. Tuttavia, le aziende migliori si stanno già muovendo in questa direzione e saranno ampiamente ricompensate per questo.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

 

FacebookTwitterLinkedIn