approfondimento

AI in azienda, tutte le domande da porsi



Indirizzo copiato

Con il progresso e la veloce implementazione dell’intelligenza artificiale nelle aziende, emergono anche nuovi e complessi problemi legali e di business da affrontare per garantire uno sfruttamento responsabile e di successo

Pubblicato il 10 ott 2023

Gianluigi Marino

Partner e Head of Digitalisation in Italia



OpenAi lifestyle

Le aziende di tutto il mondo stanno sempre più adottando soluzioni di intelligenza artificiale per migliorare l’efficienza operativa, ottimizzare i processi di business e fornire esperienze personalizzate ai clienti. Tuttavia, con il rapido progresso dell’AI, emergono anche nuovi e complessi problemi legali e di business che le aziende devono affrontare per garantire uno sfruttamento dell’AI responsabile e di successo.

AI nelle aziende: trasparenza e responsabilità

Un problema fondamentale riguarda la trasparenza e la responsabilità delle decisioni prese dall’AI. Le soluzioni di AI spesso operano attraverso modelli complessi che rendono difficile per gli umani comprendere completamente il motivo dietro determinate decisioni. Riuscire a spiegarne le ragioni è un requisito fondamentale già adesso. È essenziale stabilire meccanismi per garantire la tracciabilità delle decisioni dell’AI e per rendere le aziende responsabili delle conseguenze delle proprie azioni e dare seguito alle richieste dei propri dipendenti o utenti.

Protezione dei dati personali

L’AI funziona efficacemente con grandi quantità di dati. Le norme in materia di protezione dei dati personali sono da tenere in considerazione quando si addestra un tool, quando si ottengono dati da fonti terze per le medesime finalità. Sono altresì da tenere in considerazione in fase di utilizzo del tool di AI, sia esso creato ad hoc oppure basato su una licenza acquistata da terzi provider in modalità “as a service”. Gli obblighi informativi sono ovviamente cruciali, così come la scelta della base giuridica più adatta alle varie fasi del ciclo di vita del tool di AI. Riuscire a dare seguito alle richieste di esercizio dei diritti previsti dal GDPR potrebbe non essere semplice se non si sono tenute in considerazione fin dal principio le regole in materia di protezione dei dati. A tal proposito rileggere la parte finale del considerando 71 del GDPR è sempre utile “In ogni caso, tale trattamento dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione“.

Proprietà intellettuale

L’AI è alimentata da algoritmi e software innovativi che possono essere soggetti a diritti di proprietà intellettuale. È di primaria importanza assicurarsi di rispettare i diritti di proprietà intellettuale dei terzi e, al contempo, proteggere le proprie creazioni o, comunque, le informazioni, i dati, i database utilizzati in un contesto di AI.

Responsabilità legale

Se un’azienda utilizza l’AI per prendere decisioni critiche, come nel settore sanitario o finanziario, deve essere chiaro fin dal principio di chi sia la responsabilità legale. Se un’AI prende una decisione sbagliata che danneggia un individuo o un’organizzazione, chi è responsabile? Le aziende devono avere ben chiari i rischi di tali possibili scenari e, eventualmente, assicurarsi di avere coperture assicurative adeguate per affrontare eventuali controversie legali.

Bias e discriminazione

Le soluzioni di AI possono essere soggette a pregiudizi e porre in essere atti di discriminazione, in quanto il loro apprendimento si basa sui dati storici forniti. Se i dati, di fatto, contengono pregiudizi, l’AI potrebbe perpetuarli nei risultati delle sue decisioni. Le aziende devono adottare strategie per identificare e mitigare i pregiudizi esistenti nell’AI, come la diversificazione dei dati di addestramento, l’auditing degli algoritmi (ad esempio, se la soluzione si comporta come una “black-box“, potrebbe essere utile, se non necessario, utilizzare dei “supplementary tools”, cioè software aggiuntivi che indagano il funzionamento dell’IA) e il coinvolgimento di esperti umani nella revisione delle decisioni dell’AI. È poi da tenere in considerazione che, se eventuali pregiudizi e condotte discriminatorie fossero scoperti successivamente al pieno utilizzo dell’AI, la rimozione di tali storture non sarebbe un lavoro affatto facile, senza contare poi la probabile ondata di ripercussioni dal punto di vista reputazionale.

Impatto sul personale

L’adozione dell’AI può avere un impatto significativo sulle risorse umane. Alcuni processi automatizzati dall’AI possono comportare la riduzione del personale o cambiamenti nei requisiti delle competenze. Le aziende devono assicurarsi che i dipendenti abbiano le competenze necessarie per lavorare con l’AI e sfruttarne i vantaggi in modo efficace. Nel breve periodo poi si potrebbe rischiare il cosiddetto “deskilling” del proprio personale, non più abituato o via via del tutto incapace ad avere un approccio critico rispetto al prodotto dell’AI.

Le domande da porsi in azienda

Alla luce di quanto sopra, delle diverse tipologie di AI disponibili (dai tool di machine learning da creare fino ai servizi di terzi già disponibili “as a service”), per mitigare alcuni dei rischi indicati sopra e, in generale, per riuscire a governare questa rivoluzione suggerisco alcuni quesiti da porre in azienda:

Che utilizzo dell’AI viene fatto in azienda?

  • Come utilizzate/intendete utilizzare l’AI nella vostra azienda? In che modo i vostri dipendenti utilizzano l’AI (e.g. generativa) per realizzare lavori e contenuti?
  • Che tipo di AI state utilizzando o pensate di utilizzare?
  • Che contratto usate? Enterprise model vs open to public
  • Vi sono casi d’uso di AI generativa nella vostra azienda?
  • L’uso previsto/esistente dell’AI è solo interno o anche esterno (verso i clienti)?
  • Se esterno, il tool di AI sarà utilizzato dai “consumatori” o in un contesto B2B?
  • Se si tratta di un uso interno, verrà applicato anche in ambito HR?

Sono stati analizzati i possibili rischi?

  • Sicurezza
  • Inaccuratezza dell’output
  • Perdita di competenze (deskilling)
  • Pregiudizi e discriminazione
  • Uso illecito (rischi regolamentari)
  • Danni reputazionali
  • Rivelazione di informazioni aziendali (es. segreti aziendali, know how)
  • Violazione di diritti di proprietà intellettuale di terzi
  • Illecito trattamento di dati personali

Esiste una politica di gestione dell’AI in azienda?

  • In che modo la vostra azienda supervisionerà l’uso dell’AI? Quali approvazioni avrete internamente per l’acquisto di nuove tecnologie di AI?
  • Limiterete l’uso dell’AI ai modelli “enterprise” (o anche quelli liberamente accessibili al pubblico)?
  • La vostra attuale governance aziendale è adatta?
  • Avrete una policy sull’AI generativa?
  • Le vostre policy sull’AI sono solo di natura operativa/informatica o si estendono ad altre questioni (incluse quelle etiche)?
  • Quali tutele includerete nei contratti con i fornitori in merito all’uso dell’AI?
  • Quali tutele includerete nei contratti di lavoro, negli accordi di riservatezza e negli accordi sui diritti di proprietà intellettuale in merito all’uso di questi strumenti da parte dei dipendenti sul posto di lavoro?
  • Sapete quali normative si applicano oggi all’AI e quali si profilano all’orizzonte?
  • Chi, all’interno della vostra azienda, si assumerà la responsabilità dei contenuti generati o delle scelte fatte dall’AI?
  • Come garantirete la continuità operativa e la resilienza informatica?
  • Come comunicherete il vostro utilizzo dell’AI sia all’interno che all’esterno? Come comunicherete l’utilizzo di tool di AI ai candidati?
  • Quale formazione potreste fornire ai dipendenti per garantire la compliance e l’utilizzo efficace dei tool di AI che avete adottato?

Fare formazione in azienda, sotto tutti i punti di vista, incluso quello legale, è fondamentale e lo sarà sempre di più, così da aumentare le probabilità di avere un atteggiamento attivo, critico e consapevole rispetto a questo straordinario strumento tecnologico senza appiattirsi in modo acritico e fideistico a quello che rischia di essere il nuovo “oracolo” digitale.

Articoli correlati

Articolo 1 di 3