ANALISI

AI e privacy, la ricetta di Microsoft



Indirizzo copiato

Protezione dei dati, trasparenza, compliance, suggerimenti ai governi e alle istituzioni per la governance. Ecco tutti i punti in cui l’azienda di Redmond si sta impegnando

Pubblicato il 27 dic 2023

Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza



software AI

In una recente nota[1], firmata dalla Chief Privacy Officer Julie Brill, Microsoft ha dichiarato di implementare sicurezza e privacy in tutte le fasi di progettazione e implementazione dei suoi sistemi di intelligenza artificiale. Un approccio che noi europei potremmo ricondurre all’art. 25 del GDPR. Microsoft ha dichiarato inoltre di puntare sia sulla trasparenza, al fine di consentire alle persone e alle organizzazioni di comprendere le capacità e i limiti dei propri sistemi di intelligenza artificiale, che di puntare al controllo dei propri dati da parte degli utenti, attraverso strumenti per accedere, gestire ed eliminare i dati personali, nonché la cronologia delle conversazioni memorizzate nei sistemi Microsoft.

Dati AI etichettatura

Garantire la fiducia nei sistemi di AI

Partendo dalla protezione dei dati, Microsoft ha dichiarato che la stessa è un principio essenziale ed è fondamentale per garantire la fiducia nei sistemi di intelligenza artificiale. Microsoft ha dichiarato di implementare misure tecniche e organizzative appropriate per garantire la sicurezza e la protezione dei dati con la quale alimentare i sistemi di AI. Si potrebbe parlare, contemporaneamente, di privacy-by-design che di security-by-design.

Per quanto attiene il principio di trasparenza, lo stesso è per Microsoft un elemento chiave per integrare l’intelligenza artificiale nei prodotti e nei servizi del colosso guidato da Satya Nadella. Si tratta di creare fiducia negli utenti e nelle aziende, creando trasparenza nelle interazioni delle persone con i sistemi di intelligenza artificiale. Un approccio che punta a fornire “chiarezza” e informazioni in tempo reale per aiutare gli utenti a comprendere meglio il funzionamento della tecnologia in esame.

Microsoft ritiene fondamentale fornire agli utenti strumenti che consentono loro di controllare i propri dati. A Redmond ritengono che tutte le organizzazioni che offrono tecnologie di intelligenza artificiale debbano garantire che i consumatori possano esercitare in modo significativo i loro diritti in qualità di “soggetti interessati”. Microsoft offre la possibilità di controllare le interazioni dell’utente con i prodotti e i propri servizi e di rispettare le scelte di privacy dell’utente.

Attenzione alla compliance

Altro punto importante che Microsoft dichiara è la sua conformità alle normative in materia di protezione dei dati in tutti i Paesi in cui opera. L’azienda ha dichiarato di lavorare a stretto contatto con i governi di tutto il mondo per garantire la conformità alle normative di settore (come il GDPR). Le aziende che sviluppano sistemi di intelligenza artificiale hanno un ruolo importante nel collaborare con le autorità di controllo di tutto il mondo (come il Garante Privacy), per aiutarle a comprendere l’evoluzione nel tempo. Per Microsoft, è necessario condividere informazioni con le autorità di controllo su come funzionano i sistemi di AI (e come proteggono i dati personali), sulle lezioni apprese sviluppando sistemi di governance dell’AI nonché su nuove idee su come affrontare le problematiche specifiche connesse al rapporto tra AI e privacy.

AI Act

Blueprint for Governing AI

Come è noto, gli approcci normativi in materia di intelligenza artificiale stanno facendo notevoli passi avanti, sia nell’Unione Europea con il cosiddetto “AI Act”[2] che vedrà la luce tra qualche mese, sia negli Stati Uniti con l’Executive Order del Presidente Biden[3]. Il contributo di Microsoft a questa partita sulle sponde opposte dell’Atlantico comprende il “Blueprint for Governing AI, in cui l’azienda di Redmond offre suggerimenti circa la varietà di approcci e controlli che i governi potrebbero voler prendere in considerazione per proteggere la privacy, promuovere i diritti fondamentali e garantire la sicurezza dei sistemi di intelligenza artificiale nei propri Paesi.

Mentre la società avanza nell’era dell’AI, è necessario che i governi, le organizzazioni, la società civile e il mondo accademico lavorino insieme per promuovere normative armonizzate che garantiscano che le innovazioni dell’intelligenza artificiale vadano a beneficio di tutti e siano incentrate sulla protezione della privacy e di altri diritti umani fondamentali.

Note

  1. Enhancing trust and protecting privacy in the AI era. Microsoft. https://blogs.microsoft.com/on-the-issues/2023/12/19/trust-privacy-bing-copilot-responsible-ai/
  2. Regolamento sull’intelligenza artificiale: il Consiglio e il Parlamento raggiungono un accordo sulle prime regole per l’IA al mondo. Consiglio Europeo. https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/
  3. What They Are Saying: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. The White House. https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/31/what-they-are-saying-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

Articoli correlati

Articolo 1 di 4