NEWS

ChatGPT – OpenAI collabora con il Garante privacy: tutelerà gli utenti italiani

Nell’incontro, avvenuto in videoconferenza la sera del 5 aprile, la società che produce ChatGPT si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e a inviare presto al Garante un documento indicante misure che rispondano alle richieste dell’Autorità

Pubblicato il 11 Apr 2023

ChatGPT business società

OpenAI collaborerà con l’Autorità italiana con l’obiettivo di arrivare a una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT.  È quanto è emerso dall’incontro avvenuto la sera del 5 aprile in videoconferenza fra il Garante privacy e OpenAI

All’incontro, a cui ha preso parte in apertura anche Sam Altman, CEO di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang,  Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.

OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana, la quale, da parte sua, ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica. Il Garante ha però ribadito l’importanza del rispetto delle norme poste a tutela dei dati personali dei cittadini italiani ed europei.

OpenAI si è quindi impegnata a:

  • rafforzare la trasparenza nell’uso dei dati personali degli interessati,
  • i meccanismi esistenti per l’esercizio dei diritti
  • e le garanzie per i minori e
  • a inviare al Garante, entro la giornata del 6 aprile, un documento che indichi le misure che rispondano alle richieste dell’Autorità.

Il Garante si è riservato di valutare le misure proposte da OpenAI, anche riguardo al provvedimento già adottato nei confronti della società.

ChatGPT, un ritorno possibile: OpenAI e Garante Privacy cominciano a collaborare

La dichiarazione di OpenAI sulla sicurezza dell’intelligenza artificiale (AI)

OpenAI ha pubblicato sul proprio blog il 5 aprile il suo approccio per una AI sicura e “benefica”, “che possa essere usata da tutti in modo equo e responsabile”.

Per fare questo, OpenAI si basa su quattro pilastri:

– Allineamento: si tratta di garantire che l’AI sia allineata con i valori e gli obiettivi degli esseri umani, e che non causi danni involontari o intenzionali.
– Robustezza: si tratta di assicurare che l’AI sia resistente a errori, malfunzionamenti, manipolazioni o attacchi, e che possa adattarsi a situazioni nuove o impreviste.
– Governance: si tratta di stabilire regole, norme e meccanismi di controllo per l’uso dell’AI, che siano trasparenti, inclusivi e democratici.
– Cooperazione: si tratta di favorire la collaborazione tra i vari attori coinvolti nell’AI, come ricercatori, sviluppatori, utenti, policy maker e società civile, per condividere conoscenze, risorse e responsabilità.

OpenAI segue questi principi in tutte le fasi del ciclo di vita dell’AI, dalla progettazione alla distribuzione, passando per la ricerca, lo sviluppo e il test. In particolare, OpenAI si concentra su tre aree di ricerca:

– AI generale: si tratta di creare un’AI capace di svolgere qualsiasi compito umano o superumano, con un alto livello di autonomia e intelligenza. OpenAI ritiene che questo sia un obiettivo a lungo termine, ma che richieda una preparazione anticipata per affrontare le sfide etiche e sociali che potrebbe comportare.
– AI larga: si tratta di creare un’AI basata su modelli molto grandi e potenti, che possano apprendere da enormi quantità di dati e generare una vasta gamma di output. OpenAI ha già realizzato alcuni esempi di AI larga, come GPT-3 e DALL-E, ma riconosce che ci sono ancora molti problemi da risolvere in termini di qualità, affidabilità e impatto dell’AI larga.
– AI sicura: si tratta di creare un’AI che sia sicura per se stessa e per gli altri, che possa prevenire o mitigare i rischi derivanti dall’uso dell’AI. OpenAI sta sviluppando diversi metodi e strumenti per l’AI sicura, come la verifica formale, il testing automatizzato, l’apprendimento robusto e l’allineamento incentrato sull’utente.

OpenAI conclude l’articolo affermando che la sicurezza dell’AI è una priorità per la loro missione, e invitando tutti gli interessati a partecipare al dibattito e alla costruzione di un’AI benefica per l’umanità.

Dopo le rilevazioni del Garante Privacy italiano anche altri Paesi accendono un faro sul software di Intelligenza artificiale ChatGpt.

Iniziato l’esame delle misure proposte da OpenAI

Lo scorso 8 aprile, il Garante per la protezione dei dati personali si è riunito in seduta straordinaria per un primo esame dei due documenti fatti pervenire da OpenAI dopo l’incontro svoltosi mercoledì 5 aprile in video conferenza.

Il Collegio tornerà a riunirsi nei prossimi giorni per proseguire l’esame delle misure proposte dalla società statunitense per rendere il trattamento dei dati degli utenti e degli interessati conforme alla normativa privacy.

Attenzione ai rischi per la privacy anche in Canada, Germania, Francia e Irlanda

ChatGPT  desta preoccupazione per la privacy non sono in Italia. Il Canada ha annunciato di aver aperto un’indagine su OpenAI. Secondo l’agenzia Reuters online, anche Germania, Francia e Irlanda starebbero seguendo le orme dell’Autorità italiana per la protezione dei dati personali.

In Canada, l’indagine dell’Office of the Privacy Commissioner su OpenAI è stata aperta in risposta a una “denuncia relativa alla raccolta, all’uso e alla divulgazione di informazioni personali senza consenso”, ha affermato l’agenzia. “Dobbiamo stare al passo con i rapidi progressi tecnologici, e questa è una delle mie principali aree di interesse”, ha affermato il commissario canadese per la privacy Philippe Dufresne.

Le autorità di regolamentazione della privacy in Francia e Irlanda hanno contattato l’omologo italiano per saperne di più sul divieto. E la Germania potrebbe seguire l’Italia bloccando ChatGPT per problemi di sicurezza dei dati, come ha dichiarato il commissario tedesco per la protezione dei dati al quotidiano Handelsblatt.

Su ChatGPT interviene anche l’AGCM

Su ChatGpt è intervenuta anche l’Autorità garante per la concorrenza e il mercato. “Il rischio è forte, dobbiamo sensibilizzare chi di dovere per un intervento regolatorio perché non si può lasciare che nascano queste imprese in grado di manipolare il mondo ed i nostri dati”, ha affermato Roberto Rustichelli, presidente dell’Authority nel corso di un evento al Senato. “A prescindere da questioni etiche – ha aggiunto – ci sono anche questioni giuridiche: la nostra Autorità vigilerà ma per il momento il quadro è ancora lontano da venire, come possibilità di intervento”. Infine ha concluso: “il pericolo dell’algoritmo è enorme”.

Data prima pubblicazione: 5 aprile 2023

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4