FacebookTwitterLinkedIn

Trattamenti automatizzati: tutte le implicazioni sociali della sorveglianza sistematica

GDPR
Samuel De Fazio, Esperto in protezione dati, sistemi di controllo interno, internal auditing, risk management, compliance

Ogniqualvolta ci troviamo di fronte a un trattamento dati automatizzato, ci troviamo di fronte a un’attività di sorveglianza. Un algoritmo, una RPA, un’intelligenza artificiale sono tutti risultati di una sorveglianza sistematica, sovente senza soluzione di continuità.

È doveroso, quindi, domandarsi quali siano i risvolti sulla società e sulle persone, perché, adottando il principio di gestione dei rischi a cui lo stesso GDPR s’ispira (come le norme che lo hanno preceduto), essi potrebbero non essere necessariamente positivi, benevoli o benvoluti.

Un aspetto, questo, che sembrerebbe essere uscito, a torto, dal raggio d’azione dei riflettori negli ambienti in cui si parla di protezione dei dati: nella maggior parte degli eventi, infatti, siano essi seminari, congressi o convegni, gli argomenti che catalizzano l’attenzione sono ormai divenuti “sempre gli stessi”: la violazione dei dati, il registro delle attività di trattamento, l’Internet of Things, le misure di sicurezza, l’accountability. Talvolta si assiste anche al ritorno di argomenti mai fuori moda, come la videosorveglianza e il controllo a distanza dei lavoratori, spacciando per novità qualcosa che è (o dovrebbe essere) radicato nella nostra società almeno dal 1970 (il prossimo anno lo Statuto dei Lavoratori compirà cinquant’anni).

Gli effetti del trattamento dati sulla persona

In questo mare magnum degli opinionisti e degli influencer della protezione dei dati, tuttavia, manca troppo spesso qualcuno che si assuma il compito di far notare che la materia in questione non è solo e soltanto questione di leggi e tecniche, non è solo argomento per avvocati e ingegneri, ma dovrebbero essere considerati anche gli aspetti sociali e sociologici che, forse, sono il vero centro di questo mondo che dal 2016 ha subito la rivoluzione del GDPR.

Quando mettiamo in essere un qualsiasi trattamento, infatti, stiamo andando a modificare lo status quo del tessuto sociale, agendo (positivamente o negativamente) sulla particella quantistica del sistema in cui ognuno di noi vive e vuole vivere, per essere riconosciuto e in cui si riconosce: la persona.

Trattamento automatizzato e sorveglianza

Se, per quanto riguarda i trattamenti messi in atto direttamente dall’operatore umano, si può sempre fare affidamento ai principi di moralità, etica e, talvolta, deontologia, possiamo affermare lo stesso con riferimento ai trattamenti automatizzati? Essi, per proprie caratteristiche intrinseche, lavorano e agiscono confrontando le informazioni nel tempo, ossia comparando le differenze da ciò che era prima e ciò che è adesso, talvolta cercando di prevedere ciò che sarà e tentando di influenzare gli eventi affinché sia, il tutto subordinato alla realizzazione e al compimento di operazioni logiche predeterminate.

I trattamenti automatizzati, in altre parole, attuano un sistematico e profondo processo di sorveglianza sul contesto osservato e su cui sono applicati, in modo da identificare, ossia percepire, quelle che sono le variazioni e le differenze tra il “prima” e il “dopo” e, conseguentemente, avere a disposizione le informazioni (richiamando la storica definizione del sociologo Gregory Bateson) che possiamo chiamare “dati personali”. Questa sorveglianza sistematica profonda serve solo a determinare il dato personale (considerando anche l’assenza di dati personali, volendo, un dato personale) su cui il medesimo trattamento automatizzato produrrà effetti, magari nuovamente attraverso un processo di sorveglianza e monitoraggio.

Esprimendo con altre parole lo stesso concetto, insomma, ogniqualvolta ci troviamo di fronte a un trattamento automatizzato, ci troviamo di fronte a un’attività di sorveglianza.

Eugéne Enriquez, psicologo, affermava che “chi ha a cuore la propria invisibilità è destinato a essere respinto, emarginato o sospettato di aver commesso un crimine”; parafrasandolo, chiunque voglia sottrarsi alla sorveglianza dei trattamenti automatizzati, rischia di veder compromessa la sua immagine e la sua personalità, anche semplicemente attraverso la preclusione all’accesso a servizi a cui avrebbe diritto.

Problematiche simili le ravvisa anche l’antropologo Michel Agier, che ritiene che “oggi la tecnologia di sorveglianza si sviluppa su due fronti ed è orientata su due obiettivi strategici opposti: il confino (“chiudere dentro”) e l’esclusione (“chiudere fuori”)”, e così, quindi, “essere collocato in un luogo chiamato “campo profughi” ha un unico significato definito: che tutti gli altri luoghi concepibili sono diventati off limits. Essere insider di un campo profughi ha come unico significato il fatto di essere outsider, straniero, corpo estraneo, intruso rispetto al resto del mondo” e ancora “a distinguere un esule da tutti gli altri uomini non è il luogo da cui è arrivato al campo, ma il fatto di non essere più diretto verso alcun luogo”.

È chiaro che il concetto debba essere generalizzato: è attraverso la sorveglianza che la società attuale discrimina “chi può” e “chi non può”, nel tentativo di creare ordine e portar vantaggio a qualcuno, a fronte di uno svantaggio (leggasi anche danno, nocumento) arrecato ad altri. Ordine che, osservando la situazione con un occhio critico e riprendendo le idee espresse dalla sociologa nostrana Chiara Fondino nel libro “La videosorveglianza – Uno sguardo senza volto”, punterebbe al raggiungimento del controllo proprio attraverso la sorveglianza tecnologica, in un ambiente sociale sempre più standardizzato e prevedibile, anche se in molti sono ancora convinti che “diverso è bello”. Peccato che quel “diverso”, sovente, sia stato studiato a tavolino.

Sulla scia di questi concetti e ragionando sulla posizione delle persone oggetto di sorveglianza, per esempio, impiegata per individuare i soggetti a rischio tra gli aspiranti clienti di un istituto di credito, il sociologo Zygmunt Bauman arriva ad affermare che la sorveglianza può generare “una morte sociale che lascia aperta la possibilità di una resurrezione anch’essa sociale (riabilitazione, restituzione dei diritti). L’esclusione sociale, che è la ragion d’essere del Ban-opticon, equivale sostanzialmente a una sentenza di morte sociale, anche se nella maggior parte dei casi il verdetto prevede una sospensione della pena”.

Tra gli aspetti negativi della sorveglianza e dell’automazione dei trattamenti, poi, possiamo annoverare anche l’adiaforizzazione, ossia quel processo cognitivo, sovente forzato dall’abitudine e dalla routine, che porta le persone a essere indifferenti agli stimoli e a ciò che accade e, senza dubbio, la sempre più marcata distanza da comportamenti etici, morali e dalla presa di coscienza delle proprie responsabilità.

Addentrarsi oltre in questi argomenti, in questa sede, risulta impossibile; tuttavia è fuori discussione che il problema esista e sia già tra noi da tempo, come dimostrano gli studi condotti dai vari sociologi, psicologi e antropologi citati – e non solo loro –, alcune delle cui riflessioni e teorie sono ben esposte nel libro “Sesto potere: La sorveglianza nella modernità liquida” di Zygmunt Bauman e David Lyon.

A questo punto ci domandiamo: siamo davvero sicuri di poter affermare che stiamo realizzando “bene” gli adempimenti del GDPR?

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn

Questo sito utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all’uso dei cookie. Leggi la nostra Cookie Policy per esteso

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi