Big Data e privacy. La nuova geografia dei poteri

Convegno organizzato in occasione della Giornata Europea della protezione dei dati personali  – 30 gennaio 2017
Intervento di Antonello Soro, Presidente dell’Autorità Garante per la protezione dei dati personali

I cambiamenti imposti dall’innovazione tecnologica hanno generato un livello senza precedenti di raccolta e di elaborazione di dati, destinato a subire un’ulteriore espansione con le nuove applicazioni dell’Internet delle cose, della robotica, della realtà aumentata.

Dalle parole e dai numeri ai giochi, ai media, alle funzioni complesse dei sistemi industriali, all’ambiente, ai trasporti: tutto quello che riguarda la nostra esistenza ha subito una trasformazione digitale.

Ora stiamo varcando una nuova frontiera, stiamo entrando nell’era dei sistemi cognitivi.

Una nuova categoria di tecnologie, che utilizza l’elaborazione del linguaggio naturale e dell’apprendimento automatico, è  in grado di amplificare e accelerare il processo di trasformazione digitale, per consentire alle persone e alle macchine di interagire in modo più naturale, estendendo e potenziando le competenze e le capacità cognitive.

Lo sviluppo delle tecnologie rappresenta il presupposto  essenziale perché le imprese possano competere nella dimensione globale dei mercati e  perché possano migliorare le condizioni di vita delle persone in ogni angolo del pianeta.

Ma i progressi incessanti  di questi cambiamenti mettono in discussione molti paradigmi consolidati del diritto e molte consuetudini  della politica.

E sollevano interrogativi ineludibili.

Avvertiamo che lo sviluppo di una florida economia fondata sui  dati, che sfrutta le funzionalità tecnologiche per la loro raccolta continua e massiva, la trasmissione istantanea ed il riutilizzo, ci espone  a nuovi  rischi.

E, poiché i dati rappresentano la  proiezione digitale delle nostre persone, aumenta in modo esponenziale anche la nostra vulnerabilità.

La libertà di ciascuno è insidiata da forme sottili  e pervasive di controllo,  che  noi stessi, più o meno consapevolmente, alimentiamo per l’incontenibile desiderio di continua connessione e condivisione.

Da un lato le imprese tecnologiche hanno dilatato  la raccolta e la disponibilità dei nostri dati, dall’altro le esigenze di sicurezza, di fronte alla minaccia criminale e terroristica, hanno spinto progressivamente i governi ad estendere il controllo delle attività svolte in rete per finalità investigative in modo sempre più massivo.

Il combinarsi di questi processi ha prodotto una straordinaria intrusione nella vita di tutti, una vera e propria sorveglianza, con effetti importanti sui comportamenti individuali e collettivi, sugli stessi caratteri delle nostre democrazie.

Penso che la protezione dei dati debba assumere un ruolo di primo piano per presidiare la dimensione digitale: quella in cui sempre più si dispiega la nostra esistenza  e nella quale ora si svolgono anche le  relazioni ostili tra gli stati e dentro gli stati.

La nuova economia, fatta di tecnologia sempre più interconnessa, favorita dall’espansione dell’Internet in mobilità, alimentata dalla presenza capillare di sensori intelligenti, si caratterizza   per i grandi volumi di dati,  l’infinita eterogeneità delle fonti da cui provengono e la velocità dei sistemi che li analizzano.

Ma governare questi processi non è certamente un compito semplice.

La capacità di estrarre dai dati informazioni che abbiano un significato e siano funzionali, richiede infatti lo sviluppo di sofisticate tecnologie  e di competenze interdisciplinari che operino a stretto contatto.

In questo quadro i progressi nella potenza di calcolo svolgono un ruolo centrale per l’analisi dei Big Data e  per l’acquisizione  della conoscenza.

E in un futuro non troppo lontano l’intelligenza artificiale, grazie ad algoritmi capaci di apprendere e migliorare autonomamente le proprie abilità,  offrirà soluzioni  efficaci per soddisfare le più disparate esigenze.

E arriverà ad occuparsi di problemi che oggi possono sembrare ostacoli insormontabili, a beneficio della collettività.

Potrà fornire un aiuto importante nel campo della medicina, nello studio dei cambiamenti climatici o nel favorire l’accesso a risorse di primaria importanza come l’acqua o il cibo.

Ma, per altro verso, la logica posta alla base dei Big data con il suo insaziabile bisogno di accumulare dati porrà sfide ancora più complesse che solo in parte sarà possibile risolvere attraverso una maggiore regolamentazione degli operatori tecnologici, attualmente attestati su un regime di sostanziale autodichia.

Le riforme del quadro giuridico europeo rappresentano una svolta importante per definire un contesto  uniforme e proiettato sulle esigenze future e, soprattutto, preservare la fiducia degli utenti nello spazio digitale e nelle sue potenzialità.

Fiducia, innovazione e futuro sono fortemente correlati.

L’obbiettivo al quale dovremmo tendere è la garanzia di uno stesso livello di tutela dei diritti online così come offline.

Ma se una buona regolamentazione è essenziale, essa non è da sola sufficiente per affrontare l’impatto di questi processi sulle nostre società.

Penso che sia necessaria una nuova consapevolezza da parte delle opinioni pubbliche.

L’attenzione ai Big data non può riguardare soltanto le sue implicazioni scientifiche e tecniche o gli sconvolgenti effetti delle innovazioni sull’economia.

Ci deve preoccupare anche il potenziale discriminatorio che dal loro utilizzo, anche rispetto a dati non identificativi o aggregati, può nascere per effetto di profilazioni sempre più puntuali ed analitiche: in un gioco che finisce per annullare l’unicità della persona, il suo valore, la sua eccezionalità.

E una grande attenzione dobbiamo rivolgere alle applicazioni dell’intelligenza artificiale che effettuano valutazioni o assumono decisioni supportate soltanto da algoritmi,  con un intervento umano reso via via più marginale, fino ad annullarsi, con  effetti dirompenti sul modo di vivere e articolare esistenze e relazioni, in termini individuali ma anche sociali e politici.

Le Autorità europee di protezione dati avvertono il bisogno di accompagnare questi fenomeni attraverso un più rigoroso approccio etico e di generale responsabilità.

E prima di tutto abbiamo bisogno  di promuovere garanzie di  trasparenza dei processi, anche per la progressiva difficoltà a mantenere un effettivo controllo sui dati: per l’opacità delle modalità di raccolta, dei luoghi di conservazione, dei criteri di selezione e di analisi.

I rapporti  asimmetrici tra chi quei dati fornisce e chi li sfrutta  si risolvono  a favore di questi ultimi ed in particolare di coloro che gestiscono le piattaforme digitali e dispongono degli  standard tecnologici dominanti.

La capacità di elaborare, anche in tempo reale, tramite algoritmi sempre più potenti un’ingente mole di dati consente di estrarre conoscenza e, in misura esponenziale, di effettuare valutazioni predittive sui comportamenti degli individui nonché, più in generale, di assumere decisioni per l’intera collettività.

Chi possiede il profilo dei consumatori indirizza  la produzione commerciale verso specifici modelli di utenza, così da assecondarne i gusti ed insieme orientare selettivamente le scelte individuali.

Dobbiamo chiederci quante delle nostre decisioni siano in realtà fortemente condizionate dai risultati che un qualche algoritmo ha selezionato per noi e ci ha messo davanti agli occhi.

Un libro, un certo viaggio, una clinica cui affidare la salute, un investimento dei risparmi, la scelta di un dipendente da assumere, un giudizio politico, la stessa fiducia nei confronti di una persona appena incontrata, della quale chiediamo subito informazioni cliccando sui motori di ricerca e la cui affidabilità siamo pronti a misurare su quanto appreso in rete.

Dobbiamo riflettere sugli attuali scenari,  interrogarci sugli effetti prodotti da queste trasformazioni: per comprendere le conseguenze sulle nostre vite indotte dalle decisioni automatizzate.

I Big data sono diventati un fattore strategico nella produzione, nella competizione dei mercati, nelle innovazioni di importanti settori pubblici, nella struttura funzionale delle nostre abitazioni, nella normalità della nostra vita quotidiana.

E cresce il numero di soggetti interessati a sfruttarne le potenzialità: attori  pubblici e privati, piccoli e grandi, dalle banche alle compagnie assicuratrici, dagli enti di ricerca agli organismi di sicurezza.

I sistemi di intelligenza artificiale sono già incorporati negli asset strategici di una grande varietà di imprese e di istituzioni e ne influenzano le scelte.

Tuttavia solo chi detiene una grande mole di dati può realizzare le analisi più sofisticate.

Si è così affermata  una nuova gerarchia dei poteri che investe ogni settore e che punta a selezionare ogni contenuto o servizio a noi diretto per rendercelo sempre più affine a quello che gli  algoritmi decifrano dei nostri sentimenti.

E si diffondono tecniche sofisticate di data mining che ci riguardano non solo come consumatori ma  in quanto cittadini. E possibili elettori.

Attraverso il monitoraggio continuo della rete si individuano i temi di maggiore interesse, analizzando puntualmente la geografia dei bisogni e delle relazioni sociali per elaborare contenuti personalizzati anche nell’offerta elettorale.

Una strategia comunicativa fondata sulla profilazione dei cittadini considerati non quali destinatari di un progetto politico, ma di una propaganda orientata su modelli e tipologie di utenti della rete.

Schemi che, assai più delle fake news, travolgono le tradizionali regole del sistema politico.

Ma altrettanto forte è l’interesse dimostrato dalle aziende digitali nel testare le potenzialità dei Big data anche nella biomedicina e nella genomica.

La scienza medica negli ultimi anni ha concentrato la ricerca  verso la conoscenza delle cause genetiche delle malattie.

Progetti finalizzati alla mappatura dell’intero patrimonio genetico umano hanno permesso un notevole sviluppo della medicina predittiva e di precisione.

Algoritmi di apprendimento automatico, opportunamente “addestrati”,  sono capaci di analizzare milioni di dati e cercare correlazioni probabilistiche di rischio, non solo per studiare il propagarsi di un’epidemia e per individuare le nuove terapie personalizzate ma anche per modificare i geni delle persone.

Credo che non si debba sottovalutare – in questo processo – l’esatta natura dei beni giuridici coinvolti, trattandosi di quanto di più delicato ci appartenga.

E’ un tema davvero complesso che rende evidente come sia in gioco non solo l’interesse delle multinazionali digitali al ritorno economico, all’offerta di nuovi farmaci o servizi innovativi, ma anche il potere di  ricercare la chiave per prolungare l’esistenza biologica dell’essere umano.

Il sodalizio tra aziende digitali e ricerca genetica è destinato a crescere vertiginosamente nei prossimi anni in ragione dei massicci investimenti che i giganti di internet effettuano in questo campo.

Abbiamo visto come le informazioni prodotte dalle e sulle persone abbiano permesso – in un tempo estremamente breve – alle grandi imprese tecnologiche di sconvolgere e scardinare la tradizionale catena di valore e di distribuzione della ricchezza su scala planetaria.

Un enorme vantaggio che con i Big data e la loro capacità di estrarre significato da masse di dati anche non strutturati ed il crescente potere di autoapprendimento delle macchine, è destinato a rafforzarsi.

Nell’evoluzione della società digitale gli internet provider sono generalmente percepiti come facilitatori delle nostre vite, premonitori delle nostre esigenze, erogatori di servizi gratuiti: in un processo che dilata in modo incontenibile la nostra dipendenza dalle loro infrastrutture.

Il rischio è quello di consegnare a vantaggio di poche multinazionali digitali, non soltanto la supremazia economica, ma il potere di conoscere i fenomeni che possono governare e influenzare il nostro sapere.

Fanno giornalmente notizia le iniziative e le sperimentazioni anche avveniristiche dei giganti del web, assai  lontane dalle loro originarie vocazioni, ma che permettono loro di assumere un ruolo sempre maggiore in campi (dalla finanza alla genetica, dall’automazione alla realtà aumentata) che hanno un impatto significativo nelle nostre vite sul piano sociale, culturale ed economico.

Lo sviluppo tecnologico è destinato a mutare profondamente i rapporti di potere nella società globale.

Un numero esiguo di aziende possiede un patrimonio di conoscenza gigantesco e dispone di tutti i mezzi per indirizzare la propria influenza verso ciascuno di noi, con la conseguenza che, un numero sempre più grande di persone -tendenzialmente l’umanità intera – potrà subire condizionamenti decisivi.

Esse detengono un potere che si affianca – fin quasi a sopraffarlo – alla tradizionale autorità statuale e che diversamente da questa è meno visibile e prescinde dalla legittimazione e dal circuito della responsabilità.

Le nostre democrazie appaiono più deboli.

Le conseguenze di questa “concorrenza di poteri” sono state evidenti, ad esempio, nel caso che ha contrapposto Apple alle autorità di polizia statunitensi.

In quella circostanza l’azienda di Cupertino ha dimostrato, in nome di una apparente tutela della privacy dei propri clienti,  la forza che il suo patrimonio di dati criptati porta con sé.

Un caso che non è rimasto isolato.

Gli over the top hanno dunque acquisito poteri che assumono sempre di più una caratura sociale e che finiscono per concorrere con il diritto che regola le relazioni tra gli  stati.

Si pensi al progetto di Google, volto a contrastare il rischio di radicalizzazione online, elaborando ed offrendo contenuti dissuasivi da propositi violenti con una contro-narrazione: funzione  “rieducativa” tipicamente espressiva dell’autorità pubblica.

Analogamente al ruolo svolto con l’hate speech e la pedopornografia, dove i monopolisti del web si sono impegnati a rimuoverne i contenuti.

E non meno rilevante è la funzione assunta dai motori di ricerca nel rapporto tra informazione e oblio, nell’ambito delle procedure di de-listing.

Se questa responsabilizzazione dei grandi protagonisti del web è certamente positiva, essa conferma come siano diventati in ogni campo  interlocutori privilegiati e insostituibili.

Dopo il ruolo egemone nel campo dell’informazione e della comunicazione, le stesse aziende hanno ora la chiave per leggere l’enorme patrimonio di conoscenza, sempre più indispensabile per assicurare lo sviluppo di attività sociali e pubbliche come la sanità, l’istruzione e, più in generale, di ogni attività tesa ad offrire servizi alla cittadinanza: tradizionali prestazioni di welfare sino ad oggi affidate prioritariamente al settore pubblico.

Le tecnologie più progredite incidono ulteriormente sulla fisionomia propria degli stati, non solo perché ne hanno scardinato il fattore identitario della territorialità, rispetto appunto ad una realtà immateriale che si sviluppa su reti e su sistemi cloud, ma perché ne indeboliscono la capacità di conoscere i fenomeni per governarli e di intervenire sulle dinamiche  ordinamentali a vantaggio della collettività.

E’ ovvio che questa profonda crisi non è stata determinata esclusivamente dall’innovazione tecnologica ma è indubbio che tali fenomeni abbiano accelerato queste tendenze.

In parallelo con la crisi dei tradizionali corpi intermedi, paradossalmente le piattaforme digitali, come veri e propri oracoli della retorica della disintermediazione, sono destinate ad acquistare il ruolo di mediatori  della realtà, di interpreti di ciò che accade o di quello che potrà accadere e di assumere decisioni per l’intera collettività.

E nessuno avrà dati in quantità e qualità paragonabili a quelli a loro disposizione mentre in pochi saranno capaci di dare loro un senso utile.

Del resto già oggi è estremamente ridotto il numero delle aziende che hanno il monopolio delle ricerche sul web, che controllano tutto il settore “mobile” , che sono proprietarie dei principali sistemi operativi presenti sul mercato e delle principali piattaforme di distribuzione delle applicazioni che su questi girano e delle infrastrutture Cloud, sulle quali sono costretti ad “appoggiarsi” anche tutti i possibili concorrenti.

Ci sono interrogativi che non possiamo eludere.

Quanto l’esercizio, da parte di soggetti privati, di funzioni così rilevanti sulla vita collettiva, è davvero democratico?

Quale è il criterio di legittimazione di tali funzioni e a chi e con quali parametri rispondono, del loro esercizio, i “big tech”?

Quali le garanzie dai rischi di classificazioni errate, di informazioni parziali o incomplete, di modelli e sistemi difettosi?

O ancora, e soprattutto, chi garantirà l’affidabilità e la trasparenza dei criteri usati per selezionare, classificare, decidere?

E come ripensare le norme giuridiche – anche in tema di responsabilità –rispetto alle applicazioni dell’intelligenza artificiale?

Come assicurare, nel mondo dei big data, modelli equi ed efficienti sia di concorrenza che – insieme – di protezione dati?

Il dibattito che seguirà rappresenta una buona occasione per approfondire questi temi.

PRIVACY POLICY