“La mia conclusione è che già oggi, al netto degli sviluppi tecnologici che avremo in futuro, non si sia rispettati come “persone” nel modo in cui interagiamo: siamo dei soggetti passivi di un modello predominante di business”. Giovanni Buttarelli, a capo dell’ European Data Protection Supervisor (di cui ho parlato nel post del 1 ottobre scorso), apre una lunga conversazione nel suo ufficio di Bruxelles – nel “miglio quadrato” istituzionale e a due passi dal Parlamento Europeo. In ufficio, sobrio come tutti quelli comunitari, una caratteristica lo lega al passato di magistrato: diciotto faldoni, cartoncino sottile color salmone, allineati sul pavimento a destra della scrivania – un ordine rigoroso nell’informalità del modo di archiviazione…

Parliamo del legame indissolubile fra dati personali, privacy, uso e protezione dei dati funzionali alla costruzione di algoritmi. Ha assistito con interesse e curiosità ai primi passi di DigiDig.it e, dice, ne ha tratto spunti per i suoi interventi alla 38ma International Privacy Conference di Marrakech qualche settimana fa (che sarà oggetto di un mio successivo post).

Nella nostra conversazione condivide alcune considerazioni in merito ai temi specifici di DigiDig.it: algoritmi, creazione, possesso, negoziabilità. “Oltre all’aspetto regolatorio, dal quale non possiamo al momento prescindere, io vorrei capire quali sono i valori ai cui noi ispiriamo lo sviluppo delle nuove tecnologie”. E poi, oggettivamente preoccupato: “Non vedo la dimensione per un approccio negoziale. Già oggi la protezione dei dati personali, che curiosamente attiene ai diritti della personalità e quindi a diritti che sono rinunciabili, si basa su una serie di garanzie prescrizioni e adempimenti che prescindono dalla negoziabilità e dall’eventuale consenso, anche cosiddetto totale, dell’interessato”. Qui di seguito analisi, considerazioni e suggerimenti.

Zangrandi. Diventa pressante, e obbligatorio, per le autorità di protezione dei dati personali occuparsi di algoritmi: oggi e nel futuro dovranno svolgere un ruolo, ma quale?

Buttarelli. Mentre oggi abbiamo un campo di applicazione e competenza vasto, ma limitato dalla circostanza che siano coinvolte persone identificate e identificabili anche in collegamento con pezzi d’informazione posseduti da altri, o che potrebbero essere posseduti da altri, nell’immediato futuro la nozione di “protezione dei dati personali” scomparirà; così come scomparirà la nozione di “dato personale”. Saremo tutti più facilmente prevedibili, identificabili ex-post; anche se non avremo un collegamento diretto con una identità individuale, le informazioni saranno più facilmente riutilizzabili per essere aggregate a determinate interpretazioni.

Zangrandi. Passeremo quindi alla protezione dei cluster?

Buttarelli. Scomparirà anche probabilmente la nozione di “data-subject” e quindi di individuo, perché verremo raggruppati per segmenti di informazione…

Zangrandi. Quindi?

Quindi l’attuale separazione fra “personale” e “non personale” sarà sempre più difficile da seguire; e sussiste anche un rischio per la nozione di dati anonimi. E questo comporterà certamente una valutazione sul piano regolatorio. Stiamo analizzando le interazioni sotto molti profili. Da quello più strettamente personale al law-enforcement; e sotto il profilo delle libertà. Per esempio quella di movimento: l’internet delle cose, l’uso di droni, e il resto, porteranno le macchine a interagire senza che noi potremmo e potremo averne consapevolezza. Dovremo porci il problema della velocità delle macchine; velocità che produrrà valutazioni e decisioni automatizzate più rapidamente di quanto non possiamo fare noi. Per questo avremo problemi di consapevolezza per i data-controller, che si chiederanno: cosa sta facendo una macchina?

Zangrandi. Eccoci: minority report? Quando è negoziabile tutto questo?

Buttarelli. dipende dalla nostra abilità di costruire il futuro. Oggi, davanti a BigData vediamo gli interessati in una posizione in cui non controllano i dati che li riguardano. Nel senso che, rispetto a diverse aree di interazione on line e sui social network, motori di ricerca, e con gli strumenti – tablet, smartphones – attraverso cui amministriamo la vita e i servizi che usiamo, non possiamo capire che uso viene fatto della nostra traccia elettronica.

Zangrandi. Ignoranza?

Buttarelli. C’è un problema certamente di consapevolezza, ma anche di educazione, di sensibilità, e certamente anche di abilità. L’Europa si è strutturata con una serie di diritti profondi in questo senso, ma ora dobbiamo renderli praticabili e pratici.

Zangrandi. Tornando alla domanda su quanto tutto ciò possa essere negoziabile?

Buttarelli. Ci vorrà del tempo ma qualche forma di negoziato potrà evolversi. Oggi se noi esercitiamo il diritto di accesso ai dati personali rispetto ai metodi tradizionali o meccanizzati di archiviazione e custodia dove tutto era forse più semplice, abbiamo diritto a ottenere una comunicazione intellegibile del contenuto, rettificarlo se è inesatto, completarlo se non è completo, togliere il superfluo se non è congruente con lo scopo per cui quei dati sono stati raccolti e aggiornarli se sono invecchiati, obsoleti e non più attuali e intervenire sui dati che possono in qualche modo violare un nostro legittimo interesse. Comunque, abbiamo il diritto di sapere e intervenire in quanto sussiste l’obbligo per il gestore di quei dati personali di essere trasparente.

Zangrandi. Mi sembra difficile applicare questi concetti ai creatori e gestori di algoritmi che sui dati personali si basano…

Buttarelli. Se un domani lo stesso approfondimento o richiesta di disclosure venissero rivolti alla molteplicità di gestori di dati digitali e codificati in modelli ed algoritmi di varia natura, la risposta, per quanto sincera, non potrà essere molto diversa da: “Scusami, non so dirti granché perché tu sei implicito nell’algoritmo stesso, sei il risultato di un’analisi di cui non so spiegarti ora tutto il percorso perché è costruito su una massa enorme di informazioni che forse non abbiamo neppure più, ma è il risultato di un lungo percorso di asseveramento, probabilmente su un lungo periodo. E tu sei quello che l’algoritmo…”

Zangrandi. …ha “deciso” che tu sia?

Buttarelli. No: “pensa” che tu sia. Forse l’algoritmo conosce te meglio di chiunque altro, ma non potrà darti un quadro degli elementi su cui la diagnosi, l’analisi della tua persona o personalità è posta; probabilmente, l’analisi sarà molto precisa; quindi ci sarà molto spazio ancora per la trasparenza…

Zangrandi. …o, almeno, per questo tipo, gradiente, di trasparenza che perde la definibilità, l’identificabilità e il rimando all’individuale. Perciò, diventando oggettivamente difficile modificare l’algoritmo ex-post, essendo gli algoritmi di natura evolutivi e in permanente sviluppo, l’area di negoziabilità delle loro caratteristiche dovrebbe essere preventiva. E questo si collega a una più generale questione di responsabilità, rendicontazione e possibilmente di etica nella costruzione e nella genesi, se non genetica, dell’algoritmo stesso.

Buttarelli. Sicuramente. L’esperienza dimostra che per un certo tempo ancora l’uomo, l’umano, continuerà a svolgere un certo tipo di influenza sulla programmazione di tanti percorsi; si tratti di meccanismi di traduzione, di decisioni automatizzate di riconoscimenti facciali ampi processi decisionali automatici…

Zangrandi. … o di impronte digitali registrate e riconosciute da smartphones, tablet, lap- e desktop e altro il cui uso successivo è affatto noto…

Buttarelli. …certamente. Su tutti questi esempi, a cui aggiungerei la programmazione dei droni, l’uomo avrà un ruolo fondamentale. Ci vorrà del tempo prima di avere self-learning machines e intelligenze artificiali autonome, come robots, al punto da impostarsi da sole.

Zangrandi. E un’istituzione di controllo come l’EDPS cosa può fare in questo scenario? Come può gestire il futuro mentre questo si produce e va più veloce dell’elaborazione, discussione, approvazione e messa in vigore di strumenti legislativi o regolatori che per definizione possono, al massimo, gestire il presente, spesso basandosi solo sul passato?

Buttarelli. Ho già detto da tempo, con una ventina d’anni di esperienza in questa materia, che la protezione dati può dare molte risposte se gestita in maniera creativa e innovativa guardando per l’appunto al futuro e focalizzandosi sulle garanzie anziché sui requisiti formali; e pensando come questi principi, che rimangono solidi, possano essere trasferiti e recepiti nella, e dalla, società digitale.

Zangrandi. Non credo che basterà.

Buttarelli. Non basterà perché alcuni degli interrogativi e alcune delle risposte ruotano attorno a valori etici e al rispetto della persona. La mia conclusione è che già oggi, al netto degli sviluppi tecnologici che avremo in futuro, non si sia rispettati come “persone” nel modo in cui interagiamo: siamo dei soggetti, o oggetti, passivi di un modello predominante di business che punta esclusivamente a massimizzare l’accumulo di informazione perché ha già capito che chi vince prende tutto, e che chi ammasserà il maggior numero di informazioni avrà non solo il cliente, ma anche le chiavi per impostare i modelli vincenti legati al suo business…

Zangrandi. …trasformando in maniera irreversibile non solo il business, ma anche la relazione con il cliente – questa volta ancora più radicalmente che in passato. Effetti attesi?

Buttarelli. Se già oggi le imprese più floride su scala mondiale sono quelle che si basano sulla raccolta di informazioni, possiamo pensare a cosa accadrà domani, quando il vero BigData e non il BigData di settore avrà il predominio.

Zangrandi. Lo spieghiamo?

Buttarelli. Con il BigData di settore abbiamo legittime iniziative di uso aggregato di informazioni, utili per organizzare meglio la propria attività. Il BigData inteso nel senso più ristretto del termine, rappresenta una concentrazione, un insieme di dati che oggi non sono ancora “processabili” attraverso l’uso di strumenti e dispositivi di software standard. Perciò tecnologie e programmi di analisi potranno essere posseduti da poche persone.

Zangrandi. Conseguenze epocali…

Buttarelli. Questo porterà a un’innovazione profonda e all’alterazione delle regole di mercato; e anche della sovranità anche statuale, del concetto di territorio, e gli attuali sbilanciamenti che abbiamo fra persone e business saranno ancora più marcati.

Zangrandi. Il problema, quindi, è cosa si può fare…

Buttarelli. E’ arrivato il momento di lanciare un dibattito ampio sulla dimensione etica.

Zangrandi. Cosa intendiamo allora qui per etica?

Buttarelli. Noi vogliamo capire cosa significa rispetto per le persone, cosa significa “dignità” nel XXI secolo…

Zangrandi. …o, almeno, in questa prima parte di secolo; con il passo dell’innovazione e del miglioramento tecnologico forse fra 10 anni saremo già ben oltre la dignità…

Buttarelli. …vero; comunque noi abbiamo avuto su questi temi una riforma su scala europea che sta facendo testo nel mondo. Abbiamo contato 111 paesi, fra cui tutti quelli fuori dell’Europa in senso lato, non comunitaria, e in aree geograficamente vicine; hanno norme di protezione dei dati personali il cui modello predominate, a differenza di quanto accadeva in passato, è quello regolatorio scelto dall’Unione Europea.

Zangrandi. In una parola?

Buttarelli. Un modello basato su una legge-omnibus che considera non solo le ricadute sulla privacy, ma anche la protezione dei dati come parte di una buona amministrazione.

Zangrandi. E siamo ancora sul presente…

Buttarelli. Su quanto queste regole siano aggiornate e in linea con le sfide della società dell’informazione potremmo avere delle opinioni differenti, ma è certo che almeno l’approccio europeo, che ancora deve avere completa applicazione e che deve essere soggetto a enforcement a partire dal 25 maggio 2018, non verrà cambiato nella sua sostanza prima di un termine di 20 anni. Vent’anni sono, al ritmo attuale e nella società dell’informazione e del digitale, più di un secolo.

Zangrandi. Il problema rimane affrontare il futuro…

Buttarelli. …un futuro che irrompe con strumenti concepiti quattro, cinque anni fa che sono ancora attuali ma che…

Zangrandi. …mostrano obsolescenza?

Buttarelli. Non mi arrischio a definirli obsoleti, ma rischiano di diventarlo se non predisponiamo già subito un percorso creativo per mantenerli attuali e aderenti all’evoluzione tecnologica. Abbiamo tutti gli anticorpi per far vivere tutti i principi della “privacy-by-design” e della “privacy-by-default”, ma in aggiunta, non in alternativa, a un approccio legislativo. E oltre all’aspetto regolatorio, dal quale non possiamo al momento prescindere io vorrei capire quali sono i valori ai quali noi ispiriamo lo sviluppo delle nuove tecnologie. Abbiamo detto più volte che consideriamo importante non soltanto ciò che è tecnicamente fattibile, ma anche quanto è moralmente sostenibile e socialmente accettabile: non può esserci un laissez-faire generalizzato. Così come senza una robusta protezione dei dati non ci sarebbe stato uno sviluppo del commercio elettronico, senza una valutazione attenta della direzione etica non ci potrà essere accettazione dell’evoluzione digitale. Rischieremmo di assistere a un certo punto a un rigetto del sistema.

Zangrandi. Rimane aperto il principio di negoziabilità dell’algoritmo da parte del cittadino e l’area di negoziato da giocarsi con chi elabora, utilizza e commercia l’algoritmo e le indicazioni che ne derivano.

Buttarelli. Non vedo la dimensione per un approccio negoziale. Già oggi la protezione dei dati personali, che curiosamente attiene ai diritti della personalità e quindi a diritti che sono rinunciabili, si basa su una serie di garanzie prescrizioni e adempimenti che prescindono dalla negoziabilità e dall’eventuale consenso anche cosiddetto totale dell’interessato. Quando parliamo di correttezza, proporzionalità e necessità in aggiunta al consenso, noi vediamo che già oggi si prescinde che nel rapporto di lavoro con il mio provider io dica: “sì” , e che a prescindere da quel “sì”, una autorità di garanzia o una corte possano dire che sono stati superati dei limiti di accettabilità. Questo perché si va oltre l’accettazione di un singolo: il modello deve essere tendenzialmente uniforme. E poi c’è una situazione di sbilanciamento che si rafforzerà con l’evoluzione di quanto abbiamo descritto in questa chiacchierata. Quindi, un approccio puramente negoziale non può esserci e non può avere quella centralità che si auspica.

Zangrandi. Che peccato: niente sindacalismo dell’algoritmo?

Buttarelli. Quanto sto dicendo non deve essere visto come un luddismo di moderno conio; è semplicemente un contributo proattivo per evitare che ci sia un fenomeno di rigetto, e cioè che tutti i benefici che ci aspettiamo in termini di prosperità economica e di well-being siano effettivamente perseguibili per molti e non solo per pochi.

 

 

 

 

SHARE