Dopo aver letto la riflessione di Michele Mezza “Fake news: a caccia di bufale con Einstein e Dewey” concordo sul fatto che non si deve fermare la rete. Sono anche d’accordo che gli over-the-top hanno un potere immenso e incontrollato grazie agli algoritmi con cui filtrano selezionano le informazioni.
Il problema è: che fare?
Non credo sia un problema che si possa risolvere con una negoziazione: chi negozia? Non è che, negoziando, si definiscono vincoli e controlli nella rete? Vi è infine una difficoltà ulteriore: chi controlla che quanto negoziato venga rispettato? Qui, infatti, si aggiunge anche un problema di fattibilità: controllare che il software non abbia caratteristiche proibite è abbastanza semplice, molto più difficile è controllare che non avvengano abusi nell’execution giorno per giorno (in termini matematici si può dire che controllare l’execution è di un ordine di grandezza, almeno, più complesso che non controllare il software).
Se la negoziazione non va bene, allora ritorna la domanda: che fare? Io penso che ci siano due linee d’intervento una che si esercita sull’operato degli over the top ed una che rafforzi gli utenti rispetto a quell’operato. Le due proposte sono complementari e non alternative.
- Si tratta di pensare ad una soluzione che coinvolga attivamente il popolo della rete -le comunità dell’open source, le comunità atti ve in rete, ecc.- dandogli un ruolo nel controllo dell’operato degli over-the-top. Si potrebbe pensare ad una sorta di apertura obbligatoria del software usato da essi. E’ ancora una proposta vaga, ma penso si possa lavorarci.
- Si tratta di dare agli utenti il maggior peso possibile nel modo in cui usano le informazioni che gli vengono fornite, contestualizzandole secondo i propri interessi, così che loro le possano integrare con le informazioni provenienti da altre fonti, creando circuiti in cui gli abusi quando vengono riconosciuti vengono smascherati e contrastati. Qui si tratta di depotenziare la possibilità che gli algoritmi influenzino il pubblico, dando ad esso il massimo livello di autonomia. Di nuovo, è una proposta vaga, ma ha una sua forza, perché è intrinsecamente orientata a are peso all’utenza rispetto ai servizi massificati.
Il tema della selezione delle informazioni, che è importantissimo, non deve, peraltro, nascondere l’altro tema rilevante della privacy e cioè della protezione dei dati personali dall’invadenza degli over-the.-top. Su questo terreno, penso che si dovrebbe andare ad una disciplina che suddivide i dati a partire da tre categorie: i dati personali, i dati di proprietà di un soggetto giuridico e quelli pubblici (o resi pubblici da chi li possiede). E’ evidente che i dati delle tre categorie vanno trattati e difesi in forme diverse: i dati privati, sono di chi li possiede e nessuno può accedervi senza violare una norma fondamentale; quelli di un soggetto giuridico, sono accessibili in base al giudizio del soggetto giuridico; i dati pubblici sono accessibili a tutti. L’accessibilità può prevedere un prezzo ma non un’esclusione di qualcuno, se non secondo casistiche regolate dalla legge. Vi è un infine un tipo di dati che è borderline rispetto alla casistica illustrata, che sono i dati che una persona vuol rendere accessibili, che andrà trattata, come oggi si considerano le imprese personali (un soggetto fisico che è anche soggetto giuridico).
Una seconda categoria è invece fuori dalla casistica di cui sopra, ed è quella dei dati che scaturiscono dall’interazione fra due soggetti, in particolare fra due soggetti disomogenei (ad esempio, fra un singolo e una società). Per questa categoria, bisogna mettersi al lavoro per definire un sistema di regole che preservi i diritti del singolo, senza rendere impossibile alle società di sviluppare il loro business. E’ già un buon punto di partenza apprezzare le differenze tra il personal health record dell’Emilia Romagna e quello della Lombardia.