La guerra dei dati

Il 2019 sarà ricordato anche come l’anno in cui qualcosa è definitivamente cambiato a proposito del discorso pubblico sulle big tech, i giganti della rete che primeggiano non solo nelle quotazioni alla borsa di New York, ma anche nelle nostre vite di utenti del web, dei social, di un crescente numero di servizi digitali e digitalizzati.

Solo qualche anno fa, internet, il web, le nuove piattaforme digitali erano tutti concetti cui veniva associato il volto della globalizzazione buona e democratica, l’incontro “disintermediato”, dal basso, di persone che parlavano liberamente ad altre persone. L’11 febbraio del 2011, un messaggio lanciato su Twitter dall’Egitto, con le immagini di piazza Tahrir in festa, annunciava: «Il mondo intero sta festeggiando con noi! È un meraviglioso momento globale!». Nell’estate del 2012, Tim Berners Lee, il creatore del web, inaugurò il primo tweet delle olimpiadi di Londra. Dal centro dello Stratford Stadium, scrisse un messaggio proiettato sul pubblico: «This is for everyone». Il web per tutti e per ciascuno di noi. La nuova forma di partecipazione, dopo quella di De Coubertin. Qualche anno dopo, Papa Francesco, in un messaggio per la giornata mondiale delle comunicazioni, scriveva: «Internet può offrire maggiori possibilità di incontro e di solidarietà tra tutti, e questa è cosa buona, è un dono di Dio».

La promessa della rivoluzione digitale si è accompagnata, in quegli anni, a una profonda fiducia nella capacità del mercato digitale, e delle piattaforme emergenti, di autoregolarsi. Mentre ogni forma di intrusione pubblica e regolatoria, dai tentativi di controllo del contenuto online alla violazione del principio di neutralità della rete fino alla disciplina del copyright, veniva da più parti vista come il tentativo della mano morente del vecchio mondo analogico (e dei vecchi potentati economici) di afferrare e fermare la corsa inarrestabile dell’innovazione digitale.

Poi, nel giro di pochi anni, qualcosa è cambiato. L’entusiasmo ha ceduto il passo, prima alla delusione, poi al sospetto. Le piattaforme globali, un tempo armi straordinarie di disciplina del potere di mercato e di influence delle grandi multinazionali e dei colossi mediatici, sono state definite, qualche mese fa, «gangster digitali», per usare le parole di Damien Davis, coordinatore del rapporto del Digital, Culture, Media and Sport Committee del Regno Unito, dal titolo Disinformation and «Fake News». Il rapporto ricostruisce le strategie di disinformazione che hanno caratterizzato il web e alcuni social (come Facebook) nel referendum sulla Brexit e nelle elezioni politiche. I «gangster digitali», secondo Davis, fanno denaro «bullizzando i concorrenti più piccoli e gli sviluppatori che si appoggiano a queste piattaforme per raggiungere i loro clienti».

Nell’ultimo anno, Google ha subito due condanne per abuso di posizione dominante da parte della Commissione europea. L’antitrust tedesco ha condannato Facebook per abuso di posizione dominante nel mercato dei social network, mentre l’autorità italiana antitrust ha condannato Facebook per violazione del codice del consumo, in ragione della scarsa trasparenza offerta agli utenti della piattaforma circa le scelte disponibili e l’impiego dei propri dati. Sempre in Italia, l’Agcom ha imposto a Google e Facebook di fornire i dati necessari a calcolare i ricavi nel sistema integrato delle comunicazioni e ha condannato Amazon per mancata richiesta di autorizzazione nello svolgimento di alcuni servizi di recapito postale. Ancora, sempre contro Amazon, l’antitrust italiano ha aperto una istruttoria per abuso di posizione dominante nel mercato dei servizi di logistica, nonché potenzialmente nel mercato dei servizi d’intermediazione sui marketplace, a danno dei consumatori finali. Da un anno circa, poi, è operativo il regolamento generale europeo sulla protezione dei dati personali (GDPR) e il Garante italiano per la protezione dei dati ha rilevato 946 violazioni su 7219 reclami e segnalazioni. A queste si aggiungono le istruttorie, in corso, su possibili violazioni nelle politiche di protezioni dei dati degli utenti di Facebook, per strategie di profilazione finalizzate alla propaganda elettorale, secondo lo schema che ha caratterizzato lo scandalo Cambridge Analytica.

Da più parti si alza la voce per una ridefinizione delle regole applicate o applicabili ai giganti del web. Persino Zuckerberg, in un editoriale sul Washington Post, ha chiesto che di fronte alla crescente complessità per le big tech sui profili di concorrenza, pluralismo, disinformazione e privacy, vengano al più presto definite regole certe ed efficaci. Il Premio Nobel Jean Tirole ha proposto, qualche mese fa, di vietare le fusioni e le concentrazioni tra le big tech e le start up innovative o, quantomeno, di invertire l’onere della prova circa l’efficienza di queste operazioni, ponendolo in capo alle imprese.

Negli Stati Uniti, la candidata alle primarie democratiche per le presidenziali del 2020, Elisabeth Warren, ha proposto una revisione delle regole antitrust per promuovere lo «spezzatino» di big tech quali Google, Amazon, Facebook, in nome di una maggiore concorrenza. La stessa idea rilanciata, qualche mese prima, da Tim Wu nel suo libro The Curse of Bigness: Antitrust in the New Gilded Age: un grande spezzatino antitrust – come quello che lo Sherman Act rese possibile contro la Standard Oil di Rockfeller nel 1911 – per porre rimedio alla inedita forza di mercato dei giganti digitali e a un potere economico più grande di quello di molti stati. Nella sua lettera agli europei, del marzo 2019, Emmanuel Macron si è chiesto: «Chi può pretendere di essere sovrano, da solo, di fronte ai giganti del digitale?».

Ad oggi, le reazioni sono frammentate e le risposte di policy sono frettolose oltre che poco efficaci o confuse. La Francia e la Germania hanno approvato norme stringenti – e molto criticate – in merito all’hate speech online e alla disinformazione nel web. L’antitrust australiano ha pubblicato un corposo rapporto circa la necessità di un nuovo approccio, anche regolatorio, ai big data e alle big tech. Analoga richiesta viene dal parlamento britannico. La Commissione europea e l’Agcom hanno avviato tavoli di autoregolamentazione con Google, Facebook e Twitter per capire come fronteggiare la disinformazione online. Sempre in Italia, l’Agcom, l’Agcm e il Garante della privacy hanno avviato una indagine conoscitiva congiunta sui big data per comprenderne gli impatti sulla concorrenza, sul pluralismo informativo e sulla privacy. Nel suo libro Merchants of Truth, l’ex direttrice del New York Times, Jill Abramson sottolinea il doppio colpo inferto dal web e dai social all’industria dell’informazione di qualità, sottraendo ad essa da un lato il tempo di attenzione di lettori ormai attratti dalle “notizie” offerte velocemente e gratuitamente dal web; dall’altro, e proprio a causa del calo dell’audience, i ricavi di un inserzionismo pubblicitario sempre più diretto alle fonti della profilazione algoritmica basata sull’estrazione del dato personalizzato.

Insomma, viene proprio da chiedersi che cosa sia successo. Cosa ha trasformato, nel giro di pochi anni, un «dono di Dio» in una pessima notizia per lo sviluppo concorrenziale del capitalismo digitale, per l’informazione di qualità, per il pluralismo e, in fin dei conti, per la stessa democrazia? Cosa ha fatto sì che nell’ultimo anno, da più parti, emergesse una forte domanda di intervento di policy sui giganti della rete e sulla loro capacità di raccogliere ed elaborare dati a fini di propaganda commerciale e politica?

Vi sono diverse ragioni concomitanti. La prima – più profonda – riguarda la definitiva  trasformazione del capitalismo digitale nella cosiddetta data driven economy, l’economia trainata dall’estrazione e dalla profilazione del dato, raccolto in enormi quantità e varietà («big data»). La seconda – più evidente e più chiassosa – è stata l’elezione di Trump, accompagnata dal referendum Brexit e dall’affermazione di quello che è stato definito il post-populismo digitale, basato sulla disinformazione, la polarizzazione, la post-verità. Si tratta, naturalmente, di due fenomeni interdipendenti, dal momento che la profilazione del dato è il meccanismo che permette di disegnare e veicolare messaggi personalizzati di propaganda elettorale esattamente ai soggetti che sono interessati a riceverli, a credervi e a condividerli.

Al centro ci sono loro: i big data. Si tratta di una serie di informazioni sintetiche che riguardano ciascuno di noi. Nel lontano 2001, la società di consulenza strategica Gartner, definiva i big data come «asset informativi ad alto volume, alta velocità e alta varietà che richiedono nuove forme di lavorazione ed elaborazione delle informazioni che permettono di migliorare le decisioni, intuire scoperte e ottimizzare i processi».  Questa definizione mette al centro il processo di lavorazione e aggregazione dei dati. Il che mette subito in relazione i big data con gli algoritmi. I big data sono, infatti, intimamente connessi ai processi della loro estrazione su vasta scala e della loro successiva elaborazione algoritmica. Il «big» dei dati fa riferimento dunque ad alcune caratteristiche fondamentali: la velocità, la varietà e il volume dei dati raccolti e processati. È da queste tre caratteristiche che si genera la quarta «v», il valore dei dati.  

Il valore dei dati, cioè, aumenta con il loro volume e la loro varietà. E quindi per aumentare il valore dei dati il mercato e l’industria si sono evoluti con modelli di business nuovi, in modo tale da stimolare in ciascuno di noi la massima intensità di rivelazione di dati. Come? Con l’avvento del «paradigma del free», che nella lingua inglese significa gratuito ma anche libero. Una straordinaria combinazione che comporta che la libertà di navigazione in rete, di accesso ai social media, di fruizione di vari contenuti informativi, di accesso alle piattaforme digitali in genere sia, in effetti, resa più forte dalla gratuità di tale accesso. Il punto è che ciò che ci sembra un banale strumento di accesso – la rivelazione di alcuni nostri dati – è in realtà il vero bene scambiato che regge la transazione commerciale sottostante. Lo scambio implicito, per tutta questa gratuità di servizi, è con i nostri dati, con la nostra attenzione, con la promessa di consumo futuro che generiamo grazie al fatto che i nostri dati permetteranno promozioni personalizzate e su misura per i nostri desideri e bisogni. Come spesso si ripete in questi casi, «il prodotto siamo noi». Il che però significa che a questo scambio implicito corrisponde un mercato implicito, quello dei dati, del quale sappiamo ancora troppo poco: chi vi opera? Come si fa a entrarvi? Ci sono barriere all’entrata? Come si crea il vantaggio competitivo? Esistono posizioni dominanti? Che tipo di concorrenza vi si può manifestare? Sono queste le domande del 2019. E le risposte sono tutt’altro che chiare e definitive.

La ragione dell’incertezza e della confusione consiste nella circostanza che le grandi innovazioni cui abbiamo assistito nel corso degli ultimi decenni sono state trainate da una dinamica di sostanziale autoregolazione del mercato e dall’idea che le grandi piattaforme fossero portatrici di innovazione grazie alla loro capacità di raccogliere ed elaborare un gran numero di dati per poi restituirci, attraverso il lavoro degli algoritmi, servizi e informazioni efficienti, in tempo reale. La bravura dell’algoritmo, per così dire, è funzione della sua capacità di imparare, la quale, a sua volta, dipende dal volume e dalla varietà dei dati che macina. Un algoritmo è tanto più efficiente quanto più riesce ad associare a una “tipologia target” l’individuo che ha di fronte. E ciò vale nelle due direzioni: nel favorire sia la domanda che l’offerta di servizi. Ad esempio, Google Search deve essere capace di “indovinare” esattamente ciò che desideriamo sapere, ma anche ciò che “probabilmente” ci interessa a partire da ciò che abbiamo chiesto. Questo lavoro è tanto più efficace quanto più le informazioni che rileviamo circa noi stessi aiutano l’algoritmo a categorizzarci in un tipo di individuo. L’algoritmo impara, cioè, dalle nostre richieste, dai nostri profili e dai comportamenti di quanti somigliano a noi. Domanda e offerta d’informazioni online si specializzano, dunque, attraverso algoritmi capaci di imparare dai dati, in un meccanismo dinamico di causazione circolare cumulativa efficiente. In ogni istante, l’offerta di informazioni è la migliore (nel senso di più efficiente) risposta alla domanda di informazioni, e viceversa. E sebbene il mestiere di raccolta dei dati sia molto diffuso, la capacità di trasformare il dato in valore economico non è da tutti, perché dipende, appunto, dalle capacità degli algoritmi d’imparare (anche da se stessi) e queste capacità dipendono dal volume di dati processati e processabili. Per questa ragione, al centro dell’economia dei big data vi sono oggi le big tech, i giganti digitali. Si tratta di compagnie che hanno sviluppato tecnologie e forme di accesso ed estrazione di dati, a livello globale, difficilmente comparabili. Così se il singolo dato è riproducibile, l’insieme dei dati trattabili per una certa finalità economica in un dato momento può configurare una risorsa scarsa. Le elevate economie di scala e di varietà caratterizzano oggi i giganti digitali e rendono sempre meno probabile, e più costosa, una sfida competitiva al loro potere di mercato. A ciò si aggiunge una nuova forma di barriera all’entrata data dai cosiddetti effetti di rete (spesso denominati economie di scala dal lato della domanda): in sostanza, ciascuno di noi ottiene un valore dal partecipare a una determinata piattaforma anche in ragione del fatto che altri nostri contatti (o, se volete, «amici») lo stanno facendo. Partecipare a Facebook ci interessa se possiamo restare in contatto con i nostri amici. Abbandonare da soli la piattaforma per una concorrente non avrebbe senso se non lo fanno, nello stesso momento, i nostri amici. Gli effetti di rete producono valore in questo modo: l’utilità di accedere alla piattaforma deriva anche dal comportamento degli altri. Ciò costituisce una formidabile nuova barriera all’entrata per nuove piattaforme: per produrre effetti di rete, infatti, le nuove piattaforme dovrebbero convincere, contemporaneamente, un numero enorme di persone a cambiare il fornitore dei servizi. A volte accade. Ad esempio Yahoo! è stato superato proprio da Google. E anche giganti come Nokia e Motorola, nella telefonia mobile, sono stati superati da Apple, Samsung e Huawei. Ma nelle transazioni in cui la raccolta e l’elaborazione dei dati diventano centrali diventa sempre più difficile contendere clienti alle piattaforme esistenti. Inoltre piccole realtà, molto innovative, vengono spesso acquistate proprio dai giganti digitali (dando vita alle cosiddette killer merger). Nel 1998 le prime quattro società erano: Microsoft con oltre 270 miliardi di dollari, General Electric con circa 259, Exxon Mobil con circa 172 e Royal Dutch Shell con circa 164. Nel 2018, al primo posto della classifica si trova Apple, con 123.000 dipendenti (che indirettamente ha creato quasi 2 milioni di posti di lavoro negli Stati Uniti) e una capitalizzazione di borsa pari a 911 miliardi di dollari; al secondo posto c’è Alphabet, a cui fanno capo Google Inc. e altre società controllate con 789 miliardi di dollari; al terzo posto si trova Microsoft, con 695 miliardi di dollari; al quarto Amazon, con 624 miliardi di dollari. Il mondo è cambiato in vent’anni, segnando la cifra di un mutamento profondo nell’organizzazione capitalistica con poche grandi imprese, a livello globale, che hanno acquisito un potere significativo nell’orientare le dinamiche di molti mercati e persino le forme e i modi del dibattito pubblico online.

Questa straordinaria crescita è stata anche il risultato dell’assenza di regolazione, del laissez faire digitale che ha caratterizzato questi vent’anni. Le piattaforme digitali sono state fin qui rappresentate come un nuovo modello di business, basato sull’estrazione del dato profilato, capace di realizzare una nuova forma d’intermediazione tra utenti e inserzionisti pubblicitari: i primi cedono dati in cambio di servizi, i secondi pagano per la piattaforma per offrire servizi in cambio di attenzione, promuovendo così pubblicità e offerte personalizzate. La nuova intermediazione offerta dalle piattaforme digitali veniva così vista come una soluzione ad un fallimento di mercato, proprio perché rendeva possibile l’incontro (matching) di domanda e offerta. In questo contesto, ogni forma di regolazione è stata per anni rappresentata come un inutile e inefficiente freno all’innovazione. Le piattaforme “aiutavano” il mercato a far bene il suo lavoro.

Oggi, la crescita dimensionale delle piattaforme digitali e la dimensione globale della loro attività pongono da più parti il tema della loro dominanza nell’economia del dato, della sempre più difficile sfida competitiva da parte di nuovi entranti, della pervasività del ruolo che esse hanno assunto nelle nostre vite. Nel suo libro La grande trasformazione del 1944, Karl Polanyi mostrava i limiti di una teoria del mercato come ideal-tipo capace di autoregolarsi. L’evoluzione delle istituzioni economiche, i rapporti di potere, le trasformazioni sociali, il mutamento nei bisogni e negli stili di vita avrebbero in realtà mostrato i limiti di quella visione ideal-tipica, generando tensioni interne ed esterne che avrebbero portato alla trasformazione epocale del sistema. In un passaggio, Polanyi afferma che affinché il modello capitalistico funzioni «non si deve permettere niente che ostacoli la formazione di mercati né si deve permettere che i redditi si formino altrimenti che attraverso le vendite, né deve esservi alcuna interferenza con l’aggiustamento dei prezzi alle mutate condizioni del mercato». La grande trasformazione digitale, oggi, rappresenta una sfida enorme a quei requisiti fondamentali: molti scambi impliciti avvengono a prezzo zero, le grandi piattaforme digitali si sostituiscono a interi mercati, vecchi intermediari sono sostituiti da grandi intermediari le cui transazioni mettono in relazione più versanti del mercato, vecchie professioni sono eliminate o rimpiazzate. Se, per un verso, tutto ciò avviene con la riduzione dei costi di transazione e della raccolta di informazioni, producendo quindi maggiore efficienza, per un altro le piattaforme digitali – proprio come il mercato per Polanyi – non sembrano essere neutrali rispetto al nuovo modello di capitalismo digitale: lo trasformano profondamente e definiscono i nuovi confini di incontro tra domanda e offerta. Si potrebbe dire: c’è qualcosa di antico, anzi di nuovo in questa storia dell’efficienza e della riduzione dei costi di acquisizione delle informazioni rilevanti. Di antico, c’è appunto la vecchia idea liberale di mercato per la quale la riduzione dei costi di transazione e di ricerca delle informazioni rilevanti aumenta l’efficienza degli scambi e riduce l’intermediazione. Di nuovo, tuttavia, c’è la circostanza che l’informazione rivelata da noi alle piattaforme, e da esse a noi, non è più osservabile, patrimonio del mercato, ma resta catturata dalla piattaforma che agisce, appunto, come un nuovo intermerdiario. È il nuovo modello di business delle piattaforme digitali: scambio di informazioni in cambio di attenzione verso nuove informazioni personalizzate recanti suggerimenti, suggestioni, proposte, inviti, sollecitazioni. Ma questo modello di business, per funzionare e prosperare, mantiene un accesso privato ed esclusivo ai dati e alle informazioni rivelate da tutti coloro che usano la piattaforma per diverse finalità: utenti, imprese, inserzionisti pubblicitari a vario titolo, altre piattaforme specializzate e così via. In sostanza le piattaforme digitali si comportano in modo ibrido: da un lato somigliano al libero mercato della tradizione liberale, quando devono incentivare la rivelazione di informazioni disperse e, dall’altro, assumono forme di centralizzazione di grandi intermediari, tra i diversi lati o versanti del mercato, allorquando devono valorizzare, in modo strategico e competitivo, i dati di cui dispongono in via esclusiva – e dunque inaccessibili a terzi senza la loro intermediazione – nella loro attività di incontro tra domanda e offerta. Insomma c’è una mano visibile nell’era digitale ed è quella delle grandi piattaforme digitali.

Queste nuove forme di dominanza, ad oggi, sfuggono alla regolazione che invece, da anni, copre altre forme tradizionali di comunicazione, come le telecomunicazioni, le radio-tv e così via. Con il paradosso che la grande capacità di raccolta pubblicitaria delle piattaforme digitali sta progressivamente comprimendo gli spazi e le opportunità economiche di radio, tv, giornali. Insomma le vecchie imprese regolate non solo perdono fette di mercato, ma lo fanno in favore di soggetti del tutto scevri da ogni forma di regolazione.

Ma perché siamo giunti a questo punto? La ragione è che la regolazione tradizionale si è basata sul concetto di scarsità dal lato dell’offerta: che fosse rappresentata dalla rete di telecomunicazione fissa o dall’accesso alle frequenze radio-televisive. La regolazione si è concentrata sui criteri di accesso dei concorrenti alle reti scarse esistenti. Nel mondo digitale, invece, il problema non deriva da scarsità dell’offerta ma dalle peculiarità della domanda: cioè da ciascuno di noi, dai nostri comportamenti nel rilascio dei dati, nella scelta delle piattaforme, nell’interazione online con i nostri simili e così via. L’accesso al dato, di per sé, non è scarso. E d’altra parte se molti scelgono una determinata piattaforma, anziché rivolgersi al concorrente, non sarà perché quella risulta la scelta più efficiente e più soddisfacente? E, in fondo, la circostanza che vengano offerti a ciascuno di noi un numero crescente di servizi a prezzi sempre più bassi o gratuiti, non è una misura significativa dell’accresciuto benessere del consumatore? In altre parole, dove sta il fallimento di mercato delle nuove piattaforme digitali globali, tale da richiedere nuove forme di regolazione?

La risposta non è semplice. Una parte di essa consiste nell’osservare la dimensione economica globale dei giganti digitali, le infrastrutture che stanno costruendo nell’architettura Internet, la capacità di raccolta di risorse finanziarie e pubblicitarie, la platea globale dei loro utenti.  Ma anche nella forza di cambiare la natura delle transazioni economiche. Ad esempio, Amazon potrebbe cambiare per sempre la nostra attitudine allo scambio economico. Qualche anno fa ha registrato un brevetto sull’idea di «anticipatory package shipping» che consiste nel determinare con un alto grado di approssimazione cosa il cliente cercherà di acquistare (online o offline) e predisporre l’invio e la consegna come se il cliente l’avesse ordinato. In caso di errore, il cliente potrà sempre restituire la merce. In sostanza, la scelta “di mercato” del consumatore in futuro potrebbe essere quella di non comprare, perché avrà già sull’uscio di casa tutto ciò che potrà desiderare.

Chi è in grado di competere contro giganti digitali capaci di tale lungimiranza e soprattutto di forme di profilazione del dato così sofisticate da predeterminare la domanda dei consumatori? Qui si pone il tema della nuova regolazione digitale. Un approccio che passa dal trattare il dato personale non soltanto come “materia per privacy” ma come bene economico dalla cui valorizzazione dipende l’economia digitale e il grado di concorrenza che può manifestarsi in essa. Oggi il dato personale di ciascuno di noi viene visto, giustamente, come una caratteristica personale meritevole di protezione costituzionale e da proteggere da ogni abuso. Ma ciò che sfugge è che il dato è un bene economico scambiato di fatto sul mercato e appropriato per la profilazione algoritmica e la sua valorizzazione. Il paradosso è che la “proprietà” del dato non risiede nelle mani di coloro che l’hanno generato, cioè ciascuno di noi, ma in quanti sono capaci di estrarlo e di appropriarsene. C’è una lettura tradizionale del dato personale, che ci viene tramandata dall’epoca pre-digitale, per la quale esso non è un diritto proprietario, essendo inalienabile in quanto parte essenziale non negoziabile della nostra persona. Possiamo delegarne un certo uso, ma solo per certi fini. E ciò non significherebbe affatto che stiamo cedendo un asset o che lo stiamo consegnando al dominio del mercato. Di qui, l’origine della tutela della nostra privacy digitale come garanzia della inalienabilità e non negoziabilità del dato personale. Nell’era digitale, questa lettura del dato personale purtroppo si rivela illusoria per vari motivi. Il primo è che l’uso del dato da parte di chi lo riceve è spesso un input per realizzare una transazione economica in un altro versante, per esempio per offrire spazi profilati di pubblicità agli inserzionisti. Il secondo è che la piattaforma che riceve il dato finisce per valorizzarlo economicamente solo all’interno della piattaforma. La tutela della privacy qui finisce cioè per evitare la circolazione a terzi e per prevenire un «mercato del dato». In altri termini, l’uso esclusivo del dato da parte delle piattaforme digitali non elimina, come alcuni credono erroneamente, la sua valorizzazione economica da parte di terzi, ma finisce soltanto per sottrarla al mercato, cioè ne permette un utilizzo monopolistico dentro la piattaforma online. Di qui, una forte tensione tra tutela della privacy e tutela della concorrenza. Per risolverla, basterebbe forse restituire la proprietà privata del dato all’utente consumatore, rendendo esplicito lo scambio del dato, individuando un valore di mercato per esso, stimolando la nascita di grandi aggregatori della domanda dei singoli consumatori, in modo da controbilanciare il potere contrattuale delle Big tech. Insomma regolare il mercato del dato significherebbe soprattutto stabilire diritti di proprietà sulle informazioni personali, restituendo a ciascuno di noi il controllo sull’uso economico dei dati, accanto al consenso al «trattamento del dato».

Definire i diritti di proprietà sul dato comporterebbe anche capovolgere l’attuale approccio circa la trasparenza dei processi di raccolta del dato e della sua profilazione algoritmica. In qualche misura constringendo ciascuno di noi a capire a cosa servono il dato e la profilazione.

Questo tipo di approccio aiuterebbe anche ad affrontare l’altro aspetto della profilazione algoritmica del dato: quello che riguarda il pluralismo online. La questione del nuovo pluralismo non riguarda in sé il tema dell’accesso alla piattaforma (come nel caso della par condicio per radio e Tv, regolato da autorità indipendenti), ma il superamento della selezione personalizzata di contenuti, filtrata dall’algoritmo, tra offerta e domanda. In un mondo digitale governato da pregiudizi di conferma, echo chamber, espressioni d’odio, polarizzazione, algoritmi personalizzati, e nel quale anche il consenso politico si misura a colpi di like, il counterspeech finisce per non essere più uno strumento sufficiente a garantire il pluralismo, anzi. La difficile strada che andrebbe seguita dovrebbe essere quella della depolarizzazione, dello smoothing, di meccanismi volti a favorire un vero confronto aperto alle ragioni dell’altro. Ma come si può eliminare l’esposizione selettiva, la polarizzazione, per produrre diversità ed esporci all’inatteso? Convince poco l’idea, che pure è stata avanzata, di migliorare la qualità dell’informazione, introducendo, nelle piattaforme, contenuti a pagamento. Ciò significherebbe segmentare ancora di più l’informazione e i silos informativi tra gruppi di individui con attitudine diversa alla fruizione di contenuti non distorti o polarizzati. Per la stessa ragione, progetti di unione delle piattaforme proprietarie, all’interno di un’unica funzione di messaggistica privata crittografata, finirebbero per ridurre ancora di più il pluralismo in “isole di amici”, trasformando la piazza pubblica dei social nel salotto di casa. Circolerebbero forse meno fake news e ci si difenderebbe meglio da attacchi di odio, è vero, ma ciò avverrebbe al prezzo di eliminare il confronto pubblico, semplicemente nascondendo la disinformazione e l’hate speech. Ci vorrebbe, piuttosto, come suggerisce Sunstein, un algoritmo che risolva i problemi di pluralismo dell’algoritmo, pesando e mediando i contenuti, difendendoli da strategie di disinformazione e da espressioni d’odio. Ma come farlo senza far diventare le piattaforme digitali, di fatto, un editore? E, d’altra parte, se l’editore è colui che seleziona i contenuti proposti dai vari giornalisti, il lavoro di filtro dell’algoritmo non somiglia già a quel mestiere, seppure un po’ da lontano? Come fare a pesare – nei risultati di ricerca di Google, YouTube, Bing, nei newsfeed di Facebook o nella gerarchia delle tendenze su Twitter – notizie vere, notizie false, campagne di disinformazione, propaganda, espressioni d’odio e così via?

Un altro tema fortemente dibattuto è quello relativo a siti o account robotici (bot), falsi, o anonimi. Il caso dei siti falsi o dei bot è quello più semplice da rilevare ed è quello che più inquina il Web, i motori di ricerca e i social network non solo con strategie di disinformazione, ma anche inflazionando i costi dell’inserzionismo pubblicitario. Alcune piattaforme sono attive nella loro rimozione, ma anche questo dato andrebbe reso trasparente e verificabile, soprattutto per il recidivismo. Più delicato è il caso degli account anonimi, perché in molte circostanze, e in molti paesi, l’anonimato rende possibile forme di libertà d’espressione altrimenti sotto minaccia. Si tratta, come si vede, di iniziative tutte di tipo editoriale che richiederebbero forti investimenti, anche di carattere occupazionale, nel paese di destinazione dei contenuti, per l’analisi delle informazioni, la gestione trasparente delle segnalazioni e il monitoraggio. Iniziative che andrebbero verificate e certificate da autorità indipendenti, definendo una disclosure regulation capace di osservare da vicino il funzionamento dell’algoritmo e di misurarne gli effetti.

Certo, il futuro del pluralismo online dipende anche da ciascuno di noi. Dalla volontà e dalla capacità di distinguere, cercare, verificare. In attesa di riforme legislative sui poteri delle attuali autorità di regolazione, c’è spazio per una co-regolamentazione che anziché intervenire direttamente sui contenuti, come previsto dalle leggi approvate in Francia e in Germania, vigili almeno sull’adozione delle policy annunciate dalle stesse piattaforme e ne possa valutare gli effetti, avendo però precisi poteri di ispezione e audit che oggi mancano. Il tema è assai complesso perché quanto più tiriamo la coperta dal lato dell’inatteso pluralismo online, tanto più rendiamo meno efficiente il matching delle piattaforme, e viceversa. È, dunque, sul tema della proprietà del dato, della profilazione algoritmica e della trasparenza agli utenti che bisogna lavorare, nonché su meccanismi che permettano all’utente di conoscere e scegliere autonomamente il grado di esposizione selettiva ai contenuti determinati dalla profilazione algoritmica. Servono cioè meccanismi che consentano di aumentare il rumore buono (quello che deriva dal confronto tra posizioni diverse), rendendolo visibile, finché cessi di essere rumore e prenda la forma dell’apertura alla diversità, alla varietà, al confronto.

La profilazione e lo scambio dei dati offrono nuove opportunità, ma pongono anche alcune rilevanti domande. La cessione del dato è una transazione economica che certifica la natura proprietaria del dato o è solo una manifestazione del consenso che ne delega il trattamento, pur entro certi limiti? Siamo consapevoli di partecipare a una transazione economica nella quale stiamo alienando un bene di cui altri, a vario titolo, estrarranno il valore? Ha ancora senso, sotto il profilo dell’estrazione e dell’utilizzazione economica, la distinzione tra dati personali e non personali? Com’è accaduto che siamo stati (auto) esclusi da quel mercato dei dati che pure la nostra attenzione ha generato, nello scambio implicito tra attenzione e servizi in gran parte “gratuiti”? Dove si crea e verso dove si indirizza il valore del dato? Come cambiano i mercati e i diritti di proprietà in transazioni basate sul valore del dato? C’è bisogno di nuova regolazione, accanto alla privacy e all’antitrust, o basta la concorrenza a disciplinare innovazione e potere di mercato?

Allo stesso modo, i nostri dati e la nostra profilazione generano un “valore politico” nel mercato del consenso elettorale. Riceviamo stimoli, propaganda e messaggi profilati volti a influenzare la formazione delle nostre opinioni o a rafforzare e polarizzare la visione del mondo che la nostra profilazione rivela. Anche in questo caso, senza esserne pienamente consapevoli. Che ne è allora del pluralismo nella intermediazione informativa basata sulla selezione degli algoritmi? Come possiamo conciliare, in un percorso equilibrato, il valore commerciale dell’informazione e il rispetto di diritti individuali e collettivi fondamentali quali la privacy digitale, la tutela della cybersecurity, la tutela della concorrenza e le garanzie del pluralismo informativo?

Non abbiamo ancora tutte le risposte. Ma, nel frattempo, occorre che vengano conferiti a soggetti terzi e indipendenti, quali le autorità preposte alla tutela della concorrenza e del pluralismo, almeno i poteri di audit e di inspection sull’uso economico del dato. Ma occorre far presto: le strategie di espansione e monopolizzazione dei mercati da parte delle piattaforme digitali da un lato, nonché le iniziative di disinformazione (e di malinformazione) sul web sono velocissime ed efficaci, potenzialmente capaci, come ha ricordato Berners-Lee, di produrre effetti profondi e dirompenti sul libero mercato, sul libero confronto democratico e, in ultima analisi, sul funzionamento del capitalismo digitale e delle nostre democrazie.

 

 

algoritmo dellantipoliticaLEGGI ANCHE:

 

Matteo Orfini
L’algoritmo dell’antipolitica

Andrea Vigani
Il populismo penale come metodo di governo