Angela Merkel, parlando a Monaco davanti al pubblico della conferenza Medientage (dedicata al mondo dei media tedeschi) ha manifestato la propria preoccupazione per l’appiattimento culturale che potrebbe essere favorito dall’utilizzo sempre più spinto di algoritmi da parte delle grandi compagnie del web. «Credo che gli algoritmi debbano essere resi più trasparenti, in modo che gli utenti possano informarsi su questioni come gli elementi che li influenzano su Internet», ha spiegato Merkel. «Gli algoritmi, quando non sono trasparenti, possono portare ad una distorsione della nostra percezione e possono diminuire la nostra distesa di informazioni».
Lunghe formule matematiche sono messe al servizio della profilazione sempre più dettagliata dell’utente, al fine di proporgli un’esperienza di navigazione sempre più cucita sui suoi interessi e i suoi punti di vista. A guardare la cosa con ottimismo, si può dire che, grazie a questo meccanismo, di sicuro passiamo meno tempo a schivare contenuti che non ci interessano. D’altro canto però, l’esperienza sempre più frequente di confrontarci solo con ciò che in qualche modo “ci interessa” limita enormemente il nostro accesso a punti di vista, argomenti e fatti comunque importanti per lo sviluppo della persona. Ciò che abbiamo chiamato “navigazione” (termine ormai in disuso) è diventata un’esperienza molto più coinvolgente e totalizzante di un tempo.
Il concetto di navigazione nacque agli inizi del web, quando ogni utente si ritrovava a solcare un mare di informazioni sempre più vasto, imparando a utilizzare gli strumenti che da subito hanno cominciato a nascere e svilupparsi per fornire la rotta, ossia i motori di ricerca. A quei tempi ce n’era più d’uno, e già allora ognuno era in cerca dell’algoritmo migliore per catalogare e proporre all’utente i contenuti di Internet. Era però una ricerca anonima, in cui ogni utente era uguale all’altro, e i risultati, a parità di parola chiave, erano gli stessi per tutti (salvo forse un primo filtro determinato dalla lingua impostata sul computer o dalla posizione geografica da cui arrivava la connessione).
La compagnia che più si è allargata, ampliando notevolmente il proprio ventaglio di attività, è proprio Google, fondata nel “lontano” 1998. Rispetto ad allora, la differenza è che il più delle volte, quando facciamo ricerche, siamo “loggati” (cioè abbiamo fatto l’accesso) al nostro account, dunque Google sa esattamente chi sta facendo quella ricerca, ed è aiutato nel capire i nostri gusti e interessi conoscendo le nostre ricerche precedenti, avendo accesso ai dati personali che negli anni gli abbiamo fornito (più o meno consapevolmente), e monitorando costantemente il nostro comportamento sul web (che non si limita più al computer, ma si è esteso grazie all’uso di telefoni, tablet, orologi…). E se anche non siamo loggati, comunque Google riesce a raccogliere e valutare molti parametri (57 secondo Eli Pariser, di cui parleremo tra poco) che il suo algoritmo può utilizzare per restituirci risultati il più possibile vicini a ciò che pensa possa interessarci.
L’altra importante “rivoluzione” recente relativa all’utilizzo di Internet sono i social network. Anche qui, tutti i dati che quotidianamente forniamo a Facebook (per stare sul più popolare al momento) servono per costruire in maniera sempre più accurata ciò che l’algoritmo stabilisce sia importante per noi. Informazioni che forniamo sia in maniera diretta (cliccando su like, condividendo post di amici o pagine, chiedendo di non visualizzare più contenuti di un certo tipo o pubblicati da qualcuno in particolare), sia indiretta. Anche Facebook e i suoi cookies analizzano infatti il nostro comportamento globale sul web, e pian piano vi accorgerete (o forse no) che ciò che compare nella sezione News del vostro profilo è sempre più collegato alle vostre preferenze e ai vostri interessi.
Leggete molti articoli a favore di Clinton? Probabilmente Facebook continuerà a segnalarvene, o a mostrarvi molti post di amici dello stesso avviso, mentre pian piano Donald Trump e il suo mondo svaniranno, o tutt’al più compariranno solo in caso di notizie o status di segno critico. È una dinamica molto pericolosa, perché rischia di rendere il nostro mondo sempre più autoreferenziale, costruito in modo da confermare le nostre opinioni e farle diventare convinzioni.
L’attivista politico statunitense Eli Pariser, che citavamo prima, ha definito tutto questo filter bubble (tradotto come bolla di filtraggio). Se Google News “capisce”, per esempio, che una persona è più incline a votare No al prossimo referendum, quali saranno i risultati di ricerca della parola “referendum”? Probabilmente ci saranno molti articoli a favore del No e pochissimi per il Sì. Ma chi esplora la rete lo fa anche per formarsi un’opinione consultando quella di chi la pensa diversamente da lui. È giusto quindi che all’utente siano nascosti i contenuti giudicati non rilevanti? In questa filter bubble, come spiega Pariser, tu non decidi cosa entra, e soprattutto non vedi ciò che ne resta fuori. Col risultato che la parte di “mondo” alla quale hai accesso è sempre più limitata e parziale, ma nessuno te lo dice esplicitamente. Un tempo i principali filtri tra i cittadini e le notizie erano gli editori, oggi sono gli algoritmi.
È una cosa che sta cambiando (anzi l’ha già cambiato) anche il giornalismo e la gestione dei giornali online. Probabilmente in futuro, aprendo la home page di Repubblica o del Corriere su due dispositivi appartenenti a persone diverse, si otterranno schermate diverse. In questa sfida tra editori e algoritmi sono i primi ad avere tutto da perdere, perché il loro lavoro di selezione degli argomenti e punti di vista sarà bypassato dai risultati delle ricerche filtrati dai secondi. Già oggi l’accesso alle notizie non avviene più principalmente aprendo la home page dei siti d’informazione e andando a selezionare tra i titoli delle notizie presentati. Si cerca su Google l’argomento che interessa e poi si seguono i link diretti agli articoli. Internet ha dunque dapprima “liberato” gli utenti dal filtro degli editori e della loro visione parziale del mondo, ma ora si sta riprendendo quei margini di libertà imponendoci un mondo fatto apposta per aderire il più possibile a ciò che già pensiamo.
Si tratta di un processo positivo per la democrazia e la libertà? Non vorremmo ispirare il prossimo episodio di Black Mirror, ma la nostra risposta è negativa. Certo siamo ancora agli inizi dello sviluppo di Internet. Così come i giornali e i giornalisti negli anni si sono dati un’etica professionale che ne ha cambiato il volto rispetto alla nascita del settore, è possibile che esortazioni come quelli di Merkel possano portare in un futuro a una sorta di sviluppo etico dell’algoritmo.