Non ti va di leggere? Prova ad ascoltare l'articolo in modalità audio 🎧 |
Filter bubble e algoritmi di personalizzazione: evitarli è impossibile, spesso sono necessari, ma i loro effetti non sono neutrali. Questo articolo rappresenta l’ABC per ogni persona che naviga in rete e dopo la sua lettura guarderai il tuo feed in modo diverso.
I tuoi interessi valgono più di tutto
Uno scoiattolo morente nel tuo giardino potrebbe essere più vicino ai tuoi interessi, in questo momento, di quanto lo sia la gente che muore in Africa.
Mark Zuckerberg, 2011
Pensi sia crudele? Lo è, ma è quanto ha dichiarato il fondatore di Facebook alla domanda di un giornalista che gli chiedeva chiarimenti sulla logica delle notizie proposte dalla piattaforma. La domanda suonava così «Perché è così importante?» e io aggiungerei: cosa è più importante?
La risposta è qui davanti a noi ed è la stessa che ti ha portato a cliccare il link di questo articolo per iniziare a leggerlo: i tuoi interessi.
Se la risposta non ti ha sorpreso dovresti considerare che la personalizzazione dei contenuti è tra le più grandi rivoluzioni del nostro tempo. E tutto perché personalizzazione fa rima con precisione, un meccanismo per cui i contenuti che ci appaiono sui social media sono personalizzati in base alle nostre informazioni personali come:
- la cronologia delle ricerche
- gli acquisti online
- le impostazioni sulla privacy
- le piattaforme che utilizziamo
Ma noi, che dentro i social ci viviamo, spesso non conosciamo la sottile logica algoritmica che determina i contenuti presenti sul nostro feed. Cosa c’è di male? Niente, fin tanto che reputiamo più interessante la gente che muore in Africa allo scoiattolo nel nostro giardino ma, come sappiamo, questo non sempre accade.
Fin quando non succede, la personalizzazione è cosa buona
Hai ragione. Hai perfettamente ragione a pensare che non ci sia niente di male ad avere un feed personalizzato in cui ciò che ti piace è nel piccolo spazio del tuo smartphone. Sono d’accordo con te, perché sui social circolano molti contenuti e fin troppe notizie che sarebbero impossibili da vedere senza algoritmi.
A dirla tutta sei immerso in un vero e proprio overload informativo in cui alcune notizie sono buone, altre meno e altre ancora poco interessanti per te ed è proprio qui che entra in gioco la personalizzazione. Nell’avere la possibilità di vivere un’esperienza di comunicazione basata sui tuoi interessi, idee, valori e preferenze. Cioè su tutto ciò che l’algoritmo ha imparato di te in quanto individuo che utilizza i social media e naviga su Internet.
Per renderla più concreta, la personalizzazione è un meccanismo che restringe le scelte a poche opzioni. E non è applicata solo dai social media per determinare cosa farti vedere e cosa no, ma anche dai motori di ricerca per agevolare la fruizione delle informazioni.
Prendiamo come esempio Google. Grazie agli algoritmi di personalizzazione ti permette di trovare le informazioni che cerchi senza scorrere pagine e pagine di contenuti, personalizzandoli e filtrandoli in base al tuo punto di vista. Se vuoi, puoi provarlo. Cerca insieme ad un amico, con idee divergenti dalle tue, qualche problema su Google. Magari sociale o politico.
Hai buone probabilità che la ricerca mostri due pagine che rispecchiano posizioni molto diverse.

Riesci a cogliere l’altra faccia della medaglia?
Per le ragioni che ci siamo detti, siamo tutti d’accordo a considerare la personalizzazione una buona cosa. Ma qui siamo su Social Education e vogliamo essere più critici.
Infatti, se da una parte gli algoritmi di personalizzazione ci fanno vivere un’esperienza di comunicazione fatta su misura, dall’altra eliminano i contenuti che non sono in linea con la nostra visione del mondo. Semplicemente la cancellano per creare uno spazio in cui le nostre idee e il nostro modo di pensare è l’unico possibile.
Questo fenomeno è conosciuto con il termine filter bubble. Se ti stai chiedendo cos’è sappi che ci sei già dentro. Infatti, le filter bubble sono delle cornici ideologiche formate dai contenuti per cui hai già espresso interesse. Il risultato è un ambiente digitale polarizzato che:
- fortifica le tue posizioni
- ti isola da punti di vista diversi
- ti fa correre il rischio di perdere informazioni importanti.
ll termine Filter Bubble è stato coniato da Eli Pariser ed è presente nel suo libro The Filter Bubble: What the Internet Is Hiding from you (2011). Come possiamo immaginare, la presenza delle bolle di filtraggio nel nostro feed cambia la percezione che abbiamo di ciò che accade nel mondo.

Perché non sono neutrali
Per capire perché la presenza delle filter bubble non è neutrale dobbiamo fare un passo indietro. Quando i social media sono nati avevano una promessa: abbattere i limiti di spazio per connettere le persone all’interno di un luogo democratico e dare a tutti il potere di esprimere la propria opinione. È esplicativo il fatto che la mission di Facebook sia tutt’ora quella di «dare alle persone il potere di condividere e rendere il mondo più aperto e connesso».
Senza voler mettere in dubbio gli innumerevoli vantaggi che i social media hanno portato (alcuni li puoi leggere qui), dobbiamo essere consapevoli che la conseguenza diretta delle filter bubble sono le echo chamber.
Echo Chamber: cosa sono
Le echo chamber sono situazioni in cui l’utente tende a vedere solo cose e persone con cui è d’accordo e in cui le informazioni e le idee sono amplificate dalla loro stessa ripetizione. Il rischio è la formazione di un ambiente tutt’altro che aperto e connesso, ma sempre più polarizzato e in cui le proprie posizioni ideologiche vengono amplificate. Così, per citare un articolo della BBVA,
Un giorno ti svegli e scopri che tutti sono d’accordo con quello che pensi.
What is a Filter Bubble, BBVA
Se ti sembra che echo chamber e filter bubble siano simili, dobbiamo fare una precisazione. Anche se a volte sono usati come sinonimi, i termini indicano fenomeni diversi:
- le echo chamber sono il modo in cui vediamo solo informazioni di persone che la pensano come noi
- le filter bubble sono spazi creati dai nostri precedenti comportamenti online che determinano quali sono i contenuti che vedremo sul nostro feed e con quale gerarchia di importanza appariranno.
Per tirare le fila del discorso, la cosa spiacevole che può capitarti è quella di restare chiuso nella tua bolla evitando così il confronto con posizioni diverse e indebolendo la tua capacità di esprimere giudizi basati sui fatti. Questo ti porterà ad amplificare le tue posizioni a causa della falsa percezione che tutti la pensano come te.
Scoppia la bolla
Anche se all’inizio di questo articolo abbiamo concordato che siamo immersi all’interno di filter bubble da noi stessi create, dobbiamo considerare che i social media non hanno nessun motivo di impedirci di leggere notizie con visioni distanti dalla nostra.
Infatti, se scegliamo di aprire una notizia diversa da quelle che apriamo normalmente, l’algoritmo continuerà a mostrarci contenuti che ampliano la nostre cornice ideologica. In questo modo renderemo meno isolata la nostra bolla e riusciremo a formulare giudizi meno autoreferenziali.
In altre parole, possiamo cambiare il nostro feed. Come?
Scoppiare definitivamente le filter bubble non è possibile poiché va contro il concetto stesso di bolla di filtraggio, ma c’è sempre una buona notizia. Se diventiamo consapevoli dei meccanismi che dominano la rete possiamo diminuire l’effetto delle echo chamber in tre modi:
- ingannando gli algoritmi: segui anche account con cui non sei d’accordo per conoscere visioni diverse dalla tua
- Informandoci da fonti diverse: è dura, ma rendila una sfida personale
- promuovendo lo scambio di opinioni anche nelle conversazioni online

Prima di lasciarti
Ti ringrazio per aver letto questo articolo che fa parte del progetto Social Education ideato da Marketing Espresso in collaborazione con University Network e il Movimento Etico Digitale con lo scopo di migliorare la tua esperienza nel digitale e diffondere consapevolezza.
Se hai perso gli altri articoli li trovi qui.
Perché lo facciamo, maggiori info e tutti i dettagli del progetto sono invece leggibili qui.