Viviamo in un’epoca di forte contrapposizione mediatica e ideologica, dove le idee e le opinioni sui fatti sociopolitici sembrano spaccare l’opinione pubblica in schieramenti opposti che difficilmente riescono a dialogare tra loro.
Mi riferisco a questioni come l’accoglienza dei migranti, l’obbligo vaccinale, la legalizzazione delle droghe leggere, la possibilità di adozione di figli da parte di coppie omosessuali, il dibattito sull’uso delle armi da fuoco per difesa personale ecc.
Il tema di questo articolo riguarda proprio tale contrapposizione di idee e sentimenti, come reagiamo ad essa sui social network e quale impatto ha questo sul modo in cui ci formiamo le nostre opinioni.
Questioni come quelle citate prima sono costantemente oggetto di accese discussioni dove quasi mai si riesce a riflettere con serena obiettività sui vari pro e i contro al fine di integrare i diversi punti di vista in una possibile soluzione di compromesso.
Questi temi diventano divisi nel momento in cui chiamano in causa parti profonde e fondamentali della nostra personalità, come il nostro sistema di valori e di credenze, ed attivano la percezione del pericolo.
Tali dinamiche si possono osservare chiaramente su Facebook, che rappresenta uno dei canali principali con cui raccogliamo le informazioni e diamo forma alle nostre opinioni sui fatti in accordo al nostro sistema di credenze e alla pressione delle norme sociali della nostra rete di amici.
In Italia ci sono più di 30 milioni di utenti Facebook attivi ogni mese (circa un italiano su due) e il 30% degli utenti lo usa come principale fonte di informazione (AGCOM, 2018). Ma in che modo Facebook può contribuire alla formazione delle nostre opinioni e che rapporto ha questo con la nostra identità?
Per sua natura Facebook, come altri social network, è un canale dove non esistono intermediari tra chi produce un’informazione e chi la consuma. L’impatto di una notizia o di un post non dipende dall’autorevolezza o dalla verificabilità della fonte quanto dal successo di pubblico che esso riscuote in termini di like, commenti e condivisioni.
In sostanza, su Facebook le notizie sui fatti che ci circondano sono soggette alle stesse dinamiche di popolarità dei selfie e dei video dei gattini.
Visto che possiamo trovare di tutto la cosa interessante è cercare di capire come gli utenti di Facebook scelgono le informazioni a cui prestare attenzione. Questo è stato fatto analizzando enormi moli di dati che riguardano le interazioni di centinaia di milioni di utenti con diversi tipi di contenuti.
I risultati di queste analisi hanno messo in luce che, nonostante l’ampia disponibilità di informazioni, la maggior parte degli utenti di Facebook interagisce con un numero limitato di pagine dando così origine a comunità di utenti ben definite.
I fatti e gli eventi sociopolitici possono essere spiegati e interpretati con diverse chiavi di lettura e da diversi punti di vista, determinando quindi differenti tipi di narrazioni. Un esempio sono le narrazioni di tipo scientifico contrapposte a quelle di tipo complottistico.
Eppure, il consumo di informazione su Facebook sembra caratterizzato da un forte segregazione degli utenti in comunità polarizzate attorno a specifiche fonti di informazioni (Schmidt et al., 2017).
Ma come si crea questa polarizzazione? I fattori responsabili sono molti e qui cercheremo di elencarne solo alcuni, supportati però dall’evidenza.
Secondo la psicologia cognitiva il nostro sistema cognitivo ha delle risorse limitate e non possiamo prestare attenzione a tutte le informazioni che ci circondano bensì solo ad alcune, sulle quali ci soffermiamo di più e quindi conosciamo più in dettaglio.
La scelta del tipo di informazioni però non è casuale. Il fatto che un’informazione venga accettata come vera (indipendentemente dal fatto che essa verificata/verificabile o meno) è fortemente influenzato dalle norme sociali e dalla coerenza che tale informazione ha rispetto al sistema di credenze dell’individuo.
Le norme sociali nascono proprio dall’interazione tra i membri del gruppo e l’omogeneità sociale è il fattore principale per la diffusione di contenuti su Facebook: infatti il più delle volte l’informazione viene presa da un amico.
Inoltre, quando ci troviamo di fronte a questioni che chiamano in causa le nostre credenze e la nostra visione del mondo, tendiamo a ricercare le informazioni in grado di confermarle, piuttosto che soffermarci su tutti i dati discordanti. Questo fenomeno è chiamato confirmation bias.
Il confirmation bias viene rafforzato dagli algoritmi di Facebook, che propongo contenuti personalizzati in base alle preferenze individuali, e nel tempo questo processo porta l’utente a trovarsi in una condizione di esposizione selettiva rispetto a un certo tipo di informazioni.
L’azione combinata del confirmation bias e dell’esposizione selettiva produce delle camere dell’eco, cioè condizioni in cui gli utenti si aggregano in comunità omogenee dove condividono informazioni confermatorie rispetto alla propria visione del mondo e ignorano quelle contradditorie o discordanti (Del Vicario et al., 2016).
Tale effetto è così forte che queste dinamiche si verificano anche quando le informazioni sono deliberatamente false (Bessi et al., 2015).
L’analisi del comportamento degli utenti di Facebook ha rivelato evidenti fenomeni di polarizzazione rispetto a diversi temi sociopolitici attuali quali il dibattito sull’obbligo vaccinale (Schmidt et al., 2018) e quello sulla Brexit (Del Vicario et al., 2017) nonché, più in generale, sullo scontro tra narrazioni di tipo scientifico e quelle di tipo complottistico (Del Vicario et al., 2016).
Il comportamento degli utenti tende ad essere coerente nelle diverse piattaforme al punto che dall’analisi della polarizzazione su Facebook è possibile predire quella su Youtube e viceversa (Bessi et al., 2016).
Tuttavia, questo modo di informarsi e di partecipare al dibattito pubblico non giova alle relazioni umane. Potrei citarvi più di un caso di persone che hanno preferito smettere di avere contatti perché su Facebook difendono strenuamente narrazioni contrapposte.
Più volte, scorrendo la mia News Feed di Facebook, mi è capitato di leggere post in cui un amico minaccia di togliere dalla propria lista di amici tutti quelli che la pensano in quel modo perché ritiene le loro idee inaccettabili. In ogni casi si trattava di questioni di ordine sociopolitico.
Le camere dell’eco rafforzano le nostre convinzioni di partenza e il nostro punto di vista rendendo così più difficile accettare il punto di vista degli altri e capire che le soluzioni a problemi complessi non possono che essere complesse anch’esse e frutto del compromesso.
Le analisi dei dati citate prima rivelano il paradosso che Facebook, piuttosto che portare ad un’apertura delle prospettive, spesso conduce alla polarizzazione e all’omogeneità del pensiero.
Questi comportamenti riguardano indistintamente l’adesione a narrazioni di tipo complottistico o scientifiche (Del Vicario et al., 2016). Eppure, la difesa dogmatica del sapere scientifico è una contraddizione in termini; per sua definizione la scienza è sempre aperta al dubbio e alla possibilità di essere messa in discussione. E meno male! Per anni gli scienziati sono andati avanti a credere nel flogisto o nell’etere ignorando completamente l’esistenza della fisica quantistica.
Forse dovremmo continuare a riflette sulla tesi di Marshall McLuhan per cui “il medium è il messaggio”.
Per approfondire:
Schmidt, A. L., Zollo, F., Del Vicario, M., Bessi, A., Scala, A., Caldarelli, G., … & Quattrociocchi, W. (2017). Anatomy of news consumption on Facebook. Proceedings of the National Academy of Sciences, 114(12), 3035-3039.
Del Vicario, M., Zollo, F., Caldarelli, G., Scala, A., & Quattrociocchi, W. (2017). Mapping social dynamics on Facebook: The Brexit debate. Social Networks, 50, 6-16.
Schmidt, A. L., Zollo, F., Scala, A., Betsch, C., & Quattrociocchi, W. (2018). Polarization of the vaccination debate on Facebook. Vaccine, 36(25), 3606-3612.
Del Vicario, M., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G., … & Quattrociocchi, W. (2016). The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113(3), 554-559.
Autorità per le garanzie nelle comunicazioni (AGCOM), febbraio 2018. Rapporto sul consumo di informazione.
Bessi, A., Coletto, M., Davidescu, G. A., Scala, A., Caldarelli, G., & Quattrociocchi, W. (2015). Science vs conspiracy: Collective narratives in the age of misinformation. PloS one, 10(2), e0118093.