I «Facebook files»: un caso da non sottovalutare.

640 426 Leonardo Salutati
  • 0

di Leonardo Salutati · “Facebook files” è il titolo dato ad una importante inchiesta del Wall Street Journal che ha pubblicato migliaia di documenti che denunciano i rischi delle ricadute sociali della condivisione di contenuti sensibili da parte degli utenti, rivelando il ruolo e i possibili rischi connessi agli algoritmi usati dalle piattaforme digitali quali Facebook e Twitter, o da motori di ricerca come Google e Bing, per gestire i propri contenuti informativi.

Per capire le implicazioni degli algoritmi sulle dinamiche dell’opinione pubblica occorre analizzare la loro interazione con le inclinazioni (bias) comportamentali degli individui. Gli algoritmi usati dai social media, infatti, decidono quali informazioni mostrare e in che ordine mostrarle, selezionando quali informazioni siano più o meno rilevanti per un dato individuo. In concreto gli algoritmi, svolgono un ruolo editoriale che li rende molto diversi dai media tradizionali, più vicino alla statistica che al giornalismo (B. Rieder – G. Sire, 2013).

Nello scegliere quale contenuto proposto dalla piattaforma leggere su un determinato argomento, gli individui sono guidati da una duplice inclinazione. Una che consiste nel volere vedere confermata la propria opinione (“confirmation bias”), che li spinge a scegliere contenuti che avvalorano l’opinione iniziale. L’altra (“attention bias”) è quella di prestare attenzione a pochi contenuti e di scegliere tendenzialmente quei contenuti che sono presentati in posizioni più prominenti nella piattaforma. Ambedue le inclinazioni si basano su un’ampia e verificata evidenza empirica.

Con queste due inclinazioni umane interagiscono due macro-classi di algoritmi: 1) quelli basati sulla popolarità di un dato contenuto web, in cui la prominenza data all’argomento aumenta nel tempo con l’aumento della popolarità del contenuto (per esempio più persone cliccano su un sito web); 2) quelli che personalizzano l’ordine dei contenuti in base ad alcune caratteristiche individuali, come indirizzo Ip o cronologia delle ricerche, con la conseguenza che utenti diversi osservano contenuti in ordine diverso.

Riguardo agli algoritmi basati sulla popolarità che lavorano sul feedback degli utenti, se le opinioni iniziali su un determinato tema sono generalmente poco corrette e gli utenti hanno un forte “confirmation bias” che li porta a scegliere troppo spesso siti web che hanno informazioni sbagliate, tale dinamica favorisce la crescita nel ranking di questi siti permettendogli, quindi, di attrarre più utenti. Diversamente se l’algoritmo utilizzasse come criterio di efficienza informativa al posto della popolarità, per esempio, quello che ordina i contenuti in maniera casuale, la probabilità che un individuo scelga un sito che riporta informazioni corrette, sarebbe più efficiente.

A questo si aggiunga che gli algoritmi basati sulla popolarità generano un effetto tale che, minore è il numero di siti che riporta un dato contenuto informativo, maggiore è l’audience totale che cattureranno, in quanto la più alta concentrazione del traffico verso pochi siti, ne aumenta il ranking. Questo tipo di meccanismo può contribuire a spiegare perché le piattaforme digitali sembrano favorire la diffusione di fake news (F. Germano – F. Sobbrio, 2021).

A loro volta gli algoritmi personalizzati, conducono a polarizzare le opinioni iniziali degli individui creando quindi delle cosiddette “camere dell’eco” algoritmiche, che producono una riduzione dell’efficienza informativa su temi in cui c’è una verità “oggettiva”. In particolar modo, la personalizzazione tende a contrastare i pur possibili effetti positivi degli algoritmi basati sulla popolarità (evitiamo di specificare il meccanismo per motivi di spazio).

In definitiva, le informazioni emerse dai “Facebook Files” evidenziano la rilevanza dell’interazione tra algoritmi e comportamento umano, oltre alle responsabilità dei vertici di Facebook di aver insistito su di un algoritmo che poneva un forte accento sulla popolarità e la personalizzazione, nonostante vi fossero dati che segnalassero gli effetti negativi in termini di disinformazione e polarizzazione.

Tale vicenda pone un grave problema morale, che mina alla base la possibilità di convivenza pacifica e democratica di una società, che consiste nel dominio sulla libertà e sulla coscienza di tanti uomini e donne attraverso sofisticati strumenti tecnici, dettato fondamentalmente dalla logica del potere e/o del profitto.

È quanto aveva già lucidamente intravisto il teologo Enrico Chiavacci negli anni ’80 del secolo scorso, nel descrivere le possibilità aperte dalla “rivoluzione del silicio”, che ha introdotto l’umanità nell’era dei semiconduttori e dei circuiti integrati, caratterizzata da una forte accelerazione tecnica che ha favorito il consolidarsi di “strutture di potere e di dominio culturale” operanti a livello globale, di cui aveva tra l’altro con precisione descritto la genesi e i meccanismi di ulteriore sviluppo. A Chiavacci farà eco Benedetto XVI quando denuncerà le strettoie della mentalità tecnicista che fa «coincidere il vero con il fattibile» assumendo come «unico criterio della verità l’efficienza e l’utilità» (Caritas in veritate n. 70).

Recentemente, nel messaggio per la Giornata delle Comunicazioni Sociali del 2016 Papa Francesco scriveva: «Non è la tecnologia che determina se la comunicazione è autentica o meno, ma il cuore dell’uomo e la sua capacità di usare bene i mezzi a sua disposizione». Per questo «occorre interrogarsi su ciò che [in Rete e sui social] è buono, facendo riferimento ai valori propri di una visione dell’uomo e del mondo, una visione della persona in tutte le sue dimensioni, soprattutto quella trascendente» (Francesco, discorso all’Università Roma tre, 2017), diversamente la transizione dell’epoca postmoderna non potrà che caratterizzarsi come «cultura del naufragio», in quanto caratterizzata da «mentalità tecnicistica», da «messianismo profano» che porta l’uomo di oggi a fare esperienza «sulla propria pelle un senso di sradicamento e abbandono» (card. Bergoglio, 2006).

image_pdfimage_print
Author

Leonardo Salutati

Tutte le storie di: Leonardo Salutati