Una falsa lettera per screditare un comandante e accusarlo di alto tradimento e di svendere la nazione alle potenze straniere. Se pensate a una notizia recente, rimarrete delusi: si tratta infatti dell’episodio raccontato da Tucidide in cui il condottiero spartano Pausania nel 468 a. C. viene murato vivo nel Tempio di Atena, dove si era rifugiato dopo esser stato condannato per una lettera costruita ad arte.
La definizione di fake news ovvero di notizie false trova spazio nei nostri dizionari solo dopo il 2016 ma a ben vedere indagando nella storia, il fenomeno delle notizie false o non parzialmente aderenti al vero trova spazio fin dall’antichità. Cos’è cambiato negli ultimi anni? L’avvento dei social network e l’uso sempre più pervasivo di internet attraverso gli smartphone hanno amplificato la velocità e il pubblico di diffusione del fenomeno. Francesco Pierri è un ricercatore del Dipartimento di Elettronica, Informazione, Bioingegneria del Politecnico di Milano, nonché visiting researcher all’Information Sciences Institute della University of Southern California e, precedentemente, all’Observatory on Social Media dell’Indiana University. La sua tesi di dottorato, nel 2021, ha analizzato gli effetti della diffusione di disinformazione e misinformation sui social network online. Ha pubblicato numerosi articoli sul tema su riviste e partecipato a diverse conferenze internazionali e la sua ricerca continua a valutare l’impatto sociale delle fake news. Il ricercatore ci racconta come.
Qual è stato il suo percorso accademico e perché ha scelto questo ambito di ricerca?
«Ho conseguito una doppia laurea magistrale in Ingegneria Informatica al Politecnico di Torino e la “Grande École” Télécom ParisTech di Parigi. Mi sono avvicinato al mondo accademico durante il mio primo tirocinio di ricerca in un laboratorio dell’École Polytechnique/INRIA, dove ho lavorato per circa 6 mesi per scrivere la mia (doppia) tesi di laurea magistrale. Dopo la laurea ho lavorato per altri 6 mesi ad IBM Research a Zurigo come Assistant Researcher, e nel frattempo mi sono candidato al concorso di dottorato al Politecnico di Milano. Ho vinto una borsa ministeriale nel dottorato interdipartimentale “Data Analytics and Decision Sciences”, ovvero una borsa “libera” e senza un tema di ricerca specifico. Ho quindi pianificato gli obiettivi della mia tesi di dottorato insieme ai miei due supervisor, i professori Stefano Ceri e Fabio Pammolli, scegliendo come oggetto della mia ricerca il problema della disinformazione (“fake news”) sui social network. L’aspetto più stimolante della mia ricerca è la costante necessità di dover studiare lavori provenienti da ambiti diversi dal mio, come scienze politiche, psicologia, sociologia, ecc., nonché cercare di verificare gli impatti sul mondo reale di quello che accade nel mondo virtuale».
Le notizie false sono un fenomeno presente fin dall’antichità. Perché quelle sul web sono oggetto di studio da parte sua?
«Il problema delle notizie false è diventato particolarmente rilevante in tempi recenti a causa delle possibilità offerte dal Web, e in particolare dai social media, di connettere milioni, se non miliardi di individui, da una parte all’altra del pianeta, nonché permettere agli stessi di generare contenuti su larga scala con facilità. Allo stesso tempo, stiamo assistendo ad una profonda crisi dei giornali e dei media tradizionali che ha facilitato la diffusione di forme alternative di informazione (online). Una combinazione di questi fenomeni con aspetti psico-cognitivi propri degli esseri umani fa sì che oggi siamo vulnerabili ed esposti ad una varietà di contenuti potenzialmente dannosi, spesso amplificati da attori “malvagi” in maniera coordinata, con ricadute negative e tangibili sul mondo reale».
Come viene analizzata la grande mole di contenuti che viene continuamente postata?
«Fin dalle elezioni americane del 2016 le piattaforme social hanno dimostrato di essere impreparate sulla gestione di contenuti problematici su parecchi fronti, incluso quello della disinformazione. L’approccio tradizionale consiste di una combinazione di analisi manuale di contenuti, affidata ad annotatori umani, e tecniche automatiche di “machine learning” (un ramo dell’intelligenza artificiale). Dallo scoppio della pandemia di COVID-19, invece, quasi tutte le piattaforme principali hanno iniziato ad adottare strategie più aggressive e proattive, dalla rimozione forzata di account e messaggi particolarmente problematici, che spesso causano aspri dibattiti sulla libertà di parola, alla moderazione più “soft” basata su etichette».
Quali sono le ricadute sulla società e sull’opinione pubblica che ha avuto modo di riscontrare?
«È generalmente molto complicato dimostrare relazioni di causalità tra ciò che avviene sui social e avvenimenti nel mondo, soprattutto a causa della scarsa accessibilità ai dati delle piattaforme. Nella mia ricerca ho avuto modo di misurare gli effetti della disinformazione relativa ai vaccini che circolava su Twitter durante la campagna vaccinale negli Stati Uniti. In particolare, abbiamo mostrato che le contee in cui si consumava più disinformazione erano associate a dei “cluster” di popolazione non vaccinata che potevano mettere a rischio l’eradicazione del virus».
Quali sono le caratteristiche di una fake news?
«Nonostante ci siano studi che hanno mostrato che “le notizie false si diffondono più velocemente di quelle vere”, credo che il termine “fake news” venga usato da molti in maniera impropria per riferirsi in realtà ad un’enorme varietà di contenuti non attendibili e potenzialmente dannosi. Penso che si debba considerare uno spettro di falsità o inattendibilità, e quindi non ha molto senso cercare caratteristiche comuni a tutte le notizie false quanto capire perché determinati contenuti si sono diffusi in un certo modo ed hanno avuto un certo impatto».
Cosa possono fare le singole piattaforme o gli Stati per arginare il problema senza sfociare nella censura?
«Come si dice tra gli addetti ai lavori non c’è ancora un “proiettile d’argento” (silver bullet) ovvero una soluzione finale per risolvere questo problema. Personalmente ritengo che le piattaforme stiano facendo, e abbiano fatto, troppo poco in merito alla questione, e che gli Stati non abbiano sottolineato abbastanza la drammaticità del problema. Allo stesso tempo comprendo la difficoltà nell’applicare una strategia che non violi in qualche modo la libertà di parola. Tutto sommato sento di poter accettare di più degli interventi dall’alto (delle piattaforme) quando si tratta di casi oggettivi e plateali di incitamento alla violenza ed altre conseguenze negative sul mondo reale (come nel caso dell’attacco a Capitol Hill negli USA)».
Le redazioni dei media si sono attrezzate con giornalisti che si dedicano al cosiddetto fact-checking, cioè alla verifica dell’attendibilità di alcune notizie virali. È un approccio che sta avendo risultati?
«I contributi scientifici mostrano risultati discordanti sull’efficacia del fact-checking. Ritengo che sia importante la presenza di questi strumenti ma altresì non credo che possa davvero fare la differenza né possa apportare un contributo notevole alla lotta contro la disinformazione».
Noi utenti come possiamo difenderci? Cosa possiamo fare per evitare di cadere nella trappola e fare da cassa di risonanza a contenuti fuorvianti?
«È sicuramente importante imparare a consumare contenuti online in maniera genuina e intelligente, ma allo stesso tempo penso che sia sbagliato pensare di affidare la responsabilità ai singoli individui. Veniamo sommersi quotidianamente da miliardi di articoli, foto e video, credo che il grosso debba essere fatto lato piattaforme. Troppo spesso dimostrano di non tutelare abbastanza i loro utenti».