Il controllo dei fatti automatizzato può rilevare le affermazioni che sfuggono ai controlli umani. Ecco i due modi in cui funzionano.

Controllo Dei Fatti

Verificano le affermazioni convalidandole rispetto a una fonte o un articolo autorevole o utilizzano una tecnica di calcolo chiamata rilevamento della posizione.

(Shutterstock)

tariffe di abbonamento a minneapolis star tribune

Da false affermazioni che bere acqua calda con limone protegge dal coronavirus per alti tassi di contaminazione tra le truppe NATO con sede in Lettonia , la pandemia è maturata per molti tipi di bufale e campagne di disinformazione.

Tra gennaio e marzo, il Reuters Institute for the Study of Journalism lo ha notato il numero di fact-check è aumentato del 900% , il che probabilmente significa un aumento ancora maggiore di notizie false poiché molte di esse probabilmente sono scivolate attraverso la rete.



Sebbene l'alfabetizzazione mediatica sia essenziale per invertire la tendenza, l'uso dell'automazione e degli algoritmi potrebbe aiutare a condurre gli sforzi di verifica dei fatti su larga scala. Nel suo Rapporto 2018 , Lucas Graves ha essenzialmente identificato due tipi di controllo dei fatti automatizzato: controlli dei fatti che verificano le affermazioni convalidandole rispetto a una fonte autorevole o una storia che era già stata verificata e controlli dei fatti che si basano su 'segnali secondari' come rilevamento della posizione - una tecnica di calcolo che determina se un pezzo di testo è d'accordo o in disaccordo con un'affermazione.

Ecco una panoramica degli usi giornalistici e dei progetti di ricerca che esaminano entrambi gli aspetti.

Schiacciare: Duke University Reporters ’Lab è stato sperimentando con Squash , un programma per computer che trasforma i sottotitoli TV in stringhe di testo, quindi li confronta con un database di verifiche dei fatti precedenti. L'obiettivo di Squash è verificare le dichiarazioni dei politici quasi istantaneamente, sebbene il suo team di ricerca abbia ancora ammesso il programma richiede l'aiuto umano per decidere se trasmettere i propri risultati .

Fatto completo: Anche l'organizzazione di verifica dei fatti con sede a Londra Full Fact è in grado di farlo individuare affermazioni dubbie attraverso i sottotitoli TV , confrontandoli con il proprio catalogo di verifiche dei fatti verificati e utilizzando dati affidabili, come le statistiche governative, per verificare le dichiarazioni non controllate.

Ma anche i dati affidabili devono essere controllati a fondo. Nel rapporto di Graves, il capo fondatore dell'automazione di Full Fact ha sottolineato che le cifre ufficiali potrebbero essere facilmente estrapolate dal contesto, come quando il tasso di omicidi nel Regno Unito è aumentato nel 2003, ma solo perché gli omicidi commessi da un noto serial killer negli anni prima erano ufficialmente inclusi nelle statistiche in quel momento.

Dai un'occhiata: Come Squash e Full Fact, Dai un'occhiata - un'iniziativa dell'organizzazione argentina di controllo dei fatti Chequeado - analizza automaticamente i media nazionali alla ricerca di dichiarazioni controverse. Quindi li confronta con un database esistente e crea file di testo che i verificatori di fatti possono condividere sui social media. Ma Chequeabot è comunque influenzato dalla mancanza di dati grezzi in Argentina, che ha spinto Chequeado a considerare le partnership con il governo, ma anche con università, think tank e sindacati.

Chatbot di IFCN: Nel bel mezzo della pandemia, l'International Fact-Checking Network ha messo insieme un database di fact-check, ora composto da più di 7.000 voci in più di 40 lingue. A maggio è stata lanciata l'alleanza per il controllo dei fatti il proprio chatbot WhatsApp , che è in grado di esplorare quel database per rispondere alla richiesta di parole chiave di un utente. Disponibile per la prima volta in inglese, il chatbot di WhatsApp è ora disponibile in spagnolo, hindi e portoghese.

L'Università di Waterloo: Un gruppo di ricerca dell'Università di Waterloo, in Canada, sta esaminando il rilevamento della posizione al fine di creare uno strumento in grado di rilevare le notizie false confrontando affermazioni con post e storie simili. I ricercatori hanno programmato algoritmi per apprendere dalla semantica trovata nei dati di addestramento e sono riusciti a determinare con precisione le affermazioni nove volte su 10. Considerano la loro soluzione uno strumento di supporto volto a filtrare i contenuti falsi, in modo da aiutare i giornalisti a perseguire affermazioni su cui vale la pena indagare.

CON: Un problema che deriva dal rilevamento della posizione, tuttavia, è che tende a riprodurre i nostri pregiudizi verso il linguaggio. Ad esempio, le affermazioni negative sono viste come più propense a trasmettere contenuti inesatti, mentre quelle affermative sono generalmente associate a un senso di verità. Questo è ciò che trovato un gruppo di ricerca del MIT durante il test di modelli algoritmici su set di dati esistenti. Li ha spinti a sviluppare nuovi modelli. Il team ha anche richiamato l'attenzione sulla questione delle affermazioni che sono vere in un momento nel tempo, ma non più accurate oltre un certo punto.

Nel suo rapporto, Graves ha anche indicato altri indizi che potrebbero aiutare a smascherare informazioni false su larga scala. Questi potrebbero variare da 'caratteristiche stilistiche, come il tipo di linguaggio utilizzato in un post sui social media o in un presunto rapporto di notizie' a 'la posizione di rete di una fonte' o 'il modo in cui una particolare affermazione o collegamento si propaga su Internet'.

Ma per quanto avanzate siano le soluzioni automatizzate, sono ancora messe alla prova le molte ragioni per cui siamo attratti a credere alle fake news in primo luogo, che si tratti di ragionamento parziale, attenzione distratta o esposizione ripetuta, ad esempio. Inoltre, c'è il rischio aggiuntivo di incorrere in un 'effetto controproducente', a nozione che prevede che quando un'affermazione è fortemente allineata con le idee di qualcuno, questa persona è ulteriormente rafforzata nelle proprie opinioni una volta esposta alla verità.

Alla fine, il controllo dei fatti automatizzato avrà successo solo se strettamente intrecciato con l'alfabetizzazione mediatica.

Samuel Danzon-Chambaud è un dottorato di ricerca. ricercatore sul Progetto JOLT , che ha ricevuto finanziamenti dal programma di ricerca e innovazione Orizzonte 2020 dell'Unione europea nell'ambito della convenzione di sovvenzione Marie Skłodowska-Curie n. 765140.