Il dramma delle notizie false diffuse sul web non è nuovo alla cronaca ed è proprio negli ultimi tempi, specialmente a seguito della campagna elettorale americana, che si è aggravato notevolmente, trovando proprio nei social network un terreno estremamente fertile. Per contrastare il problema, l’anno scorso l’Associated Press ha iniziato a usare un algoritmo per la scrittura di notizie e di recente anche Facebook ha comunicato di volersi impegnare per scovare le bufale e i titoli scritti appositamente per attirare ‘click’. Ora è il turno di Twitter, che da poco ha presentato a un algoritmo ideato da Reuters.
Si chiama Reuters News Tracer ed è un software capace di analizzare i tweet in tempo reale, filtrando quelli “spam” e raggruppando quelli simili in base ai contenuti. Ad esempio, i tweet che contengono le parole “bomba” o “esplosione” potranno essere classificati come “attacco terroristico”, quindi come una notizia di rilievo.
L’algoritmo aiuta a verificare anche quanto sia attendibile un’eventuale “breaking news”, ovvero una notizia dell’ultimo minuto, dando un punteggio di credibilità ad ogni argomento. La selezione si basa su diversi criteri: chi pubblica il tweet e dove, come si diffonde, se l’informazione viene confermata o messa in dubbio sui social.
L’obiettivo è far pensare l’algoritmo come farebbe un giornalista in modo da evitare la diffusione di bufale mediatiche e una reazione a catena nel pubblico. Differente è invece la gestione di notizie false da parte di Facebook dove, quando un post viene segnalato come “bufala” da più persone, la sua diffusione viene ridotta, con la possibilità che esso venga marcato per mettere in guardia altri utenti. Con l’obiettivo di scovare le “fake news” ancora più velocemente, Facebook ha inoltre deciso di lanciare un esperimento su alcuni utenti, tra i quali il reporter americano Chris Krewson. Navigando su Facebook, il giornalista ha notato sotto un articolo condiviso dal Philadelphia Inquirer una finestra che gli chiedeva se a suo avviso il titolo di quella notizia stesse usando un linguaggio ingannevole.
Per il momento dunque molti esperimenti e nessuna censura totale dei post, ma non c’è dubbio che la questione sia laboriosa, tanto che per il futuro non si esclude l’utilizzo dell’intelligenza artificiale.