Stop a fake news e spam politico, Facebook, Twitter, Youtube e Whatsapp vanno alla guerra

Stop a fake news e spam politico, Facebook, Twitter, Youtube e Whatsapp vanno alla guerra
30 ottobre 2018 – 18:10

Facebook CEO and founder Mark Zuckerberg testifies during a US House Committee on Energy and Commerce hearing about Facebook on Capitol Hill in Washington, DC, April 11, 2018. / AFP PHOTO / SAUL LOEB (Photo credit should read SAUL LOEB/AFP/Getty Images)Per Facebook, gli ultimi due anni sono stati difficili. Il social network fondato da Mark Zuckerberg si è trovato al centro di polemiche infuocate sulle infiltrazioni da parte di attori stranieri – in particolar modo russi e iraniani – volte a destabilizzare le elezioni statunitensi del 2016, diffondendo disinformazione, fake news, propaganda politica e messaggi quanto più possibile divisivi.
Non bastassero gli attacchi esterni, Facebook ha anche dovuto fronteggiare il caso Cambridge Analytica, società di consulenza politica che – sfruttando i dati di decine di milioni di elettori americani, ottenuti in maniera illegittima – potrebbe aver contribuito alla vittoria di Donald Trump. La ciliegina sulla torta (se così possiamo dire) è il furto di dati personali da parte di un gruppo di hacker, che ha colpito la piattaforma agli inizi di ottobre e sottratto le informazioni di circa 29 milioni di utenti.
Dopo aver promesso in ogni modo di volersi impegnare a fondo per affrontare questi problemi, per Facebook sta arrivando il momento della verità. Il 6 novembre si terranno le elezioni di metà mandato negli Stati Uniti (con le quali si rinnovano la Camera e un terzo del Senato) e già da mesi, per il Washington Post, hanno ricominciato a proliferare pagine e profili che avrebbero l’obiettivo di influenzare l’opinione pubblica attraverso azioni coordinate di disinformazione. Zuckerberg, questa volta, spera di farsi trovare pronto.

La war room
Da pochi giorni, racconta Wired Us, è stata completata la war room di Facebook, considerata “l’ultima linea di difesa” in caso di attacchi. Ormai, migliaia di dipendenti lavorano costantemente per monitorare quanto avviene sul social network. Se qualcosa però dovesse sfuggire, è in questa grande stanza situata nel centro nevralgico del quartier generale di Menlo Park che un team di circa 20 persone agirà per eliminare tutti gli account e i contenuti che hanno lo scopo di manipolare l’opinione pubblica.
Facebook non ha voluto diffondere i dettagli del funzionamento della war room (per evitare di fornire elementi utili agli avversari), ma si sa che uno degli strumenti utilizzati sarà un software specializzato nel tenere traccia in tempo reale delle informazioni che circolano sul social network, sfruttando dati e statistiche per individuare nel minor tempo possibile se una bufala sta ottenendo ampia diffusione o se si sta assistendo a un picco di profili falsi e automatizzati (in una parola: bot) creati in una particolare area geografica (come può essere il caso delle clic factory macedoni).
Nella war room agirà un gruppo scelto di ingegneri, data scientist e anche dirigenti. Formano una squadra speciale dotata, in teoria, delle competenze necessarie ad arginare tutte le forme di disinformazione che riuscissero a superare i normali controlli. Per quanto necessaria, la decisione di Facebook di ricorrere agli armamenti pesanti per combattere le fake news ha sollevato non pochi scetticismi.
Da una parte, si teme che una piattaforma privata possa trasformarsi in una sorta di “arbitro della verità”, in grado di decidere cosa meriti di essere pubblicato e cosa invece debba essere silenziato; dall’altra, alcuni esperti sospettano che tutti questi sforzi potrebbero rivelarsi vani. “Se analizziamo come sono cambiate le operazioni degli agenti stranieri negli ultimi due anni, si nota come il loro focus non sia più la diffusione di fake news. Puntano invece a massimizzare l’impatto di storie che stanno già circolando e che si rivolgono a un’audience estremamente di parte”, ha spiegato al New York Times Priscilla Moriouchi, direttrice della società di cybersicurezza Recorded Future. “Sarà molto più difficile per aziende come Facebook o Twitter scovare queste operazioni”.
Cambio di passo
Da parte sua, Mark Zuckerberg ha ostentato sicurezza in un lunghissimo post pubblicato a settembre: “Nel 2016 non eravamo preparati per le operazioni coordinate di disinformazione che oggi affrontiamo regolarmente. Ma da allora abbiamo imparato moltissimo e abbiamo sviluppato sistemi sofisticati che uniscono tecnologie e persone per prevenire interferenze elettorali sui nostri servizi. Oggi siamo più pronti a questo genere di attacchi”.
Considerando per quanto tempo Zuckerberg in persona abbia cercato di sminuire o negare il ruolo di Facebook nella manipolazione dell’opinione pubblica, il cambiamento avvenuto negli ultimi mesi è significativo. Oltre ad aver raddoppiato gli addetti alla sicurezza (che oggi sono circa 20mila), Facebook sta collaborando con un gruppo di accademici per studiare l’impatto dei social network sulle elezioni. E ha reso obbligatorio che chi acquista spazi pubblicitari in vista delle elezioni di medio termine sia un cittadino statunitense o un residente fisso nel paese e già durante l’estate ha reso noto di aver rimosso una trentina di pagine coinvolte in operazioni di propaganda politica.
“Nonostante i nostri costanti progressi”, ha spiegato ancora Zuckerberg, “quelli che affrontiamo sono avversari sofisticati e abbondantemente finanziati. Non si arrenderanno e continueranno a evolversi. Dobbiamo sempre migliorare per restare un passo avanti a loro”. Nel frattempo i fronti da sorvegliare si stanno moltiplicando.
Jair BolsonaroTempesta sul Brasile
Domenica si è svolto il secondo turno delle elezioni presidenziali in Brasile. Anche in questo caso, si pensa che le fake news abbiano giocato un ruolo cruciale nell’ascesa del candidato di estrema destra Jair Bolsonaro, eletto presidente con il 55% dei voti al ballottaggio. La situazione ricalca in parte quanto avvenuto negli Stati Uniti con Donald Trump, tanto da spingere Facebook a rimuovere, nei giorni scorsi, 68 pagine e 43 account collegati a un’oscura società di marketing politico brasiliana: la Raposo Fernandes Associados (Rfa), che avrebbe violato le norme del social network relative allo spam e alla propaganda.
“Secondo Facebook, la Rfa avrebbe creato decine di pagine usando account fasulli e creando molteplici profili con lo stesso nome, per postare un numero massiccio di contenuti click-bait volti a dirottare gli utenti sui siti che supportano Bolsonaro”, ha scritto la Reuters.
Il caso WhatsApp
A quanto pare, nel caso delle elezioni brasiliane, Zuckerberg non però deve preoccuparsi tanto di Facebook, quanto di un’altra piattaforma di sua proprietà: WhatsApp, che negli ultimi mesi è stata inondata da milioni di contenuti fasulli e video manipolati con lo scopo di sostenere l’elezione di Bolsonaro, tanto da spingere la società a cancellare qualcosa come 100mila account.
WhatsApp è la nuova frontiera globale delle fake news, e in molti paesi la situazione sembra ormai essere fuori controllo. In India, bufale riguardanti presunti rapimenti di bambini da parte di non meglio definite gang hanno innescato un’ondata di violenza che ha causato la morte di oltre 20 persone. In Sri Lanka, invece, le bufale su WhatsApp sono considerate la miccia che ha acceso gli scontri tra buddisti e musulmani. “I germi di questa violenza sono nostri, ma WhatsApp e Facebook sono il vento che li diffonde”, ha chiosato un consigliere del presidente.
La situazione è ancora più grave in Myanmar, dove negli ultimi anni sono circolati su WhatsApp più di mille post (condivisi da milioni di persone) che hanno contribuito a incendiare gli animi e scatenare la violenza nei confronti della minoranza musulmana dei Rohingya. Si calcola che circa 700mila appartenenti a questo gruppo etnico abbiano dovuto abbandonare il paese.
Ma come si può combattere la diffusione di fake news su una piattaforma di messaggistica privata e per di più criptata? Le contromisure non sembrano essere particolarmente incisive. Da una parte, la piattaforma ha deciso di limitare il numero di persone a cui può essere inoltrato un singolo messaggio
Dall’altra, sta agendo con pratiche decisamente analogiche. In India, sui principali quotidiani del paese, è comparsa una pubblicità a tutta pagina che invita gli utenti di WhatsApp a diffidare dai contenuti virali, fornendo anche consigli per individuare le fake news e spronando a controllare link, fatti e immagini. “Non prestate attenzione a quante volte ricevete lo stesso messaggio”, si legge nell’annuncio. “Solo per il fatto che un messaggio viene condiviso migliaia di volte, non significa che sia vero”.

Addirittura, in giro per l’India sono stati inviati gruppi di attori che mettono in scena per le strade delle città la dinamica che porta una fake news a diventare un elemento di violenza incontrollata, mentre nelle scuole i professori insegnano ai ragazzi a distinguere le bufale dalle notizie. Questa strategia dimostra quanto nel paese si siano raggiunti livelli di emergenza. E come i social network possano mettere in pericolo le più grandi democrazie mondiali, con il rischio di legittimare quei paesi, come la Cina o la Russia, che sorvegliano sempre più strettamente la circolazione dell’informazione in rete.
Twitter al contrattacco
Non è solo Facebook a dover affrontare i rischi provocati dalla diffusione di fake news. Nei primi giorni di ottobre, Twitter ha aggiornato le norme relative alle “operazioni per l’integrità elettorale”. Adesso, i profili che usano per il loro avatar foto rubate in rete potranno essere eliminati, così come quelli che utilizzano biografie copiate e chi inserisce informazioni del profilo “intenzionalmente fuorvianti”.
L’obiettivo è limitare l’azione degli account fasulli e automatici, che spesso prendono la forma di vere e proprie schiere di bot guidate da una singola entità. Per questa ragione Twitter intende cancellare tutti gli account collegati a uno che abbia violato le regole, indipendentemente dal fatto che abbiano violato o meno le norme.
Nel complesso, la strategia di Twitter è chiara: abbandonare le riserve su chi debba essere l’arbitro dei contenuti che circolano su un social network e agire con più convinzione, nel tentativo non solo di combattere le fake news, ma anche di isolare le figure più controverse e radicali. La prima vittima illustre – se si escludono i terroristi dell’Isis (i primi contro cui Twitter ha agito con fermezza) e alcuni esponenti dell’alt-right – è stato Alex Jones, animatore del sito complottista di estrema destra Info Wars che recentemente si è visto eliminato da tutte le principali piattaforme social.

Non solo: Twitter ha deciso di cancellare anche numerosi account sospettati di essere nati al solo scopo di aggirare il ban di Alex Jones. Per una piattaforma che ha sempre dimostrato grande tolleranza nei confronti di account fasulli, disinformazione e materiale esplicito – per difendere la libertà d’espressione e non diventare il giudice di quali contenuti possano circolare –  si tratta di un’inversione a U. I controlli tuttavia non sempre funzionano: il sospetto attentatore dei pacchi bomba a esponenti del Partito democratico e alla Cnn era stato segnalato per le minacce diffuse su Twitter, ma la piattaforma non ha preso provvedimenti in tempi stretti.
Piccolo schermo
Lo stesso vale anche per YouTube, piattaforma che ospita una miriade di contenuti complottisti ed estremisti e che è stata anche accusata di travolgere i suoi utenti in una sorta di spirale della radicalità, perché attraverso i video correlati si passa inevitabilmente da un documentario sull’allunaggio a uno che nega che l’uomo sia mai stato sulla Luna. O partendo da un discorso di Hillary Clinton porta gli utenti ai contenuti che “dimostrano” come la ex candidata democratica sia parte della fantomatica setta degli Illuminati.
Per arginare la diffusione incontrollata di questi contenuti, YouTube sta investendo sempre più denaro per supportare la creazione di “contenuti di qualità ed educativi” prodotti da testate editoriali o comunque da gruppi ritenuti affidabili. Non solo: la piattaforma di videostreaming sta provando ad affiancare ai video ritenuti ambigui dei link, per esempio a Wikipedia o Google News, che spronano l’utente ad approfondire alcuni argomenti su fonti dotate di maggiore credibilità.
Dopo un paio d’anni passati a discutere se e come i social network debbano trasformarsi nei giudici che valutano cosa può e cosa non può comparire sulla loro piattaforma, l’indecisione è ormai stata superata e tutti i colossi del tech hanno scelto di agire con convinzione. Il rischio che il rimedio sia peggiore del male, soprattutto sul lungo termine, non si può sottovalutare, visto che di fatto saranno poche aziende private della Silicon Valley ad assumere il ruolo di controllore dell’informazione. Ma i timori per l’impatto della disinformazione sulla nostra società sono tali da lasciare spazio alla loro azione. In attesa di capire se tutte queste contromisure sortiranno qualche effetto, resta sempre valido il consiglio riportato nel report dell’Unione Europea sul tema fake news e disinformazione: “Sul web bisogna comportarsi come se ogni giorno fosse il primo aprile”.
The post Stop a fake news e spam politico, Facebook, Twitter, Youtube e Whatsapp vanno alla guerra appeared first on Wired.

Fonte: Wired

Utilizzando il sito, accetti l'utilizzo dei cookie da parte di BestAll. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi