tpi-logo-trasparente

Disinformatia: guida alla più grande minaccia alla libertà a livello mondiale

Quale sarà la principale minaccia a livello globale nel prossimo futuro? La disinformazione, secondo l’annuale rapporto sul rischio del World Economic Forum. A preoccupare in tal senso è anche l’accesso sempre più facile a strumenti di intelligenza artificiale. Il report – che ha raccolto nei mesi scorsi le opinioni di 1490 esperti accademici, del mondo delle imprese, del governo, della comunità internazionale e della società civile – indica come i rischi legati alla disinformazione potrebbero ulteriormente acuirsi nei prossimi mesi, in vista dei tanti appuntamenti elettorali in programma in varie parti del mondo, a cominciare dalle elezioni europee e da quelle americane.

Agli intervistati da questo studio del Forum economico mondiale, contenuto nel “Global Risks Report 2024”, è stato chiesto di selezionare cinque possibili rischi che potrebbero presentare una crisi a livello globale nel 2024: il 66% ha optato per gli eventi meteorologici estremi, mentre il 53% ha indicato la disinformazione e la misinformazione (ovvero un’informazione falsa che viene diffusa senza l’esplicita intenzione di ingannare), generate dall’intelligenza artificiale. Se invece si allarga l’orizzonte al 2026, disinformazione e misinformazione si classificano al primo posto nel sondaggio. In particolare, si sottolinea che questi fenomeni potrebbero interferire pesantemente con le elezioni in arrivo, accentuando la polarizzazione dei punti di vista.

Minacce esterne
Ma come avvengono queste interferenze esterne e le manipolazioni dell’informazione? Quali sono i principali bersagli di queste campagne e i canali online attraverso cui vengono diffusi i contenuti? Un report dell’Unione europea pubblicato in questi giorni ha approfondito le possibili minacce e i meccanismi legati alle interferenze e manipolazioni dell’informazione provenienti dall’esterno.

Si parla di “Foreign Information Manipulation and Interference” (FIMI). Queste attività di disinformazione sono manipolatorie, condotte da attori esterni, che si impegnano in tentativi intenzionali, strategici e coordinati di manipolare i fatti, per confondere, seminare divisione, paura e odio. L’obiettivo è quello di “minare la credibilità delle istituzioni democratiche e incoraggiare divisioni e polarizzazioni nelle società europee”.

Il report è stato prodotto dall’EEAS, il servizio diplomatico dell’Ue che porta avanti la politica estera e di sicurezza. Secondo Josep Borrell, vicepresidente della Commissione europea, “la disinformazione pone un problema per la nostra sicurezza”, in particolare in un anno denso di appuntamenti elettorali, che vedrà a giugno i cittadini europei chiamati alle urne per il rinnovo del Parlamento. “Se l’informazione diventa tossica, la democrazia non può funzionare”, ha aggiunto l’Alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza. Per questo è necessario studiare misure e azioni per “proteggere le società da potenziali manipolazioni delle informazioni e interferenze nelle elezioni”. 

L’esempio più lampante di tali attività è rappresentato dalla Russia, che utilizza la FIMI come strumento nella sua guerra di aggressione contro l’Ucraina. Un ruolo preminente è svolto anche dalla Cina o da altri attori, che si impegnano nella manipolazione intenzionale delle conversazioni pubbliche, con il chiaro scopo di perseguire propri obiettivi politici ed economici. 

Il primo documento del genere era stato realizzato dal Servizio europeo per l’azione esterna dell’Ue un anno fa, nel gennaio 2023. In questi mesi, si sottolinea nel report 2024, “attori esterni hanno continuato a manipolare i fatti”, impattando negativamente su coloro che sono diventati bersaglio della disinformazione. 

Rischio manipolazioni
La seconda edizione del report è basata su 750 casi di “Foreign Information Manipulation and Interference”. Gli esempi sono stati raccolti e analizzati da dicembre 2022 a novembre 2023. Entrando nel dettaglio, il documento evidenzia come l’Ucraina sia il Paese più bersagliato da tali attività manipolatorie. L’Unione europea ha sanzionato i principali organi di informazione controllati dal Cremlino per il loro coinvolgimento nel sostegno alla guerra contro l’Ucraina. Ma sono necessari ulteriori sforzi per affrontare questi attacchi FIMI, che hanno lo scopo di minare la stabilità e la sicurezza del Paese. In tutto l’attività FIMI qui in esame ha riguardato 53 Paesi. Tra i più colpiti, dopo l’Ucraina, troviamo gli Stati Uniti e la Polonia.

Ma i soggetti coinvolti da questi attacchi sono molteplici. Sono infatti ben 149 le organizzazioni prese di mira: tra queste ci sono l’Unione europea, la NATO, le forze armate ucraine, ma anche importanti media come il New York Times, Euronews e Reuters. O ancora intere comunità, in particolare quella LGBT. 

Nel campione utilizzato sono state prese di mira 59 persone, tra cui il più bersagliato risulta essere il presidente ucraino Volodymyr Zelensky. Ma anche lo stesso Borrell, la presidente della Commissione Ue Ursula von der Leyen, il presidente francese Emmanuel Macron e la first lady ucraina Olena Zelenska. Fra gli obiettivi della manipolazione anche figure che non appartengono al mondo della politica e delle istituzioni, come Nicolas Cage, Margot Robbie, Stephen King e molti altri. Il metodo più usato in questi casi è il deepfake, con le voci, le dichiarazioni e i volti di questi personaggi celebri manipolati per raggiungere un pubblico più ampio. A conferma del fatto che gli obiettivi degli attacchi FIMI sono globali.

È importante poi sottolineare come queste attività sfruttino spesso l’attenzione che si crea attorno a importanti eventi, quali vertici politici, elezioni, emergenze, visite ufficiali, comunicazioni di personaggi pubblici. Tra gli eventi che hanno innescato il maggior numero di casi FIMI nel campione in esame figurano l’attacco di Hamas a Israele del 7 ottobre scorso e il colpo di Stato del 26 luglio 2023 in Niger. 

Segno, dunque, che questi attori della disinformazione seguono da vicino l’attività istituzionale e mediatica dei loro bersagli e, strategicamente e opportunisticamente, dirottano l’attenzione creata da determinati eventi per raggiungere un’audience più vasta e perseguire i propri interessi.

Come si diffondono questi attacchi? Fondamentale è la condivisione online tramite canali coordinati, come siti internet oppure profili, pagine e gruppi sui social network. Gli attori malintenzionati pubblicano i contenuti e li condividono attraverso una varietà di canali online, utilizzando account fake, dando così l’illusione di una reale e accesa discussione in merito, che spesso viene poi ripresa dai siti tradizionali. Un coordinamento multipiattaforma assai rodato ed efficace. 

L’analisi condotta ha portato a identificare circa 4mila diversi canali coinvolti in queste operazioni: molti di questi sono apparsi solo una o due volte tra tutti i casi analizzati, altri canali invece sono stati coinvolti in decine di episodi. Le piattaforme più utilizzate sono state Telegram (496 volte) e X (452), ma è stata osservata una significativa attività anche su altri network sociali come Facebook, YouTube e TikTok.

Intelligenza artificiale
Bisogna poi interrogarsi sul ruolo dell’intelligenza artificiale. Secondo quest’analisi l’uso dell’IA nelle “foreign information manipulation and interference” è ancora minimo, visto che nei 750 casi presi in esame meno di 20 hanno visto l’utilizzo di media generati dall’intelligenza artificiale. Si può dire quindi che l’IA non è (ancora) la minaccia più grande, e che il suo utilizzo appare “più un’evoluzione che una rivoluzione” in questo tipo di operazioni FIMI. 

Tra gli episodi che si possono citare a tal proposito, un video dello scorso novembre in cui si cercava di convincere gli ucraini a tentare un colpo di Stato; o ancora a dicembre un filmato, generato dall’intelligenza artificiale, della presidente moldava Maia Sandu, condiviso da account appena creati, che fingevano di essere canali autentici del governo moldavo. 

L’IA potrebbe anzi essere un valido alleato per chi cerca di contrastare questi attacchi, grazie alla crescita esponenziale e allo sviluppo di nuovi strumenti, che potrebbero avvantaggiare proprio chi cerca di difendersi dai rischi della manipolazione. 

Se la FIMI è una minaccia per la sicurezza e la democrazia, è necessario che l’Unione europea si doti di strumenti e risposte comuni per contrastare la disinformazione online, attraverso un’efficace collaborazione tra gli Stati e le comunità. Perché chiunque può essere il bersaglio della manipolazione delle informazioni. Questo vale a maggior ragione per il 2024, l’anno “più elettorale” di sempre, con 76 Paesi di tutto il mondo chiamati alle urne. La protezione delle elezioni da queste minacce deve iniziare mesi prima del voto e continuare anche dopo, perché i manipolatori si preparano per colpire con largo anticipo e intensificano gradualmente i loro attacchi. Difendere le nostre società da questi pericoli è una delle battaglie più importanti dei nostri tempi: farlo significa salvaguardare lo spazio pubblico comune in cui le idee possono essere liberamente create e dibattute.

Share:

Facebook
Twitter
Pinterest
LinkedIn

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

On Key

Related Posts

Ciao, ho 30 anni e sono il problema

«Molti della mia generazione hanno dovuto mettere tutto in sospeso». Università sempre più costose, la crisi peggiore dai tempi della Grande depressione, un mercato immobiliare