Questa puntata della rubrica Voci dal Mondo riprende il tema delle cosiddette “fake news”, definizione orwelliana e strumentale utilizzata da qualche anno dal potere costituito per decidere cosa sia gradito alla narrazione dominante, la quale, per sussistere e mantenere un certo grado di autorevolezza, necessita della diffusione (leggi imposizione) di un racconto legittimante tale da includere ogni sfera del mondo della comunicazione.
In quest’articolo volgiamo, per alcuni passaggi, lo sguardo verso il cosiddetto “biennio pandemico”, vero banco di prova globale capace di testare lo spazio di manovra in cui il potere costituito può spingersi.
Siamo stati tutti testimoni di come quell’angolo cieco si sia rivelato molto più ampio e di quanto profondi siano gli spazi di manovra a disposizione del potere, una volta utilizzate le leve della paura indirizzate sul mero tornaconto individuale, vera chiave di volta della postmodernità liquida e disconnessa.
Nel breve pezzo, a firma di Didi Rankovic, ritroviamo inquietanti richiami all’utilizzo di quegli strumenti militari puntualmente tacciati di complottismo dai professionisti dell’informazione: durante la “pandemia” fu, tra gli altri, il Regno Unito, ad utilizzare un ramo specifico delle forze armate contro… i propri cittadini britannici, sia agendo sui social che nei confronti di chi veniva incasellato (etichettato) tra gli scettici nei confronti del vaccino contro il coronavirus: stiamo parlando dell’Information Warfare Unit[1], reparto operativo dal 2010 entro la 77a brigata lavorando a stretto contatto con le squadre di operazioni psicologiche militari. Operazioni SpyOps, ovviamente, utilizzate[2] per il bene dei cittadini britannici, onde evitare che cascassero nella rete della propaganda no-vax o addirittura russa.
Come dovrebbe essere ormai acclarato (ma evidentemente non lo è) questa fu solo una piccola (ma fondamentale) componente di un intero sistema assai più complesso e pervasivo, scatenato nei confronti del dissenso.
A distanza di due anni sembra che nulla di così sconvolgente sia accaduto, la macchina della disinformazione (quella vera) procede indisturbata, sebbene ora si conceda su altre tematiche: guerra in Ucraina e massacro di Gaza ne sono i testimoni più vividi.
La tentazione di utilizzare la strumentazione militare e l’avanzamento della tecnica per combattere quello che viene etichettato come “disinformazione” paiono essere strumenti irresistibili: ultimo soggetto, in ordine d’arrivo, come riportato dal portale Reclaimthenet[3] è il colosso degli armamenti americano Lockheed Martin: “Proprio adesso negli Stati Uniti, Lockheed Martin è vicino al completamento di un prototipo che analizzerà i media per “rilevare e sconfiggere la disinformazione.”
È sempre d’attualità il tema della tecnica, soprattutto declinato nel suo utilizzo e nel suo scopo finale ed è duro a morire il vecchio quesito: “chi controlla i controllori?”.
Dove si voglia giungere, infine, pare evidente: a passi da gigante verso la società del controllo totale, obiettivo tutto sommato fattibile quando alla realtà si sostituisce la narrazione.
Valerio Savioli
Lockheed Martin sviluppa un sistema per identificare e contrastare la “disinformazione online”, prototipato dalla DARPA
Varie unità militari in tutto il mondo (in particolare nel Regno Unito durante la pandemia) sono state coinvolte in ciò che, a causa dell’obiettivo (censura) e dei partecipanti (militari), sono destinati a diventare sforzi controversi, se non illegali.
Ma non sembra esserci molta voglia di imparare dagli errori degli altri. La tentazione di portare il sistema di difesa nell’arena politica della “guerra alla disinformazione” sembra essere troppo forte per resistere.
Proprio adesso negli Stati Uniti, Lockheed Martin è vicino al completamento di un prototipo che analizzerà i media per “rilevare e sconfiggere la disinformazione”.
E per media, coloro che hanno commissionato lo strumento – chiamato programma Semantic Forensics (SemaFor) – intendono tutto: notizie, Internet e persino media di intrattenimento. Testo, audio, immagini e video che fanno parte di quelli che sono considerati “attacchi di disinformazione automatizzati su larga scala” dovrebbero essere rilevati ed etichettati come falsi dallo strumento.
Il processo di sviluppo è quasi terminato e il prototipo è utilizzato dalla Defense Advanced Research Projects Agency (DARPA) del Dipartimento della Difesa degli Stati Uniti.
Il valore totale del programma, assegnato dalla Direzione delle informazioni del Laboratorio di ricerca dell’aeronautica militare (che agisce per conto della DARPA) alla Lockheed Martin ammonta a 37,2 milioni di dollari, ha riferito l’elettronica militare e aerospaziale.
I rapporti rilevano che, sebbene i metodi di rilevamento statistico del passato abbiano avuto “successo”, ora sono considerati “insufficienti” per il rilevamento della disinformazione mediatica. Questo è il motivo per cui è preferibile esaminare l’“incoerenza semantica”.
Viene fornito un esempio piuttosto curioso di come gli “orecchini non corrispondenti” possano essere un indizio del fatto che un volto non è reale ma generato tramite un GAN – una rete generativa avversaria.
(I GAN sono un metodo di apprendimento automatico.)
E lo scopo di SemaFor è quello di analizzare i media con algoritmi tecnologici semantici, per emettere il verdetto se il contenuto è autentico o falso.
C’è di più: dimostrare che tali attività provengono da un attore specifico è stato finora quasi impossibile, ma esiste una “soluzione mentale” di cui coloro che stanno dietro al progetto sembrano soddisfatti: dedurre, piuttosto che identificare. Quindi, proprio come prima?
Gli “algoritmi di attribuzione” sono ciò che serve per questo, e ci sono altre congetture presentate come tecnologia affidabile – vale a dire, “algoritmi di caratterizzazione” per decidere non solo se i media vengono manipolati o generati, ma anche se lo scopo è dannoso.
Ora resta solo da scoprire come sono scritti gli algoritmi.
Didi Rankovic
[1] https://www.thetimes.com/uk/defence/article/army-spies-to-take-on-antivax-militants-mfzsj66w2
[2] https://www.public.news/p/uk-government-used-army-psyops-division
[3] https://reclaimthenet.org/darpa-system-counter-online-disinformation