0,00€

Nessun prodotto nel carrello.

0,00€

Nessun prodotto nel carrello.

TematicheCyber e TechInformation warfare: l’espansione del Deepfake

Information warfare: l’espansione del Deepfake

-

In un contesto di conflitto geopolitico dominato dalle nuove tecnologie e da ineluttabili processi di digitalizzazione della società, la capacità persuasiva di audio e video può essere sfruttata per fini malevoli. Tale pratica, emersa per la prima volta nel 2017 su una piattaforma di social media chiamata Reddit, prende il nome di Deepfake e consiste in una tecnologia in grado di trasferire l’immagine o la voce di una persona – o entrambe – su un’altra immagine o video in modo iperrealistico. 

La tecnologia Deepfake

I video Deepfake sono prodotti attraverso la tecnologia GAN (Generative Adversarial Network) che sfrutta gli sviluppi delle reti neurali (Deep Neural Network). GAN è formata da due reti diverse: la prima è la rete generatrice che può creare immagini, suoni e dati realistici mentre la seconda rete è la discriminatoria, in grado di comprendere la differenza tra dati reali e falsi così da aumentare rapidamente la qualità delle immagini prodotte. Nel contesto di una delicata relazione internazionale tra Stati, un video Deepfake è potenzialmente in grado di produrre conseguenze drammatiche quali crisi internazionali o guerre nucleari. Infatti, in un’intervista al Wall Street Journal, Hany Farid, un esperto in materia, illustra uno scenario facilmente realizzabile: “Immaginate un video nel quale appare Donald Trump (ndr allora Presidente degli Stati Uniti) che dice: ‘Ho appena lanciato un’arma nucleare contro la Corea del Nord’. Quel video finisce su Twitter e diventa virale in 30-60 secondi. La Corea del Nord risponde in altri 60 secondi prima che qualcuno capisca che il video è falso”. Come si evince in un simile contesto di tensione, un video Deepfake potrebbe causare una crisi internazionale in soli 120 secondi. 

L’impiego malevolo del Deepfake

L’accesso commerciale alle tecnologie che permettono di generare Deepfake ne ha aumentato esponenzialmente l’impiego, rendendo fondamentale comprenderne le diverse applicazioni con l’obiettivo di definire le pratiche di prevenzione e contrasto al suo utilizzo malevolo. Nello specifico, questa tecnica è impiegata con fini di frode, cyber-bullismo, manipolazione dei dati ma anche falsa testimonianza. Casi recenti ne hanno dimostrato la portata: nel 2019 una truffa telefonica è stata eseguita con tecniche vocali Deepfake in grado di emulare la voce di un CEO a danno di un’azienda energetica inglese. Nel 2023, Redins riporta come il 26% delle piccole aziende e il 38% delle grandi aziende hanno subito più di 50 attacchi di frode identitaria nel 2022, con perdite fino a $480.000. Inoltre, come già accennato, i file multimediali creati tramite Deepfake possono mettere a rischio lo svolgimento delle elezioni, ridurre la fiducia nelle istituzioni ed essere utilizzati come armi per creare crisi nazionali e internazionali. Ad esempio, a seguito dell’invasione dell’Ucraina da parte della Russia il 24 febbraio 2022, è circolato un video che ha fornito prova dell’uso della tecnologia Deepfake persino sul campo di battaglia. Nel video, il presidente russo Vladimir Putin annunciava la fine degli scontri. Un secondo video, invece, raffigurava il presidente ucraino Volodymyr Zelensky che affermava che i soldati russi avevano vinto la guerra, l’Ucraina si era arresa e i soldati avrebbero dovuto deporre le armi. Ciò disvela come il ventaglio delle possibili vittime sia piuttosto ampio, spaziando da personaggi del mondo dello spettacolo, a politici esposti e leader aziendali. 

Il Deepfake nel contesto dell’Information Warfare

Di particolare rilevanza è l’utilizzo del Deepfake in contesti di Information Warfare. Come riportato da un recente report di ICT Security Magazine, molti Paesi gestiscono attivamente account sui social media, siti web e app sponsorizzate dal governo, contribuendo alla propaganda politica globale. Secondo lo stesso report, alcuni Paesi, tra cui Cina, Israele, Turchia, Russia, Regno Unito, Ucraina, Corea del Nord e specifiche agenzie governative come la CIA e la NSA, sono sospettati di utilizzare cosiddetti fantasmi digitali per diffamare oppositori e diffondere disinformazione. La tecnologia Deepfake è sempre più considerata un’arma nel contesto governativo e militare, con un enorme potenziale per il suo utilizzo nei conflitti di cyberwarfare. Questo tipo di guerra ibrida di quinta generazione include la disinformazione come parte integrante delle tattiche, dalla propaganda politica alla destabilizzazione dei governi avversari e all’ingerenza elettorale. Si prevede che il Deepfake diventi sempre più comune e sofisticato, diffondendo sia informazioni false, spesso involontarie, sia disinformazione, utilizzata deliberatamente per influenzare l’opinione pubblica o alterare la percezione della realtà. Nel contesto peculiare di conflitti internazionali, la tecnologia Deepfake può rappresentare un’arma fondamentale in grado di soddisfare vari scopi: legittimare guerre e insurrezioni (video di un generale statunitense che incendia un Corano), falsificare ordini, diffondere confusione strategica e tattica, compromettere la coesione di gruppi militari e il supporto della popolazione, polarizzare l’opinione pubblica, dividere alleati e discreditare leader politici e militari. 

La protezione dall’uso malevolo del Deepfake

La protezione dall’uso malevolo del Deepfake non è di facile strutturazione. Questa protezione rientra nell’ambito della sicurezza cognitiva, quale insieme di tecniche e metodologie di difesa da attacchi di ingegneria sociale, manipolazioni intenzionali, che si riferisce anche all’impiego di peculiari tecnologie di Intelligenza Artificiale e Cognitive Computing in grado di rilevare minacce di hacking cognitivi. I treapprocci più diffusi di protezione sono quello forense, quello di autenticazione del contenuto e di servizi di autenticazione degli alibi. Se il primo riguarda il metodo di rilevamento di schemi anomali nei contenuti, il secondo si basa sul concetto di prova della provenienza digitale, mentre il terzo coinvolge figure pubbliche di spicco che troveranno a dover porre in essere pratiche di lifelogging, ossia la registrazione di ogni aspetto della propria vita per dimostrare la valenza del proprio alibi.

Articoli Correlati

Dimensione subacquea: importanza e vulnerabilità dei cavi sottomarini

La dimensione subacquea rappresenta un ambiente geopolitico di estrema importanza anche se ad oggi rimane in gran parte inesplorato....

L’applicazione del diritto umanitario alle operazioni cyber in guerra 

L’uso delle operazioni cyber nei conflitti armati è oggi una realtà, come dimostrato dal conflitto in Ucraina. In un...

Minaccia alla sicurezza digitale: Italia e PMI nel mirino degli attacchi hacker

L’Italia appare sempre più nel mirino dei cyber criminali: nel 2023 l’11% degli attacchi informatici di grave entità a...

Ddl Intelligenza Artificiale: che cosa prevede la prima normativa italiana in materia?

Lo scorso marzo era stata divulgata una minuta del disegno di legge sull’intelligenza artificiale che, se adottato, avrebbe rappresentato...