Deepfake, come riconoscere contenuti falsi nel web

L'esperto Giuseppe De Toma: «Questi video realizzati in digitale rubano l'aspetto estetico e la voce della vittima»

Deepfake
Deepfake
di Clara Lacorte
Giovedì 15 Febbraio 2024, 12:00
5 Minuti di Lettura

Con l’arrivo dell’Intelligenza artificiale, oltre ai normali contenuti fake ai quali internet ci ha abituati, sono diventati particolarmente diffusi video, foto o altri contenuti ingannevoli. Sarà sicuramente capitato a qualcuno di imbattersi in video di attori, cantanti e star hollywoodiane che promuovono determinati brand o, addirittura, politici che parlano senza filtri di elezioni ed avversari. Bene, non si tratta di video reali ma di deepfake, ossia contenuti che hanno l’obiettivo di polarizzare l’opinione pubblica su determinati argomenti o creare engagement ma con il volto di un’altra persona che, il più delle volte, non sa di essere portagonista di quel determinato contenuto.

Come sempre tutto nasce dalla potenza, ormai evidente, dell’IA grazie ad una elaborazione dei dati velocissima che permette di creare video fake utilizzando il volto di qualcun altro. Tutto ciò è possibile grazie alla presenza di algoritmi, chiamati Machine Learning, molto sofisticati e veloci i quali raccolgono una quantità incredibile di dati.

«I deepfake sono video realizzati in digitale i quali rubano sia l’aspetto estetico che la voce di una potenziale vittima. Tramite il computer viene poi realizzato un contenuto in cui quella persona parla e dice cose che noi vogliamo» spiega il videomaker ed imprenditore Giuseppe De Toma. Come tutte le novità che riguardano il settore della tecnologia e, più nello specifico, l’applicazione dell’Intelligenza Artificiale, non si è esenti da rischi e difficoltà nel gestire tali fenomeni. Innanzitutto è bene specificare che «realizzare video fake è diventato estremamente facile, gratuito ed alla portata di tutti.

Non è più difficile e laborioso creare contenuti falsi, si possono ottenere infatti anche attraverso l’utilizzo del nostro smartphone» spiega De Toma. Proprio dall’accesso facilitato alla creazione di contenuti fake deriva la difficoltà di gestire, sia a livello normativo che di sistema, la grande quantità di deepfake prodotti.

È purtroppo diventata nota la vicenda che ha visto come protagonista la pop star statunitense Taylor Swift per la pubblicazione su alcune piattaforme web di immagini porno create dall’Intelligenza Artificiale, chiaramente senza il suo consenso. I deepfake, dal momento del lancio sul web delle immagini, hanno fatto il giro dei social e, nonostante i tentativi di rimozione, sono diventanti subito virali. In particolare, la piattaforma interessata allo scambio fitto delle immagini finte di Taylor Swift, è stata proprio X. Il social, di proprietà di Elon Musk, non è la prima volta che si trova a fare i conti con deepfake e con contenuti che ledono la privacy altrui. Questo avviene perchè, nella maggior parte dei casi, non vi è un controllo approfondito a monte. Infatti, negli ultimi ann diverse aziende come X e Meta hanno drasticamente ridotto il numero di impiegati nel settore moderazione. I moderatori, in semplici parole, sono coloro che guardano i contenuti social prima di tutti gli altri e, in base a determinate caratteristiche, decidono se gli stessi possono essere pubblicati o no. Il più delle volte, i contenuti che vengono scartati e rimossi sono proprio quelli contenenti violenza di ogni genere.  

Ma cosa si può fare per riconoscere un deepfake in un mare magnum di contenuti che, ogni giorno, ci vengono propinati dalle diverse piattaforme nel web? Il videomaker ed imprenditore Giuseppe De Toma ci spiega che «è importante verificare sempre le fonti quando ci troviamo dinanzi ad un contenuto che potrebbe essere un fake. Prendiamo, ad esempio, il caso di Tom Hanks in cui è stato utilizzato il suo volto e la sua voce per creare un video pubblicitario in cui “sponsorizzava” una clinica dentale. Ovviamente non era stato lui a farlo, ma l’azienda stessa. In questo caso verificare la fonte è importantissimo, così come fare una ricerca incrociata», chiarisce De Toma.
È pur vero che se la tecnologia corre, il sistema normativo non riesce certo a stare al passo soprattutto quando si tratta di ambiti nuovi che richiedono una comprensione più approfondita del fenomeno. In diverse nazioni come Inghilterra, Cina e Stati Uniti, si stanno portando avanti misure con il fine di contrastrare la presenza di deepfake nel web. In Europa, in tempi recenti, è stata proposta la Artificial Intelligence Act in cui, oltre a fare riferimento ai vari rischi promossi dall’IA, viene fatto un accenno alla necessità di imporre i requisiti minimi di trasparenza rispetto ai contenuti che vengono pubblicati. 

«Sappiamo bene che la tecnologia vola e le leggi fanno fatica a stare al passo. Sicuramente ciò che è importante fare nel momento in cui ci troviamo dinanzi ad un deepfake è denunciare alle autorità competenti” aggiunge De Toma. 

Anche alcune società importanti del settore come Meta e Twitch, hanno vietato alcune tipologie di contenuti con il fine di limitare la presenza di deepfake nel web. In particolare il social di Mark Zuckerberg, nel 2019 ha lanciato una Deepfake Detection Challenge con l’obiettivo di velocizzare l’individuazione di contenuti falsi. Dunque, se delle volte è facile capire che si è difronte ad un deepfake, altre volte può risultare più difficile smascherare tali contenuti. Ciò avviene perché i sistemi per la creazione di video o foto si migliorano giorno dopo giorno, aumentando il realismo e la credibilità.

Ciò che possiamo fare, oltre che a chiedere normative sempre più stringenti in tale ambito, è una attante analisi sul vero utilizzo di questi sistemi. L’Intelligenza Artificiale è una grande risorsa per il nostro Mondo, ma può essere anche un forte pericolo se non dominata nel mondo giusto e, soprattutto, se utilizzata nella maniera meno opportuna. L’IA dovrebbe avere l’obiettivo di migliorare il nostro mondo, non di renderlo più ostico. Ma questo, purtroppo o per fortuna, dipende solo da noi.

© RIPRODUZIONE RISERVATA