Attacco ai video deepfake: così Intel intende smascherare i sempre più avanzati video che manipolano fittizziamente soggetti, in particolare volti e voci, a scopo di truffa oppure per diffondere disinformazione. Non é la prima azienda a proporre un software “FakeCatcher”, ma quello di Intel pare offrire una soluzione tra le più efficaci ed innovative in assoluto. Scopriamo tutti i dettagli.
In alcuni casi vengono prodotti per fini di svago e di intrattenimento. In altri, invece, per perpetrare vere e proprie truffe e per diffondere disinformazione. In ogni caso, infine, sono sempre più diffusi. Parliamo dei video realizzati con la tecnica del deepfake e poi pubblicati sul world wide web: un fenomeno in continua crescita ed espansione, che pone numerosi interrogativi circa la legittimità del loro utilizzo.
E’ una tecnica basata sull’intelligenza artificiale, che sovrappone immagini e video attraverso un metodo di apprendimento automatico, definito “Rete Antagonista Generativa”. In altre parole, la tecnica consente di combinare immagini o video che ritraggono e riprendono persone per modificarne i connotati facciali, sovrapponendo gli uni (che abbiamo scelto noi) agli altri (gli originali).
E così – per citare alcuni casi noti sul web – utilizzando la rete antagonista generativa, un cittadino comune può pubblicare video sul web in cui il suo volto appare come quello di Tom Cruise, potremmo dire assolutamente identico (o quasi), oppure come quello di Keanu Reeves, e fargli compiere le azioni che ritiene più interessanti per il proprio pubblico di riferimento. O ancora, come accaduto poche settimane fa, mostrarsi con le sembianze del presidente ucraino Zelesky per fargli annunciare la (falsa) resa dell’Ucraina.
La soluzione proposta da Intel per smascherare i video deepfake
Dunque, in base all’utilizzo che ne si compie, il deepfake può risultare divertente ed innocuo, oppure assai compromettente e pericoloso. Si tratta, d’altronde e in ogni caso, di appropriazione di identità altrui, materia disciplinata rigidamente e severamente dalle giurisprudenze di qualsiasi Paese al mondo.
Per contribuire a regolamentare quanto sta avvenendo, Intel ed Intel Labs hanno sviluppato un software denominato “FakeCatcher”. Il programma si basa sulla piattaforma Intel che utilizza il deep learning per applicare un processo chiamato fotopletismografia: ovvero, un’analisi dei cambiamenti anche minimi di colore nei volti, causati dalle variazioni di pressioni del flusso sanguigno.
Analizzando il flusso sanguigno nei pixel di un’immagine, FakeCatcher compara quindi i segnali di più fotogrammi, studiandone poi le caratteristiche essenziali attraverso un classificatore. Ed é proprio il classificatore a determinare se, in base a queste evidenze, il video è reale oppure falso. La società ha dichiarato che il tasso di precisione rilevato da parte del software é del 96%, raggiungibile in pochi millisecondi. Ed ora che il software comincia ad essere utilizzato, é questione di poche settimane per capire se le “guardie” riusciranno a correre più velocemente dei “ladri”.