Deepfake

Sono sempre stato affascinato dal livello di tecnologia che è stato raggiunto dai deepfake. La capacità di sostituire il volto di un uomo, od una donna, in un video esistente e sostituirlo con un altro.

Per produrre questo genere di media si deve fare un uso intensivo di algoritmi di machine learning e intelligenza artificiale.

E’ ben evidente quanto possa essere grave l’impatto dei deepfake sulla vita di ogni giorno. Immaginate la diffusione di video che contengano i messaggi di un capo di stato manipolati alla bisogna, tanto per fare un esempio.

La tecnologia è talmente avanzata che distinguere un documento vero da uno falso è estremamente difficile.

Ieri nel mio feed personale è comparso un link a questo paper:

U. A. Ciftci, I. Demir and L. Yin, “FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals,” in IEEE Transactions on Pattern Analysis and Machine Intelligence, doi: 10.1109/TPAMI.2020.3009287.

Purtroppo il documento è disponibile solo per l’acquisto ma leggendo l’abstract si ottengono delle informazioni interessanti. Ad ogni modo, se vi interessa, lo trovate a questo link.

Questi studiosi hanno verificato che in ogni video sono presenti dei segnali biologici deboli che non sono visibili all’occhio umano. Uno di questo è il variare del colore della pelle in funzione del battito cardiaco e della circolazione del sangue. Queste variazioni non sono percepite da chi sta guardando il video ma la manipolazione del file video permette di evidenziare il fenomeno in maniera netta e precisa.

I video costruiti tramite la tecnologia deepfake presentano lo stesso fenomeno ma non sono in grado di replicarlo in maniera così precisa come un video originale.

Questa particolare caratteristica permetterebbe di potere distinguere un video falso da uno vero.

Io la trovo una cosa fighissima.

Da un lato la corsa alla creazione di strumenti che permettono di creare e diffondere informazioni false e dall’altro la rincorsa per riuscire a distinguere il vero dal falso. Una sorta di infinito gioco di guardie e ladri.

Infine una considerazione interessante. Chi dovrebbe fare uso dell’algoritmo che permette di distinguere il vero dal falso? L’utente finale? Improbabile. Sappiamo bene quanto la gente si lasci ingannare da qualsiasi fesseria che viene pubblicata sui social network.

Dovrebbe occuparsene il gestore della piattaforma che ospita il video? Probabilmente è così ma è ben evidente che si potrebbe sconfinare nel terreno della censura e della libertà di espressione.

In questi ultimi anni si stanno intrecciando una enorme quantità di temi che ci costringeranno ad una analisi etica, morale e legale della tecnologia e degli algoritmi.

Io credo che sia un tema di una complessità enorme e, allo stesso tempo, di una bellezza infinita.

Photo by Buzz Andersen on Unsplash
0 0 vote
Article Rating
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments