Tutto ha avuto inizio su Reddit, il forum-aggregatore statunitense dove i deepfake hanno cominciato a diffondersi. Cosa sono? Per dirla nel modo più brutale possibile, i video (per la stragrande maggioranza porno) con le facce degli attori “sostituite” da quelle di (altri) personaggi famosi. Solo una prova di come gli strumenti di apprendimento automatico e qualche programma open source siano in grado di sfornare un accettabile e credibile scambio di volti. Immagina di poter avere il controllo sul tuo personaggio preferito facendogli fare e dire qualunque cosa ti passi per la testa: basta dare in pasto all’algoritmo qualche ora di video e discorsi del vip e il gioco è fatto. Una nuova sfida che aprirà scenari complessi in futuro sulle fake news, sul giornalismo e sulla privacy in generale. 


Perché, se tre anni fa c’è stata un’esplosione di porno con le facce di star come Gal Gadot, Maisie Williams o Taylor Swift, la fase successiva è stata la crescita di questo fenomeno applicato al revenge porn: video ricattatori pubblicati sui siti porno con la faccia del proprio ex per discriminarlo pubblicamente. Per fortuna le denunce degli utenti e degli attori coinvolti hanno dato inizio ad una vera e propria battaglia contro questa tecnologia che sta dando buoni frutti, almeno nel mondo del porno.  Ora però, tutta l’attenzione si è spostata sul mondo del cinema, visto che lo sviluppo dei deepfake potrebbe rivoluzionare il sistema per come lo conosciamo adesso. 

Se gli attori si sono già schierati in prima linea contro l’uso di questa tecnologia che potrebbe far abbassare i loro compensi e portare a sviluppi impensabili – come l’utilizzo del volto di un attore deceduto per nuovi film inediti; ora ad essere messo in discussione è il mondo dei doppiatori. Il progetto della startup Flawless punta ad introdurre i deepfake nel mondo del cinema per permettere di realizzare film e serie TV che possano essere più naturali e realistiche in ogni possibile lingua. Pensa a tutte le sfumature che si perdono a causa delle differenze nella lingua o alle riscritture necessarie per rendere tutto più naturale e meno artificiale: presto sarà possibile “riscrivere” le scene in italiano sincronizzando il labiale degli attori con quello dei doppiatori e godere di tutta la narrazione senza compromessi. È sufficiente dare in pasto all'algoritmo alcuni minuti di girato che ritraggono l'attore da doppiare perché questo sviluppi un modello del volto basandosi sulla posizione delle labbra, della testa e sul movimento degli occhi. Un po’ come succede nel mondo dei videogiochi dove questo sistema è stato introdotto di recente con l’ultimo Cyberpunk 2077

Uno scenario che, però, desta non pochi dubbi: se oggi servono all’incirca 2 mesi di lavoro per realizzare questo deepfake che ci farà godere di film ancora più realistici, quanto manca al prossimo step evolutivo che cancellerà del tutto il lavoro del montaggio? La tecnologia sta maturando in fretta e presto sarà in grado di estrapolare i fonemi necessari per trasformare i dialoghi di un attore in un’altra lingua, permettendoci così di sentire la voce naturale di George Clooney o di Brad Pitt recitare in italiano come se fossero madrelingua. Un campo di applicazione pazzesco per i deepfake che però potrebbe mettere a repentaglio tanti posti di lavoro, specialmente in Italia dove il settore del montaggio è uno dei più sviluppati al mondo. 

LEGGI ANCHE: 

I video deepfake arrivano in Italia, cosa sono e come difendersi

La tecnologia che ti rende protagonista del tuo porno preferito