Deepfake, il pericolo (nascosto) dei falsi video online

Negli ultimi anni abbiamo assistito ad una vera e propria rivoluzione nel mondo dei media digitali, con la possibilità per chiunque di creare e condividere contenuti online in modo semplice e veloce. Questa democratizzazione dei mezzi di comunicazione ha certamente molti aspetti positivi, ma nasconde anche nuove insidie che è importante saper riconoscere.

Tra queste, uno dei fenomeni più preoccupanti è quello dei deepfake, ovvero video manipolati attraverso l'intelligenza artificiale per sostituire il volto di una persona con quello di un'altra, creando così dei falsi credibili in grado di trarre in inganno chi li guarda.

Ma cosa sono esattamente i deepfake e come funzionano? Il termine deriva dalla fusione delle parole "deep learning" ed "fake" e si riferisce all'uso di reti neurali artificiali per la generazione di immagini false ma estremamente realistiche.

Nel caso dei video, il processo prevede l'addestramento di un algoritmo di machine learning utilizzando migliaia di foto del volto della persona che si vuole sostituire e della persona "sorgente", in modo da apprendere le caratteristiche facciali, le espressioni e i movimenti.

Una volta addestrato, l'algoritmo è in grado di "incollare" il volto della persona sorgente sul video originale, sincronizzando in maniera credibile movimenti e labbra con l'audio. Il risultato è un video deepfake che, a un occhio non esperto, può risultare indistinguibile dall'originale.

I deepfake rappresentano una minaccia percepita da molti come estremamente pericolosa per diverse ragioni. Innanzitutto, possono essere utilizzati per diffondere notizie, informazioni o contenuti falsi attribuendoli a persone reali, con gravi conseguenze sulla reputazione.

Inoltre, c'è il rischio che vengano creati deepfake a sfondo pornografico in cui il volto di un individuo viene sovrapposto senza consenso al corpo di un attore, con un forte potenziale di molestie online.

Anche a livello politico, la facilità con cui è possibile creare falsi credibili mette in discussione il valore della prova video come mezzo di informazione, minando la fiducia nella veridicità dei media. Inoltre, deepfake sempre più sofisticati potrebbero essere usati per manipolare l'opinione pubblica o addirittura interferire nelle elezioni.

Tuttavia, è importante sottolineare che al momento non ci sono prove che i deepfake siano stati usati per gravi atti criminosi. La maggior parte di quelli online sembrano avere scopi di intrattenimento o sperimentazione tecnologica. Ma data la loro potenzialità di danno, è fondamentale non sottovalutare il fenomeno.

Fortunatamente esistono anche ricercatori che studiano metodi per rilevare i deepfake. Alcuni si basano sulle piccole imperfezioni che ancora sfuggono agli algoritmi di generazione, come la non perfetta sincronia di labbra e audio o artefatti nel movimento degli occhi.

Altri esaminano le incongruenze nell'illuminazione del volto o nella sua ombreggiatura, che un deepfake fatica a replicare in maniera realistica. Anche l'analisi delle microespressioni facciali, che uno strumento AI non è ancora in grado di imitare in modo credibile, può smascherare i falsi.

Sebbene la ricerca sui metodi di rilevamento sia ancora agli inizi, i progressi fatti sono incoraggianti. Nel futuro sarà sempre più difficile ingannare gli strumenti di analisi automatica dei video. In parallelo, anche gli algoritmi di generazione dei deepfake continueranno a migliorare, dando il via ad una vera e propria corsa agli armamenti tecnologica.

Nel frattempo, rimane fondamentale che gli utenti sviluppino una maggiore consapevolezza critica nei confronti dei contenuti online, imparando a riconoscere i segnali che potrebbero indicare la presenza di un deepfake.

In particolare, quando un video mostra eventi estremi o situazioni imbarazzanti per le persone riprese, ma non sembra esserci traccia dell'episodio su altri mezzi, è il caso di dubitare della sua autenticità anziché condividerlo acriticamente.

Solo mantenendo alta l'attenzione su questi rischi emergenti e unendo le forze per contrastarli, potremo preservare la libertà e l'integrità delle comunicazioni digitali da chi potrebbe sfruttarle per fini dannosi. Deepfake e manipolazioni varie ci ricordano quanto sia importante, oggi più che mai, sviluppare il pensiero critico per non cadere vittime della disinformazione.


Nei paragrafi precedenti abbiamo visto come i deepfake costituiscano già oggi un rischio da non sottovalutare per la diffusione di fake news e la violazione della privacy online. Tuttavia, è importante sottolineare che si tratta di una tecnologia ancora agli albori, destinata a perfezionarsi rapidamente nei prossimi anni con impatti sempre più disruptivi.

Gli algoritmi di deep learning alla base dei deepfake sono infatti soggetti a un processo di miglioramento continuo grazie all'enorme mole di dati a disposizione per l'addestramento e alla potenza di calcolo in costante aumento. Man mano che questi sistemi diventeranno più sofisticati, sarà sempre più arduo per l'occhio umano e per i rilevatori automatici distinguere i contenuti manipolati da quelli autentici.

Una tendenza preoccupante riguarda la possibilità di creare deepfake partendo da un numero sempre minore di immagini del soggetto, grazie a tecniche di ricostruzione del volto e di transfer learning dai tanti dataset di facial mapping già disponibili. Questo ridurrebbe di molto la barriera d'ingresso per la creazione di falsi credibili, esponendo potenzialmente chiunque alla manipolazione.

Inoltre, i progressi nel campo della sintesi vocale stanno rendendo gli algoritmi capaci di generare audio artificiale indistinguibile da quello umano. Ne consegue che, in futuro, sarà possibile creare deepfake anche solo partendo dal materiale audio di una persona, senza necessariamente disporre di immagini del suo volto.

Un altro ambito che preoccupa è quello della realtà aumentata e della realtà virtuale. Man mano che queste tecnologie diventeranno pervasive nella nostra vita quotidiana, attraverso dispositivi come gli smart glass, non è da escludere che i deepfake possano essere adattati per manipolare anche le nostre percezioni visive in tempo reale.

Un ultimo fattore di rischio da tenere in considerazione è rappresentato dall'accesso sempre più diffuso a set di dati estremamente dettagliati sulle espressioni facciali e i comportamenti tipici delle persone, raccolti dalle telecamere di sorveglianza, dagli assistenti vocali e dalle piattaforme social. Queste banche dati, se utilizzate in modo non etico, potrebbero fornire ai creatori di deepfake informazioni preziose per generare falsi ancora più credibili.

In sintesi, man mano che i sistemi di intelligenza artificiale diventeranno più potenti e avranno accesso a maggiori quantità di dati personali, sarà inevitabile che anche la minaccia dei deepfake si evolva di pari passo, con il rischio concreto di mettere in discussione la fiducia nell'autenticità di qualsiasi contenuto multimediale.

Se da un lato la ricerca accademica sta facendo progressi nello sviluppo di tecniche di rilevamento sempre più sofisticate, dall'altro i creatori di deepfake potranno a loro volta sfruttare le nuove conoscenze per generare falsi in grado di eludere i controlli. Ne consegue che il contrasto a questo problema richiederà sforzi coordinati su più fronti.

In primo luogo, sarà fondamentale che governi e istituzioni internazionali prendano coscienza di questa minaccia emergente e promuovano normative per prevenirne un uso criminale, ad esempio vietando la creazione non consensuale di deepfake a sfondo sessuale.

In secondo luogo, l'industria tech dovrà adottare standard di progettazione che pongano la sicurezza e la privacy al centro dello sviluppo di sistemi di intelligenza artificiale, impedendone un impiego lesivo.

Infine, anche l'educazione ai media e lo sviluppo del pensiero critico ricopriranno un ruolo chiave per armare gli utenti contro i rischi di manipolazione e disinformazione potenziati dai deepfake. Solo unendo le forze su questi fronti potremo contrastare l'evoluzione di questa minaccia.

In conclusione, se da un lato i progressi tecnologici offrono enormi potenzialità, dall'altro espongono a nuovi pericoli sistemici che richiedono una risposta coordinata da parte di tutti gli attori coinvolti. Solo mantenendo alta l'attenzione su questi rischi emergenti e unendo le forze per contrastarli, potremo preservare la libertà e l'integrità delle comunicazioni digitali da chi potrebbe sfruttarle per fini dannosi.