13/12/2025
Dall’inizio di novembre 2025, almeno 21 video AI-generati ultrarealistici hanno circolato su TikTok, Facebook, X e YouTube, mostrando presunte scene di soldati ucraini che si arrendono, esprimono disperazione o rifiutano di combattere.
Secondo l’inchiesta di NBC News, circa la metà di questi video porta il watermark di Sora 2, confermando l’utilizzo diretto della piattaforma di OpenAI.
Quello che rende questi deepfake particolarmente insidiosi è che non utilizzano volti inventati: gli attori dei video sono le facce di veri personaggi pubblici, molti dei quali non hanno mai combattuto in Ucraina. Uno dei casi più significativi riguarda Aleksei Gubanov, un creator russo su Twitch che vive a New York ed è noto per le sue critiche aperte al presidente Putin. In uno dei video falsi, un personaggio che assomiglia a Gubanov appare in uniforme militare ucraina, supplicando in russo di non essere mandato al fronte. Questo video ha raggiunto centinaia di migliaia di visualizzazioni prima di essere smascherato.
Gli esperti di sicurezza informatica e forensica digitale concordano su un punto fondamentale: questi video sono extraordinariamente difficili da rilevare anche per i migliori rilevatori di IA disponibili sul mercato.
I numeri sono preoccupanti. Una ricerca condotta da NewsGuard ha dimostrato che Sora 2 produce video realistici che diffondono false narrazioni l’80% delle volte quando gli viene chiesto di farlo.
Ancora più allarmante: uno studio recente di iProov ha evidenziato che solo lo 0,1% della popolazione generale riesce a identificare correttamente i deepfake. Il resto di noi rimane vittima della nostra stessa fiducia eccessiva nelle nostre capacità percettive: il 60% delle persone rimane sicuro di riuscire a distinguere il falso dal vero, anche quando sbaglia.
OpenAI sostiene di avere sistemi di sicurezza robusti. L’azienda dichiara che “mentre l’azione cinematografica è consentita, non permettiamo contenuti di violenza grafica, materiali estremisti o ingannevoli” e che i suoi sistemi “rilevano e bloccano i contenuti che violano le policies”. Inoltre, OpenAI afferma di avere un team investigations che smantella attivamente le operazioni di influenza.
Tuttavia, l’azienda stessa ammette un fallimento critico: “alcuni comportamenti dannosi o violazioni delle policy potrebbero comunque aggirare le mitigazioni”. Non è una scusa credibile per una tecnologia così potente.
La ricerca di NewsGuard ha documentato come questi controlli siano facilmente aggirabile. I filtri di contenuto progettati per impedire la creazione di video di personaggi pubblici risultano incoerenti. Se chiedi direttamente a Sora di creare un video di “Zelensky”, il sistema blocca la richiesta. Ma se usi formulazioni vaghe come “capo militare ucraino”, il generatore produce comunque un lookalike convincente di Zelensky.
Ciò che accade in Ucraina non rimane isolato nel contesto del conflitto. Rappresenta un prototipo di quella che potrebbe diventare una pratica globale di manipolazione informativa.
La Public Citizen, organizzazione nonprofit di vigilanza, ha esplicitamente chiesto a OpenAI di ritirare Sora 2 dal mercato, denunciando una “minaccia per la democrazia” e un “disprezzo sconsiderato per la sicurezza dei prodotti e i diritti delle persone al loro stesso volto”. Una richiesta radicale, ma non ingiustificata.
Il vero problema è che abbiamo accelerato la capacità tecnologica di creare contenuti falsi più rapidamente di quanto abbiano accelerato le nostre capacità di rilevarli, comprenderli e regolarli. Siamo in una corsa asimmetrica dove i creatori di disinformazione guidano il ritmo della competizione.
Cosa possiamo fare?
A livello individuale, è necessario coltivare quello che potremmo chiamare “digital skepticism”: sviluppare l’abitudine di mettere in discussione la credibilità di video emozionanti e sensazionali, specialmente quando provengono da fonti non verificate o quando suscitano una reazione emotiva immediata. Secondo le ricerche, i video deepfake guadagnano trazione proprio perché sono emotivi e sensazionali.
Io stesso ammetto che diventa sempre più complicato capire cosa sia reale.
Che ne pensi? 👇