Introduzione

Negli ultimi mesi l’arrivo di Sora 2, il nuovo modello di generazione video di OpenAI, ha letteralmente scosso il web.
Video indistinguibili dalla realtà che sembrano girati da una vera troupe cinematografica stanno invadendo i social, e spesso è quasi impossibile distinguerli da filmati reali.
Ma questa nuova ondata di “iper-realismo” digitale sta sollevando anche dubbi e timori che meritano di essere affrontati.
Come funziona Sora 2 (in parole semplici)
Sora 2 è un’evoluzione del modello video originale di OpenAI, capace di trasformare un semplice testo in un video indistinguibile dalla realtà, completo di movimenti di camera, luce, profondità e persino dettagli atmosferici.
Immagina di scrivere:
“Michael Jackson che ruba il pollo da KFC e scappa ballando”
Questo è successo davvero! alcuni video generati dagli utenti di Sora 2 hanno generato molti video divertenti di Michael Jackson e altre persone famose.

In pochi minuti, Sora 2 genera un video di quella scena con un livello di realismo impressionante.
Non si tratta di una “ricerca” di clip online: il modello ricostruisce tutto da zero grazie a una rete neurale addestrata su enormi quantità di dati video e informazioni visive.
In pratica “immagina” la scena, fotogramma dopo fotogramma, come un artista digitale ma con la potenza di migliaia di GPU.
Come si generano i video con Sora 2
Per generare i video si usano interfacce testuali — simili a quelle di Midjourney o ChatGPT — oppure piattaforme che permettono di caricare uno storyboard o una descrizione narrativa.
Alcuni tool sperimentali permettono perfino di partire da un singolo frame o da un bozzetto disegnato.
Dai video divertenti… alla confusione totale

All’inizio i video di Sora 2 erano una novità divertente: animali che ballano, scene futuristiche, sogni surreali.
TikTok e Instagram si sono riempiti di clip creative, spesso accompagnate da caption ironiche o ispirazionali.
Ma col tempo qualcosa è cambiato.
Negli ultimi mesi si è diffusa una tendenza più preoccupante: video realistici creati con Sora 2 vengono spacciati per veri.
Molti utenti non si rendono conto di trovarsi davanti a contenuti generati da un’IA, e nei commenti si scatenano discussioni, indignazione e panico.
Alcuni video mostrano disastri naturali mai avvenuti, aggressioni, scene di guerra o eventi politici completamente inventati — ma realizzati con una qualità tale da sembrare reportage reali.
A peggiorare le cose, qualcuno ha trovato il modo di rimuovere il watermark (la firma digitale che indicava la natura artificiale del video), rendendo ancora più difficile distinguere realtà e finzione.È bastato poco perché questi contenuti venissero usati in modo malevolo, per alimentare odio, manipolare l’opinione pubblica o diffondere paura.
Il confine tra realtà e illusione

Siamo entrati in un’epoca in cui il concetto stesso di “video come prova” perde significato.
Un tempo, vedere significava credere. Ora invece, ogni immagine potrebbe essere un’illusione perfetta generata da un algoritmo.
E questo pone un problema enorme: come possiamo fidarci di ciò che vediamo online?
Serviranno nuovi strumenti per verificare l’autenticità dei contenuti, ma anche una maggiore consapevolezza da parte del pubblico. Riconoscere un video IA non è sempre facile, ma piccoli dettagli — come mani innaturali, riflessi incoerenti o transizioni troppo fluide — possono ancora tradire l’artificio.
Una riflessione finale
Abbiamo già parlato di IA generativa in passato come Midjourney o Leonardo ma non siamo mai arrivati a trarre conclusioni così definitive.
Sora 2 è una meraviglia tecnologica, ma anche un avvertimento. La creatività non è mai stata così accessibile, ma la responsabilità nell’usarla diventa altrettanto grande.
Personalmente, credo che il futuro dell’arte e della comunicazione passerà proprio da qui: imparare a usare queste tecnologie in modo consapevole, creativo e trasparente.
Perché la linea tra realtà e simulazione ormai non la disegna più la macchina — la disegniamo noi.