Google DeepMind veo3

La realtà è diventata opzionale?

Google DeepMind ha mostrato al mondo qualcosa di sorprendente e inquietante al tempo stesso: Veo 3, il primo modello di intelligenza artificiale capace di generare video ad altissima definizione e con audio sincronizzato, partendo da una semplice descrizione scritta. Non si tratta più di una curiosità da laboratorio o di un esperimento poco credibile: le clip create da Veo sembrano uscite da una produzione cinematografica. La pioggia cade davvero, i volti parlano davvero, i suoni si intrecciano con le immagini come in un’opera diretta da una troupe in carne e ossa. Ma in realtà, non è mai esistito nulla di ciò che vediamo. E allora ci tocca chiederci: cosa accade quando anche l’occhio comincia a ingannarci?

Benvenuti nel regno dove la realtà — quella vera — comincia a vacillare.

I video generati da Veo 3 possono durare fino a otto secondi, ma bastano pochi istanti per destabilizzare ogni certezza. I movimenti sono fluidi, i dettagli visivi sorprendenti, le voci credibili e, forse il dettaglio più sconvolgente, i labiali perfettamente sincronizzati con ciò che si sente. È il cinema muto che scopre la voce, cent’anni dopo, ma con una voce prestata dall’intelligenza artificiale.

Questa perfezione tecnica solleva un problema che non è più solo tecnico, ma profondamente culturale: la verosimiglianza ha superato la verità. Non siamo più nella simulazione, ma nella confusione deliberata.

Un tempo, bastava una foto per dimostrare un fatto. Poi è venuto il video. Ora, nemmeno quello è più affidabile. Perché se chiunque può generare un finto telegiornale con un’anchorwoman che annuncia la morte del Presidente la fiducia nel visibile viene meno. Non è solo una questione di politica o cronaca: è una questione di percezione del reale.

Immaginate un video in cui un leader politico sembra fare dichiarazioni estreme. È falso. Ma circola, e viene creduto. Oppure pensate a una frode in cui un truffatore invia un video-messaggio con il volto e la voce di un parente, chiedendo soldi in emergenza. È tutto plausibile. Tutto perfettamente credibile. Tutto, tranne la verità.

Siamo nel territorio della falsificazione totale, dove anche il dubbio diventa strumento di manipolazione. Perché se tutto può essere simulato, allora anche le cose vere possono essere negate. È il cosiddetto liar’s dividend: chi viene colto in fallo può sempre dire “è un deepfake“. E spesso, essere creduto.

Se ogni volto può essere ricreato, ogni voce riprodotta, ogni gesto immaginato e poi generato, allora nessuno è più al sicuro nella propria immagine. Bastano poche foto disponibili online per far sì che il tuo volto venga “prestato” a un contesto degradante, imbarazzante, magari pornografico. Con Veo 3, la violenza simbolica si fa visiva, riproducibile e virale.

La giurisprudenza ha sempre trattato foto e filmati come prove. Ma cosa succede quando le prove sono fabbricabili? Se un video mostra un crimine, è autentico? La verità giudiziaria diventa fragile quanto quella mediatica. Le aule di tribunale, come i telegiornali o i social, rischiano di essere invasi da contenuti apocrifi in cui persino la legge si fa ingannare.

E in un’epoca già assediata dalla sfiducia, questa nuova evoluzione tecnologica rende il lavoro dei media più fragile che mai. Ogni notizia video dovrà essere autenticata, verificata, sottoposta a forensi del digitale. Questo rallenta l’informazione, ne aumenta i costi, e soprattutto alimenta lo scetticismo. L’informazione, come la verità, dovrà lottare per esistere, non più solo contro la censura, ma anche contro la simulazione.

E sebbene Google DeepMind abbia implementato watermark invisibili per riconoscere i contenuti generati da Veo, e inserito filtri per prevenire prompt dannosi, il potere è già nelle mani di chi sa aggirarli.

La responsabilità è anche nostra. Serve una nuova etica: sapere quando è lecito inventare e quando è abuso. Distinguere tra satira e diffamazione, tra creatività e violazione. E soprattutto: restituire centralità al consenso. Nessun volto, nessuna voce, nessuna identità dovrebbe essere piegata a narrazioni non volute.

C’è un rischio ancora più sottile. Se ci abituiamo all’idea che nulla sia autentico, cessiamo di credere a tutto. Diventiamo apatici, scettici, indifferenti. Ogni clip potrebbe essere falsa, ogni accusa un complotto, ogni emozione una messinscena. Ma non possiamo permetterci di abitare un mondo così.

La cultura, la scuola, i media hanno ora un compito nuovo (in realtà, è proprio lo scopo primario dell’informazione): insegnare a guardare, ovvero avere un pensiero critico. Riconoscere la finzione non per respingerla, ma per comprenderla. Sapere che esistono i deepfake, ma anche gli strumenti per smascherarli. Veo 3 è qui, e non sparirà. Sta a noi decidere se usarlo per raccontare meglio il mondo, o per cancellarlo del tutto.

About

Zeta è il nostro modo di stare al mondo. Un magazine di sport e cultura; storie e approfondimenti per scoprire cosa si cela dietro le quinte del nostro tempo,