A gennaio 2024, durante il 128° Consiglio Nazionale della FABI a Milano, l’Intelligenza Artificiale è stata uno dei punti centrali del dibattito. In apertura della tavola rotonda “L’Intelligenza Artificiale nella Società, nel Lavoro e nella Finanza”, un video ironico ha mostrato il segretario generale Lando Sileoni lodare la carbonara con la panna e proporre un “moltiplicatore del 110%” per gli investimenti sul capitale umano, in contrasto con quelli in IA. Il vicedirettore di Radio24 Sebastiano Barisoni, ospite del tavolo, ha commentato con una battuta che la parte sugli investimenti poteva sembrare credibile, lasciando intendere, senza dirlo esplicitamente, che l’elogio alla carbonara con la panna fosse improbabile per un laziale come Sileoni. Il video, però, era un deepfake, realizzato con un applicativo di IA generativa accessibile a tutti, quasi perfetto nei movimenti e nel tono di voce, ma completamente falso.
Immaginate un deepfake con un capo di stato, come Donald Trump, che annuncia un attacco a Mosca, diffuso viralmente tramite account falsi sui social media. Quanto tempo servirebbe per smentire un messaggio così esplosivo? Nonostante i sistemi di cybersecurity delle agenzie nazionali siano all’avanguardia, un errore di monitoraggio è sempre possibile. I deepfake rappresentano una nuova frontiera della disinformazione, capace di generare caos in ambiti politici ed economici, dove la reattività dei mercati amplifica gli effetti.
Ma cosa sono i deepfake? Secondo il Garante per la Protezione dei Dati Personali, sono “foto, video e audio creati con software di IA che, partendo da contenuti reali, modificano o ricreano in modo realistico volti, corpi o voci”. Al Consiglio FABI, il video di Sileoni mostrava piccoli difetti, come uno sguardo fisso o un tono monotono, evidenti agli esperti ma non a un pubblico generico. A distanza di un anno, i progressi dell’IA hanno reso i deepfake quasi indistinguibili, con animazioni fluide e voci naturali, superando i semplici fotomontaggi di un tempo. Oggi, è possibile inserire figure reali in ambienti simulati, sincronizzando movimenti labiali con audio falsi, come visto in film come Rogue One: A Star Wars Story, dove Peter Cushing è stato ricreato in CGI.
Il rischio dei deepfake è enorme: possono alterare la percezione della realtà, influenzando opinioni pubbliche, elezioni o mercati finanziari. Un esempio? Nel 2021, un video satirico di “Striscia la Notizia” mostrava Matteo Renzi compiere un gestaccio contro Sergio Mattarella, usando un’animazione e una voce falsificata. Sebbene ironico, il caso ha evidenziato il potenziale di queste tecnologie in contesti più seri, come le relazioni diplomatiche. In ambito economico, notizie false su performance aziendali potrebbero generare turbolenze finanziarie, minando la fiducia degli investitori, ben oltre i rischi dell’insider trading di un tempo.
Come distinguere il vero dal falso? Anche se l’occhio umano può cogliere segnali di manipolazione (es. movimenti innaturali), il volume di contenuti falsi rischia di generare sfiducia generalizzata verso tutte le informazioni, comprese le smentite. La manipolazione digitale può così compromettere la capacità di formarsi opinioni informate.
Per contrastare i deepfake, l’Italia e l’Europa si stanno attrezzando. In Italia, il Garante per la Protezione dei Dati Personali promuove campagne di sensibilizzazione e linee guida per identificare contenuti manipolati, mentre il Parlamento valuta normative sull’IA generativa. A livello europeo, l’AI Act (2024) classifica i deepfake come tecnologia ad alto rischio, imponendo obblighi di trasparenza. Progetti come EU DisinfoLab e il Centro europeo per la lotta alla disinformazione monitorano e contrastano la manipolazione digitale, promuovendo l’alfabetizzazione mediatica.
Nonostante i rischi, però, i deepfake offrono opportunità straordinarie in molteplici settori, se utilizzati in modo responsabile. In ambito formativo, ad esempio, i deepfake possono rivoluzionare l’apprendimento, creando simulazioni interattive e realistiche: le aziende possono utilizzare video generati dall’IA per addestrare il personale in scenari complessi, come colloqui con clienti difficili o situazioni di crisi, con personaggi virtuali che replicano espressioni e comportamenti umani. Scuole e università stanno sperimentando aule virtuali in cui figure storiche, ricreate con questa tecnologia, “parlano” agli studenti, rendendo la storia più coinvolgente e accessibile.
Nell’intrattenimento, i deepfake stanno ridefinendo la produzione audiovisiva. Oltre a ricreare attori defunti, come Peter Cushing in Rogue One: A Star Wars Story, l’IA consente di generare personaggi immaginari con un realismo senza precedenti, come draghi o creature fantastiche in serie come Game of Thrones. Un altro aspetto da tener conto è la possibilità di personalizzazione dei contenuti: alcune piattaforme di streaming stanno testando film interattivi in cui gli spettatori possono modificare l’aspetto o la voce dei protagonisti in tempo reale, creando esperienze su misura.
In medicina, poi, i deepfake aprono prospettive rivoluzionarie: progetti come Revoice utilizzano l’IA per ricostruire la voce di pazienti che l’hanno persa a causa di patologie come la SLA o il cancro alla laringe, offrendo loro una nuova forma di comunicazione personalizzata e dignitosa, inoltre, questi possono supportare la formazione medica, simulando pazienti virtuali con sintomi realistici per esercitazioni pratiche senza rischi. In ambito terapeutico, si stanno esplorando applicazioni per creare avatar realistici che aiutino i pazienti con disturbi psicologici, come il disturbo da stress post-traumatico (PTSD), a confrontarsi con situazioni traumatiche in ambienti controllati.
Anche altri settori stanno scoprendo il potenziale dei deepfake: nel marketing, le aziende possono creare campagne pubblicitarie con testimonial virtuali che si adattano a diversi target culturali o linguistici, migliorando l’engagement; nella conservazione del patrimonio culturale, i deepfake possono “riportare in vita” figure storiche per documentari interattivi o esperienze museali immersive: nello stesso giornalismo, al di là della revisione di bozze e della ricerca più puntuale delle fonti, l’IA generativa può essere usata per ricostruire eventi del passato con maggiore accuratezza visiva, a patto di garantire trasparenza sull’uso della tecnologia.
Queste opportunità, tuttavia, richiedono un quadro normativo snello e rigoroso poiché la trasparenza sull’uso dei deepfake, l’educazione del pubblico e lo sviluppo di strumenti di verifica sono essenziali per massimizzarne i benefici senza compromettere la fiducia nella realtà digitale ma senza andare a creare un blocco nello sviluppo tecnologico. La sfida, come sempre di fronte a innovazioni di rottura, è trasformarle da possibili minacce a strumento di crescita, promuovendo un approccio critico che ne valorizzi le potenzialità senza ignorarne i rischi.