Pronta una nuova legge con il reato di deep fake
«Stiamo predisponendo una norma che introduca il reato di deep fake: è una novità fondamentale per tutelare la democrazia, l’informazione e i cittadini». Così il sottosegretario con delega all’editoria Barachini ha sintetizzato, nell’ultimo incontro pubblico, la parte più controversa e allo stesso tempo più discussa del pacchetto normativo sull’intelligenza artificiale ora all’esame del Parlamento e già approvato nelle sue linee guida. La dichiarazione ha riacceso il dibattito su una questione che nella pratica quotidiana—dai social alla politica—ha già mostrato il suo potenziale di danno.
La proposta — che si innesta in un più ampio disegno di legge quadro sull’Intelligenza Artificiale — non è un esercizio puramente teorico: il Parlamento ha infatti dato via libera a una delega che mette al centro obblighi di trasparenza, responsabilità degli operatori e tutele per il settore dell’informazione. Al suo interno trova spazio, per la prima volta in modo esplicito, l’ipotesi di sanzionare penalmente chi crea e diffonde contenuti audiovisivi generati o manipolati tramite IA in modo tale da arrecare un danno concreto e misurabile. Il tema, oltre che legislativo, è culturale e tecnologico: come definire un deep fake? quando una manipolazione diventa reato? e chi, tra piattaforme, produttori di algoritmi e singoli autori, paga il prezzo di quella manipolazione?

Perché il deep fake non è più fantascienza
I deep fake non sono più esperimenti da laboratorio: negli ultimi anni si sono moltiplicati esempi di video e audio alterati, con obiettivi differenti — dallo scherzo virale all’attacco mirato alla reputazione di una persona, fino alla manipolazione di opinione pubblica. Il rischio non riguarda solo il singolo: in vista di scadenze elettorali, convegni pubblici o scandali politici, la circolazione di materiali falsi ma credibili può alterare il dibattito e compromettere processi decisionali collettivi. Due questioni emergono con forza: l’immediatezza della diffusione digitale (che rende difficile arginare l’onda) e la crescente qualità delle manipolazioni, che rende sempre più arduo per il pubblico riconoscere l’artificio.
Per questi motivi, la proposta italiana non si limita a una sola soluzione punitiva. L’intento dichiarato è duplice: introdurre strumenti penali per i casi di danno grave e nel contempo obbligare a pratiche di trasparenza — ad esempio l’etichettatura dei contenuti generati artificialmente e la responsabilità delle piattaforme nel rimuovere o segnalare materiali chiaramente manipolati. La filosofia è chiara: non si può fermare la tecnologia, ma si può tentare di regolare l’ecosistema che la circonda, dalla produzione fino alla distribuzione.
Cosa prevede la norma in discussione
I dettagli tecnici della norma sono ancora oggetto di limatura: in linea generale, il reato proposto colpirebbe la creazione e la diffusione intenzionale di contenuti audiovisivi falsificati con l’obiettivo di arrecare un danno (economico, reputazionale o di sicurezza) a persone fisiche, giuridiche o alle istituzioni. Sono allo studio aggravanti — ad esempio quando il deep fake è diffuso durante campagne elettorali o indirizzato contro giornalisti e testate — e misure a tutela delle vittime, come strumenti rapidi di rettifica e un obbligo di collaborazione da parte delle piattaforme. Alcuni testi preliminari indicano anche sanzioni penali non banali, pensate per avere effetto deterrente.
Un punto centrale è la definizione: il legislatore dovrà decidere con precisione cosa si intende per “deep fake” e quali soglie di manipolazione e ingannevolezza aggravano la fattispecie. La definizione europea contenuta nell’AI Act fornisce già alcune coordinate — un contenuto generato o manipolato da sistemi di IA che appare falsamente autentico — ma la declinazione penale richiede un lavoro di dettaglio che coinvolgerà giuristi, tecnologi e rappresentanti della società civile.

Libertà di espressione
Non mancano critiche e perplessità: dalla comunità accademica si segnala il rischio che una norma troppo generica possa ostacolare ricerca e sperimentazione, o addirittura toccare forme legittime di satira e parodia. Difensori della libertà digitale avvertono che la repressione penale, se non calibrata, può finire per essere uno strumento di censura. Altri osservatori, più pragmatici, sottolineano la difficoltà tecnica di attribuire con certezza la paternità di un deep fake — specialmente quando gli strumenti di produzione sono open source e distribuiti su scala globale. Per questi motivi, la norma dovrà bilanciare deterrenza e garanzie procedurali.
Un’ulteriore obiezione riguarda l’efficacia. In molti casi i contenuti falsi nascono e si diffondono oltreoceano o su piattaforme che evitano di rispettare la giurisdizione nazionale. Come colpire autori che operano in zone “in cui la legge italiana non arriva”? Le risposte passano dall’aumento della cooperazione internazionale alla pressione sulle big tech per rispettare standard condivisi, fino ad accordi bilaterali per l’estradizione o la rimozione rapida di contenuti.
Il peso politico e mediatico
L’annuncio del reato di deep fake arriva in un momento politico in cui la sensibilità verso la disinformazione è alta. Per il Governo e per chi ha la delega all’editoria, la norma è presentata come un tassello necessario per proteggere il pluralismo dell’informazione e la qualità del dibattito pubblico. Sul versante opposto, partiti e gruppi d’interesse guarderanno con attenzione all’applicazione pratica: sarà facile trasformare una norma pensata per colpire manipolazioni malevoli in uno strumento politico per delegittimare avversari? È questa la domanda che attraverserà le prossime settimane di confronto parlamentare.
Allo stesso tempo, il mondo dell’editoria guarda con interesse: la possibilità di avere norme che rafforzino la tutela del copyright e la responsabilità di chi produce contenuti può essere vista come un’ancora di salvezza in un ecosistema dove la reputazione è spesso il bene più prezioso. Le associazioni di giornalisti chiedono però garanzie: procedimenti rapidi, strumenti di tutela e soprattutto che la legge non si sostituisca al lavoro di fact-checking e verifica professionale.

Educazione digitale e tecnologie di detection
Già oggi esistono strumenti tecnici per individuare manipolazioni digitali: firme digitali per video, watermarking robusto, sistemi di detection basati su reti neurali che riconoscono artefatti di sintesi. Ma la tecnologia è in corsa e, in molti casi, il braccio di ferro tra chi costruisce deep fake e chi li scopre è continuo. Per questo, l’approccio normativo è accompagnato dall’idea che servano investimenti pubblici per la ricerca nella detection, partnership tra pubblico e privato e campagne di educazione digitale rivolte ai cittadini, per rendere la società più resistente alle manipolazioni.
L’Italia non è estranea a scandali legati a contenuti manipolati; a livello internazionale casi eclatanti hanno dimostrato come la viralità possa amplificare un falso fino a renderlo irreversibile nelle percezioni comuni. Le cronache degli ultimi anni hanno anche insegnato che la risposta esclusivamente reattiva — rimozione del contenuto, rettifica a posteriori — non è sufficiente. Serve una politica preventiva: più trasparenza sui sistemi di produzione, responsabilità delle piattaforme e un meccanismo rapido ed efficiente di tutela per chi è colpito. È questa la lezione che, ufficialmente, ispira il disegno di legge in discussione.
Tecnologia e responsabilità civica
La proposta di introdurre il reato di deep fake in Italia segna una svolta nel modo in cui lo Stato intende affrontare le sfide dell’intelligenza artificiale. Non è una soluzione magica — la tecnologia evolve troppo in fretta perché una sola norma possa bastare — ma è un passo politico e simbolico importante. La vera efficacia dipenderà dalla concretezza delle definizioni giuridiche, dalla capacità di costruire interoperabilità con regole europee e internazionali, e dalla volontà di investire in strumenti tecnici e culturali capaci di rendere la società più pronta a riconoscere e reagire alle manipolazioni.
Il dibattito è appena cominciato in Parlamento: nelle prossime settimane vedremo emendamenti, audizioni con esperti e probabilmente nuove ipotesi di bilanciamento tra repressione e libertà. Quel che è certo è che il deep fake ha smesso di essere un problema astratto: è entrato nella nostra quotidianità, ed è qui che la legge dovrà dimostrare di essere all’altezza.
© RIPRODUZIONE RISERVATA








