7/3/2026
Deepfake: il nuovo reato introdotto dalla Legge italiana 132/2025 sull’IA
L'Italia adotta la Legge n. 132/2025, prima normativa europea sull'AI, promuovendo sicurezza, trasparenza e responsabilità. In vigore dal 10 ottobre 2025, la legge introduce un reato penale sui deepfake per proteggere cittadini e imprese, garantendo innovazione responsabile.

L’Italia ha recentemente approvato la Legge n. 132/2025 in materia di intelligenza artificiale, rendendola il primo Paese in Europa con una normativa organica sull’AI. Pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed entrata in vigore il 10 ottobre 2025, questa legge fornisce un quadro normativo completo per regolare l’impiego dei sistemi di intelligenza artificiale nei diversi settori (economico, amministrativo, sociale, lavorativo), con particolare attenzione a principi di sicurezza, trasparenza e responsabilità.
L’obiettivo generale è anticipare le mosse europee (come il Regolamento AI Act) e tutelare cittadini e imprese dagli usi distorti dell’AI, garantendo al contempo innovazione responsabile e diritti fondamentali.
Tra le novità più rilevanti introdotte da questa legge vi è un nuovo reato penale dedicato ai cosiddetti deepfake, per contrastare la diffusione illecita di contenuti manipolati digitalmente che possano arrecare danno alle persone.
Il reato di deepfake: cosa prevede la legge
La Legge 132/2025 ha inserito nel Codice Penale un nuovo articolo, il 612-quater c.p., denominato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. In sostanza, la norma punisce chi diffonde contenuti falsificati con l’AI senza il consenso della persona rappresentata, quando ciò provoca un danno ingiusto a quest’ultima. Il testo legislativo recita infatti: «Chiunque cagiona un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni». In altre parole, non è la mera creazione del deepfake a costituire reato, bensì la sua condivisione (cessione, pubblicazione o diffusione a terzi) senza autorizzazione dell’interessato. La legge quindi non vieta in assoluto l’uso dell’AI per scopi creativi o espressivi: ciò che viene colpito è l’utilizzo distorto e lesivo di queste tecnologie, ovvero la manipolazione digitale dell’identità altrui a fini ingannevoli e dannosi.
Di seguito riassumiamo i punti chiave di questo nuovo reato introdotto dalla legge:
- Condotta vietata: cedere, pubblicare o diffondere contenuti falsificati o alterati con l’AI – ad esempio foto, video o audio contraffatti – ritraenti una persona senza il suo consenso, quando tali contenuti sono idonei a ingannare sulla loro genuinità e provocano un danno ingiusto alla persona rappresentata. In pratica rientrano in questa fattispecie i deepfake intesi come immagini, video o voci generate o modificate dall’AI in modo da sembrare autentiche, usate per far apparire qualcuno in situazioni mai accadute o fargli dire/fare cose mai avvenute.
- Sanzione prevista: la violazione costituisce un delitto punito con la reclusione da 1 a 5 anni. Si tratta di pene detentive significative, proporzionate alla gravità dell’offesa alla dignità e reputazione personale che questi falsi digitali possono arrecare. La pena può risultare anche più alta in presenza di altre circostanze aggravanti comuni (ad esempio se il fatto integra altri reati, come truffa o diffamazione aggravata).
- Procedibilità e querela: il reato è in generale punibile a querela di parte, cioè su denuncia della persona offesa. Sarà dunque la vittima del deepfake a decidere di sporgere querela affinché l’autore venga perseguito. L’azione penale diventa però d’ufficio (automatica) – quindi senza necessità di querela – in alcune circostanze aggravate espressamente previste. In particolare, la legge stabilisce che si procede d’ufficio se:
- 1 - il fatto è connesso con un altro delitto per cui si procede d’ufficio;
- 2 - la vittima è una persona incapace per età o per infermità (ad esempio un minorenne) oppure
- 3 - la vittima è una pubblica autorità presa di mira a causa delle sue funzioni. In tali casi, data la maggiore gravità o l’interesse pubblico leso, le autorità possono intervenire anche senza una denuncia specifica della persona ritratta nel deepfake.
È importante sottolineare che prima di questa legge l’ordinamento italiano non prevedeva uno specifico reato per l’uso illecito di contenuti digitalmente manipolati. Si potevano eventualmente punire solo casi particolari (come i deepfake a sfondo sessuale, rientranti nella fattispecie di “revenge porn” già punita dall’art. 612-ter c.p.), oppure perseguire il fatto attraverso reati generici come diffamazione o sostituzione di persona, spesso però inadeguati a coprire pienamente il fenomeno. La nuova norma colma questo vuoto, estendendo la tutela penale a qualsiasi uso distorto dell’immagine o voce altrui generato con l’AI, indipendentemente dal contenuto specifico.
Va anche evidenziato che la Legge 132/2025 introduce misure complementari per prevenire l’uso ingannevole dell’AI. In particolare, ogni contenuto creato o modificato tramite intelligenza artificiale deve essere chiaramente segnalato come tale, in modo esplicito e ben visibile. Questa disposizione sulla “etichettatura” dei contenuti AI mira a garantire maggiore trasparenza e rendere subito riconoscibili i media artificiali, così da limitare il rischio che vengano scambiati per reali. Inoltre, la legge ha previsto una circostanza aggravante generale per chi commette altri reati servendosi di sistemi di AI in modo da rendere l’azione più subdola o difficile da scoprire, aumentando in tal caso le pene applicabili. Complessivamente, quindi, l’intervento normativo segnala la volontà di sanzionare penalmente gli abusi dell’AI che ledono diritti individuali, senza però ostacolare gli usi legittimi e creativi di tali tecnologie.
Esempi pratici e implicazioni della norma
Per comprendere le implicazioni pratiche di questo nuovo reato di deepfake, può essere utile esaminare alcuni esempi reali o scenari recenti in cui tali condotte si sono verificate:
- Violazione dell’immagine privata (caso “Arianna”) – Un caso emblematico riguarda una studentessa 19enne pugliese, Arianna, che nell’estate 2025 ha denunciato di essere stata vittima di un deepfake a sfondo sessuale. Qualcuno, partendo da una sua foto personale, l’ha digitalmente manipolata per generare un’immagine pornografica falsa con il suo volto, poi diffusa su volantini anonimi nella sua città. Si è trattato in sostanza di revenge porn mediante AI, che ha gravemente leso la dignità e la privacy della ragazza. Prima della Legge 132/2025, un tale fatto poteva essere perseguito solo come diffusione illecita di materiale intimo (se rientrava nell’art.612-ter), ma con la nuova norma sul deepfake ogni diffusione non consensuale di immagini false e lesive diventa esplicitamente reato. Questo offre una tutela penale aggiuntiva a vittime come Arianna, permettendo di agire contro chi utilizza l’AI per umiliare o diffamare un privato cittadino mediante contenuti falsi.
- Manipolazione dell’opinione pubblica (finto video istituzionale) – I deepfake non colpiscono solo i singoli privati, ma possono avere ripercussioni più ampie. Un esempio recente ha coinvolto addirittura alte cariche dello Stato italiano: nei mesi scorsi sono circolati sui social video falsi in cui la Presidente del Consiglio Giorgia Meloni e il Vicepremier Matteo Salvini sembravano promuovere uno schema di investimenti fraudolenti online, invitando i cittadini a depositare denaro su una piattaforma finanziaria sospetta. In realtà si trattava di un sofisticato deepfake video pubblicitario, con i volti e le voci dei politici replicati digitalmente per dare credibilità a una truffa. Molte persone, vedendo la Premier in TV endorsare quello che pareva un progetto governativo, rischiavano di cascare nel raggiro. Un simile episodio evidenzia due livelli di danno: da un lato la reputazione delle figure pubbliche coinvolte viene attaccata strumentalmente, dall’altro l’opinione pubblica e i cittadini vengono ingannati, minando la fiducia nelle istituzioni e facilitando frodi economiche. Grazie all’introduzione del reato di deepfake, oggi diffondere volontariamente un video contraffatto di questo tipo – allo scopo di truffare o manipolare la collettività – costituisce un illecito penale specifico. Oltre alle eventuali accuse per frode o diffamazione, si applicherebbe infatti la nuova sanzione 612-quater c.p., con pene aumentate qualora l’inganno abbia rilevanza sulla tenuta dell’ordine pubblico o integri altre fattispecie di reato.
Questi esempi aiutano a capire la portata della norma: il legislatore ha voluto coprire un ampio ventaglio di situazioni in cui i deepfake possono causare danni concreti, sia sul piano individuale (violazione della privacy, reputazione, dignità personale) sia su quello collettivo (truffe di massa, disinformazione e manipolazione dell’opinione pubblica). L’obbligo di contrassegnare i contenuti generati da AI e la minaccia di serie conseguenze penali per chi diffonde deepfake senza consenso servono sia da deterrente che da strumento di tutela legale.
In conclusione, l’articolo della Legge 132/2025 dedicato ai deepfake rappresenta un importante passo in avanti per adattare il diritto penale all’era dell’intelligenza artificiale. Viene finalmente riconosciuta e sanzionata la condotta di chi, sfruttando algoritmi avanzati, falsifica la realtà a danno di altri, rubando identità digitali e ingannando lo spettatore. Per il pubblico non tecnico, ciò si traduce in una maggior protezione: far circolare video o foto “fake” di qualcuno, senza autorizzazione, non è più uno scherzo o una zona grigia, ma un reato vero e proprio. Al tempo stesso, la norma segnala che l’innovazione tecnologica non è priva di regole: anche nel mondo dei contenuti generati dall’AI valgono principi fondamentali come il consenso della persona ritratta e la tutela della sua dignità.
Le autorità italiane hanno ora a disposizione un mezzo in più per perseguire abusi digitali ed evitare che i deepfake diventino arma di ricatto, diffamazione o destabilizzazione sociale. Come ogni nuova legge, la sua efficacia dipenderà dall’applicazione pratica e dalla consapevolezza dei cittadini, ma il messaggio è chiaro: l’uso malevolo dei deepfake non resterà impunito.












