24/2/2025
Legge n.132/2025 sull’Intelligenza Artificiale: Principi, Novità e Implicazioni
Con l'entrata in vigore della Legge 132/2025, l'Italia recepisce la sfida dell'AI Act: analizziamo i principi chiave e le regole operative per imprese e cittadini.

La Legge 23 settembre 2025, n. 132 sull’intelligenza artificiale (IA) è il primo quadro normativo organico italiano dedicato allo sviluppo e all’uso dell’IA, in linea con il Regolamento UE 2024/1689 (AI Act). Entrata in vigore il 10 ottobre 2025, promuove un impiego trasparente e responsabile dell’IA, volto all’innovazione ma nel rispetto dei diritti fondamentali e dei valori costituzionali.
L’obiettivo è garantire che l’essere umano resti al centro dei processi decisionali tecnologici, affiancando all’AI Act europeo una cornice nazionale di principi, controlli e responsabilità.
Si tratta di una legge-quadro con delega al Governo: stabilisce linee generali e obiettivi, rimandando a successivi decreti per dettagli tecnici, vigilanza e sanzioni. Tuttavia, introduce fin da subito regole chiave per imprese, professionisti, PA e cittadini.
Punti chiave e novità normative
La Legge 132/2025 si sviluppa in 28 articoli, suddivisi in sei Capi, e abbraccia un ampio spettro di temi legati all’intelligenza artificiale. Possiamo sintetizzare così i suoi punti chiave e le principali novità normative:
Principi generali e finalità
La legge disciplina l’uso dell’IA in sanità, ricerca, lavoro, PA, giustizia, istruzione e difesa.
Nel settore giudiziario, l’art. 15 stabilisce una “riserva di giurisdizione umana”: l’IA può coadiuvare, ma non sostituire il giudice. Analogamente, in sanità l’IA affianca medici e ricercatori senza sostituirne il giudizio clinico.
Nella Pubblica Amministrazione, l’IA serve a migliorare efficienza e servizi, ma la responsabilità resta del funzionario umano; è obbligatoria la trasparenza degli algoritmi e la formazione del personale.
Per i sistemi di IA ad alto rischio sono previsti controlli preventivi, monitoraggi continui e garanzie contro abusi o discriminazioni.
Ambiti di applicazione settoriali
La legge disciplina l’uso dell’IA in sanità, ricerca, lavoro, PA, giustizia, istruzione e difesa.
Nel settore giudiziario, l’art. 15 stabilisce una “riserva di giurisdizione umana”: l’IA può coadiuvare, ma non sostituire il giudice. Analogamente, in sanità l’IA affianca medici e ricercatori senza sostituirne il giudizio clinico.
Nella Pubblica Amministrazione, l’IA serve a migliorare efficienza e servizi, ma la responsabilità resta del funzionario umano; è obbligatoria la trasparenza degli algoritmi e la formazione del personale.
Per i sistemi di IA ad alto rischio sono previsti controlli preventivi, monitoraggi continui e garanzie contro abusi o discriminazioni.
Strategia nazionale e governance
La legge istituisce una struttura di governance per coordinare l’attuazione delle politiche sull’IA.
Presso la Presidenza del Consiglio nasce un Comitato di coordinamento, mentre due agenzie assumono ruoli centrali:
- Agenzia per la Cybersicurezza Nazionale (ACN): vigila su sicurezza e adeguatezza dei sistemi di IA, con poteri ispettivi;
- Agenzia per l’Italia Digitale (AgID): gestisce il sistema di notifiche e promuove l’uso sicuro dell’IA.
Ogni due anni sarà aggiornata una Strategia nazionale per l’IA, elaborata dal Dipartimento per la Trasformazione Digitale con ACN e AgID, e sottoposta a monitoraggio parlamentare annuale per garantire trasparenza e supervisione democratica.
Obblighi di trasparenza e tutela degli utenti
La legge impone un obbligo di informazione sull’uso dell’IA.
Professionisti e imprese devono dichiarare in modo chiaro se impiegano strumenti di IA nelle loro prestazioni.
Analogamente, i datori di lavoro devono informare i dipendenti se l’IA è utilizzata nella gestione del personale.
Cittadini, clienti o lavoratori hanno dunque il diritto di sapere quando interagiscono con sistemi automatizzati.
Sono previsti principi di conoscibilità e spiegabilità degli algoritmi, vietando decisioni esclusivamente automatizzate.
L’uso dell’IA deve inoltre rispettare il GDPR, con particolare attenzione ai dati sensibili.
Il Capo IV introduce norme a tutela dei consumatori e degli autori di opere digitali: la legge estende la protezione del diritto d’autore anche ai contenuti generati con l’ausilio dell’IA e tutela gli autori delle opere utilizzate per l’addestramento degli algoritmi.
Nuovi reati e sanzioni
La legge introduce nuove fattispecie penali e aggravanti legate all’uso illecito dell’IA.
L’art. 26 inserisce il reato di “diffusione illecita di contenuti generati o alterati tramite IA” (art. 612-quater c.p.), punito con la reclusione da uno a cinque anni, per contrastare deepfake e manipolazioni digitali.
Viene inoltre introdotta un’aggravante generale per i reati commessi mediante IA, aumentando la pena in proporzione alla pericolosità del mezzo.
Le modifiche incidono anche su reati economici e di mercato: per esempio, aggiotaggio o manipolazioni finanziarie tramite IA comportano pene fino a sei anni.
I reati legati all’IA entrano nel catalogo del D.Lgs. 231/2001, rendendo responsabili anche gli enti per condotte illecite algoritmiche.
Le imprese dovranno quindi aggiornare i propri Modelli 231, prevedendo protocolli di controllo e audit sui sistemi di IA.
Incentivi e risorse
Sul piano economico, l’art. 23 istituisce un programma di investimenti fino a 1 miliardo di euro per startup e PMI attive in IA, cybersicurezza e tecnologie emergenti.
Il fondo, gestito tramite strumenti di venture capital, mira a sostenere innovazione, trasferimento tecnologico e filiere strategiche nazionali.
Sono previsti anche sandbox regolatori per sperimentazioni controllate.
Pur non prevedendo contributi diretti a fondo perduto, la misura coniuga regolazione e promozione, incoraggiando lo sviluppo di un ecosistema imprenditoriale responsabile.
Implicazioni pratiche per le imprese
Con l’entrata in vigore della legge, le imprese devono adeguarsi a nuovi obblighi di trasparenza, sicurezza e governance dell’IA, integrando la normativa europea con misure organizzative e tecniche adeguate.
Trasparenza verso dipendenti e clienti
Le aziende devono comunicare l’uso dell’IA in ogni attività che coinvolga persone.
Se un datore di lavoro utilizza sistemi di IA per la selezione o la valutazione del personale, deve informare i lavoratori e aggiornare le informative privacy.
Analogamente, se i clienti interagiscono con chatbot o sistemi automatici, devono sapere che stanno dialogando con un algoritmo.
I contratti commerciali dovranno includere clausole specifiche sull’uso dell’IA, definendo responsabilità, controlli, diritti di audit e gestione degli errori.
La trasparenza diventa una leva di fiducia verso clienti e stakeholder.
Valutazione dei rischi e misure di controllo
Prima di adottare un sistema di IA, le imprese devono eseguire una valutazione preventiva d’impatto, analizzando rischi di privacy, sicurezza e discriminazione.
È raccomandata la DPIA (Data Protection Impact Assessment) per i sistemi che trattano dati sensibili.
Le aziende dovranno documentare le misure di mitigazione: filtraggio dei dati di input, controlli di accuratezza, protocolli di emergenza e audit periodici.
La cybersicurezza è una condizione essenziale: le imprese devono garantire protezione contro manipolazioni o attacchi, conservando log e tracciabilità delle decisioni algoritmiche.
Supervisione umana
Ogni sistema di IA deve restare sotto controllo umano.
L’algoritmo può supportare analisi e decisioni, ma un operatore qualificato deve poter intervenire, correggere o approvare l’output.
Le aziende devono definire procedure interne che delimitino l’autonomia dell’IA e garantiscano la possibilità di intervento manuale in ogni fase critica.
Gli utenti devono sempre poter contattare un operatore umano in caso di dubbi o contestazioni.
Aggiornamento dei modelli organizzativi e delle competenze
Le imprese dovranno aggiornare i propri Modelli 231 e introdurre policy interne sull’uso dell’IA, definendo ruoli, responsabilità e protocolli di sicurezza.
È raccomandata la nomina di figure dedicate (es. AI compliance officer) e programmi di formazione continua per il personale.
Comprendere i limiti e i rischi dell’IA è parte integrante della compliance.
Solo con utenti consapevoli e competenti si può garantire un uso affidabile dei sistemi intelligenti.
Opportunità di innovazione e incentivi
Accanto agli obblighi, la legge offre incentivi e opportunità:
le imprese che sviluppano IA affidabile e sicura potranno accedere ai fondi dedicati e beneficiare di un contesto normativo stabile.
Come sottolineato dal Sottosegretario Alessio Butti, “le imprese troveranno in Italia una governance affidabile e regole trasparenti per progetti concreti in tutti i settori chiave”.
L’adeguamento alla legge potrà diventare un vantaggio competitivo, rafforzando reputazione e fiducia del mercato.
Chi invece ignora gli obblighi rischia sanzioni e danni d’immagine.
L’IA passa dunque da terreno sperimentale a campo regolamentato, dove innovazione e responsabilità devono convivere.
Implicazioni per i cittadini
La Legge 132/2025 incide anche sulla vita quotidiana dei cittadini, che ottengono nuovi diritti di informazione, trasparenza e protezione rispetto ai sistemi di IA. Vediamo in che modo:
Diritti alla trasparenza e alla conoscenza
I cittadini devono essere informati ogni volta che interagiscono con decisioni o contenuti generati da IA.
In ambito bancario, amministrativo o lavorativo, l’utente deve sapere se un algoritmo influisce su una decisione che lo riguarda e avere la possibilità di chiedere l’intervento umano.
La legge rafforza così le tutele già previste dal GDPR e promuove la spiegabilità algoritmica: i sistemi pubblici devono essere comprensibili e motivabili, garantendo il diritto di difesa.
In ambito pubblico, l’uso dell’IA deve essere sempre trasparente e sindacabile.
Tutele contro abusi e discriminazioni
La normativa vieta l’uso di IA che generi discriminazioni basate su etnia, genere, età o opinioni.
Ogni algoritmo deve rispettare principi di equità e proporzionalità, soprattutto nei settori sensibili come lavoro, sanità e giustizia.
Le aziende e le PA devono adottare misure tecniche per prevenire bias e trattamenti ingiusti.
La privacy resta centrale: il trattamento di dati sensibili tramite IA è ammesso solo nel pieno rispetto del GDPR.
L’ACN vigila inoltre sulla sicurezza informatica dei sistemi di IA, proteggendo i cittadini da manipolazioni o incidenti che potrebbero compromettere diritti o incolumità.
Centralità dell’uomo nei processi decisionali
Il principio della supremazia dell’uomo sulla macchina tutela la dignità e la responsabilità personale.
Nessuna decisione di rilievo – giudiziaria, medica o lavorativa – può essere delegata interamente a un algoritmo.
Il cittadino ha diritto a un interlocutore umano in ogni fase decisiva.
Questo principio, di valore etico e pratico, garantisce che l’IA resti uno strumento al servizio dell’uomo e non un decisore autonomo.
Nuovi strumenti di tutela legale
Con la nuova disciplina penale, i cittadini possono agire contro deepfake, truffe o abusi basati su IA.
Il nuovo reato di diffusione illecita di contenuti generati da IA consente di perseguire penalmente chi usa l’IA per danneggiare reputazioni o compiere frodi.
Le aggravanti specifiche per i reati commessi con IA aumentano la tutela delle vittime e la deterrenza.
In ambito civile e amministrativo, la legge apre la strada a nuovi meccanismi di segnalazione e vigilanza: le autorità competenti (AgID, ACN) potranno intervenire in caso di pratiche scorrette.
L’obiettivo è orientare l’innovazione al bene comune e alla tutela dei diritti.
In conclusione, per i cittadini la Legge 132/2025 rappresenta un passo importante verso un’IA più etica, trasparente e a misura d’uomo. Pur trattandosi di una materia complessa, la normativa getta le basi affinché le persone comuni possano fidarsi delle applicazioni di IA che incontreranno nella vita quotidiana – fiducia che nasce dal sapere che ci sono regole a tutela della loro dignità e sicurezza. Naturalmente molto dipenderà dall’attuazione concreta di questi principi, ma il segnale dato è chiaro: l’innovazione tecnologica dovrà procedere insieme ai diritti, e non a scapito di essi.
Verso il futuro dell’IA in Italia
La Legge 132/2025 segna una svolta per l’ecosistema digitale italiano, ponendo le fondamenta per un futuro dell’IA improntato a sviluppo responsabile e tutela dei valori umani. In conclusione, alcune riflessioni finali su ciò che questa legge rappresenta e su cosa possiamo attenderci negli anni a venire:
Un punto di partenza normativo
La legge rappresenta l’avvio di un percorso destinato a evolvere con i decreti attuativi che definiranno criteri tecnici, registri di algoritmi e linee guida settoriali.
Il successo dipenderà dalla rapidità e dall’efficacia con cui Governo e istituzioni renderanno operative le norme, evitando che restino meri principi.
Cultura dell’IA e adattamento continuo
La tecnologia evolve rapidamente; di conseguenza, la normativa dovrà essere dinamica e aggiornata.
La strategia nazionale sarà rivista ogni due anni, mentre il Parlamento riceverà rapporti annuali sui progressi.
Parallelamente, sarà essenziale promuovere una diffusa alfabetizzazione sull’IA, affinché cittadini, lavoratori e imprese comprendano rischi e opportunità.
Solo una solida cultura dell’IA può assicurare innovazione consapevole e sostenibile.
IA come opportunità per il Sistema Paese
Un quadro regolatorio chiaro e orientato ai diritti può rendere l’Italia un polo europeo dell’IA etica.
Il fondo da 1 miliardo e i sandbox regolatori consentono di sperimentare in sicurezza, favorendo startup e ricerca applicata.
L’obiettivo è coniugare sviluppo tecnologico e tutela umana, stimolando investimenti e competitività internazionale.
Centralità dell’etica e dei diritti nel lungo periodo
Infine, il valore duraturo della legge risiede nella sua impostazione etico-giuridica: l’IA deve servire l’uomo e non sostituirlo.
Ogni evoluzione futura – fino a eventuali forme di IA generale – dovrà rimanere coerente con la dignità, sicurezza e libertà della persona.
In un mondo sempre più automatizzato, la legge riafferma la volontà dell’Italia di guidare il progresso tecnologico entro confini di legalità, trasparenza e beneficio sociale.
In definitiva, la Legge 132/2025 può essere vista come un faro che illumina la strada dell’IA italiana: una visione di innovazione fondata su diritti, responsabilità e crescita condivisa. Il futuro dipenderà dalla capacità di istituzioni, imprese e cittadini di tradurre questi principi in pratiche concrete.
Solo così l’Italia potrà non solo “salire sul treno dell’IA”, ma guidarlo verso un progresso umano e sostenibile.












