30/10/2025

Data:

Legge 132/2025: IA e diritto d’autore in Italia

La Legge 132/2025 è il primo quadro normativo europeo per l'IA. Si propone di bilanciare innovazione e diritti fondamentali, enfatizzando l'uso etico dell’IA e la protezione del diritto d’autore. Analizziamo i principi della legge, l'impatto sul copyright e le implicazioni per creatori, imprese e utenti, con esempi pratici di applicazione.

legge-132-2025-ia-e-diritto-dautore-in-italia

La Legge 23 settembre 2025 n. 132 – meglio nota come prima legge italiana sull’Intelligenza Artificiale – rappresenta il primo quadro normativo nazionale in Europa dedicato allo sviluppo, all’adozione e alla governance dei sistemi di IA. Entrata in vigore il 10 ottobre 2025, questa normativa ambiziosa mira a bilanciare innovazione tecnologica e tutela dei diritti fondamentali, ponendo particolare enfasi su temi cruciali come l’uso etico dell’IA e la protezione del diritto d’autore nell’era dell’AI.

Principi generali della legge

La Legge 132/2025 si fonda su una serie di principi ispiratori che delineano un uso dell’IA rispettoso dell’uomo e dei suoi diritti. In particolare, la normativa promuove un impiego antropocentrico dell’IA: la persona rimane sempre al centro del processo decisionale, con l’algoritmo relegato a ruolo di supporto. Questo principio di primato dell’essere umano sull’algoritmo pervade l’intera legge e si traduce nella centralità della decisione finale umana in tutti gli ambiti applicativi (dalla sanità alla giustizia).

Altri pilastri fondamentali sanciti dalla legge includono:

  • Trasparenza e tracciabilità degli algoritmi e degli output generati, affinché gli utenti e i soggetti coinvolti siano sempre informati quando interagiscono con sistemi di IA
  • Sicurezza cibernetica lungo l’intero ciclo di vita dei sistemi, imponendo adeguate misure di cybersecurity per prevenire abusi, manipolazioni o incidenti legati all’IA.
  • Non discriminazione: divieto rigoroso di bias algoritmici che possano portare a trattamenti differenziati ingiustificati in base a genere, etnia, età, religione, opinioni ecc.
  • Inclusione e accessibilità: l’IA deve essere accessibile a tutti, incluse le persone con disabilità.

Questi principi generali riflettono la volontà del legislatore di orientare lo sviluppo dell’IA verso il bene comune, assicurando che l’innovazione digitale sia accompagnata da garanzie solide per la società. In sintesi, la Legge 132/2025 crea un quadro di fiducia e responsabilità attorno all’IA: l’intelligenza artificiale deve servire l’uomo, operare in modo trasparente e sicuro, e rispettare la dignità e i diritti di ogni individuo.

Impatto sull’ambito del diritto d’autore

Uno dei punti focali – e altamente innovativi – della Legge 132/2025 riguarda la relazione tra intelligenza artificiale e copyright. L’art. 25 della legge interviene sulla storica Legge sul Diritto d’Autore (Legge 22 aprile 1941 n. 633) per adeguarla alle sfide dell’era digitale e delle opere create con l’ausilio di AI. Vengono introdotte importanti chiarimenti e modifiche per stabilire cosa è (e cosa non è) protetto dal diritto d’autore quando c’entra l’intelligenza artificiale.

Paternità dell’opera e creatività umana

La legge italiana chiarisce che solo le opere frutto dell’ingegno umano creativo sono protette dal diritto d'autore, confermando quanto stabilito dall’art. 1 della L.633/1941. Un lavoro deve esprimere il lavoro intellettuale di una persona per essere coperto da copyright. Pertanto, un contenuto generato interamente da un sistema di IA non gode di protezione d’autore. Le creazioni assistite dall’IA, invece, sono tutelate se vi è un apporto creativo umano riconoscibile.

Un esempio chiarisce questo concetto: se un illustratore utilizza un generatore di immagini AI e pubblica l'output senza modifiche, quell'immagine non avrà copyright. Tuttavia, se l’illustratore modifica e arricchisce l'immagine, il risultato finale è considerato un'opera creativa protetta. Il contributo umano riconoscibile è essenziale per ottenere la protezione del diritto d'autore.

Si consiglia agli autori di documentare il loro processo creativo quando utilizzano l’IA, per dimostrare l’originalità del loro apporto. Questa normativa chiarisce chi è l’autore di un’opera creata con l’IA, affermando che l’arte resta umana anche in un dialogo con la tecnologia. Le implicazioni pratiche includono l’utilizzo libero di contenuti generati automaticamente senza titolare di diritti, mentre creatori e aziende devono garantire un input creativo umano per rivendicare diritti su opere generate con AI.

Addestramento delle IA e opere protette  

La Legge 132/2025 affronta l'importante questione dell'uso di opere protette da copyright per l'addestramento dei modelli di intelligenza artificiale (IA), introducendo un nuovo articolo, il 70-septies, nella legge sul diritto d'autore. Prima di questa legge, il text and data mining (TDM) su larga scala era regolato in modo generico dalle eccezioni della Direttiva UE 2019/790, lasciando margini di incertezza. Ora, la nuova norma chiarisce che la riproduzione o estrazione di testo e dati da opere protette per il machine learning è consentita solo alle condizioni degli articoli 70-ter e 70-quater della LDA.

  • Art. 70-ter consente a organismi di ricerca e istituti culturali di effettuare estrazioni di testo e dati per scopi di ricerca scientifica, senza bisogno di autorizzazione, purché i risultati non riproducano parti sostanziali delle opere e siano usati solo in nuove opere creative.  
  • Art. 70-quater permette a chiunque di svolgere operazioni di estrazione di dati e testi da opere a cui ha accesso legittimo, a meno che il titolare dei diritti non abbia riservato tale utilizzo, introducendo un regime di opt-out.

La legge riconosce formalmente queste condizioni anche per l'addestramento dei modelli IA, ribadendo che deve avvenire nel rispetto delle norme esistenti e della Convenzione di Berna. Allenare un'IA su dataset è legittimo solo se si hanno i diritti per usare quei dati o se rientra nelle eccezioni di legge.

Una novità introdotta dalla legge è la sanzione penale per il data mining illecito: chi riproduce o estrae testo o dati da opere protette in violazione degli articoli 70-ter e 70-quater, anche tramite IA, è punito con una multa. Questo rappresenta un deterrente normativo per le imprese, obbligandole a verificare la liceità delle fonti e a rispettare eventuali esclusioni poste dai titolari dei diritti.

Per sviluppatori e fornitori di sistemi di IA, la legge richiede un rigoroso controllo sulla provenienza dei dati di training. Ad esempio, una start-up che crea un algoritmo di generazione immagini deve usare solo immagini open source o per le quali ha ottenuto licenza. In caso contrario, rischia sanzioni penali.

Dall'altro lato, autori e artisti vedono riconosciuto il diritto di opporsi all'uso non autorizzato delle loro opere per l'addestramento di IA, potendo inserire clausole nei contratti di cessione dei diritti che vietino l'uso delle opere per scopi di training algoritmico.

Tutela dell’identità e immagini generate (Deepfake)

La legge 132/2025, sebbene più legata al diritto alla persona che al diritto d’autore, affronta anche i deepfake, contenuti audio-video generati o alterati dall’IA per simulare situazioni e persone reali. Il Capo VI introduce un nuovo articolo nel Codice Penale, il 612-quater c.p., intitolato “Illecita diffusione di contenuti generati o alterati mediante sistemi di IA”. Questa nuova fattispecie di reato prevede la reclusione da uno a cinque anni per chi, senza consenso, diffonde immagini, video o audio falsificati tramite IA, ingannevoli e dannosi per la persona. In sintesi, far circolare un deepfake lesivo dell’onore o della reputazione altrui diventa un delitto.

La norma tutela identità, onore e libertà morale degli individui, colmando un vuoto legale. Ora ogni deepfake ingannevole è perseguibile, purché causi danno ingiusto e avvenga senza consenso. La procedibilità è a querela di parte, tranne in casi aggravati (es. vittime minorenni o incapaci, offese a pubblici ufficiali).

Per le imprese, creare o usare deepfake per truffa o diffamazione può portare a responsabilità penali. Un dipendente che diffonda un video fake del CEO di un’azienda concorrente, ad esempio, commetterebbe reato. Sebbene il reato non comporti ancora responsabilità amministrativa per l’azienda, è consigliabile scoraggiare l’uso improprio di IA per evitare danni reputazionali.

Altre misure penali correlate all’IA  

La legge introduce aggravanti specifiche per reati commessi mediante IA. L'aggravante "11-decies" è stato aggiunto all’art. 61 c.p., applicabile a reati resi più insidiosi o dalle conseguenze aggravate grazie all'utilizzo di sistemi di IA. Ad esempio, una frode informatica con un chatbot che imita la voce umana (vishing) potrebbe vedere aumentate le pene, poiché l’IA amplifica la gravità dell’azione. L’obiettivo è riconoscere che l’IA può essere un “moltiplicatore” di pericolosità, come nella diffusione automatica di fake news, e quindi richiede maggiore severità.

Inoltre, la legge aumenta le pene per alcuni reati specifici commessi con l’IA. Per l'attentato ai diritti politici del cittadino (art. 294 c.p.), la reclusione sale a 2-6 anni se l’inganno avviene con IA, fungendo da deterrente contro deepfake o bot di disinformazione elettorale. Nel reato di aggiotaggio (art. 2637 c.c.), la pena passa a 2-7 anni se si usano IA per manipolare i mercati finanziari. In caso di manipolazione del mercato (art. 185 TUF), l’uso dell’IA comporta reclusione di 2-7 anni e una multa fino a 6 milioni di euro. Queste misure riflettono il timore del legislatore per fenomeni come il turbo-trading manipolativo.

Nel complesso, l'intervento normativo configura un sistema organico di regole che tutela la creatività umana e protegge le fonti e i dati alimentanti l’IA, sanzionando gli abusi digitali che danneggiano persone o mercati.

Implicazioni pratiche per creatori di contenuti, aziende e utenti di tecnologie AI  

Le novità introdotte dalla legge 132/2025 influenzano la vita quotidiana di diversi attori: creatori di contenuti, imprese che utilizzano sistemi di IA, e utenti comuni. Analizziamo i cambiamenti pratici e le strategie di adattamento al nuovo contesto normativo.

Creatori di contenuti (artisti, autori, designer)

La legge offre nuove protezioni e responsabilità. Solo l’essere umano può essere autore di un’opera, il che implica che un artista che utilizza IA deve garantire un contributo creativo personale. Diventa essenziale documentare il processo creativo, salvando le fasi e annotando le scelte artistiche per dimostrare l’apporto umano. Se un’opera generata con IA era di dubbia attribuzione, ora è chiaro che l’autore umano è riconosciuto solo con un contributo originale. Inoltre, le opere usate per addestrare IA senza consenso sono considerate illecite. I creatori dovrebbero tutelarsi contrattualmente, inserendo clausole nei contratti che vietano l’uso per addestrare algoritmi senza autorizzazione. Le gallerie e le piattaforme creative devono adeguare le condizioni d’uso per chiarire l’utilizzo dei contenuti da parte delle AI, magari offrendo opzioni di opt-out agli artisti. La criminalizzazione dei deepfake richiede attenzione nella condivisione di opere derivate che potrebbero essere scambiate per reali. I creatori beneficeranno di un mercato più chiaro, con la valorizzazione dell’elemento umano nell’arte.

Aziende e imprese

La legge ha implicazioni operative significative. In ambito risorse umane, i datori di lavoro devono informare il personale sull’uso di IA per selezione o valutazione, garantendo verifiche per evitare discriminazioni algoritmiche. Le aziende che utilizzano piattaforme AI per il recruiting devono avvisare i candidati e effettuare audit periodici sull’algoritmo per evitare esclusioni illegittime. Sul fronte IT e sviluppo prodotto, le imprese devono assicurarsi che i dataset di training siano legalmente conformi. Molte aziende adotteranno un registro delle fonti dei dati per ogni modello sviluppato. Devono anche informare gli utenti quando un contenuto è generato artificialmente, rispettando gli obblighi di trasparenza. La responsabilità legale in caso di danni resta in capo all’azienda, che deve quindi adottare policy interne sull’uso dell’IA. Le imprese dovranno includere clausole relative all’IA nei contratti di licenza di software o dati e praticare una maggiore due diligence sull’AI dei fornitori.

Utenti e consumatori di tecnologie AI

La legge porta benefici indiretti ai cittadini, garantendo che ci sia sempre un umano dietro le decisioni finali nei servizi pubblici potenziati dall’IA. Nell’istruzione, i curricula includeranno educazione all’IA per formare consumatori consapevoli. Anche come lavoratori, gli utenti godranno di maggiori diritti, come sapere se un colloquio è filtrato da un algoritmo. La criminalizzazione dei deepfake offre nuovi strumenti di tutela della propria identità digitale. Sul fronte del copyright, gli utenti vedranno aumentare la disponibilità di contenuti generati da IA, ma dovranno rispettare i limiti legali. In sintesi, la legge 132 promette un ecosistema di IA più trasparente, sicuro e umano-centrico, massimizzando le opportunità delle tecnologie e minimizzando gli abusi.

Esempi concreti di applicazione della legge

Per comprendere come la Legge 132/2025 influenzerà la pratica, consideriamo alcuni scenari ipotetici in cui le sue disposizioni si applicano:

Esempio 1: Arte generativa e tutela del copyright

Una piccola azienda di design utilizza un generatore di immagini AI per creare un logo. Il grafico inserisce indicazioni testuali e sceglie un logo proposto dalla macchina, senza modifiche creative proprie. Secondo la nuova legge, quel logo non è protetto da diritto d’autore, mancando il requisito del lavoro creativo umano riconoscibile. Chiunque potrebbe riutilizzarlo senza violare diritti esclusivi. Se il grafico avesse ridisegnato e personalizzato l’output, il logo finale sarebbe protetto e l’azienda cliente ne sarebbe titolare.  

  • Morale: le agenzie creative dovranno includere un sufficiente tocco umano nei risultati per evitare che il prodotto non sia tutelato. Documentare il processo sarà fondamentale per evitare contenziosi sulla paternità delle opere.

Esempio 2: Dataset “pirata” e responsabilità aziendale – Una startup sviluppa un app di text generation, raccogliendo testi dal web senza autorizzazione. Post-Legge 132, questa pratica è un illecito: scaricare opere protette senza consenso viola la legge. Gli editori possono agire legalmente contro la startup per riproduzione abusiva.  

  • Morale: le aziende devono implementare procedure di compliance nei processi di data collection. Ciò può significare acquistare dataset filtrati o utilizzare solo fonti che permettano il TDM.

Esempio 3: Deepfake e reputazione aziendale – Un dipendente scontento crea un video deepfake del CEO dell’azienda, danneggiandone l’immagine. La nuova legge configura questo comportamento come reato di illecita diffusione di contenuti artificiati, perseguibile con reclusione. Il CEO può sporgere querela.

  • Morale: la legge 132 funge da deterrente contro l’uso malevolo dei deepfake. Le aziende dovrebbero prevedere misure preventive e strumenti di monitoraggio per rilevare contenuti falsi.

Esempio 4: IA in decisioni aziendali senza trasparenza – Un’azienda usa un algoritmo di IA per profilare clienti senza informarli. La legge 132 impone l’informativa sull’uso di IA, e se l’algoritmo discriminasse, l’azienda potrebbe essere chiamata a risponderne.

  • Morale: le imprese dovrebbero introdurre l’IA gradualmente, assicurandosi di coinvolgere un operatore umano nelle decisioni e informare la clientela.

Questi esempi mostrano come la legge 132/2025 troverà applicazione in molte situazioni quotidiane. Dalla tutela degli artisti alla due diligence tecnologica delle aziende, fino alla responsabilizzazione degli utenti, il filo conduttore è rendere l’IA un alleato fidato e non una terra di nessuno: la creatività umana rimane al centro e l’innovazione viene regolata entro norme di correttezza.

In conclusione, la Legge 132/2025 rappresenta un passo fondamentale per l'Italia verso un'integrazione dell'intelligenza artificiale nella società in modo ordinato e rispettoso dei valori umani. Questa legge affronta aspetti tecnologici, etici, giuridici ed economici, mirando a massimizzare i benefici dell'IA minimizzando i rischi.

Per le imprese, si apre una nuova fase con regole più chiare, ma ci saranno sfide da affrontare per aggiornare i processi. L'AI Act europeo e la legge nazionale sono solo l'inizio; ora è fondamentale utilizzarle responsabilmente. Con una governance efficace e il coinvolgimento di tutti, l'IA può diventare uno strumento di progresso, promuovendo un modello che unisce innovazione e diritti.

Iscriviti alla nostra Newsletter!

Rimani sempre aggiornato e ricevi novità e consigli utili.

Grazie per esserti iscritto alla nostra newsletter.
Ops! Qualcosa è andato storto.

Copyright ©2025 e-cons.it

E-CONS S.R.L.– Via del Lavoro 4 – 35040 Boara Pisani (PD) Tel: 0425-485621 – P.IVA – C.F. – Registro Imprese di Padova N. 01171060294 -PEC: e-cons@legalmail.it – Codice SDI: SUBM70N — Capitale Sociale 25.500 i.v.