IA e liberi professionisti: cosa prevede la Legge 132/2025
La Legge 132/2025 segna una svolta nella regolamentazione dell’intelligenza artificiale in Italia, con impatti diretti su professionisti e studi autonomi. In questo articolo analizziamo obblighi, responsabilità e opportunità per chi utilizza l’IA nella propria attività.

La Legge 23 settembre 2025, n. 132 – entrata in vigore il 10 ottobre 2025 – rappresenta il primo intervento organico dell’Italia per disciplinare lo sviluppo e l’impiego dell’intelligenza artificiale (IA). Questa normativa nazionale, pubblicata in Gazzetta Ufficiale n.223/2025, si affianca al Regolamento UE 2024/1689 (AI Act) recependone i principi e integrandoli con disposizioni specifiche per il contesto italiano. L’obiettivo dichiarato è favorire l’innovazione digitale in modo sicuro e responsabile, bilanciando il progresso tecnologico con la tutela dei diritti fondamentali e della dignità umana.
La legge si articola in 28 articoli raggruppati in sei capi e copre molteplici ambiti: dal lavoro pubblico e privato alle professioni intellettuali, dalla sanità e ricerca scientifica alla giustizia e sicurezza nazionale. Vengono delineati principi guida antropocentrici (centralità dell’essere umano) e introdotte novità cruciali per imprese, pubbliche amministrazioni, professionisti e sviluppatori. Particolare rilievo assumono alcune sezioni tematiche – come l’uso dei dati, la privacy, il lavoro autonomo, la sanità, il diritto d’autore – nonché nuove fattispecie di reato collegate all’IA.
Nei paragrafi seguenti esamineremo i punti salienti di ciascuno di questi ambiti, con un’attenzione specifica a come le nuove disposizioni coinvolgono direttamente i liberi professionisti (avvocati, consulenti, medici, ingegneri, sviluppatori, ecc.).
Uso e trattamento dei dati
La Legge 132/2025 disciplina l’uso dei dati nei sistemi di intelligenza artificiale, imponendo il pieno rispetto del GDPR e del Codice Privacy. I dati devono essere trattati in modo lecito, trasparente e coerente con le finalità dichiarate, anche nelle fasi di addestramento degli algoritmi.
Particolari cautele sono previste per i dati sensibili, come quelli sanitari, che richiedono un uso proporzionato e non discriminatorio. Per i minori di 14 anni serve il consenso dei genitori, mentre dai 14 anni in poi è ammesso un consenso autonomo e informato.
Il Governo ha 12 mesi per definire, tramite decreti legislativi, le regole su uso dei dati, addestramento dei modelli, tutele e sanzioni, nel rispetto del quadro europeo e dell’AI Act. Le controversie saranno trattate dalle sezioni specializzate in materia di impresa dei tribunali.
Implicazioni per i professionisti
I liberi professionisti che sviluppano o utilizzano sistemi di IA dovranno prestare grande attenzione alla governance dei dati. Già oggi la legge impone loro di garantire trasparenza e rispetto delle norme privacy, ma a breve con i decreti attuativi arriveranno regole ancora più specifiche. Ad esempio, un ingegnere o data scientist freelance dovrà assicurarsi che i dataset usati per addestrare un algoritmo siano stati ottenuti legalmente (rispettando licenze o consenso) e documentare accuratamente tali fonti. La tracciabilità dei dati e la verifica della liceità dell’accesso diventano obblighi essenziali. L’inosservanza di queste regole, oltre alle sanzioni amministrative GDPR (fino al 4% del fatturato mondiale annuo), potrà esporre il professionista anche a nuove responsabilità contrattuali o penali previste dalla legge 132. In sintesi, l’uso disinvolto di “qualsiasi dato disponibile” per far funzionare l’IA non è più ammesso: servono basi giuridiche solide e misure documentate di compliance.
Privacy e protezione dei dati personali
La Legge 132/2025 rafforza l’applicazione delle norme sulla privacy al contesto dell’intelligenza artificiale, senza crearne di nuove. Stabilisce che lo sviluppo e l’uso dei sistemi di IA devono rispettare GDPR e Codice Privacy, assicurando un trattamento lecito, corretto e trasparente dei dati personali. Gli utenti devono essere informati chiaramente su come i loro dati vengono usati, con spiegazioni semplici e comprensibili anche in ambito professionale.
La legge richiede inoltre misure di sicurezza e qualità dei dati, inclusa la cybersicurezza e l’aggiornamento periodico dei modelli, oltre al principio di minimizzazione, ossia l’uso solo dei dati strettamente necessari.
La vigilanza è affidata a più autorità: AgID, ACN, Consob, IVASS e il Garante Privacy, che partecipa ma non è l’unico regolatore. Questa struttura multi-autorità riflette la natura trasversale dell’IA, che coinvolge privacy, sicurezza e ambiti economici.
Implicazioni per i professionisti
Avvocati, commercialisti, consulenti e in generale tutti i liberi professionisti dovranno verificare con attenzione l’impatto dell’IA sui trattamenti di dati personali che svolgono. Chi utilizza strumenti di IA nelle proprie attività (dall’analisi di documenti legali con algoritmi, fino all’uso di chatbot per assistenza clienti) deve:
- Aggiornare le informative privacy fornite a clienti o altre persone i cui dati vengono elaborati, includendo riferimenti all’eventuale uso di IA e alle logiche di funzionamento di tali sistemi.
- Ottenere consensi specifici se l’uso di IA comporta trattamenti ulteriori rispetto a quelli originariamente concordati (soprattutto per categorie particolari di dati ai sensi dell’art.9 GDPR, come dati sanitari, biometrici, opinioni politiche, ecc.).
- Valutare i rischi privacy (DPIA): se l’adozione di un sistema di IA può comportare un rischio elevato per i diritti e le libertà delle persone (ad es. profilazione automatizzata dei clienti), sarà necessario effettuare o aggiornare una Data Protection Impact Assessment. La legge 132 richiama implicitamente questa necessità: ad esempio, per l’utilizzo dell’IA nel monitoraggio dei lavoratori si dovrà rivedere la DPIA già svolta, tenendo conto del nuovo strumento introdotto.
- Formare il personale (se presente) sulle regole di utilizzo responsabile dei dati e sui nuovi obblighi. Anche un piccolo studio professionale con collaboratori dovrà istruire tutti sulle buone pratiche (es. non inserire dati personali di clienti in servizi online di IA senza garanzie, tutela del segreto professionale, etc.).
In sostanza, la legge spinge i professionisti a elevare il livello di accountability (responsabilizzazione) in materia di privacy: l’uso dell’IA non attenua gli obblighi esistenti, anzi richiede uno sforzo aggiuntivo di trasparenza e controllo sui dati personali trattati.
Impatti sul lavoro autonomo e sulle professioni intellettuali
La Legge 132/2025 dedica un capitolo alle professioni intellettuali, stabilendo che l’IA può essere usata solo come supporto e mai in sostituzione del lavoro umano. Le decisioni finali e le valutazioni critiche restano di competenza del professionista, che deve sempre verificare e validare i risultati prodotti dall’algoritmo. In questo modo si tutela la fiducia nel rapporto con il cliente e l’autonomia di giudizio del professionista.
È inoltre previsto un obbligo di trasparenza: chi utilizza strumenti di IA deve informare il cliente in modo chiaro sul loro impiego e sulle relative funzioni. Ad esempio, un avvocato che impiega un software per ricerche giurisprudenziali deve spiegare che la valutazione finale resta a suo carico.
La legge introduce anche obblighi formativi: ordini e associazioni professionali dovranno promuovere la formazione sull’uso responsabile dell’IA, per garantire che i professionisti conoscano i limiti, i rischi e le potenzialità di questi strumenti. In ogni caso, la responsabilità per eventuali errori o danni derivanti dall’uso dell’IA resta sempre in capo al professionista umano.
Implicazioni pratiche per i liberi professionisti
Tutte queste previsioni significano che figure come avvocati, consulenti del lavoro, notai, architetti, possono trarre vantaggio dall’IA (ad esempio per automatizzare ricerche, analisi di dati, bozze di documenti), ma devono farlo con grande trasparenza e prudenza. Devono informare i clienti dell’uso di tali strumenti e non delegare mai all’IA le decisioni ultime. Contrattualmente, potrebbe diventare buona prassi inserire nei mandati o nelle lettere di incarico una clausola che menziona l’eventuale uso di sistemi di IA a supporto dell’attività, con il consenso informato del cliente. Sul piano deontologico, molti ordini (come quello forense) stanno già emanando linee guida: ad esempio, si afferma che l’IA non può mai sostituire il rapporto umano con il cliente, e che l’avvocato deve sempre poter spiegare le ragioni delle proprie scelte indipendentemente dai suggerimenti della macchina. In definitiva, la Legge 132/2025 rassicura sia i professionisti sia i loro clienti che l’intelligenza artificiale sarà un ausilio e non un sostituto: il tocco umano resta centrale e insostituibile nell’attività professionale.
Sanità
La Legge 132/2025 disciplina l’uso dell’IA in ambito sanitario con un duplice obiettivo: favorire l’innovazione tecnologica in prevenzione, diagnosi e cura, e tutelare al contempo diritti del paziente ed etica medica.
L’IA può essere impiegata come supporto al medico, ma non può sostituirlo: la decisione finale resta sempre al professionista sanitario. I sistemi devono garantire sicurezza, accuratezza, trasparenza e non discriminazione, con verifiche e aggiornamenti periodici per evitare errori o decisioni obsolete.
È vietato usare l’IA per discriminare l’accesso alle cure in base a criteri come età, disabilità o condizione economica. Il paziente deve essere informato sull’impiego di tecnologie di IA nel proprio percorso di cura, per assicurare consapevolezza e fiducia.
Infine, la legge promuove l’uso dell’IA a favore delle persone con disabilità, incentivando soluzioni che migliorino accessibilità, autonomia e qualità della vita, nel rispetto di sicurezza ed etica.
Implicazioni per i professionisti sanitari
I medici, gli infermieri e gli altri operatori sanitari liberi professionisti potranno beneficiare dell’IA come alleato nella pratica clinica, ma dovranno integrare tali strumenti nei loro processi con cautela e trasparenza. Un radiologo freelance, ad esempio, potrà usare un software di visione artificiale per individuare lesioni difficili da vedere a occhio nudo, ma dovrà comunque rivedere personalmente le immagini e validare i risultati. Dovrà anche informare il paziente (o il medico richiedente) che è stata utilizzata tale tecnologia, e assicurarsi che il paziente comprenda che si tratta di un ausilio e non di un diagnosta autonomo. I responsabili scientifici di progetti di ricerca medica, poi, grazie alla legge 132 hanno ora un quadro normativo chiaro per utilizzare grandi quantità di dati sanitari (magari anonimizzzati) allo scopo di addestrare modelli IA: questo era un terreno incerto finora, ma con la nuova legge è stata data una base positiva a tali attività di ricerca, sempre bilanciando la tutela della dignità individuale con il progresso scientifico. In ogni caso, l’aggiornamento professionale sarà fondamentale: il personale sanitario dovrà essere formato nell’uso di questi nuovi strumenti, sia dal punto di vista tecnico (per interpretarli correttamente) sia da quello comunicativo (per spiegare ai pazienti il ruolo dell’IA). La legge, in conclusione, vede l’IA come un’opportunità per la sanità – diagnosi più precoci, terapie personalizzate, ottimizzazione delle risorse – ma traccia confini netti per evitare derive: nessuna decisione automatica irreversibile sulla salute, nessuna discriminazione e piena tutela dei dati e dei diritti del malato.
Diritto d’autore e proprietà intellettuale
La Legge 132/2025 dedica un capitolo alle professioni intellettuali, in particolare a quelle esercitate in forma autonoma, come l’attività legale, contabile, tecnica o medico-sanitaria. L’articolo 13 stabilisce un principio cardine: l’intelligenza artificiale può essere usata solo come supporto, mai in sostituzione del lavoro umano. Le decisioni, le valutazioni critiche e le scelte strategiche restano di competenza del professionista, mentre l’IA può affiancarlo in compiti analitici o operativi.
Questo principio tutela la fiducia e la responsabilità personale che caratterizzano il rapporto professionale. L’uso dell’IA non esonera dall’esercizio del giudizio umano: i risultati prodotti dagli algoritmi devono essere sempre verificati e interpretati dal professionista, che mantiene il primato della propria competenza. La legge riafferma così che il valore della professione risiede nella capacità critica, non replicabile da una macchina.
È previsto un obbligo di trasparenza verso il cliente: il professionista deve informare chiaramente quali strumenti di IA utilizza e con quali finalità. L’informazione deve essere fornita in linguaggio semplice, così da rendere il cliente consapevole del ruolo della tecnologia. Ad esempio, un avvocato che impieghi un software per ricerche giurisprudenziali deve chiarire che la selezione finale delle fonti e la loro interpretazione restano di sua esclusiva competenza.
La legge introduce anche obblighi formativi: ordini e associazioni professionali dovranno promuovere la formazione sull’uso corretto dell’IA, affinché i professionisti conoscano i principi di funzionamento, i limiti e i rischi, come errori o bias algoritmici. Un professionista formato sarà in grado di valutare con consapevolezza gli strumenti impiegati e di motivare le proprie decisioni.
Infine, la responsabilità per eventuali danni derivanti da un uso improprio dell’IA resta sempre in capo al professionista umano, che deve controllare l’affidabilità del sistema e la conformità alle regole deontologiche.
La legge delinea così un modello equilibrato di integrazione tra uomo e tecnologia, in cui l’IA è un supporto utile ma mai un sostituto dell’ingegno, del giudizio e della responsabilità personale.
Implicazioni per i liberi professionisti
Questa parte della legge interessa sia i creatori di contenuti sia gli sviluppatori di IA. Un fotografo o grafico freelance, ad esempio, saprà che le proprie opere creative rimangono tutelate anche se utilizza tool di IA per modificarle o migliorarle, purché il risultato sia frutto del suo estro (e potrà agire contro eventuali usi non autorizzati fatti da terzi). Tuttavia, lo stesso creativo non potrà rivendicare diritti esclusivi su un’immagine generata interamente da un algoritmo premendo un bottone, perché manca la sua “impronta personale” nell’opera. Dal lato opposto, un developer che addestra modelli IA avrà ora maggiore chiarezza su quali dati può lecitamente usare: potrà attingere a testi, foto, video disponibili online, ma dovrà implementare procedure per rispettare le riserve dei titolari. Il rischio legale di scraping selvaggio di dati aumenta: chi dovesse ignorare gli opt-out o sfruttare database altrui in modo non consentito, oltre a violare il copyright incorre direttamente nel nuovo reato previsto (art.171 co.1 lett. a-ter L.633/1941). In sintesi, la legge cerca di bilanciare innovazione e diritti d’autore: offre nuovi strumenti per usare contenuti in funzione dell’IA (favorendo ricerca e sviluppo), ma al contempo protegge i creatori sanzionando gli utilizzi indebiti delle loro opere nei processi di addestramento.
Nuove sanzioni penali legate all’uso dell’IA
La Legge 132/2025 introduce un importante pacchetto di norme penali per contrastare gli usi illeciti dell’intelligenza artificiale, creando nuovi reati e aggravando pene esistenti. L’obiettivo è chiaro: scoraggiare gli abusi e responsabilizzare chi impiega l’IA in modo dannoso.
Tra le principali novità vi è l’introduzione del reato di diffusione illecita di contenuti falsificati tramite IA, noto come legge anti-deepfake (nuovo art. 612-quater c.p.). La norma punisce chi, per danneggiare altri, diffonde senza consenso immagini, video o audio manipolati o generati da IA, idonei a ingannare sulla realtà dei fatti. Si tutela così la reputazione e l’identità delle persone contro l’uso malevolo dei deepfake, colmando un vuoto normativo lasciato dal solo “revenge porn”. Il reato è perseguibile a querela della vittima, salvo aggravanti come l’offesa a persone vulnerabili o a pubbliche autorità.
Accanto a questo, la legge introduce una nuova aggravante comune (art. 61, n. 11-decies c.p.) per ogni reato commesso mediante l’uso di IA. La pena aumenta se l’intelligenza artificiale ha rappresentato un mezzo insidioso, ha ostacolato la difesa o ha amplificato gli effetti del reato. L’aggravante si applica, ad esempio, a chi diffonde automaticamente fake news con software di IA per ledere la reputazione altrui, o a chi usa chatbot intelligenti per frodare più vittime contemporaneamente. Questa norma trasversale funge da monito: l’IA non deve diventare uno strumento per delinquere su larga scala.
La legge interviene anche su alcuni reati specifici, aggravandone le pene in caso di uso di IA:
- Per l’attentato ai diritti politici del cittadino (art. 294 c.p.), come la manipolazione di campagne elettorali o del voto tramite IA, la pena sale da 2 a 6 anni di reclusione, a tutela della democrazia e del processo elettorale.
- In ambito economico, l’art. 2637 c.c. (manipolazione del mercato) e l’art. 185 TUF (aggiotaggio informativo) prevedono ora pene da 2 a 7 anni e multe fino a 6 milioni di euro se il reato è commesso con l’ausilio di IA, riconoscendo il rischio di frodi finanziarie automatizzate e difficili da individuare.
Nel complesso, queste innovazioni segnano un passo decisivo verso una giustizia tecnologicamente consapevole: usare l’IA per commettere reati non attenua la colpa, ma la aggrava, riaffermando il principio che l’innovazione non può essere uno scudo contro la responsabilità penale.
Implicazioni per i liberi professionisti
La creazione di nuovi reati e aggravanti tocca indirettamente anche chi lavora in proprio. Un developer freelance dovrà valutare eticamente i progetti a cui collabora: sviluppare, ad esempio, deepfake su commissione di terzi potrebbe significare contribuire a un’attività criminale (diffamazione aggravata, 612-quater c.p., etc.). Un esperto di marketing o comunicazione dovrà stare attento a non diffondere contenuti alterati senza verifiche, perché se questi ledono qualcuno potrebbero configurare reati. Allo stesso modo, chi opera nel settore finanziario (consulenti, broker indipendenti) dovrà sapere che utilizzare algoritmi per manipolare mercati ora espone a rischi penali elevati. Anche la categoria degli avvocati penalisti dovrà aggiornarsi, perché nascono nuove fattispecie di cui difendersi o da contestare in giudizio: dal cliente accusato di aver messo online un deepfake incriminatorio, alla società imputata di non aver predisposto misure anti-abuso sui propri sistemi di IA (la legge prevede infatti, in via delegata, di definire responsabilità penali anche per omissioni di sicurezza negli algoritmi che causino pericoli per persone o Stato).
In conclusione, le nuove sanzioni penali introdotte dalla Legge 132/2025 segnalano la maturità del legislatore di fronte all’IA: accanto alla spinta innovativa e alle aperture (fondi per l’IA, sandbox normativi, ecc.), si pongono robusti paletti deterrenti. Per i liberi professionisti questo si traduce in un quadro normativo da conoscere approfonditamente: opportunità da cogliere (nuovi usi leciti dei dati, strumenti IA a supporto dell’attività professionale) ma anche rischi da evitare con cura, perché l’inosservanza delle regole sull’IA ora può portare non solo a sanzioni amministrative o civili, ma anche direttamente di fronte al giudice penale. La sfida è utilizzare l’intelligenza artificiale come leva di crescita e miglioramento del proprio lavoro, restando sempre entro i confini etico-legali che la nuova legge delinea.












