Abstract
Con la pubblicazione nella Gazzetta Ufficiale della Legge 23 settembre 2025, n. 132, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, l’Italia si è dotata di un quadro normativo nazionale che si affianca al Regolamento (UE) 2024/1689 (AI Act), suscitando interrogativi cruciali circa l’effettiva necessità di una disciplina domestica in presenza di un regolamento europeo in gran parte direttamente applicabile, salvo alcune limitate disposizioni di recepimento nazionale. Se da una parte la nuova Legge italiana sull’AI contiene disposizioni interessanti, con particolare riferimento alla sanità e alle disposizioni di carattere penale, nonchè alla necessaria individuazione delle authority italiane competenti in materia e alle norme sulla responsabilità civile e penale, dall’altra sono numerosi i richiami a concetti e principi già ampiamente regolamentati nell’AI Act. Tuttavia, da una lettura complessiva del testo di legge, emergono interessanti novità, con particolare riferimento all’utilizzo dei sistemi di AI nell’ambito della ricerca scientifica in campo medico. Il presente contributo intende analizzare la struttura, i contenuti e le implicazioni della legge italiana, interrogandosi criticamente sulla sua funzione nel contesto del principio di uniformità normativa europea e del carattere self-executing del regolamento unionale.
I. INTRODUZIONE: IL CONTESTO NORMATIVO EUROPEO E L’INTERVENTO DEL LEGISLATORE ITALIANO
1.1 Il Regolamento europeo 2024/1689: natura giuridica e ambito applicativo
Il Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, comunemente denominato AI Act, rappresenta il primo tentativo organico a livello sovranazionale di disciplinare l’intelligenza artificiale attraverso un approccio risk-based, che stratifica le obbligazioni in funzione del livello di rischio associato ai diversi sistemi di IA.
La scelta del regolamento quale strumento normativo non è casuale. L’articolo 288 del Trattato sul funzionamento dell’Unione europea (TFUE) stabilisce infatti che il regolamento “ha portata generale” ed è “obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri”. Tale caratteristica di immediata applicabilità e diretta efficacia distingue radicalmente il regolamento dalla direttiva, che richiede invece recepimento attraverso atti normativi nazionali.
Il legislatore europeo ha deliberatamente optato per questo strumento al fine di garantire:
– Uniformità normativa in tutti gli Stati membri, evitando frammentazioni che potrebbero ostacolare il mercato unico digitale;
– Certezza del diritto per gli operatori economici, che possono fare riferimento a un corpus normativo identico in tutta l’Unione;
– Prevenzione di fenomeni di forum shopping e di concorrenza normativa al ribasso tra gli Stati membri;
– Tutela omogenea dei diritti fondamentali in tutta l’Unione europea.
L’AI Act struttura la propria disciplina secondo una classificazione quadripartita dei sistemi di intelligenza artificiale:
1. Sistemi vietati (Titolo II, articoli 5-7), che presentano rischi inaccettabili per i diritti fondamentali;
2. Sistemi ad alto rischio (Titolo III, articoli 8-51), soggetti a obblighi stringenti in materia di valutazione della conformità, trasparenza, supervisione umana, accuratezza e robustezza;
3. Sistemi a rischio limitato (Titolo IV, articoli 52-54), per i quali valgono obblighi di trasparenza;
4. Sistemi a rischio minimo (che costituiscono la maggioranza dei sistemi di IA), per i quali il regolamento non impone specifici obblighi.
1.2 La scelta italiana: una legge nazionale di accompagnamento
In questo contesto, la scelta del legislatore italiano di adottare una legge nazionale sull’intelligenza artificiale solleva interrogativi di natura sistematica e costituzionale. L’articolo 1, comma 2, della L. 132/2025 stabilisce espressamente che “Le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024/1689”, mentre l’articolo 3, comma 5, afferma che “La presente legge non produce nuovi obblighi rispetto a quelli previsti dal regolamento (UE) 2024/1689 per i sistemi di intelligenza artificiale e per i modelli di intelligenza artificiale per finalità generali”.
Queste dichiarazioni di principio sollevano immediatamente un quesito fondamentale: se la legge italiana non introduce nuovi obblighi e deve comunque essere interpretata conformemente al regolamento europeo, quale funzione normativa assolve effettivamente? L’interrogativo acquisisce ulteriore pregnanza considerando che il regolamento, per sua natura giuridica, non necessita di atti normativi di implementazione per produrre i propri effetti negli ordinamenti nazionali.
Tuttavia emergono interessanti novità e sopratutto “nuovi diritti” che potrebbero consentire all’Italia di assumere un ruolo di innovatore e di guida Europea nel settore dell’IA.
La legge italiana si configura come un testo di 28 articoli, suddivisi in sei capi:
– Capo I: Principi e finalità (articoli 1-6)
– Capo II: Disposizioni di settore (articoli 7-18)
– Capo III: Strategia nazionale, autorità nazionali e azioni di promozione (articoli 19-24)
– Capo IV: Disposizioni a tutela degli utenti e in materia di diritto d’autore (articolo 25)
– Capo V: Disposizioni penali (articolo 26)
– Capo VI: Disposizioni finanziarie e finali (articoli 27-28)
II. ANALISI STRUTTURALE DELLA LEGGE 132/2025
2.1 I principi generali: tra ridondanza e specificazione
Il Capo I della legge italiana enuncia una serie di principi che, a un’analisi attenta, appaiono in larga parte già presenti nel tessuto normativo europeo. L’articolo 3, in particolare, elenca i seguenti principi:
– Rispetto dei diritti fondamentali e delle libertà costituzionali
– Trasparenza
– Proporzionalità
– Sicurezza
– Protezione dei dati personali
– Accuratezza
– Non discriminazione
– Parità di genere
– Sostenibilità
Questi principi sono già ampiamente contemplati dal Considerando 8 dell’AI Act, che richiama “i valori su cui si fonda l’Unione, quali dignità umana, libertà, uguaglianza, democrazia e Stato di diritto, e i diritti fondamentali”, nonché dall’articolo 4 del regolamento, che stabilisce obblighi in materia di sistemi di gestione dei rischi basati proprio su questi medesimi principi.
2.2 Le disposizioni di settore: innovazione o duplicazioni?
Il Capo II introduce disposizioni settoriali per ambiti specifici:
2.2.1 Sanità (articoli 7-10)
La legge dedica ampio spazio al settore sanitario, prevedendo:
– Obblighi di informazione per l’interessato sull’impiego di tecnologie di IA (art. 7, comma 3)
– Dichiarazione di rilevante interesse pubblico per i trattamenti di dati nella ricerca scientifica (art. 8, comma 1)
– Autorizzazione all’uso secondario di dati personali privi di elementi identificativi diretti (art. 8, comma 2)
– Istituzione di una piattaforma di intelligenza artificiale presso l’AGENAS (art. 10, comma 2)
Queste disposizioni, per quanto dettagliate, si sovrappongono parzialmente con la disciplina già prevista dall’AI Act per i sistemi ad alto rischio in ambito sanitario (Allegato III, punto 5, lettera b) del regolamento) e con il GDPR per quanto concerne il trattamento dei dati personali. L’articolo 9 del GDPR già contempla la possibilità di trattare dati relativi alla salute per finalità di ricerca scientifica, subordinandola a garanzie adeguate.
Non vi è, tuttavia, chi non veda un assetto innovativo di queste disposizioni. Ed in effetti particolare attenzione deve essere riposta all’utilizzo dell’AI in ambito ricerca scientifica, un settore che, se eccessivamente limitato dal pesante fardello del GDPR e, ora, del Regolamento AI, rischia di rallentare notevolmente il potenziale innovativo dell’Europa rispetto ad altri paesi con livello di tutela normativo decisamente più “leggero”. Ci si chiede tuttavia se sia opportuno affrontare la tematica a livello nazionale e non a livello europeo. E questa continua differenza normativa tra Stati europei, con fughe in avanti di questo o quel paese (che abbiamo già visto nell’ambito della Blockchain), potrebbe non essere la giusta risposta ad un problema reale: la pachidermica burocrazia europea e la sua estenuante limitazione alla libertà di impresa.
2.2.2 Lavoro (articoli 11-12)
In materia di lavoro, la legge istituisce l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro presso il Ministero del lavoro e delle politiche sociali, con compiti di monitoraggio e promozione della formazione.
Anche in questo caso, l’AI Act già contempla i sistemi di IA utilizzati nel contesto occupazionale tra i sistemi ad alto rischio (Allegato III, punto 4), sottoponendoli a specifici obblighi. L’istituzione di un osservatorio nazionale può certamente avere una funzione di coordinamento e supporto, ma difficilmente può essere considerata una necessità imprescindibile ai fini dell’applicazione del regolamento europeo.
2.2.3 Pubblica Amministrazione e Giustizia (articoli 14-15)
Le disposizioni relative all’impiego dell’IA nella pubblica amministrazione e nell’attività giudiziaria introducono il principio secondo cui l’intelligenza artificiale deve operare in “funzione strumentale e di supporto” all’attività umana, che mantiene la responsabilità esclusiva delle decisioni.
Questo principio è senza dubbio fondamentale, ma anche in questo caso esso è già implicito nella disciplina europea sulla supervisione umana (articolo 14 AI Act) e sull’accountability. La legge italiana ha il merito di renderlo esplicito, ma ciò poteva essere ottenuto attraverso circolari interpretative o linee guida amministrative, senza necessità di un intervento legislativo formale.
2.3 La governance nazionale: Autorità e strutture di coordinamento
Il Capo III introduce una complessa architettura di governance nazionale:
2.3.1 La Strategia nazionale per l’intelligenza artificiale
L’articolo 19 prevede l’elaborazione di una strategia nazionale per l’intelligenza artificiale, con aggiornamento almeno biennale, da parte della struttura della Presidenza del Consiglio competente in materia di innovazione tecnologica, d’intesa con le Autorità nazionali.
La strategia nazionale può certamente avere una funzione di indirizzo politico e di coordinamento delle iniziative pubbliche e private, ma questa funzione è di natura essenzialmente programmatica e non normativa. Si potrebbe obiettare che la strategia non necessitava di una base legislativa formale, potendo essere adottata attraverso atti di indirizzo politico-amministrativo.
2.3.2 Le Autorità nazionali: AgID e ACN
L’articolo 20 designa l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN) quali Autorità nazionali per l’intelligenza artificiale, con funzioni rispettivamente di:
– Promozione dell’innovazione e dello sviluppo dell’IA (AgID)
– Vigilanza e sicurezza (ACN)
Questa designazione è necessaria in quanto l’AI Act richiede espressamente agli Stati membri di identificare le proprie autorità competenti.
III. ANALISI CRITICA: LA NECESSITÀ DI UNA LEGGE NAZIONALE NELL’AMBITO DI UN REGOLAMENTO EUROPEO
3.1 Il principio di uniformità del diritto europeo
Il cuore della questione riguarda il rapporto tra regolamento europeo e legislazione nazionale. La giurisprudenza della Corte di Giustizia dell’Unione Europea ha ripetutamente affermato che il regolamento, in quanto direttamente applicabile, esclude in linea di principio la necessità di misure nazionali di attuazione che ne riproducano il contenuto.
Nella sentenza del 6 ottobre 1970, causa 9/70, Grad, la Corte ha affermato che “sarebbe incompatibile con l’effetto vincolante che l’articolo 189 [oggi 288 TFUE] attribuisce al regolamento considerare che uno Stato membro possa neutralizzare l’effetto di disposizioni contenute in esso mediante adozione di misure nazionali che le riproducano”.
Successivamente, nella sentenza del 3 dicembre 1992, causa C-241/89, SARPP, la Corte ha precisato che “i regolamenti sono direttamente applicabili e quindi, per la loro natura stessa, idonei a produrre effetti immediati. Di conseguenza, gli Stati membri non devono prendere misure di applicazione di un regolamento che nascondano, agli occhi dei soggetti dell’ordinamento, la natura comunitaria della norma e la sua diretta applicabilità”.
3.2 I limiti alla legislazione nazionale di accompagnamento
Alla luce di questa giurisprudenza consolidata, emerge con chiarezza che la legislazione nazionale di accompagnamento a un regolamento europeo è ammissibile solo entro limiti molto ristretti:
1. Quando il regolamento rinvia espressamente agli Stati membri per determinate scelte implementative (ad esempio, la designazione delle autorità competenti);
2. Quando esistono spazi di complementarietà non disciplinati dal regolamento europeo, purché le norme nazionali non entrino in conflitto con il diritto dell’Unione;
3. Quando si tratta di coordinare il regolamento europeo con altre normative nazionali preesistenti.
Applicando questi criteri alla L. 132/2025, emergono criticità significative:
3.2.1 Duplicazione normativa nei principi generali
Il Capo I della legge italiana, dedicato ai principi e alle finalità, appare in larga parte duplicativo dei principi già enunciati nell’AI Act. L’articolo 3 elenca principi (trasparenza, proporzionalità, non discriminazione, etc.) che sono già pienamente operanti in virtù del regolamento europeo e non necessitano di essere “tradotti” nella legislazione nazionale.
Questa duplicazione presenta due rischi:
– Rischio interpretativo: la riaffermazione di principi europei attraverso formulazioni leggermente diverse può generare incertezza interpretativa. Se il legislatore italiano utilizza una terminologia non perfettamente sovrapponibile a quella europea, potrebbero sorgere dubbi su quale sia la portata effettiva del principio applicabile;
– Rischio di oscuramento: come rilevato dalla Corte di Giustizia, la riproduzione di norme europee in atti nazionali può nascondere la natura europea della disciplina, rendendo meno chiaro agli operatori che il parametro di riferimento rimane sempre e comunque il regolamento europeo.
3.2.2 Sovrapposizioni settoriali problematiche
Le disposizioni settoriali del Capo II presentano sovrapposizioni significative con il regolamento europeo:
In materia sanitaria: l’AI Act già classifica i sistemi di IA utilizzati per diagnosi mediche come sistemi ad alto rischio (Allegato III, punto 5, lettera b), sottoponendoli a obblighi stringenti di valutazione della conformità, documentazione tecnica, tracciabilità, trasparenza e supervisione umana. La legge italiana aggiunge una disciplina ulteriore che, pur dichiarandosi conforme al regolamento, rischia di creare stratificazioni normative ridondanti.
In materia di lavoro: similmente, l’AI Act classifica i sistemi di IA utilizzati per assunzioni e gestione del personale come ad alto rischio (Allegato III, punto 4). L’istituzione di un Osservatorio nazionale può avere una funzione di monitoraggio utile, ma non costituisce una necessità ai fini dell’applicazione del regolamento.
3.3 Il problema della certezza del diritto
Una delle finalità principali del regolamento europeo è quella di garantire certezza del diritto attraverso l’uniformità normativa. L’introduzione di leggi nazionali di accompagnamento rischia di compromettere questo obiettivo.
Gli operatori economici che sviluppano o utilizzano sistemi di intelligenza artificiale si trovano ora di fronte a una duplice stratificazione normativa:
1. Il regolamento europeo, direttamente applicabile
2. La legge nazionale italiana
Anche se quest’ultima dichiara espressamente di non introdurre nuovi obblighi, la sua stessa esistenza genera interrogativi:
– In caso di apparente contrasto interpretativo tra una disposizione della legge italiana e il regolamento europeo, quale prevale?
– Le autorità nazionali applicheranno prevalentemente la legge italiana o il regolamento europeo?
– Gli operatori devono verificare la conformità rispetto al solo regolamento europeo o anche rispetto alle disposizioni italiane?
3.4 Il rischio di frammentazione del mercato unico digitale
L’adozione di leggi nazionali sull’intelligenza artificiale da parte dei diversi Stati membri rischia di vanificare uno degli obiettivi primari dell’AI Act: la creazione di un mercato unico digitale con regole uniformi.
Se ogni Stato membro adotta una propria legge nazionale che, pur dichiarandosi conforme al regolamento, introduce specificazioni, principi aggiuntivi o meccanismi di governance nazionale, si ricrea esattamente quella frammentazione normativa che il regolamento europeo intendeva superare.
Un’impresa che sviluppa sistemi di IA e intende operare in tutta l’Unione Europea dovrà:
– Conformarsi al regolamento europeo (obbligatorio)
– Verificare se esistono leggi nazionali nei diversi Stati membri
– Analizzare le eventuali specificazioni o obblighi aggiuntivi introdotti da ciascuna legislazione nazionale
– Adattare la propria compliance a 27 diversi contesti normativi nazionali
Questo scenario contraddice radicalmente la logica del regolamento europeo, che mira proprio a evitare questa frammentazione.
IV. LE RAGIONI DELL’INTERVENTO ITALIANO: ANALISI DELLE GIUSTIFICAZIONI POSSIBILI
4.1 L’ancoraggio costituzionale
Una prima possibile giustificazione dell’intervento legislativo italiano risiede nella volontà di ancorare la disciplina dell’intelligenza artificiale ai principi costituzionali nazionali. L’articolo 3, comma 1, della L. 132/2025 fa esplicito riferimento al “rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione”.
Questa giustificazione, tuttavia, appare debole poichè l’AI Act è stato adottato nel pieno rispetto della Carta dei diritti fondamentali dell’Unione Europea e mira espressamente a garantire “un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali” (articolo 1, paragrafo 1).
4.2 Le specificità nazionali
Una seconda giustificazione potrebbe risiedere nelle peculiarità del contesto nazionale italiano che richiederebbero specificazioni non contemplate dal regolamento europeo.
Questa argomentazione trova parziale fondamento per quanto riguarda:
4.2.1 L’organizzazione della governance nazionale
La designazione delle autorità competenti (AgID e ACN) e la creazione di meccanismi di coordinamento nazionale sono effettivamente ambiti in cui il regolamento europeo rimette agli Stati membri scelte organizzative. Tuttavia, anche in questo caso, la scelta di procedere attraverso una legge formale appare sovradimensionata: un decreto del Presidente del Consiglio dei Ministri sarebbe stato sufficiente e più flessibile.
4.2.2 Le strategie nazionali di promozione
La strategia nazionale per l’intelligenza artificiale (art. 19) e le misure di sostegno all’innovazione (art. 23) rientrano nell’ambito delle politiche industriali e di ricerca, che sono di competenza nazionale. In questo ambito, l’intervento legislativo ha una giustificazione più solida, trattandosi di misure di promozione e sostegno che si affiancano, senza sovrapporsi, alla disciplina regolatoria europea.
4.3 Il coordinamento con altre normative nazionali
Una terza giustificazione, forse la più solida, riguarda la necessità di coordinare il regolamento europeo con altre normative nazionali preesistenti, in particolare:
4.3.1 Le modifiche al codice penale
L’articolo 26 introduce rilevanti modifiche al codice penale italiano:
– Aggiunta dell’aggravante per i reati commessi mediante IA (art. 61, n. 11-decies c.p.)
– Aggravamento della pena per attentati ai diritti politici mediante IA (art. 294 c.p.)
– Introduzione del nuovo reato di illecita diffusione di contenuti generati con IA (art. 612-quater c.p.)
Queste disposizioni hanno una chiara giustificazione: il regolamento europeo non disciplina il diritto penale sostanziale, che rimane di competenza nazionale. L’adattamento del sistema penale italiano alla nuova realtà dell’intelligenza artificiale è quindi non solo legittimo, ma necessario.
4.3.2 Le modifiche alla legge sul diritto d’autore
L’articolo 25 modifica la legge italiana sul diritto d’autore (L. 633/1941) per:
– Precisare che la tutela spetta alle opere dell’ingegno umano, anche quando create con l’ausilio di IA (nuovo art. 1, comma 1)
– Disciplinare l’estrazione di testo e dati per l’addestramento di sistemi di IA (nuovo art. 70-septies)
Anche in questo caso, l’intervento ha una giustificazione solida, trattandosi di coordinare la disciplina europea con la normativa nazionale sul diritto d’autore, che presenta specificità nazionali significative.
V. LE DELEGHE AL GOVERNO: UN ULTERIORE LIVELLO DI COMPLESSITÀ
5.1 La delega per l’adeguamento al Regolamento europeo
L’articolo 24, comma 1, della L. 132/2025 conferisce al Governo una delega per l’adozione, entro dodici mesi, di decreti legislativi per “l’adeguamento della normativa nazionale al regolamento (UE) 2024/1689”.
L’articolo 24, comma 2, elenca una serie di principi e criteri direttivi, tra cui:
– Attribuzione alle autorità nazionali dei poteri di vigilanza, ispettivi e sanzionatori
– Modifiche alla normativa bancaria, finanziaria e assicurativa per l’adeguamento all’AI Act
– Ricorso alla disciplina secondaria delle autorità
– Previsione di percorsi di alfabetizzazione e formazione
Alcuni di questi interventi sono legittimi (ad esempio, l’attribuzione di poteri alle autorità nazionali), ma altri rischiano di introdurre un ulteriore strato normativo che si sovrappone al regolamento europeo.
5.2 Il rischio di gold-plating
Il termine “gold-plating” indica la tendenza degli Stati membri a introdurre, in sede di recepimento o attuazione della normativa europea, obblighi più stringenti o estesi rispetto a quelli richiesti dalle fonti europee.
Nel caso specifico, il rischio di gold-plating emerge con particolare evidenza nell’articolo 24, comma 2, lettera e), che prevede la “previsione di percorsi di alfabetizzazione e formazione in materia di utilizzo dei sistemi di intelligenza artificiale”. Pur trattandosi di un obiettivo encomiabile, la sua introduzione attraverso una delega legislativa rischia di creare obblighi ulteriori rispetto a quelli previsti dal regolamento europeo, contraddicendo la dichiarazione programmatica dell’articolo 3, comma 5, secondo cui la legge italiana “non produce nuovi obblighi”.
5.3 La delega in materia di responsabilità civile e penale
L’articolo 24, comma 3, conferisce al Governo una delega per “adeguare e specificare la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale”, con particolare riferimento alla responsabilità civile e penale.
Questa delega è significativa perché affronta un tema su cui il regolamento europeo è silente: la responsabilità civile per danni causati da sistemi di IA. Il regolamento si limita a stabilire obblighi per i fornitori e gli utilizzatori di sistemi di IA, ma non disciplina il regime di responsabilità extracontrattuale.
In questo ambito, la delega al Governo ha una giustificazione più solida, in quanto:
1. La responsabilità civile rimane di competenza nazionale;
2. Le norme italiane in materia di responsabilità extracontrattuale (artt. 2043 ss. c.c.) necessitano di un adattamento per tenere conto delle peculiarità dei sistemi di IA;
3. La Commissione europea ha adottato una proposta di direttiva sulla responsabilità civile per danni causati da IA (COM(2022) 496 final), ma questa non è ancora stata approvata.
L’Italia, attraverso questa delega, si propone di anticipare l’intervento europeo, introducendo una disciplina nazionale della responsabilità civile per danni causati da IA. Questa scelta è legittima, purché la futura normativa nazionale non entri in contrasto con l’eventuale direttiva europea quando questa sarà approvata.
VI. PROFILI DI COMPATIBILITÀ CON IL DIRITTO EUROPEO
6.1 Il primato del diritto europeo
Il primato del diritto dell’Unione Europea, affermato dalla Corte di Giustizia sin dalla sentenza del 15 luglio 1964, causa 6/64, Costa c. Enel, implica che “il diritto nato dal Trattato, derivante da una fonte autonoma, non potrebbe, a causa della sua natura, trovarsi giuridicamente sopraffatto da disposizioni di diritto interno, quali che siano, senza perdere il suo carattere comunitario e senza che sia posto in discussione il fondamento giuridico stesso della Comunità”.
Questo principio si applica pienamente anche ai regolamenti europei, che prevalgono su qualsiasi norma nazionale incompatibile, sia anteriore che successiva.
Nel caso della L. 132/2025, la questione della compatibilità con il diritto europeo si pone in termini diversi a seconda delle disposizioni:
6.1.1 Disposizioni conformi al regolamento europeo
Le disposizioni che si limitano a riaffermare principi o obblighi già previsti dal regolamento europeo non pongono problemi di compatibilità formale, ma sollevano la questione dell’utilità e dell’opportunità già analizzata. Dal punto di vista strettamente giuridico, queste disposizioni sono “inutilmente conformi”: non contrastano con il diritto europeo, ma non aggiungono nulla ad esso.
6.1.2 Disposizioni integrative in ambiti non regolati
Le disposizioni che introducono discipline in ambiti non regolati dal regolamento europeo (ad esempio, la strategia nazionale, le misure di promozione, le modifiche al codice penale) sono pienamente compatibili con il diritto europeo, in quanto operano in spazi di complementarietà.
6.1.3 Disposizioni potenzialmente problematiche
Alcune disposizioni della legge italiana potrebbero sollevare dubbi di compatibilità:
Articolo 8 (Ricerca scientifica in ambito sanitario): La dichiarazione di “rilevante interesse pubblico” per i trattamenti di dati nella ricerca scientifica e l’autorizzazione all’uso secondario di dati personali potrebbero entrare in tensione con il GDPR, che già disciplina in modo esaustivo il trattamento dei dati personali per finalità di ricerca scientifica (art. 89 GDPR).
Articolo 10 (Piattaforma di intelligenza artificiale in sanità): L’istituzione di una piattaforma nazionale di IA per il supporto ai professionisti sanitari, se non adeguatamente coordinata con i requisiti dell’AI Act per i sistemi ad alto rischio in ambito sanitario, potrebbe generare sovrapposizioni normative problematiche.
6.2 Il test di proporzionalità
Secondo la giurisprudenza della Corte di Giustizia, anche le misure nazionali che operano in ambiti non armonizzati dal diritto europeo devono comunque rispettare il principio di proporzionalità, ossia devono essere:
1. Idonee a conseguire l’obiettivo perseguito;
2. Necessarie (ossia non devono esistere misure alternative meno restrittive);
3. Proporzionate in senso stretto (ossia il sacrificio imposto non deve essere eccessivo rispetto ai benefici attesi).
Applicando questo test alla L. 132/2025, emergono criticità:
Idoneità: molte delle disposizioni della legge sono effettivamente idonee a conseguire gli obiettivi dichiarati (promozione dell’innovazione, tutela dei diritti fondamentali, etc.);
Necessità: qui sorgono i dubbi più rilevanti. Era davvero necessaria una legge di 28 articoli per conseguire obiettivi che in larga parte sono già perseguiti dal regolamento europeo?
Proporzionalità in senso stretto: l’introduzione di un ulteriore strato normativo, con i conseguenti costi di compliance per gli operatori e i rischi di incertezza interpretativa, appare sproporzionata rispetto ai benefici attesi, considerando che il regolamento europeo fornisce già un quadro esaustivo.
VII. PROSPETTIVE: VERSO UNA MAGGIORE ARMONIZZAZIONE O UNA FRAMMENTAZIONE CRESCENTE?
7.1 Il rischio di effetto domino
L’adozione di una legge nazionale sull’intelligenza artificiale da parte dell’Italia potrebbe innescare un “effetto domino”, incoraggiando altri Stati membri a seguire lo stesso percorso.
Se ogni Stato membro adottasse una propria legge nazionale che, pur dichiarandosi conforme al regolamento europeo, introduce specificazioni o meccanismi di governance nazionali, l’obiettivo di uniformità perseguito dall’AI Act verrebbe sostanzialmente vanificato.
Già oggi si osservano segnali in questa direzione: diversi Stati membri stanno discutendo l’opportunità di adottare legislazioni nazionali di accompagnamento. Se questa tendenza si consolidasse, ci troveremmo di fronte a un paradosso: un regolamento europeo, adottato proprio per garantire uniformità normativa, che viene di fatto “frammentato” da 27 legislazioni nazionali.
7.2 Il ruolo delle istituzioni europee
Di fronte a questo rischio, le istituzioni europee, in particolare la Commissione europea e la Corte di Giustizia, potrebbero dover intervenire per ribadire la primazia del regolamento e i limiti della legislazione nazionale di accompagnamento.
La Commissione europea, in qualità di custode dei Trattati, potrebbe avviare procedure di infrazione nei confronti degli Stati membri che adottano legislazioni nazionali incompatibili con il regolamento o che, pur formalmente conformi, rischiano di compromettere l’effetto utile del regolamento stesso.
La Corte di Giustizia, dal canto suo, potrebbe essere chiamata a pronunciarsi, in via pregiudiziale, sulla compatibilità di disposizioni nazionali con il regolamento europeo, ribadendo i principi di primazia e di effetto diretto del diritto europeo.
7.3 La necessità di un coordinamento tra Stati membri
Per evitare una frammentazione dannosa, sarebbe auspicabile un coordinamento tra Stati membri nell’interpretazione e nell’applicazione del regolamento europeo.
Il regolamento prevede meccanismi di cooperazione tra le autorità nazionali, in particolare attraverso il Comitato europeo per l’intelligenza artificiale (articolo 65 AI Act). Questo Comitato potrebbe svolgere un ruolo cruciale nel promuovere interpretazioni uniformi del regolamento, evitando che le specificità nazionali degenerino in frammentazione.
Inoltre, sarebbe utile che la Commissione europea adottasse linee guida interpretative del regolamento, fornendo agli Stati membri e agli operatori economici un punto di riferimento comune per l’applicazione delle disposizioni europee.
VIII. CONSIDERAZIONI FINALI: TRA DIRITTO E POLITICA
8.1 La legge italiana come atto di rivendicazione sovrana
Al di là delle considerazioni strettamente giuridiche, l’adozione della L. 132/2025 può essere interpretata anche in chiave politica, come un atto di rivendicazione della sovranità nazionale in un ambito, quello dell’intelligenza artificiale, che è sempre più regolato a livello sovranazionale.
Il legislatore italiano, attraverso questa legge, sembra voler affermare che, nonostante l’esistenza di un regolamento europeo, lo Stato mantiene un ruolo attivo nella governance dell’intelligenza artificiale, attraverso la definizione di strategie nazionali, l’istituzione di autorità nazionali e l’introduzione di specificazioni settoriali.
Questa rivendicazione è comprensibile sul piano politico, ma rischia di entrare in tensione con i principi giuridici del diritto europeo e con l’obiettivo di creare un mercato unico digitale.
8.2 Il bilanciamento tra esigenze nazionali e integrazione europea
Il caso della L. 132/2025 evidenzia una tensione più generale nel processo di integrazione europea: come bilanciare le esigenze di uniformità normativa, necessarie per il funzionamento del mercato unico, con le specificità nazionali e le istanze di legittimazione democratica a livello nazionale?
Il regolamento europeo rappresenta l’apice dell’integrazione normativa: una norma unica, direttamente applicabile in tutti gli Stati membri. Ma questo approccio, pur garantendo uniformità, può generare un deficit di legittimazione democratica, in quanto le scelte vengono assunte a livello europeo, con un coinvolgimento limitato dei parlamenti nazionali.
La legge italiana sull’intelligenza artificiale può essere vista come un tentativo di ricondurre la disciplina dell’IA nell’alveo del dibattito democratico nazionale, attraverso una discussione parlamentare e l’adozione di una legge formale.
Tuttavia, questo tentativo rischia di compromettere l’obiettivo di uniformità e di creare inefficienze economiche. La sfida, per il legislatore nazionale, è quella di trovare un punto di equilibrio: valorizzare le specificità nazionali e garantire la legittimazione democratica, senza compromettere l’obiettivo di integrazione europea.
8.3 Proposte future per una migliore armonizzazione
Alla luce delle criticità emerse, è possibile formulare alcune proposte per una migliore armonizzazione tra disciplina europea e interventi nazionali:
1. Limitare la legislazione nazionale agli ambiti essenziali: gli Stati membri dovrebbero limitarsi ad adottare misure nazionali solo negli ambiti espressamente rimessi alla loro competenza dal regolamento europeo (designazione delle autorità, sanzioni, etc.) o in ambiti non disciplinati dal regolamento (responsabilità civile, diritto penale);
2. Privilegiare atti di soft law: per quanto riguarda l’interpretazione e l’applicazione del regolamento, gli Stati membri dovrebbero privilegiare atti di soft law (linee guida, circolari, raccomandazioni) anziché leggi formali, per mantenere flessibilità e facilitare l’adeguamento alle evoluzioni interpretative a livello europeo;
3. Rafforzare il coordinamento europeo: il Comitato europeo per l’intelligenza artificiale dovrebbe svolgere un ruolo più incisivo nel promuovere interpretazioni uniformi del regolamento, attraverso l’adozione di linee guida vincolanti o di orientamenti interpretativi;
4. Monitorare l’impatto della legislazione nazionale: la Commissione europea dovrebbe monitorare sistematicamente l’adozione di legislazioni nazionali sull’IA negli Stati membri, valutandone l’impatto sull’uniformità normativa e, se necessario, avviando procedure di infrazione;
5. Promuovere best practices: gli Stati membri dovrebbero condividere le proprie esperienze e best practices nell’applicazione del regolamento, facilitando l’apprendimento reciproco e la convergenza interpretativa.
IX. CONCLUSIONI
L’adozione della Legge 23 settembre 2025, n. 132, rappresenta un passaggio significativo nella storia normativa italiana, configurandosi come il primo intervento legislativo organico in materia di intelligenza artificiale. Tuttavia, l’analisi condotta evidenzia criticità significative circa l’effettiva necessità di questo intervento normativo nel contesto di un regolamento europeo direttamente applicabile.
Non mancano, tuttavia, ambiti in cui l’intervento del legislatore italiano appare giustificato e necessario:
1. Diritto penale: le modifiche al codice penale introdotte dall’articolo 26 colmano lacune nel sistema sanzionatorio penale, ambito non disciplinato dal regolamento europeo;
2. Diritto d’autore: le modifiche alla legge sul diritto d’autore rappresentano un necessario coordinamento tra disciplina europea e specificità nazionali in materia di proprietà intellettuale;
3. Governance nazionale: la designazione delle autorità competenti e l’istituzione di meccanismi di coordinamento nazionale, pur potendo avvenire attraverso atti amministrativi, risponde a esigenze organizzative legittime;
4. Politiche di promozione: le misure di sostegno all’innovazione e alla ricerca rientrano nell’ambito delle politiche industriali nazionali e si affiancano, senza sovrapporsi, alla disciplina regolatoria europea.
Il paradosso della sovranità normativa
La legge italiana sull’intelligenza artificiale evidenzia un paradosso fondamentale del diritto europeo contemporaneo: nel momento in cui l’Unione Europea adotta strumenti normativi sempre più pervasivi e direttamente applicabili, come i regolamenti, gli Stati membri sentono l’esigenza di riaffermare la propria sovranità normativa attraverso l’adozione di legislazioni nazionali di accompagnamento, che rischiano però di compromettere l’obiettivo stesso di uniformità che i regolamenti perseguono.
Questo paradosso non si risolve attraverso l’affermazione aprioristica del primato del diritto europeo o della sovranità nazionale, ma richiede un difficile esercizio di bilanciamento: riconoscere la necessità di uniformità normativa in un’economia digitalizzata e globalizzata, senza però cancellare gli spazi di legittimazione democratica nazionale e le specificità dei singoli ordinamenti.
Per il futuro, sarebbe auspicabile che:
1. Il legislatore italiano, in sede di attuazione delle deleghe previste dall’articolo 24, adotti un approccio minimalista, limitandosi agli interventi strettamente necessari e evitando duplicazioni rispetto al regolamento europeo;
2. Le autorità nazionali (AgID e ACN) privilegino l’adozione di linee guida e atti di soft law per l’interpretazione e l’applicazione del regolamento, anziché invocare le disposizioni della legge italiana quando queste si limitano a riaffermare obblighi già previsti a livello europeo;
3. Gli operatori economici facciano riferimento prioritariamente al regolamento europeo, considerando la legge italiana solo per gli aspetti che effettivamente introducono specificazioni nazionali necessarie;
4. La Commissione europea monitori attentamente l’evoluzione delle legislazioni nazionali negli Stati membri, intervenendo tempestivamente in caso di derive frammentarie che compromettano l’obiettivo di uniformità;
5. La giurisprudenza, sia nazionale che europea, elabori criteri chiari per delimitare gli ambiti di legittima specificazione nazionale, evitando che ogni Stato membro si senta autorizzato ad adottare una propria “versione nazionale” del regolamento europeo.
Riflessione finale: tra tecnica e politica
L’intelligenza artificiale rappresenta una sfida che trascende i confini nazionali e richiede risposte coordinate a livello sovranazionale. Il Regolamento (UE) 2024/1689 costituisce un passo significativo in questa direzione, offrendo un quadro normativo armonizzato per l’intera Unione Europea.
La tentazione di riportare la disciplina dell’IA nell’alveo delle competenze nazionali è comprensibile, ma rischia di essere anacronistica. L’intelligenza artificiale, per sua natura, non conosce confini: un sistema di IA sviluppato in Italia può essere utilizzato in tutta Europa e nel mondo. La frammentazione normativa non tutela meglio i cittadini italiani, ma rischia solo di penalizzare le imprese italiane e di compromettere l’obiettivo di creare un’Europa digitale competitiva a livello globale.
La vera sfida, per il legislatore nazionale, non è quella di riaffermare la propria sovranità attraverso l’adozione di leggi ridondanti, ma quella di contribuire attivamente alla costruzione di uno spazio giuridico europeo in materia di intelligenza artificiale, caratterizzato da norme uniformi, interpretazioni condivise e meccanismi di governance cooperativa.
Solo così l’Europa potrà competere con altre aree del mondo (Stati Uniti, Cina) nella corsa all’intelligenza artificiale, senza rinunciare ai propri valori fondamentali di tutela dei diritti umani, trasparenza e accountability.
La Legge 132/2025 rappresenta, in questa prospettiva e salvo alcune eccezioni già indicate nel presente articolo, un’opportunità mancata
L’auspicio è che, in sede di attuazione delle deleghe e nell’evoluzione interpretativa della legge, si possa recuperare un approccio più sobrio e funzionale, che riconosca il primato del regolamento europeo come fonte primaria della disciplina sull’intelligenza artificiale e limiti l’intervento nazionale agli ambiti in cui esso è effettivamente necessario e giustificato.
Solo così si potrà costruire un sistema normativo che sia, al tempo stesso, efficace nella regolazione di un fenomeno complesso come l’intelligenza artificiale e rispettoso dei principi di uniformità, certezza del diritto e tutela del mercato unico digitale che sono alla base del progetto di integrazione europea.