L’Italia, l’Europa e la regolamentazione dell’intelligenza artificiale
- Giulia Cavallari
- 7 ott
- Tempo di lettura: 6 min
Il disegno di legge n. 1146 del 2024 che disciplina l’uso dell’intelligenza artificiale nel nostro Paese è stato approvato in via definitiva.
L’Italia è il primo Paese che, a livello europeo, disciplina sia lo sviluppo che l’adozione che la governance dei sistemi di intelligenza artificiale entro il perimetro dei diritti e principi costituzionali e dei diritti fondamentali che si dovranno ‘legare’ all’AI Act.
Sono stati individuati alcuni principi come quello di trasparenza o quelli relativi al controllo umano o anche quelli relativi a limiti settoriali in settori strategici come quello della sanità, del lavoro, della giustizia e della pubblica amministrazione. Il tutto legato al necessario rispetto dei diritti fondamentali oltre che della normativa comunitaria.
Come è stato evidenziato da Alessio Butti, sottosegretario con delega all’innovazione digitale, “l’Italia è il primo paese europeo con un quadro nazionale pienamente allineato all’AI Act. È una scelta che riporta l’innovazione nel perimetro dell’interesse generale, orientando l’IA a crescita, diritti e la piena tutela dei cittadini […]”.
Nel mese di settembre 2025 è stata approvata definitivamente la legge italiana sull’intelligenza artificiale che entrerà in vigore il prossimo 10 ottobre.
L’AI Act (regolamento europeo) entrato in vigore il 1 agosto 2024 è di fatto la prima legge sull’intelligenza artificiale e si inserisce in una vera e propria strategia digitale dell’Unione Europea insieme al GDPR, Digital Market Act, al Digital Service Act.
L’AI Act e i suoi obiettivi
L’AI Act è un regolamento europeo introdotto con la finalità e l’obiettivo di puntare alla creazione di un quadro normativo che sia armonizzato e che possa trovare applicazione nel territorio comunitario. Un regolamento pensato con un approccio basato sul rischio (risk based approach).
L’AI Act si basa proprio sul principio secondo il quale l’intelligenza artificiale deve essere sviluppata e al contempo utilizzata in maniera etica e nel rispetto dei principi e diritti fondamentali. Quindi un intelligenza artificiale che deve essere utilizzata in modo sicuro ed etico.
Soprattutto si tratta di un regolamento che punta alla creazione di un mercato unico per l’AI puntando alla libera circolazione e al riconoscimento dei sistemi di intelligenza artificiale che rispettino le norme comunitarie, ad un incremento della fiducia nell’AI cercando quindi di avere sistemi affidabili che rispettino i principi e i diritti fondamentali, a mitigare oltre che prevenire i rischi che potrebbero derivare da un uso non corretto dell’AI rappresentando quindi un potenziale rischio per la sicurezza a livello informatico o anche potenziale rischio per la sicurezza delle persone, a sostenere l’innovazione puntando ad uno sviluppo di sistemi di AI sicuri e in cui vi sia collaborazione oltre che cooperazione tra Stati.
La classificazione dei sistemi di AI sulla base del livello di rischio
Sono stati individuati quattro livelli di rischio.
Esistono sistemi di intelligenza artificiale che presentano un rischio inaccettabile vale a dire quei sistemi che contrastano con valori e principi fondamentali dell’Unione che contrastano con il concetto di stato di diritto e sono quindi soggetti a restrizioni molto forti.
Vi sono poi sistemi di intelligenza artificiale che presentano un rischio elevato e che possono, quindi, avere un impatto significativo sui diritti fondamentali, ma anche sulla sicurezza delle persone e sono quindi soggetti ad una serie di obblighi prima di essere utilizzati (come i sistemi di AI utilizzati in campo medico e/o sanitario).
Vi sono sistemi che presentano un rischio limitato che quindi possono anche influenzare gli utenti e i loro diritti, ma non comportano un rischio elevato. Si tratta di sistemi che devono comunque essere soggetti a requisiti di trasparenza proprio per dare la possibilità agli utenti di essere consapevoli e quindi di interagire con sistemi di intelligenza artificiale prestando maggiore attenzione.
Infine, vi sono sistemi che presentano un rischio minimo o rischio nullo vale a dire che si è in presenza di sistemi di intelligenza artificiale che non hanno impatto diretto sui diritti fondamentali o sulla sicurezza degli utenti e questi possono quinidi avere un margine di azione maggiore e una maggiore consapevolezza di star usando sistemi di AI che non comportano gravi rischi.
Gli ambiti di applicazione della legge italiana
La struttura del testo legislativo recentemente introdotto nel nostro ordinamento riguarda i principi generali con l’obiettivo di introdurre e perseguire una strategia nazionale sul tema dell’intelligenza artificiale con l’impegno di un costante aggiornamento da parte del Comitato interministeriale per la transizione digitale e del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri. Si tratta di una strategia chiave che servirà anche alla classe politica e al governo per muoversi nel terreno.
Il capo I individua i principi da rispettare oltre alle finalità che l’AI dovrebbe soddisfare. Il capo II prevede delle disposizioni più specifiche legate all’impiego dei sistemi di intelligenza artificiale in determinati settori cruciali come quello sanitario, quello della ricerca scientifica, quello del lavoro, quello della pubblica amministrazione e anche quello dell’amministrazione della giustizia. Il capo III individua invece le modalità per la redazione oltre che aggiornamento della strategia nazionale in tema di intelligenza artificiale. Il capo IV è relativo alla tutela del diritto d’autore. Il capo V è relativo alla tutela penale Il capo VI contiene le disposizioni finali e anche quelle finanziarie.
Le norme sull’intelligenza artificiale, sulla salute e sulla ricerca
La legge n.132 del 23 settembre 2025 (entrerà in vigore il 10 ottobre prossimo) regolamenta l’uso dell’intelligenza artificiale in ambito sanitario e si evidenzia come l’utilizzo di sistemi di intelligenza artificiale debba portare ad un miglioramento del sistema sanitario oltre che alla prevenzione e diagnosi e cura della persona tenendo conto sempre come ‘faro’ la protezione dei dati personali.
La scelta di procedere all’introduzione di sistemi di intelligenza artificiale nel sistema sanitario ha come finalità anche quella di promuovere “lo sviluppo, lo studio e diffusione di sistemi di intelligenza artificiale che migliorano le condizioni di vita delle persone con disabilità, agevolano l’accessibilità, la mobilità indipendente e l’autonomia, la sicurezza e i processi di inclusione sociale delle medesime persone”.
Quando si parla di salute, ricerca e di conseguenza di affronta il tema della sperimentazione scientifica sorge anche la necessità di
Intelligenza artificiale e diritto penale
L’intervento legislativo di cui striamo parlando ha toccato anche l’ambito del diritto penale perché si è deciso di introdurre delle aggravanti nel testo del codice penale come ad esempio una nuova aggravante per reati commessi con sistemi di intelligenza artificiale, oppure l’aggravante speciale negli attentati ai diritti politici tramite intelligenza artificiale o ancora l’introduzione del reato di diffusione illecita di contenuti manipolati con intelligenza artificiale.
L’introduzione di aggravanti per tipologie di reato già presenti nel codice penale evidenzia come il legislatore abbia sentito la necessità di intervenire in materia visto il sempre più frequente utilizzo di sistemi informatici per scopi e finalità illecite.
Chiaramente questo è sicuramente un primo passo compiuto, ma che nel corso dei prossimi mesi o anni sarà necessario che il legislatore si mostri pronto a intervenire laddove le fattispecie di reato richiederanno un ‘adeguamento’ ai tempi anche se sappiamo che lo sviluppo della tecnologia e quindi anche dei suoi lati negativi è sempre ‘un passo avanti’ anche a quello del legislatore.
Ddl AI e la materia del lavoro
Il Ddl AI è intervenuto anche sulla materia riguardante il lavoro perché è stato specificato che l’intelligenza artificiale verrà utilizzata e impiegata per puntare ad un miglioramento delle condizioni di lavoro oltre che alla tutela della “integrità psicofisica dei lavoratori” e anche per aumentare la qualità delle prestazioni lavorative e la produttività dei lavoratori nel rispetto della normativa comunitaria.
Il ricorso all’intelligenza artificiale nel settore del mondo del lavoro dovrebbe avere come obiettivo quello di essere affidabile e sicuro senza contrastare con i principi fondamentali come la dignità umana e nel pieno rispetto della tutela dei dati personali.
Inoltre, il ricorso all’intelligenza artificiale in questo ambito dovrebbe avere come quello di ridurre le discriminazioni garantendo il completo rispetto dei diritti inviolabili dell’uomo come persona e come lavoratore.
La ‘gestione’ e l’uso dell’intelligenza artificiale nel mondo del lavoro dovrà portare all’istituzione dell’Osservatorrio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro con l’obiettivo di costruire una vera e propria strategia sull’uso dell’intelligenza artificiale nel mondo del lavoro e per capire quale impatto protrebbe avere nel prossimo futuro nel nostro Paese.
Conclusioni
Il Professor Pollicino (UniBocconi) ha evidenziato come “il provvedimento può essere considerato a ragione un passo fondativo nella regolamentazione dell’AI e segna l’avvio di un quadro normativo nazionale organico volto a bilanciare sviluppo tecnologico, tutela dei diritti, sicurezza nazionale, esigenze economiche e responsabilità istituzionali, raccordando la già avviata e ampia disciplina comunitaria sulla materia AI […].
L’intelligenza artificiale con la sua evoluzione può portare a trasformazione più o meno profonde della realtà che ci circonda, della società e dell’economia degli Stati, ma può anche presentare rischi più o meno insidiosi per i diritti, per la sicurezza (anche quella informatica) o per il buon funzionamento anche del mercato unico.




Commenti