Il Regolamento (UE) 2024/1689 — EU AI Act — ha istituito il primo corpus normativo organico al mondo sull'intelligenza artificiale, con applicazione extraterritoriale su qualsiasi sistema AI che produca effetti sul territorio europeo. Il presente contributo esamina l'architettura tecnico-giuridica del Regolamento in chiave interdisciplinare: dalla formalizzazione matematica del rischio algoritmico ai requisiti tecnici di trasparenza e spiegabilità, dal quadro normativo internazionale comparato alla disciplina italiana di recepimento. L'obiettivo è fornire al consulente legale — e al responsabile tecnico aziendale — una mappa operativa precisa e fondata scientificamente.
1. Il Rischio AI: Fondamenti Matematici e Classificazione
Prima di analizzare il quadro normativo, è necessario comprendere la struttura matematica che sottende il concetto di rischio algoritmico. L'EU AI Act non definisce formalmente il rischio in termini quantitativi, ma la sua classificazione a piramide — inaccettabile, alto, limitato, minimale — è concettualmente coerente con i modelli di risk management sviluppati in statistica e ingegneria dei sistemi.
1.1 Entropia, Incertezza e Rischio Informativo
In teoria dell'informazione, l'entropia di Shannon H misura l'incertezza di un sistema probabilistico:
H(X) = − Σᵢ p(xᵢ) · log₂ p(xᵢ)
Un sistema AI ad alto rischio è, per definizione, un sistema che opera in domini dove l'incertezza dell'output — misurata sull'entropia della distribuzione predittiva — produce conseguenze materiali significative per individui o collettività. La norma traduce questo concetto tecnico in categoria giuridica: l'Allegato III del Regolamento elenca i settori in cui l'incertezza algoritmica non è tollerabile senza supervisione umana adeguata.
1.2 Loss Function, Bias e Responsabilità Legale
L'addestramento di un modello di machine learning minimizza una loss function L rispetto ai parametri θ del modello:
θ* = argminθ E[L(f(x; θ), y)]
Questa ottimizzazione avviene su un dataset di addestramento che, se statisticamente sbilanciato, produce un modello con bias sistematico: la distribuzione dei residui non è casuale ma correlata con attributi protetti (sesso, etnia, età). Dal punto di vista giuridico, un bias algoritmico documentato nel processo decisionale di un sistema ad alto rischio costituisce una violazione del principio di non discriminazione sancito dall'art. 10, par. 2, dell'EU AI Act — che impone l'utilizzo di dati di addestramento "liberi da errori e completi in relazione allo scopo previsto".
Il disparate impact ratio è la metrica standard per rilevare discriminazione algoritmica indiretta: DIr = P(Y=1|A=0) / P(Y=1|A=1), dove A è l'attributo protetto. Un valore DIr < 0,8 è soglia di allerta secondo le linee guida EEOC (USA) e CNIL (Francia). L'EU AI Act non fissa soglie numeriche, ma richiede che i provider documentino le misure adottate per la mitigazione del bias (art. 9).
2. Il Quadro Normativo Internazionale
La regolamentazione dell'AI è oggi un fenomeno genuinamente globale, con approcci profondamente differenti che riflettono diverse filosofie di governance.
2.1 Stati Uniti: Executive Order 14110 e NIST AI RMF
Il 30 ottobre 2023, il Presidente Biden ha firmato l'Executive Order on Safe, Secure, and Trustworthy AI (EO 14110), che ha imposto ai fornitori di sistemi AI "dual use foundation model" l'obbligo di notifica al governo federale dei risultati dei red team test e dei parametri di addestramento, applicando il Defense Production Act.
Parallelamente, il National Institute of Standards and Technology (NIST) ha pubblicato l'AI Risk Management Framework (AI RMF 1.0), un framework volontario articolato in quattro funzioni: Govern, Map, Measure, Manage. A differenza dell'approccio europeo basato su obblighi vincolanti, il modello statunitense privilegia la auto-regolamentazione industriale — salvo per i settori regolati (salute, finanza, energia).
2.2 Cina: Regolamentazione Settoriale e Algoritmica
La Cina ha adottato un approccio settoriale: le Misure interim sulla gestione dei servizi di AI generativa (luglio 2023) regolano specificamente i modelli tipo GPT, imponendo registrazione presso il CAC (Cyberspace Administration of China), valutazione di sicurezza preventiva, etichettatura dei contenuti sintetici e proibizione di generare contenuti che minaccino l'unità nazionale. Il quadro è integrato dalle precedenti misure sugli algoritmi di raccomandazione (2022) e sul deepfake (2022).
2.3 Regno Unito: Approccio Principles-Based
Post-Brexit, il UK ha scelto una strategia anti-frammentazione: nessuna legge settoriale sull'AI, ma cinque principi trasversali (sicurezza, trasparenza, equità, accountability, contestabilità) affidati alle autorità di settore esistenti (FCA, CMA, ICO, Ofcom). Il AI Safety Institute, inaugurato nel novembre 2023, è il primo ente governativo dedicato alla sicurezza dei frontier model a livello mondiale.
2.4 UNESCO e OCSE: La Soft Law Globale
La Raccomandazione UNESCO sull'etica dell'AI (novembre 2021, 193 Stati membri) costituisce il principale strumento di soft law globale: definisce undici valori fondamentali (rispetto per i diritti umani, welfare, inclusività, trasparenza, responsabilità, sostenibilità ambientale, privacy, multi-stakeholder governance, buona governance, partecipazione) e quaranta aree di policy action. Non è vincolante, ma costituisce la base di riferimento per le legislazioni nazionali, incluso l'EU AI Act.
I Principi OCSE sull'AI (2019, aggiornati 2024), adottati da 46 Paesi, hanno influenzato direttamente la definizione di "sistema AI" dell'EU AI Act.
3. Il Regolamento (UE) 2024/1689 — EU AI Act
Approvato dal Parlamento Europeo il 13 marzo 2024 e pubblicato nella Gazzetta Ufficiale UE il 12 luglio 2024, il Regolamento (UE) 2024/1689 è entrato in vigore il 1° agosto 2024, con applicazione progressiva: i sistemi vietati dal 2 febbraio 2025; i sistemi di uso generale dal 2 agosto 2025; i sistemi ad alto rischio dal 2 agosto 2026.
3.1 Architettura del Rischio: La Piramide Normativa
L'EU AI Act adotta una struttura regolatoria a piramide di rischio, ispirata all'approccio europeo alla product safety ma adattata alla specificità dei sistemi algoritmici:
| Livello | Definizione | Regime | Esempi |
|---|---|---|---|
| Vietato | Rischio inaccettabile per valori fondamentali UE | Divieto assoluto (art. 5) | Social scoring, biometric categorization, manipolazione subliminale, polizia predittiva su base personale |
| Alto rischio | Rischio significativo per salute, sicurezza o diritti fondamentali | Obblighi ex ante ed ex post (artt. 8-49) | Diagnostica medica, selezione del personale, scoring del credito, sistemi biometrici, infrastrutture critiche |
| Rischio limitato | Rischio di inganno sull'origine artificiale | Obblighi di trasparenza (artt. 50-52) | Chatbot, deepfake, generazione di contenuti sintetici |
| Minimale | Nessun rischio specifico identificato | Nessun obbligo specifico (codici di condotta volontari) | Filtri spam, AI nei videogiochi |
3.2 Sistemi Vietati (Art. 5)
Il divieto assoluto — applicabile dal 2 febbraio 2025 — colpisce le pratiche AI più lesive dei diritti fondamentali. Tra i sistemi vietati:
- Sistemi di scoring sociale da parte di autorità pubbliche che valutino la condotta delle persone fisiche per penalizzarle in contesti non correlati a quello in cui i dati sono stati raccolti;
- Sistemi di manipolazione subliminale che agiscono al di sotto della soglia della consapevolezza individuale per distorcere il comportamento in modo pregiudizievole;
- Sistemi di riconoscimento biometrico in tempo reale in spazi pubblici da parte delle autorità di contrasto (con eccezioni tassative per terrorismo, ricerca di minori scomparsi, identificazione di autori di reati gravi);
- Sistemi di classificazione biometrica che inferiscano caratteristiche protette (opinioni politiche, orientamento sessuale, etnia, religione);
- Sistemi di polizia predittiva individuale basati esclusivamente su profilazione.
3.3 Sistemi ad Alto Rischio: Obblighi di Conformità
I sistemi ad alto rischio sono elencati nell'Allegato III (sette categorie, da identificazione biometrica a istruzione, lavoro, servizi pubblici essenziali, contrasto, migrazione, giustizia). Per essi, il Regolamento impone un sistema completo di ex ante conformity assessment:
① Sistema di gestione del rischio per l'intero ciclo di vita (art. 9) — ② Governance dei dati di addestramento, validazione e test (art. 10) — ③ Documentazione tecnica (art. 11) — ④ Registrazione automatica dei log (art. 12) — ⑤ Trasparenza e comunicazione agli utenti (art. 13) — ⑥ Supervisione umana (art. 14) — ⑦ Accuratezza, robustezza e sicurezza informatica (art. 15) — ⑧ Registrazione nella banca dati UE (art. 71) — ⑨ Dichiarazione UE di conformità e marcatura CE
Il sistema di gestione del rischio previsto dall'art. 9 è un processo ciclico ispirato alla norma ISO/IEC 31000 e richiede: identificazione e analisi dei rischi noti e ragionevolmente prevedibili; stima e valutazione dei rischi per ogni scenario d'uso e uso improprio ragionevolmente prevedibile; adozione di misure di gestione del rischio adeguate; monitoraggio post-market.
3.4 Trasparenza e Spiegabilità: Il Requisito Tecnico Più Sfidante
L'art. 13 dell'EU AI Act impone che i sistemi ad alto rischio siano progettati per garantire trasparenza "sufficiente a consentire ai deployer di interpretare l'output del sistema e di utilizzarlo adeguatamente". L'art. 14 richiede che i sistemi permettano la supervisione umana effettiva, inclusa la capacità di "comprendere correttamente le capacità e i limiti pertinenti" del sistema.
Questi requisiti si traducono, nella prassi tecnica, nell'obbligo implicito di adottare metodologie di explainable AI (XAI). Le tecniche più diffuse sono:
Basata sulla teoria dei giochi cooperativi di Shapley, SHAP (Lundberg & Lee, 2017) assegna a ciascuna feature xᵢ un contributo φᵢ alla predizione f(x), calcolato come media ponderata sull'insieme di tutte le possibili coalizioni di feature. La somma dei valori SHAP equivale alla differenza tra la predizione del modello e il valore atteso: Σᵢ φᵢ = f(x) − E[f(X)]. È il metodo che meglio soddisfa i requisiti di completezza, consistenza e nullità richiesti dalle linee guida di governance algoritmica.
LIME (Ribeiro et al., 2016) approssima localmente qualsiasi modello black-box con un modello interpretabile (tipicamente lineare): data un'istanza x, genera perturbazioni x' nella vicinanza di x, raccoglie le predizioni f(x') del modello originale e addestra un modello interpretabile g su questi campioni pesati per la loro vicinanza a x. È model-agnostic: funziona su reti neurali profonde, gradient boosting, ensemble. La sua limitazione principale è la mancanza di garanzie globali di fedeltà.
3.5 Governance Istituzionale e Sanzioni
L'EU AI Act istituisce un ecosistema di governance multilivello: l'AI Office della Commissione Europea supervisiona i modelli AI di uso generale (GPAI) con parametri di addestramento superiori a 10²⁵ FLOPs; le Autorità nazionali competenti (designate dagli Stati entro agosto 2025) vigilano sull'applicazione negli usi specifici; il Forum Consultivo e il Comitato Europeo AI (composto da rappresentanti delle autorità nazionali) garantiscono coordinamento.
Violazioni dell'art. 5 (sistemi vietati): fino a € 35.000.000 o il 7% del fatturato mondiale annuo dell'esercizio precedente. Violazioni di altri obblighi del fornitore: fino a € 15.000.000 o il 3%. Dichiarazioni inesatte o fuorvianti alle autorità: fino a € 7.500.000 o l'1%. Per le PMI: sanzioni proporzionali al minore tra il massimale e il fatturato effettivo.
4. Il Quadro Normativo Italiano: L. 66/2024
L'Italia ha risposto all'EU AI Act con la Legge 9 agosto 2024, n. 66 (Disposizioni e delega al Governo in materia di intelligenza artificiale), pubblicata in Gazzetta Ufficiale il 9 agosto 2024, in vigore dal 24 agosto 2024. Si tratta di una legge quadro che:
- Stabilisce i principi fondamentali per lo sviluppo e l'utilizzo dell'AI nel rispetto dei diritti fondamentali, della trasparenza e della non discriminazione (art. 1);
- Delega il Governo a emanare decreti legislativi di adeguamento al diritto UE entro 12 mesi;
- Introduce disposizioni specifiche per PA, sistema giudiziario, settore medico e giornalismo: i magistrati non possono usare sistemi AI per adottare provvedimenti giurisdizionali; i medici mantengono la responsabilità clinica anche quando assistiti da AI diagnostica;
- Disciplina il copyright per le opere generate con supporto AI: in assenza di riconoscimento dell'apporto creativo umano, l'opera cade in pubblico dominio;
- Designa l'Agenzia per la Cybersicurezza Nazionale (ACN) e l'AgID come autorità nazionali competenti in attesa della designazione formale prevista dall'EU AI Act;
- Affida all'AGCOM la vigilanza sul rispetto degli obblighi di trasparenza per i sistemi di AI generativa nei media e nelle comunicazioni elettroniche.
Il D.L. 19/2024 (conv. L. 56/2024) ha istituito il Piano Transizione 5.0, che prevede crediti d'imposta fino al 45% per investimenti in tecnologie digitali — inclusi sistemi AI — che producano risparmio energetico. Il nesso tra adozione dell'AI e sostenibilità ambientale è oggi sia un requisito normativo (EU AI Act, considerando 91) che un incentivo fiscale concreto.
5. Governance Algoritmica: la Dimensione Tecnica
La compliance all'EU AI Act non è un esercizio documentale: richiede la comprensione e l'implementazione di specifiche tecniche di ingegneria del software e machine learning.
5.1 Explainability: SHAP, LIME e Oltre
Le due tecniche descritte in §1 — SHAP e LIME — coprono il 70-80% dei casi pratici di explainability richiesta dall'EU AI Act. Per reti neurali profonde (DNN), le tecniche di saliency mapping (Grad-CAM per le CNN; Attention Visualization per i Transformer) permettono di visualizzare le regioni dell'input che hanno maggiormente influenzato l'output. Queste visualizzazioni possono essere prodotte e allegate alla documentazione tecnica richiesta dall'art. 11 del Regolamento.
5.2 Bias Detection e Mitigation
Il processo di audit algoritmico per bias si articola in tre fasi: data audit (analisi della distribuzione del dataset per attributi protetti tramite metodi statistici: χ² test, Kolmogorov-Smirnov, t-test su sotto-campioni); model audit (calcolo delle metriche di fairness: equalized odds, demographic parity, individual fairness); mitigation (re-weighting dei campioni in fase di addestramento, adversarial debiasing, post-processing delle predizioni tramite calibrazione per gruppo).
5.3 Robustezza Avversariale e Cybersecurity
L'art. 15, par. 1, dell'EU AI Act impone che i sistemi ad alto rischio raggiungano "livelli adeguati di accuratezza, robustezza e cybersicurezza". La robustezza avversariale — resistenza agli adversarial examples, cioè input appositamente modificati per ingannare il modello — si valuta tramite adversarial attack benchmarks standardizzati (FGSM, PGD, AutoAttack). Le metodologie di difesa includono adversarial training, input smoothing, certifiable defenses basate sulla convexification dello spazio dei parametri. L'IEEE Std 1012 (IEEE, 2022) fornisce il framework di verifica e validazione applicabile ai sistemi AI safety-critical.
6. Implicazioni per il Consulente Legale
L'EU AI Act introduce una categoria nuova di responsabilità professionale che interseca diritto, ingegneria e statistica. Il consulente legale che assiste imprese nell'adeguamento al Regolamento deve essere in grado di:
- Classificare correttamente il sistema AI del cliente nella piramide del rischio, verificando l'applicabilità degli Allegati I e III — operazione che richiede comprensione tecnica del funzionamento del sistema;
- Strutturare il sistema di gestione del rischio ex art. 9 in modo che sia genuinamente operativo e non meramente documentale: ciò richiede la redazione di procedure tecniche di risk identification, non solo di policy aziendali;
- Valutare l'adeguatezza della documentazione tecnica ex art. 11: specifiche del sistema, dataset utilizzati, metriche di performance, test di robustezza, bias audit — documentazione che deve essere leggibile e verificabile da un'autorità di controllo tecnica;
- Gestire i contratti nella catena di fornitura AI: l'EU AI Act distingue il provider (chi sviluppa o immette sul mercato il sistema AI) dal deployer (chi lo utilizza in un contesto specifico). Le responsabilità sono diverse e la loro allocazione contrattuale richiede clausole specifiche di indennizzo, audit, notifica degli incidenti e aggiornamento post-market;
- Presidiare l'intersezione con il GDPR: molti sistemi AI ad alto rischio trattano dati personali — la DPIA (Data Protection Impact Assessment) può integrarsi con la valutazione d'impatto sui diritti fondamentali (FRIA) introdotta dall'art. 27 dell'EU AI Act per i deployer di sistemi ad alto rischio che impattano su persone fisiche.
Gli obblighi per i sistemi ad alto rischio (Allegato III) diventano applicabili il 2 agosto 2026. Le aziende hanno meno di 18 mesi per completare la conformity assessment, produrre la documentazione tecnica e registrare i propri sistemi nella banca dati UE. La finestra per definire contratti, procedure e audit interni è già aperta.
Conclusioni
L'EU AI Act segna l'ingresso definitivo del diritto nell'architettura interna dei sistemi intelligenti. Non è più sufficiente valutare le conseguenze giuridiche dell'output di un sistema AI: il Regolamento impone il presidio del processo di sviluppo, addestramento, validazione e monitoraggio del modello stesso. Questo richiede ai consulenti legali una competenza tecnica genuina — non una conoscenza superficiale del vocabolario dell'AI, ma la capacità di dialogare con data scientist, ingegneri del software e product manager su temi come bias detection, adversarial robustness, explainability e data governance.
Il parallelo con il GDPR del 2018 è istruttivo: i professionisti che compresero davvero la norma — non solo il testo ma le sue implicazioni architetturali sui sistemi informativi — hanno costruito posizioni di mercato durature. L'EU AI Act offre la stessa opportunità. Su una scala molto più grande.
Fonti e Riferimenti
- EU AI Act — Regolamento (UE) 2024/1689: eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32024R1689
- EU AI Office — Quadro normativo sull'AI: digital-strategy.ec.europa.eu
- NIST AI RMF 1.0 e Executive Order 14110: nist.gov/artificial-intelligence
- UNESCO — Raccomandazione sull'etica dell'AI (2021): unesdoc.unesco.org
- OCSE — Principi sull'AI (2019, aggiornati 2024): oecd.ai/en/ai-principles
- Legge 9 agosto 2024, n. 66 (Legge AI italiana): gazzettaufficiale.it
- AGCOM — Autorità per le garanzie nelle comunicazioni: agcom.it
- IEEE Std 1012-2016/2022 — System, Software, and Hardware Verification and Validation: standards.ieee.org
- SHAP — Lundberg, S. & Lee, S.-I. (2017). "A Unified Approach to Interpreting Model Predictions". NeurIPS 2017: arxiv.org/abs/1705.07874
- LIME — Ribeiro, M.T., Singh, S., & Guestrin, C. (2016). "'Why Should I Trust You?': Explaining the Predictions of Any Classifier". KDD 2016: arxiv.org/abs/1602.04938
- Shannon, C.E. (1948). "A Mathematical Theory of Communication". Bell System Technical Journal, 27(3), 379–423.