AI & Legal Tech

EU AI Act e Governance Algoritmica:
l'architettura normativa di un nuovo ordine tecnologico

Analisi tecnico-giuridica del Regolamento (UE) 2024/1689 e del quadro normativo internazionale sull'intelligenza artificiale: dalla classificazione matematica del rischio alla spiegabilità dei modelli, dalle obbligazioni di conformità alle implicazioni per il consulente legale.

Abstract

Il Regolamento (UE) 2024/1689 — EU AI Act — ha istituito il primo corpus normativo organico al mondo sull'intelligenza artificiale, con applicazione extraterritoriale su qualsiasi sistema AI che produca effetti sul territorio europeo. Il presente contributo esamina l'architettura tecnico-giuridica del Regolamento in chiave interdisciplinare: dalla formalizzazione matematica del rischio algoritmico ai requisiti tecnici di trasparenza e spiegabilità, dal quadro normativo internazionale comparato alla disciplina italiana di recepimento. L'obiettivo è fornire al consulente legale — e al responsabile tecnico aziendale — una mappa operativa precisa e fondata scientificamente.

1. Il Rischio AI: Fondamenti Matematici e Classificazione

Prima di analizzare il quadro normativo, è necessario comprendere la struttura matematica che sottende il concetto di rischio algoritmico. L'EU AI Act non definisce formalmente il rischio in termini quantitativi, ma la sua classificazione a piramide — inaccettabile, alto, limitato, minimale — è concettualmente coerente con i modelli di risk management sviluppati in statistica e ingegneria dei sistemi.

1.1 Entropia, Incertezza e Rischio Informativo

In teoria dell'informazione, l'entropia di Shannon H misura l'incertezza di un sistema probabilistico:

H(X) = − Σᵢ p(xᵢ) · log₂ p(xᵢ)

Un sistema AI ad alto rischio è, per definizione, un sistema che opera in domini dove l'incertezza dell'output — misurata sull'entropia della distribuzione predittiva — produce conseguenze materiali significative per individui o collettività. La norma traduce questo concetto tecnico in categoria giuridica: l'Allegato III del Regolamento elenca i settori in cui l'incertezza algoritmica non è tollerabile senza supervisione umana adeguata.

1.2 Loss Function, Bias e Responsabilità Legale

L'addestramento di un modello di machine learning minimizza una loss function L rispetto ai parametri θ del modello:

θ* = argminθ E[L(f(x; θ), y)]

Questa ottimizzazione avviene su un dataset di addestramento che, se statisticamente sbilanciato, produce un modello con bias sistematico: la distribuzione dei residui non è casuale ma correlata con attributi protetti (sesso, etnia, età). Dal punto di vista giuridico, un bias algoritmico documentato nel processo decisionale di un sistema ad alto rischio costituisce una violazione del principio di non discriminazione sancito dall'art. 10, par. 2, dell'EU AI Act — che impone l'utilizzo di dati di addestramento "liberi da errori e completi in relazione allo scopo previsto".

Nota tecnica — Disparate Impact

Il disparate impact ratio è la metrica standard per rilevare discriminazione algoritmica indiretta: DIr = P(Y=1|A=0) / P(Y=1|A=1), dove A è l'attributo protetto. Un valore DIr < 0,8 è soglia di allerta secondo le linee guida EEOC (USA) e CNIL (Francia). L'EU AI Act non fissa soglie numeriche, ma richiede che i provider documentino le misure adottate per la mitigazione del bias (art. 9).

2. Il Quadro Normativo Internazionale

La regolamentazione dell'AI è oggi un fenomeno genuinamente globale, con approcci profondamente differenti che riflettono diverse filosofie di governance.

2.1 Stati Uniti: Executive Order 14110 e NIST AI RMF

Il 30 ottobre 2023, il Presidente Biden ha firmato l'Executive Order on Safe, Secure, and Trustworthy AI (EO 14110), che ha imposto ai fornitori di sistemi AI "dual use foundation model" l'obbligo di notifica al governo federale dei risultati dei red team test e dei parametri di addestramento, applicando il Defense Production Act.

Parallelamente, il National Institute of Standards and Technology (NIST) ha pubblicato l'AI Risk Management Framework (AI RMF 1.0), un framework volontario articolato in quattro funzioni: Govern, Map, Measure, Manage. A differenza dell'approccio europeo basato su obblighi vincolanti, il modello statunitense privilegia la auto-regolamentazione industriale — salvo per i settori regolati (salute, finanza, energia).

2.2 Cina: Regolamentazione Settoriale e Algoritmica

La Cina ha adottato un approccio settoriale: le Misure interim sulla gestione dei servizi di AI generativa (luglio 2023) regolano specificamente i modelli tipo GPT, imponendo registrazione presso il CAC (Cyberspace Administration of China), valutazione di sicurezza preventiva, etichettatura dei contenuti sintetici e proibizione di generare contenuti che minaccino l'unità nazionale. Il quadro è integrato dalle precedenti misure sugli algoritmi di raccomandazione (2022) e sul deepfake (2022).

2.3 Regno Unito: Approccio Principles-Based

Post-Brexit, il UK ha scelto una strategia anti-frammentazione: nessuna legge settoriale sull'AI, ma cinque principi trasversali (sicurezza, trasparenza, equità, accountability, contestabilità) affidati alle autorità di settore esistenti (FCA, CMA, ICO, Ofcom). Il AI Safety Institute, inaugurato nel novembre 2023, è il primo ente governativo dedicato alla sicurezza dei frontier model a livello mondiale.

2.4 UNESCO e OCSE: La Soft Law Globale

La Raccomandazione UNESCO sull'etica dell'AI (novembre 2021, 193 Stati membri) costituisce il principale strumento di soft law globale: definisce undici valori fondamentali (rispetto per i diritti umani, welfare, inclusività, trasparenza, responsabilità, sostenibilità ambientale, privacy, multi-stakeholder governance, buona governance, partecipazione) e quaranta aree di policy action. Non è vincolante, ma costituisce la base di riferimento per le legislazioni nazionali, incluso l'EU AI Act.

I Principi OCSE sull'AI (2019, aggiornati 2024), adottati da 46 Paesi, hanno influenzato direttamente la definizione di "sistema AI" dell'EU AI Act.

3. Il Regolamento (UE) 2024/1689 — EU AI Act

Approvato dal Parlamento Europeo il 13 marzo 2024 e pubblicato nella Gazzetta Ufficiale UE il 12 luglio 2024, il Regolamento (UE) 2024/1689 è entrato in vigore il 1° agosto 2024, con applicazione progressiva: i sistemi vietati dal 2 febbraio 2025; i sistemi di uso generale dal 2 agosto 2025; i sistemi ad alto rischio dal 2 agosto 2026.

3.1 Architettura del Rischio: La Piramide Normativa

L'EU AI Act adotta una struttura regolatoria a piramide di rischio, ispirata all'approccio europeo alla product safety ma adattata alla specificità dei sistemi algoritmici:

LivelloDefinizioneRegimeEsempi
Vietato Rischio inaccettabile per valori fondamentali UE Divieto assoluto (art. 5) Social scoring, biometric categorization, manipolazione subliminale, polizia predittiva su base personale
Alto rischio Rischio significativo per salute, sicurezza o diritti fondamentali Obblighi ex ante ed ex post (artt. 8-49) Diagnostica medica, selezione del personale, scoring del credito, sistemi biometrici, infrastrutture critiche
Rischio limitato Rischio di inganno sull'origine artificiale Obblighi di trasparenza (artt. 50-52) Chatbot, deepfake, generazione di contenuti sintetici
Minimale Nessun rischio specifico identificato Nessun obbligo specifico (codici di condotta volontari) Filtri spam, AI nei videogiochi

3.2 Sistemi Vietati (Art. 5)

Il divieto assoluto — applicabile dal 2 febbraio 2025 — colpisce le pratiche AI più lesive dei diritti fondamentali. Tra i sistemi vietati:

  • Sistemi di scoring sociale da parte di autorità pubbliche che valutino la condotta delle persone fisiche per penalizzarle in contesti non correlati a quello in cui i dati sono stati raccolti;
  • Sistemi di manipolazione subliminale che agiscono al di sotto della soglia della consapevolezza individuale per distorcere il comportamento in modo pregiudizievole;
  • Sistemi di riconoscimento biometrico in tempo reale in spazi pubblici da parte delle autorità di contrasto (con eccezioni tassative per terrorismo, ricerca di minori scomparsi, identificazione di autori di reati gravi);
  • Sistemi di classificazione biometrica che inferiscano caratteristiche protette (opinioni politiche, orientamento sessuale, etnia, religione);
  • Sistemi di polizia predittiva individuale basati esclusivamente su profilazione.

3.3 Sistemi ad Alto Rischio: Obblighi di Conformità

I sistemi ad alto rischio sono elencati nell'Allegato III (sette categorie, da identificazione biometrica a istruzione, lavoro, servizi pubblici essenziali, contrasto, migrazione, giustizia). Per essi, il Regolamento impone un sistema completo di ex ante conformity assessment:

Obblighi principali — Fornitori di sistemi ad alto rischio (art. 16)

① Sistema di gestione del rischio per l'intero ciclo di vita (art. 9) — ② Governance dei dati di addestramento, validazione e test (art. 10) — ③ Documentazione tecnica (art. 11) — ④ Registrazione automatica dei log (art. 12) — ⑤ Trasparenza e comunicazione agli utenti (art. 13) — ⑥ Supervisione umana (art. 14) — ⑦ Accuratezza, robustezza e sicurezza informatica (art. 15) — ⑧ Registrazione nella banca dati UE (art. 71) — ⑨ Dichiarazione UE di conformità e marcatura CE

Il sistema di gestione del rischio previsto dall'art. 9 è un processo ciclico ispirato alla norma ISO/IEC 31000 e richiede: identificazione e analisi dei rischi noti e ragionevolmente prevedibili; stima e valutazione dei rischi per ogni scenario d'uso e uso improprio ragionevolmente prevedibile; adozione di misure di gestione del rischio adeguate; monitoraggio post-market.

3.4 Trasparenza e Spiegabilità: Il Requisito Tecnico Più Sfidante

L'art. 13 dell'EU AI Act impone che i sistemi ad alto rischio siano progettati per garantire trasparenza "sufficiente a consentire ai deployer di interpretare l'output del sistema e di utilizzarlo adeguatamente". L'art. 14 richiede che i sistemi permettano la supervisione umana effettiva, inclusa la capacità di "comprendere correttamente le capacità e i limiti pertinenti" del sistema.

Questi requisiti si traducono, nella prassi tecnica, nell'obbligo implicito di adottare metodologie di explainable AI (XAI). Le tecniche più diffuse sono:

SHAP — SHapley Additive exPlanations

Basata sulla teoria dei giochi cooperativi di Shapley, SHAP (Lundberg & Lee, 2017) assegna a ciascuna feature xᵢ un contributo φᵢ alla predizione f(x), calcolato come media ponderata sull'insieme di tutte le possibili coalizioni di feature. La somma dei valori SHAP equivale alla differenza tra la predizione del modello e il valore atteso: Σᵢ φᵢ = f(x) − E[f(X)]. È il metodo che meglio soddisfa i requisiti di completezza, consistenza e nullità richiesti dalle linee guida di governance algoritmica.

LIME — Local Interpretable Model-agnostic Explanations

LIME (Ribeiro et al., 2016) approssima localmente qualsiasi modello black-box con un modello interpretabile (tipicamente lineare): data un'istanza x, genera perturbazioni x' nella vicinanza di x, raccoglie le predizioni f(x') del modello originale e addestra un modello interpretabile g su questi campioni pesati per la loro vicinanza a x. È model-agnostic: funziona su reti neurali profonde, gradient boosting, ensemble. La sua limitazione principale è la mancanza di garanzie globali di fedeltà.

3.5 Governance Istituzionale e Sanzioni

L'EU AI Act istituisce un ecosistema di governance multilivello: l'AI Office della Commissione Europea supervisiona i modelli AI di uso generale (GPAI) con parametri di addestramento superiori a 10²⁵ FLOPs; le Autorità nazionali competenti (designate dagli Stati entro agosto 2025) vigilano sull'applicazione negli usi specifici; il Forum Consultivo e il Comitato Europeo AI (composto da rappresentanti delle autorità nazionali) garantiscono coordinamento.

Sanzioni (art. 99)

Violazioni dell'art. 5 (sistemi vietati): fino a € 35.000.000 o il 7% del fatturato mondiale annuo dell'esercizio precedente. Violazioni di altri obblighi del fornitore: fino a € 15.000.000 o il 3%. Dichiarazioni inesatte o fuorvianti alle autorità: fino a € 7.500.000 o l'1%. Per le PMI: sanzioni proporzionali al minore tra il massimale e il fatturato effettivo.

4. Il Quadro Normativo Italiano: L. 66/2024

L'Italia ha risposto all'EU AI Act con la Legge 9 agosto 2024, n. 66 (Disposizioni e delega al Governo in materia di intelligenza artificiale), pubblicata in Gazzetta Ufficiale il 9 agosto 2024, in vigore dal 24 agosto 2024. Si tratta di una legge quadro che:

  • Stabilisce i principi fondamentali per lo sviluppo e l'utilizzo dell'AI nel rispetto dei diritti fondamentali, della trasparenza e della non discriminazione (art. 1);
  • Delega il Governo a emanare decreti legislativi di adeguamento al diritto UE entro 12 mesi;
  • Introduce disposizioni specifiche per PA, sistema giudiziario, settore medico e giornalismo: i magistrati non possono usare sistemi AI per adottare provvedimenti giurisdizionali; i medici mantengono la responsabilità clinica anche quando assistiti da AI diagnostica;
  • Disciplina il copyright per le opere generate con supporto AI: in assenza di riconoscimento dell'apporto creativo umano, l'opera cade in pubblico dominio;
  • Designa l'Agenzia per la Cybersicurezza Nazionale (ACN) e l'AgID come autorità nazionali competenti in attesa della designazione formale prevista dall'EU AI Act;
  • Affida all'AGCOM la vigilanza sul rispetto degli obblighi di trasparenza per i sistemi di AI generativa nei media e nelle comunicazioni elettroniche.
Piano Transizione 5.0 — Incentivi all'adozione responsabile dell'AI

Il D.L. 19/2024 (conv. L. 56/2024) ha istituito il Piano Transizione 5.0, che prevede crediti d'imposta fino al 45% per investimenti in tecnologie digitali — inclusi sistemi AI — che producano risparmio energetico. Il nesso tra adozione dell'AI e sostenibilità ambientale è oggi sia un requisito normativo (EU AI Act, considerando 91) che un incentivo fiscale concreto.

5. Governance Algoritmica: la Dimensione Tecnica

La compliance all'EU AI Act non è un esercizio documentale: richiede la comprensione e l'implementazione di specifiche tecniche di ingegneria del software e machine learning.

5.1 Explainability: SHAP, LIME e Oltre

Le due tecniche descritte in §1 — SHAP e LIME — coprono il 70-80% dei casi pratici di explainability richiesta dall'EU AI Act. Per reti neurali profonde (DNN), le tecniche di saliency mapping (Grad-CAM per le CNN; Attention Visualization per i Transformer) permettono di visualizzare le regioni dell'input che hanno maggiormente influenzato l'output. Queste visualizzazioni possono essere prodotte e allegate alla documentazione tecnica richiesta dall'art. 11 del Regolamento.

5.2 Bias Detection e Mitigation

Il processo di audit algoritmico per bias si articola in tre fasi: data audit (analisi della distribuzione del dataset per attributi protetti tramite metodi statistici: χ² test, Kolmogorov-Smirnov, t-test su sotto-campioni); model audit (calcolo delle metriche di fairness: equalized odds, demographic parity, individual fairness); mitigation (re-weighting dei campioni in fase di addestramento, adversarial debiasing, post-processing delle predizioni tramite calibrazione per gruppo).

5.3 Robustezza Avversariale e Cybersecurity

L'art. 15, par. 1, dell'EU AI Act impone che i sistemi ad alto rischio raggiungano "livelli adeguati di accuratezza, robustezza e cybersicurezza". La robustezza avversariale — resistenza agli adversarial examples, cioè input appositamente modificati per ingannare il modello — si valuta tramite adversarial attack benchmarks standardizzati (FGSM, PGD, AutoAttack). Le metodologie di difesa includono adversarial training, input smoothing, certifiable defenses basate sulla convexification dello spazio dei parametri. L'IEEE Std 1012 (IEEE, 2022) fornisce il framework di verifica e validazione applicabile ai sistemi AI safety-critical.

6. Implicazioni per il Consulente Legale

L'EU AI Act introduce una categoria nuova di responsabilità professionale che interseca diritto, ingegneria e statistica. Il consulente legale che assiste imprese nell'adeguamento al Regolamento deve essere in grado di:

  1. Classificare correttamente il sistema AI del cliente nella piramide del rischio, verificando l'applicabilità degli Allegati I e III — operazione che richiede comprensione tecnica del funzionamento del sistema;
  2. Strutturare il sistema di gestione del rischio ex art. 9 in modo che sia genuinamente operativo e non meramente documentale: ciò richiede la redazione di procedure tecniche di risk identification, non solo di policy aziendali;
  3. Valutare l'adeguatezza della documentazione tecnica ex art. 11: specifiche del sistema, dataset utilizzati, metriche di performance, test di robustezza, bias audit — documentazione che deve essere leggibile e verificabile da un'autorità di controllo tecnica;
  4. Gestire i contratti nella catena di fornitura AI: l'EU AI Act distingue il provider (chi sviluppa o immette sul mercato il sistema AI) dal deployer (chi lo utilizza in un contesto specifico). Le responsabilità sono diverse e la loro allocazione contrattuale richiede clausole specifiche di indennizzo, audit, notifica degli incidenti e aggiornamento post-market;
  5. Presidiare l'intersezione con il GDPR: molti sistemi AI ad alto rischio trattano dati personali — la DPIA (Data Protection Impact Assessment) può integrarsi con la valutazione d'impatto sui diritti fondamentali (FRIA) introdotta dall'art. 27 dell'EU AI Act per i deployer di sistemi ad alto rischio che impattano su persone fisiche.
Finestra temporale critica

Gli obblighi per i sistemi ad alto rischio (Allegato III) diventano applicabili il 2 agosto 2026. Le aziende hanno meno di 18 mesi per completare la conformity assessment, produrre la documentazione tecnica e registrare i propri sistemi nella banca dati UE. La finestra per definire contratti, procedure e audit interni è già aperta.

Conclusioni

L'EU AI Act segna l'ingresso definitivo del diritto nell'architettura interna dei sistemi intelligenti. Non è più sufficiente valutare le conseguenze giuridiche dell'output di un sistema AI: il Regolamento impone il presidio del processo di sviluppo, addestramento, validazione e monitoraggio del modello stesso. Questo richiede ai consulenti legali una competenza tecnica genuina — non una conoscenza superficiale del vocabolario dell'AI, ma la capacità di dialogare con data scientist, ingegneri del software e product manager su temi come bias detection, adversarial robustness, explainability e data governance.

Il parallelo con il GDPR del 2018 è istruttivo: i professionisti che compresero davvero la norma — non solo il testo ma le sue implicazioni architetturali sui sistemi informativi — hanno costruito posizioni di mercato durature. L'EU AI Act offre la stessa opportunità. Su una scala molto più grande.

Fonti e Riferimenti

  1. EU AI Act — Regolamento (UE) 2024/1689: eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32024R1689
  2. EU AI Office — Quadro normativo sull'AI: digital-strategy.ec.europa.eu
  3. NIST AI RMF 1.0 e Executive Order 14110: nist.gov/artificial-intelligence
  4. UNESCO — Raccomandazione sull'etica dell'AI (2021): unesdoc.unesco.org
  5. OCSE — Principi sull'AI (2019, aggiornati 2024): oecd.ai/en/ai-principles
  6. Legge 9 agosto 2024, n. 66 (Legge AI italiana): gazzettaufficiale.it
  7. AGCOM — Autorità per le garanzie nelle comunicazioni: agcom.it
  8. IEEE Std 1012-2016/2022 — System, Software, and Hardware Verification and Validation: standards.ieee.org
  9. SHAP — Lundberg, S. & Lee, S.-I. (2017). "A Unified Approach to Interpreting Model Predictions". NeurIPS 2017: arxiv.org/abs/1705.07874
  10. LIME — Ribeiro, M.T., Singh, S., & Guestrin, C. (2016). "'Why Should I Trust You?': Explaining the Predictions of Any Classifier". KDD 2016: arxiv.org/abs/1602.04938
  11. Shannon, C.E. (1948). "A Mathematical Theory of Communication". Bell System Technical Journal, 27(3), 379–423.
AI & Legal Tech

EU AI Act and Algorithmic Governance:
The Regulatory Architecture of a New Technological Order

A techno-legal analysis of Regulation (EU) 2024/1689 and the international regulatory framework on artificial intelligence: from the mathematical classification of algorithmic risk to model explainability, from compliance obligations to implications for legal counsel.

Abstract

Regulation (EU) 2024/1689 — the EU AI Act — has established the world's first comprehensive regulatory corpus on artificial intelligence, with extraterritorial application to any AI system producing effects within EU territory. This article examines the techno-legal architecture of the Regulation from an interdisciplinary perspective: from the mathematical formalisation of algorithmic risk to the technical requirements for transparency and explainability, from the comparative international regulatory framework to Italian implementing legislation. The objective is to provide legal counsel — and corporate technical officers — with a precise, scientifically grounded operational map.

1. AI Risk: Mathematical Foundations and Classification

Before analysing the regulatory framework, it is essential to understand the mathematical structure underlying the concept of algorithmic risk. The EU AI Act does not formally define risk in quantitative terms, but its pyramid classification — unacceptable, high, limited, minimal — is conceptually consistent with risk management models developed in statistics and systems engineering.

1.1 Entropy, Uncertainty and Informational Risk

In information theory, Shannon entropy H measures the uncertainty of a probabilistic system:

H(X) = − Σᵢ p(xᵢ) · log₂ p(xᵢ)

A high-risk AI system is, by definition, a system operating in domains where the uncertainty of its output — measured on the entropy of the predictive distribution — produces significant material consequences for individuals or communities. The Regulation translates this technical concept into a legal category: Annex III lists the sectors where algorithmic uncertainty is intolerable without adequate human supervision.

1.2 Loss Function, Bias and Legal Liability

Training a machine learning model minimises a loss function L with respect to the model's parameters θ:

θ* = argminθ E[L(f(x; θ), y)]

This optimisation occurs on a training dataset that, if statistically imbalanced, produces a model with systematic bias: the distribution of residuals is not random but correlated with protected attributes (sex, ethnicity, age). From a legal standpoint, a documented algorithmic bias in the decision-making process of a high-risk system constitutes a violation of the non-discrimination principle enshrined in art. 10(2) of the EU AI Act — which requires training data to be "free from errors and complete in relation to the intended purpose".

Technical Note — Disparate Impact

The disparate impact ratio is the standard metric for detecting indirect algorithmic discrimination: DIr = P(Y=1|A=0) / P(Y=1|A=1), where A is the protected attribute. A DIr value < 0.8 is an alert threshold according to EEOC (USA) and CNIL (France) guidelines. The EU AI Act does not set numerical thresholds, but requires providers to document measures taken for bias mitigation (art. 9).

2. The International Regulatory Framework

The regulation of AI is today a genuinely global phenomenon, with profoundly different approaches reflecting diverse governance philosophies.

2.1 United States: Executive Order 14110 and NIST AI RMF

On 30 October 2023, President Biden signed the Executive Order on Safe, Secure, and Trustworthy AI (EO 14110), requiring providers of "dual use foundation model" AI systems to notify the federal government of red team test results and training parameters, invoking the Defense Production Act.

In parallel, the National Institute of Standards and Technology (NIST) published the AI Risk Management Framework (AI RMF 1.0), a voluntary framework articulated in four functions: Govern, Map, Measure, Manage. Unlike the European approach based on binding obligations, the US model favours industrial self-regulation — except for regulated sectors (health, finance, energy).

2.2 China: Sectoral and Algorithmic Regulation

China has adopted a sectoral approach: the Interim Measures on the Administration of Generative AI Services (July 2023) specifically regulate GPT-type models, requiring registration with the CAC (Cyberspace Administration of China), prior security assessment, labelling of synthetic content, and prohibition of content threatening national unity. The framework is integrated by earlier measures on recommendation algorithms (2022) and deepfakes (2022).

2.3 United Kingdom: Principles-Based Approach

Post-Brexit, the UK chose an anti-fragmentation strategy: no sector-specific AI legislation, but five cross-cutting principles (safety, transparency, fairness, accountability, contestability) entrusted to existing sector regulators (FCA, CMA, ICO, Ofcom). The AI Safety Institute, inaugurated in November 2023, is the world's first government body dedicated to the safety of frontier models.

2.4 UNESCO and OECD: Global Soft Law

The UNESCO Recommendation on the Ethics of AI (November 2021, 193 Member States) constitutes the principal global soft law instrument: it defines eleven core values (respect for human rights, welfare, inclusivity, transparency, accountability, environmental sustainability, privacy, multi-stakeholder governance, good governance, participation) and forty policy action areas. It is non-binding, but forms the reference basis for national legislations, including the EU AI Act.

The OECD AI Principles (2019, updated 2024), adopted by 46 countries, directly influenced the definition of "AI system" in the EU AI Act.

3. Regulation (EU) 2024/1689 — EU AI Act

Approved by the European Parliament on 13 March 2024 and published in the Official Journal of the EU on 12 July 2024, Regulation (EU) 2024/1689 entered into force on 1 August 2024, with progressive application: prohibited systems from 2 February 2025; general-purpose AI systems from 2 August 2025; high-risk systems from 2 August 2026.

3.1 Risk Architecture: The Regulatory Pyramid

The EU AI Act adopts a risk pyramid regulatory structure, inspired by the European product safety approach but adapted to the specifics of algorithmic systems:

LevelDefinitionRegimeExamples
Prohibited Unacceptable risk to EU fundamental values Absolute prohibition (art. 5) Social scoring, biometric categorisation, subliminal manipulation, individual predictive policing
High risk Significant risk to health, safety or fundamental rights Ex ante and ex post obligations (arts. 8-49) Medical diagnostics, personnel selection, credit scoring, biometric systems, critical infrastructure
Limited risk Risk of deception about artificial origin Transparency obligations (arts. 50-52) Chatbots, deepfakes, synthetic content generation
Minimal No specific risk identified No specific obligations (voluntary codes of conduct) Spam filters, AI in video games

3.2 Prohibited Systems (Art. 5)

The absolute prohibition — applicable from 2 February 2025 — targets the AI practices most harmful to fundamental rights. Among prohibited systems:

  • Social scoring systems by public authorities assessing the conduct of natural persons to penalise them in contexts unrelated to those in which the data were collected;
  • Subliminal manipulation systems acting below the threshold of individual awareness to distort behaviour in a prejudicial manner;
  • Real-time biometric recognition in public spaces by law enforcement authorities (with strict exceptions for terrorism, missing minors, identification of perpetrators of serious crimes);
  • Biometric classification systems inferring protected characteristics (political opinions, sexual orientation, ethnicity, religion);
  • Individual predictive policing systems based solely on profiling.

3.3 High-Risk Systems: Compliance Obligations

High-risk systems are listed in Annex III (seven categories, from biometric identification to education, employment, essential public services, law enforcement, migration, justice). For these, the Regulation imposes a complete system of ex ante conformity assessment:

Key Obligations — Providers of High-Risk Systems (art. 16)

① Risk management system for the entire lifecycle (art. 9) — ② Governance of training, validation and test data (art. 10) — ③ Technical documentation (art. 11) — ④ Automatic logging (art. 12) — ⑤ Transparency and communication to users (art. 13) — ⑥ Human oversight (art. 14) — ⑦ Accuracy, robustness and cybersecurity (art. 15) — ⑧ Registration in EU database (art. 71) — ⑨ EU Declaration of Conformity and CE marking

The risk management system under art. 9 is a cyclical process inspired by ISO/IEC 31000 and requires: identification and analysis of known and reasonably foreseeable risks; estimation and evaluation of risks for each use scenario and reasonably foreseeable misuse; adoption of adequate risk management measures; post-market monitoring.

3.4 Transparency and Explainability: The Most Challenging Technical Requirement

Art. 13 of the EU AI Act requires that high-risk systems be designed to ensure transparency "sufficient to enable deployers to interpret the output of the system and use it appropriately". Art. 14 requires systems to permit effective human oversight, including the ability to "correctly understand the relevant capacities and limitations" of the system.

These requirements translate, in technical practice, into the implicit obligation to adopt explainable AI (XAI) methodologies. The most widely used techniques are:

SHAP — SHapley Additive exPlanations

Based on cooperative game theory, SHAP (Lundberg & Lee, 2017) assigns to each feature xᵢ a contribution φᵢ to the prediction f(x), calculated as a weighted average over all possible feature coalitions. The sum of SHAP values equals the difference between the model's prediction and the expected value: Σᵢ φᵢ = f(x) − E[f(X)]. It best satisfies the completeness, consistency and nullity requirements demanded by algorithmic governance guidelines.

LIME — Local Interpretable Model-agnostic Explanations

LIME (Ribeiro et al., 2016) locally approximates any black-box model with an interpretable model (typically linear): given an instance x, it generates perturbations x' in the vicinity of x, collects predictions f(x') from the original model, and trains an interpretable model g on these proximity-weighted samples. It is model-agnostic: it works on deep neural networks, gradient boosting, and ensemble models. Its main limitation is the lack of global fidelity guarantees.

3.5 Institutional Governance and Sanctions

The EU AI Act establishes a multi-level governance ecosystem: the AI Office of the European Commission supervises general-purpose AI (GPAI) models with training parameters exceeding 10²⁵ FLOPs; national competent authorities (designated by Member States by August 2025) supervise application in specific uses; the Advisory Forum and European AI Board (comprising representatives of national authorities) ensure coordination.

Sanctions (art. 99)

Violations of art. 5 (prohibited systems): up to € 35,000,000 or 7% of total worldwide annual turnover of the preceding financial year. Violations of other provider obligations: up to € 15,000,000 or 3%. Inaccurate or misleading statements to authorities: up to € 7,500,000 or 1%. For SMEs: sanctions proportional to the lower of the cap and actual turnover.

4. The Italian Regulatory Framework: L. 66/2024

Italy responded to the EU AI Act with Law of 9 August 2024, no. 66 (Provisions and delegation to the Government on artificial intelligence), published in the Official Journal on 9 August 2024, in force from 24 August 2024. This is a framework law that:

  • Establishes fundamental principles for the development and use of AI in compliance with fundamental rights, transparency and non-discrimination (art. 1);
  • Delegates the Government to enact legislative decrees adapting to EU law within 12 months;
  • Introduces specific provisions for public administration, the judiciary, the medical sector and journalism: magistrates may not use AI systems to issue jurisdictional measures; doctors retain clinical responsibility even when assisted by diagnostic AI;
  • Regulates copyright for works generated with AI support: absent recognition of human creative contribution, the work falls into the public domain;
  • Designates the National Cybersecurity Agency (ACN) and AgID as national competent authorities pending the formal designation provided for by the EU AI Act;
  • Entrusts AGCOM with oversight of compliance with transparency obligations for generative AI systems in media and electronic communications.
Transizione 5.0 Plan — Incentives for Responsible AI Adoption

Legislative Decree 19/2024 (converted by Law 56/2024) established the Transizione 5.0 Plan, providing tax credits of up to 45% for investments in digital technologies — including AI systems — that generate energy savings. The link between AI adoption and environmental sustainability is today both a regulatory requirement (EU AI Act, recital 91) and a concrete tax incentive.

5. Algorithmic Governance: The Technical Dimension

Compliance with the EU AI Act is not a documentary exercise: it requires the understanding and implementation of specific technical methods in software engineering and machine learning.

5.1 Explainability: SHAP, LIME and Beyond

The two techniques described in §1 — SHAP and LIME — cover 70-80% of practical explainability cases required by the EU AI Act. For deep neural networks (DNN), saliency mapping techniques (Grad-CAM for CNNs; Attention Visualisation for Transformers) allow visualisation of the input regions that most influenced the output. These visualisations can be produced and attached to the technical documentation required by art. 11 of the Regulation.

5.2 Bias Detection and Mitigation

The algorithmic bias audit process consists of three phases: data audit (analysis of dataset distribution for protected attributes using statistical methods: χ² test, Kolmogorov-Smirnov, t-test on sub-samples); model audit (calculation of fairness metrics: equalized odds, demographic parity, individual fairness); mitigation (re-weighting of samples during training, adversarial debiasing, post-processing of predictions through group calibration).

5.3 Adversarial Robustness and Cybersecurity

Art. 15(1) of the EU AI Act requires that high-risk systems achieve "adequate levels of accuracy, robustness and cybersecurity". Adversarial robustness — resistance to adversarial examples, i.e., inputs specifically modified to deceive the model — is evaluated through standardised adversarial attack benchmarks (FGSM, PGD, AutoAttack). Defence methodologies include adversarial training, input smoothing, and certifiable defences based on convexification of the parameter space. IEEE Std 1012 (IEEE, 2022) provides the verification and validation framework applicable to safety-critical AI systems.

6. Implications for Legal Counsel

The EU AI Act introduces a new category of professional liability intersecting law, engineering and statistics. Legal counsel assisting companies in achieving Regulation compliance must be able to:

  1. Correctly classify the client's AI system in the risk pyramid, verifying the applicability of Annexes I and III — an operation requiring technical understanding of the system's functioning;
  2. Structure the risk management system under art. 9 so that it is genuinely operational and not merely documentary: this requires drafting technical risk identification procedures, not just corporate policies;
  3. Assess the adequacy of technical documentation under art. 11: system specifications, datasets used, performance metrics, robustness tests, bias audit — documentation that must be readable and verifiable by a technical supervisory authority;
  4. Manage contracts in the AI supply chain: the EU AI Act distinguishes the provider (who develops or places the AI system on the market) from the deployer (who uses it in a specific context). Responsibilities differ, and their contractual allocation requires specific indemnification, audit, incident notification and post-market update clauses;
  5. Preside over the intersection with the GDPR: many high-risk AI systems process personal data — the DPIA (Data Protection Impact Assessment) can be integrated with the fundamental rights impact assessment (FRIA) introduced by art. 27 of the EU AI Act for deployers of high-risk systems affecting natural persons.
Critical Time Window

Obligations for high-risk systems (Annex III) become applicable on 2 August 2026. Companies have less than 18 months to complete conformity assessment, produce technical documentation and register their systems in the EU database. The window for defining contracts, procedures and internal audits is already open.

Conclusions

The EU AI Act marks the definitive entry of law into the internal architecture of intelligent systems. It is no longer sufficient to assess the legal consequences of an AI system's output: the Regulation requires oversight of the development, training, validation and monitoring process of the model itself. This demands genuine technical competence from legal counsel — not a superficial knowledge of AI vocabulary, but the ability to engage with data scientists, software engineers and product managers on topics such as bias detection, adversarial robustness, explainability and data governance.

The parallel with the GDPR of 2018 is instructive: professionals who truly understood the regulation — not just the text but its architectural implications for information systems — built lasting market positions. The EU AI Act offers the same opportunity. On a much larger scale.

Sources and References

  1. EU AI Act — Regulation (EU) 2024/1689: eur-lex.europa.eu
  2. EU AI Office — Regulatory framework on AI: digital-strategy.ec.europa.eu
  3. NIST AI RMF 1.0 & Executive Order 14110: nist.gov/artificial-intelligence
  4. UNESCO — Recommendation on the Ethics of AI (2021): unesdoc.unesco.org
  5. OECD — AI Principles (2019, updated 2024): oecd.ai/en/ai-principles
  6. Law of 9 August 2024, no. 66 (Italian AI Law): gazzettaufficiale.it
  7. AGCOM: agcom.it
  8. IEEE Std 1012-2016/2022 — System, Software, and Hardware Verification and Validation: standards.ieee.org
  9. SHAP — Lundberg, S. & Lee, S.-I. (2017). "A Unified Approach to Interpreting Model Predictions". NeurIPS 2017: arxiv.org/abs/1705.07874
  10. LIME — Ribeiro, M.T., Singh, S., & Guestrin, C. (2016). "'Why Should I Trust You?': Explaining the Predictions of Any Classifier". KDD 2016: arxiv.org/abs/1602.04938
  11. Shannon, C.E. (1948). "A Mathematical Theory of Communication". Bell System Technical Journal, 27(3), 379–423.