Quaderni sull’Intelligenza Artificiale nella Pubblica Amministrazione: fondamenti teorici e applicazioni operative . I.
L’adozione di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione apre nuove prospettive di efficienza e innovazione, ma impone una riflessione approfondita sui vincoli normativi, etici e organizzativi. Questo contributo analizza i profili giuridici (LDA, Direttiva UE 2019/790, AI Act), la natura probabilistica dei sistemi generativi, la distinzione tra AI debole/forte (Soft/Hard) e i modelli di supervisione umana (HITL, HOTL, HIC). Vengono inoltre evidenziati i tre pilastri della conformità (legittimità, trasparenza, robustezza), con particolare attenzione al rapporto con l’art. 3 L. 241/1990 sull’obbligo di motivazione dei provvedimenti amministrativi.
Quaderni sull’Intelligenza Artificiale nella Pubblica Amministrazione
Fondamenti giuridici, modelli applicativi e prospettive regolatorie
L’Intelligenza Artificiale (AI) rappresenta oggi uno degli strumenti più promettenti per l’innovazione della Pubblica Amministrazione (PA).
La sua capacità di automatizzare attività, analizzare grandi quantità di dati e supportare i processi decisionali può contribuire a migliorare l’efficienza e la tempestività dell’azione amministrativa.
Tuttavia, l’impiego dell’AI non è neutro: esso solleva questioni cruciali di natura giuridica, tecnica ed etica, che richiedono particolare attenzione da parte di chi opera nei procedimenti amministrativi.
AI e diritto d’autore: LDA e Direttiva UE 2019/790
Un primo nodo riguarda la disciplina del diritto d’autore.
- In Italia, la Legge 22 aprile 1941, n. 633 (LDA) tutela le opere dell’ingegno di carattere creativo (art. 1 e 2).
- A livello europeo, la Direttiva (UE) 2019/790 ha introdotto l’eccezione di Text and Data Mining (TDM) (artt. 3 e 4), che consente l’estrazione di dati anche da contenuti protetti, salvo opt-out dei titolari.
È grazie al TDM che i modelli di AI possono essere addestrati su enormi quantità di testi e dati, compresi quelli normativi e amministrativi.
La natura probabilistica dei sistemi AI
I sistemi generativi, come i modelli di diffusione, operano su logiche probabilistiche:
- Forward process: i dati vengono degradati progressivamente con noise.
- Noise: rappresenta la casualità che il modello impara a gestire.
- Backward process: l’AI ricostruisce i dati o genera nuovi output coerenti.
Esempio: un modello addestrato su delibere comunali può produrre testi simili al linguaggio amministrativo, ma senza garanzia di correttezza giuridica.
Originalità e creatività: la giurisprudenza UE
La sentenza Infopaq (C-5/08) della Corte di giustizia UE stabilisce che anche frammenti minimi di testo possono essere protetti dal diritto d’autore se riflettono scelte creative.
Alla luce di ciò, gli output generati dall’AI – privi di un apporto creativo umano diretto – difficilmente possono essere considerati “opere dell’ingegno” ai sensi della LDA.
Weak AI (Soft) e Strong AI (Hard)
Weak AI – Soft AI
- Sistemi vincolati, con output prevedibile e deterministico.
- Esempi: protocollazione automatica, verifica formale degli atti.
- Consiglio di Stato, Sez. IV, sentenza n. 4857/2025 → un algoritmo di comparazione di impronte hash è stato considerato “di supporto”, poiché l’output era interamente prevedibile.
Strong AI – Hard AI
- Sistemi adattivi, basati su apprendimento e generazione statistica.
- Output non sempre prevedibile.
- Esempi: modelli generativi di linguaggio e immagini.
- Sollevano questioni etiche e giuridiche rilevanti per la PA, specie in termini di responsabilità.
Controllo umano e procedimento amministrativo
Human-in-the-Loop (HITL)
- L’umano valida ogni output.
- Esempi: graduatorie concorsuali, liquidazione di fatture, accesso agli atti.
Human-on-the-Loop (HOTL)
- Supervisione esterna, senza controllo su ogni singolo atto.
- Esempi: protocollazione automatica, smistamento PEC, monitoraggio tempi procedimentali.
Human-in-Command (HIC)
- L’umano mantiene il comando strategico.
- Esempi: algoritmi per selezione offerte di gara, sistemi di analisi rischio fiscale, videosorveglianza intelligente.
Questi tre modelli corrispondono al principio di sorveglianza umana significativa previsto dall’AI Act (art. 14).
Articolo 14
Sorveglianza umana
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare qualora tali rischi persistano nonostante l’applicazione di altri requisiti di cui alla presente sezione.
3. Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite mediante almeno uno dei tipi di misure seguenti:
a) misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile;
b) misure individuate dal fornitore prima dell’immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dal deployer. 4. Ai fini dell’attuazione dei paragrafi 1, 2 e 3, il sistema di IA ad alto rischio è fornito al deployer in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità, ove opportuno e proporzionato, di:
a) comprendere correttamente le capacità e i limiti pertinenti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese;
b) restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio («distorsione dell’automazione»), in particolare in relazione ai sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;
c) interpretare correttamente l’output del sistema di IA ad alto rischio, tenendo conto ad esempio degli strumenti e dei metodi di interpretazione disponibili;
d) decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio;
e) intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza. 5. In aggiunta, per i sistemi di IA ad alto rischio di cui all’allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 del presente articolo sono tali da garantire che il deployer non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità.
Il requisito di una verifica separata da parte di almeno due persone fisiche non si applica ai sistemi di IA ad alto rischio utilizzati a fini di contrasto, migrazione, controllo delle frontiere o asilo, qualora il diritto dell’Unione o nazionale ritenga sproporzionata l’applicazione di tale requisito.
Quindi, per chiarezza…
Sintesi Articolo 14 – Sorveglianza Umana (Reg. UE 2024/1689 – AI Act)
| Comma | Contenuto principale | Punti chiave / Operatività |
|---|---|---|
| 1 | I sistemi di IA ad alto rischio devono essere progettati per essere efficacemente supervisionati da persone fisiche, tramite interfacce adeguate. | → Supervisione umana integrata già in fase di design e sviluppo. |
| 2 | La sorveglianza umana serve a prevenire o ridurre rischi per salute, sicurezza o diritti fondamentali, anche in caso di uso improprio prevedibile. | → Sorveglianza come misura di protezione residuale oltre gli altri requisiti. |
| 3 | Le misure di sorveglianza devono essere proporzionate al rischio, livello di autonomia e contesto del sistema. Possono consistere in: a) misure integrate dal fornitore; b) misure individuate dal fornitore e attuate dal deployer. | → Fornitore e deployer hanno ruoli distinti ma complementari. |
| 4 | Le persone incaricate della sorveglianza devono poter: a) capire capacità e limiti del sistema, monitorarne il funzionamento e individuare anomalie; b) evitare l’automation bias (eccessivo affidamento all’output); c) interpretare correttamente gli output; d) decidere di ignorare o annullare gli output; e) interrompere il sistema in sicurezza (es. pulsante di arresto). | → Requisiti concreti di formazione, consapevolezza e strumenti di intervento per gli operatori umani. |
| 5 | Per i sistemi di IA ad alto rischio (Allegato III, punto 1, lett. a – identificazione biometrica a distanza): – Serve doppia verifica indipendente da parte di almeno due persone competenti. – Esclusioni possibili in ambiti di contrasto, migrazione, frontiere, asilo, se sproporzionato. | → Rafforzamento delle garanzie contro errori nell’identificazione biometrica. |
I tre pilastri della conformità AI
La gestione dei sistemi AI nella PA si fonda su tre pilastri:
- Legittimità (Lawfulness) → conformità a norme europee e nazionali (AI Act, CAD, D.lgs. 36/2023).
- Etica e Trasparenza → obbligo di spiegabilità e prevenzione dell’automation bias.
- Robustezza & Human Oversight → accuratezza tecnica, resilienza e controllo umano effettivo.
Appendice tecnica: i token nell’AI
Cosa sono i token
Unità minime di testo (parole spezzate in sillabe, radici, simboli).
Esempio: “Amministrazione” → 3 token (“Ammin” – “istr” – “azione”).
Inglese vs Italiano
- Inglese: parole brevi, spesso 1 token.
- Italiano: parole lunghe e flessive → più token.
- Conseguenza: lo stesso testo in italiano occupa più spazio nel context window e aumenta il rischio di errori.
Appendice normativa: art. 3 L. 241/1990 e AI Act
- Art. 3 L. 241/1990 → obbligo di motivare i provvedimenti, indicando presupposti di fatto e ragioni giuridiche.
- AI Act, artt. 13-14 → obbligo di spiegabilità (explicability) e supervisione umana per i sistemi ad alto rischio.
Collegamento:
Un provvedimento amministrativo non può limitarsi a riportare un output algoritmico. Deve spiegare come l’AI ha contribuito alla decisione e come l’operatore umano ha validato l’atto, garantendo trasparenza e legittimità.
Conclusioni
L’AI può diventare un alleato della PA, ma solo se integrata con:
- chiarezza normativa (LDA, Direttiva UE, AI Act),
- distinzione tra Soft/Hard AI e modelli di controllo umano,
- rispetto dei tre pilastri di conformità,
- obbligo di motivazione e spiegabilità dei provvedimenti (art. 3 L. 241/1990).
Solo così la Pubblica Amministrazione potrà adottare l’AI in modo innovativo ma coerente con i principi di legalità, trasparenza e tutela dei diritti fondamentali.
Alla prossima….









