QUADERNI SULL’INTELLIGENZA ARTIFICIALE NELLA PUBBLICA AMMINISTRAZIONE: FONDAMENTI TEORICI E APPLICAZIONI OPERATIVE . I.
L’adozione di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione apre nuove prospettive di efficienza e innovazione, ma impone una riflessione approfondita sui vincoli normativi, etici e organizzativi. Questo contributo analizza i profili giuridici (LDA, Direttiva UE 2019/790, AI Act), la natura probabilistica dei sistemi generativi, la distinzione tra AI debole/forte (Soft/Hard) e i modelli di supervisione umana (HITL, HOTL, HIC). Vengono inoltre evidenziati i tre pilastri della conformità (legittimità, trasparenza, robustezza), con particolare attenzione al rapporto con l’art. 3 L. 241/1990 sull’obbligo di motivazione dei provvedimenti amministrativi.
Quaderni sull’Intelligenza Artificiale nella Pubblica Amministrazione
Fondamenti giuridici, modelli applicativi e prospettive regolatorie
L’Intelligenza Artificiale (AI) rappresenta oggi uno degli strumenti più promettenti per l’innovazione della Pubblica Amministrazione (PA).
La sua capacità di automatizzare attività, analizzare grandi quantità di dati e supportare i processi decisionali può contribuire a migliorare l’efficienza e la tempestività dell’azione amministrativa.
Tuttavia, l’impiego dell’AI non è neutro: esso solleva questioni cruciali di natura giuridica, tecnica ed etica, che richiedono particolare attenzione da parte di chi opera nei procedimenti amministrativi.
AI e diritto d’autore: LDA e Direttiva UE 2019/790
Un primo nodo riguarda la disciplina del diritto d’autore.
- In Italia, la Legge 22 aprile 1941, n. 633 (LDA) tutela le opere dell’ingegno di carattere creativo (art. 1 e 2).
- A livello europeo, la Direttiva (UE) 2019/790 ha introdotto l’eccezione di Text and Data Mining (TDM) (artt. 3 e 4), che consente l’estrazione di dati anche da contenuti protetti, salvo opt-out dei titolari.
È grazie al TDM che i modelli di AI possono essere addestrati su enormi quantità di testi e dati, compresi quelli normativi e amministrativi.
La natura probabilistica dei sistemi AI
I sistemi generativi, come i modelli di diffusione, operano su logiche probabilistiche:
- Forward process: i dati vengono degradati progressivamente con noise.
- Noise: rappresenta la casualità che il modello impara a gestire.
- Backward process: l’AI ricostruisce i dati o genera nuovi output coerenti.
Esempio: un modello addestrato su delibere comunali può produrre testi simili al linguaggio amministrativo, ma senza garanzia di correttezza giuridica.
Originalità e creatività: la giurisprudenza UE
La sentenza Infopaq (C-5/08) della Corte di giustizia UE stabilisce che anche frammenti minimi di testo possono essere protetti dal diritto d’autore se riflettono scelte creative.
Alla luce di ciò, gli output generati dall’AI – privi di un apporto creativo umano diretto – difficilmente possono essere considerati “opere dell’ingegno” ai sensi della LDA.
Weak AI (Soft) e Strong AI (Hard)
Weak AI – Soft AI
- Sistemi vincolati, con output prevedibile e deterministico.
- Esempi: protocollazione automatica, verifica formale degli atti.
- Consiglio di Stato, Sez. IV, sentenza n. 4857/2025 → un algoritmo di comparazione di impronte hash è stato considerato “di supporto”, poiché l’output era interamente prevedibile.
Strong AI – Hard AI
- Sistemi adattivi, basati su apprendimento e generazione statistica.
- Output non sempre prevedibile.
- Esempi: modelli generativi di linguaggio e immagini.
- Sollevano questioni etiche e giuridiche rilevanti per la PA, specie in termini di responsabilità.
Controllo umano e procedimento amministrativo
Human-in-the-Loop (HITL)
- L’umano valida ogni output.
- Esempi: graduatorie concorsuali, liquidazione di fatture, accesso agli atti.
Human-on-the-Loop (HOTL)
- Supervisione esterna, senza controllo su ogni singolo atto.
- Esempi: protocollazione automatica, smistamento PEC, monitoraggio tempi procedimentali.
Human-in-Command (HIC)
- L’umano mantiene il comando strategico.
- Esempi: algoritmi per selezione offerte di gara, sistemi di analisi rischio fiscale, videosorveglianza intelligente.
Questi tre modelli corrispondono al principio di sorveglianza umana significativa previsto dall’AI Act (art. 14).
I tre pilastri della conformità AI
La gestione dei sistemi AI nella PA si fonda su tre pilastri:
- Legittimità (Lawfulness) → conformità a norme europee e nazionali (AI Act, CAD, D.lgs. 36/2023).
- Etica e Trasparenza → obbligo di spiegabilità e prevenzione dell’automation bias.
- Robustezza & Human Oversight → accuratezza tecnica, resilienza e controllo umano effettivo.
Appendice tecnica: i token nell’AI
Cosa sono i token
Unità minime di testo (parole spezzate in sillabe, radici, simboli).
Esempio: “Amministrazione” → 3 token (“Ammin” – “istr” – “azione”).
Inglese vs Italiano
- Inglese: parole brevi, spesso 1 token.
- Italiano: parole lunghe e flessive → più token.
- Conseguenza: lo stesso testo in italiano occupa più spazio nel context window e aumenta il rischio di errori.
Appendice normativa: art. 3 L. 241/1990 e AI Act
- Art. 3 L. 241/1990 → obbligo di motivare i provvedimenti, indicando presupposti di fatto e ragioni giuridiche.
- AI Act, artt. 13-14 → obbligo di spiegabilità (explicability) e supervisione umana per i sistemi ad alto rischio.
Collegamento:
Un provvedimento amministrativo non può limitarsi a riportare un output algoritmico. Deve spiegare come l’AI ha contribuito alla decisione e come l’operatore umano ha validato l’atto, garantendo trasparenza e legittimità.
Conclusioni
L’AI può diventare un alleato della PA, ma solo se integrata con:
- chiarezza normativa (LDA, Direttiva UE, AI Act),
- distinzione tra Soft/Hard AI e modelli di controllo umano,
- rispetto dei tre pilastri di conformità,
- obbligo di motivazione e spiegabilità dei provvedimenti (art. 3 L. 241/1990).
Solo così la Pubblica Amministrazione potrà adottare l’AI in modo innovativo ma coerente con i principi di legalità, trasparenza e tutela dei diritti fondamentali.


