Iniziamo ad Affrontare con Serietà l’Intelligenza Artificiale nella Pubblica Amministrazione

Questo è il primo approfondimento di una serie dedicata all’Intelligenza Artificiale nella Pubblica Amministrazione, pensata per accompagnare le amministrazioni pubbliche nel percorso verso la piena attuazione del Regolamento (UE) 2024/1689 – AI Act.

NON PUO’ ESSERCI AI CONFORME SENZA la L. 241/90

Ogni contributo affronterà temi centrali per la trasformazione digitale etica della PA: dagli obblighi normativi alla governance, fino alle buone pratiche operative.

 L’autore aderisce all’AI Pact, iniziativa volontaria promossa dalla Commissione Europea per favorire un’adozione anticipata e responsabile dell’Intelligenza Artificiale, attraverso impegni concreti (pledges) su trasparenza, gestione del rischio, sorveglianza umana, sicurezza by design e tutela dei diritti fondamentali. Il Patto si propone di colmare il divario tra innovazione tecnologica e regolamentazione, contribuendo a creare una cultura di responsabilità nell’uso dell’IA nel settore pubblico e privato.

Prima Parte: Principi, Ciclo di Vita e Classificazione dei Sistemi


I Principi Fondamentali per la Governance dell’IA nella PA

Per adottare sistemi di intelligenza artificiale (IA) nella Pubblica Amministrazione in modo etico, efficace e conforme alle normative, è essenziale fondarsi su una disciplina interna solida, basata su alcuni principi guida:

  • Trasparenza: garantire decisioni comprensibili e spiegabili.
  • Equità: prevenire discriminazioni e bias sistemici.
  • Affidabilità: sviluppare sistemi robusti, sicuri e stabili.
  • Responsabilità: attribuire chiaramente ruoli, compiti e responsabilità.
  • Protezione dei Dati: piena conformità al GDPR e alle norme sulla privacy.
  • Innovazione Responsabile: promuovere il progresso tecnologico nel rispetto dei diritti.
  • Sostenibilità (ESG): allineamento con i criteri ambientali, sociali e di buona governance.

Il Ciclo di Vita di un Sistema IA nella PA

Una gestione responsabile dell’IA pubblica richiede un approccio integrato lungo tutto il ciclo di vita del sistema:

  1. Pianificazione
    Definizione degli obiettivi, valutazione dell’impatto e stima dei benefici attesi.
  2. Sviluppo e Addestramento
    Costruzione del modello basato su dati di qualità, validi e rappresentativi.
  3. Validazione
    Test per verificare affidabilità, accuratezza e rispetto delle normative.
  4. Messa in Produzione e Monitoraggio
    Attivazione del sistema in ambiente operativo e controllo continuo delle prestazioni.
  5. Gestione del Rischio e Governance
    Valutazione proattiva dei rischi, misure correttive e processi di audit.
  6. Dismissione e Archiviazione
    Fine del ciclo di utilizzo, ritiro sicuro del sistema e conservazione dei dati secondo la normativa.

Attori Coinvolti nella Governance dell’IA

Una governance efficace è multidisciplinare. Gli attori principali coinvolti sono:

  • Sviluppatori: responsabili della progettazione e messa a punto tecnica del sistema.
  • Compliance Officer: garantiscono la conformità a regolamenti, linee guida e standard.
  • DPO (Data Protection Officer): assicurano la protezione dei dati personali e la conformità GDPR.
  • Responsabili di Settore / Funzione: supervisionano l’integrazione dell’IA nei processi pubblici.
  • CAIO

Classificazione dei Sistemi IA ad Alto Rischio

Secondo l’Art. 6 del Regolamento (UE) 2024/1689

Sono considerati “ad alto rischio” i sistemi IA utilizzati nei seguenti contesti:

  • Biometria (es. riconoscimento facciale, emozioni)
  • Infrastrutture critiche (energia, trasporti, reti)
  • Istruzione e formazione professionale
  • Occupazione e gestione del personale
  • Accesso a servizi pubblici essenziali (es. assistenza, sanità, credito)
  • Attività di contrasto e giustizia (forze dell’ordine, decisioni giudiziarie)

Questi sistemi richiedono valutazioni preventive, documentazione rigorosa e misure tecniche e organizzative specifiche per proteggere i diritti fondamentali.

Requisiti di Conformità per Sistemi IA ad Alto Rischio

Il Regolamento (UE) 2024/1689 – noto come AI Act – stabilisce obblighi chiave per i sistemi ad alto rischio:

  • Art. 10 – Qualità dei Dati
    Dati rappresentativi, pertinenti, esenti da errori e bias.
  • Art. 11 – Documentazione Tecnica
    Fascicolo tecnico dettagliato per dimostrare la conformità.
  • Art. 13 – Trasparenza
    Informazioni chiare e comprensibili per gli utenti finali.
  • Art. 14 – Sorveglianza Umana
    Supervisione attiva e capacità di intervenire o disattivare il sistema.
  • Art. 15 – Robustezza e Cibersicurezza
    Protezione contro vulnerabilità, attacchi informatici e malfunzionamenti.

L’IA nella PA: calibrarla è essenziale per la legittimità degli atti

L’impiego di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione non può prescindere da un attento bilanciamento tra innovazione, legalità e garanzie procedimentali. Una gestione mal calibrata o non conforme dell’IA potrebbe infatti condurre a violazioni dei diritti fondamentalidifetti di motivazione o assenza di supervisione umana, tutti elementi che espongono gli atti amministrativi al rischio di nullità o annullamento.

La legalità del procedimento e il principio di trasparenza

L’art. 1 della Legge 241/1990 afferma che:

“L’attività amministrativa persegue i fini determinati dalla legge ed è retta da criteri di economicità, efficacia, imparzialità, pubblicità e trasparenza…”

Se un procedimento amministrativo è svolto o determinato interamente o in parte da sistemi IA, ma senza la trasparenza sufficiente a comprendere le ragioni della decisione, si rischia una violazione del principio di motivazione degli atti (art. 3 L. 241/1990), e dunque l’illegittimità dell’atto.

AI Act e obbligo di supervisione umana

L’articolo 14 del Regolamento (UE) 2024/1689 (AI Act) stabilisce che:

“I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.”

Questo comporta che l’adozione di IA nella PA non può mai essere totalmente automatica o cieca. La supervisione umana non è solo raccomandata, ma obbligatoria — e deve essere effettiva, documentata e in grado di correggere o annullare eventuali errori del sistema.

l rischio concreto di nullità degli atti

Un procedimento amministrativo interamente fondato su un algoritmo, privo di:

  • controllo umano (AI Act, art. 14),
  • trasparenza (AI Act, art. 13 e L. 241/1990),
  • tracciabilità (AI Act, art. 12),
  • e motivazione intelligibile (L. 241/1990, art. 3),

potrebbe essere considerato nullo per difetto assoluto di attribuzione (art. 21-septies L. 241/1990), oppure annullabile per violazione di legge o eccesso di potere (art. 21-octies).

Strumenti per una PA “a prova di nullità”

Per evitare questo rischio, ogni ente pubblico deve:

 Designare referenti AI con formazione adeguata (AI literacy – art. 4 AI Act)
 Mappare i sistemi IA ad alto rischio usati nei processi decisionali (art. 6 e Allegato III AI Act)
 Dotarsi di procedure documentate per:

  • sorveglianza umana (art. 14),
  • gestione del rischio (art. 9),
  • governance dei dati (art. 10),
  • motivazione e spiegabilità (art. 13).

Conclusione: l’IA nella PA non è mai “automatica”- in prima approssimazione

L’uso dell’IA nella Pubblica Amministrazione non può e non deve sostituire l’esercizio responsabile del potere pubblico.
Deve invece essere un supporto intelligente, trasparente e sotto controllo umano, per garantire che ogni procedimento amministrativo:

  • sia formalmente legittimo,
  • sostanzialmente giusto,
  • processualmente valido.

Consiglio una lettura di questo post

e vi lascio un MODELLO DI CODICE ETICO AI