Dedicato alle ISTITUZIONI SCOLASTICHE.
AI nella PA: chi decide davvero?
Competenza, responsabilità e legittimità dei codici etici
Nel dibattito sull’uso dell’Intelligenza Artificiale nella Pubblica Amministrazione, si moltiplicano in questi mesi documenti, linee guida e codici etici proposti da diversi Ministeri, enti e strutture di coordinamento. Un fermento comprensibile, ma che rischia di generare confusione istituzionale e, nei casi più gravi, atti amministrativi illegittimi.
🎯 1. La competenza non è un’opinione
La Legge n. 132 del 2025 ha definito in modo netto la governance pubblica dell’IA:
- AgID (Agenzia per l’Italia Digitale): regolazione, interoperabilità e compliance amministrativa;
- ACN (Agenzia per la Cybersicurezza Nazionale): sicurezza, affidabilità e certificazione dei sistemi AI nella PA.
Qualsiasi documento tecnico, linea guida o codice etico sull’uso dei sistemi di Intelligenza Artificiale nella PA deve quindi ricondursi a queste due autorità. Altri ministeri o enti possono contribuire al dibattito, ma non hanno competenza regolatoria né potestà di indirizzo in materia di IA pubblica.
Legge 132/2025 – Governance nazionale dell’Intelligenza Artificiale
Reg. (UE) 2024/1689 – AI Act
ACN & AgID: Autorità competenti uniche per la PA italiana
⚖️ 2. Responsabilità per atti basati su fonti incompetenti
L’adozione di un Codice Etico o di un Regolamento interno sull’IA predisposto da soggetti non competenti (ad esempio un ministero non delegato o un ente formativo privato) può determinare responsabilità amministrativa e contabile per il dirigente che lo adotta.
Seguendo un documento privo di base legale si incorre in:
- vizio di incompetenza dell’atto amministrativo (art. 21-octies, L. 241/1990);
- violazione del principio di legalità e imparzialità (art. 97 Cost.);
- rischio di danno erariale per spese o progetti fondati su criteri non conformi.
🧩 3. Il ruolo dei codici etici d’Istituto
I codici etici locali – come quelli adottati da scuole, comuni o enti pubblici – devono ispirarsi ai principi dell’AI Act (Reg. UE 2024/1689), ma sotto la vigilanza di AgID e ACN. È legittimo disciplinare l’uso interno dell’IA, ma non è legittimo recepire o applicare codici ministeriali o interni non approvati dalle autorità competenti.
📘 4. Il principio di legittimità come presidio etico
Seguire un codice etico “ben scritto ma illegittimo” non esonera dalle responsabilità. Anzi, dimostra consapevolezza di utilizzare un atto privo di base normativa. Nell’era dell’Intelligenza Artificiale, l’etica pubblica coincide con la legalità amministrativa: solo ciò che è conforme alla competenza istituzionale è anche eticamente corretto.
🧭 5. Cosa fare, in concreto
- Attenersi alle linee guida e agli avvisi pubblicati da AgID e ACN;
- Inserire nei codici interni una clausola di legittimità normativa che escluda l’efficacia di indicazioni da altri soggetti;
- Verificare sempre la pubblicazione in Gazzetta Ufficiale o nei portali ufficiali delle due Agenzie.
Checklist di legittimità per un Codice Etico AI
“Nell’era dell’Intelligenza Artificiale, l’etica della PA non si misura solo nella correttezza dei principi, ma nella legittimità delle fonti.”
Vi lascio la pagina dedicata all’AI ed un codice ETICO che puo essere usato per le istituzioni scolastiche che voglio vietare l’USO dell’AI
Ricordate se volete usare l’AI dovete anche redigere il PTIPA. Gli altri non lo dicono ? ecco perchè costo il triplo e non faccio sconti.








