AI ACT e GDPR. Introduzione delle tracce documentali.
Si continua a ripetere che “basta il GDPR” anche per governare l’Intelligenza Artificiale.
L’articolo pubblicato su Agenda Digitale – “GDPR e IA: dove il regolamento regge e dove mostra i suoi limiti” – dimostra invece una verità meno rassicurante: il GDPR regge, sì, ma solo fino a un certo punto.
Il Regolamento (UE) 2016/679 nasce con un’impostazione lungimirante, ma è figlio di un’epoca in cui Big Data e IA non avevano ancora assunto il ruolo sistemico che oggi conosciamo. Non è un difetto morale del GDPR, è un limite strutturale.
Dove il GDPR tiene ancora
Il GDPR continua a essere centrale per almeno tre ragioni:
- la definizione ampia e dinamica di dato personale, che consente di ricondurre sotto tutela anche trattamenti algoritmici apparentemente “anonimi”;
- il principio di privacy by design e by default, che obbliga a incorporare la tutela dei diritti già nella progettazione dei sistemi;
- l’art. 22 sulle decisioni automatizzate, che introduce per la prima volta un argine giuridico all’automazione cieca.
Questi elementi rendono il GDPR tutt’altro che superato.
Ma non lo rendono sufficiente.
Dove il modello GDPR inizia a scricchiolare
Il problema emerge quando il GDPR incontra davvero l’IA, non quella da brochure, ma quella reale:
- sistemi opachi (“black box”);
- apprendimento continuo;
- finalità che emergono ex post;
- riuso massivo e incrociato dei dati.
Il GDPR presuppone:
- finalità definite ex ante,
- ruoli chiari (titolare, responsabile),
- trattamenti delimitabili,
- informative comprensibili.
L’Intelligenza Artificiale, soprattutto quella data-driven, funziona all’opposto.
Il mito dell’anonimizzazione
Uno dei passaggi più rilevanti dell’articolo riguarda l’anonimizzazione.
Nel contesto dei Big Data, l’anonimizzazione “forte” è spesso un’illusione: la re-identificazione non è un’ipotesi teorica, ma una possibilità concreta, soprattutto quando i dataset vengono incrociati.
Questo significa che:
- il confine tra dato personale e non personale è instabile;
- la tutela GDPR resta potenzialmente sempre rilevante;
- ma il sistema è costretto a rincorrere l’evoluzione tecnica.
Decisioni automatizzate: tutela parziale
L’art. 22 GDPR rappresenta un primo tentativo di controllo dell’automazione decisionale, ma:
- si applica solo in casi specifici;
- può essere aggirato con un “intervento umano” meramente formale;
- non risolve il nodo centrale dell’opacità algoritmica.
La domanda resta inevasa:
come si può garantire trasparenza e tutela se nemmeno chi sviluppa il sistema è in grado di spiegare il risultato prodotto?
Bias, discriminazioni e cortocircuito normativo
Il GDPR impone la minimizzazione dei dati.
La lotta ai bias algoritmici, però, spesso richiede l’uso (controllato) di dati anche sensibili.
Qui emerge un cortocircuito evidente:
- senza dati adeguati, i bias non si individuano;
- senza individuarli, le discriminazioni si cristallizzano;
- ma il GDPR, da solo, non chiarisce fino in fondo come bilanciare questi interessi.
Non a caso interviene il Regolamento europeo sull’Intelligenza Artificiale, che affronta questi temi in modo più diretto e strutturato.
Il punto politico (e giuridico) vero
Il messaggio dell’articolo è chiaro, anche se scomodo:
non basta dichiararsi “GDPR compliant” per governare l’Intelligenza Artificiale.
Serve un cambio di paradigma:
- dalla protezione del singolo trattamento
- alla governance dei sistemi
- dal rispetto formale
- alla responsabilità sostanziale.
Ed è proprio qui che si apre il tema che volutamente lascio sospeso.
Chi risponde davvero di un sistema di IA?
Come si dimostra, nel tempo, che un sistema è stato progettato, addestrato e utilizzato correttamente?
La risposta non è (solo) giuridica.
Passa anche da come descriviamo, documentiamo e tracciamo i sistemi.
ORA entrerò nel punto che molti evitano:
metadati, tracciabilità e accountability operativa dell’Intelligenza Artificiale.
Perché senza metadati, l’accountability resta solo una parola elegante.
Se il GDPR mostra i suoi limiti quando incontra l’Intelligenza Artificiale, una parte della risposta non arriva da nuove norme, ma da strumenti che già esistono e che continuiamo a sottovalutare.
L’Allegato 5 alle Linee Guida AgID sui documenti informatici è uno di questi.
Non parla di Intelligenza Artificiale.
Non usa parole come algoritmo, modello, addestramento, explainability.
Eppure costruisce qualcosa di molto più rilevante: un’idea di documento come oggetto giuridico tracciabile nel tempo, non come semplice file.
L’Allegato 5 sposta l’attenzione dal contenuto al contesto: chi ha prodotto il documento, come è stato formato, con quali strumenti, in quale momento, attraverso quali trasformazioni. È un impianto pensato per la responsabilità, prima ancora che per l’archiviazione.
La possibilità di indicare modalità di formazione automatica, di identificare sistemi software come produttori, di tracciare le modifiche, di legare il documento a un’impronta persistente, costruisce una narrazione giuridica del documento digitale. Una narrazione che non chiede solo “cosa è questo documento”, ma “come è nato” e “chi ne risponde”.
In questo senso, l’Allegato 5 non è neutro rispetto all’Intelligenza Artificiale.
È semplicemente anteriore al dibattito pubblico sull’IA, ma già orientato a un mondo in cui i documenti non sono più solo scritti da persone.
Il punto critico, allora, non è l’assenza di un’etichetta “IA”, ma l’uso che facciamo – o non facciamo – dei metadati. Perché senza metadati, l’automazione è invisibile. E ciò che è invisibile non è governabile.
Ed è qui che il discorso si interrompe volutamente.
Perché se il documento diventa il luogo in cui si rende visibile il processo, allora la vera domanda non è più normativa, ma operativa:
come rendiamo leggibile, verificabile e contestabile l’intervento dell’Intelligenza Artificiale?
La risposta passa da una parola che tutti citano e pochi praticano: accountability.
E l’accountability, prima ancora che nei regolamenti, vive nei metadati.
Vi allego l’allegato 5 della DET AGID 371/21.
Qui invece una scheda sinottica della tassonomia.
Tassonomia dei metadati – Allegato 5 AgID
1. Identificazione del documento
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| IdDoc | Complesso | Obbligatorio | Identificativo univoco e persistente del documento |
| Impronta | Semplice | Obbligatorio | Garanzia di integrità nel tempo |
| DataFormazione | Semplice | Obbligatorio | Collocazione temporale certa |
| Oggetto | Semplice | Obbligatorio | Sintesi del contenuto documentale |
| ChiaveDescrittiva | Semplice | Facoltativo | Supporto alla ricerca e indicizzazione |
2. Modalità di formazione
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| ModalitaDiFormazione | Semplice (enumerato) | Obbligatorio | Descrive l’origine del documento (redazione, acquisizione, transazione, generazione automatica) |
| DataInizioFormazione | Semplice | Condizionato | Tracciabilità del processo formativo |
| DataFineFormazione | Semplice | Condizionato | Chiusura del processo formativo |
Nodo strategico: è il metadato che consente di distinguere documenti “nativi digitali”, acquisiti o generati da processi automatici.
3. Soggetti
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| Soggetti | Complesso | Obbligatorio | Attribuzione giuridica delle responsabilità |
| └ Ruolo | Semplice (enumerato) | Obbligatorio | Autore, Produttore, Destinatario, ecc. |
| └ TipoSoggetto | Semplice | Obbligatorio | Persona fisica, giuridica, sistema software |
| └ Denominazione | Semplice | Obbligatorio | Identificazione del soggetto |
| └ CodiceIdentificativo | Semplice | Condizionato | CF, P.IVA, altro ID |
4. Formato e strumenti di produzione
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| IdentificativoDelFormato | Complesso | Obbligatorio | Riconoscimento tecnico del documento |
| └ NomeFormato | Semplice | Obbligatorio | PDF/A, XML, DOCX, ecc. |
| └ VersioneFormato | Semplice | Facoltativo | Versionamento tecnico |
| └ ProdottoSoftware | Complesso | Condizionato | Strumento utilizzato per la produzione |
| └─ Nome | Semplice | Condizionato | Denominazione software |
| └─ Versione | Semplice | Condizionato | Versione del prodotto |
| └─ Produttore | Semplice | Condizionato | Fornitore del software |
5. Classificazione e fascicolazione
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| Classificazione | Complesso | Obbligatorio | Inserimento nel sistema di classificazione |
| CodiceClassificazione | Semplice | Obbligatorio | Riferimento al titolario |
| Fascicolo | Complesso | Condizionato | Aggregazione documentale |
| IdFascicolo | Semplice | Condizionato | Identificativo fascicolo |
| OggettoFascicolo | Semplice | Condizionato | Contesto amministrativo |
6. Tracciabilità e modifiche
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| TracciatureModificheDocumento | Complesso | Facoltativo | Storico delle variazioni |
| └ DataModifica | Semplice | Condizionato | Quando avviene la modifica |
| └ TipoModifica | Semplice | Condizionato | Integrazione, sostituzione, aggiornamento |
| └ SoggettoOperante | Complesso | Condizionato | Chi ha effettuato la modifica |
7. Conservazione
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| StatoDiConservazione | Semplice | Obbligatorio | Presa in carico / conservato |
| DataVersamento | Semplice | Condizionato | Avvio conservazione |
| SistemaConservazione | Semplice | Condizionato | Identificazione del conservatore |
8. Metadati descrittivi residuali
| Metadato | Tipo | Obbligatorietà | Funzione |
|---|---|---|---|
| Note | Semplice (testo libero) | Facoltativo | Informazioni ulteriori sul contesto |
| Riferimenti | Complesso | Facoltativo | Collegamenti logici con altri documenti |
ORA ANALIZZIAMO alcune sigle che tutti GLI ESPERTI di AI dovrebbero conoscere
A. HIC – Human in Command
(caso virtuoso, raro)
- L’IA è uno strumento di supporto.
- L’umano decide:
- se usare l’output
- come modificarlo
- se scartarlo
- Il processo decisionale non è delegato.
Verità scomoda:
Se non sei in grado di rifare quel documento senza IA, non sei in HIC.
B. HITL – Human in the Loop
(il caso più abusato)
- L’IA produce un output.
- L’umano interviene formalmente:
- revisione superficiale
- approvazione
- firma
Domanda da fare ai decisori
L’umano è in grado di spiegare perché quell’output è corretto?
C. HOTL – Human on the Loop
(governance, non decisione)
- L’IA opera in autonomia.
- L’umano:
- monitora
- interviene solo in caso di anomalie
- non valuta ogni singolo output
Qui il problema non è il documento, ma il sistema.
Se usi questa modalità e non lo dichiari, stai mentendo per omissione.
D. No Human Validation
(la verità che nessuno scrive)
- Documento generato automaticamente.
- Nessuna validazione umana sostanziale.
- Firma “per catena”.
Questo accade già oggi.
Non scriverlo nei metadati non lo rende meno vero.
Lo rende solo inermi in caso di contenzioso.
Perché l’Allegato 5 è più sovversivo di quanto sembri
L’Allegato 5 non ti chiede:
“hai usato l’IA?”
Ti chiede implicitamente:
“sei in grado di ricostruire il processo?”
Ed è molto peggio.
Perché ricostruire il processo significa:
- distinguere tra supporto e delega;
- tra controllo reale e formale;
- tra firma e responsabilità.
Per dimostrare la spiegabilità del decisore, il documento deve contenere metadati che rendano evidente che:
- l’IA non ha deciso
- il decisore sapeva di usare l’IA
- il decisore ha compreso l’output
- il decisore ha interagito col contenuto
- il decisore può spiegare ex post il perché della decisione
Se uno solo di questi punti non è dimostrabile dai metadati,
art. 50 AI Act e art. 14 L. 132/2025 non sono rispettati, anche se tutti firmano.
GRIGLIA METADATI – SPIEGABILITÀ DEL DECISORE (IA)
LIVELLO 1 – Trasparenza sull’uso dell’IA
| Metadato (Allegato 5) | Domanda | Opzioni di risposta |
|---|---|---|
| Modalità di formazione | Il documento è stato prodotto con supporto di IA? | No, redazione interamente umana / Sì, IA come supporto informativo / Sì, IA come supporto redazionale / Sì, generazione automatica |
| Soggetti – Produttore (SW) | È presente un sistema software che ha contribuito alla formazione? | No / Sì, software tradizionale / Sì, sistema con funzionalità IA |
| Identificativo del formato – Prodotto software | Il software è identificabile (nome e versione)? | Non applicabile / Identificato parzialmente / Identificato completamente |
LIVELLO 2 – Attribuzione della decisione
| Metadato (Allegato 5) | Domanda | Opzioni di risposta |
|---|---|---|
| Soggetti – Autore | Chi è responsabile del contenuto finale? | Persona fisica identificata / Ufficio o struttura / Sistema software |
| Soggetti – Operatore | Chi ha validato il documento prima della firma? | Persona fisica / Validazione automatica / Nessuna validazione |
| Ruolo del soggetto | Il ruolo è coerente con il potere decisionale? | Sì / Parzialmente / No |
LIVELLO 3 – Spiegabilità sostanziale del decisore
| Metadato (Allegato 5) | Domanda | Opzioni di risposta |
|---|---|---|
| Oggetto | La decisione è descritta in modo comprensibile? | Sì, chiara e completa / Sì, ma sintetica / No |
| Chiave descrittiva | Ambito ed effetti della decisione sono intelligibili? | Sì / Parzialmente / No |
| Note | È descritto il ruolo dell’IA nel processo decisionale? | Sì, in modo esplicito / Sì, in modo generico / No |
LIVELLO 4 – Controllo umano sull’output IA
| Metadato (Allegato 5) | Domanda | Opzioni di risposta |
|---|---|---|
| Tracciature modifiche documento | L’output IA è stato modificato da un umano? | Sì, in modo sostanziale / Sì, in modo formale / No |
| Tipo di modifica | Che tipo di intervento umano è avvenuto? | Integrazione / Correzione / Annotazione / Nessuna |
| Soggetto operante | Chi ha effettuato la modifica? | Persona fisica / Sistema software / Non tracciato |
LIVELLO 5 – Spiegabilità nel tempo (audit ex post)
| Metadato (Allegato 5) | Domanda | Opzioni di risposta |
|---|---|---|
| Versione del documento | Il documento presenta versioni tracciate? | Sì / No |
| Data e ora di formazione | La sequenza temporale è ricostruibile? | Sì / Parzialmente / No |
| IdDoc e impronta | Integrità e autenticità sono verificabili? | Sì / No |
ESITO DELLA VALUTAZIONE
| Esito | Condizione |
|---|---|
| Spiegabile e conforme | Tutti i livelli almeno “parzialmente” |
| Formalmente conforme | Livelli 1–2 adeguati, criticità su 3–4 |
| Non spiegabile | Fallimento del livello 3 o 4 |
| Critico / alto rischio | Autore = sistema software o validazione automatica |
Ora vi lascio un paragrafo da inserire “con le dovute” personalizzazioni nel codice etico AI e nel MDGD ex DET 371/21
Utilizzo di sistemi di Intelligenza Artificiale, spiegabilità della decisione e metadati documentali
L’Ente riconosce che l’utilizzo di sistemi di Intelligenza Artificiale, anche quando limitato a funzioni di supporto redazionale, istruttorio o informativo, incide sul processo di formazione dei documenti amministrativi e, di conseguenza, sulla responsabilità connessa alle decisioni adottate. In conformità alle Linee Guida AgID sulla formazione, gestione e conservazione dei documenti informatici, nonché al Regolamento (UE) 2024/1689 e alla Legge 132/2025, l’adozione di strumenti di Intelligenza Artificiale non può determinare alcuna delega della responsabilità decisionale, che resta in capo a una persona fisica legittimata.
Al fine di garantire la spiegabilità della decisione amministrativa e la ricostruzione del processo documentale, l’Ente assicura che l’eventuale utilizzo di sistemi di Intelligenza Artificiale emerga dai metadati associati al documento informatico, attraverso la corretta valorizzazione dei metadati previsti dall’Allegato 5 delle Linee Guida AgID. I metadati devono consentire di comprendere se e in quale misura l’automazione abbia inciso sulla formazione del documento, distinguendo chiaramente tra attività svolte da sistemi software e decisioni assunte da soggetti umani.
A tal fine, l’Ente adotta la seguente griglia di riferimento per la spiegabilità del decisore in presenza di Intelligenza Artificiale, da intendersi come strumento di supporto alla corretta compilazione dei metadati e alla valutazione del livello di controllo umano esercitato sul documento.
Griglia di riferimento – Metadati e spiegabilità del decisore
Livello 1 – Trasparenza sull’uso dell’Intelligenza Artificiale
Attraverso i metadati relativi alla modalità di formazione del documento, ai soggetti produttori di tipo software e all’identificazione del prodotto software utilizzato, deve risultare se il documento è stato formato integralmente da un operatore umano o con il supporto di sistemi automatizzati o di Intelligenza Artificiale.Livello 2 – Attribuzione della decisione
I metadati relativi ai soggetti devono consentire di individuare una persona fisica responsabile del contenuto finale del documento e, ove previsto, della sua validazione. L’attribuzione della decisione a un sistema software non è ammessa e costituisce una criticità ai fini della legittimità del documento.Livello 3 – Spiegabilità sostanziale della decisione
Attraverso l’oggetto, le chiavi descrittive e le note, il documento deve rendere comprensibile la natura della decisione assunta e il ruolo svolto dall’Intelligenza Artificiale nel processo decisionale, chiarendo che l’output automatizzato è stato valutato criticamente dal decisore umano.Livello 4 – Controllo umano sull’output automatizzato
Le tracciature delle modifiche devono consentire di verificare se e come il contenuto generato o proposto dal sistema di Intelligenza Artificiale sia stato modificato, integrato o validato da una persona fisica, distinguendo tra interventi sostanziali, formali o assenza di intervento.Livello 5 – Spiegabilità nel tempo e verificabilità ex post
Attraverso il versionamento del documento, la registrazione temporale, l’identificativo univoco e l’impronta, deve essere possibile ricostruire nel tempo il processo di formazione e modifica del documento, anche ai fini di controllo, audit o contenzioso.
La griglia sopra riportata non introduce nuovi metadati, ma fornisce una chiave di lettura e di utilizzo dei metadati (non obbligatori) già previsti dall’Allegato 5, orientata alla spiegabilità della decisione e alla responsabilità del decisore umano. L’Ente considera la corretta compilazione dei metadati come parte integrante del processo decisionale e non come mero adempimento formale, in quanto condizione essenziale per garantire trasparenza, responsabilità e legittimità dell’azione amministrativa in presenza di sistemi di Intelligenza Artificiale.
Ora vi lascio un semplice tool per prendere dimestichezza con le informazioni “di spiegabilità” vi ricordo che la trasparenza invece deve essere dichiarata (50 del reg e 14 della legge italiana)

Ci vediamo prossimamente per l’acquisto dei sistemi di AI……..eh si…..la procedura è diversa!!!!!







