Legal Prompting - Analizzare le decisioni delle autorità
S01:E02

Legal Prompting - Analizzare le decisioni delle autorità

Episode description

Secondo episodio della serie Legal Prompting.

Come usare l’intelligenza artificiale per analizzare una decisione di un’autorità di protezione dei dati: perché “analizza questo documento” non basta, come costruire un prompt strutturato (ruolo, contesto, istruzioni specifiche, formato), le trappole da conoscere — allucinazioni normative, perdita delle sfumature argomentative, riferimenti incrociati inventati — e le implicazioni di compliance nell’uso di modelli cloud.

Leggi la rubrica nella newsletter → nicfab.eu

Download transcript (.srt)
0:10

Bentornati al podcast di NicFab dedicato al Legal Prompting. Sono Nicola Fabiano e questo è il

0:16

secondo episodio. Nel primo episodio ho introdotto il tema, ho spiegato cos'è il Legal Prompting e

0:23

ho posto tre premesse fondamentali che accompagneranno ogni episodio di questa

0:26

serie. Ve le ricordo brevemente. I modelli linguistici non ragionano come giuristi. Il

0:33

quadro normativo europeo impone limiti precisi all'uso dell'intelligenza artificiale nelle

0:38

attività professionali. La scelta del modello e dell'infrastruttura non è una decisione tecnica,

0:44

è una decisione di compliance. Oggi entriamo nel concreto. Parliamo di come usare l'intelligenza

0:50

artificiale per analizzare una decisione di un'autorità di protezione dei dati personali.

0:55

Perché partire dalle decisioni delle autorità? Chi lavora nella protezione dei dati, avvocati,

1:02

dpo, responsabili, compliance, si confronta quotidianamente con le decisioni delle autorità

1:08

di controllo. E non parlo solo dell'autorità del proprio paese. Un dpo che opera in un contesto

1:14

europeo deve confrontarsi con le decisioni del garante italiano, della CNIL, francese,

1:20

dell'ICO britannico, del BFDI tedesco, delle autorità irlandese, belga, austriaca e con le

1:27

decisioni e le linee guida delle dpb a livello europeo. Sono documenti spesso lunghi, tecnicamente

1:34

densi, con riferimenti normativi stratificati, scritti in lingue diverse. Leggerli richiede

1:41

tempo, comprenderli richiede competenza, estrarre le informazioni elevanti per il

1:47

caso specifico richiede metodo. È il caso d'uso più naturale per il legal prompting, non perché

1:53

l'intelligenza artificiale possa sostituire la lettura del giurista, questo va detto con chiarezza,

1:59

ma perché può accelerare una fase preliminare, l'orientamento nel testo, l'identificazione

2:04

dei punti chiave, la strutturazione di una prima analisi da verificare, poi in modo approfondito.

2:11

Il problema non basta dire analizza questa decisione, il primo errore e lo vedo molto

2:17

spesso è incollare una decisione in una finestra di chat e scrivere qualcosa come analizza questo

2:22

documento oppure dimmi cosa dice. Il risultato in genere è una sintesi generica superficiale

2:30

che non serve a nulla in un contesto professionale, a volte anche inaccurata. Perché succede? Perché

2:36

il modello non ha contesto, non sa chi sei, non sa perché stai leggendo quella decisione, non sa

2:42

cosa ti serve estrarre, non sa in quale quadro normativo, in quale giurisdizione collocare

2:47

l'analisi. Senza istruzioni precise produce un output generico, è un output generico nel lavoro

2:54

giuridico, è un output inutile quando non è un output pericoloso. Il metodo? Costruire un prompt

3:01

strutturato. Il legal prompting applicato all'analisi delle decisioni richiede un prompt

3:07

strutturato. Vediamo come costruirlo passo dopo passo. Il primo elemento è il ruolo, bisogna dire

3:14

il modello in quale veste professionale ci si pone. Non è un dettaglio, un dpo legge una decisione in

3:20

modo diverso da un avvocato che difende il titolare del trattamento che la legge in modo

3:24

diverso da un consulente che deve valutare l'impatto su un intero settore. Il ruolo orienta

3:30

l'analisi. Il secondo elemento è il contesto. Bisogna spiegare perché si sta analizzando quella

3:38

decisione. Sto verificando la conformità della mia organizzazione? Sto preparando un parere? Sto

3:44

valutando se un certo trattamento è a rischio alla luce di un precedente? Sto confrontando

3:49

l'approccio di due autorità diverse sullo stesso tema? Il contesto delimita il perimetro dell'analisi

3:55

e rende l'output rilevante. Il terzo elemento sono le istruzioni specifiche. Che cosa voglio

4:03

estrarre? Le violazioni contestate? La base giuridica applicata? Le misure correttive imposte? I

4:11

criteri di quantificazione della sanzione? I precedenti citati? L'interpretazione di un articolo

4:17

specifico del GDPR? Più le istruzioni sono precise, più l'output è utilizzabile. Il quarto elemento è

4:24

il formato dell'output. Voglio un'analisi discorsiva? Una tabella con violazione? Norma? Sanzione? Un

4:32

confronto strutturato con un'altra decisione? Un elenco di punti rilevanti per una specifica

4:37

valutazione d'impatto? Il formato va specificato, altrimenti il modello decide da solo e quasi mai

4:44

decide nel modo più utile per chi legge. Un esempio pratico. Facciamo un esempio concreto. Supponiamo

4:52

che un DPO debba analizzare una decisione sanzionatoria di un'autorità di controllo per

4:57

violazione degli obblighi di trasparenza, un tema che attraversa tutte le giurisdizioni europee,

5:03

perché l'articolo 13 e l'articolo 14 del GDPR si applicano ovunque. Un prompt inefficace sarebbe

5:10

analizza questa decisione. Un prompt strutturato secondo il metodo del legal prompting sarebbe

5:16

qualcosa di questo tipo. Agisci come un Dato Protection Officer di un'organizzazione che

5:23

tratta dati su larga scala in ambito europeo. Devo valutare se le informative privacy della

5:28

mia organizzazione presentano carenze analoghe a quelle contestate in questa decisione. Analizza

5:36

la decisione allegata ed estrai 1. le carenze specifiche contestate dall'autorità nelle

5:43

informative rese agli interessati, 2. le norme violate con il riferimento preciso agli articoli

5:49

del GDPR, 3. le misure correttive imposte e le relative tempistiche, 4. i criteri utilizzati

5:56

per la quantificazione della sanzione con riferimento alle linee guida e dpb in materia,

6:02

5. le eventuali circostanze attenuanti o aggravanti riconosciute dall'autorità. Presente

6:08

risultato in forma tabellare con una colonna per ogni elemento. Alla fine aggiungi un paragrafo

6:14

con le implicazioni pratiche per un dpo che deve verificare la conformità delle proprie informative.

6:22

La differenza tra i due prompt è enorme e la differenza nell'output è altrettanto enorme.

6:27

Notate una cosa importante, questo stesso prompt funziona indipendentemente dall'autorità che ha

6:38

della CRIL con una dell'autorità spagnola. Il metodo è lo stesso, cambiano i fatti, cambia la

6:44

lingua, ma la struttura del prompt resta valida. Le trappole. Anche con un prompt ben strutturato ci

6:51

sono trappole che vanno conosciute. La prima è l'allucinazione sui riferimenti normativi. Il

6:57

modello può citare articoli sbagliati, può inventare commi che non esistono, può attribuire

7:03

a una norma un contenuto che appartiene a un'altra. Questo rischio aumenta quando la decisione è in

7:10

una lingua diversa dalla lingua del prompt, perché il modello deve operare una doppia mediazione

7:16

linguistica e giuridica. Ogni riferimento normativo nell'output va verificato, sempre e senza eccezioni.

7:24

La seconda trappola è la perdita delle sfumature argomentative. Le decisioni delle autorità hanno

7:31

una struttura precisa. C'è una differenza sostanziale tra un fatto riportato nella ricostruzione

7:36

dell'istruttoria, un'argomentazione nelle difese del titolare del trattamento e una conclusione

7:42

dell'autorità. Il modello può confondere questi piani, può attribuire all'autorità una posizione

7:48

che in realtà era quella della parte. In un contesto professionale questo è un errore grave.

7:54

La terza trappola riguarda i precedenti e i riferimenti incrociati. Se il modello cita decisioni

8:00

precedenti o linee guida delle dpb, quei riferimenti vanno verificati. Potrebbero non esistere oppure

8:07

esistere ma dire qualcosa di diverso da quello che il modello riporta. Ho visto modelli inventare

8:13

numeri di provvedimento, attribuire a linee guida e dpb contenuti mai espressi, confondere pareri del

8:19

gruppo di lavoro articolo 29 con opinioni delle dpb. Sono errori che in un parere legale o in

8:28

delle conseguenze serie. Le tre premesse applicate. Torniamo alle tre premesse del primo episodio e

8:36

vediamo come si applicano a questo caso d'uso. Supervisione umana, human oversight. L'output

8:43

dell'analisi non è il prodotto finale, è un punto di partenza. Il dpo, l'avvocato, il consulente devono

8:50

leggere la decisione originale, confrontare l'analisi prodotta dal modello, verificare ogni

8:56

riferimento, integrare con la propria competenza e la propria conoscenza del contesto. L'intelligenza

9:03

artificiale non sostituisce il giurista, accelera una fase del lavoro ma la responsabilità resta

9:10

interamente umana. Quadro normativo. La decisione che si sta analizzando potrebbe contenere dati

9:17

personali delle parti coinvolte. Incollare quel testo in un modello cloud senza avere verificato

9:23

i termini di servizio del fornitore, le garanzie sui trasferimenti internazionali dei dati, la

9:30

presenza di un data processing agreement adeguato è un problema di compliance e ciò può valere

9:37

anche quando la decisione sia pubblica perché, qualora essa contenga ancora dati personali

9:43

identificabili, la pubblicità legale o istituzionale dell'atto non rende automaticamente libero qualunque

9:51

successivo riutilizzo di tali dati. L'eventuale impiego del testo in un modello cloud richiede

9:57

comunque una verifica autonoma di base giuridica, finalità, necessità, minimizzazione, ruolo del

10:05

fornitore e garanzie sui trasferimenti. Scelta del modello e dell'infrastruttura. Per analizzare

10:12

decisioni che contengono informazioni riservate penso a decisioni non ancora pubblicate, a bozze,

10:20

a documenti scambiati nell'ambito di procedimenti in corso, un modello locale potrebbe essere la

10:27

scelta più appropriata dal punto di vista della protezione dei dati. Non è sempre necessario,

10:32

ma bisogna porsi la domanda prima, non dopo. Analizzare una decisione di un'autorità di

10:39

protezione dei dati con l'intelligenza artificiale non è copiare e incollare un testo e aspettare

10:44

una risposta. È un processo che richiede metodo, precisione nelle istruzioni e verifica rigorosa

10:51

dell'output. Il Legal Prompting serve esattamente a questo, trasformare un uso approssimativo dello

10:59

strumento in un uso professionale e consapevole. Nel prossimo episodio parleremo di un altro caso

11:06

d'uso concreto, la redazione di informative privacy con l'ausilio dell'intelligenza artificiale.

11:13

Vedremo come strutturare i prompt, quali errori evitare e perché un'informativa generata senza

11:19

supervisione può creare più problemi di quelli che risolve. Se volete approfondire sul mio blog

11:26

nickfab.eu trovate un articolo dedicato al Legal Prompting con riferimenti e link utili e ogni

11:33

martedì nella NickFab Newsletter trovate la rubrica Legal Prompting anche in formato scritto.

11:39

Iscrivetevi alla newsletter su nickfab.eu. Grazie per l'ascolto, al prossimo episodio.