nicfab-podcast-legal-prompting-IT Benvenuti al NICFA Podcast, sono Nicola Fabiano, avvocato e questo è il primo episodio di una nuova rubrica dedicata a Legal Prompting. Prima di entrare nel tema voglio chiarire subito un punto. Questa rubrica non nasce per spiegare genericamente come si usa GPT o più in generale un sistema di intelligenza artificiale generativa. Non è un tutorial e non vuole nemmeno inseguire l'entusiasmo un po' superficiale che spesso accompagna questi strumenti. L'obiettivo è un altro, capire come l'intelligenza artificiale possa essere utilizzata in ambito giuridico e professionale con metodo, consapevolezza e senso critico. Quando parlo di Legal Prompting infatti non mi riferisco semplicemente alla capacità di fare domande a un modello linguistico, mi riferisco alla capacità di formulare istruzioni in modo giuridicamente strutturato, tenendo conto della logica del ragionamento legale, della gerarchia delle fonti, dei criteri interpretativi, degli obblighi professionali e delle conseguenze concrete che una risposta può avere per un cliente, per un'organizzazione o per una decisione operativa. Ed è proprio qui che si gioca la vera differenza. La differenza tra un prompt generico e un prompt giuridicamente ben costruito non sta nella tecnologia, sta nel metodo. E il metodo, nel diritto, non può essere improvvisato. Un professionista del diritto non può limitarsi a ottenere un testo apparentemente plausibile, deve essere in grado di valutarlo, verificarlo, contestualizzarlo e se necessario correggerlo radicalmente. In altre parole non si può delegare a un modello ciò che non si è in grado di controllare con competenza. In questa rubrica ci accompagneranno sempre tre premesse fondamentali. La prima è che i modelli linguistici non ragionano come i giuristi. Producono testi plausibili, spesso ben scritti, talvolta persino convincenti. Ma plausibilità non significa correttezza giuridica. Un modello può confondere fonti normative, citare articoli inesistenti, mescolare ordinamenti diversi, invertire rapporti tra norma generale speciale, oppure proporre sintesi formalmente eleganti ma sostanzialmente errate. Per questo la supervisione umana non è un elemento accessorio. È il centro del problema. È per chi esercita una professione regolata e anche una responsabilità precisa. La seconda premessa è che l'uso dell'intelligenza artificiale in ambito professionale non si colloca in uno spazio vuoto. Esiste già oggi un quadro normativo e regolatorio che impone attenzione. Penso al GDPR, l'EIA, i principi di riservatezza, minimizzazione e accountability, ai doveri ideontologici, agli obblighi organizzativi che riguardano studi, imprese e pubbliche amministrazioni. Questo significa che l'EIA non è uno strumento neutro da adottare con leggerezza. È uno strumento potente, ma anche regolato e il suo utilizzo richiede scelte consapevoli. La terza premessa è forse la più sottovalutata. La scelta del modello e dell'infrastruttura non è una decisione puramente tecnica. È anche, e spesso soprattutto, una decisione di compliance. Usare un sistema in cloud per trattare informazioni riservate, dati personali o contenuti coperti da segreto professionale senza avere valutato adeguatamente i presupposti giuridici e organizzativi può esporre a rischi molto seri. Bisogna chiedersi dove vanno i dati, chi li tratta, per quali finalità, con quali garanzie, con quali condizioni contrattuali, con quali implicazioni in termini di trasferimenti, sicurezza e responsabilità. In altre parole, prima ancora di chiedersi che cosa può fare questo modello, bisognerebbe chiedersi in quali condizioni posso usarlo legittimamente e responsabilmente. Ed è esattamente per tali motivi che nasce questa rubrica. Negli ultimi mesi il tema del legal prompting è diventato sempre più centrale nel mio lavoro, nella ricerca e nelle attività di formazione. Me ne occupo in articoli, in interventi pubblici, in contesti accademici e professionali, ma ho avvertito l'esigenza di creare anche uno spazio più diretto, più ragionato e, se vogliamo, più operativo. Il podcast vuole essere proprio questo, uno spazio di approfondimento in cui affrontare casi concreti, problemi reali e domande che riguardano chi lavora nel diritto, nella compliance, nella protezione dei dati, nella cybersecurity e nella governance dell'innovazione. Non parleremo quindi dell'intelligenza artificiale in astratto, parleremo di come usarla e di come non usarla, quando si scrive un'informativa privacy, quando si analizza un provvedimento del garante, quando si prepara una valutazione giuridica, quando si imposta un sistema di retrivial o un progetto di RAG in ambito legale, quando si vuole integrare le AI nei processi interni di uno studio o di un'organizzazione senza creare nuovi rischi. Vedremo anche un altro aspetto essenziale. Usare bene questi strumenti non significa soltanto ottenere risposte migliori, significa soprattutto costruire processi migliori, perché un buon prompt da solo non basta. Serve un contesto adeguato, serve un metodo di verifica, serve la capacità di distinguere tra supporto operativo e sostituzione impropria del giudizio professionale. Ecco perché il legal prompting, almeno per come lo intendo io, non è una tecnica isolata, è un punto di incontro tra competenza giuridica, capacità critica, governance del dato e responsabilità professionale. Nei prossimi episodi entreremo più nel dettaglio. Parleremo di struttura del prompt giuridico, di errori ricorrenti, di affidabilità delle risposte, di fonti, di controlli, di uso dell'AI nella redazione documentale, nei flussi di compliance e nei sistemi di supporto alle decisioni. E cercheremo di farlo sempre partendo da un'idea semplice. L'innovazione è utile solo quando resta governabile. Se questi temi vi interessano potete seguire anche i miei approfondimenti sul mio blog nickfab.eu e iscrivervi alla NickFab Newsletter, sempre dal mio blog, dove ogni settimana condivido analisi, riferimenti e spunti su privacy, data protection, intelligenza artificiale, cyber security e innovazione normativa. Grazie per aver ascoltato questo primo episodio del NickFab Podcast. Ci sentiamo presto con il prossimo appuntamento dedicato al Legal Prompting.