Buongiorno a tutti, benvenuti a questo nostro primo incontro For Humanity Italy, un incontro
organizzato dal chapter italiano di For Humanity. For Humanity è un'associazione che ha sede negli
Stati Uniti e New York, ma ha una presenza in Europa e una presenza italiana. Mi pregio di
essere ambassador di For Humanity e in questo ruolo, con i colleghi e amici italiani appartenenti
fellow e appartenenti a For Humanity, abbiamo deciso di organizzare un progetto finalizzato
alla divulgazione di quelle che sono le tematiche più attuali e comunque connesse con le attività
svolte dalla stessa associazione For Humanity. Oggi abbiamo ospite Sandra Mikwicz che ci parlerà
di alcuni dei temi più attuali, in particolare NLP e LLM, Large Language Models, e quindi do un
ringrazio per la sua partecipazione e nel cederle la parola le chiedo, le pongo la prima domanda che
è questa. Che cosa sono NLP e Large Language Models, LLM? Grazie Sandra. Grazie, sono molto
felice e contenta di stare qui oggi e parlare di queste tematiche che ci tengo tanto. NLP è un campo
dei metodi computazionali che si occupa di analizzare, interpretare e trattare il linguaggio
umano, sia parlato, scritto o trasmesso tramite mezzi multimediali e si fa questo attraverso
l'uso di tecniche algoritmiche e statistiche. A un altro lato, il LLM, Large Language Model,
sono un'evoluzione da Natural Language Processing e consentono di integrare e generalizzare
moltiplici attività di NLP all'interno di un unico modello, quindi non abbiamo più un compito
specifico di risolvere, ma questo modello è capace di risolvere più compiti interno allo
stesso modello. E si usano questi modelli per analizzare il linguaggio, ma anche di prendere
in considerazione il contesto e generare testi e adattarsi ai compiti diversi a partire degli
input ricevuti e usano tecniche di deep learning e reti neurali. Fra di noi si conosce forse anche
delle Large Language Models che si trovano dentro, c'è GPT, poi in Francia c'è Mistral,
anche Gemini da Google, Cloud e poi in Italia ci sono anche dei Large Language Models che sono
stati addestrati specificamente per la lingua italiana e fra quelli troviamo Minerva e Modello
Italia. Grazie Sandra, molto molto interessante. Io ho una curiosità, che cosa si intende per NLP
e Large Language Models responsabili, perché il tema è veramente veramente molto interessante,
è particolarmente attuale, parliamo di responsabilità, quindi che cosa si intende?
Grazie, sì. Con NLP e Large Language Models responsabili possiamo considerare sistemi
progettati, sviluppati e utilizzati in un modo di ridurre rischi, ma non solo, anche prevenire danni
e garantire un controllo umano effettivo lungo tutto il loro ciclo di vita. Ci tengo adesso di
nominare alcune organizzazioni e organi che hanno portato questo dalla teoria in pratica
per renderlo più pragmatico, per poter veramente capire cosa si intende.
High Leg AI è un'organizzazione della Commissione europea che ha sviluppato sette
principi. In inglese questa organizzazione si chiama High Level Expert Group Artificial
Intelligence. Questi sette principi sono agenzia e supervisione umana, robustezza tecnica e
sicurezza, tutela della privacy e governance, trasparenza, diversità, benessere sociale e
ambientale e responsabilità. Ovviamente questo può essere anche un po' difficile di capire quando
si sentono per la prima volta, però sono dei principi per guidare sia forse individuali,
anche organizzazioni e sul loro sito di web si può anche approfondire. Poi c'è un'altra
organizzazione che si chiama For Humanity, che avevo anche nominato qui all'inizio. È un'
organizzazione che lavora in un modo olistico, però ancora più vicino a questo concetto di
veramente l'essere umano nel mezzo di queste tecnologie e lo fanno tramite anche, diciamo,
forse più che principi, veramente delle framework tramite etica, lo guardano tramite bias, privacy,
fiducia e poi hanno anche aggiunto il cyber security. E questi sono questi pilastri fondamentali
per permettere a delle organizzazioni di poter veramente avere questo controllo umano effettivo
tutto il loro ciclo di vita. Benissimo, benissimo, grazie, grazie. L'aspetto,
questo aspetto, diciamo, è semplicemente importante e le attività di For Humanity
sono in questa direzione, quindi tutta la parte per auditare sistemi, documentare scelte,
responsabilità, veramente molto interessante. Ho ancora qualche domanda per te, Sandra,
quali sono i principali rischi, secondo te, associati all'uso di NLP, Large Language Models?
Grazie. Sì, quando si parlano di rischi penso che siano tanti rischi che si possono nominare,
però ci tengo di nominare alcuni anche per renderlo molto molto semplice, diciamo così.
Un rischio sicuramente è di generazione di informazioni errate o inventate, in inglese
si chiamano anche hallucinations, quindi vuole dire quando il modello si inventa. Non mi piace
usare questa cosa, inventare, ma il modello genera delle informazioni che secondo un fatto non è
vero. Ma c'è anche il rischio di diffusione di misinformation, che anche questo può essere
collegato con l'hallucination, però può anche essere collegato con una situazione
quando un utente chiede, fa una domanda a una Large Language Models e l'informazione che viene
generata dal modello non non è compatibile o non non è vero, però questo utente che sta usando
l'informazione che è generata da questo modello non fa una verifica di questa risposta e lo usa,
però poi c'è anche tutto un concetto dietro anche misinformation. La presenza di bias e poi la
perdita di controllo sui processi decisionali automatizzati, qui possiamo anche pensare su
AI agents, per esempio, perché lì andiamo sempre alle tecnologie più autonome e automatizzare
sempre compiti che forse esseri umani preferiscono di non svolgere. Ottimo, grazie. E senti, per
concludere vorrei chiederti se puoi darci un quadro, diciamo anche in maniera molto sintetica, per capire come
concretamente le aziende possono fare per rendere NLP e LLM responsabili, auditabili e governabili,
perché questo credo che sia uno degli aspetti più problematici e più avvertiti nel concreto da parte
delle organizzazioni. Quindi puoi darci un quadro breve di come possono fare le organizzazioni?
Grazie. Certo, grazie. Allora, qui direi che ci vuole proprio un approccio olistico, ci vuole
un approccio ben strutturata che include processi, persone, la tecnologia e soprattutto anche la
responsabilità. E non solo all'inizio, quando si sviluppano questi sistemi, ma come abbiamo già
nominato durante le domande e la discussione precedente, che dovrebbe essere fatto lungo tutto
il ciclo di vita di questi sistemi. Questo framework, come uno si possa immaginare, dipende sempre da
organizzazione a organizzazione, le risorse che ci sono disponibili, però appunto ci vuole sempre
un collaborazione fra la tecnologia e le persone. Quindi anche qui, for Humanities, penso che è un
esempio di come si possono creare questi pilastri fondamentali, come si possono, come queste aziende
possono andare a affrontare questo. E si parla di accountability e responsabilità chiare, si parla
di leadership, governance e allocazione delle risorse, si parla di supervisione umana e controllo
operativo, gestione del rischio e integrità del sistema. Poi qui, sempre sull'approccio human in
the loop, l'umano essere nel mezzo di queste tecnologie, si parla di tutela delle persone
e delle popolazioni vulnerabili, si parla di trasparenza e tracciabilità e gestione di
risorse, si parla di coordinamento e formazione. E questo punto, secondo me, è anche molto importante,
perché soprattutto adesso che le tecnologie si sviluppano molto veloce, una sistema che il giorno
numero uno è stato sviluppato e pensato in un certo modo, avrà anche la sua evoluzione. E'
importante anche che le persone che sviluppano la tecnologia, però stanno anche intorno, devono
anche poi seguire questa evoluzione, anche tramite informazione. E poi si può parlare della conformità
normativa e qui ci sono anche, questo poi non è campo mio, però ci sono poi
delle leggi e delle normative che uno anche come azienda segue.
Grazie Sandra. Effettivamente questi sono punti messamente cruciali che andrebbero poi sviluppati
singolarmente e declinati in tutte le loro specifiche per offrire un quadro molto
più preciso. E' chiaro che qui in questa sede siamo a fare una breve chiacchierata e quindi la tua
sintesi è davvero molto efficace. Benissimo, allora concludiamo qui il nostro primo appuntamento
di questo progetto For Humanity Italy attualità scienza tecnologia. Un sentito ringraziamento a
Sandra Mikwicz e arrivederci o a risentirci presto con altri appuntamenti. Grazie,
buon proseguimento. Grazie Sandra. Grazie mille, grazie mille.