ForHumanity Italy incontra Sandra Mickwitz
S01:E01

ForHumanity Italy incontra Sandra Mickwitz

Episode description

Primo incontro del progetto “Conversazioni su AI, Etica e Standard”. Incontro con Sandra Mickwitz. Opinioni su IA, etica, protezione dei dati personali, privacy, innovazione.

Download transcript (.vtt)
0:11

Buongiorno a tutti, benvenuti a questo nostro primo incontro For Humanity Italy, un incontro

0:20

organizzato dal chapter italiano di For Humanity. For Humanity è un'associazione che ha sede negli

0:25

Stati Uniti e New York, ma ha una presenza in Europa e una presenza italiana. Mi pregio di

0:32

essere ambassador di For Humanity e in questo ruolo, con i colleghi e amici italiani appartenenti

0:42

fellow e appartenenti a For Humanity, abbiamo deciso di organizzare un progetto finalizzato

0:49

alla divulgazione di quelle che sono le tematiche più attuali e comunque connesse con le attività

0:57

svolte dalla stessa associazione For Humanity. Oggi abbiamo ospite Sandra Mikwicz che ci parlerà

1:07

di alcuni dei temi più attuali, in particolare NLP e LLM, Large Language Models, e quindi do un

1:19

ringrazio per la sua partecipazione e nel cederle la parola le chiedo, le pongo la prima domanda che

1:26

è questa. Che cosa sono NLP e Large Language Models, LLM? Grazie Sandra. Grazie, sono molto

1:35

felice e contenta di stare qui oggi e parlare di queste tematiche che ci tengo tanto. NLP è un campo

1:44

dei metodi computazionali che si occupa di analizzare, interpretare e trattare il linguaggio

1:52

umano, sia parlato, scritto o trasmesso tramite mezzi multimediali e si fa questo attraverso

2:02

l'uso di tecniche algoritmiche e statistiche. A un altro lato, il LLM, Large Language Model,

2:10

sono un'evoluzione da Natural Language Processing e consentono di integrare e generalizzare

2:21

moltiplici attività di NLP all'interno di un unico modello, quindi non abbiamo più un compito

2:30

specifico di risolvere, ma questo modello è capace di risolvere più compiti interno allo

2:37

stesso modello. E si usano questi modelli per analizzare il linguaggio, ma anche di prendere

2:44

in considerazione il contesto e generare testi e adattarsi ai compiti diversi a partire degli

2:52

input ricevuti e usano tecniche di deep learning e reti neurali. Fra di noi si conosce forse anche

3:03

delle Large Language Models che si trovano dentro, c'è GPT, poi in Francia c'è Mistral,

3:12

anche Gemini da Google, Cloud e poi in Italia ci sono anche dei Large Language Models che sono

3:20

stati addestrati specificamente per la lingua italiana e fra quelli troviamo Minerva e Modello

3:29

Italia. Grazie Sandra, molto molto interessante. Io ho una curiosità, che cosa si intende per NLP

3:42

e Large Language Models responsabili, perché il tema è veramente veramente molto interessante,

3:50

è particolarmente attuale, parliamo di responsabilità, quindi che cosa si intende?

3:58

Grazie, sì. Con NLP e Large Language Models responsabili possiamo considerare sistemi

4:07

progettati, sviluppati e utilizzati in un modo di ridurre rischi, ma non solo, anche prevenire danni

4:15

e garantire un controllo umano effettivo lungo tutto il loro ciclo di vita. Ci tengo adesso di

4:25

nominare alcune organizzazioni e organi che hanno portato questo dalla teoria in pratica

4:36

per renderlo più pragmatico, per poter veramente capire cosa si intende.

4:49

High Leg AI è un'organizzazione della Commissione europea che ha sviluppato sette

4:58

principi. In inglese questa organizzazione si chiama High Level Expert Group Artificial

5:06

Intelligence. Questi sette principi sono agenzia e supervisione umana, robustezza tecnica e

5:15

sicurezza, tutela della privacy e governance, trasparenza, diversità, benessere sociale e

5:24

ambientale e responsabilità. Ovviamente questo può essere anche un po' difficile di capire quando

5:36

si sentono per la prima volta, però sono dei principi per guidare sia forse individuali,

5:44

anche organizzazioni e sul loro sito di web si può anche approfondire. Poi c'è un'altra

5:52

organizzazione che si chiama For Humanity, che avevo anche nominato qui all'inizio. È un'

6:03

organizzazione che lavora in un modo olistico, però ancora più vicino a questo concetto di

6:14

veramente l'essere umano nel mezzo di queste tecnologie e lo fanno tramite anche, diciamo,

6:26

forse più che principi, veramente delle framework tramite etica, lo guardano tramite bias, privacy,

6:36

fiducia e poi hanno anche aggiunto il cyber security. E questi sono questi pilastri fondamentali

6:50

per permettere a delle organizzazioni di poter veramente avere questo controllo umano effettivo

7:00

tutto il loro ciclo di vita. Benissimo, benissimo, grazie, grazie. L'aspetto,

7:08

questo aspetto, diciamo, è semplicemente importante e le attività di For Humanity

7:14

sono in questa direzione, quindi tutta la parte per auditare sistemi, documentare scelte,

7:24

responsabilità, veramente molto interessante. Ho ancora qualche domanda per te, Sandra,

7:30

quali sono i principali rischi, secondo te, associati all'uso di NLP, Large Language Models?

7:39

Grazie. Sì, quando si parlano di rischi penso che siano tanti rischi che si possono nominare,

7:51

però ci tengo di nominare alcuni anche per renderlo molto molto semplice, diciamo così.

8:03

Un rischio sicuramente è di generazione di informazioni errate o inventate, in inglese

8:11

si chiamano anche hallucinations, quindi vuole dire quando il modello si inventa. Non mi piace

8:20

usare questa cosa, inventare, ma il modello genera delle informazioni che secondo un fatto non è

8:30

vero. Ma c'è anche il rischio di diffusione di misinformation, che anche questo può essere

8:40

collegato con l'hallucination, però può anche essere collegato con una situazione

8:49

quando un utente chiede, fa una domanda a una Large Language Models e l'informazione che viene

8:58

generata dal modello non non è compatibile o non non è vero, però questo utente che sta usando

9:11

l'informazione che è generata da questo modello non fa una verifica di questa risposta e lo usa,

9:21

però poi c'è anche tutto un concetto dietro anche misinformation. La presenza di bias e poi la

9:29

perdita di controllo sui processi decisionali automatizzati, qui possiamo anche pensare su

9:35

AI agents, per esempio, perché lì andiamo sempre alle tecnologie più autonome e automatizzare

9:47

sempre compiti che forse esseri umani preferiscono di non svolgere. Ottimo, grazie. E senti, per

9:59

concludere vorrei chiederti se puoi darci un quadro, diciamo anche in maniera molto sintetica, per capire come

10:11

concretamente le aziende possono fare per rendere NLP e LLM responsabili, auditabili e governabili,

10:20

perché questo credo che sia uno degli aspetti più problematici e più avvertiti nel concreto da parte

10:31

delle organizzazioni. Quindi puoi darci un quadro breve di come possono fare le organizzazioni?

10:40

Grazie. Certo, grazie. Allora, qui direi che ci vuole proprio un approccio olistico, ci vuole

10:54

un approccio ben strutturata che include processi, persone, la tecnologia e soprattutto anche la

11:03

responsabilità. E non solo all'inizio, quando si sviluppano questi sistemi, ma come abbiamo già

11:09

nominato durante le domande e la discussione precedente, che dovrebbe essere fatto lungo tutto

11:19

il ciclo di vita di questi sistemi. Questo framework, come uno si possa immaginare, dipende sempre da

11:31

organizzazione a organizzazione, le risorse che ci sono disponibili, però appunto ci vuole sempre

11:42

un collaborazione fra la tecnologia e le persone. Quindi anche qui, for Humanities, penso che è un

12:01

esempio di come si possono creare questi pilastri fondamentali, come si possono, come queste aziende

12:07

possono andare a affrontare questo. E si parla di accountability e responsabilità chiare, si parla

12:17

di leadership, governance e allocazione delle risorse, si parla di supervisione umana e controllo

12:25

operativo, gestione del rischio e integrità del sistema. Poi qui, sempre sull'approccio human in

12:35

the loop, l'umano essere nel mezzo di queste tecnologie, si parla di tutela delle persone

12:42

e delle popolazioni vulnerabili, si parla di trasparenza e tracciabilità e gestione di

12:49

risorse, si parla di coordinamento e formazione. E questo punto, secondo me, è anche molto importante,

12:55

perché soprattutto adesso che le tecnologie si sviluppano molto veloce, una sistema che il giorno

13:02

numero uno è stato sviluppato e pensato in un certo modo, avrà anche la sua evoluzione. E'

13:09

importante anche che le persone che sviluppano la tecnologia, però stanno anche intorno, devono

13:17

anche poi seguire questa evoluzione, anche tramite informazione. E poi si può parlare della conformità

13:28

normativa e qui ci sono anche, questo poi non è campo mio, però ci sono poi

13:38

delle leggi e delle normative che uno anche come azienda segue.

13:48

Grazie Sandra. Effettivamente questi sono punti messamente cruciali che andrebbero poi sviluppati

13:56

singolarmente e declinati in tutte le loro specifiche per offrire un quadro molto

14:06

più preciso. E' chiaro che qui in questa sede siamo a fare una breve chiacchierata e quindi la tua

14:13

sintesi è davvero molto efficace. Benissimo, allora concludiamo qui il nostro primo appuntamento

14:19

di questo progetto For Humanity Italy attualità scienza tecnologia. Un sentito ringraziamento a

14:30

Sandra Mikwicz e arrivederci o a risentirci presto con altri appuntamenti. Grazie,

14:38

buon proseguimento. Grazie Sandra. Grazie mille, grazie mille.