ForHumanity Italy incontra Luca Nannini
S01:E02

ForHumanity Italy incontra Luca Nannini

Episode description

Secondo incontro del progetto di ForHumanity Italy “Conversazioni su AI, Etica e Standard”. ForHumanity incontra gli esperti. Opinioni su IA, etica, protezione dei dati personali, privacy, innovazione In questo episodio ForHumanity Italy incontra Luca Nannini.

Download transcript (.vtt)
0:09

Buongiorno a tutti, eccoci a questo nuovo appuntamento di For Humanity Italy con i nostri

0:19

esperti e oggi abbiamo con noi Luca Nannini al quale chiedo prima di iniziare la nostra

0:28

conversazione di fare una self introduction, di presentarsi, lascio a lui l'honore e non

0:35

ripeto quello che ho già detto negli incontri precedenti ovvero For Humanity, stiamo facendo

0:44

questo progetto per For Humanity, in particolare For Humanity Italy che è il chapter italiano di

0:52

For Humanity ma poi insomma chi ha maggiore interesse può verificare su internet, abbiamo

1:00

una pagina dedicata a For Humanity Center Italy, può verificare lì i dati del progetto. Prego Luca,

1:07

una self introduction. Ok salve a tutti grazie all'avvocato Nicola Fabiano per l'invito e sì

1:15

allora sono Luca Nannini, sono un dottore in intelligenza artificiale esplicabile in

1:21

AI presso l'università di Santiago di Compostela e a livello professionale sono un AI policy and

1:31

standards senior specialist expert presso Piccadilly Labs per il progetto europeo Nolefa

1:37

che si occupa appunto di dare una mano alle autorità di sorveglianza del mercato,

1:43

le market surveillance authorities per l'implementazione dell'AI health per quanto

2:02

riguarda la parte 1 come coeditor e la parte 2 come editor. Lo standard di trustworthiness si

2:10

articola brevemente in pratica in dare diciamo strumenti per la presunzione of compliance per

2:18

esempio uno strumento che si chiama trustworthiness che è un strumento che si utilizza per dare

2:19

presunzione of conformity da articolo 12 ad articolo 13-14 e nella parte 2 articolo 15

2:26

dell'AI health in altre parole è uno standard che dovrà aiutare l'impresa europea e non solo

2:32

per l'AI health per quanto riguarda gli aspetti di logging, di transparency, human oversight e

2:38

parte 2 specificamente per accuracy e robustness. Benissimo benissimo grazie grazie Luca era

2:47

importante comunque far sapere a chi ci ascolta o a chi ci vede chi sono i nostri interlocutori e

2:56

di che cosa si occupano perché così si ha un quadro ancora un po' più chiaro del panorama

3:02

diciamo degli ospiti di questo progetto. Allora io ho qualche domanda per te Luca la prima domanda

3:09

è questa come si integrano gli standard CNCLEC con le IACT? Allora sì in pratica per rispondere

3:19

a questa domanda dobbiamo vedere un po' a livello olistico quello che è il mandato che è stato

3:26

inviato diciamo dalla commissione europea il mandato 593 che poi è stato credo in italiano

3:33

emendato ora correggimi Nicola aiuta mi è corretto come mandato M6113 nel 2025 l'anno

3:42

passato e in pratica in questo mandato si individuano 10 aree di standardizzazione per

3:49

questa richiesta per dare standard armonizzati per le IACT in pratica abbiamo 10 aree che

3:56

coprono da risk management, data governance and quality, record keeping, transparency, human

4:03

oversight, accuracy, robustness, cyber security ma anche aree per quanto riguarda il quality management

4:09

system incluso il post market monitoring e il conformity assessment. In pratica con queste 10

4:17

standardization areas della M6113 cosa è stato fatto? In CNCLEC abbiamo risposto a questa richiesta

4:26

sviluppando draft cioè quindi bozze di standard armonizzati che dovranno appunto dare per esempio

4:33

non conformity se una volta completati si saranno citati nel gazzettino ufficiale ecco l'official

4:39

journal of european union solo il termine in inglese magari in italiano a ranco e cosa è

4:46

successo specificamente? In CNCLEC e in GTC21 abbiamo deciso di sviluppare diversi standard

4:52

dove possiamo fare un mapping più o meno diretto per quanto riguarda le bozze correnti. In altre

4:58

parole abbiamo la standardization area numero 1 quella per risk management che dovrà essere

5:04

coperta dallo standard di AI risk management il PR IAN 18228. Per quanto riguarda quello di la data

5:13

in governance standardization area 2 avremmo il 18284 l'artificial intelligence quality and

5:20

governance of data sets in AI. Incluso anche per quanto riguarda l'aspetto di identificazione e

5:26

mitigazione dei bias il PR IAN 18283 quindi l'artificial intelligence concept measures and

5:33

requirements for managing bias e via discorrendo. Ecco da standardization area numero 3 fino alla

5:40

standardization area numero 7 quindi 5 aree che coprono da record keeping, transparency, human

5:48

oversight, accuracy and robustness. Queste saranno coperte da PR IAN 18229 che è appunto lo standard di

5:56

transformation che si articola in due parti. Parte 1 per logging, transparency, human oversight

6:02

quindi da standardization area 3 ad area 5 quindi articolo in altre parole 12 e 14 dell'AI

6:09

HECT 13 incluso e per quanto riguarda la parte 2 invece per standardization area 6 e 7 quindi 6

6:16

uracy 7 e robustness stiamo parlando di articolo 15 non specifico articolo 15 1 fino ad articolo

6:24

15 4 perché se andiamo a leggere l'articolo 15 5 ovvero sia siamo nel territorio della

6:31

cyber security area numero 8 avremo lo standard di cyber security specification

6:37

free I system che corrisponde diciamo al codice PRN 18282. Questo è quanto per quanto riguarda

6:47

gli standard forse quello più avanzato che non ho ancora menzionato standardization area 9

6:52

quality management system quindi standardization area numero 9 che in pratica trova risposta nel

7:01

quality management system standard che è il 18286 che ha terminato il ballot scusatemi l'inquiry

7:09

di recente settimana scorsa e adesso si trova in fase di comment resolutions per quanto riguarda

7:16

il periodo di febbraio quindi ecco la mappatura risponde un po' a questo a dare presumption

7:22

conformity per gli articoli se non mi sbaglio del capitolo 3 sezioni 2 quindi da articolo 9

7:28

ad articolo 15 delle AI-HECT con delle eccezioni quindi articolo 17 e anche 72. Bene bene grazie

7:39

grazie per questa accurata diciamo risposta queste precisazioni sono molto molto interessanti io

7:47

ritorno un attimo sul nostro progetto di For Humanity Italy che ha un titolo e si chiama

7:53

conversazioni su AI, etica e standard e ripeto trovate informazioni sulla home page del sito di

8:01

For Humanity Italy che è forhumanity.center.it. Altra domanda per te Luca quali sono secondo te

8:12

i gap principali tra teorie e pratica nelle metriche di accuracy? Allora qui entriamo nel

8:19

dello standard che appunto sto dirigendo come project leader che è appunto tra Swarf

8:25

e Nesparte 2 cioè quindi stiamo parlando dell'articolo di una standard che dovrà dare

8:31

presumption conformity ad articolo 15 e in pratica è molto interessante quello che stiamo facendo

8:37

ed è anche molto se vogliamo ecco non vorrei usare il termine difficile però molto intraprendente

8:47

ecco perché allora per quanto riguarda le metriche di accuracy cosa cosa viene richiesto? Quando si

8:53

parla di accuracy nelle IHECT magari c'è questa misconception comune per cui si associa il concetto

9:01

di accuracy a quello di statistical accuracy però non è quello che viene realmente inteso nelle IHECT

9:09

ovvero sia non stiamo parlando di un modello stiamo parlando di un sistema che semplificando

9:13

possiamo vedere come un conglomerato di modelli che possono assolvere più task per un intended

9:21

purpose finale quindi il concetto di statistical accuracy è semplicemente come si dice un

9:29

semplicemente uno strumento in un box di strumenti meccanici che possiamo utilizzare quindi quello

9:37

che stiamo facendo nello standard di accuracy in pratica è delineare delle procedure quanto più

9:46

verificabili per un auditor per la market surveillance authorities nell'altro caso e in

9:52

pratica queste procedure devono riconnettarsi, scusatemi, devono connettarsi ai principi

10:00

dell'articolo 8 dicendo sia dato che il sistema assolve a un intended purpose il sistema deve

10:08

essere performante deve essere performante per farlo dobbiamo in pratica capire come funziona

10:14

cioè in altre parole dobbiamo fare in modo che ci siano delle metriche che ci permettono di

10:21

misurarne la l'accuratezza a livello di sistema quindi in altre parole la performance rispetta

10:28

all'intended purpose non tutte le tasks dei modelli che compongono poi un sistema possono

10:37

essere giustificate semplicemente con il concetto di statistical accuracy si pensi all'f1 score si

10:45

pensi al recall si pensi a varie metriche che si adattano sono adeguate per varie tipologie di

10:53

ecco quindi cosa stiamo facendo adesso nello standard stiamo in pratica non cercando di

11:00

replicare o esaurire tutta la letteratura accademica industriale sui concetti sull'utilizzo delle

11:08

metriche però ci stiamo ricollegando a livello normativo quindi con reference normative cioè

11:14

ovvero sia citando come necessari standard esterni al nostro gruppo di lavoro e questo

11:22

su più livelli in altre parole per quanto riguarda i standard di metriche più generali

11:29

c'è la al momento c'è pubblicato la ISO IC technical specification 4213 che è una technical

11:37

specification sviluppata in ambito ISO per dire guardate se volete fare performance cioè

11:44

measurements lo dico in inglese scusate di performance per un AI a livello di classificazioni

11:50

ci sono queste task questa 4213 adesso nel 2026 dovrà svilupparsi ulteriormente prenderà la

12:00

dicitura di ISO IC CD 4213 di committee draft cioè quindi per raggiungere uno stato più maturo di

12:08

draft per coprire ulteriori metriche cioè ovvero se non fare semplicemente classificazione però

12:14

anche regression, clustering e recommendation task e queste task sono abbastanza trasversali

12:20

sono abbastanza domain agnostic se vogliamo usare questo termine se invece entriamo nel

12:25

dominio per esempio della computer vision quello che dobbiamo vedere è quello che adesso stiamo

12:31

sviluppando in cnc nele in gtc 21 nel working group 3 per quanto riguarda le metriche di computer

12:38

vision le evaluation methods in altre parole parlo dello standard ora bozza il 18 28 1 mentre

12:46

se ci rivolgiamo in ambito language models natural language processing meglio o meglio dire

12:53

dobbiamo guardare a la joint working group della ISO IC SC 42 ovvero sia un gruppo che è condiviso

13:04

tra ISO IC e cnc nele gtc 21 joint working group 5 della sc 42 in ISO che sta sviluppando uno

13:12

standard che è in pratica lo standard della nlp evaluation methods il 23 28 2 infine un altro

13:22

standard che ci tornerà utile non per il concetto di accuracy ma per il concetto di robustness che

13:29

sta adesso approcciando appunto se non sbaglio da oggi la fase di ballot di inquiry in ISO IC è

13:38

lo standard della 24 29 in altre parole ISO IC 24 0 29 è una serie che si compone di tre standard

13:47

il cui primo è attualmente un tecnico report da un overview e gli altri due parlano di formal

13:53

methods e neural network methods metriche per la robustezza e quindi ecco da qui si vede una

14:01

diciamo un quadro scenario abbastanza sì uno scenario complesso ecco uno scenario abbastanza

14:07

complesso in cui dovremmo un po capire come come muoverci poi la per concludere in questa domanda

14:15

quando si parla di gaps cosa dobbiamo vedere cioè dobbiamo vedere se nel prossimo futuro

14:20

qualora tra sforfines part 2 verrà citato nell'official journal quando andremo quando

14:26

andremo a vedere la mappatura tra tra lo standard tra le clause cioè tra le sezioni diciamo tra le

14:34

clause dello standard e le ihecte nello specifico dovremmo vedere se in questa mappatura che riporta

14:42

il nome di annex ZA di tavola tabella annex ZA ci siano delle eccezioni ovvero sia per esempio ci

14:52

potrebbe essere la dicitura non lo sappiamo al momento che dirà ok tutte queste metriche che

14:58

sono incluse e di cui abbiamo una reference normativa nella ISO IC 42 13 nella ISO IC 28 2

15:06

18 28 1 e via discorrendo tutte queste metriche sono coperte le tasche possono essere assolte

15:12

con queste metri invece per le tasche al di fuori di queste metriche non diamo la presumption

15:19

conformity quindi ci sarà un gap che il provider dovrà giustificare altrimenti ecco benissimo e

15:27

allora io passerei subito alla domanda successiva che credo sia strettamente connessa con questo

15:34

tema di cui tu stavi parlando cioè come si possono verificare concretamente le metriche

15:40

di accuracy dei sistemi AI? Allora anche questa è una bella domanda molto molto complessa però

15:49

possiamo dire che al momento in transworthiness in parte 2 dello standard nella bozza in pratica

15:56

trattiamo di accuracy e robustness se andiamo a leggere ora la bozza corrente che appunto dovrà

16:02

raggiungere la fase di public inquiry di consultazione pubblica per commenti adesso a

16:07

febbraio in close nella clausola 6.2 parliamo del processo per verificare l'accuracy del sistema in

16:18

altre parole le prime parti le prime clausole parleranno delle definizioni del concetto che

16:27

diamo che non è come dicevo prima non è specificamente tecnico l'accuracy ma lo

16:34

definiamo functional correctness prendendo spunto da uno standard della serie square se non mi

16:41

sbaglio e in pratica poi delineiamo tutta la fase di assessment cioè ovvero sia come deve

16:50

essere condotto come deve essere riportato nella technical documentation come le metodologie

16:56

devono essere giustificate contro i rischi ogni quanto va ricondotta al reassessment e

17:05

secondo quali casistiche casi parametri cioè nuovi input riceviamo e via discorrendo ecco

17:12

quindi c'è una fase di definizione dei concetti nella clause 6.2 poi si passa alla fase di

17:19

assessment che è un po il cuore della di tutto lo standard se vogliamo e infine a corredo ci

17:26

sono altre clause poco dopo 6.4 6.26 che potrebbero cambiare ecco però diciamo che a livello high

17:35

level parlano di requisiti per i test data requisiti per i threshold requisiti per

17:43

l'identificazione dell'accuracy rispetto a domini di uso differenti ma anche rispetto a

17:48

differenti gruppi cioè per esempio a minoranze a persone più vulnerabili pensiamo fondamenta

17:55

rights pensiamo a persone in cui ecco il data set che stiamo usando potrebbe non essere abbastanza

18:01

rappresentativo quindi c'è tutto questo diciamo se vogliamo approccio non proprio life cycle però

18:08

pur sempre molto molto completo e ricollegandosi per concludere alla domanda precedente nella

18:17

fase di assessment una volta che le task l'intended purpose sono definite dobbiamo fare

18:25

uso delle metriche e qui troviamo le reference normative ai standard delle metrics che parlavo

18:33

poco fa ecco benissimo luca grazie ho un'ultima domanda per te e sostanzialmente andiamo su

18:43

un aspetto un po più pratico cioè secondo te come possono gli auditor for humanity perché

18:51

noi ovviamente abbiamo detto che stiamo conducendo questi approfondimenti nell'ambito di questo

18:58

progetto di for humanity conversazioni su ea e etiche standard quindi come possono gli auditor

19:03

for humanity utilizzare in pratica questi standard tecnici europei per valutare le conformità questa

19:11

è un'altra bella domanda molto comprensiva e allora quello che può essere fatto sì è logicamente

19:20

partire se vogliamo dalle certificazioni dal conglomerato di conoscenze che for humanity

19:27

può nella disposizione delle persone quindi logicamente informarsi con quella knowledge

19:33

base e poi vedere quello che dovrebbe essere la mia raccomandazione è vedere nel prossimo futuro

19:42

nei prossimi mesi quali standard saranno armonizzati e come cioè andare a consultare

19:48

nell'official journal european union quali standard saranno armonizzati perché questo

19:54

sarà molto interessante ed importante vedere eventuali gap vedere l'immagine e da lì provare

20:01

a partire farne uso per fare consulenza diciamo a vari providers o se vogliamo anche ad importers

20:10

che potrebbero diventare providers però in altre parole quello di cui io farei raccomandazione

20:17

innanzitutto partire da quello che adesso è già pubblico cioè quindi penso alla pr in 18 28 6

20:25

al quality management system andarlo a consultare e vedere un po quale sono i requisiti e come

20:32

possono essere traslati per far sì che le aziende dei providers siano siano pronte un altro

20:40

standard che adesso sta raggiungendo la fase di inquadri di consultazione pubblica è quello di

20:45

risk management quindi il pr in 18 22 8 e trasforma finesse anche nelle prossime settimane quindi il

20:52

pr in 18 22 9 quindi queste sono cose che un diciamo un consulente in AI government se vi

21:01

discorrendo può già da oggi vedere però nel prossimo futuro qualora tutti gli standard

21:07

armonizzati in gtc 21 saranno appunto armonizzati saranno appunto escitati la mia raccomandazione

21:13

rimane questa ovvero sia partire sempre dallo standard del quality management system associarlo

21:19

con quello di risk management come punto di partenza e poi se vogliamo usare diciamo questa

21:26

metafora questa analogia muoversi dal lato un po più da layer dallo strato un po più

21:32

organizzativo manageriale allo strato più delle tecniche specification ovvero sia penso allo

21:38

standard sotto di trasforma finesse parte 1 parte 2 allo standard di cyber security al 18 28 2 e in

21:49

18 28 4 cioè ovvero sia quello di data governance che va letto in congiunzione con il 18 28 3

21:58

logicamente questa è un'immagine molto molto articolata però penso che una volta che ci sia

22:04

il quality management system in place si abbia e anche quello di risk management si abbia davvero

22:09

una buona base di partenza per aiutare i providers. Benissimo grazie Luca tema estremamente

22:19

interessante anche se potrebbe apparire ostico in prima battuta per chi non segue questi argomenti

22:29

insomma sentire parlare di numeri sentire parlare di termini particolari ma noi poi

22:35

nell'ambito di questo progetto contiamo anche di fornire diciamo maggiori informazioni più

22:41

accessibili a chi non è proprio tra virgolette non ha detto i lavori allora ancora grazie Luca

22:48

noi di For Humanity Italy per questo progetto vi diamo appuntamento al prossimo incontro

22:56

seguiteci sui social seguiteci sulla pagina For Humanity Center Italy di For Humanity

23:03

un grazie ancora a Luca Dannini e a presto grazie Nicola