ForHUmanity Italy incontra Katia Bonacina
S01:E04

ForHUmanity Italy incontra Katia Bonacina

Episode description

Quarto incontro del progetto “Conversazioni su AI, Etica e Standard”. Incontro con Katia Bonacina. Opinioni sull’IA, sull’etica, sulla protezione dei dati personali, sulla privacy e sull’innovazione.

Download transcript (.vtt)
0:11

Buongiorno a tutti, eccoci a questo nuovo appuntamento di For Humanity, chapter italiano

0:18

For Humanity Italy che ha un progetto che coinvolge praticamente alcuni esperti sui

0:29

temi più importanti attuali che sono quelli dell'intelligenza artificiale, dell'etica,

0:36

data protection e un po' questi aspetti diciamo di rilievo. Il progetto si chiama

0:43

conversazioni su AI etiche standard, trovate informazioni sul sito istituzionale che è

0:50

forhumanity.center.it e oggi abbiamo con noi ospite Katia Bonecina che ringrazio per la

1:01

sua partecipazione alla quale chiedo, cedo la parola e chiedo preventivamente di fare

1:07

quella che si chiama la self introduction, così sappiamo anche qualcosina in più su Katia. Grazie

1:14

Katia per essere qui con noi, a te la parola. Buongiorno Nicola, grazie per avermi invitato.

1:21

Io sono recentemente laureata in linguistic computing e ormai da praticamente un anno

1:29

faccio parte di For Humanity, quindi do il mio contributo a questo grande progetto. Adesso mi

1:36

occupo di event management nell'ambito delle lingue, quindi diciamo è un po' distaccato,

1:43

però comunque vedo come il mercato è cambiato grazie all'intelligenza artificiale o per colpa

1:52

dell'intelligenza artificiale diciamo. Benissimo, allora io inizierei a porti

1:59

delle domande, così avviamo una conversazione su questi temi e quindi procederei da questo

2:09

aspetto, diciamo l'AIACT parla di gestione del rischio come processo continuo e non come

2:17

adempimento una tantum, secondo te per un'azienda che cosa significa tutto questo? Direi che per

2:26

un'azienda questo deve significare un cambiare un pochino la mentalità, secondo me, perché fino

2:33

ad oggi diciamo che molte aziende hanno visto la compliance o comunque l'audit come un singolo

2:39

momento di verifica, quindi si preparano i documenti, ci si sottopone alla valutazione,

2:47

si ottiene la certificazione e si passa oltre diciamo. L'AIACT invece obbliga a cambiare

2:55

questo schema rendendo la compliance appunto un processo continuo e integrato nella struttura

3:01

dell'azienda. Se vogliamo guardare effettivamente l'intelligenza artificiale in generale, il mercato

3:10

dell'intelligenza artificiale non è statico, il rischio stesso dell'intelligenza artificiale non

3:16

è statico perché i dati cambiano, i modelli evolvono, possiamo vedere l'esempio di CGPT

3:22

che è quello più diciamo lampante, siamo già al modello 5 da quando è stato rilasciato e quindi

3:33

dentro un'azienda non cambiano soltanto i dati, i modelli, ma anche i contesti di uso, quindi

3:39

dell'intelligenza artificiale vengono trasformati, quindi un sistema che oggi può essere conforme

3:45

domani potrebbe non esserlo più. Quindi dal punto di vista dell'azienda questo significa che la

3:50

governance dell'intelligenza artificiale deve accompagnare il sistema lungo tutto il suo ciclo

3:57

di vita, non basta quindi dimostrare che un modello funzioni correttamente al momento del rilascio ma

4:03

bisogna monitorarlo anche successivamente, quindi verificare periodicamente le prestazioni e

4:10

rivalutare il rischio ogni volta che cambia la logica o comunque la finalità del sistema,

4:15

quindi l'AI Act chiede all'organizzazione di diventare in modo strutturale capaci di

4:24

governare l'intelligenza artificiale. Diciamo che questo approccio comunque non nasce nel vuoto

4:30

perché è una prosecuzione diretta della logica del GDPR che ha introdotto l'idea di una responsabilità

4:37

continua, di una valutazione preventiva e di un aggiornamento costante comunque del rischio.

4:44

Andando a vedere gli schemi ad esempio di 4Humanity si vede che questa ciclicità della compliance è

4:53

tradotta in requisiti verificabili, quindi una scadenza di 12 mesi per l'audit e dei meccanismi

5:00

di controllo che scattano quando il rischio supera determinate soglie predefinite.

5:07

Bene, grazie per queste precisazioni. Io mi collegherei a questi aspetti

5:13

che hai evidenziato, quindi se dovessimo sintetizzare quali sono i primi passi,

5:20

diciamo chiamemoli realistici, che un'organizzazione può fare per avvicinarsi ad una governance dell'AI

5:27

credibile cioè senza partire ovviamente da zero secondo te? Diciamo che il primo passo non è

5:43

lo definirei cognitivo nel senso capire dove l'intelligenza artificiale è già presente

5:48

nell'organizzazione e come viene usata soprattutto, perché potrebbe succedere che un'azienda scopre

5:55

solo diciamo in sede di audit di utilizzare sistemi di intelligenza artificiale in modo diffuso e

6:03

spesso magari non coordinato, quindi il percorso dovrebbe iniziare secondo me con una mappatura

6:09

di questi sistemi, quindi quali sistemi di intelligenza artificiale esistono, chi li

6:15

utilizza, con quali dati e come vengono utilizzati questi sistemi di intelligenza artificiale. Quindi

6:22

non è solo un inventario tecnico cioè non è una mappatura solo a livello tecnico ma è anche una

6:27

mappatura di responsabilità perché diciamo che si va a controllare chi è, usando le parole delle

6:37

IACT e anche del GDPR, chi è accountable per il sistema, chi ne controlla gli aggiornamenti e

6:44

chi ovviamente risponde poi agli impatti o alle possibili problematiche. Il secondo passo dopo

6:52

questa diciamo mappatura sarà quindi dare una scala di priorità ai livelli di rischio, quindi

6:59

non tutti i sistemi hanno lo stesso impatto ovviamente, alcuni incidono sui diritti

7:05

fondamentali altri su processi interni quindi bisogna classificare questi sistemi in base

7:10

appunto al rischio. Il terzo passo ovviamente si parla di un'integrazione negli schemi che già

7:20

sono presenti nell'azienda in modo da non stravolgere diciamo la struttura dell'azienda,

7:26

quindi la governance dell'intelligenza artificiale non nasce dal nulla ma si dovrebbe innestare in

7:33

strutture già operative, quindi in fondo diciamo che la logica non è avere un sistema perfetto ma

7:41

è rendere visibile e governabile ciò che prima magari era implicito e comunque frammentato,

7:50

ovviamente se c'è una responsabilità frammentata questo è un grande rischio, si arriva magari a

7:56

puntare il dito quando ci sono dei problemi. Un punto importante secondo me sarebbe includere

8:02

in questi passaggi un esperto in materia, quindi qualcuno che è stato formato magari sia sulla

8:07

compliance che sull'intelligenza artificiale in modo da poter far dialogare e comunicare i vari

8:15

team già presenti nell'azienda che magari invece sono specializzati solo su una delle due cose.

8:23

Bene, osservazioni assolutamente condivisibili, passerei ad un'altra questione che è una

8:34

questione che non è legata soltanto all'EIACT, all'EI ma è una questione di carattere generale

8:42

cioè spesso la compliance è vista come un costo, secondo te in che modo la governance dell'EI può

8:49

diventare un asset strategico e non soltanto un obbligo normativo? L'ecezione della compliance

8:58

come costo è comprensibile però bisogna fare un cambio di prospettiva, oggi l'intelligenza

9:08

artificiale è un market di competizione, è una competizione comunque globale, c'è l'Europa che

9:15

punta su un modello di intelligenza artificiale responsabile, trasparente, i vari aggettivi che

9:22

abbiamo già sentito sicuramente, mentre gli Stati Uniti puntano sulla velocità e sulla scalabilità

9:29

dei sistemi, in questo contesto quindi la governance dell'EI diventa un fattore di posizionamento,

9:36

un'azienda che è in grado di dimostrare che la sua intelligenza artificiale è governabile in

9:42

modo trasparente soprattutto, non sta soltanto evitando delle sanzioni o comunque rispettando

9:50

la legge, sta costruendo anche fiducia in quelli che sono i cosiddetti user, quindi chi utilizza

9:57

e si incontra con questo sistema di intelligenza artificiale, quindi l'audit dell'intelligenza

10:04

artificiale può benissimo essere usato come un asset strategico, permette quindi alle organizzazioni

10:10

di muoversi più velocemente sul mercato perché se i rischi sono mappati le responsabilità saranno

10:17

anche chiari e le decisioni saranno anche tracciabili, quindi rendono qualsiasi progetto

10:24

di ricambiamento più semplice da mettere in atto, quindi la governance se attuata bene non rallenta

10:32

l'innovazione che è la grande paura di tutti, è una delle obiezioni più diffuse

10:39

alle AI Act e alle varie regolazioni, ma invece la rende scalabile, quindi un sistema che può essere

10:47

sottoposto a un audit può essere anche adattato a nuovi mercati e presentato a nuovi stakeholder

10:53

senza dover ogni volta ricominciare da zero. Certo, questo andrebbe poi spiegato alle

11:00

organizzazioni in maniera più dettagliata per fargli capire che effettivamente non è

11:08

così, ma io ti domando ma in questo scenario che ruolo possono avere audit indipendenti e certificazioni

11:18

e se mi posso permettere aggiungerei anche qual è la tua valutazione degli schemi di

11:26

4Humanity, cioè come 4Humanity può integrarsi in questo sistema?

11:33

Non so se sono stato chiaro, forse troppo ampio, quindi parliamo di audit indipendenti

11:42

e certificazioni e se puoi fare un link con 4Humanity, questa è la sintesi della mia domanda.

11:52

Se guardiamo la storia dell'economia vediamo che ogni mercato maturo ha sviluppato dei

11:58

meccanismi di audit e certificazione, possiamo vederlo benissimo, nella finanza da cui comunque

12:04

4Humanity prende esempio, l'intelligenza artificiale adesso sta entrando nella stessa fase, quindi

12:12

dal punto di vista degli schemi di 4Humanity l'audit non è solo un controllo tecnico,

12:20

ma è una valutazione socio-tecnica, questo è molto sottolineato dagli schemi di 4Humanity,

12:25

perché non si comprende sia il modello, sia i dati che vengono utilizzati, sia anche

12:33

l'organizzazione stessa con i processi decisionali all'interno dell'organizzazione,

12:39

quindi le certificazioni di 4Humanity che comunque sono decisamente ben strutturate e

12:45

io l'ho definita in precedenza nella mia tesi come una compliance step by step, una specie di

12:52

checklist che una volta che si passa nello schema di 4Humanity si vedono ogni punto e questo è

13:02

fatto, questo non è fatto, cosa va migliorato, cosa non va migliorato, quindi non servono solo

13:08

a dimostrare conformità alle autorità, ma anche a costruire un ecosistema della fiducia sia interno

13:15

sia verso comunque l'esterno, perché rappresentano una garanzia per gli utenti.

13:23

Gli schemi quindi di 4Humanity diciamo che diventano una garanzia di reputazione,

13:28

perché una volta che il sistema viene determinato compliant, a questo punto anche gli utenti si

13:36

affideranno agli auditors e agli schemi di 4Humanity e daranno fiducia appunto a questo sistema.

13:46

Benissimo, allora penso che siamo arrivati al termine della nostra chiacchierata,

13:53

io ti ringrazio, quindi concludiamo ribadendo l'appuntamento ad altri incontri nell'ambito

14:04

del progetto conversazioni su AI etiche standard di 4Humanity Italy, chapter italiano di 4Humanity,

14:14

ringrazio Katia Bonecina per questo suo intervento di oggi e vi do appuntamento

14:21

ai prossimi incontri con gli altri esperti. Grazie ancora e buon lavoro, grazie Katia.

14:30

Grazie Nicola.