ForHUmanity Italy incontra Elena Repman
S01:E03

ForHUmanity Italy incontra Elena Repman

Episode description

Terzo incontro di ForHumanity Italy con gli esperti nel progetto “Conversazioni su AI, Etica e Standard”. ForHumanity incontra gli esperti. Opinioni sull’IA, sull’etica, sulla protezione dei dati personali, sulla privacy e sull’innovazione. In questo episodio ForHumanity Italy incontra Elena Repman.

Download transcript (.vtt)
0:11

Salve a tutti, eccoci a questo nuovo appuntamento di For Humanity Italy. Abbiamo oggi con noi Elena

0:21

Reppman che vi presento ma che fra poco si autopresenterà descrivendo il suo profilo,

0:30

le chiedo di fare una self introduction e poi passeremo alla nostra conversazione durante la

0:37

quale Elena ci racconterà qualcosa di molto particolare sempre sui temi che afferiscono

0:45

gli standard e altri aspetti interessanti quali la parte etica, le responsabilità. Vediamo un po'

0:54

oggi che cosa ci racconta Elena. Allora Elena intanto grazie per essere intervenuta oggi in

1:02

questa sessione, in questo nuovo nostro incontro di questo progetto di For Humanity Italia che

1:11

prevede diciamo così le conversazioni con i nostri ospiti su temi specifici, su temi dell'AI,

1:22

su temi più particolari, temi dell'etica e temi della privacy. Il nostro, questo progetto ha un

1:29

titolo si chiama conversazioni su AI etica e standard, trovate indicazioni sul sito del

1:36

chapter italiano di For Humanity che è www.forhumanity.centre.it e adesso mi taccio e lascio la parola

1:46

ad Elena. Grazie Elena per essere qui con noi oggi, a te la parola. Nicola grazie d'invito,

1:52

sono davvero felice di essere qui a partecipare in un bellissimo progetto di For Humanity Italia.

1:58

Allora come detto sono Elena Reppman, sono project manager, project manager maggiormente di progetti

2:04

tecnologici, ho praticamente dedicato dieci anni di mia vita a sistemi di pagamento. Adesso però

2:10

mi sono appassionata anche di filosofia, antropologia e etica e io faccio la ricercatrice

2:17

nell'etica di intelligenza artificiale, sono anche membro di working group 4 di SENSE Nell'ECUN,

2:23

ente europeo che si occupa di standardizzazione di intelligenza artificiale. Benissimo Elena,

2:31

grazie. Io procederei con la prima domanda che è questa diciamo partendo da una sensazione che è

2:40

nell'aria, filosofia ed etica sembrano tornate di nuovo al centro della scena quasi come se

2:49

stessero vivendo una seconda nascita. Quindi la domanda che ti faccio è questa, che cosa sta

2:54

succedendo davvero? In realtà poi si aggiunge un'altra domanda che perché proprio adesso sentiamo

3:00

parlare ovunque di questi temi e soprattutto che cosa intendiamo quando noi diciamo filosofia in

3:08

questo contesto? A te la parola. Rispondendo a questa domanda probabilmente vorrei partire

3:16

proprio dalla frase questo contesto perché noi quando e soprattutto in questa puntata quando

3:22

diciamo contesto intendiamo soprattutto il contesto aziendale, vero? Quindi le organizzazioni che

3:27

producono ma strada facendo assumono rischi, fissano obiettivi, misurano performance. Quindi

3:36

questo è un ambiente in cui etica praticamente non vive nei manuali ma esiste e vive nelle scelte

3:43

quotidiane. Che cosa dobbiamo automatizzare? Che cosa vogliamo delegare a un sistema? Quali dati

3:48

come vogliamo usare? E chi ne paga le conseguenze? Quindi quando parliamo di responsibility e

3:56

in questo contesto adesso entra un elemento nuovo, un attore che praticamente sta cambiando un po'

4:02

le regole e intelligenza artificiale e io ti dico pure un'altra cosa perché secondo me fotografa

4:08

molto bene il clima che oggi si respira nelle organizzazioni. Proprio l'altro ieri ho parlato

4:14

con un professore di management che praticamente mi ha detto più o meno molti adesso stanno

4:20

costruendo le carriere sull'etica di intelligenza artificiale ma parlare dell'etica di intelligenza

4:25

artificiale è sensato quanto parlare dell'etica delle macchine del caffè, cioè le hai a una

4:32

macchina invece di macinare il caffè macina parole con le previsioni statistiche. E dico subito che

4:40

io magari non sono molto d'accordo con questa visione, cioè secondo me noi dobbiamo avere

4:46

questo sguardo sul futuro che stiamo creando, cioè io vedo l'intelligenza artificiale come

4:54

attore importante, dico attore non per dare l'anima ma perché AI nel pratica entra nei

5:01

processi, influenza le decisioni, quindi suggerisce, classifica, prevede, ottimizza. È un'innovazione

5:09

che cambia equilibrio, è un'innovazione addirompente se vogliamo dire, perché oggi è a portata di tutti.

5:18

Perfetto, in effetti quello che dici è vero, di fronte a questa velocità molto frequentemente,

5:29

molto spesso si resta a bocca aperta. In azienda si vedono ogni giorno strumenti che fino a ieri

5:37

sembravano fantascienza, oggi invece li possiamo ritrovare nelle email, nelle riunioni, nei report,

5:45

è difficile non sentirsi meravigliati e in un certo senso anche forse emozionati,

5:51

perché sembra di assistere in diretta ad un salto di specie della tecnologia.

5:58

Ecco, a questo che cosa possiamo aggiungere?

6:03

Non so se avete mai sentito il paradosso di Moravec, Moravec diceva in sostanza che per

6:12

le macchine è molto facile fare i compiti alti, ragionamento astratto, giochi, test,

6:19

scacchi, linguaggio, ma molto difficile riplicare le abilità basse che per noi sono naturali,

6:26

per esempio muoversi, orientarsi nel mondo fisico, percepire bene.

6:32

Questo paradosso da dove viene? Praticamente è una spiegazione evolutiva,

6:37

le capacità sensomatorie sono antichissime nell'umano, mentre il ragionamento astratto

6:44

è più recente. Quel cambiamento a quale noi stiamo assistendo adesso, basta guardare le aziende

6:51

come Tesla, basta guardare l'azienda come FIGOR, che per esempio nel 2025 FIGOR ha pubblicato

6:58

i risultati operativi di deployment dei robot in Germania, quindi questi robot praticamente

7:05

sono impiegati su linea e noi stiamo assistendo a una trasformazione quando l'intelligenza

7:13

artificiale passa dalla testa al corpo e quindi entra nei luoghi di lavoro. A questo punto non

7:21

che si cambia solo la tecnologia, cambiano ruole, cambia praticamente il modo in cui noi definiamo

7:29

che cosa è una decisione buona, accettabile, giusta e poi questa decisione non appartiene

7:37

solo all'umano, appartiene anche all'intelligenza artificiale. Qui vorrei magari aggiungere brevemente

7:45

una frase, perché molto spesso parliamo di intelligenza e ci esiste questa critica sul

7:51

fatto che non è un'intelligenza umana, che non è giusto parlare che un robot può essere

7:56

intelligente, è vero, è vero, perché probabilmente qui vorrei magari citare Floridi,

8:03

sono d'accordo con Lucio, ma anche con le definizioni, le parole no, l'evoluzione che

8:08

stiamo vivendo è troppo veloce, troppo dirompente, che va più veloce che noi riusciamo a trovare le

8:16

definizioni o creare le definizioni giuste, perciò c'è questa tendenza magari un po'

8:21

all'antropovirnizzazione. Sono d'accordo, in effetti si sente parlare di tool più veloci,

8:31

quindi una tecnologia che entra nel lavoro e comincia ad intervenire proprio sulle decisioni,

8:37

sulla responsabilità e sui processi, quindi la domanda che ti pongo è questa sostanzialmente,

8:45

e potrebbe interessare chiaramente anche chi ci ascolta dal mondo aziendale, cioè quando le

8:50

AI passa dalla demo al quotidiano, qual è il primo punto critico e aggiungo poi, dove iniziano

8:57

i problemi veri, quelli che non si risolvono con un aggiornamento software? Iniziano probabilmente

9:05

nel momento quando AI entra nel processo decisionale, ma non ha il morale, non chi

9:11

abbia il morale, però comunque influisce sul modo in cui le persone decidono. Io in questo

9:19

senso e in questo puntato parlo di più dell'uso responsabile delle AI, non delle AI responsabili,

9:26

cioè non dell'etica delle macchine, ma dell'etica delle persone che utilizzano le macchine e che

9:32

devono capire quali cambiamenti noi stiamo vivendo. Questo riguarda l'organizzazione

9:40

indiretta, l'organizzazione che utilizza AI, quindi come definisce chi decide, chi controlla,

9:46

quando si può dire no al sistema, come si spiega una scelta e quando l'intelligenza

9:52

artificiale entra nei processi emergono i rischi tipici. Questi rischi veramente sono

9:59

illustrati molto bene in un articolo che si trova in un dizionario di filosofia,

10:04

l'articolo appartiene a Muller, io praticamente cito solo qualche rischio, per esempio l'alibi

10:11

dell'algoritmo tipo ha detto il sistema quindi va bene o non è chiaro come funziona o non ci

10:16

sono le regole, quindi è un modo di spostare la responsabilità altrove. Poi magari automation

10:25

bias, quindi magari fidarsi troppo della raccomandazione automatica perché è veloce,

10:30

perché è sempre oggettiva. Magari amplificazione del bias, se i dati sono distorti, l'intelligenza

10:48

artificiale si potrebbe dedicare ad un'intera puntata. Sì, assolutamente sì, sono temi che noi

10:56

potremmo approfondire con spazi ancora più ampi, però restando un po' sulla nostra conversazione,

11:07

quindi la questione non è solo evitare errori tecnici ma evitare che le AI cambi il comportamento

11:14

delle persone, la distribuzione delle responsabilità. Quindi la domanda che ti pongo è come si passa

11:21

dalla diagnosi alla cura? Cioè che cosa deve fare un'azienda concretamente per usare le AI

11:26

in modo responsabile senza frenare l'innovazione secondo te? Guardi adesso magari dirò qualche

11:35

cosa che magari non vorrei che i nostri ascoltatori avrebbero la sensazione dello

11:41

astratto, perché in realtà è tutto molto concreto. Ci può servire antropologia, ci può

11:50

servire etica filosofica, ci può servire etica dell'intelligenza artificiale, etica delle macchine,

11:58

in realtà è tutto concreto perché quando dico antropologia io intendo la domanda di base,

12:03

che idea dell'essere umano noi stiamo assumendo? Quindi è un individuo autonomo o una persona

12:10

razionale? E' un soggetto razionale sempre lucido o un essere vulnerabile, influenzabile con i limiti,

12:17

bisogni di cura? Quindi l'immagine dell'umano è punto di partenza e quindi ovviamente sta nei

12:26

nostri policy, esiste nei nostri policy. Quando dico filosofia e l'etica intendo lo step successivo,

12:34

dato che l'umano è fatto così, quali criteri noi possiamo usare per dire che una scelta è buona,

12:40

che una scelta è giusta, accettabile e quindi qua entrano nel gioco gli occhiali dell'etica,

12:50

dignità e diritti, conseguenza, benessere, fioritura umana, responsabilità, cura, relazioni. Sono tutte

13:00

le teorie molto pratiche, cioè policy non nasce nel vuoto, una policy su trasparenza, una policy

13:09

sulla supervisione umana, protezione delle vulnerabilità, non sono tecnici, è la traduzione

13:14

pratica di una scelta antropologica e filosofica. Per rendere l'idea molto chiara, stamattina mi è

13:22

venuto in mente, mi sono ricordato un film che si chiama Uomo bicentenario, non lo so se l'avete

13:26

mai visto, alla fine è un robot che per 200 anni cerca di diventare uomo, alla fine riesce. Quindi

13:35

è una storia che dietro la trama, dietro la fantascienza ci pone la domanda antropologica,

13:41

che cosa rende qualcuno persona? Il corpo? La coscienza? Sono le emozioni, memoria,

13:48

riconoscimento sociale e giuridico? Quindi noi adesso possiamo nemmeno vedere questa cosa come

13:54

fantascienza, cioè 30 anni fa era pura fantascienza, adesso molto molto di meno.

14:02

Poi un altro esempio che potrebbe spiegare benissimo l'importanza di antropologia

14:10

all'etica è un esempio apparentemente lontano, io parlo di educazione 0-6 anni. Qui l'antropologia,

14:18

quindi qual è l'immagine del bambino che noi stiamo assumendo, non è dettaglio teorico,

14:24

è proprio la base di tutto, che decide che tipo di contesto noi andiamo a costruire. Se

14:32

l'immagine di partenza è quella di un bambino come incapace, fragile, molto spesso visto come

14:37

vaso vuoto da riempire, adesso l'adulto tende a fare soprattutto questo, quindi guidare, spiegare,

14:44

dare le risposte, costruisce intorno un ambiente specifico, le regole specifiche, gli strumenti e

14:51

i giocatori saranno specifiche. Se invece vediamo un'altra immagine, quella che troviamo nel lessico

15:01

di Reggio Emile, e parliamo di un bambino competente, ricco di potenzialità, un soggetto

15:06

che apprende in relazione e che è anche un costruttore di significato e bambino ricercatore,

15:12

mi piace molto bello questo paragone, il processo diventa tutto l'altro, gli ambienti diventano

15:21

diversi, i policy diversi, anche i giocatori diventano diversi. Quindi parlando di bambini,

15:28

noi possiamo parlare nella stessa maniera e nello stesso modo anche delle aziende. Azienda,

15:37

quale immagine vuole appropriarsi? Come vede la sua ambizione? Da questo parte tutto.

15:47

Ottimo, ma dovremmo fermarci molto più tempo. Quando parliamo di etica e decision making,

16:01

facciamo una fotografia del posto in cui oggi si decide, com'è davvero l'ambiente di lavoro

16:07

in azienda, secondo te? Possiamo anche dare uno sguardo sull'azienda contemporanea e vedremo

16:20

un ambiente molto diverso da quello di vent'anni fa. L'ambiente sarà internazionale, spesso

16:26

distribuito su più paesi fusi orari. Dentro ci sono dinamiche globali che entrano dalla

16:31

porta principale, quindi sono i flussi migratori, multiculturalità, team con più lingue e abitudini.

16:38

Poi si aggiunge pure il cambio intergenerazionale forte, quindi convivono le persone cresciute

16:44

analogiche, che siamo noi praticamente, siamo digital immigrants. Poi ci sono digitali nativi,

16:53

per cui gli strumenti, velocità, piattaforme sono la normalità. In tutto questo contesto

16:59

dobbiamo prendere le decisioni tutti i giorni. Alcune piccole che cambiano le vite delle persone,

17:06

le altre sono valutazioni, promozioni, gestione di un conflitto, sicurezza, privacy, inclusione.

17:14

In altre parole, decidiamo in modo continuo che cosa è il bene e che cosa è il male,

17:21

anche quando non usiamo queste parole. Il punto è che noi non decidiamo nel vuoto,

17:28

ma molte scelte partono già da reazioni rapide e le altre sono su quali noi pensiamo un po' di più.

17:38

Se vi interessa, qui potrei proporre una lettura di Daniel Kahneman, che parla di Sistema 1 e Sistema

17:44

2. Lui è proprio un massimo esperto di decision making, ha il premio Nobel in economia e quindi

17:54

definisce questo Sistema 1 di un pensiero veloce, un pilota automatico che dipende tantissimo dal

18:05

contesto in quale noi siamo cresciuti. Noi prendiamo le decisioni in modo assolutamente

18:11

diverso, noi vediamo il bene e il male in modo assolutamente diverso. Perché anche restando in

18:18

un occidente non esiste solo etica, esistono più linguaggi che convivono. Noi possiamo anche

18:26

elencare, sono diontologia, utilitarismo, etica delle vertù, etica della cura. Se ci spostiamo

18:33

nel mondo non occidentale troviamo altro, troviamo confucianesimo, troviamo ubuntu,

18:39

etica maggiormente dei paesi africani. Quindi dobbiamo riuscire a convivere in armonia,

18:53

mettere al centro questi ruoli e responsabilità razionali. Proprio qui entra nel gioco

19:00

intelligenza artificiale, perché l'intelligenza artificiale si aggiunge e penetra dentro questo

19:05

mosaico, lo accelera, c'è il rischio di standardizzazione, c'è il rischio di

19:12

semplificazione, c'è il rischio della confusione. Quindi è il punto molto delicato dove noi

19:19

prendiamo le decisioni nelle aziende. Molto interessante. Adesso abbiamo messo sul tavolo

19:29

un aspetto molto chiaro, hai detto che l'AI entra in un mosaico già complesso di culture,

19:37

generazioni, etiche e pressioni. Quindi la domanda che ti pongo è questa, come si governa tutto

19:44

questo in pratica? Cioè chi costruisce la fiducia, chi fa da cerniera tra tecnologia e decisioni e

19:59

a disposizione un panorama generale che meriterebbe un approfondimento molto più

20:06

ampio? A te la parola Elena, grazie. Hai utilizzato proprio le parole che volevo

20:14

riprendere io. Infrastruttura di fiducia, si parla tantissimo adesso, ma parliamo sempre del

20:22

uso irresponsabile di intelligenza artificiale. Quindi infrastruttura di fiducia è un insieme

20:28

degli strumenti che l'Asienda potrebbe utilizzare proprio per minimizzare, nemmeno posso dire,

20:36

nemmeno vorrei utilizzare il concetto di gestione di rischi, perché non è puramente la gestione di

20:43

rischi. Praticamente quando parliamo di infrastruttura di fiducia è una specie di

20:50

cabina di reggio, di reggia, molto spesso nella forma di comitato etico su intelligenza artificiale,

20:59

quindi è un tavolo multidisciplinare che mette insieme varie competenze tecniche, legali, etiche,

21:08

filosofiche e poi c'è anche un ruolo di eticista di intelligenza artificiale, però in questo caso

21:17

non parliamo di un professionista di morale, magari un giudice morale che arriva a rifare

21:25

l'Asienda da zero. Le Asiende già funzionano, hanno già valori, regole, cultura interna e quindi il

21:33

punto è far funzionare meglio questa macchina asiendale, mentre viviamo una delle trasformazioni

21:40

industriali più profonde, quindi l'eticista AI serve proprio come una figura ponte, perché è una

21:48

figura molto multidisciplinare se possiamo dire, perché conosce policy, conosce i meccanismi

21:55

della governance, capisce le dinamiche di decision making, sa leggere vari trade off etici culturali

22:02

e aiuta a tradurre tutto questo in pratiche operative, in altre parole aiuta a mettere in

22:08

situazione ciò che l'Asienda dice di essere, ciò che misura e ciò che fa davvero quando

22:13

l'intelligenza artificiale entra nei vari processi. Quindi, giusto per concludere, ecco perché stiamo

22:22

tornando all'inizio del nostro discorso, all'inizio della nostra discussione. Questa

22:29

pare di essere la seconda nascita delle scienze come antropologia, come filosofia etica e non

22:36

perché dobbiamo diventare tutti improvvisamente filosofi, ma perché ci servono gli strumenti per

22:44

decidere bene, in modo responsabile, in modo sostenibile, dentro questo mondo che cambia più

22:52

in fretta delle nostre abitudini. Benissimo, benissimo, grazie Elena per questo tuo contributo.

23:00

Io vi ricordo che ci saranno altri incontri relativi al progetto conversazioni su

23:09

Ea, etica e standard del chapter italiano di For Humanity Italy e quindi vi do appuntamento

23:18

ai prossimi incontri. Ringrazio ancora Elena Reppmann e a presto. Grazie Nicola, grazie For Humanity Italia.