ForHumanity Italy incontra Marianna Bergamaschi Ganapini
S01:E05

ForHumanity Italy incontra Marianna Bergamaschi Ganapini

Episode description

Quinto incontro del progetto “Conversazioni su AI, Etica e Standard”. Incontro con Marianna Bergamaschi Ganapini. Opinioni sull’IA, sull’etica, sulla protezione dei dati personali, sulla privacy e sull’innovazione.

Download transcript (.vtt)
0:08

Buon pomeriggio a tutti, benvenuti a questo nuovo incontro di 4Humanity Italy

0:17

nell'ambito del progetto conversazioni su AI etiche standard e oggi abbiamo

0:24

come nostra gradita ospite Marianna Ganapini, Marianna Bergamaschi Ganapini

0:32

che ringrazio per aver aderito al nostro invito alla quale passo la parola per

0:39

una self introduction e poi ci facciamo una chiacchierata su alcuni spunti

0:45

interessanti, prego Marianna. Grazie mille Nicola, grazie per avermi

0:51

invitato innanzitutto, sono Marianna Bergamaschi Ganapini, vivo negli Stati

0:58

Uniti ormai da più di 20 anni, sono una professoressa universitaria all'università

1:04

del North Carolina e oltre a questo ho fondato anche un'azienda di consulenza

1:12

chiamata Logica Now dove offriamo servizi di consulenza legati all'intelligenza

1:17

artificiale responsabile, quindi etica e AI, offriamo learning and development,

1:25

training, consulenze di vario tipo per grandi aziende, questo è un po' brevemente la mia bio.

1:35

Grazie, grazie mille, molto interessante. Io passerei a farti subito la prima domanda,

1:41

secondo te qual è il problema normativo relativo alla governance dell'AI che possa

1:51

essere risolta e in che modo? Poi magari da questo tema vediamo un po' cosa possiamo sviscerare,

2:05

lascio la parola a te. Sì, allora, problemi normativi ce ne sono di vario tipo direi,

2:14

c'è un problema che riguarda diciamo l'accountability, chi è responsabile e bisogna

2:22

essere attenti quando si usa la parola responsabilità perché magari per un

2:27

certo deliverable, per un certo prodotto in un'azienda che usa o crea intelligenza

2:33

artificiale, magari ci sono tante persone che sono responsabili e si occupano di varie parti,

2:39

però poi l'accountability ha a che fare con chi risponde oggettivamente se le cose vanno male.

2:46

Ecco, manca spesso nelle aziende una chiara accountability, una figura che si prende questa

2:54

responsabilità e quindi abbiamo una situazione di distributed responsibility, cioè la responsabilità

3:01

è distribuita però poi non è chiaro chi deve fare certi tipi di implementazione di safeguard,

3:10

di implementazione di etiche, di rischi eccetera. Quindi questo è un grosso problema. C'è un altro

3:17

problema diciamo un pochino più specifico che riguarda l'ambito di decisioni normative che

3:26

devono essere prese un po' a monte in ogni azienda che usa o crea intelligenza artificiale ed è il

3:35

problema di prendere una decisione su cosa si intende per per esempio fairness, cioè giustizia,

3:42

nel senso se vogliamo dei algoritmi o dei modelli che sono, che siano giusti e rispettosi di alcuni

3:50

diritti umani, spesso questo è tutto molto lasciato nel vago e non c'è una chiara decisione

3:55

che cosa questo significa per le aziende. Ci sono vari tipi di fairness e molte aziende hanno

4:03

solo una visione molto intuitiva di cosa siano, però poi non prendono una decisione a monte su

4:09

cosa veramente vogliono raggiungere. E concludo con un ultimo punto che forse è la cosa più

4:16

importante diciamo a monte di tutto questo è una visione molto focalizzata sul concetto di rischio,

4:26

rischio per l'azienda o anche rischio per la società, quindi non voglio dire che le aziende

4:31

si basano, si interessano solo dei rischi propri, molti parlano anche di rischi per la società,

4:37

però il concetto di rischio è un concetto diverso dal concetto per esempio di giustizia,

4:46

del concetto di accettazione dei diritti umani. Cosa voglio dire? Il rischio è un concetto che

4:52

si chiama conseguenzialista diciamo in filosofia, praticamente l'idea è c'è un rischio e c'è un

5:02

beneficio e facciamo e misuriamo quali sono i rischi e quali sono i benefici delle nostre

5:10

decisioni. Il problema è che certe volte i rischi vanno a ledere diritti fondamentali

5:17

delle persone e su quelli non li puoi misurare diciamo i pro e i contro, devi prendere una

5:24

decisione che garantisce quei diritti. Ecco molte aziende, soprattutto quelli negli Stati Uniti,

5:32

si focalizzano al concetto di rischio e non quello dei concetti più assolutisti come quelli

5:37

dei diritti umani. Molto interessante, ci sarebbe da parlare per diverse ore, però abbiamo dei tempi

5:46

un po' più stretti, quindi io passerei ad un altro argomento. Ti chiedo sostanzialmente, secondo te

5:54

qual è il fallimento nell'attuale ecosistema delle AI che magari che ti preoccupa di più,

6:01

che cosa avverti come maggiormente preoccupante? Allora, la cosa che mi preoccupa di più in questo

6:12

momento, e questa è una cosa molto americana, è un interesse, un focus sproporzionato nei riguardi di

6:26

quello che si chiama Artificial General Intelligence, cioè una intelligenza come quella umana o addirittura

6:37

una superintelligenza, c'è una spinta economica qui negli Stati Uniti sproporzionata nell'attenere

6:47

questo risultato, e dal punto di vista etico il risvolto della medaglia è anche una preoccupazione,

6:58

devo dire nel senso ragionevole, per i rischi che si chiamano esistenziali, cioè se arriva

7:05

un'intelligenza superintelligente, un'intelligenza artificiale superintelligente, il rischio è che,

7:11

diciamo, i rischi per gli esseri umani sono molti, perché rischiamo di essere poi dominati da questa

7:16

intelligenza. Però, allo stesso tempo, questa spinta e questo focus su questi argomenti perde o

7:29

diminuisce l'interesse per problemi molto più, se si vuole dire, terra-terra, ma non terra-terra

7:34

assolutamente, come appunto quelli di cui parlavamo prima, della governance, dei problemi

7:39

dell'accountability, dei problemi della giustizia, della privacy, che soprattutto qui negli Stati

7:46

Uniti, a livello legislativo federale, non vengono considerati come centrali. A livello

7:55

statale stiamo vedendo in California, in Colorado, New York, delle leggi che cercano di rispondere a

8:03

esigenze etiche e immediate, però anche una spinta dal governo federale a mettere a tacere queste

8:11

leggi, cioè impedirle. Si è visto che l'amministrazione Trump, in più momenti, ha cercato di passare una

8:20

moratoria che impedisse agli Stati di promulgare queste leggi. Questo è un serio problema, secondo

8:28

me. Si, conosco perfettamente il tema e mi ricollego a quello che hai detto prima sulla

8:36

responsabilità delle AI, perché in Europa noi avevamo due proposte di direttive dell'Unione

8:43

Europea sulla responsabilità delle AI. Una è stata ritirata dalla Commissione e c'è in piedi

8:50

un'altra che però prevede la responsabilità delle AI incardinata nella direttiva sui prodotti

8:56

difettosi. Il tema è aperto ed è discusso, è discusso anche perché giuridicamente la legislazione

9:07

di una responsabilità delle AI adottata in Europa nella forma della direttiva comporterebbe poi il

9:15

recepimento da ogni Stato membro e quindi ogni Stato si farebbe la propria legge, non ci sarebbe

9:19

uniformità a livello europeo, ma questo è un tema aperto. Io ho scritto su queste cose, però il

9:30

tema della responsabilità di un'eventuale responsabilità delle AI è un tema importante e

9:35

mi ricollego a quello che stavi dicendo prima. Riguardo a quello che invece di cui parlavi adesso,

9:39

è molto interessante perché io seguo tutte le attività di Future of Life Institute, Max

9:49

Stegmark eccetera e compagni e sono uno dei firmatari delle open letter che periodicamente

9:57

circolano e quindi conosco bene il fenomeno della superintelligenza alla quale ti riferivi,

10:04

a questo aspetto diciamo molto così ampio che potrebbe effettivamente far

10:14

suscitare delle preoccupazioni che non sono veramente poche. Io passerò subito ad un

10:22

altro punto per continuare e proseguire la chiacchierata con te e ti chiederei quando tu

10:30

sei in ambito lavorativo, per esempio con dei dirigenti, che tipo di cambiamento di

10:40

mentalità cerchi di creare, cioè come ti poni in questi contesti?

10:47

Questa è una bella domanda. Il cambiamento di mentalità è non facile. Abbiamo soprattutto a

11:00

dirigenti CEO qui negli Stati Uniti e ci sono spinte anche un po' diverse, cioè molti di loro

11:13

vogliono introdurre le AI nelle loro aziende, c'è una corsa verso una svolta digitale verso

11:27

l'intelligenza artificiale come non si è mai visto, quindi alcune pressioni diciamo fatte

11:34

dalla Silicon Valley stanno attecchendo a livello di dirigenti e quindi il problema a questo punto

11:43

è che framework usiamo, che mentalità dobbiamo usare come dirigenti nel considerare questo

11:56

svolta tecnologica. La facciamo come un dirigente fa questa svolta tecnologica per varie ragioni,

12:02

una di quelle purtroppo è anche sostituire il lavoro degli umani e renderlo quindi in

12:09

certo senso sostituibile da una macchina che ovviamente costa molto meno. Quando si arriva

12:17

a questa questione di AI responsabile, AI governance, allora l'approccio rimane però un

12:25

po' quello del vediamo, attendiamo, vediamo cosa succede e poi ce ne occupiamo. Cerchiamo di

12:36

evitare i rischi attraverso checklist, attraverso azioni o interventi a livello

12:47

locale, non a livello di AI governance come una struttura generale dell'azienda che riguarda le

12:57

AI e quindi la mentalità è quella del un po' attendista come ho detto, vediamo le

13:03

regolamentazioni ci saranno, poi l'Unione Europea cosa farà, vediamo. Prima di muoversi c'è

13:10

abbastanza resistenza, quando ci si muove c'è molto interesse e comunque focus sul concetto

13:20

del conformarsi alle leggi e meno quello di fare cose etiche e responsabili, quindi il focus tende

13:29

ancora a essere molto ristretto sull'aspetto del legislativo e anche su quello non si è ancora

13:36

capito che per esempio la legislazione europea richiede una governance molto espansa e si tende

13:43

a dire vabbè cerchiamo, vediamo dove sono i problemi, vediamo dove sono i rischi e ci mettiamo

13:50

una pezza diciamo. L'errore è il seguente, se tu fai a questo atteggiamento il problema che le AI pone

14:02

è che le AI è una tipo di tecnologia che in cui i rischi difficili da prevedere sono molti, cioè è un

14:19

tipo delle LEMS, quindi che sono stocastici, in cui fare della risk analysis eccetera non è facile,

14:27

non è facile assolutamente, perché appunto è difficilmente prevedibile, è difficilmente

14:32

prevedibile cosa farà la macchina ed è soprattutto difficilmente prevedibile come gli

14:37

esseri umani la usano. Esempio, non ci si aspettava, immagino che non ci si aspettasse che alcuni

14:45

ragazzi giovani usassero le chatbots per dialogare sui loro sui loro progetti di togliersi la vita,

14:54

invece almeno in un paio di casi se non di più, quindi negli Stati Uniti, Caractere AI e altre

14:59

aziende sono state portate in corte perché le loro, le loro chatbot hanno instigato al suicidio dei

15:09

ragazzi adolescenti che poi appunto sono sono morti, quindi è un terreno estremamente difficile da

15:16

governare. E quindi arrivo al mio punto, in un terreno di questo genere, con una tecnologia di

15:22

questo genere, fare, avere un atteggiamento reattivo, avere un atteggiamento di, come dire,

15:30

focalizzarsi solo sui rischi che ci riusciamo a immaginare e quindi agire sempre un po' a livello

15:38

topico e non a livello globale, porta al rischio che poi in quello che non ti puoi immaginare,

15:44

i rischi che saltano fuori, tu non hai la capacità di predizione, non hai la capacità di azione

15:53

immediata e quindi questo porta a delle serie conseguenze come appunto la perdita della vita.

16:00

Un atteggiamento che noi, come un gruppo tra IBM e l'Università di Notre Dame, stiamo cercando di

16:08

su cui stiamo cercando di insistere, è quello che ci vuole una visione più olistica o più globale

16:13

della governance. Cioè se tu cominci a pensare alla governance non come, o non solo, come una

16:22

questione di, ok, devo tappare i miei buchi perché così non creo rischi alla mia azienda,

16:29

non creo perdita di reputazione eccetera, ma l'atteggiamento che assumi è anche quello

16:36

del dire devo fare un po' anche la cosa giusta, devo anche vedere quale sono veramente un uso

16:44

giusto e responsabile di questa tecnologia. Avere una visione globale che noi chiamiamo

16:50

value theory, ok, value based, invece di avere una visione molto come di transazionale materialistica,

17:00

porta poi anche a dei successi e dei risultati buoni per l'azienda dal punto di vista della

17:07

bottom line, perché appunto si evitano poi questi disastri. Quindi incoraggiamo, quello che stiamo

17:15

cercando di fare sia come LogicaNow sia nel mio lavoro con IBM e Notre Dame, è quello di dire

17:21

c'è un approccio che magari all'inizio ti costa un po' di più, ma che se tu lo assumi, un approccio

17:29

listico, la governance poi ti dà una rete di sicurezza maggiore nel lungo termine. So che le

17:37

aziende non pensano a lungo termine, so che poi alla fine ci sono delle esigenze economiche a cui

17:45

rispondere, quindi lo sappiamo tutti, non siamo ingenui su questo, però serve un cambiamento

17:50

di mentalità, perché se no con le AI non la gestisci. Finalmente condivisibili le tue

17:57

osservazioni, però io a questo punto ti chiederei cosa ti ha spinto a occuparti di AI, di governance,

18:08

di etica, cioè quali sono state le motivazioni che ti hanno portato qui, in questi ambiti?

18:16

Io allora, il mio background, nel senso che ho fatto un PhD negli Stati Uniti, appunto insegno

18:22

filosofia, adesso la mia posizione è in filosofia e data science all'Università

18:28

del North Carolina a Charlotte, e quindi il mio background è quello appunto immerso

18:34

nei concetti come quelli di etica, di responsabilità. Poi il mio lavoro con IBM,

18:41

che diciamo è nato durante la pandemia nel 2020 e continua tuttora, mi ha avvicinato a persone

18:53

come Francesca Rossi, che si occupa appunto di responsabilità, di etica, di governance per IBM,

19:02

e infine la collaborazione con altre università, NYU oppure Notre Dame negli Stati Uniti,

19:11

mi ha portato a cercare anche appunto di non farlo solo un discorso filosofico,

19:17

ma anche un discorso più applicato alla realtà economica, quindi per esempio in questo gruppo

19:25

di lavoro con Notre Dame ed IBM siamo coinvolti io, Francesca Rossi come IBM, ma anche persone

19:33

della business school dell'Università di Notre Dame, quindi c'è diciamo una direzione applicativa,

19:41

di alcuni concetti filosofici che però hanno bisogno poi di essere applicati. Nel momento

19:47

in cui poi abbiamo fondato Logica Now e lavorando con grandi aziende, grandissime,

19:54

internazionali, le esigenze diciamo di poi implementare questa governance ci sono ovviamente,

20:01

perché le aziende hanno bisogno di indicazioni precise, però il mio background teorico e questo

20:13

sviluppo più pratico degli ultimi cinque anni mi ha permesso di avere questo profilo più variegato

20:22

magari che si ha di solo come professoressa universitaria. Ottimo, senti, ultimo punto della

20:33

nostra conversazione, che tipo di impatto vorresti che il tuo lavoro avesse all'interno delle

20:44

organizzazioni? Cosa immagini di poter, che apporto pensi di poter portare? Se è un tema

20:53

del quale pensi di occuparti o ti occupi di questo o anche di questo, qual è il tuo apporto alle

21:01

organizzazioni? Allora prima di tutto attraverso Logica Now noi facciamo tantissimo training sulla

21:09

AI responsabile, lo facciamo non solo in generale, lo facciamo specifico a diversi ruoli, per esempio

21:17

Cyber Security Expert, i Privacy Expert, quelli che fanno quello che si chiama Procurement, cioè

21:26

quelli che comprano le AI per le aziende, quindi il nostro target è sempre molto specifico al ruolo

21:33

e noi pensiamo che in questo modo, invece di avere solo un'infarinatura di Responsible AI,

21:41

di AI Ethics e Governance, che poi serve fino a un certo punto, rendere questo insegnamento,

21:47

questo training a livello proprio del ruolo delle persone, fa capire in modo più chiaro come loro

21:54

poi possono applicare questi concetti che sono anche un po' vaghi al loro lavoro, cioè cosa vuol

21:59

dire Responsible AI nella privacy? Per un developer che sta costruendo un'AI, che cosa vuol dire in

22:05

pratica che deve fare AI responsabile? Ecco, quindi noi pensiamo che dal punto di vista appunto

22:12

dell'awareness, della consapevolezza, è il primo punto, cioè noi ci inseriamo in questo, in questa

22:18

corrente che poi sicuramente l'AI Act con l'articolo 4, che spero non venga tolto, spinge in

22:27

questa direzione, però noi cerchiamo di farlo in modo un pochino più in profondità, specifico sui

22:32

ruoli. Questa è la prima cosa. La seconda cosa è quello di parlare appunto, come facciamo, con CEO,

22:40

con insomma dirigenti, che cercando di fargli vedere che magari ci sono, entro i limiti delle

22:46

possibilità che loro hanno, delle alternative nell'approccio a questi problemi. Ecco, non

22:53

necessariamente devono solo avere un atteggiamento passivo, possono anche avere degli atteggiamenti

22:59

attivi e alcuni sono recettivi rispetto a questa cosa, capiscono anche il valore economico di essere

23:06

proattivi nel momento in cui vanno adottare AI governance. Infine, lavoriamo molto anche nella

23:14

creazione di quelli che si chiamano AI ethics board o responsible AI board, cioè molte aziende

23:20

ormai, questo diciamo è abbastanza sdoganato, hanno capito che devono avere delle figure nel

23:29

loro organigramma che rappresentano quelli che prendono decisioni rispetto alle azioni di AI

23:36

responsabili e governance in un'azienda. Sono delle figure difficili perché sono di solito

23:42

cross-functional, cioè non possono stare in privacy, possono stare in risk, possono stare

23:51

diciamo in vari, oppure in product, ci sono alcune aziende che hanno responsible AI board dentro il

23:58

product, quindi è una è una figura difficile, quindi noi li aiutiamo in questo percorso di

24:05

cercare di introdurre un'area responsabile e una governance senza ovviamente poi andare a

24:12

sparsi più di tanto con le altre realtà aziendali che comunque all'interno di un'azienda magari

24:18

spingono per fare le cose in modo veloce, con costi minimi, eccetera, sappiamo tutti che poi

24:24

la realtà aziendale è complessa, quindi questi sono i tre modi in cui cerchiamo di avere un impatto.

24:31

Benissimo, allora grazie, grazie per questa conversazione, io ricordo a chi ci ascolta che

24:40

questi incontri fanno parte del progetto di For Humanity, in particolare del chapter italiano

24:47

For Humanity Italy, conversazioni su AI etiche standard, sono degli incontri nei quali coinvolgiamo

24:55

alcuni esperti per sentire il loro punto di vista, ci aggiorniamo sui canali social per i prossimi

25:06

eventi nell'ambito di questo progetto, ringrazio ancora Marianna Bergamaschi-Ganafini per aver

25:15

aderito al nostro invito e aver partecipato alla nostra conversazione, un saluto a tutti e

25:23

buon proseguimento. A presto.