Salve a tutti, eccoci a questo nuovo appuntamento di For Humanity Italy. Abbiamo oggi con noi Elena
Reppman che vi presento ma che fra poco si autopresenterà descrivendo il suo profilo,
le chiedo di fare una self introduction e poi passeremo alla nostra conversazione durante la
quale Elena ci racconterà qualcosa di molto particolare sempre sui temi che afferiscono
gli standard e altri aspetti interessanti quali la parte etica, le responsabilità. Vediamo un po'
oggi che cosa ci racconta Elena. Allora Elena intanto grazie per essere intervenuta oggi in
questa sessione, in questo nuovo nostro incontro di questo progetto di For Humanity Italia che
prevede diciamo così le conversazioni con i nostri ospiti su temi specifici, su temi dell'AI,
su temi più particolari, temi dell'etica e temi della privacy. Il nostro, questo progetto ha un
titolo si chiama conversazioni su AI etica e standard, trovate indicazioni sul sito del
chapter italiano di For Humanity che è www.forhumanity.centre.it e adesso mi taccio e lascio la parola
ad Elena. Grazie Elena per essere qui con noi oggi, a te la parola. Nicola grazie d'invito,
sono davvero felice di essere qui a partecipare in un bellissimo progetto di For Humanity Italia.
Allora come detto sono Elena Reppman, sono project manager, project manager maggiormente di progetti
tecnologici, ho praticamente dedicato dieci anni di mia vita a sistemi di pagamento. Adesso però
mi sono appassionata anche di filosofia, antropologia e etica e io faccio la ricercatrice
nell'etica di intelligenza artificiale, sono anche membro di working group 4 di SENSE Nell'ECUN,
ente europeo che si occupa di standardizzazione di intelligenza artificiale. Benissimo Elena,
grazie. Io procederei con la prima domanda che è questa diciamo partendo da una sensazione che è
nell'aria, filosofia ed etica sembrano tornate di nuovo al centro della scena quasi come se
stessero vivendo una seconda nascita. Quindi la domanda che ti faccio è questa, che cosa sta
succedendo davvero? In realtà poi si aggiunge un'altra domanda che perché proprio adesso sentiamo
parlare ovunque di questi temi e soprattutto che cosa intendiamo quando noi diciamo filosofia in
questo contesto? A te la parola. Rispondendo a questa domanda probabilmente vorrei partire
proprio dalla frase questo contesto perché noi quando e soprattutto in questa puntata quando
diciamo contesto intendiamo soprattutto il contesto aziendale, vero? Quindi le organizzazioni che
producono ma strada facendo assumono rischi, fissano obiettivi, misurano performance. Quindi
questo è un ambiente in cui etica praticamente non vive nei manuali ma esiste e vive nelle scelte
quotidiane. Che cosa dobbiamo automatizzare? Che cosa vogliamo delegare a un sistema? Quali dati
come vogliamo usare? E chi ne paga le conseguenze? Quindi quando parliamo di responsibility e
in questo contesto adesso entra un elemento nuovo, un attore che praticamente sta cambiando un po'
le regole e intelligenza artificiale e io ti dico pure un'altra cosa perché secondo me fotografa
molto bene il clima che oggi si respira nelle organizzazioni. Proprio l'altro ieri ho parlato
con un professore di management che praticamente mi ha detto più o meno molti adesso stanno
costruendo le carriere sull'etica di intelligenza artificiale ma parlare dell'etica di intelligenza
artificiale è sensato quanto parlare dell'etica delle macchine del caffè, cioè le hai a una
macchina invece di macinare il caffè macina parole con le previsioni statistiche. E dico subito che
io magari non sono molto d'accordo con questa visione, cioè secondo me noi dobbiamo avere
questo sguardo sul futuro che stiamo creando, cioè io vedo l'intelligenza artificiale come
attore importante, dico attore non per dare l'anima ma perché AI nel pratica entra nei
processi, influenza le decisioni, quindi suggerisce, classifica, prevede, ottimizza. È un'innovazione
che cambia equilibrio, è un'innovazione addirompente se vogliamo dire, perché oggi è a portata di tutti.
Perfetto, in effetti quello che dici è vero, di fronte a questa velocità molto frequentemente,
molto spesso si resta a bocca aperta. In azienda si vedono ogni giorno strumenti che fino a ieri
sembravano fantascienza, oggi invece li possiamo ritrovare nelle email, nelle riunioni, nei report,
è difficile non sentirsi meravigliati e in un certo senso anche forse emozionati,
perché sembra di assistere in diretta ad un salto di specie della tecnologia.
Ecco, a questo che cosa possiamo aggiungere?
Non so se avete mai sentito il paradosso di Moravec, Moravec diceva in sostanza che per
le macchine è molto facile fare i compiti alti, ragionamento astratto, giochi, test,
scacchi, linguaggio, ma molto difficile riplicare le abilità basse che per noi sono naturali,
per esempio muoversi, orientarsi nel mondo fisico, percepire bene.
Questo paradosso da dove viene? Praticamente è una spiegazione evolutiva,
le capacità sensomatorie sono antichissime nell'umano, mentre il ragionamento astratto
è più recente. Quel cambiamento a quale noi stiamo assistendo adesso, basta guardare le aziende
come Tesla, basta guardare l'azienda come FIGOR, che per esempio nel 2025 FIGOR ha pubblicato
i risultati operativi di deployment dei robot in Germania, quindi questi robot praticamente
sono impiegati su linea e noi stiamo assistendo a una trasformazione quando l'intelligenza
artificiale passa dalla testa al corpo e quindi entra nei luoghi di lavoro. A questo punto non
che si cambia solo la tecnologia, cambiano ruole, cambia praticamente il modo in cui noi definiamo
che cosa è una decisione buona, accettabile, giusta e poi questa decisione non appartiene
solo all'umano, appartiene anche all'intelligenza artificiale. Qui vorrei magari aggiungere brevemente
una frase, perché molto spesso parliamo di intelligenza e ci esiste questa critica sul
fatto che non è un'intelligenza umana, che non è giusto parlare che un robot può essere
intelligente, è vero, è vero, perché probabilmente qui vorrei magari citare Floridi,
sono d'accordo con Lucio, ma anche con le definizioni, le parole no, l'evoluzione che
stiamo vivendo è troppo veloce, troppo dirompente, che va più veloce che noi riusciamo a trovare le
definizioni o creare le definizioni giuste, perciò c'è questa tendenza magari un po'
all'antropovirnizzazione. Sono d'accordo, in effetti si sente parlare di tool più veloci,
quindi una tecnologia che entra nel lavoro e comincia ad intervenire proprio sulle decisioni,
sulla responsabilità e sui processi, quindi la domanda che ti pongo è questa sostanzialmente,
e potrebbe interessare chiaramente anche chi ci ascolta dal mondo aziendale, cioè quando le
AI passa dalla demo al quotidiano, qual è il primo punto critico e aggiungo poi, dove iniziano
i problemi veri, quelli che non si risolvono con un aggiornamento software? Iniziano probabilmente
nel momento quando AI entra nel processo decisionale, ma non ha il morale, non chi
abbia il morale, però comunque influisce sul modo in cui le persone decidono. Io in questo
senso e in questo puntato parlo di più dell'uso responsabile delle AI, non delle AI responsabili,
cioè non dell'etica delle macchine, ma dell'etica delle persone che utilizzano le macchine e che
devono capire quali cambiamenti noi stiamo vivendo. Questo riguarda l'organizzazione
indiretta, l'organizzazione che utilizza AI, quindi come definisce chi decide, chi controlla,
quando si può dire no al sistema, come si spiega una scelta e quando l'intelligenza
artificiale entra nei processi emergono i rischi tipici. Questi rischi veramente sono
illustrati molto bene in un articolo che si trova in un dizionario di filosofia,
l'articolo appartiene a Muller, io praticamente cito solo qualche rischio, per esempio l'alibi
dell'algoritmo tipo ha detto il sistema quindi va bene o non è chiaro come funziona o non ci
sono le regole, quindi è un modo di spostare la responsabilità altrove. Poi magari automation
bias, quindi magari fidarsi troppo della raccomandazione automatica perché è veloce,
perché è sempre oggettiva. Magari amplificazione del bias, se i dati sono distorti, l'intelligenza
artificiale si potrebbe dedicare ad un'intera puntata. Sì, assolutamente sì, sono temi che noi
potremmo approfondire con spazi ancora più ampi, però restando un po' sulla nostra conversazione,
quindi la questione non è solo evitare errori tecnici ma evitare che le AI cambi il comportamento
delle persone, la distribuzione delle responsabilità. Quindi la domanda che ti pongo è come si passa
dalla diagnosi alla cura? Cioè che cosa deve fare un'azienda concretamente per usare le AI
in modo responsabile senza frenare l'innovazione secondo te? Guardi adesso magari dirò qualche
cosa che magari non vorrei che i nostri ascoltatori avrebbero la sensazione dello
astratto, perché in realtà è tutto molto concreto. Ci può servire antropologia, ci può
servire etica filosofica, ci può servire etica dell'intelligenza artificiale, etica delle macchine,
in realtà è tutto concreto perché quando dico antropologia io intendo la domanda di base,
che idea dell'essere umano noi stiamo assumendo? Quindi è un individuo autonomo o una persona
razionale? E' un soggetto razionale sempre lucido o un essere vulnerabile, influenzabile con i limiti,
bisogni di cura? Quindi l'immagine dell'umano è punto di partenza e quindi ovviamente sta nei
nostri policy, esiste nei nostri policy. Quando dico filosofia e l'etica intendo lo step successivo,
dato che l'umano è fatto così, quali criteri noi possiamo usare per dire che una scelta è buona,
che una scelta è giusta, accettabile e quindi qua entrano nel gioco gli occhiali dell'etica,
dignità e diritti, conseguenza, benessere, fioritura umana, responsabilità, cura, relazioni. Sono tutte
le teorie molto pratiche, cioè policy non nasce nel vuoto, una policy su trasparenza, una policy
sulla supervisione umana, protezione delle vulnerabilità, non sono tecnici, è la traduzione
pratica di una scelta antropologica e filosofica. Per rendere l'idea molto chiara, stamattina mi è
venuto in mente, mi sono ricordato un film che si chiama Uomo bicentenario, non lo so se l'avete
mai visto, alla fine è un robot che per 200 anni cerca di diventare uomo, alla fine riesce. Quindi
è una storia che dietro la trama, dietro la fantascienza ci pone la domanda antropologica,
che cosa rende qualcuno persona? Il corpo? La coscienza? Sono le emozioni, memoria,
riconoscimento sociale e giuridico? Quindi noi adesso possiamo nemmeno vedere questa cosa come
fantascienza, cioè 30 anni fa era pura fantascienza, adesso molto molto di meno.
Poi un altro esempio che potrebbe spiegare benissimo l'importanza di antropologia
all'etica è un esempio apparentemente lontano, io parlo di educazione 0-6 anni. Qui l'antropologia,
quindi qual è l'immagine del bambino che noi stiamo assumendo, non è dettaglio teorico,
è proprio la base di tutto, che decide che tipo di contesto noi andiamo a costruire. Se
l'immagine di partenza è quella di un bambino come incapace, fragile, molto spesso visto come
vaso vuoto da riempire, adesso l'adulto tende a fare soprattutto questo, quindi guidare, spiegare,
dare le risposte, costruisce intorno un ambiente specifico, le regole specifiche, gli strumenti e
i giocatori saranno specifiche. Se invece vediamo un'altra immagine, quella che troviamo nel lessico
di Reggio Emile, e parliamo di un bambino competente, ricco di potenzialità, un soggetto
che apprende in relazione e che è anche un costruttore di significato e bambino ricercatore,
mi piace molto bello questo paragone, il processo diventa tutto l'altro, gli ambienti diventano
diversi, i policy diversi, anche i giocatori diventano diversi. Quindi parlando di bambini,
noi possiamo parlare nella stessa maniera e nello stesso modo anche delle aziende. Azienda,
quale immagine vuole appropriarsi? Come vede la sua ambizione? Da questo parte tutto.
Ottimo, ma dovremmo fermarci molto più tempo. Quando parliamo di etica e decision making,
facciamo una fotografia del posto in cui oggi si decide, com'è davvero l'ambiente di lavoro
in azienda, secondo te? Possiamo anche dare uno sguardo sull'azienda contemporanea e vedremo
un ambiente molto diverso da quello di vent'anni fa. L'ambiente sarà internazionale, spesso
distribuito su più paesi fusi orari. Dentro ci sono dinamiche globali che entrano dalla
porta principale, quindi sono i flussi migratori, multiculturalità, team con più lingue e abitudini.
Poi si aggiunge pure il cambio intergenerazionale forte, quindi convivono le persone cresciute
analogiche, che siamo noi praticamente, siamo digital immigrants. Poi ci sono digitali nativi,
per cui gli strumenti, velocità, piattaforme sono la normalità. In tutto questo contesto
dobbiamo prendere le decisioni tutti i giorni. Alcune piccole che cambiano le vite delle persone,
le altre sono valutazioni, promozioni, gestione di un conflitto, sicurezza, privacy, inclusione.
In altre parole, decidiamo in modo continuo che cosa è il bene e che cosa è il male,
anche quando non usiamo queste parole. Il punto è che noi non decidiamo nel vuoto,
ma molte scelte partono già da reazioni rapide e le altre sono su quali noi pensiamo un po' di più.
Se vi interessa, qui potrei proporre una lettura di Daniel Kahneman, che parla di Sistema 1 e Sistema
2. Lui è proprio un massimo esperto di decision making, ha il premio Nobel in economia e quindi
definisce questo Sistema 1 di un pensiero veloce, un pilota automatico che dipende tantissimo dal
contesto in quale noi siamo cresciuti. Noi prendiamo le decisioni in modo assolutamente
diverso, noi vediamo il bene e il male in modo assolutamente diverso. Perché anche restando in
un occidente non esiste solo etica, esistono più linguaggi che convivono. Noi possiamo anche
elencare, sono diontologia, utilitarismo, etica delle vertù, etica della cura. Se ci spostiamo
nel mondo non occidentale troviamo altro, troviamo confucianesimo, troviamo ubuntu,
etica maggiormente dei paesi africani. Quindi dobbiamo riuscire a convivere in armonia,
mettere al centro questi ruoli e responsabilità razionali. Proprio qui entra nel gioco
intelligenza artificiale, perché l'intelligenza artificiale si aggiunge e penetra dentro questo
mosaico, lo accelera, c'è il rischio di standardizzazione, c'è il rischio di
semplificazione, c'è il rischio della confusione. Quindi è il punto molto delicato dove noi
prendiamo le decisioni nelle aziende. Molto interessante. Adesso abbiamo messo sul tavolo
un aspetto molto chiaro, hai detto che l'AI entra in un mosaico già complesso di culture,
generazioni, etiche e pressioni. Quindi la domanda che ti pongo è questa, come si governa tutto
questo in pratica? Cioè chi costruisce la fiducia, chi fa da cerniera tra tecnologia e decisioni e
a disposizione un panorama generale che meriterebbe un approfondimento molto più
ampio? A te la parola Elena, grazie. Hai utilizzato proprio le parole che volevo
riprendere io. Infrastruttura di fiducia, si parla tantissimo adesso, ma parliamo sempre del
uso irresponsabile di intelligenza artificiale. Quindi infrastruttura di fiducia è un insieme
degli strumenti che l'Asienda potrebbe utilizzare proprio per minimizzare, nemmeno posso dire,
nemmeno vorrei utilizzare il concetto di gestione di rischi, perché non è puramente la gestione di
rischi. Praticamente quando parliamo di infrastruttura di fiducia è una specie di
cabina di reggio, di reggia, molto spesso nella forma di comitato etico su intelligenza artificiale,
quindi è un tavolo multidisciplinare che mette insieme varie competenze tecniche, legali, etiche,
filosofiche e poi c'è anche un ruolo di eticista di intelligenza artificiale, però in questo caso
non parliamo di un professionista di morale, magari un giudice morale che arriva a rifare
l'Asienda da zero. Le Asiende già funzionano, hanno già valori, regole, cultura interna e quindi il
punto è far funzionare meglio questa macchina asiendale, mentre viviamo una delle trasformazioni
industriali più profonde, quindi l'eticista AI serve proprio come una figura ponte, perché è una
figura molto multidisciplinare se possiamo dire, perché conosce policy, conosce i meccanismi
della governance, capisce le dinamiche di decision making, sa leggere vari trade off etici culturali
e aiuta a tradurre tutto questo in pratiche operative, in altre parole aiuta a mettere in
situazione ciò che l'Asienda dice di essere, ciò che misura e ciò che fa davvero quando
l'intelligenza artificiale entra nei vari processi. Quindi, giusto per concludere, ecco perché stiamo
tornando all'inizio del nostro discorso, all'inizio della nostra discussione. Questa
pare di essere la seconda nascita delle scienze come antropologia, come filosofia etica e non
perché dobbiamo diventare tutti improvvisamente filosofi, ma perché ci servono gli strumenti per
decidere bene, in modo responsabile, in modo sostenibile, dentro questo mondo che cambia più
in fretta delle nostre abitudini. Benissimo, benissimo, grazie Elena per questo tuo contributo.
Io vi ricordo che ci saranno altri incontri relativi al progetto conversazioni su
Ea, etica e standard del chapter italiano di For Humanity Italy e quindi vi do appuntamento
ai prossimi incontri. Ringrazio ancora Elena Reppmann e a presto. Grazie Nicola, grazie For Humanity Italia.