Buon pomeriggio a tutti, benvenuti a questo nuovo incontro di 4Humanity Italy
nell'ambito del progetto conversazioni su AI etiche standard e oggi abbiamo
come nostra gradita ospite Marianna Ganapini, Marianna Bergamaschi Ganapini
che ringrazio per aver aderito al nostro invito alla quale passo la parola per
una self introduction e poi ci facciamo una chiacchierata su alcuni spunti
interessanti, prego Marianna. Grazie mille Nicola, grazie per avermi
invitato innanzitutto, sono Marianna Bergamaschi Ganapini, vivo negli Stati
Uniti ormai da più di 20 anni, sono una professoressa universitaria all'università
del North Carolina e oltre a questo ho fondato anche un'azienda di consulenza
chiamata Logica Now dove offriamo servizi di consulenza legati all'intelligenza
artificiale responsabile, quindi etica e AI, offriamo learning and development,
training, consulenze di vario tipo per grandi aziende, questo è un po' brevemente la mia bio.
Grazie, grazie mille, molto interessante. Io passerei a farti subito la prima domanda,
secondo te qual è il problema normativo relativo alla governance dell'AI che possa
essere risolta e in che modo? Poi magari da questo tema vediamo un po' cosa possiamo sviscerare,
lascio la parola a te. Sì, allora, problemi normativi ce ne sono di vario tipo direi,
c'è un problema che riguarda diciamo l'accountability, chi è responsabile e bisogna
essere attenti quando si usa la parola responsabilità perché magari per un
certo deliverable, per un certo prodotto in un'azienda che usa o crea intelligenza
artificiale, magari ci sono tante persone che sono responsabili e si occupano di varie parti,
però poi l'accountability ha a che fare con chi risponde oggettivamente se le cose vanno male.
Ecco, manca spesso nelle aziende una chiara accountability, una figura che si prende questa
responsabilità e quindi abbiamo una situazione di distributed responsibility, cioè la responsabilità
è distribuita però poi non è chiaro chi deve fare certi tipi di implementazione di safeguard,
di implementazione di etiche, di rischi eccetera. Quindi questo è un grosso problema. C'è un altro
problema diciamo un pochino più specifico che riguarda l'ambito di decisioni normative che
devono essere prese un po' a monte in ogni azienda che usa o crea intelligenza artificiale ed è il
problema di prendere una decisione su cosa si intende per per esempio fairness, cioè giustizia,
nel senso se vogliamo dei algoritmi o dei modelli che sono, che siano giusti e rispettosi di alcuni
diritti umani, spesso questo è tutto molto lasciato nel vago e non c'è una chiara decisione
che cosa questo significa per le aziende. Ci sono vari tipi di fairness e molte aziende hanno
solo una visione molto intuitiva di cosa siano, però poi non prendono una decisione a monte su
cosa veramente vogliono raggiungere. E concludo con un ultimo punto che forse è la cosa più
importante diciamo a monte di tutto questo è una visione molto focalizzata sul concetto di rischio,
rischio per l'azienda o anche rischio per la società, quindi non voglio dire che le aziende
si basano, si interessano solo dei rischi propri, molti parlano anche di rischi per la società,
però il concetto di rischio è un concetto diverso dal concetto per esempio di giustizia,
del concetto di accettazione dei diritti umani. Cosa voglio dire? Il rischio è un concetto che
si chiama conseguenzialista diciamo in filosofia, praticamente l'idea è c'è un rischio e c'è un
beneficio e facciamo e misuriamo quali sono i rischi e quali sono i benefici delle nostre
decisioni. Il problema è che certe volte i rischi vanno a ledere diritti fondamentali
delle persone e su quelli non li puoi misurare diciamo i pro e i contro, devi prendere una
decisione che garantisce quei diritti. Ecco molte aziende, soprattutto quelli negli Stati Uniti,
si focalizzano al concetto di rischio e non quello dei concetti più assolutisti come quelli
dei diritti umani. Molto interessante, ci sarebbe da parlare per diverse ore, però abbiamo dei tempi
un po' più stretti, quindi io passerei ad un altro argomento. Ti chiedo sostanzialmente, secondo te
qual è il fallimento nell'attuale ecosistema delle AI che magari che ti preoccupa di più,
che cosa avverti come maggiormente preoccupante? Allora, la cosa che mi preoccupa di più in questo
momento, e questa è una cosa molto americana, è un interesse, un focus sproporzionato nei riguardi di
quello che si chiama Artificial General Intelligence, cioè una intelligenza come quella umana o addirittura
una superintelligenza, c'è una spinta economica qui negli Stati Uniti sproporzionata nell'attenere
questo risultato, e dal punto di vista etico il risvolto della medaglia è anche una preoccupazione,
devo dire nel senso ragionevole, per i rischi che si chiamano esistenziali, cioè se arriva
un'intelligenza superintelligente, un'intelligenza artificiale superintelligente, il rischio è che,
diciamo, i rischi per gli esseri umani sono molti, perché rischiamo di essere poi dominati da questa
intelligenza. Però, allo stesso tempo, questa spinta e questo focus su questi argomenti perde o
diminuisce l'interesse per problemi molto più, se si vuole dire, terra-terra, ma non terra-terra
assolutamente, come appunto quelli di cui parlavamo prima, della governance, dei problemi
dell'accountability, dei problemi della giustizia, della privacy, che soprattutto qui negli Stati
Uniti, a livello legislativo federale, non vengono considerati come centrali. A livello
statale stiamo vedendo in California, in Colorado, New York, delle leggi che cercano di rispondere a
esigenze etiche e immediate, però anche una spinta dal governo federale a mettere a tacere queste
leggi, cioè impedirle. Si è visto che l'amministrazione Trump, in più momenti, ha cercato di passare una
moratoria che impedisse agli Stati di promulgare queste leggi. Questo è un serio problema, secondo
me. Si, conosco perfettamente il tema e mi ricollego a quello che hai detto prima sulla
responsabilità delle AI, perché in Europa noi avevamo due proposte di direttive dell'Unione
Europea sulla responsabilità delle AI. Una è stata ritirata dalla Commissione e c'è in piedi
un'altra che però prevede la responsabilità delle AI incardinata nella direttiva sui prodotti
difettosi. Il tema è aperto ed è discusso, è discusso anche perché giuridicamente la legislazione
di una responsabilità delle AI adottata in Europa nella forma della direttiva comporterebbe poi il
recepimento da ogni Stato membro e quindi ogni Stato si farebbe la propria legge, non ci sarebbe
uniformità a livello europeo, ma questo è un tema aperto. Io ho scritto su queste cose, però il
tema della responsabilità di un'eventuale responsabilità delle AI è un tema importante e
mi ricollego a quello che stavi dicendo prima. Riguardo a quello che invece di cui parlavi adesso,
è molto interessante perché io seguo tutte le attività di Future of Life Institute, Max
Stegmark eccetera e compagni e sono uno dei firmatari delle open letter che periodicamente
circolano e quindi conosco bene il fenomeno della superintelligenza alla quale ti riferivi,
a questo aspetto diciamo molto così ampio che potrebbe effettivamente far
suscitare delle preoccupazioni che non sono veramente poche. Io passerò subito ad un
altro punto per continuare e proseguire la chiacchierata con te e ti chiederei quando tu
sei in ambito lavorativo, per esempio con dei dirigenti, che tipo di cambiamento di
mentalità cerchi di creare, cioè come ti poni in questi contesti?
Questa è una bella domanda. Il cambiamento di mentalità è non facile. Abbiamo soprattutto a
dirigenti CEO qui negli Stati Uniti e ci sono spinte anche un po' diverse, cioè molti di loro
vogliono introdurre le AI nelle loro aziende, c'è una corsa verso una svolta digitale verso
l'intelligenza artificiale come non si è mai visto, quindi alcune pressioni diciamo fatte
dalla Silicon Valley stanno attecchendo a livello di dirigenti e quindi il problema a questo punto
è che framework usiamo, che mentalità dobbiamo usare come dirigenti nel considerare questo
svolta tecnologica. La facciamo come un dirigente fa questa svolta tecnologica per varie ragioni,
una di quelle purtroppo è anche sostituire il lavoro degli umani e renderlo quindi in
certo senso sostituibile da una macchina che ovviamente costa molto meno. Quando si arriva
a questa questione di AI responsabile, AI governance, allora l'approccio rimane però un
po' quello del vediamo, attendiamo, vediamo cosa succede e poi ce ne occupiamo. Cerchiamo di
evitare i rischi attraverso checklist, attraverso azioni o interventi a livello
locale, non a livello di AI governance come una struttura generale dell'azienda che riguarda le
AI e quindi la mentalità è quella del un po' attendista come ho detto, vediamo le
regolamentazioni ci saranno, poi l'Unione Europea cosa farà, vediamo. Prima di muoversi c'è
abbastanza resistenza, quando ci si muove c'è molto interesse e comunque focus sul concetto
del conformarsi alle leggi e meno quello di fare cose etiche e responsabili, quindi il focus tende
ancora a essere molto ristretto sull'aspetto del legislativo e anche su quello non si è ancora
capito che per esempio la legislazione europea richiede una governance molto espansa e si tende
a dire vabbè cerchiamo, vediamo dove sono i problemi, vediamo dove sono i rischi e ci mettiamo
una pezza diciamo. L'errore è il seguente, se tu fai a questo atteggiamento il problema che le AI pone
è che le AI è una tipo di tecnologia che in cui i rischi difficili da prevedere sono molti, cioè è un
tipo delle LEMS, quindi che sono stocastici, in cui fare della risk analysis eccetera non è facile,
non è facile assolutamente, perché appunto è difficilmente prevedibile, è difficilmente
prevedibile cosa farà la macchina ed è soprattutto difficilmente prevedibile come gli
esseri umani la usano. Esempio, non ci si aspettava, immagino che non ci si aspettasse che alcuni
ragazzi giovani usassero le chatbots per dialogare sui loro sui loro progetti di togliersi la vita,
invece almeno in un paio di casi se non di più, quindi negli Stati Uniti, Caractere AI e altre
aziende sono state portate in corte perché le loro, le loro chatbot hanno instigato al suicidio dei
ragazzi adolescenti che poi appunto sono sono morti, quindi è un terreno estremamente difficile da
governare. E quindi arrivo al mio punto, in un terreno di questo genere, con una tecnologia di
questo genere, fare, avere un atteggiamento reattivo, avere un atteggiamento di, come dire,
focalizzarsi solo sui rischi che ci riusciamo a immaginare e quindi agire sempre un po' a livello
topico e non a livello globale, porta al rischio che poi in quello che non ti puoi immaginare,
i rischi che saltano fuori, tu non hai la capacità di predizione, non hai la capacità di azione
immediata e quindi questo porta a delle serie conseguenze come appunto la perdita della vita.
Un atteggiamento che noi, come un gruppo tra IBM e l'Università di Notre Dame, stiamo cercando di
su cui stiamo cercando di insistere, è quello che ci vuole una visione più olistica o più globale
della governance. Cioè se tu cominci a pensare alla governance non come, o non solo, come una
questione di, ok, devo tappare i miei buchi perché così non creo rischi alla mia azienda,
non creo perdita di reputazione eccetera, ma l'atteggiamento che assumi è anche quello
del dire devo fare un po' anche la cosa giusta, devo anche vedere quale sono veramente un uso
giusto e responsabile di questa tecnologia. Avere una visione globale che noi chiamiamo
value theory, ok, value based, invece di avere una visione molto come di transazionale materialistica,
porta poi anche a dei successi e dei risultati buoni per l'azienda dal punto di vista della
bottom line, perché appunto si evitano poi questi disastri. Quindi incoraggiamo, quello che stiamo
cercando di fare sia come LogicaNow sia nel mio lavoro con IBM e Notre Dame, è quello di dire
c'è un approccio che magari all'inizio ti costa un po' di più, ma che se tu lo assumi, un approccio
listico, la governance poi ti dà una rete di sicurezza maggiore nel lungo termine. So che le
aziende non pensano a lungo termine, so che poi alla fine ci sono delle esigenze economiche a cui
rispondere, quindi lo sappiamo tutti, non siamo ingenui su questo, però serve un cambiamento
di mentalità, perché se no con le AI non la gestisci. Finalmente condivisibili le tue
osservazioni, però io a questo punto ti chiederei cosa ti ha spinto a occuparti di AI, di governance,
di etica, cioè quali sono state le motivazioni che ti hanno portato qui, in questi ambiti?
Io allora, il mio background, nel senso che ho fatto un PhD negli Stati Uniti, appunto insegno
filosofia, adesso la mia posizione è in filosofia e data science all'Università
del North Carolina a Charlotte, e quindi il mio background è quello appunto immerso
nei concetti come quelli di etica, di responsabilità. Poi il mio lavoro con IBM,
che diciamo è nato durante la pandemia nel 2020 e continua tuttora, mi ha avvicinato a persone
come Francesca Rossi, che si occupa appunto di responsabilità, di etica, di governance per IBM,
e infine la collaborazione con altre università, NYU oppure Notre Dame negli Stati Uniti,
mi ha portato a cercare anche appunto di non farlo solo un discorso filosofico,
ma anche un discorso più applicato alla realtà economica, quindi per esempio in questo gruppo
di lavoro con Notre Dame ed IBM siamo coinvolti io, Francesca Rossi come IBM, ma anche persone
della business school dell'Università di Notre Dame, quindi c'è diciamo una direzione applicativa,
di alcuni concetti filosofici che però hanno bisogno poi di essere applicati. Nel momento
in cui poi abbiamo fondato Logica Now e lavorando con grandi aziende, grandissime,
internazionali, le esigenze diciamo di poi implementare questa governance ci sono ovviamente,
perché le aziende hanno bisogno di indicazioni precise, però il mio background teorico e questo
sviluppo più pratico degli ultimi cinque anni mi ha permesso di avere questo profilo più variegato
magari che si ha di solo come professoressa universitaria. Ottimo, senti, ultimo punto della
nostra conversazione, che tipo di impatto vorresti che il tuo lavoro avesse all'interno delle
organizzazioni? Cosa immagini di poter, che apporto pensi di poter portare? Se è un tema
del quale pensi di occuparti o ti occupi di questo o anche di questo, qual è il tuo apporto alle
organizzazioni? Allora prima di tutto attraverso Logica Now noi facciamo tantissimo training sulla
AI responsabile, lo facciamo non solo in generale, lo facciamo specifico a diversi ruoli, per esempio
Cyber Security Expert, i Privacy Expert, quelli che fanno quello che si chiama Procurement, cioè
quelli che comprano le AI per le aziende, quindi il nostro target è sempre molto specifico al ruolo
e noi pensiamo che in questo modo, invece di avere solo un'infarinatura di Responsible AI,
di AI Ethics e Governance, che poi serve fino a un certo punto, rendere questo insegnamento,
questo training a livello proprio del ruolo delle persone, fa capire in modo più chiaro come loro
poi possono applicare questi concetti che sono anche un po' vaghi al loro lavoro, cioè cosa vuol
dire Responsible AI nella privacy? Per un developer che sta costruendo un'AI, che cosa vuol dire in
pratica che deve fare AI responsabile? Ecco, quindi noi pensiamo che dal punto di vista appunto
dell'awareness, della consapevolezza, è il primo punto, cioè noi ci inseriamo in questo, in questa
corrente che poi sicuramente l'AI Act con l'articolo 4, che spero non venga tolto, spinge in
questa direzione, però noi cerchiamo di farlo in modo un pochino più in profondità, specifico sui
ruoli. Questa è la prima cosa. La seconda cosa è quello di parlare appunto, come facciamo, con CEO,
con insomma dirigenti, che cercando di fargli vedere che magari ci sono, entro i limiti delle
possibilità che loro hanno, delle alternative nell'approccio a questi problemi. Ecco, non
necessariamente devono solo avere un atteggiamento passivo, possono anche avere degli atteggiamenti
attivi e alcuni sono recettivi rispetto a questa cosa, capiscono anche il valore economico di essere
proattivi nel momento in cui vanno adottare AI governance. Infine, lavoriamo molto anche nella
creazione di quelli che si chiamano AI ethics board o responsible AI board, cioè molte aziende
ormai, questo diciamo è abbastanza sdoganato, hanno capito che devono avere delle figure nel
loro organigramma che rappresentano quelli che prendono decisioni rispetto alle azioni di AI
responsabili e governance in un'azienda. Sono delle figure difficili perché sono di solito
cross-functional, cioè non possono stare in privacy, possono stare in risk, possono stare
diciamo in vari, oppure in product, ci sono alcune aziende che hanno responsible AI board dentro il
product, quindi è una è una figura difficile, quindi noi li aiutiamo in questo percorso di
cercare di introdurre un'area responsabile e una governance senza ovviamente poi andare a
sparsi più di tanto con le altre realtà aziendali che comunque all'interno di un'azienda magari
spingono per fare le cose in modo veloce, con costi minimi, eccetera, sappiamo tutti che poi
la realtà aziendale è complessa, quindi questi sono i tre modi in cui cerchiamo di avere un impatto.
Benissimo, allora grazie, grazie per questa conversazione, io ricordo a chi ci ascolta che
questi incontri fanno parte del progetto di For Humanity, in particolare del chapter italiano
For Humanity Italy, conversazioni su AI etiche standard, sono degli incontri nei quali coinvolgiamo
alcuni esperti per sentire il loro punto di vista, ci aggiorniamo sui canali social per i prossimi
eventi nell'ambito di questo progetto, ringrazio ancora Marianna Bergamaschi-Ganafini per aver
aderito al nostro invito e aver partecipato alla nostra conversazione, un saluto a tutti e
buon proseguimento. A presto.