Dottoressa Rossi, ci aiuti a inquadrare lo status dell’intelligenza artificiale (Ai): da una parte c’è, per esempio, la Pontificia Accademia per la Vita, Ibm, Microsoft, la Fao e il Governo italiano che firmano un documento per l’etica dell’Ai o l’High Level Expert Group (Hleg ) (English here) Commissione Europea (CE) che pubblica le linee guida per una Ai affidabile. Dall’altra, l’utilizzo di Ai diretta sia ai consumatori sia nel mondo produttivo sta esplodendo. Il Covid-19 è stato scoperto da un programma di Ai ritenuto non interessante da alcuni governi, e così sono stati aziende private a sapere per prime del coronavirus. Ciò mostra quanto l’Ai sia preziosa. Di etica e di privacy si parla giustamente sempre di più, ma ipotizzo un caso: dati provenienti dalla Cina senza garanzia di una raccolta etica permetterebbero di produrre un vaccino se elaborati con un programma di Ai. In Europa, stando alle bozze delle linee guida della CE e al Gdpr, si dovrebbe dire di no. Il resto del mondo lo farebbe. I due piani non sembrano incontrarsi.
Non è sorprendente che una ricerca applicata a un problema specifico della vita reale provenga della ricerca privata. Ho un lungo passato in ambito accademico, dove la ricerca è di solito di più lungo periodo e di più alto livello – anche se poi si prova a collegarla ai problemi della vita reale, mentre i ricercatori in ambito aziendale, come nei centri per l’Ai dell’Ibm dove lavoro, producono articoli o risultati più connessi a scenari reali e con maggiori possibilità applicative. Questo perché la ricerca privata, più legata a problemi specifici di aziende o individui, ha a disposizione una maggiore quantità di dati, di risorse e di potenza di calcolo.
La disciplina dell’etica dell’Ai ha tante dimensioni: non riguarda solo gli esperti di Ai ma tutti gli stakeholder – chi la produce, chi la usa e chi subisce le decisioni prese con il supporto dell’AI. Prima di capire come comportarsi, si devono pertanto sentire molte voci. La Ce sta cercando di capire come e se si debbano attuare delle politiche di sostegno all’Ai – perché l’Europa vuole sostenere l’innovazione e la competitività, ma in modo compatibile con i valori importanti per gli europei. A questo fine ha creato il gruppo dei 52 esperti (Hleg sull’Ai) per capire gli aspetti importanti di questa tecnologia per quando sarà applicata e per chi la produce. Tra i vari requisiti delle linee guida etiche, pubblicate da questo gruppo ad aprile 2019, ci sono l’affidabilità quanto alla privacy delle persone, la gestione responsabile dei dati e i diritti del soggetto titolare che li fornisce a un sistema per ricevere in cambio dei servizi. L’Europa con il Gdpr è già avanti in questo senso rispetto al resto del mondo.
Sappiamo che senza dati l’Ai, e in particolare gli algoritmi del machine learning (Ml) non funzionano bene, perché sono propri i dati a dire come si risolvono i problemi e, soprattutto, senza dati personali non avremmo soluzioni personalizzate. In principio quindi fornire i propri dati è di beneficio ma, come nei documenti del Hleg o del Vaticano o altre iniziative analoghe sull’etica, è importante che la loro gestione rispetti la privacy di chi li fornisce e che il controllo resti alle persone.
In altre regioni del mondo ci sono modi diversi di gestire l’innovazione, regolarla e guidarla, e se ciò avviene dall’alto o dal basso può variare molto. L’Europa ha ora, secondo me, proprio il ruolo di mostrare come si può combinare innovazione e competitività con valori importanti in modo che valgano per tutti, e come tutti coloro coinvolti nel produrre, sviluppare e usare l’Ai possano costruire un ambiente di fiducia per questa tecnologia così potente. Sappiamo che l’Ai può dare contributi molto positivi aiutando nei processi decisionali, risolvendo problemi e quindi migliorando la nostra vita in tutti i campi. Bisogna solo indirizzarla nella direzione giusta.
I tempi delle linee guida annunciati dalla Ue, tuttavia, appaiono lenti rispetto alla forte domanda che c’è di applicazioni o risultati dall’Ai. La Cina ha definito la sua strategia per l’intelligenza artificiale nel 2015 e nel 2017, e fuori dall’Europa si ricerca e si usa diffusamente già da anni – tra l’altro, nelle biotecnologie e nella medicina personalizzata. In più, nella realtà europea le società impegnate in questa tecnologia, salvo qualche eccezione, sono piccole e frammentate. L’impressione è che nel mondo ci siano società piccole e grandi, alcune con molte risorse, che vanno avanti spedite – in altre parole, che l’Europa sia rimasta indietro.
Lei disegna un’immagine che, appunto, essendo l’Ai una tecnologia che può essere sviluppata con dati raccolti da una parte e usati ovunque, fa capire bene il bisogno di un coordinamento globale e multiculturale per sviluppare, produrre e poi immettere nella vita reale questa tecnologia. Vari paesi lavorano in questo senso: Francia e Canada hanno lanciato un panel globale sull’Ai, cui si pensa aderiranno molti altri paesi. Altre iniziative vanno nella direzione di un coordinamento globale che oltre a occuparsi dell’etica dell’Ai abbia un approccio multidisciplinare, multi-stakeholder e multi-regioni del mondo, quindi multiculturale.
Ciò detto, è vero che le varie regioni del mondo hanno leggi diverse e una non può imporre le sue alle altre. Può invece mostrare come comportarsi o, più concretamente, come si comportano le aziende, come nel caso dell’Ibm dove pensiamo che lo scopo dell’Ai sia di lavorare accanto alle persone dando un sostegno alla loro capacità decisionale qualunque cosa esse debbano fare.
All’Ibm abbiamo una struttura interna (un comitato per l’etica dell’Ai) che ci aiuta a valutare gli aspetti delicati di ogni proposta di lavoro e se essa segue i principi o le linee guida sull’etica dell’Ai che ci siamo dati all’interno dell’azienda. Tra questi c’è una raccolta dati avvenuta nel rispetto dei diritti fondamentali dell’uomo, della dignità e della privacy delle persone. Se non è così, noi non partecipiamo all’iniziativa o non accettiamo il contratto.
Essendo la nostra attività rivolta alle aziende, i nostri domini di applicazione riguardano settori dove le decisioni da prendere sono molto delicate e possono avere un impatto serio sulla vita delle persone: parliamo di pubblica amministrazione, di banche, di servizi sanitari, di medicina. In molti di questi domini, le linee guida etiche o la regolamentazione sui dati precedono l’Ai e c’è già un’infrastruttura che ha pensato agli aspetti etici delle soluzioni o delle decisioni da prendere. Noi ci inseriamo nell’ambito B2B, non in quello consumer, e questa distinzione è importante.
Non siamo contrari a una regolamentazione dell’Ai, ma siamo allineati con documenti come il White Paper della Ce o le linee guida pubblicate da poco dalla Casa Bianca, nelle quali si registra un’attenzione a differenziare tra gli scenari ad alto rischio e quelli a minor rischio. Innanzitutto, si tratta di definire che cosa vuol dire alto rischio, e poi eventualmente di regolamentare non un intero settore, ma solo gli ambiti che hanno un impatto significativo sulla vita delle persone. Quelli che invece presentano un rischio basso possono basarsi su un’autoregolamentazione, un’autovalutazione oppure una co-regolamentazione.
Nel mezzo di un oceano di casi di utilizzo dell’Ai, dai call center alle più sofisticate ricerche accademiche, c’è il settore produttivo, anch’esso immensamente diversificato. Se un’azienda grande può stare attenta a non esporsi a utilizzi non etici dell’Ai, interi settori altri settori, come quello delle piccole banche negli Usa, usano l’Ai come supporto per la decisione, per esempio, su chi sia meritevole della concessione di un mutuo. Si sa di casi nei quali i dati che alimentavano questi programmi erano sbilanciati e producevano pertanto risultati discriminatori. Come si tradurranno in realtà le pur ottime intenzioni della Ce o del Vaticano nel mondo?
Un’azienda come Ibm, come dicevamo, può fare da esempio, ma quello che osserviamo è che sono i nostri clienti a chiederci come ci comportiamo riguardo al rischio di risultati o soluzioni discriminatori o fuorvianti, e quali proprietà inseriamo dentro alle nostre soluzioni per controllare e mitigare questo rischio.
Quando un’azienda grande come l’Ibm, che è presente in tutto il mondo in quasi tutti i settori, fornisce strumenti e spiegazioni per il controllo del rischio, fa vedere in modo concreto l’attenzione all’etica che è necessaria, e gli altri fornitori nel mercato capiscono che, anche per restare competitivi, devono comportarsi così anche loro. Ciò avvia una reazione a catena che porta tutti quelli che agiscono in quei settori in tutto il mondo a seguire l’esempio.
Detto questo, come è scritto anche nel White Paper della Ce – che adesso è in fase di consultazione – si tratta di capire quali sono le applicazioni rischiose, perché non avrebbe senso regolamentare gli ambiti che presentano un basso rischio. Per questi si potrebbe procedere con un’autovalutazione, standard o altri meccanismi stabiliti da un consenso abbastanza vasto a livello mondiale che facciano capire il modo giusto o le proprietà giuste che questa tecnologia deve avere. Al pari di standard sui quali ci fosse consenso, la lista di autovalutazione dell’Hleg con sette requisiti – in fase di revisione – è un aiuto alle aziende che hanno così uno strumento per capire se stanno producendo un’Ai con le caratteristiche giuste o no, affidabile o no, e se no, in quale aspetto della lista devono intervenire.
Per le iniziative più ad alto rischio – ancora in fase di definizione – può invece avere senso applicare una regolamentazione o una co-regolamentazione. Le leggi, tuttavia, sono poco flessibili e questa è una tecnologia che invece cambia molto velocemente. Quindi bisogna fare in modo che le norme o gli standard possano essere adattati nel corso degli anni. Si può dire che ci sia un accordo, perlomeno tra Europa e Usa, sul fatto che l’approccio migliore sia quello di individuare in ogni settore gli aspetti più rischiosi e regolamentarli, lasciando invece in quelli meno rischiosi la possibilità di un’autovalutazione. All’Ibm sosteniamo questo approccio, che chiamiamo precision regulation.
Come lei dice, per arrivare all’Ai che si utilizza oggi sono state determinanti l’abbondanza e la disponibilità di dati degli ultimi anni, che pongono però problemi di rispetto della privacy e dei diritti. Il dibattito sull’etica risale, però, in teoria al 1956. La CE non avrebbe dovuto iniziarlo prima, forse anche solo tre-quattro anni fa? Quasi due anni e mezzo fa, mentre la commissaria della Ce Mariya Gabriel, un commissario politico senza esperienza professionale nella scienza o nella tecnologia, parlava a una conferenza di creare “un’Ai affidabile”, attorno a lei circa 2000 espositori in una fiera di tecnologia, tra cui l’Ibm, concludevano affari su programmi d’intelligenza artificiale – dalla semplice interfaccia con il consumatore alla gestione di infrastrutture critiche. Mi rendo conto delle difficoltà, ma anche considerando la reazione a catena virtuosa che lei descriveva, non è che si va chiudere la stalla quando i buoi sono scappati?
Il fatto è che ci vuole del tempo per capire che ci sono dei problemi, o anche solo identificarli per poi trovare delle soluzioni condivise. Questo proprio perché, come dicevamo, non bastano gli esperti d’intelligenza artificiale: c’è stato bisogno di coinvolgere altre discipline che ruotano attorno all’Ai. Per quanto mi riguarda, ad esempio, ho partecipato per la prima volta nel 2015 a una iniziativa sull’etica dell’AI come membro del comitato di consulenti esterni del Future of Life Institute. Allora la comunità internazionale iniziava timidamente a chiedersi se ci fossero e quali fossero i problemi o le preoccupazioni nel mondo riguardo all’Ai, e come identificarli. Quindi, secondo me, in poco tempo è stato fatto tantissimo.
Prima, di etica dell’Ai non parlava nessuno, in parte perché le applicazioni erano meno pervasive nella nostra vita, in parte perché l’Ai utilizzata prima dell’uso massiccio del Ml era una tecnologia che non si basava su grandi quantità di dati e quindi poneva meno problemi quanto a privacy, raccolta o condivisione dei dati. Molti problemi sono venuti fuori dall’uso di queste tecniche di Ai che, insieme alla disponibilità di grandi quantità di dati e alla velocità sempre maggiore dei computer, hanno permesso un uso pervasivo e un impatto maggiore sulla vita di tutti noi.
Quando ci si rende conto e si trovano le soluzioni, occorre che queste siano condivise a livello mondiale, e per questo ci vuole del tempo. Anzi, sono stupita di quanto rapidamente gli esperti d’intelligenza artificiale, gli esperti accademici, le aziende e anche i policy maker come Mariya Gabriel che ha creato il Hleg, si siano coalizzati per capire come affrontare i problemi.
Essendo l’Ai una tecnologia dinamica per natura e considerando che per molte situazioni esistono già delle leggi, per esempio, contro le frodi o la discriminazione, gli standard sembrano un primo passo fattibile. Tuttavia, dovrebbero essere così larghi da accomodare scenari che ora non possiamo prevedere, nemmeno dal punto di vista tecnologico, com’è accaduto per la capacità computazionale cui lei accennava. Quanto vede realistici i due seguenti paradigmi: 1) un paradigma analogo a quello del cambiamento climatico dove una parte del mondo produttivo si autoimpone norme più stringenti di quelle dettate dal governo federale – è il caso degli Usa o della reazione a catena virtuosa che lei ha appena descritto, e dove l’aspetto normativo arriva per ultimo; 2) un paradigma del “fine che giustifica i mezzi”, vale a dire, casi in cui i consumatori rinunciano volutamente alla perfetta privacy in cambio di soluzioni, per esempio: cure contro il cancro o come fanno molte persone oggi quando decidono di utilizzare i servizi gratuiti di Facebook o di Google in cambio dei propri dati, o come facciamo tutti quando clicchiamo “accetto” alla normativa Gdpr senza fare alcuna scelta, perché nessuno ha tempo di leggersi cartelle su cartelle in ogni sito che apre?
Come detto, per ora non ci sono regolamentazioni che dicano come e quali debbano essere tutte le proprietà dell’Ai, ma vediamo, come nel caso dell’Ibm, che a partire dalle regole che l’azienda si è data si vanno creando degli ecosistemi che coinvolgono i clienti, e i clienti dei clienti, e così via e che sono rispettosi dei diritti.
Per quanto riguarda invece il compromesso tra scopo e utilizzo dei dati, dal mio punto di vista spetta al soggetto che fornisce i dati decidere se permettere che vengano usati in un dato modo – che però deve essere noto. Per esempio, una persona deve sapere se sta interagendo con un sistema di Ai o con un’altra persona. Nel nostro modello di business, i dati che riceviamo dai clienti cui forniamo delle soluzioni, come un ospedale o una banca, restano di proprietà del cliente e noi li usiamo solo per produrre al meglio la soluzione richiesta, ma non per migliorare soluzioni di altri clienti. Se ce li vogliono fornire per la ricerca o in modo più generale apriamo una discussione con tutti e innanzitutto con chi ha fornito i dati. Questo è l’approccio che riteniamo giusto.
Non ci ha detto che cosa farebbe nel caso di dati raccolti senza garanzie, per esempio in Cina, sine qua non per un fine importante come un vaccino contro il Covid. Che cosa si fa?
Dipende dall’azienda. Noi a Ibm seguiamo i nostri principi sui diritti fondamentali. Anche se non sono in una business unit, credo di poter dire che se un’iniziativa non li rispetta noi non siamo disponibili. Questo non vuol dire che le soluzioni a problemi importanti come il virus o altri problemi medici non possano essere trovate, ma noi pensiamo che possano essere trovate rispettando questi principi.
* Chiamata a un’etica per l’Ai, Call for an AI Ethics, documento sottoscritto a fine febbraio da Pontificia Accademia per la Vita, Ibm, Microsoft, Fao e Governo italiano “per sostenere un approccio etico all’Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non la loro graduale sostituzione”.