Il dibattito sull’Ai della Commissione Europea ricorda tanto quello sulla globalizzazione

La strategia per l’intelligenza artificiale della Commissione Europea fa venire in mente il dibattito sulla globalizzazione degli anni ‘90: una realtà complessa e dalle potenziali vastissime conseguenze sociali ed economiche fu affrontata nel mondo avanzato con belle e giuste parole, ma poca realtà.

(English here) Qualche mese fa a Barcellona all’MWC19*, mentre a una conferenza la commissaria per l’Economia e la Società Digitale della Commissione Europea (CE) Mariya Gabriel** diceva che l’intelligenza artificiale (Ai) sarà un volano per la competitività ma che dev’essere affidabile e “sviluppata per riflettere i valori e i principi europei” e avere “un approccio etico”, nei padiglioni accanto circa 1000 società globali, che non includevano Amazon o Apple, si scambiavano esperienze di utilizzo dell’Ai e concludevano affari.

Barcellona è stata solo la proverbiale punta dell’iceberg perché quelle erano aziende di un solo settore dell’economia, le telecomunicazioni, e solo quelle più grandi. A questi attori si devono aggiungere le società e le pmi di tutti gli altri settori produttivi e le decine di migliaia di ricercatori universitari e indipendenti. La somma poi dev’essere proiettata a includere la realtà dell’Ai in tutte le regioni del mondo, da una sponda all’altra del Pacifico.

La bozza di strategia della CE alla quale Gabriel faceva riferimento mette l’accento sui concetti di trasparenza, tracciabilità, responsabilità, diversità, accessibilità, sostenibilità, responsabilità ambientale, non discriminazione e sicurezza dei dati – e prevede le “numerose sfide per il futuro che includono l’etica, ma anche il bisogno di investimenti e di partecipare alla corsa globale”. Si notino le parole futuro e corsa globale.

Senza entrare nel merito se l’Ai sarà di maggior beneficio per l’umanità se affrontata come corsa o come progetto globale collaborativo, se corsa dev’essere, quella dell’Ai è partita da qualche anno – e l’Europa l’ha persa. I piani per l’Ai di Pechino risalgono al 2015 e al 2017, dunque la Cina ci batte di almeno tre anni. Persino gli Stati Uniti sono preoccupati di perderla a favore della Cina. Il futuro dell’Ai è già passato, seppure recente.

La Ue ha una “strategia per l’Ai che promuove lo sviluppo (…) affrontando le questioni sociali (…) e garantendo che sia etica”. Per una tale manna, però, l’Europa avrà la ricetta solo nel 2020, come dalle Linee guida etiche per l’IA affidabile di aprile. La scorsa estate, sulla base di questo esauriente documento, il Gruppo di esperti di alto livello (Hleg) della CE ha avviato una consultazione aperta. Il rapporto di valutazione della fase pilota è previsto per i primi mesi del 2020.

Il punto è: sono appropriati ritmo, metodo e dibattito della CE per un tema estremamente complesso per le molteplici sfaccettature e combinazioni che presenta, per il suo vasto impatto e per la potenzialità che ha di diventare la più importante tecnologia del 21° secolo?

Il dibattito sulle sfide dell’Ai nasce nei primi anni ’60, dopo la conferenza di fondazione nel 1956. Veloce fino a tempi recenti, nel 2014, il famoso fisico teorico Stephen Hawking avvertiva che l’Ai “poteva incamminare la razza umana verso la sua fine“. Nel 2015 il dibattito è stato proiettato sulle prime pagine da una lettera aperta sull’Ai negli armamenti firmata da 300 ricercatori di Facebook, IBM, Microsoft, Google, DeepMind, tra gli altri. Poco dopo, anche Bill Gates consigliava to una gestione molto attenta delle “super intelligenze“.

Elon Musk, il visionario della Tesla e di SpaceX è tra le personalità della tecnologia più preoccupate dallo sviluppo dell’Ai: “È uno dei pochi casi nei quali la normativa deve anticipare la realtà, non essere solo reattiva. Se l’Ai sarà regolata in maniera reattiva, sarà troppo tardi”. La CE non è dunque fuori dal coro, ma agisce “in maniera reattiva”, per dirla con Musk, e con un ritardo di anni.

Oggi, l’Ai è già largamente utilizzata negli smartphone, per individuare allevamenti che inquinano, per sostenere gli agricoltori, nelle telecomunicazioni, nella sicurezza bancaria, nella cyber sicurezza, per decodificare i geroglifici, per risparmiare milioni di euro in energia, per scrivere sonetti attribuibili a Shakespeare, per la sicurezza militare, per individuare anomalie a partire da immagini, per elaborare dati storici e nuovi, per offrire raccomandazioni personalizzate ai consumatori, e chi più ne ha più ne metta. Soprattutto, però, l’Ai è già utilizzata da almeno sei anni in numerosi progetti di diagnosi di malattie gravi, quali il cancro, e altre importanti applicazioni mediche.

Il dibattito si è intensificato dovunque con un approccio prevalentemente applicativo.

La Partnership on AI, fondata nel 2006 e che include Amazon, Apple, la BBC, l’Unicef e Amnesty International, ha come missione stabilirne delle pratiche virtuose.

In China, nel 2018, alcuni diplomatici e membri senior del Congresso del Popolo si sono detti convinti che tutti i paesi debbano “cooperare per prevenire le minacce dell’Ai”.

Il Darpa, il centro militare di ricerca Usa, stimola gli scienziati, ingegneri e gli esperti di tecnologia a riflettere “sui problemi che l’Ai pone al settore militare e alla società civile”, per scoprire e traghettare le tecnologie dell’Ai verso utilizzi operativi.

La Ieee, l’associazione professionale degli ingegneri più grande al mondo si è data come obiettivo formare sviluppatori e disegnatori di sistemi che considerino l’etica una priorità per garantire che i sistemi autonomi intelligenti sviluppati siano di beneficio per l’umanità.

L’organizzazione europea Atomium-AI4People ha recentemente pubblicato delle linee guide per l’utilizzo etico dell’Ai.

Tornando alla CE e al “approccio europeo all’intelligenza artificiale”, se la bozza di linee guide del gruppo Hleg  dell’aprile scorso fosse in vigore oggi, nonostante una lunga lista di punti di valutazione pilota, solleverebbe delle perplessità in numerosi casi del mondo reale – e forse in tati che sono già realtà.

Adempierebbe a tali indicazioni un operatore telecom che utilizzasse l’Ai per organizzare i flussi della propria rete?

Se Facebook l’utilizza per individuare abusi compiuti da gruppi che fomentano l’odio o il terrorismo, ciò è Ai “ai fini del bene dell’umanità” o dei suoi azionisti?

Una grande banca d’affari che la usa per evitare frodi, adempie ai criteri di “Ai etica” e “incentrata sull’uomo” con un “l’impegno per una sua applicazione al servizio dell’umanità“?

Se una società farmaceutica mettesse fuori competizione quelle concorrenti perché grazie all’Ai ha individuato il farmaco migliore per una patologia diffusa, si tratterebbe di “Ai non robusta” che crea un “danno collaterale“ o di un evento che ha contribuito al “fiorire dell’individuo umano e al bene comune della società”? O entrambi?

E se una nazione grazie all’applicazione di tecnologie dell’Ai acquisisse un vantaggio competitivo e rovinasse una nazione concorrente, la vittoria economica sarebbe il risultato di una “competitività responsabile” o solo la base per una disputa geopolitica?

Sono semplificazioni estreme, è ovvio, ma anche casi molto reali. Gli esperti del Hleg ci dovranno anche dire che arbitrerà tutto ciò e come la giurisdizione della CE si estenderà oltre l’Europa, come in una recente sentenza*** – e tutto ciò, peraltro, a buoi scappati.

Negli anni ’90 il fenomeno della globalizzazione travolse tutti: paesi avanzati, emergenti e poveri cambiando le economie e le società. La soluzione, si pensò allora, poteva essere “governare la globalizzazione” o “riscriverne le regole” nonostante fosse palese che non ci fosse un’istituzione o un soggetto in grado di “governare” un fenomeno di tale portata.

Il dibattito sulla globalizzazione fu importante e coinvolse, anima e corpo, centinaia di migliaia di persone, senza intaccare, tuttavia, il fenomeno. In molte realtà avanzate la globalizzazione, a causa della delocalizzazione di settori dell’industria, ha lasciato ferite sociali le cui conseguenze paghiamo ancora oggi dopo 25 anni. Oggi sappiamo anche che la globalizzazione ha contribuito a dimezzare la povertà estrema di 270 milioni di persone tra il 1990 e il 2008.

L’intelligenza artificiale non è un fenomeno, è chiaro, ma è una tecnologia che ha già un vasto impatto in tutti gli ambiti sociali ed economici. Ciononostante, è alto il rischio che il dibattito sulla sua etica, com’è il caso nella Ue, produca linee guida aliene al volume di Ai che nel frattempo sarà passato sotto i ponti. Chi tiene all’Europa non può considerare proficuo un tale approccio.

Una tecnologia così potente che ha come sua forza la predittività, non dovrebbe essere dibattuta e regolamentata guardando nello specchietto retrovisore: ha bisogno di un’intensa collaborazione tra pubblico, privato e ricerca – e che il pubblico e la ricerca si sporchino le mani.

* Il Mobile World Congress di Barcellona è il più grande evento globale delle telecomunicazioni.

** Prima di diventare Commissaria per il digitale, Mariya Gabriel è stata vice presidente del gruppo del Partito popolare nel Parlamento europeo (2014-2017) e prima ancora membro per il Gerb (Cittadini bulgari per lo sviluppo europeo). La sua biografia ufficiale non mostra alcun compito o esperienza nella scienza o nella tecnologia.

*** Una recente sentenza della Corte europea di giustizia ha stabilito che il “diritto all’oblio “ si applica solo ai motori di ricerca con sede nella Ue.