Indica un intervallo di date:
  • Dal Al
©credits

Il dibattito sull’Ai della Commissione Europea ricorda tanto quello sulla globalizzazione

La strategia per l’intelligenza artificiale della Commissione Europea fa venire in mente il dibattito sulla globalizzazione degli anni ‘90: una realtà complessa e dalle potenziali vastissime conseguenze sociali ed economiche fu affrontata nel mondo avanzato con belle e giuste parole, ma poca realtà.

(English here) Qualche mese fa a Barcellona all’MWC19*, mentre a una conferenza la commissaria per l’Economia e la Società Digitale della Commissione Europea (CE) Mariya Gabriel** diceva che l’intelligenza artificiale (Ai) sarà un volano per la competitività ma che dev’essere “sviluppata per riflettere i valori e i principi europei”, essere affidabile e avere “un approccio etico”, nei padiglioni accanto circa 1000 società globali, che non includevano Amazon o Apple, si scambiavano esperienze di utilizzo dell’Ai e concludevano affari.

Barcellona è stata solo la proverbiale punta dell’iceberg perché quelle erano aziende di un solo settore dell’economia, le telecomunicazioni, e solo quelle più grandi. A questi attori si devono aggiungere le società e le pmi di tutti gli altri settori produttivi e le decine di migliaia di ricercatori universitari e indipendenti. La somma poi dev’essere proiettata a includere la realtà dell’Ai in tutte le regioni del mondo, da una sponda all’altra del Pacifico.

La bozza di strategia della CE alla quale Gabriel faceva riferimento mette l’accento sui concetti di trasparenza, tracciabilità, responsabilità, diversità, accessibilità, sostenibilità, responsabilità ambientale, non discriminazione e sicurezza dei dati – oltre a prevedere “numerose sfide per il futuro che includono naturalmente l’etica, ma anche il bisogno di investimenti e di partecipare alla corsa globale”. Si notino le parole futuro e corsa globale.

Senza entrare nel merito se l’Ai sarà di maggior beneficio per l’umanità se affrontata come corsa o come progetto globale collaborativo, se corsa dev’essere, quella dell’Ai è partita da qualche anno – e l’Europa l’ha persa. I piani per l’Ai di Pechino risalgono al 2015 e al 2017, dunque la Cina ci batte di almeno tre anni. Persino gli Stati Uniti sono preoccupati di perderla a favore della Cina. Il futuro dell’Ai è già passato, seppure recente.

La Ue ha una “strategia per l’Ai che promuove lo sviluppo (…) affrontando le questioni sociali (…) e garantendo che sia un’ AI etica”. Per una tale manna, però, l’Europa darà la ricetta solo nel 2020, come dalle Linee guida etiche per l’IA affidabile di aprile. La scorsa estate, sulla base di questo esauriente documento, il Gruppo di esperti di alto livello (Hleg) della CE ha avviato una consultazione aperta. Il rapporto di valutazione della fase pilota è previsto per i primi mesi del 2020.

Il punto è: il ritmo, metodo e dibattito della CE sono quelli giusti per un tema estremamente complesso per le molteplici sfaccettature e combinazioni che presenta, per il suo vasto impatto e per la potenzialità che ha di diventare la più importante tecnologia del 21° secolo?

Il dibattito sulle sfide dell’Ai nasce nei primi anni ’60, dopo la conferenza di fondazione nel 1956. Andando veloce fino ai tempi recenti, nel 2014, il famoso fisico teorico Stephen Hawking avvertiva che l’Ai “poteva incamminare la razza umana verso la sua fine“. Nel 2015 il dibattito è stato proiettato sulle prime pagine da una lettera aperta sull’Ai negli armamenti firmata da 300 ricercatori di Facebook, IBM, Microsoft, Google, DeepMind, tra gli altri. Poco dopo, anche Bill Gates consigliava to una gestione molto attenta delle “super intelligenze“.

Elon Musk, il visionario della Tesla e di SpaceX è tra le personalità della tecnologia più preoccupate dallo sviluppo dell’Ai: “È uno dei pochi casi nei quali la normativa deve anticipare la realtà e non essere solo reattiva. Se l’Ai sarà regolata in maniera reattiva, sarà troppo tardi”. La CE non è dunque fuori dal coro, ma sta agendo “in maniera reattiva”, per dirla con Musk, e con un ritardo di anni.

Oggi, l’Ai è già largamente utilizzata negli smartphone, per individuare allevamenti che inquinano, per sostenere gli agricoltori, nelle telecomunicazioni, nella sicurezza bancaria, nella cyber sicurezza, per decodificare i geroglifici, per risparmiare milioni di euro in energia, per scrivere sonetti attribuibili a Shakespeare, per la sicurezza militare, per individuare anomalie a partire da immagini, per elaborare dati storici e nuovi per offrire raccomandazioni personalizzate ai consumatori, e chi più ne ha più ne metta. Soprattutto, però, l’Ai è già utilizzata da almeno sei anni in numerosi progetti di diagnosi di malattie gravi quali il cancro.

Il dibattito, intanto, si è intensificato dovunque con un approccio prevalentemente applicativo.

La prima missione della Partnership on AI, fondata nel 2006 e che include Amazon, Apple, la BBC, l’Unicef e Amnesty International, è quella di definire delle pratiche virtuose.

In China, nel 2018, alcuni diplomatici e membri senior del Congresso del Popolo si sono detti convinti che tutti i paesi debbano “cooperare per prevenire le minacce dell’Ai”.

Il Darpa, il centro militare di ricerca Usa, stimola gli scienziati, ingegneri e gli esperti di tecnologia a riflettere “sui problemi che l’Ai pone al settore militare e alla società civile”, per scoprire e traghettare le tecnologie dell’Ai verso utilizzi operativi.

La Ieee, l’associazione professionale degli ingegneri più grande al mondo si è data come obiettivo formare gli sviluppatori e i disegnatori di sistemi affinché considerino l’etica una priorità per garantire che i sistemi autonomi intelligenti sviluppati siano di beneficio per l’umanità .

L’organizzazione europea Atomium-AI4People ha recentemente pubblicato delle linee guide per l’utilizzo etico dell’Ai.

Tornando alla CE e al “approccio europeo all’intelligenza artificiale”, se la bozza di linee guide del gruppo Hleg  dell’aprile scorso fossero in vigore oggi, nonostante una lunga lista di punti di valutazione pilota, solleverebbe perplessità in numerosi casi del mondo reale – e forse in tati che sono già realtà.

Adempierebbe a tali indicazioni un operatore telco che utilizzasse l’Ai per organizzare i flussi della propria rete? L’utilizzo da parte di Facebook per individuare abusi compiuti da gruppi che fomentano l’odio o il terrorismo rientrerebbe nell’Ai fini del bene dell’umanità o dei suoi azionisti?

Una grande banca d’affari che la usasse per evitare frodi adempierebbe ai criteri di “Ai etica” e “incentrata sull’uomo” con un “l’impegno per una sua applicazione al servizio dell’umanità“?

Se una società farmaceutica mettesse fuori competizione altre perché grazie all’Ai ha individuato il farmaco migliore per una patologia diffusa, si tratterebbe di “Ai non robusta” che crea un “danno collaterale“ o di un evento che ha contribuito al “fiorire dell’individuo umano e al bene comune della società“, o entrambi?

E se una nazione grazie all’applicazione di tecnologie dell’Ai acquisisse un vantaggio competitivo e rovinasse una nazione concorrente, la vittoria economica sarebbe il risultato di una “competitività responsabile” o solo la base per una disputa?

Sono semplificazioni estreme, è ovvio, ma anche casi molto reali. Gli esperti del Hleg ci dovranno dire anche che arbitrerà tutto ciò e come la giurisdizione della CE si estenderà oltre l’Europa, si vide una recente sentenza*** – e, peraltro, a buoi scappati.

Negli anni ’90 il fenomeno della globalizzazione travolse tutti: paesi avanzati, emergenti e poveri cambiando le economie e le società. La soluzione poteva essere “governare la globalizzazione” o “riscriverne le regole”, si pensò allora, nonostante fosse palese che non c’era un’istituzione o un soggetto in grado di “governare” un fenomeno di tale portata.

In molte realtà avanzate la globalizzazione, a causa della delocalizzazione di settori dell’industria, lasciò ferite sociali le cui conseguenze paghiamo ancora oggi dopo 25 anni. Oggi sappiamo anche che la globalizzazione ha contribuito a dimezzare la povertà estrema di 270 milioni di persone tra il 1990 e il 2008.

Il dibattito sulla globalizzazione fu importante e coinvolse, anima e corpo, centinaia di migliaia di persone, senza intaccare, tuttavia, il fenomeno.

L’intelligenza artificiale non è un fenomeno, ma una tecnologia che sta avendo già un vasto impatto in tutti gli ambiti sociali ed economici. Ciononostante, è alto il rischio che il dibattito sulla sua etica, com’è il caso nella Ue, produca linee guida aliene al volume di Ai che nel frattempo sarà passato sotto i ponti. Chi tiene all’Europa non può considerare proficuo un tale approccio.

Una tecnologia così potente che ha come sua forza la predittività, non dovrebbe essere dibattuta e regolamentata guardando nello specchietto retrovisore: ha bisogno di un’intensa collaborazione tra pubblico, privato e ricerca – e che il pubblico e la ricerca si sporchino le mani.

* Il Mobile World Congress di Barcellona è il più grande evento globale delle telecomunicazioni.

** Prima di diventare Commissaria per il digitale, Mariya Gabriel è stata vice presidente del gruppo del Partito popolare nel Parlamento europeo (2014-2017) e prima ancora membro per il Gerb (Cittadini bulgari per lo sviluppo europeo). La sua biografia ufficiale non mostra alcun compito o esperienza nella scienza o nella tecnologia.

*** Una recente sentenza della Corte europea di giustizia ha stabilito che il “diritto all’oblio “ si applica solo ai motori di ricerca con sede nella Ue.