Se 2 qubit in uno dei tre stati del quantum computing si rappresentano con 512 bit, 280 richiedono più di tutti gli atomi dell’universo noto.
La potenza del Quantum Computing ora serve anche l’industria e il business, dove è il perfetto strumento, o l’unico, per risolvere certi tipi di problemi: nella chimica la struttura delle proteine – considerando che per una molecola da caffè ci vorrebbe il 10% degli atomi della terra; nella scienza dei materiali – Daimler lo usa per i materiali cristallini delle batterie del futuro; nella logistica, aerodinamica o finanza per l’ottimizzazione, dove è tecnologia di scelta nel caso di sistemi complessi e ricchi di variabili, vedi Oakridge Labs, JP Morgan, Boeing.
E più vicino c’è un ottimo esempio: Enel con Data Reply: hanno ottimizzato la manutenzione della rete elettrica italiana del 20-30%.
Ce lo spiegano Fabio Veronese, head of global infrastructure & networks del Digital hub Enel e Marco Magagnini, partner di Data Reply per la parte quantum computing.
Com’è nata la collaborazione tra Enel e Data Reply, e qual è stato il percorso che ha portato il Global infrastructure & networks digital hub di Enel a esplorare la strada del quantum computing? Secondo esperti di tecnologia per l’industria, le aziende avanti nell’innovazione sono quelle che non cercano una tecnologia per un loro caso d’uso, ma viceversa le sperimentano tutte per essere pronte quando esso emerge.
Fabio Veronese: È proprio questo l’atteggiamento che abbiamo in Enel. Dodici anni fa, quando si parlava di big data, prima dell’esplosione dell’intelligenza artificiale (Ai), abbiamo cominciato a esplorare le tecnologie più promettenti e a domandarci a che cosa potessero servire, per essere in una buona posizione tra quelli che le avrebbero sfruttate. Così è avvenuto circa 7-8 anni fa con il cloud, ora una tecnologia pervasiva: siamo la prima e unica utility di scala multinazionale completamente in cloud.
Mi interessava personalmente molto anche la storia e il senso della meccanica quantistica, così ho subito approfondito quando nel 2017-2018 si è cominciato a parlare delle prime applicazioni di calcolo quantistico e di calcolatori quantistici, con dietro [i produttori di hardware] DWave, Rigetti ed altri.
Tra chi lo conosceva bene c’era Data Reply, attiva allora già da tre anni, e Marco Magagnini vedeva i punti che noi avevamo individuato come realizzabili. Essendo una tecnologia di tipo offer-driven, abbiamo studiato che cosa si potesse fare e abbiamo capito che era arrivato il momento di passare dalla ricerca e lo studio alle applicazioni di business.
Abbiamo anche commesso degli errori, come ritenere che potesse ottimizzare le giacenze di magazzino e le forniture, che invece è un problema lineare che non richiede calcolo quantistico. Sottolineo: le tecnologie innovative non si possono affrontare con la pretesa di sapere i risultati in partenza: bisogna sperimentare e fare degli errori.
Con il problema del commesso viaggiatore multivariato, invece, mi misuravo dal 2005 – anche se con una versione più complicata di quella di studio perché con meno vincoli, più margine di libertà e molte più variabili. Lo avevamo affrontato con algoritmi genetici, per cui sapevamo bene a quale risultato si approdasse con i mezzi tradizionali. Quello che non sapevamo era se il quantum computing ci avrebbe aiutato a risolverlo o se avesse senso utilizzarlo in quel contesto.
A distanza di un anno e mezzo, l’approccio quantum-inspired che abbiamo utilizzato, vale a dire, partire dal mondo della fisica quantistica per arrivare a utilizzare lo stesso metodo su computer tradizionali ad alte prestazioni, ci ha permesso di verificare l’idoneità del quantum computing per il business. Lo è al punto che abbiamo in produzione un’applicazione, in fase di lancio, che guiderà l’assegnazione effettiva dell’attività di tutte le squadre di lavoratori della manutenzione delle reti elettriche di Enel sul territorio italiano prima, e poi anche in tutto il mondo.
Marco Magagnini: È andata proprio così. Collaboravamo già con Enel su machine learning (Ml) e Ai. Una ventina di persone in Reply Europa stava approfondendo con me il quantum computing. Avevamo concluso un progetto con una primaria banca italiana proprio di ottimizzazione quantum-inspired con l’algoritmo Qubo, lo stesso che stiamo utilizzando con Enel. Da quella esperienza avevamo tratto la confidenza che questo tipo di quantum inspired optimization era effettivamente utile al business.
Ho trovato Enel subito molto ricettiva all’innovazione. Abbiamo esplorato due o tre strade prima di arrivare alla programmazione degli spostamenti di manutenzione, di cui il pilota ci ha confermato la validità: dopo aver concluso la costruzione del nostro acceleratore, MegaQUBO, il cui motore fa i calcoli che poi si utilizzano all’interno dell’applicazione, abbiamo costruito per Enel il motore completo di ottimizzazione che ora è utilizzato all’interno dell’applicazione di pianificazione delle attività giornaliere delle squadre di manutenzione sul territorio. Lo considero un caso di successo.
Quanto al cloud: avete dovuto cambiare architetture, fare nuovi investimenti, formare persone appositamente?
FV: Non esistendo computer quantistici “on premise”, a parte quelli di grandi organizzazioni tipo Nasa, il cloud nativo è ciò che permette di fare le scelte, le simulazioni e le numerose prove che richiedono tutte una enorme capacità di calcolo – e ciò senza sapere dove si arriva. Avere una totale dimestichezza e sintonia con le tecnologie cloud è un alfabetismo indispensabile.
Occorre però sfatare un mito: non sono servite ingenti risorse di capitale. Avevamo già sperimentato sui calcolatori di Google in modalità di ricerca, ma nel frattempo la tecnologia era maturata. Lo stesso servizio offerto da Braket di AWS ci ha permesso a marzo-aprile 2020 di fare la prima elaborazione su veri e propri calcolatori quantistici in Enel: ci è costata poche centinaia di dollari perché non abbiamo dovuto comprare hardware quantistico, ma solo l’accesso alle risorse di simulazione.
L’acceleratore MegaQUBO di Reply a quel punto era pronto per farci utilizzare per le simulazioni un approccio quantum-inspired su un cloud normale con CPU ad alte prestazioni quali le GPU, che è quello che seguiamo ora.
Per questo tipo di simulazione ed esplorazione possiamo contare anche sul quantum Development Kit di Azure e su Braket di Aws – un accesso a calcolatori quantistici con hardware DWave o Righetti – e sul Qiskit e altri servizi resi disponibili da Ibm. Il cloud permette di fare prove con un investimento assolutamente contenuto. I capitali che servono sono quelli venture perché si vada avanti a sviluppare la tecnologia hardware e perché progredisca la ricerca sugli algoritmi quantistici.
Dove si deve investire è nei cervelli: servono persone che dedichino tempo a studiare una materia complessa che non dà garanzie di benefici immediati, né di business case entro i primi 12 mesi. Serve la mentalità e la curiosità di volersi avviare su questa strada.
Nel 2018 si parlava di quantum computing entro 50 anni, nel 2019 lo si intravedeva nel 2050, nel 2020 si parlava di 10 anni ancora, adesso si dice entro il 2030 (ci sono già roadmap ufficiali pubblicate da IonQ e Google che parlano rispettivamente di 2028 e 2029…). Io sono certo, come lo è Marco, che la crescita del quantum computing sarà esponenziale, com’è avvenuto per i cellulari, le comunicazioni, ecc. Sono trend tecnologici sulle cui date di approdo si può solo sbagliare per eccesso di prudenza. Prevedo che nei prossimi cinque anni esploderà e che siamo all’alba di una rivoluzione. L’obiettivo non è essere gli unici ma essere i primi, noi come clienti e aziende come Reply come fornitori di competenze a sfruttare queste nuove opportunità.
MM: Concordo assolutamente con Fabio, sottolineerei ancor di più che in questi casi la troppa cautela è inutile, perché chi arriva prima ha un gran vantaggio competitivo. Inoltre, con l’avvento del cloud ormai è molto più facile fare progetti e sperimentare. Ad esempio, il nostro MegaQUBO scompone i problemi in problemi più semplici che poi possono essere risolti sul cloud disponibile, che sia Aws, Azure o altri.
Dunque col cloud non c’è bisogno di grandi capitali economici, ma sì di capitale intellettuale, perché il percorso di formazione e acquisizione di dimestichezza non è proprio tra i più semplici. Ci siamo mossi dal 2018 proprio per questo, e qui mi sento di ringraziare il board di Reply per la lungimiranza e la costanza nel supportare l’iniziativa.
Come fanno aziende più piccole ad attrarre il talento che richiede il quantum computing se competono con aziende grandi e tecnologicamente avanzate come Enel?
FV: La guerra dei talenti è aperta e infuria, ed essere efficaci su questo fronte è tra gli aspetti più difficili. Tuttavia, creare le condizioni che favoriscano l’innovazione e il pieno dispiegamento delle potenzialità è un acceleratore e un aiuto perché i giovani lo riconoscono e vengono volentieri. Quasi più che la preparazione – che si può colmare – conta moltissimo l’entusiasmo, la motivazione, avere una vision, capire le potenzialità.
In una azienda da grandi numeri come Enel si possono creare casi d’uso, si può sbagliare, prevedere use case che non funzioneranno ed esplorare varie strade per individuare quelle percorribili con uno sforzo relativamente ridotto. L’importante è fare capire la concretezza, oltre a stabilire una connessione stabile tra la tecnologia in evoluzione e la possibilità di applicarla senza avere fretta di un risultato immediato. Stiamo già pensando al prossimo use case di supporto al business della distribuzione elettrica: forse sarà il posizionamento ottimale dei gruppi elettrogeni nelle condizioni di emergenza. Stiamo anche costruendo un modello della rete elettrica, un grande modello complicatissimo: per ottenere una certa qualità di servizio, misurata in minuti di disconnessione, consideriamo variabili di ogni tipo, dalla topologia della rete, alle persone dedicate, alle risorse investite e al tipo di attività prioritizzate. Realizzato un modello affidabile della rete con tecniche di intelligenza artificiale, un’ottimizzazione quantistica ci permetterà di ottimizzare gli interventi sulla rete e quindi l’uso delle risorse con benefici per l’intero sistema.
È la competenza che deve essere costruita di continuo perché la tecnologia si aggiorna. Dall’approccio QUBO (dove la Q sta per Quadratic), che permetteva di formalizzare un problema in termini di soli variabili binarie, siamo già al PUBO (dove la P sta per polinomial) che consente di ridurre il numero di variabili necessarie rendendo computazionalmente più trattabile il problema.
L’evoluzione dell’hardware quantistico richiederà qualche anno, quella del software evolve più rapidamente: si tratta di individuare casi d’uso in cui l’ottimizzazione adiabatica che utilizziamo ora possa essere applicata a soluzioni esistenti ma migliorabili.
Quando l’approccio quantistico troverà un’applicazione per le reti neurali (si parla di Quantum Machine Learning) si avrà un’esplosione nell’adozione del quantum computing. Siamo in un momento di grandissima transizione.
Quale gruppo ha realizzato la traduzione dei dati Enel in algoritmo quantistico?
FV: È proprio qui che è avvenuta la collaborazione. Avevamo il vantaggio di avere già formalizzato un problema a noi noto da 15 anni, vale a dire, avevamo definito i vincoli, le variabili e gli ambiti. Con Reply abbiamo trasportato il problema di ottimizzazione a un contesto quantistico. Reply ha invece quasi esclusivamente “compilato” la nuova formulazione con il MegaQUBO, affinché potesse essere eseguita oltre che su QPU anche su GPU/CPU specifiche, non quantistiche ma dalle prestazioni adatte.
MM: Noi abbiamo fatto prevalentemente la parte calcolistica. La parte più interessante è stata fare insieme ad Enel la modellizzazione, la formulazione matematica, e vedere che si andava verso un progetto fortemente innovativo e con un commitment dall’alto di entrambe le aziende. Abbiamo anche creato ecosistema, sia presso Enel, sia presso Reply, perché uno più uno non vuol dire due, ma molto di più: lato Enel hanno trattenuto i talenti e trovato nuovi casi d’uso, lato Reply si è creato un gruppo di esperti che poi è andato avanti a realizzare altri progetti simili.
Quando parliamo dei gruppi che hanno collaborato, di quante persone parliamo e quali capacità occorrono? Oltre all’expertise che immagino serva per fare accettare un progetto di questa portata a livello aziendale…
FV: Quest’ultimo è stato un mio compito. Per tutto il resto servono nativi digitali molto preparati, con una conoscenza dettagliata del tema e familiari con la programmazione e con la data science. Questo è il team Enel che si è affiancato ai data scientist nativi digitali di Data Reply che hanno anche una competenza specifica di formulazione quantistica del problema… ma parliamo di meno di dieci persone fra tutti e due i team.
MM: Sì, direi che parliamo di 7-8 champion, lato business, it, quantistica, calcolistica – un piccolo gruppo di talenti molto, molto motivati. Il livello di impegno e passione è stato alto per tutti e determinante, anche se non è difficile che si crei passione quando lavorano insieme persone con grandi potenzialità. Difficile è invece l’aspetto più manageriale: assumersi il rischio, investire risorse dell’azienda in un task dall’esito incerto, anche se man mano che procede la sperimentazione si confermano e migliorano le previsioni di prestazione. L’avere già fatto un’esperienza di successo in ambito bancario sicuramente ha aiutato.
FV: Qui è bene ricordare un piccolo [ma importante] aspetto tecnico: avendo lavorato al problema dell’ottimizzazione dell’attività delle squadre di manutenzione da anni, avevamo un benchmark preciso. Sapevamo dove potevamo arrivare, e confrontando continuamente la performance tra l’approccio nuovo e quello vecchio abbiamo capito quale era superiore, in questo caso di un 20-30% in termini di ore di viaggio ridotte o di attività eseguita a parità di tempo. Avere cognizione di causa ci porta a essere molto, molto confidenti sull’approccio.
Il successo di un progetto di questo tipo avvia una catena virtuosa di risparmio di risorse. Come la vedete?
FV: Noi siamo informatici e l’informatica si clona a costo zero. Se un processo funziona, la replica è immediata. Stiamo facendo prove a Lecce e a Brescia. Se il programma funziona lì, funziona dappertutto. Entro un anno potremo applicarlo a tutta l’Italia e, successivamente, in tutte le nostre geografie. E questo è solo un caso.
Questo è il bello dell’informatica. L’importante è trovare uno use case d’interesse sufficientemente generale e elaborarlo fino in fondo. Se si riesce a dimostrare che la soluzione nuova è superiore, non c’è nulla che freni quella tecnologia.
Il nostro obiettivo è dunque chiaro: implementare la soluzione in tutta Italia prima della fine dell’anno partendo a giugno. E stiamo già pensando a nuovi use-case, a scenari più complessi per le competenze che richiedono. Tra questi ci sono l’ottimizzazione del bidding dell’energia nelle aste, un tema molto complicato; l’analisi del rischio che porta alla costruzione del piano d’investimento dell’azienda e implica decisioni complesse; e l’ottimizzazione della rete di distribuzione elettrica. Le scelte da fare per ottimizzare la gestione di una rete – manutenzione, investimenti, gestione emergenze, aumento della forza lavoro – sono le sfide fondamentali di tutte le utility da sempre. Se si trova un modo di applicare la nostra soluzione a quei problemi, per le aziende che sono già in cloud, che hanno già un sistema digitalizzato e una chiara formalizzazione del problema, l’adozione diventa immediata.
Gli operatori telecom, per esempio per le reti zero-touch del 5G, sembrano un interlocutore perfetto…
MM: Vale lo stesso approccio, la stessa scommessa: noi mettiamo a disposizione la nostra expertise in primis e per chi vuole il nostro acceleratore software, il MegaQUBO, il core informatico, affinché chi vuole risparmiare possa trovare soluzioni abbastanza facilmente. Se l’azienda ha i progetti digitalizzati e magari anche modelli di ottimizzazione “vecchio stile” già esistenti, ancora meglio perché i progetti hanno tempi più brevi.
In questo momento nel mondo si sprecano milioni di litri di gasolio perché si calcola male il percorso degli automezzi! È imbarazzante, no?
Stiamo vincendo questa sfida, abbiamo già sette progetti di questo tipo in Italia. Il core, realizzato con 7-8 dottorati, il lavoro hard-core, lo rendiamo disponibile anche in “self service” per chi voglia utilizzarlo – operatori, utility, farmaceutica, tra gli altri settori.
Questi tipi di problemi si affrontano in questo momento con l’intelligenza artificiale e il machine learning e potenza di calcolo, per esempio nella logistica. Perché potrebbe essere il caso di applicare il quantum computing?
FV: La quantum optimization è differente, è un filone completamente diverso, perché mentre il Ml e l’Ai hanno bisogno di imparare, e quindi di dati pregressi, il quantum computing non ha bisogno del training o di dati. A partire da una formalizzazione del problema fatta da un umano trova una ottimizzazione per definizione migliore di qualsiasi altro algoritmo (il sistema evolve naturalmente verso il punto di energia minima). Quindi il bilancio è sicuramente positivo in termini di risorse computazionali e di consumo di risorse. Da questo punto di vista, il quantum computing si colloca all’opposto di blockchain.
La finanza sembra un altro settore naturale per il quantum computing. Quali altri ne beneficerebbero, per esempio nell’industria? E, infine, quali sono le vostre prossime sfide?
MM: In ambito finance parliamo di ottimizzazione di portafoglio, minimizzazione del rischio, optimization del collaterale. In ambito manifatturiero, quando ci sono delle linee produttive molto complesse, come nell’automotive o nella produzione di veicoli pesanti, l’organizzazione del lavoro può essere gestita con un’ottimizzazione combinatoriale per non sprecare tempo delle linee e avere sempre sulla linea i pezzi che occorrono. Tutti ottimizzano già, ma una ottimizzazione quantistica può aumentare l’efficienza di produzione senza ulteriori investimenti o espansione degli stabilimenti. Con un agente ferroviario abbiamo appurato la possibilità di far partire e arrivare più treni, quindi trasportare più passeggeri, a parità di binari e senza investimenti infrastrutturali.
Le mie sfide sono restare i più bravi in questo ambito e mantenere il vantaggio competitivo che abbiamo raggiunto con i nostri investimenti e con i progetti realizzati, oltre a fa evolvere il nostro acceleratore come il mercato ci sta chiedendo.
FV: Per me è trovare nuovi ambiti di utilizzo e stare al passo con la tecnologia per continuare utilizzarla al meglio. La sfida personale è cercare di allargare il sistema di collaborazioni per favorirne l’evoluzione. Ai vertici di organizzazioni importanti del quantum computing ci sono molti italiani, quindi cercare di fare sistema, non solo in Italia, ma anche in Europa, è un altro obiettivo.
Alcuni utilizzi di meccanismi di quantum computing saranno di beneficio per tutti: è il caso dell’ottimizzazione delle previsioni del tempo, o del protein folding nella ricerca medica, o delle nanotecnologie per il calcolo mirato allo sviluppo di nuovi materiali. Sono problemi ben definiti nei quali il calcolo delle possibili soluzioni non è gestibile da calcolatori tradizionali. Quando ci arriveremo – e non è un “se” ma un “quando” – ci aspettiamo dei miglioramenti che, come altre volte nella storia dell’uomo, non possiamo neanche immaginare.
Sulla Quantum Supremacy altro appena possibile.