Come confrontare un processore quantistico rumoroso con un computer classico

Confronting a noisy quantum processor with a classical computer

Pubblicato da Sergio Boixo e Vadim Smelyanskiy, scienziati principali del team di Google Quantum AI

Un computer quantistico con correzione degli errori su larga scala sarà in grado di risolvere alcuni problemi impossibili per i computer classici, ma costruire un dispositivo del genere è un’impresa enorme. Siamo orgogliosi delle tappe che abbiamo raggiunto verso un computer quantistico con correzione degli errori completo, ma quel computer su larga scala è ancora a qualche anno di distanza. Nel frattempo, stiamo utilizzando i nostri attuali processori quantistici rumorosi come piattaforme flessibili per esperimenti quantistici.

A differenza di un computer quantistico con correzione degli errori, gli esperimenti nei processori quantistici rumorosi sono attualmente limitati a qualche migliaio di operazioni o porte quantistiche, prima che il rumore degradi lo stato quantistico. Nel 2019 abbiamo implementato una specifica attività computazionale chiamata campionamento di circuiti casuali sul nostro processore quantistico e abbiamo dimostrato per la prima volta che superava i supercomputer classici all’avanguardia.

Anche se non hanno ancora raggiunto capacità al di là del classico, abbiamo anche utilizzato i nostri processori per osservare fenomeni fisici nuovi, come i cristalli di tempo e le modalità di bordo di Majorana, e abbiamo fatto nuove scoperte sperimentali, come i robusti stati legati di fotoni interagenti e la resilienza al rumore delle modalità di bordo di Majorana delle evoluzioni di Floquet.

Ci aspettiamo che anche in questo regime intermedio e rumoroso, troveremo applicazioni per i processori quantistici in cui gli esperimenti quantistici utili possono essere eseguiti molto più velocemente di quanto possa essere calcolato sui supercomputer classici, chiamiamo queste applicazioni “applicazioni computazionali” dei processori quantistici. Nessuno ha ancora dimostrato un’applicazione computazionale al di là del classico. Quindi, mentre puntiamo a raggiungere questo traguardo, la domanda è: qual è il modo migliore per confrontare un esperimento quantistico eseguito su un processore quantistico con il costo computazionale di un’applicazione classica?

Gia sappiamo come confrontare un algoritmo quantistico con correzione degli errori con un algoritmo classico. In quel caso, il campo della complessità computazionale ci dice che possiamo confrontare i rispettivi costi computazionali, ovvero il numero di operazioni richieste per compiere il compito. Ma con i nostri attuali processori quantistici sperimentali, la situazione non è così ben definita.

In “Volume quantistico efficace, fedeltà e costo computazionale degli esperimenti di elaborazione quantistica rumorosi”, forniamo un quadro per misurare il costo computazionale di un esperimento quantistico, introducendo il “volume quantistico efficace” dell’esperimento, ovvero il numero di operazioni o porte quantistiche che contribuiscono a un risultato di misurazione. Applichiamo questo quadro per valutare il costo computazionale di tre esperimenti recenti: il nostro esperimento di campionamento di circuiti casuali, il nostro esperimento di misurazione di grandezze note come “correlatori fuori dall’ordine temporale” (OTOC) e un recente esperimento su un’evoluzione di Floquet legata al modello di Ising. Siamo particolarmente entusiasti degli OTOC perché forniscono un modo diretto per misurare sperimentalmente il volume quantistico efficace di un circuito (una sequenza di porte o operazioni quantistiche), che è di per sé un compito computazionalmente difficile da stimare con precisione per un computer classico. Gli OTOC sono anche importanti nella risonanza magnetica nucleare e nella spettroscopia di risonanza dello spin dell’elettrone. Pertanto, riteniamo che gli esperimenti OTOC siano un candidato promettente per una prima applicazione computazionale mai realizzata dei processori quantistici.

Grafico del costo computazionale e dell’impatto di alcuni recenti esperimenti quantistici. Mentre alcuni (ad esempio, QC-QMC 2022) hanno avuto un alto impatto e altri (ad esempio, RCS 2023) hanno avuto un alto costo computazionale, nessuno è ancora stato utile e sufficientemente difficile da essere considerato un’applicazione computazionale. Ipotizziamo che il nostro futuro esperimento OTOC potrebbe essere il primo a superare questa soglia. Altri esperimenti riportati sono citati nel testo.

Campionamento di circuiti casuali: valutare il costo computazionale di un circuito rumoroso

Quando si tratta di eseguire un circuito quantistico su un processore quantistico rumoroso, ci sono due considerazioni contrastanti. Da un lato, miriamo a fare qualcosa che è difficile da ottenere in modo classico. Il costo computazionale, ovvero il numero di operazioni richieste per compiere il compito su un computer classico, dipende dal volume quantistico efficace del circuito quantistico: maggiore è il volume, maggiore è il costo computazionale e maggiore è la capacità di un processore quantistico di superare un classico.

Ma d’altra parte, su un processore rumoroso, ogni porta quantistica può introdurre un errore nel calcolo. Più operazioni ci sono, più alto sarà l’errore e più bassa sarà la fedeltà del circuito quantistico nel misurare una quantità di interesse. In base a questa considerazione, potremmo preferire circuiti più semplici con un volume efficace più piccolo, ma questi sono facilmente simulati dai computer classici. L’equilibrio tra queste considerazioni concorrenti, che vogliamo massimizzare, è chiamato “risorsa computazionale”, mostrato di seguito.

Grafico del compromesso tra volume quantistico e rumore in un circuito quantistico, catturato in una quantità chiamata “risorsa computazionale”. Per un circuito quantistico rumoroso, questa aumenterà inizialmente con il costo computazionale, ma alla fine, il rumore prevarrà sul circuito e lo farà diminuire.

Possiamo vedere come queste considerazioni concorrenti si manifestano in un semplice programma “hello world” per processori quantistici, noto come campionamento di circuiti casuali (RCS), che è stata la prima dimostrazione di un processore quantistico che supera un computer classico. Qualsiasi errore in qualsiasi porta probabilmente farà fallire questo esperimento. Inevitabilmente, questo è un esperimento difficile da realizzare con una fedeltà significativa e quindi serve anche come punto di riferimento per la fedeltà del sistema. Ma corrisponde anche al costo computazionale più elevato conosciuto raggiungibile da un processore quantistico. Abbiamo recentemente riportato l’esperimento RCS più potente mai realizzato fino ad oggi, con una fedeltà sperimentale misurata di 1,7×10-3 e un elevato costo computazionale teorico di ~1023. Questi circuiti quantistici avevano 700 porte a due qubit. Stimiamo che questo esperimento richiederebbe ~47 anni per essere simulato nel supercomputer più grande del mondo. Sebbene questo rispetti uno dei due requisiti necessari per un’applicazione computazionale – supera un supercomputer classico – non è di per sé un’applicazione particolarmente utile.

OTOCs e evoluzione di Floquet: Il volume quantistico effettivo di un’osservabile locale

Ci sono molte domande aperte nella fisica quantistica dei sistemi a molti corpi che sono classicamente intrattabili, quindi eseguire alcuni di questi esperimenti sul nostro processore quantistico ha un grande potenziale. Di solito pensiamo a questi esperimenti in modo leggermente diverso rispetto all’esperimento RCS. Piuttosto che misurare lo stato quantistico di tutti i qubit alla fine dell’esperimento, ci preoccupiamo solitamente di osservabili fisiche locali più specifiche. Poiché non ogni operazione nel circuito influenza necessariamente l’osservabile, il volume quantistico effettivo di un’osservabile locale potrebbe essere inferiore a quello del circuito completo necessario per eseguire l’esperimento.

Possiamo capire questo applicando il concetto di cono di luce dalla relatività, che determina quali eventi nello spazio-tempo possono essere collegati causalmente: alcuni eventi non possono influenzarsi reciprocamente perché l’informazione impiega tempo a propagarsi tra di loro. Diciamo che due tali eventi si trovano al di fuori dei rispettivi coni di luce. In un esperimento quantistico, sostituiamo il cono di luce con qualcosa chiamato “cono a farfalla”, in cui la crescita del cono è determinata dalla velocità della farfalla – la velocità con cui l’informazione si diffonde nel sistema. (Questa velocità è caratterizzata dalla misurazione degli OTOCs, discussa in seguito.) Il volume quantistico effettivo di un’osservabile locale è essenzialmente il volume del cono a farfalla, includendo solo le operazioni quantistiche che sono causalmente collegate all’osservabile. Quindi, più velocemente si diffonde l’informazione in un sistema, più grande sarà il volume effettivo e quindi più difficile sarà simulare il tutto in modo classico.

Rappresentazione del volume effettivo Veff delle porte che contribuiscono all’osservabile locale B. Una quantità correlata chiamata area effettiva Aeff è rappresentata dalla sezione trasversale del piano e del cono. Il perimetro della base corrisponde alla parte anteriore del viaggio dell’informazione che si muove con la velocità della farfalla vB.

Applichiamo questo framework a un recente esperimento che implementa un cosiddetto modello di Ising di Floquet, un modello fisico correlato agli esperimenti sul cristallo temporale e sui Majorana. Dai dati di questo esperimento, è possibile stimare direttamente una fedeltà effettiva del 0,37 per i circuiti più grandi. Con un tasso di errore del gate misurato di circa l’1%, questo fornisce un volume effettivo stimato di circa 100. Questo è molto più piccolo del cono di luce, che includeva duemila gate su 127 qubit. Quindi, la velocità della farfalla di questo esperimento è piuttosto bassa. Infatti, sosteniamo che il volume effettivo copre solo ~28 qubit, non 127, utilizzando simulazioni numeriche che ottengono una precisione maggiore rispetto all’esperimento. Questo piccolo volume effettivo è stato anche corroborato con la tecnica OTOC. Nonostante si trattasse di un circuito profondo, il costo computazionale stimato è di 5×1011, quasi un trilione di volte inferiore rispetto all’esperimento RCS recente. Di conseguenza, questo esperimento può essere simulato in meno di un secondo per punto dati su una singola GPU A100. Quindi, anche se è certamente un’applicazione utile, non soddisfa il secondo requisito di un’applicazione computazionale: superare sostanzialmente una simulazione classica.

Gli esperimenti di scrambling delle informazioni con OTOC sono una via promettente per un’applicazione computazionale. Gli OTOC possono fornirci importanti informazioni fisiche su un sistema, come la velocità della farfalla, che è fondamentale per misurare precisamente il volume quantistico effettivo di un circuito. Gli esperimenti OTOC con gate di entanglement veloci offrono un percorso potenziale per una prima dimostrazione al di là del classico di un’applicazione computazionale con un processore quantistico. Infatti, nel nostro esperimento del 2021 abbiamo raggiunto una fedeltà effettiva di Feff ~ 0,06 con un rapporto segnale-rumore sperimentale di ~1, corrispondente a un volume effettivo di ~250 gate e un costo computazionale di 2×1012.

Anche se questi primi esperimenti OTOC non sono sufficientemente complessi per superare le simulazioni classiche, c’è una profonda ragione fisica per cui gli esperimenti OTOC sono buoni candidati per la prima dimostrazione di un’applicazione computazionale. La maggior parte dei fenomeni quantistici interessanti accessibili ai processori quantistici a breve termine che sono difficili da simulare in modo classico corrispondono a un circuito quantistico che esplora molti, molti livelli energetici quantistici. Tali evoluzioni sono tipicamente caotiche e i correlatori di ordine temporale standard (TOC) decadono molto rapidamente a una media puramente casuale in questo regime. Non rimane alcun segnale sperimentale. Questo non accade per le misurazioni OTOC, che ci consentono di aumentare la complessità a piacere, limitata solo dall’errore per gate. Prevediamo che una riduzione del tasso di errore della metà raddoppierebbe il costo computazionale, spingendo questo esperimento al di là del classico.

Conclusioni

Utilizzando il framework del volume quantistico effettivo che abbiamo sviluppato, abbiamo determinato il costo computazionale dei nostri esperimenti RCS e OTOC, così come di un recente esperimento di evoluzione Floquet. Anche se nessuno di questi soddisfa ancora i requisiti per un’applicazione computazionale, ci aspettiamo che con tassi di errore migliorati, un esperimento OTOC sarà la prima applicazione utile al di là del classico di un processore quantistico.