INFORMAZIONE E COMPUTAZIONE QUANTISTICA: APPLICAZIONI

XXI Secolo (2010)

Informazione e computazione quantistica: applicazioni

Mario Rasetti

Schemi diversi di computazione quantistica

La computazione e la teoria dell’informazione quantistiche sono ormai entrate nel complesso bagaglio culturale della scienza dell’informazione, nell’ambito della quale hanno aperto nuovi orizzonti metodologici e dato accesso a nuovi strumenti di grande efficienza, e della fisica, cui hanno posto nuove sfide concettuali e applicative, con l’obiettivo della realizzazione sperimentale delle strutture che sono loro proprie. Per questa ragione, ci sono stati svariati tentativi di sistematizzare la computazione quantistica in schemi generali di portata universale, che consentissero di unificare in una sola tipologia di processi operazionali quanto avviene nel corso dell’implementazione di un calcolo con mezzi non classici. Verranno qui di seguito presi in esame concisamente alcuni di tali schemi, indicandone i principi fisici fondamentali e i risultati più interessanti a cui hanno portato. Non va dimenticato, tuttavia, come – simmetricamente – la fisica quantistica abbia trovato, nell’informazione e computazione quantistica, il fertile terreno nel quale sono germinate nuove idee e si sono sviluppati nuovi risultati di portata generale.

Il simulatore quantistico a rete di spin

Una classe molto interessante di algoritmi quantistici è costituita da quelli che simulano la meccanica quantistica. Fra le proposte più brillanti – basata su un’intuizione di Richard Ph. Feynman (1918-1988) che, per primo, intravide la possibilità di utilizzare gli stati microscopici della materia per immagazzinare e manipolare informazione – è il simulatore quantistico a reti di spin, che rappresenta tutti gli elementi del computer quantico con momenti angolari quantistici e utilizza le regole di composizione di tali vettori, caratteristiche della natura quantistica degli spin, per costruire una struttura linguistica. L’alfabeto che caratterizza quest’ultima comprende, non soltanto numeri quantici che individuano i vari spin componenti il sistema, ma anche simboli che servono a distinguere le diverse maniere in cui i momenti angolari possono essere composti in meccanica quantistica. La grammatica e la sintassi di questo linguaggio – che, incidentalmente, si presta in modo molto naturale a definire un automa – sono indotte dall’algebra (detta di Wigner-Racah) che è propria appunto della composizione di spin. Il simulatore quantistico a rete di spin ha portato alla costruzione di nuovi algoritmi mutuando le proprietà dinamiche che generano le regole di evoluzione dell’automa (cioè simulandola) dalla teoria topologica quantistica dei campi.

La teoria topologica dei campi: invariantie polinomi di Jones

È stato ormai provato definitivamente come la simulazione con reti di spin quantistiche o con reti circuitali di processi quantistici, non di meccanica ma di teoria dei campi, possa essere usata per risolvere, in modo efficiente (in tempo polinomiale) con prefissata approssimazione, problemi della topologia che in termini classici sono intrattabili. Fra questi, quelli di maggiore impatto e successo riguardano il calcolo, per un numero sufficiente di valori particolari dell’argomento, dei polinomi di Jones, polinomi che classificano gli invarianti di quell’interessante classe di oggetti topologici che sono i nodi in ℝ3, o – più in generale – degli invarianti topologici delle 3-varietà. Elemento portante di questi algoritmi è il fatto che i polinomi di Jones si possono identificare (un risultato straordinario dovuto al fisico statunitense Edward Witten nel corso degli anni Ottanta del 20° sec.) con i valori di aspettazione in una particolare teoria quantistica dei campi delle osservabili fisiche caratteristiche di quella teoria. La varianza di tali osservabili è troppo grande per permettere il calcolo esatto dei polinomi di Jones in tempo polinomiale, anche con un computer quantistico, ma è possibile verificare che si riesce, con gli algoritmi proposti, ad approssimarli meglio che con qualsiasi algoritmo classico.

Un’altra direzione di sviluppo di questi algoritmi ha portato alla proposta di metodi innovativi quantistici per approssimare, per es., gli zeri della funzione zeta di Riemann. Tali metodi sono ispirati dall’approccio spettrale nel tentativo di provare la congettura di Riemann, che cerca di trovare l’hamiltoniana ℋζ di un sistema quantistico caotico tale che gli autovalori dell’energia siano legati univocamente agli zeri della funzione ζ di Riemann. Sino a ora ℋζ non è stata trovata, ma il fisico Wim van Dam, della University of California, è riuscito a dimostrare che gli zeri della funzione zeta sono dati, in effetti, dagli autovalori di un appropriato circuito quantistico e che questo permette di approssimarli in modo più efficiente di quanto non si riesca a fare classicamente.

La computazione adiabatica

È interessante menzionare anche lo schema noto come computazione quantistica adiabatica. Questa metodologia mira a individuare lo stato fondamentale dell’operatore energia (hamiltoniana) di un dato sistema fisico e a inseguirne e catturarne le variazioni allorché uno o più parametri che le caratterizzano vengono fatti evolvere adiabaticamente. In questo modo, lo stato fondamentale può essere fatto cambiare in maniera tale che – se l’informazione relativa a un certo problema si è codificata nello stato di energia minima di una assegnata hamiltoniana di partenza – lo stato dell’hamiltoniana evoluta codifichi la soluzione di quel problema. Il cosiddetto teorema adiabatico dimostra che un tale approccio è efficiente se lo spettro di energia del sistema considerato ha un gap (vale a dire un salto di energia finito fra stato fondamentale e primo stato eccitato) sufficientemente grande e che si mantiene tale per tutte le hamiltoniane intermedie (tipicamente un continuo) del processo di evoluzione. Benché questo approccio non abbia ancora portato all’implementazione di alcun algoritmo quantistico interessante, esso appare molto promettente. È stato dimostrato, infatti, rigorosamente e formalmente, che ogni computazione quantistica, che richieda un tempo polinomiale per il suo completamento, si può tradurre in una hamiltoniana che la realizza e risolve con il metodo adiabatico.

La computazione olonomica

Questo schema di computazione quantistica, particolarmente robusto, si basa sulla nozione di fase geometrica nella teoria quantistica e, in particolare, sul fatto che tale nozione, nel contesto quantistico, si presta a una generalizzazione (tecnicamente definita non abeliana) che l’arricchisce di inattese proprietà non soltanto geometriche, ma anche algebriche e topologiche. L’idea fondamentale consiste nel fatto che, se si dispone di un sistema fisico caratterizzato da una hamiltoniana degenere – tale cioè che il suo spettro dell’energia abbia un livello (per semplicità si può pensare a quello fondamentale, di energia minima) che corrisponde a più di uno stato, di fatto anche a una vasta molteplicità di stati –, accade che variando i parametri dell’hamiltoniana che descrivono l’accoppiamento del sistema fisico a campi esterni (che lo sperimentatore può variare a piacere) in modo tale da far compiere al punto che rappresenta lo stato quantico del sistema fisico nello spazio di tali parametri un percorso chiuso, la funzione d’onda del sistema stesso acquisisce una fase legata alla geometria di tale percorso chiuso, più precisamente all’area che esso abbraccia. Questo è, non soltanto inatteso (ritornando al punto di partenza il sistema ha una funzione d’onda diversa), ma costituisce un risultato tanto importante quanto ricco di conseguenze. Controllando le fasi che così si generano, si può infatti manipolare l’informazione codificata nello stato, effettuare cioè computazione in una maniera che è stato dimostrato essere universale.

Crittografia quantistica

La scienza legata alla necessità di comunicare segretamente ha radici antichissime e riguarda quasi tutte le società. Ai giorni nostri, la crittografia più sofisticata riguarda gli usi militari (il primo esempio famoso è stato Enigma, un dispositivo crittografico usato durante la Seconda guerra mondiale dalla Germania, la cui cifra fu decodificata in Inghilterra a Bletchley Park da un gruppo di scienziati fra cui Alan M. Turing in un’operazione che diede origine alla realizzazione del primo computer digitale, Colossus) e finanziari. La criptoanalisi è stata una delle discipline che hanno fatto nascere la computer science.

Crittografia a chiave pubblica

Uno fra i più interessanti risultati della moderna criptologia, la crittografia a chiave pubblica, consiste nel fatto che anche una porzione della chiave crittografica è parte del messaggio inviato dai due soggetti che scambiano informazioni, cosicché non occorre l’accordo a priori su una chiave segreta, se non in forma parziale. Essa ha dato luogo, fra gli altri, a un metodo, oggi diffusissimo, di criptatura dei messaggi che basa la sua efficacia – cioè la sua sicurezza rispetto a eventuali tentativi maliziosi di intercettarne e decodificarne la cifra – sull’enorme difficoltà (NP, Nondeterministic Polynominal-time) del problema di scomporre in fattori primi numeri interi che siano il prodotto di due numeri primi entrambi molto grandi. Questo metodo è noto come RSA (dai nomi dei suoi inventori Ronald Rivest, Adi Shamir e Leonard Adleman, tutti provenienti dal mondo accademico).

Distribuzione quantistica delle chiavi

La scienza dell’informazione e della computazione quantistica entrano in gioco in due modi diversi nella crittografia. Il primo riguarda il fatto che la capacità di codificare informazione negli stati quantistici permette d’immaginare un metodo di distribuzione della chiave crittografica, in parte pubblico, di grande efficienza. Il secondo deriva dall’algoritmo di Shor (ideato dallo statunitense Peter Shor nel 1994), capace di fattorizzare in tempo polinomiale un numero intero prodotto di due primi, un algoritmo, cioè, che trasforma un problema classico NP – la cui complessità ne giustifica l’uso nella realizzazione di chiavi crittografiche – in uno QP (Quasi-Polynominal-time), quantistico.

L’idea di base è quella che i due attori coinvolti nel processo si scambino quanti singoli o multipli, ma inseparabili (entangled). Poiché in questo caso chi vuole impadronirsi dell’informazione scambiata deve effettuare un insieme di misurazioni sui quanti trasmessi, per le proprietà generali della meccanica quantistica (in base alle quali un’operazione di misurazione proietta il sistema fisico in uno stato puro, fra quelli a esso accessibili, in modo casuale) se l’operazione avviene su una delle componenti di un sistema di quanti inseparabili, lo stato trasmesso viene inevitabilmente modificato, in una maniera che non può non essere scoperta dai due attori che scambiano informazioni, anche semplicemente attraverso un canale di comunicazione pubblico. Dunque, gli ingredienti fondamentali per la distribuzione quantistica di una chiave crittografica sono: un canale quantistico per lo scambio di quanti e un canale (classico) pubblico, attraverso cui verificare se la trasmissione sul canale quantistico è stata o meno distorta da un tentativo di appropriazione indebita. In vista del processo di trasmissione quantistica, la chiave viene o codificata in un insieme assegnato di stati non ortogonali di singole particelle (per es. fotoni polarizzati), oppure ricavata da un protocollo di misurazioni da effettuare su coppie di particelle in stati inseparabili. L’efficacia straordinaria di questo metodo di distribuzione della chiave per cifrare un messaggio o decodificare un messaggio criptato sta, da un lato, nelle proprietà – profondamente quantistiche, nel senso che non hanno corrispondente classico – che caratterizzano gli stati inseparabili, dall’altro, in quelle del cosiddetto teorema no cloning, che stabilisce l’impossibilità di clonare uno stato quantistico, cioè di farne una copia a partire da una misurazione sul sistema.

Codifica densa dell’informazionee teletrasporto

Si è visto come l’inseparabilità quantistica possa essere usata per distribuire le chiavi segrete necessarie per la crittografia. Di fatto, quel principio generale ha portata più ampia – si parla oggi di comunicazione quantistica – e l’implementarlo tocca due fra i processi più spettacolari della fisica dell’informazione quantistica. Il primo ha a che fare con la codifica densa dell’informazione, che è naturalmente un requisito essenziale del trasferimento di grandi masse di informazione attraverso canali fisici. Essa è basata sostanzialmente sulla proprietà, legata appunto all’entanglement di due particelle, di trasmettere due qubit d’informazione manipolandone soltanto uno, purché esso faccia parte appunto di una coppia inseparabile. Il secondo è quel particolare processo che viene indicato come teletrasporto, che consiste in una procedura per trasferire lo stato di un sistema quantistico a un altro sistema posto a distanza. È bene chiarire che si sta parlando naturalmente di trasporto di stati quantistici, non di materia. Il teletrasporto consiste essenzialmente nel fatto che uno degli attori, A, possiede uno stato quantistico – lo stato ∣Ψ⟩ di un sistema fisico cui A ha accesso, nel senso che potrebbe misurarlo – che gli è ignoto (e che non vuole conoscere, perché una misurazione lo distruggerebbe, proiettando il sistema in uno dei numerosi stati puri in cui esso può stare). A e il ricevente, B, sono inoltre dotati, ciascuno, di uno dei membri di uno stesso stato entangled, rispettivamente ∣ϕ⟩, ∣ϕ(a)e⟩ e ∣ϕ(b)e⟩. A effettua una misurazione congiunta su ∣Ψ⟩ e ∣ϕ(a)e⟩ ed esprime il risultato in una base particolare concordata con B, per es. quella che consiste negli stati computazionali detti di Bell (dal nome del fisico irlandese John S. Bell, 1928-1990); poi manda i risultati di tale misurazione – si noti, attraverso un canale classico – a B, che effettua l’appropriata trasformazione unitaria sul sistema ricostruito con questa informazione in congiunzione con ∣ϕ(b)e⟩. L’operazione genera la ricostruzione dello stato ∣Ψ⟩ nel sito dove si trova B.

Realizzabilità sperimentaledella computazione quantistica

Sono stati proposti numerosi metodi per l’implementazione fisica dei principi di base della manipolazione (codifica, decodifica, elaborazione, trasporto) dell’informazione quantistica. Oggi, si può dire che la fattibilità della computazione quantistica sia stata ampiamente dimostrata: le due grandi sfide che ancora non permettono di dire che essa sia un fatto acquisito, disponibile per il trasferimento a quella tecnologia avanzata da cui ha avuto uno stimolo primario importante, sono la protezione dalla decoerenza – che può indurre errori non controllabili – e la capacità dello sperimentatore di manipolare, in modo insensibile alla decoerenza, grandi numeri di qubit (è questo il cosiddetto problema della scalabilità). In sostanza, ogni proposta, qualunque sia il sistema fisico scelto come supporto, schematizza un computer quantistico come un grande interferometro nel quale, mediante un’azione appropriata dall’esterno, si portano gli stati quantici in sovrapposizione a interferire distruttivamente se essi codificano un’informazione sbagliata (rispetto alla manipolazione/computazione che si vuole eseguire), e a interferire costruttivamente, portandone la probabilità il più possibile vicino a 1, se essi descrivono la risposta corretta al problema. Di seguito saranno brevemente descritti alcuni fra i metodi proposti, in una rassegna che non può certo presentare in maniera esaustiva tutte le soluzioni considerate. Verranno di fatto affrontati soltanto quei metodi di approccio che appaiono, al momento, più promettenti e meglio compresi.

Risonanza magnetica nucleare

La risonanza magnetica nucleare (NMR, Nuclear Magnetic Resonance) è lo studio delle transizioni fra i livelli di Zeeman (vale a dire, livelli energetici molto vicini dovuti all’applicazione di un campo magnetico, che ne rimuove la degenerazione) di un nucleo atomico. Si tratta di una delle più importanti tecniche spettroscopiche disponibili nella fisica molecolare e atomica, perché le frequenze dei segnali NMR dipendono, in maniera piuttosto sottile, dall’esatta configurazione degli atomi che circondano il nucleo dotato di momento magnetico e, dunque, un’analisi attenta dello spettro NMR di una molecola consente di determinarne accuratamente la struttura. La ragione per cui la risonanza magnetica nucleare è stata presa in considerazione per il calcolo quantistico sta nel fatto che gli spin nucleari costituiscono una buona realizzazione di qubit, relativamente semplice da usare per costruire porte logiche e circuiti quantistici. Una caratteristica importante dell’implementazione del computer quantistico con NMR consiste nel fatto che, mentre sarebbe molto difficile separare spettroscopicamente la dinamica delle singole molecole, che sono in rapido movimento, è relativamente semplice rivelare un segnale combinato dovuto a tutte le molecole. Dunque, la tecnica NMR non considera sistemi di spin individuali, ma ensembles statistici di tali sistemi, anche se è possibile distinguere nuclei differenti nella stessa molecola. La proprietà che gli accoppiamenti fra nuclei sono di fatto descrivibili come interazioni di contatto di Fermi fa sì che gli effetti non vengano nascosti dalle rapide vibrazioni delle molecole.

Mediante la NMR è stata realizzata l’implementazione di alcuni circuiti logici quantistici e, soprattutto, sono stati operativamente usati programmi di calcolo quantistico per l’esecuzione di importanti algoritmi, quali quello per la soluzione del problema di Deutsch, l’algoritmo di ricerca in un data-base di Grover e l’algoritmo di Shor per la fattorizzazione di interi in fattori primi. Dunque, la fattibilità del metodo NMR si può ritenere ampiamente provata; un problema aperto, che appare molto arduo da risolvere, è quello di aumentare, in modo arbitrario, il numero di qubit che si riescono a manipolare.

Ioni intrappolati in cavità

Questo metodo consiste nel creare un ambiente nel quale un numero finito di ioni viene mantenuto in una modalità precisa di moto coerente all’interno di una cavità in cui è presente un campo elettromagnetico stazionario nell’ambito delle radiofrequenze. Lo sperimentatore può, con l’aiuto di impulsi laser, controllare e manipolare le interazioni fra gli ioni nella cavità in maniera quasi arbitraria, realizzando i desiderati processi d’interferenza. È interessante ricordare che le tecniche per realizzare questa particolare implementazione delle metodologie di manipolazione quantistica dell’informazione nascono dagli sforzi, operati nei laboratori più avanzati di metrologia, di costruire standard di frequenza con ioni raffreddati e intrappolati. L’intrappolamento dinamico degli ioni in una cavità a radiofrequenza fu proposto e realizzato per primo dal fisico tedesco Wolfgang Paul (1913-1993), che costruì un generatore di campo elettrico con frequenze radio disegnando gli elettrodi in modo tale che producessero un potenziale capace di confinare particelle cariche in posizioni fissate. Il raffreddamento utilizza, invece, una particolare manipolazione via laser del campo nella cavità, mirata a ridurre gli effetti negativi dello spostamento Doppler negli ioni. Anche con questo metodo sono stati implementati con successo algoritmi quantistici complessi, come quello di Shor.

Elettrodinamica quantistica

Analogamente a quanto avviene per gli ioni intrappolati, l’implementazione del calcolo quantistico mediante l’elettrodinamica quantistica prevede la cattura di un atomo in una cavità ottica. Questo sistema ha il vantaggio di poter essere descritto, con eccellente accuratezza, da un sistema a due livelli (a cui, dunque si può attribuire il ruolo di supportare un qubit) accoppiato al modo risonante di una cavità ottica, che è ben rappresentato da un oscillatore armonico. Le cavità in questione possono essere sviluppate sia nel campo delle frequenze ottiche sia in quello delle microonde. In questi due casi, l’interazione fra il sistema a due livelli e la cavità è forte a sufficienza da dominare – cioè rendere trascurabili – processi, come l’emissione spontanea di radiazione da parte degli atomi, la dissipazione dovuta all’accoppiamento fra i fotoni della cavità e i quanti dei modi di vibrazione (fononi) degli atomi, o la decoerenza prodotta dal rumore termico.

Giunzioni Josephson e SQUID

La superconduttività è un particolare stato termodinamico di certe sostanze (stagno, niobio, vanadio ecc., o materiali ceramici più complessi, composti di terre rare – per es., ittrio, lantanio, bario – rame e ossigeno) che, in certe condizioni di temperatura, tipicamente molto bassa (pochi kelvin per le prime, fino all’ordine del centinaio di kelvin per le seconde), è caratterizzato dall’avere resistività elettrica nulla e la capacità di espellere dall’interno del materiale un campo magnetico applicato dall’esterno (effetto Meissner). Un’applicazione particolarmente interessante della superconduttività si ha nelle cosiddette giunzioni Josephson – che prendono il nome dal fisico inglese Brian D. Josephson che le scoprì all’inizio degli anni Sessanta del 20° sec. –, dispositivi in cui due parti di circuito superconduttrici sono separate da un sottile strato di materiale isolante. Tali dispositivi presentano proprietà particolari: attraverso lo strato isolante può passare una corrente anche in assenza di una tensione esterna, mentre se gli vengono applicate una tensione o una corrente costante, il dispositivo acquisisce un’induttanza e attraverso esso fluisce una corrente elettrica alternata. Un altro dispositivo di grande importanza è lo SQUID (Superconductive QUantum Interference Device), che altro non è se non un sistema di giunzioni Josephson in parallelo. Una proprietà essenziale dello SQUID è che il campo magnetico che esso intrappola (e genera) è quantizzato, vale a dire varia per salti discreti ed è uguale a un multiplo intero di un quanto elementare di flusso. Tutte queste proprietà hanno fatto degli SQUID e, in generale, dei circuiti a superconduttori candidati ideali per la manipolazione di informazione quantistica, poiché è immediato immaginare di far funzionare lo SQUID – che a tutti gli effetti è una sorta di sistema a due fenditure – come supporto fisico di un qubit. Le applicazioni complesse di questa particolare implementazione fisica dei principi della computazione quantistica sono ancora poco numerose (anche se le poche disponibili sono molto promettenti), ma essa si presenta come il sistema più adatto alla scalatura del numero di qubit.

Punti quantici

Fra le proposte più innovative di realizzazione di dispositivi fisici capaci di immagazzinare e permetterci di manipolare qubit vi sono i sistemi ordinati (arrays) di punti quantici (quantum dot). Si tratta di piccole isole di materiale semiconduttore (tipicamente arseniuro di indio su di un substrato di arseniuro di gallio, o arseniuro di gallio su arseniuro di gallio e alluminio), goccioline delle dimensioni di alcuni nanometri, vale a dire di qualche centinaio di atomi. Una tensione negativa applicata a uno di questi piccolissimi oggetti fa sì che alcuni elettroni vengano espulsi e si può arrivare a ottenere che le eccitazioni collettive (eccitoni) degli elettroni rimasti siano equivalenti a una singola particella carica, capace di occupare soltanto uno di un insieme di livelli energetici discreti, quello di energia minima – lo stato fondamentale – e il primo stato eccitato. Pertanto, il punto quantico si presta bene a fare da supporto a un qubit. Inoltre, punti quantici vicini interagiscono – sia pure debolmente –, perché l’eccesso di elettroni che essi contengono li dota di una carica negativa che scambia una forza coulombiana con le cariche degli altri punti quantici. Si ottiene così un sistema con cui è possibile effettuare operazioni di manipolazione controllata dell’informazione (per es. la porta logica cNOT che entra nell’algoritmo di Deutsch): uno dei punti quantici codifica l’informazione nel suo stato a due livelli, mentre le transizioni da uno all’altro di tali stati, per es. indotte con impulsi laser, dipendono dallo stato dei punti quantici vicini.

Correzione quantistica degli errori

Decoerenza e accoppiamento con l’ambiente

Sin dagli inizi della computazione quantistica, agli scienziati è stato chiaro che requisito essenziale affinché questo nuovo paradigma, mirato a consentire di manipolare l’informazione agendo direttamente sugli stati microscopici della materia, possa aver successo è di riuscire a mantenere la coerenza quantistica. Solo in questo modo le straordinarie potenzialità computazionali dei sistemi quantistici rispetto a quelli classici possono essere utilizzate. Il problema relativo è indicato come decoerenza: esso si riferisce al fatto che qualsiasi dispositivo reale inevitabilmente interagisce con l’ambiente in cui si trova che, tipicamente, consiste di un enorme numero di gradi di libertà incontrollabili. In un computer quantistico tale interazione può indurre un cambiamento nelle fasi relative fra stati, cioè un effetto di corruzione dell’informazione e, di conseguenza, l’insorgere di errori nel processo di computazione. L’evoluzione dinamica di un qualsiasi sistema quantistico S che consiste di N qubit accoppiati con un ‘bagno termico’ B (S e B insieme formano il sistema fisico complessivo con cui lo sperimentatore ha a che fare) è generata dalle trasformazioni unitarie indotte da un operatore energia (hamiltoniana) H=HS⊗❙B+❙SHB+HSB, dove HS, HB e HSB sono le hamiltoniane che descrivono rispettivamente il sistema, l’ambiente e l’interazione fra i due. Nell’approccio tipico della meccanica quantistica l’evoluzione del sistema è descritta in questo caso da quella che si dice l’equazione master. Questa, che è equivalente a tutti gli effetti all’equazione di Schrödinger per il sistema complessivo, rappresenta quest’ultimo mediante un particolare operatore, la matrice densità ρ che, qualora se ne faccia la media su tutti i possibili valori dei gradi di libertà dell’ambiente, permette di valutare, almeno in termini statistici, la dinamica di S. Un punto cruciale è che anche se ρ all’istante iniziale è separato, vale a dire è il prodotto di un fattore che dipende soltanto dalle variabili del sistema e di uno che dipende da quelle del bagno termico, la dinamica indotta dall’equazione master fa sì che rapidamente questi due insiemi di gradi di libertà diventino inseparabili (entangled). La matrice che rappresenta ρ, in tal caso, non è diagonale, ovvero non consente che l’evoluzione dei due insiemi di variabili continui, mantenendosi questi separati. C’è un tempo caratteristico di tale mescolamento ed è questo che pone un limite alla durata di una qualsiasi computazione affidabile; dopo di che la corruzione degli stati del sistema, dovuta alle fluttuazioni quantistiche indotte dall’ambiente, genera errori. È da notare che questo avverrebbe anche a temperatura nulla e non ha a che fare con il rumore termico che, comunque, qualora fosse presente, peggiorerebbe ulteriormente il quadro complessivo.

Decoerenza e correzione quantistica degli errori

Codici quantistici di correzione degli errori. Uno dei metodi possibili per superare le difficoltà sopra descritte, connesse alla decoerenza, è – in analogia a quanto si fa nella computazione classica – di fare ricorso alla ridondanza nel codificare l’informazione, per mezzo dei cosiddetti codici di correzione degli errori. In questi schemi l’informazione viene codificata in particolari sottospazi C (codici) dello spazio degli stati del sistema, in modo tale che gli errori indotti dall’interazione con l’ambiente, se essi appartengono a una ben precisa classe di errori – che il codice sa rivelare – vengano appunto rivelati e corretti. Un punto importante e delicato è il fatto che la rivelazione degli errori deve avvenire senza acquisire alcuna informazione sullo stato del sistema prima dell’errore, perché questo indurrebbe ulteriore decoerenza.

Il metodo dei codici di correzione degli errori può essere pensato come una specie di stabilizzazione attiva dello stato quantistico, ottenuta effettuando operazioni condizionali sul sistema, tramite le quali, a seguito del monitoraggio degli errori, si riesce a prevenire ogni perdita di informazione dannosa per la computazione che si sta eseguendo. Per fare un esempio, il sistema fisico più elementare in un contesto di informazione quantistica è quello che sostiene un qubit e il circuito più semplice è un registro che contenga N qubit: applicare quantisticamente metodi basati su codici di correzione degli errori analoghi a quelli classici consiste nel pensare ognuno degli N qubit come accoppiato a un ambiente differente.

Stati quantistici che evitano gli errori. Un’alternativa al metodo dei codici di correzione degli errori consiste, facendo riferimento all’ultimo esempio proposto, nel realizzare situazioni fisiche nelle quali i qubit che costituiscono il sistema in cui è codificata l’informazione ‘vedano’ tutti un medesimo ambiente, vale a dire siano accoppiati allo stesso bagno termico. In presenza di un tale tipo di rumore ambientale coerente diventa possibile, grazie alla simmetria che deriva da tale configurazione, individuare stati i quali anziché essere correggibili, risultano difficilmente corruttibili, e costituiscono, quindi, un sistema ℰ di stati che evitano l’errore.

Questo approccio è, in altre parole, un metodo di stabilizzazione dell’informazione quantistica passivo (cioè intrinseco) anziché attivo, ed è in questo senso complementare a quello dei codici di correzione degli errori. È molto interessante osservare che è stato dimostrato rigorosamente come sia possibile realizzare computazione universale nello schema olonomico in modo tale che – preparato il sistema in uno stato iniziale appartenente all’insieme degli stati che evitano l’errore – l’intero percorso del calcolo, cioè l’intera collezione degli stati attraverso cui il sistema transita nel corso della esecuzione del calcolo, stia nel sottospazio ℰ.

Tolleranza alle imperfezioni. La computazione tollerante alle imperfezioni è un insieme di operazioni di manipolazione dell’informazione, sia classica sia quantistica, che permette di intervenire sull’ampia classe di errori che non cambiano lo stato fisico del sistema in cui sono codificati, ma sono tuttavia correggibili. Gli errori che appartengono a questa classe sono detti sindrome d’errore; l’azione di correzione dipende naturalmente dalla sindrome ottenuta. Quantisticamente, per estrarre una sindrome si deve effettuare una misurazione di tutte le variabili rappresentate da un insieme di operatori di errore, mutuamente commutanti, che lasciano invarianti le ‘parole’ di base del codice adottato, detto stabilizzatore. La computazione tollerante alle imperfezioni mira a manipolare l’informazione in modo affidabile, anche quando ogni sua operazione elementare è affetta da errore. Essa consiste nell’utilizzare ripetutamente la correzione di errore quantistica, ma con una procedura di estrazione della sindrome costruita con cura, in modo tale che essa corregga più errori di quanti ne introduca. Il campo di ricerca, ancora in gran parte inesplorato, è stato iniziato da Shor.

Bibliografia

Introduction to quantum computation and information, ed. H.-K. Lo, S. Popescu, T. Spiller, Singapore-River Edge (N.J.) 1998.

Quantum computing and communications, ed. M. Brooks, London-New York 1999.

J. Brown, Minds, machines, and the multiverse, New York 2000 (trad. it. Torino 2003).

M.A. Nielsen, I.L. Chuang, Quantum computation and quantum information, Cambridge-New York 2000.

S. Lloyd, Programming the universe, London-New York 2006 (trad. it. Torino 2006).