Premessa
Negli ultimi tempi si parla sempre più spesso di computer quantistici: articoli, conferenze, annunci delle grandi aziende tecnologiche. Eppure, per chi non vive quotidianamente questo ambito, orientarsi tra termini come qubit, sovrapposizione o entanglement può risultare complesso, se non addirittura scoraggiante.
È proprio da questa constatazione che nasce il contributo che vi proponiamo.
L’intento è quello di offrire una guida chiara, progressiva e concreta a un tema che, pur essendo tecnicamente avanzato, è destinato ad avere un impatto sempre più rilevante anche sul mondo delle imprese, della sicurezza informatica e dell’innovazione tecnologica.
Siamo infatti all’inizio di quella che molti definiscono la “seconda rivoluzione quantistica”: una trasformazione che, nel tempo, potrebbe ridefinire il modo in cui elaboriamo le informazioni, proteggiamo i dati e affrontiamo problemi computazionali oggi considerati irrisolubili su larga scala.
Proprio per la complessità e la vastità dell’argomento, questo contenuto non sarà concentrato in un unico articolo, ma verrà sviluppato in più “puntate”; ogni parte approfondirà un aspetto specifico, costruendo passo dopo passo un quadro completo: dai principi di base fino alle applicazioni concrete e alle implicazioni strategiche.
L’idea è accompagnare il lettore in un percorso di comprensione graduale, fornendo strumenti utili per interpretare un fenomeno che non riguarda più solo la ricerca, ma che si avvicina sempre più al mondo reale.
Perché capire oggi cosa sono i computer quantistici non significa solo restare aggiornati: significa iniziare a leggere in anticipo i segnali di cambiamento di una tecnologia che, nel medio periodo, potrebbe ridefinire interi settori.
La firma del pezzo è al tempo stesso una persona alla mano quanto estremamente ferrata: Cristiano Iera, CEO di SWEN srl e di Intersystem srl
La Seconda Rivoluzione Quantistica
Il 14 aprile il mondo ha celebrato la Giornata Mondiale della Fisica Quantistica, istituita non solo per onorare le scoperte teoriche di giganti come Planck ed Einstein, ma anche per tracciare di anno in anno i confini di una nuova era tecnologica alla cui nascita stiamo assistendo.
Nel recente passato, la “prima rivoluzione quantistica” ha gettato le basi teoriche per realizzare il transistor e il laser, che hanno pesantemente segnato il progresso tecnologico, di fatto plasmando la nostra civiltà del XX secolo.
Oggi ci stiamo immergendo in quella che è stata già chiamata la “seconda rivoluzione quantistica”. La principale differenza fra queste due ere è che nella prima rivoluzione quantistica la ricerca scientifica e tecnologica ha investigato principalmente su fenomeni fisici che interessano aggregazioni macroscopiche di atomi, mentre il focus della ricerca attuale è sulla manipolazione di singole particelle anche subatomiche per calcolare, comunicare e proteggere i dati con modalità che fino a ieri apparivano relegate al dominio della fantascienza.
Qubit, Sovrapposizione ed Entanglement
In un sistema di calcolo classico, basato su una logica binaria, l’elemento di base per la rappresentazione di una informazione è il bit: una entità che può avere solo due valori: 0 o 1 (oppure, in logica proposizionale: vero o falso). Il valore del bit è una quantità deterministica; dipende esclusivamente dallo stato di un circuito (ad es. presenza o assenza di tensione su un nodo di un circuito), determinato con certezza matematica.
In un sistema di calcolo quantistico l’entità base per la rappresentazione di una informazione è Il qubit (quantum bit), che, nel suo stato fondamentale (detto di “sovrapposizione”), non ha un valore definito (come un bit che può valere deterministicamente 1 o 0), ma ha un valore ignoto, incerto, come se fosse una immagine molto sfocata in cui uno “0” non si può distinguere da un “1”. Questo stato è caratterizzato da una funzione d’onda probabilistica che definisce il qubit attraverso due grandezze (generalmente indicate come “alfa” e “beta”) che rappresentano le cosiddette “ampiezze di probabilità” del qubit di essere in uno stato 1 e di essere in uno stato 0. Non si tratta di semplici “probabilità” come quelle che siamo abituati a considerare nel mondo fisico macroscopico, ma si parla di “ampiezza di probabilità” che in meccanica quantistica non sono semplici numeri scalari, ma grandezze vettoriali, caratterizzato da un modulo (unitario) e un angolo di fase (per i più “matematici”: si tratta di una rappresentazione in uno spazio di Hilbert). Questo modello serve a rappresentare i qubit in modo conforme alla loro fisicità: sono infatti assimilabili a un fenomeno di natura ondulatoria e tale rappresentazione è essenziale per descrivere i fenomeni fisici (interferenza costruttiva e distruttiva) dai quali un qubit è influenzato. Sono proprio questi fenomeni che rendono possibile il calcolo quantistico, infatti la manipolazione delle informazioni sulla fase dell’ampiezza di probabilità rendono possibili operazioni complesse come le trasformazioni di Fourier quantistiche che rendono efficienti algoritmi la cui esecuzione su sistemi in logica binaria sarebbe enormemente gravosa.

Questa rappresentazione viene spesso enunciata come principio di sovrapposizione, secondo il quale, come già spiegato, un qubit può assumere qualunque valore tra 0 e 1 descritto dalla combinazione lineare delle sue ampiezze di probabilità, ma solo fino al momento in cui non venga fisicamente letto (misurato): la misurazione fisica, determinando un valore certo, causa il decadimento delle ampiezze di probabilità del qubit (collasso della funzione d’onda del qubit) nel valore scalare e binario che al momento della lettura ha il modulo di probabilità più alto. La lettura implica il venir meno delle caratteristiche del qubit che quindi dopo la lettura viene logicamente distrutto e non è più utilizzabile per successive elaborazioni.
Con queste premesse, l’elaborazione vera e propria operata da un computer quantistico non serve a “calcolare” un valore analogico, ma a impostare gli stati quantistici in modo che interferiscano tra loro.
Gli algoritmi implementati in un computer quantistico manipolano quindi le ampiezze di probabilità per far sì che, attraverso rotazioni dello stato quantistico (rotazioni del vettore delle ampiezze di probabilità), la probabilità di ottenere la risposta corretta aumenti (ossia si “orienti” verso il valore giusto) al momento della misurazione.
Il computer quantistico ha quindi lo scopo di eseguire operazioni sulla “scatola nera” (i qubit) in modo che sia più probabile produrre la risposta corretta piuttosto che quella sbagliata alla fine del processo. Questo procedimento nelle realizzazioni fisiche dei computer attuali è soggetto a “rumore”, ossia ad errori che, soprattutto in caso di molteplici passaggi elaborativi in sequenza, possono sommarsi a ogni passaggio e rendere il risultato letto al termine del processo poco affidabile. Questo introduce il concetto di coerenza quantistica, inteso come limite accettabile di errore introdotto dalle elaborazioni.
È importante notare che le operazioni compiute su un qubit (manipolazione dei vettori di ampiezze di probabilità) avvengono sulle ampiezze di probabilità, ma l’effetto fisico risultante è che tali elaborazioni coinvolgono simultaneamente tutti i componenti della sovrapposizione (la funzione d’onda) non a partire da un valore fisso, ma per tutte le determinazioni probabilistiche complesse della funzione d’onda associata al qubit. Da qui discende il concetto di “parallelismo quantistico”: se un qubit è la sovrapposizione di tutti i suoi possibili stati, una operazione su un qubit elabora tutti i suoi possibili stati contemporaneamente. Ciò significa che mentre un computer classico può lavorare su un solo thread computazionale alla volta, un computer quantistico con n qubit può idealmente realizzare 2n operazioni simultaneamente.
A tutto ciò si aggiunge l’entanglement (o “correlazione quantistica”): un fenomeno per cui due particelle diventano così strettamente connesse che lo stato dell’una determina istantaneamente quello dell’altra, anche se separate da distanze enormi. Insieme, questi principi permettono a un computer quantistico con n qubit di elaborare operazioni simultaneamente, garantendo una capacità di calcolo che cresce in modo esponenziale anziché lineare.