Luca Tomassini imprenditore
Parto dall’ABC, senza giri di parole. Un computer quantistico non lavora con i bit tradizionali (0 o 1), ma con qubit che possono essere 0 e 1 nello stesso momento. È come osservare una moneta che ruota: finché gira è sia testa sia croce; quando la “misuri” si ferma su un esito. In più, i qubit possono “legarsi” tra loro in modo profondo: toccando uno, influenzi anche l’altro. Con questi due ingredienti, certe ricerche possono esplorare molte strade in parallelo. Il rovescio della medaglia è che tutto questo è delicato: rumore, vibrazioni, sbalzi minimi possono far perdere il vantaggio.
L’idea chiave è qui: se impari a domare la fragilità, su alcuni problemi il salto di qualità è reale.
Negli ultimi anni ho visto la tecnologia spostarsi dalla curiosità da laboratorio a qualcosa che somiglia a una linea produttiva. Non parliamo di una scatola pronta da scaffale, ma di macchine accessibili via cloud che condividono sempre più componenti e metodi replicabili. Le strade tecniche sono diverse—chi usa atomi, chi fotoni, chi semiconduttori—ma l’obiettivo è comune: più “qubit utili” e meno errori. Tradotto: meno dimostrazioni isolate, più blocchi riusabili su cui costruire.
La parte interessante arriva quando smettiamo di pensare ai qubit come a un sostituto del computer classico e iniziamo a considerarli un collega specializzato. Il flusso di lavoro vincente oggi è ibrido: al classico affidi ciò che sa fare benissimo (gestire dati, addestrare modelli, ottimizzare), al quantistico chiedi di esplorare, affinare, spingere in avanti i casi in cui la combinazione di possibilità parallele fa la differenza. Penso a laboratori che progettano nuove molecole: invece di provare e riprovare all’infinito, si restringe il campo con metodi tradizionali, poi si usa il “tocco” quantistico per analisi più fini di alcuni candidati e si torna al classico per decidere. Meno romanticismo, più ciclo rapido di ipotesi–test–decisione.
La stessa idea funziona nelle decisioni che esplodono in combinazioni (rotte, turni, finanza, ecc...). Qui il quantistico non fa magia, ma aiuta a “stringere” lo spazio delle scelte, a trovare buone soluzioni con meno tentativi, specialmente quando il problema ha una struttura ricorrente. È la differenza tra cercare un ago nel pagliaio alla cieca o con una calamita che, pur imperfetta, ti porta più vicino.
C’è poi l’intreccio con l’intelligenza artificiale, che è il vero moltiplicatore. Da un lato, il quantistico offre nuovi mattoncini per l’AI: modi diversi di rappresentare e confrontare i dati che, in certi casi, possono sbloccare schemi difficili da vedere. Dall’altro lato, è l’AI che aiuta il quantistico a crescere: modelli che stabilizzano gli esperimenti, scelgono i parametri migliori, riducono tempi e sprechi. È una doppia elica: non si sostituiscono, si allenano a vicenda.
Se alziamo lo sguardo, le aree dove questo duetto promette impatto sono piuttosto chiare. La prima è la chimica dei materiali e del farmaco: scovare più in fretta molecole interessanti, valutare proprietà con meno prove al banco, concentrare il budget sulle piste che contano. La seconda è l’ottimizzazione industriale: pianificazioni più robuste, energia distribuita con meno sprechi, logistica che regge meglio gli imprevisti. La terza è la ricerca guidata dai dati: usare l’AI per generare ipotesi e il quantistico per testarne alcune in profondità, accorciando il percorso tra intuizione e risultato. In tutte e tre, il filo rosso è lo stesso: misurare. Non slogan, non slide: tempi, costi, qualità della soluzione.
A chi mi chiede “ma quando diventerà davvero utile?”, rispondo così: lo è già, se lo tratti come un acceleratore mirato e non come un rimpiazzo universale. Oggi i progetti che funzionano hanno due tratti comuni. Primo: partono da un problema concreto con un obiettivo semplice (“ridurre i tempi del x%”, “migliorare la resa del y%”). Secondo: accettano la natura ibrida del presente. Usano il meglio del classico senza complessi e chiamano il quantistico quando il problema lo merita. È una disciplina più che una scommessa.
Serve anche realismo. I computer quantistici rimangono fragili, e costruire macchine grandi e affidabili è difficile. Ma i tasselli giusti—sensori migliori, controllo più fine, architetture più modulari—stanno andando al loro posto. Lo vedo nelle collaborazioni tra chi costruisce hardware, chi sviluppa software e chi porta i dati reali. Meno “one shot”, più filiere che imparano insieme. È la fase in cui la tecnologia smette di fare notizia per i record e inizia a fare la differenza per i processi.
Tento di fare una semplice previsione. Tra oggi e il 2028–2030 vedremo un uso sempre più ibrido: AI al centro, classico come spina dorsale, quantistico come acceleratore in cluster specifici. I risultati? Concreti ma non miracolosi: mesi risparmiati nella ricerca di nuove molecole, piani industriali più “elastici”, qualche modello di AI che decide, in automatico, quando chiamare una routine quantistica perché conviene. Nella finestra 2030–2035—quando l’hardware sarà più stabile e scalabile—arriverà la prima ondata di vantaggi specifici su segmenti ben scelti. Non un “prima e dopo”, ma una curva che flette a favore di chi ha iniziato per tempo: chi ha misurato, integrato, imparato e trasformato la frontiera in mestiere.
E lì, l’incontro tra qubit e cervello non sarà più una promessa: sarà una nuova normalità operativa.