Veniamo da qui I COMPUTER QUANTISTICI
Riprendo il post iniziale perché spiega bene perché ho deciso di puntare un faro su questi prodotti
13/12/24 Barron’s: Pensate che l’intelligenza artificiale sia sconcertante? Ecco come fingere di capire l’informatica quantistica.
Che settimana imbarazzante per essere un supercomputer. Si tratta di macchine che collegano molti processori per lavorare su lavori complicati, come modellare il tempo o evocare un’emoji con un koala con cappello a cilindro. Andare veloci è un po’ tutta la loro cosa. Ma una società di software ha appena schiacciato l’intero settore. Google ha dichiarato di avere un nuovo chip di “calcolo quantistico” chiamato Willow. Ciò può eseguire un calcolo in meno di cinque minuti che richiederebbe ai supercomputer più veloci di oggi più tempo dell’età dell’universo.
“I nostri qubit logici ora operano al di sotto della soglia critica di correzione dell’errore quantistico”, ha spiegato uno scienziato dell’azienda in giacca a vento e scarpe da ginnastica che sono abbastanza sicuro possa piegare il metallo con la sua mente. Si tratta di uno sviluppo significativo in termini di progressione geometrica concatenata dell’equità, il che significa che qualunque cosa stesse parlando ha fatto salire le azioni della casa madre Alphabet di oltre il 5% sia martedì che mercoledì.
Il mio primo pensiero è stato se Il potenziale positivo dell’informatica quantistica In campi come la scoperta di farmaci supererà i suoi pericoli nella violazione dei codici e nella guerra informatica. Ma il mio primo pensiero è stato se esiste un fondo negoziato in borsa. Si scopre che L’ETF Defiance Quantum (ticker: QTUM) è aumentato del 38% quest’anno, rispetto al 29% del Global X Artificial Intelligence & Technology ETF (AIQ), il che significa che l’informatica quantistica è improvvisamente ancora più calda dell’intelligenza artificiale.
Che cos’è, direte voi? L’informatica quantistica e l’intelligenza artificiale non sono alternative, ma piuttosto complementari, e suggerire il contrario solleva dubbi sulla mia buona fede nell’informatica quantistica. Smettila di cercare di far saltare la mia copertura. L’informatica quantistica sta già spuntando nelle conversazioni più fresche negli uffici ordinari, il che significa che è necessario capirla in fretta: solo io ci ho provato, e la roba è impenetrabile. Ciò di cui hai davvero bisogno è una guida per fingere di comprendere l’informatica quantistica. E lì penso di poter aiutare.
Il primo passo è spiegare agli spettatori senza dubbio impressionati che l’informatica classica si basa sui bit, che sono memorizzati in due possibili stati, 0 o 1. “Ecco perché li chiamiamo bit”, assicurati di dire. “È un portmanteau per le cifre binarie”. Fermatevi qui per annuire ammirati.
Successivamente, spiega che l’informatica quantistica si basa su quelli che vengono chiamati qubit. “Questo è con una q”, chiarisci, altrimenti i tuoi colleghi immagineranno i cubiti e l’Arca di Noè: stiamo andando in una direzione completamente diversa. Un qubit è un’unità di misura basata su quella che viene chiamata sovrapposizione di più stati possibili. È difficile capirlo, perché deriva dalla meccanica quantistica, o da come si comportano le particelle subatomiche, che è totalmente diverso da come si comportano gli oggetti che ci circondano.
Nella meccanica quantistica, le particelle possono trovarsi in due stati contemporaneamente fino a quando non vengono osservate. C’era un austriaco esasperato di nome Schrödinger che cercava di spiegare questo ai normali in termini di un gatto immaginario intrappolato in una scatola con un materiale radioattivo instabile che può o non può decadere, innescando un contatore Geiger, che rilascia veleno, in modo tale che non si è sicuri che il gatto sia morto finché non si apre la scatola, O, come vorrebbe la meccanica quantistica, che il gatto sia sia vivo che morto, in una sovrapposizione di entrambi, con una certa probabilità di ciascuno. Per me, questo solleva solo altre domande, incluso se Schrödinger avesse animali domestici.
È meglio saltare la sovrapposizione quando si spiega l’informatica quantistica, ma ricordare il termine, insieme a entanglement, decoerenza e interferenza. Se i tuoi colleghi intervengono con uno di questi, significa che ne sanno più di te. Fingi immediatamente un attacco di starnuti e lascia la conversazione.
Il risultato è che i computer classici, basati su bit, sono deterministici, risolvono i problemi provando le soluzioni una per una, in sequenza, il che significa che possono incepparsi come la fila di persone in coda durante le vacanze di Natale pe entrare a Disney World. Ma i computer quantistici sono probabilistici e massicciamente paralleli, il che si potrebbe dire che rende il loro modo di pensare più umano, tranne che per la parte in cui si corre su una palla di grasso rugoso in un teschio.
Non dare al tuo pubblico più di quanto possa gestire. Concludi spiegando che, poiché il comportamento subatomico costituisce il fondamento dell’universo, tutti i sistemi sono effettivamente costruiti su sistemi quantistici, compresi i computer tradizionali, solo che non usano ancora le proprietà quantistiche nei loro calcoli. Mentre dici questo, guarda distante verso l’alto per apparire più perspicace. Sicuramente non dire che l’hai preso da un blog IBM: uccide l’umore.
Un approccio di investimento qui è, a quanto pare, quello di acquistare qualsiasi cosa contenga la parola quantistica. Quantum Computing QUBT è aumentato del 584% da inizio anno; D-Wave Quantum del 344%; e Quantum Corp. del 154%. Ma questa strategia rischia di perdere giocatori popolari con nomi svantaggiati. Rigetti Computing è aumentato del 547% quest’anno e IonQ del 148%. Per quanto riguarda il punto in cui ci troviamo nel ciclo, sembra che ci siano almeno cinque anni troppo presto per i flussi di cassa liberi, e circa cinque settimane troppo tardi per i facili guadagni azionari, ma chi lo sa?
La svolta di Google con Willow, tra l’altro, è quella di ridurre esponenzialmente gli errori man mano che il sistema si espande, il che è l’opposto di ciò che accade in genere. Gli usi commerciali potrebbero essere lontani anni, ma l’innovazione quantistica sta già costruendo un fossato tecnologico significativo per Alphabet, che non si riflette nella valutazione del titolo, secondo l’analista di BofA Securities Justin Post.
Tra 5-10 anni, il calcolo più impegnativo potrebbe già essere fatto su macchine quantistiche, ha previsto D.A. Davidson all’inizio dell’anno. Ciò potrebbe rendere Nvidia “vulnerabile”, ha scritto l’azienda. Ma il titolo è aumentato del 179% quest’anno. Gli informatici affermano che è probabile che i sistemi quantistici vengano utilizzati solo per alcuni lavori, in un accordo ibrido con i computer tradizionali. Nvidia ha annunciato partnership che utilizzano i suoi chip per fare scoperte quantistiche.
Non riesco ancora a capire se il gatto di Schrödinger sia ancora vivo, ma non sarei sorpreso se Nvidia ne facesse una strage.
Scrivi a Jack Hough a jack.hough@barrons.com
14/12/24 Barron’s: L’informatica quantistica è molto indietro rispetto all’IA, ma entrambi stanno alimentando le azioni tecnologiche
Se siamo solo nei primi inning dell’intelligenza artificiale, l’informatica quantistica non ha ancora nemmeno lasciato la gabbia di battuta. Eppure ha già eliminato un fuoricampo per le azioni tecnologiche.
Lunedì, Google ParentAlphabet ha annunciato il suo nuovo chip di calcolo quantistico Willow: Il chip è abbastanza potente da fare in pochi minuti ciò che ci vorrebbe che i supercomputer principali 10 settrilioni di anni per completare, secondo l’azienda, una svolta che potrebbe portare le applicazioni pratiche più vicine alla realtà. Le azioni di Google sono aumentate di quasi il 10% questa settimana sulle notizie.
L’annuncio arriva poche settimane dopo che Amazon.com ha lanciato Quantum Embark , un nuovo programma di consulenza per i clienti. Anche le azioni di Amazon sono aumentate di circa il 15% da allora.
L’informatica quantistica sfrutta i principi della meccanica quantistica per risolvere problemi complessi molto più rapidamente dei computer tradizionali. Questo perché i bit quantici (qubit) possono esistere in più stati contemporaneamente: l'”azione spettrale a distanza” che rese Albert Einstein scettico sulla teoria quantistica, anche se successivamente si è dimostrata corretta. La tecnologia è stata sui radar di ricercatori e investitori per un po’ di tempo. Nel 2017, il Massachusetts Institute of Technology ha nominato il calcolo quantistico. una tecnologia di rottura.
Tuttavia i recenti progressi hanno portato a un aumento dell’interesse: l’ETF Defiance Quantum è aumentato di quasi il 15% solo nell’ultimo mese, anche se la rivoluzione quantistica probabilmente ci vorrà molto tempo per svolgersi, come ha sostenuto Barron nella sua recente storia di copertinadi copertina sull’argomento.
Il fondatore e presidente di Sevens Report, Tom Essaye, osserva allo stesso modo che l’informatica quantistica è tutt’altro che commercialmente praticabile, anche dietro l’IA, che è agli inizi.
“Ma l’esplosione di Nvidia e altre tecnologie collegate all’IA hanno, come alla fine degli anni ’90, fatto salivare gli investitori su qualsiasi tecnologia che potrebbe essere “prossima” e i titoli di calcolo quantistico di Amazon e Google hanno dato una certa validità a un argomento che, in precedenza, era quasi esclusivamente una discussione a piccole capitalizzazione”.
Infatti, come ha osservato Barron, il nuovo raccolto di piccole società pubbliche dedicate all’informatica quantistica, tra cui Rigetti Comoputing ,D-Wave Quantum , e IonQ -sarà sfidato a generare entrate significative per gli anni a venire.
Eppure, come mostrano i recenti annunci, Big Tech è certamente desiderosa di lasciare il segno anche sulla nuova tecnologia. “Realisticamente, l’entusiasmo per l’informatica quantistica non spingerà le azioni tecnologiche materialmente più in alto da qui”, scrive Essaye. “Ma la recente mossa sottolinea l’attuale slancio che il settore tecnologico ha alle spalle”.
In effetti, le magnifiche sette azioni Big Tech— Apple , Alphabet, Amazon, Nvidia, Meta , Microsoft , e Tesla —hanno avuto un’altra grande settimana la scorsa settimana, colmando quello che è stato un anno fantastico. I sette magnifici di Roundhill L’ETF è in aumento di quasi il 75% dall’inizio del 2024.
Quello slancio è stato costruito sull’idea di un’innovazione quasi costante; anche i più grandi attori devono dimostrare che stanno rivoluzionando inesorabilmente. Come ha detto l’analista di Bank of America Justin Post all’inizio di questa settimana “I progressi con Willow, che illustrano che Alphabet rimane all’avanguardia nell’innovazione tecnologica, sono importanti per il sentimento azionario”.
Alla fine, questo potrebbe essere il punto cruciale del problema. L’informatica quantistica è molto indietro rispetto all’IA, una tecnologia che di per sé si profila molto più grande nell’immaginazione popolare rispetto al suo impatto (per ora). Tuttavia, finché le aziende tecnologiche dimostreranno di caricare per sempre verso innovazioni che a un certo punto saranno veramente rivoluzionarie, gli investitori saranno felici per gli aggiornamenti incrementali. La destinazione potrebbe essere all’orizzonte, ma gli investitori saranno felici finché l’acceleratore sarà premuto a tavoletta.
12/12/24 Sole 24 Ore: Google e computer quantistico
11/12/24 Citron Reseach stronca Rigetti
11/12/24 MarketWatch: Le azioni di calcolo quantistico stanno salendo mentre gli investitori scommettono sulla “The next Big Thing” nella tecnologia
Le azioni di tre piccole società hanno visto enormi guadagni negli ultimi mesi
Un trio di azioni di calcolo quantistico ha visto enormi guadagni negli ultimi mesi, rafforzati da un’ondata di clamore da parte degli investitori al dettaglio che cercano di incassare quella che potrebbe essere la “prossima grande cosa” nella tecnologia.
Azioni di Rigetti Computing Inc. RGTI D-Wave Quantum Inc. QBTS e IonQ Inc. IONQ
tutte le azioni a piccola capitalizzazione strettamente associate all’informatica quantistica – hanno guadagnato l’843%, il 455% e il 398% nei tre mesi fino alla chiusura di martedì, hanno mostrato i dati di FactSet.
L’ETF quantistico Defiance QTUM– che investe in una serie di aziende mature e in via di sviluppo coinvolte nell’informatica quantistica e nell’apprendimento automatico – ha guadagnato oltre il 30% nello stesso periodo.
Per gli azionisti di queste società, i guadagni ammontano solo a pochi miliardi di dollari di creazione di valore. Tuttavia, un ritmo costante di nuovi sviluppi, insieme alla loro forte performance sul mercato, sembra aver suscitato l’interesse degli investitori.
L’ultimo annuncio di movimento del mercato è arrivato poco prima della campana di chiusura di lunedì, quando Alphabet Inc. GOOG L’unità Google Quantum AI ha pubblicato ciò che alcuni esperti hanno caratterizzato come una potenziale svolta nel campo che potrebbe accelerare lo sviluppo di un prodotto commercialmente valido.
Le azioni di tutte e tre le società a piccola capitalizzazione sopra menzionate sono brevemente salite alle notizie martedì, anche se solo una – Rigetti – è riuscita ad aggrapparsi ai suoi guadagni quando ha suonato la campana di chiusura. Le azioni di IonQ e D-Wave Quantum hanno continuato a scivolare mercoledì.
Ma mettendo da parte queste ultime mosse, il loro recente scatto di guadagni rappresenta ancora una notevole inversione di tendenza da quando lo scoppio della bolla SPAC aveva battuto i loro azionisti con gravi perdite. Tutte e tre le società sono state rese pubbliche tramite fusioni con società di comodo durante il cosiddetto boom della SPAC, e D-Wave Quantum e Rigetti hanno continuato a quotare ben al di sotto dei loro picchi dal 2020 al 2021.
Nelle ultime due settimane, gli utenti hanno affollato post su Reddit e altre piattaforme di social media per condividere le loro speranze, domande e preoccupazioni su una tecnologia che alcuni ritengono potrebbe essere il prossimo grande sviluppo della tecnologia.
Per gli osservatori del mercato di lunga data, è solo l’ultimo esempio dell’affinità degli investitori al dettaglio per le scommesse tecnologiche speculative.
“Questo mercato ama un tema tecnologico sexy; sappiamo certamente che è il caso dell’IA”, ha detto Steve Sosnick, capo stratega di Interactive Brokers. “Non mi sorprenderebbe minimamente se le persone passassero all’informatica quantistica”.
Ma c’è un’importante distinzione tra calcolo quantistico e intelligenza artificiale che gli investitori dovrebbero tenere a mente. Anche se c’è la speranza che ci possano essere sinergie tra le due tecnologie, l’informatica quantistica è ancora lontana anni dalla produzione di un prodotto commercialmente praticabile.
Per ora, gli investitori sembrano spazzare via queste preoccupazioni, poiché queste azioni sono state spazzate via nell’attività di compravendita frenetica che ha sempre più dominato il mercato statunitense – una dinamica che sembra essersi spostata in overdrive dopo la vittoria del presidente eletto Donald Trump alle elezioni statunitensi del 5 novembre.
Data la loro attenzione su una tecnologia ancora non provata, queste aziende rimangono investimenti estremamente speculativi.
“È hype su hype”, ha detto Daniel O’Regan, amministratore delegato di Mizuho Securities USA, in risposta a una domanda su cosa sta spingendo queste aziende più in alto. “Non hanno davvero alcun reddito. Le persone che stanno gravitando verso alcuni dei giochi puri [di calcolo quantistua] stanno cercando di sognare il sogno. Stanno scommettendo che questa potrebbe essere la prossima, la prossima grande cosa.”
Alcuni altri fattori hanno contribuito al loro aumento fulmineo, secondo O’Regan, tra cui il fatto che le azioni di tutti e tre erano state fortemente vendute allo scoperto, lasciandole vulnerabili a una breve compressione.
IonQ, l’azienda più matura del gruppo, dovrebbe riportare vendite di soli 41,4 milioni di dollari durante l’anno solare 2024. Durante il breve periodo in cui queste società sono state quotate in borsa, nessuna ha prodotto un profitto trimestrale, secondo i dati di FactSet.
Inoltre, la loro ricerca di redditività commerciale affronta un altro ostacolo potenzialmente enorme: la concorrenza radicata da parte di aziende con molte più risorse. Alphabet e IBM Corp. hanno già investito molto nella propria tecnologia di calcolo quantistico.
Ma mentre altri nomi Big Tech si affrettano a prendere piede, una o più di queste tre società a piccola capitalizzazione potrebbero potenzialmente trovarsi l’obiettivo di un’offerta di acquisizione.
Per alcuni, questa potrebbe essere una ragione sufficiente per continuare ad arare il capitale nelle loro azioni.
Una svolta
A novembre, Amazon.com Inc.Il segmento Amazon Web Services ha presentato un nuovo servizio di consulenza incentrato sull’informatica quantistica.
Poi lunedì, Google ha pubblicato i risultati di una svolta che ha coinvolto il suo chip di calcolo quantistico, Willow, sulla rivista scientifica Nature. Il documento ha confermato che Willow aveva eseguito un calcolo che avrebbe richiesto un supercomputer classico di 10 settetlioni – cioè da 10 alla 25a potenza – anni per essere completato. Ha anche dimostrato un livello di controllo degli errori che Google ha affermato rappresentare una svolta verso la quale il campo ha lavorato per decenni.
Quando la campana di chiusura ha suonato martedì, Alphabet era seduto con un guadagno del 5,6%, aumentando la sua capitalizzazione di mercato di quasi 120 miliardi di dollari. Le azioni sono sate in aumento di un altro 4% nelle recenti negoziazioni di mercoledì.
Rigetti è anche riuscito ad aggrapparsi a un considerevole anticipo a due cifre dopo aver annunciato una svolta nel calcolo quantistico. Le azioni della società hanno chiuso in rialzo del 45% e hanno continuato a salire di un altro 16% mercoledì, recentemente scambiati a 7,55 dollari per azione, secondo i dati di FactSet.
Quelle mosse sono state grandi su base di punti percentuali. Ma per aiutare a mettere le cose in prospettiva, l’aumento della capitalizzazione di mercato di Google di martedì da solo ha fatto impallidire le dimensioni di tutte e tre le società a piccola capitalizzazione messe insieme.
Cos’è l’informatica quantistica?
L’informatica quantistica è stata studiata per circa tre decenni, secondo William Oliver, Henry Ellis Warren (1894) professore di ingegneria elettrica e informatica e professore di fisica al Massachusetts Institute of Technology.
Mira a sostituire i computer classici convenzionali nell’affrontare alcuni tipi di problemi complessi. Sebbene ci siano un paio di metodi diversi per mettere in pratica la tecnologia, il nuovo chip di Google utilizza materiali superconduttori e circuiti elettrici per creare qubit, l’unità logica fondamentale che alimenta questi processi quantistici.
In teoria, la potenza di calcolo di queste unità dovrebbe eclissare drammaticamente le loro controparti classiche. Lo sviluppo di farmaci e altri tipi di ricerca complicata sono stati citati come potenziali applicazioni.
Ma c’è un problema critico che gli ingegneri devono ancora districare: i qubit utilizzati per eseguire calcoli quantistici sono intrinsecamente instabili, costringendo gli ingegneri a impiegare algoritmi speciali per correggere gli errori che inevitabilmente si verificheranno.
Per anni, l’aggiunta di più qubit a un computer quantistico non sembrava avere un grande impatto sulla precisione di questi calcoli. Semmai, li ha resi meno affidabili.
Questo è ciò che ha reso l’ultima dimostrazione di Google così notevole. Il chip dell’azienda è riuscito a dimostrare che l’aggiunta di più qubit ha contribuito a rafforzare le sue capacità di correzione degli errori.
“È una dimostrazione molto importante. Siamo ancora in una fase molto precoce della tecnologia”, ha detto Oliver a MarketWatch martedì. “Hanno dimostrato che puoi prendere qubit difettosi, aggiungerne altri al sistema e il sistema migliora. Questo è esattamente ciò di cui abbiamo bisogno se abbiamo intenzione di commercializzare la tecnologia quantistica.”
Dall’annuncio di lunedì di Google, le persone hanno avuto molte domande sull’impatto a lungo termine dell’informatica quantistica. Una preoccupazione che è emersa ripetutamente su piattaforme come X: l’informatica quantistica potrebbe potenzialmente minacciare la crittografia che protegge le criptovalute come bitcoin?
Oliver ha detto che la risposta è sì, anche se tali capacità sono probabilmente ancora a 10 anni di distanza, se non di più. Tuttavia, ha detto che è imperativo che le criptovalute passino alla crittografia post-quantistica il prima possibile. Il National Institute of Standards and Technology ha già rilasciato i suoi standard di crittografia postquantistica, ha sottolineato.
10/12/24 HPC: Google debutta con il nuovo chip quantistico, la correzione degli errori e i dettagli della tabella di marcia
Google ha introdotto oggi il suo ultimo chip quantistico – Willow (~100 qubit) – in coincidenza con due risultati chiave eseguiti sul nuovo chip: rompere la cosiddetta soglia di correzione degli errori quantistici e pubblicare un nuovo punto di riferimento per le prestazioni quantistiche contro l’informatica classica; Willow ha eseguito un compito di riferimento in cinque minuti che Google ha detto che avrebbe richiesto dieci sette trilioni di anni (1024) su Frontier, che fino a poche settimane fa era il supercomputer più veloce del mondo.
È raro catturare Google in uno stato d’animo loquace, ma il gigante della tecnologia ha tenuto un briefing mediatico/analista prima dell’annuncio di oggi con una manciata di membri di spicco del team di Google Quantum-AI tra cui Hartmut Neven, fondatore e leader; Michael Newman, ricercatore; Julian Kelly, direttore dell’hardware quantistico; e Carina Chou, direttore e COO. Attualmente, il team di Google Quantum-AI ha circa 300 persone con, piani di crescita e una propria struttura di fabbricazione all’avanguardia presso UCSB.
Questo è un momento importante per lo sforzo quantistico di Google:
- Rompere la soglia QEC (il tasso di errore diminuisce all’aumentare del numero di qubit) è un obiettivo a lungo ricercato nella comunità e fondamentalmente dimostra che sarà possibile costruire grandi computer quantistici utili corretti per errori.
- L’azienda ha anche esaminato la sua tabella di marcia, discutendo gli obiettivi tecnici (anche se non in grande granularità) e le pietre miliari aziendali. Mentre l’obiettivo principale è il raggiungimento della tolleranza ai guasti del controllo qualità corretto per gli errori verso la fine del decennio, sta anche esaminando applicazioni a breve termine.
- Ha anche discusso i suoi ampi piani aziendali quantistici che includono tutto, dalla creazione dei propri chip e la costruzione del proprio sistema all’offerta di servizi quantistici tramite il cloud (naturalmente), ma anche piani per potenziali implementazioni on-premise.
Segnolendo il lavoro QEC, Neven ha detto: “Qualcosa che è successo con il risultato di Willow e mostrando che mentre siamo passati dalla distanza di codice tre a cinque a sette, e poi dimezzando il tasso di errore ogni volta, in sostanza mostrando la riduzione esponenziale del tasso di errore, sento che l’intera comunità tira un sospiro di sollievo perché dimostra che la correzione degli errori quantistici può davvero funzionare nella pratica”.
“Ora hai l’elemento costitutivo in mano, quasi pronto per scalare fino alle grandi macchine e tutte le mappe stradali sono state pubblicate nel 2020. Una cosa da notare è che lo stiamo praticamente monitorando così come l’avevamo esposto. La grande macchina milestone sei apparirà da qualche parte verso la fine del decennio”, ha detto.
Willow Snapshot – Costruito per la scalabilità
Direttore dell’hardware quantistico, Kelly ha detto: “Se hai familiarità con Sycamore [il precedente QPU di Google), puoi pensare a Willow come fondamentalmente a tutte le cose buone di Sycamore, solo ora con qubit migliori e più di loro. Crediamo che questo sia il miglior computer quantistico che sia stato costruito finora. L’architettura sembra una griglia quadrata di qubit transmon superconduttori con qubit e accoppiatori sintonizzabili. Ci sono 105 qubit in questa griglia e la connettività media è di circa tre e mezzo, mentre in genere la connettività a quattro vie all’interno del dispositivo.
“Sul fronte delle prestazioni, cosa importante, siamo stati in grado di aumentare i nostri tempi di coerenza qubit, il valore t1, di un fattore cinque, da 20 fino a 100 microsecondi. E questo è davvero importante da capire, perché la generazione precedente di chip, Sycamore, abbiamo fatto tutte queste cose incredibili, ma stavamo spingendo contro questo tetto di prestazioni superiori impostato dai tempi di coerenza. L’abbiamo spinto drasticamente e ci abbiamo dato molto spazio per respirare, e vediamo che immediatamente da ciò, i nostri tassi di errore sono diminuiti di circa un fattore di due dai nostri dispositivi Sycamore e questi chip sono adatti in modo univoco per la correzione degli errori, quindi il ridimensionamento e le applicazioni utili”.
Google ha detto poco su come si sarebbe scalato a sistemi molto grandi.
Alla domanda in Q&A sulla tecnologia di rete, Kelly ha detto: “Quello su cui ci stiamo concentrando, è davvero migliorare prima la qualità del qubit e poi creare chip monolitici più grandi, che collegheremo insieme più tardi, al contrario di potresti, ad esempio, prendere le dimensioni dei chip di oggi e poi provare a collegarli in questo momento. Pensiamo che il nostro approccio sia vantaggioso perché ti consente di avere più qubit logici per chip. E ci sono alcuni vantaggi nella correzione degli errori come giocano i costi per questo. Quindi il nostro obiettivo attuale è fondamentalmente rendere i qubit davvero buoni e rendere i chip più grandi per essere in grado di ospitare molti qubit fisici e alla fine più qubit logici, quindi collegarli insieme in seguito. Quindi siamo molto interessati a questo (networking), ma non stiamo condividendo nulla al riguardo oggi”.
Supremazia quantistica con qualsiasi altro nome
Potresti ricordare il ronzio intorno all’affermazione di Google di raggiungere la supremazia quantistica – la capacità di un computer quantistico di svolgere un compito al di là della capacità realistica di un sistema classico – nel 2019 (vedi copertura HPCwire). IBM e altri hanno avuto qualche problema con l’affermazione. Neven si è preso un momento per rivedere il litigio.
“Se seguissi l’informatica quantistica, il lavoro del nostro team in particolare, hai visto che nel 2019 abbiamo fatto un po’ di storia dell’informatica mostrando per la prima volta che c’era il calcolo, [che] ha richiesto alcuni minuti sul chip quantistico Sycamore di Google, e l’allora supercomputer più veloce (Summit, ORNL), utilizzando il miglior software classico, avrebbe impiegato 10.000 anni per eseguire quel benchmark. Ma il modo in cui chiamiamo questo campionamento a circuito casuale di riferimento (RCS), e ora è ampiamente utilizzato sul campo ed è diventato un po’ uno standard “, ha detto Neven.
“Quando abbiamo pubblicato questo risultato nel 2019 un po’ di una dinamica di squadra rossa-blu tra l’informatica classica e quantistica, ne è seguita, e la gente diceva, oh, invece di usare un’enorme quantità di tempo, avresti potuto usare un’enorme quantità di memoria, o, ehi, avresti potuto usare il mio ultimo algoritmo preferito per la simulazione quantistica. Mentre queste affermazioni in linea di principio erano corrette, ci sono voluti in pratica molti anni per ridurre il tempo di 10.000 anni. Ma nel frattempo, i nostri processori migliorano, e se continui a eseguire il campionamento casuale del circuito sull’ultimo e più grande chip, il che significa che puoi usare più qubit ora e più operazioni di gate, allora il tempo per simulare questo o eseguire lo stesso calcolo su una macchina classica, spara a un doppio tasso esponenziale, che è davvero una traiettoria veloce strabiliante. Ed è per questo che siamo passati da 10.000 anni nel 2019 ad oggi, 10 settemilioni di anni nel 2024”, ha detto.
Google e IBM lavorano entrambi con qubit superconduttori e la loro serma senza dubbio serve a far avanzare quella tecnologia per tutti.
Rompere la soglia QEC
Dimostrare la capacità di rompere la soglia QEC è stata davvero la più grande notizia della giornata. Farlo ha richiesto molti progressi nel chip stesso mentre Google progrediva dalla sua linea Sycamore alla linea Willow. Gli alti tassi di errore, in particolare nei qubit superconduttori, hanno limitato la loro utilità finora.
Michael Newman, ricercatore di Google, ha spiegato: “L’informazione quantistica è estremamente fragile. Può essere interrotto da molte cose che vanno dai difetti microscopici del materiale alle radiazioni ionizzanti ai raggi cosmici, e sfortunatamente, per attuare questi algoritmi quantistici su larga scala che hanno tutta questa promessa, a volte dobbiamo manipolare in modo affidabile queste informazioni per miliardi, se non trilioni, di passaggi, mentre in genere vediamo guasti dell’ordine di uno su 1000 o uno su 10.000, quindi abbiamo bisogno che i nostri qubit siano quasi perfetti, e non possiamo arrivarci solo con l’ingegneria.”
Il modo per fare qubit quasi perfetti è con la correzione degli errori quantistici. Quindi l’idea di base è che prendi molti qubit fisici e li fai lavorare insieme per rappresentare un singolo qubit logico. I qubit fisici lavorano insieme per correggere gli errori e la speranza è che man mano che rendi queste raccolte sempre più grandi, ci sia sempre più correzione degli errori. Il problema è che man mano che queste cose stanno diventando più grandi, ci sono anche più opportunità di errore.
“Anni ’90, è stato proposto per la prima volta che, se i tuoi qubit sono abbastanza buoni, se passano una sorta di linea magica nella sabbia chiamata soglia di correzione degli errori quantistici”, ha detto Newman. “Poi man mano che rendi le cose più grandi, mentre rendi questi raggruppamenti più grandi, il tasso di errore non aumenta come ti aspetteresti. In realtà va giù. Nessuno ci è riuscito fino ad ora. Quindi il 9 dicembre pubblicheremo risultati in natura che mostrano che usando il processore di salici, siamo finalmente al di sotto di questa soglia. Più specificamente, poiché Willow utilizza più qubit in questi raggruppamenti, gli errori vengono soppressi esponenzialmente rapidamente”, ha detto Newman.
“Qui abbiamo un’immagine (diapositive sotto) di come appaiono questi raggruppamenti logici, questi qubit logici, che chiamiamo codici di superficie. Quindi all’estrema sinistra, abbiamo il nostro processore Sycamore che era l’anno scorso, e lì abbiamo ottenuto tassi di errore da 10 a meno due. E questi blip rossi e blu che stai vedendo, stanno rilevando errori. Quindi è un errore che sta accadendo. Ora con Willow, i tassi di errore che stiamo vedendo ora, sono circa un fattore di due meglio fisicamente. Quindi i nostri qubit e le nostre operazioni sono migliorati di un fattore due, ma le nostre operazioni logiche sono qubit codificati, in realtà sono migliorate di oltre un ordine di grandezza. E questo perché una volta che hai superato questa soglia critica, piccoli miglioramenti nel tuo processore sono esponenzialmente amplificati dalla correzione degli errori quantistici. Quindi, mentre ti sposti da sinistra a destra, ogni volta stai approssimativamente raddoppiando il numero di qubit e raddoppiando le prestazioni del chip. Nel contesto delle pietre miliari menzionate da Hartmut, se dovessimo fare un altro passo avanti, possiamo arrivare alla nostra terza pietra miliare, che è il nostro qubit logico di lunga durata.”
A livello di settore, c’è un dibattito su quanti qubit fisici avranno la giusta dimensione per robusti qubit logici.
Durante le domande e risposte, Newman ha detto: “Direi che il sentimento generale è che avremmo avuto bisogno di circa 1000 qubit fisici per qubit logico per realizzare queste applicazioni su larga scala, [come] la pietra miliare sei [tabella di marcia] una sorta di prestazioni di livello. Ma abbiamo fatto molte ricerche sul lato degli algoritmi e della teoria, il che dimostra che probabilmente possiamo farla franca con qualcosa di più come un paio di centinaia e penso che sia più o meno dove sarà. Probabilmente richiederà inevitabilmente un ordine di un paio di 100 qubit per qubit logico. Quindi questo ti dà una specie di idea se il nostro obiettivo è costruire un computer quantistico da un milione di qubit fisici, dividerlo per un paio di centinaia, e questo è il numero di qubit logici che prevediamo di avere in quel momento. Ma penso che le opinioni differiscano su questo.”
Ci sono, ovviamente, molte aziende che lavorano duramente allo sviluppo di qubit logici. Microsoft e Quantinuum, ad esempio, hanno recentemente riportato un approccio ibrido classico-quantico per la costruzione di qubit logici.
Quantum è utile ora
Sebbene Google si concentri sulla fornitura di calcolo quantistico tollerante ai guasti, ha anche notato il lavoro già svolto con i processori quantistici (diapositive sotto).
Chow ha detto: “Voglio sottolineare questo. Non stiamo cercando di costruire un computer quantistico solo perché è una cosa davvero difficile da fare, o è un progetto scientifico divertente. Tutte queste cose sono vere, ma vogliamo davvero arrivare a nuove capacità che sarebbero altrimenti impossibili senza l’informatica quantistica. I processori quantistici di oggi, anche le generazioni precedenti, come il Sycamore, sono stati utilizzati per dozzine di scoperte scientifiche. Puoi vedere un’istantanea di alcuni di loro qui sullo schermo, ma ce ne sono molti altri.”
“Tuttavia, c’è una sfida importante da notare, giusto? Ogni scoperta che è stata fatta sui processori quantistici fino ad oggi, sebbene eccitante, avrebbe potuto anche essere fatta utilizzando un diverso strumento di calcolo classico. Quindi una prossima sfida che stiamo guardando è questa, possiamo mostrare oltre le prestazioni classiche che sono prestazioni che non sono possibili, realisticamente su un computer classico, su un’applicazione con un impatto reale”, ha detto.
“Siamo molto interessati a offrire un servizio di calcolo quantistico in grado di risolvere problemi del mondo reale che non sono altrimenti possibili sui computer classici. Quindi, solo per sottolineare bene, nessuno dei servizi di calcolo quantistico di oggi può ancora offrire questo, il nostro approccio si concentra sulla risoluzione dei problemi tecnici più difficili, invece di saltare subito al ridimensionamento o ai prodotti commerciali. Detto questo, abbiamo le prime partnership con un numero limitato di collaboratori esterni, sia nel mondo accademico che nelle startup, anche nelle grandi aziende, per aiutare davvero a sviluppare sistemi di calcolo quantistico. Guarda i tipi di applicazioni che saranno utili”, ha detto.
“In termini di modelli [go-to-market], ce n’è un numero là fuori. Uno dei più ovvi nella nostra considerazione è offrire l’accesso tramite il cloud. Questo è qualcosa su cui stiamo attualmente lavorando. Guardando oltre, penso che ci siano certamente opportunità per supportare anche i lavori in esecuzione su Google, così come potenzialmente in modelli on-premise o altri tipi più grandi e molto specifici, quindi da definire su quelli, ma attualmente stiamo lavorando sul cloud”.
Neven ha rapidamente aggiunto: “Il chip Willow è un bel pezzo di hardware e ha un’enorme potenza di calcolo grezza. Quindi abbiamo l’ambizione di dimostrare già che, con una tale piattaforma, potresti essere in grado di fare algoritmi utili. Questa non è la conversazione per questa tavola rotonda della stampa, ma prendiamo un IOU e ci osserviamo nel prossimo anno.”
Resta sintonizzato.
04/12/24 WSJ: Chicago vuole costruire la Silicon Valley del Quantum Computing
Un parco industriale che prende forma su un vecchio sito di acciaieria offre uno sguardo sul futuro quantistico
CHICAGO—Per decenni, i laboratori dell’Illinois e degli stati circostanti hanno nutrito scoperte nelle nanotecnologie, nelle scienze della vita e nello stesso Internet. Di volta in volta, i ricercatori dietro quegli sviluppi sono andati altrove per commercializzare le loro idee.
Ma i leader aziendali e politici della regione sono determinati a rompere questo schema mettendo un abbraccio d’orso intorno al prossimo probabile salto tecnologico: l’informatica quantistica che lascia i computer contemporanei nella polvere.
Se avranno successo, lo sforzo potrebbe creare un modello aggiornato per lo sviluppo economico, in cui le regioni sono in grado di cavalcare le continue ondate di innovazione tecnologica. A Chicago, lo sforzo di sviluppo è incentrato sul futuro, piuttosto che cercare di raggiungere gli hub consolidati come la Silicon Valley. Con Quantum, sta concentrando le risorse pubbliche e private su un’opportunità, anche se grande, piuttosto che su temi più ampi come “tecnologia” o “innovazione”. E piuttosto che partire da zero o assumere un focus iperlocale, sta costruendo sulle risorse regionali esistenti.
La città sarà sede dell’Illinois Quantum and Microelectronics Park, che sarà situato su 128 acri del vecchio sito di South Works dove gli Stati Uniti L’acciaio una volta impiegava 20.000 persone. Related Midwest è lo sviluppatore principale per il parco e la proprietà circostante, un progetto di passione di lunga data per il governo dell’Illinois. JB Pritzker. L’inquilino di ancoraggio è PsiQuantum, una startup con sede a Palo Alto, in California, che prevede di costruire un computer quantistico tollerante ai guasti dell’ordine di 1 milione di bit quantici, o qubit, che ha detto che gli darebbe la maggior potenza di qualsiasi computer quantistico al lancio insieme al progetto dell’azienda a Brisbane, in Australia.
Gli sforzi di PsiQuantum sono progettati per aumentare rapidamente, in parte sfruttando l’infrastruttura esistente utilizzata nelle industrie consolidate della microelettronica e della fotonica.
Gli sviluppatori sperano di avare terreno all’inizio del 2025, in attesa dell’approvazione finale della città.
“Abbiamo molteplici esempi di ricerca sulle batterie all’avanguardia, ricerca sulle nanotecnologie e ricerca biotecnologica che sono iniziati qui nelle nostre università e laboratori nazionali, ma le aziende non crescono qui o si spostano sulla costa perché i VC lo richiedono”, ha detto Kate Waimey Timmerman, amministratore delegato del Chicago Quantum Exchange, un consorzio che collega università, laboratori nazionali e aziende coinvolte nell’informatica quantistica.
La ricerca pura non può svilupparsi in imprese senza un supporto sufficiente di programmi di accelerazione e capitale. È un problema più ampio del Midwest, secondo Timmerman, un neuroscienziato di formazione.
“Abbiamo il diritto di vincere in quantum a causa di quella base di ricerca, ma per di più vediamo le lacune che normalmente impediscono a questa regione di diventare un ecosistema di innovazione, e stiamo intenzionalmente cercando di colmarle”, ha detto.
L’Illinois sta investendo 500 milioni di dollari in IQMP, poiché il parco quantistico è abbreviato, e la città di Chicago e la contea di Cook stanno investendo 5 milioni di dollari ciascuno. PsiQuantum riceverà 200 milioni di dollari in ulteriori incentivi dallo stato, richiedendo all’azienda di creare almeno 154 posti di lavoro a tempo pieno mentre costruisce quello che dice sarà il primo computer quantistico su scala di utilità con sede negli Stati Uniti nel 2028.
Il parco è anche destinato ad ospitare un centro in cui le aziende svilupperanno applicazioni da eseguire su hardware come il sistema PsiQuantum. La Defense Advanced Research Projects Agency gestirà un terreno di prova nel parco, valutando l’efficacia dei progetti quantistici.
Il parco ha contattato le aziende locali per impegnarsi con il suo lavoro, anche presso il centro di applicazioni. E i pianificatori stanno collaborando con i laboratori quantistici che già esistono nella regione presso l’Università di Chicago, l’Università dell’Illinois, il Fermi National Accelerator Lab e l’Argonne National Laboratory e la Northwestern University.
Una previsione del Boston Consulting Group preparata per i progetti di Chicago Quantum Exchange che la creazione totale di valore economico quantistico globale raggiungerà quasi 1 trilione di dollari entro il 2035, rispetto a circa 3 miliardi di dollari oggi.
Supponendo continui investimenti pubblici e sostegno nella regione, la quota di Illinois, Wisconsin e Indiana di quella manna potrebbe raggiungere quasi 80 miliardi di dollari entro il 2035, rispetto a circa 60 milioni di dollari, ha detto la previsione.
Più di un progetto scientifico
IQMP può essere un vantaggio per l’economia locale aiutando le startup locali a decollare e creando incentivi per le aziende esistenti incentrate sulla quantistica e i partner critici della catena di approvvigionamento per stabilire una presenza nel parco, secondo PsiQuantum Chief Business Officer Stratton Sclavos.
Le applicazioni quantistiche potrebbero avere un enorme impatto su aree come la creazione di nuovi farmaci, ha detto Sclavos. Oggi, ciò significa utilizzare computer classici per sintetizzare e testare fino a 200.000 composti potenzialmente promettenti, un processo che potrebbe richiedere 10 anni e avere un tasso di fallimento del 90%, ha detto.
Uno sforzo basato sui quanti potrebbe invece concentrarsi sulla simulazione ad alta precisione di 200 composti a cui il sistema ha preso di mira. “Non stiamo cercando di abbinarlo ad altre cose che funzionano. Stiamo dicendo che questo è ciò che dovresti cercare”, ha detto Sclavos.
La domanda per IQMP è come sfruttare quel tipo di potere per le aziende nuove ed esistenti nella regione. A tal fine, ha detto Sclavos, PsiQuantum sta lavorando con l’Università dell’Illinois, l’Università di Chicago, l’Università statale di Chicago e altri college e università per iniziare a sviluppare la forza lavoro che sosterrà la ricerca di base nel parco.
PsiQuantum da parte sua beneficerà dell’infrastruttura già in atto per l’industria della produzione di chip. Sta lavorando con Global Foundries per produrre i suoi chip quantistici fotonici in silicio e ha integrato nuovi materiali e strumenti avanzati per soddisfare le specifiche necessarie per la tolleranza ai guasti, il che è fondamentale data la propensione all’errore nei fragili sistemi quantistici. E a differenza delle aziende quantistiche che si affidano a tecnologie nuove e meno consolidate, PsiQuantum afferma che il suo uso della fotonica esistente ridurrà i costi e migliorerà la sua scala, il time to market e l’utilità.
“Non stiamo costruendo un progetto scientifico”, ha detto Sclavos.
Portarlo al livello successivo
L’Illinois ha già quattro dei primi 10 centri di ricerca quantistica finanziati a livello federale negli Stati Uniti, tra cui strutture presso l’Università di Chicago, l’Università dell’Illinois, Fermilab e Argonne. La combinazione di quella trazione e del parco pianificato è ciò che fa pensare a dirigenti e funzionari che questo round di ricerca e sviluppo rivoluzionario sarà diverso per la regione.
“Ora portiamo questo al livello successivo. Capitaliamolo”, ha detto il direttore e CEO di IQMP Harley Johnson, che è anche decano associato per la ricerca presso il Grainger College of Engineering, Università dell’Illinois Urbana-Champaign.
Timmerman ha detto che è fondamentale raggiungere la facoltà, gli studenti laureati e i postdoc focalizzati sulla tecnologia quantistica e convincerli che hanno risorse locali per portare la loro ricerca al passo successivo. “Richiede molte cose che questa regione storicamente non ha avuto”, ha detto, “ma lo stiamo facendo con la quantistica”.
Scrivi a Steven Rosenbush all’indirizzo steven.rosenbush@wsj.com
24/11/24 The Motley Fool: Rigetti Computing potrebbe diventare la prossima Nvidia?
Negli ultimi 10 anni, un investimento di 1.000 dollari in Nvidia (NASDAQ: NVDA) sarebbe cresciuto fino a circa 265.840 dollari. Gran parte di quel rally è stata alimentata dalle sue vendite alle impennate di GPU per data center per l’elaborazione di attività di intelligenza artificiale.
A differenza delle CPU, che elaborano solo un singolo pezzo di dati alla volta, le GPU possono elaborare contemporaneamente una vasta gamma di numeri interi e numeri in virgola mobile. Questo vantaggio chiave, insieme alla leadership di Nvidia nel mercato delle GPU discrete, lo ha reso il perno del mercato dell’IA in forte espansione.
Dall’anno fiscale 2014 all’anno fiscale 2024 (che si è concluso a gennaio 2024), le entrate di Nvidia sono cresciute a un tasso di crescita annuale composto (CAGR) del 31%. Gli analisti si aspettano che le sue entrate aumentino a un CAGR del 56% dall’anno fiscale 2024 all’anno fiscale 2027 con l’espansione del mercato dell’IA.
Nvidia sta ancora crescendo rapidamente, ma è già la seconda azienda più preziosa al mondo, con una capitalizzazione di mercato di 3,35 trilioni di dollari. Pertanto, gli investitori alla ricerca di guadagni ancora maggiori potrebbero voler cercare società a piccola capitalizzazione in settori in crescita nascenti invece di inseguire Nvidia ai suoi massimi record.
Una di quelle piccole aziende potrebbe essere Rigetti Computing (NASDAQ: RGTI), un titolo di calcolo quantistico da 335 milioni di dollari che quest’anno è aumentato di quasi l’80%. Vediamo se ha il potenziale per diventare la “prossima Nvidia” della sua nicchia di calcolo quantistico.
Perché l’informatica quantistica potrebbe essere il prossimo grande mercato in crescita?
I computer tradizionali elaborano i dati attraverso “bit” binari di zeri e uno, mentre i computer quantistici memorizzano zeri e uno contemporaneamente in “qubit” per elaborare i dati a velocità molto più elevate. Questo è un grande aggiornamento, ma i sistemi quantistici sono ancora enormi, costosi e commettono più errori dei computer binari.
Per affrontare queste sfide, molte aziende stanno cercando di miniaturizzare le unità di elaborazione quantistica (QPU) e migliorare i loro standard di correzione degli errori. Man mano che queste tecnologie migliorano, Fortune Business Insights si aspetta che il mercato dell’informatica quantistica si espanda a un robusto CAGR del 34,8% dal 2024 al 2032.
Un approccio “full-stack” al calcolo quantistico
Chad Rigetti, un fisico che in precedenza ha lavorato sui computer quantistici presso IBM, ha fondato Rigetti Computing nel 2013. Progetta e produce circuiti integrati quantistici per computer quantistici e consente agli sviluppatori di scrivere i propri algoritmi quantistici sulla sua piattaforma cloud Forest. Quel modello di business all-in-one la rende un’azienda di calcolo quantistico “full-stack”.
Molti servizi di calcolo quantistico full-stack operano all’interno delle mura di grandi aziende tecnologiche come Google di Alphabet, IBM e Alibaba invece di aziende autonome. Questo perché l’hardware di calcolo quantistico è costoso da produrre, gestire e mantenere. Eppure queste sfide non hanno impedito a Rigetti di diventare pubblico fondendosi con una società di acquisizione speciale (SPAC) nel marzo 2022.
L’inizio difficile di Rigetti e l’eventuale recupero
Nella sua presentazione pre-fusione, Rigetti ha affermato che potrebbe aumentare le sue entrate da 7 milioni di dollari nel 2021 a 34 milioni di dollari nel 2023. In realtà ha generato 8 milioni di dollari di entrate nel 2021, ma quella cifra è cresciuta solo a 13 milioni di dollari nel 2022 ed è diminuita a 12 milioni di dollari nel 2023.
Ha principalmente incolpato il suo rallentamento sulla tempistica irregolare dei suoi contratti governativi, ma le improvvise dimissioni di Chad Rigetti come presidente, amministratore delegato e direttore dell’azienda nel dicembre 2022 hanno sollevato ancora più bandiere rosse. L’aumento dei tassi di interesse ha anche compresso le sue valutazioni, ha gettato una luce dura sulle sue perdite persistenti e ha reso più difficile raccogliere denaro. Di conseguenza, il prezzo delle azioni di Rigetti è sceso a un minimo di 0,38 dollari il 3 maggio 2023.
Tuttavia, lo scorso dicembre, Rigetti ha lanciato la sua nuova Novera QPU, una versione commerciale a 9 qubit del suo computer quantistico, che costa 900.000 dollari. Un elenco crescente di clienti, tra cui il Superconducting Quantum Materials and Systems Center (SQMS), l’Air Force Research Lab (AFRL) e l’Horizon Quantum Computing a Singapore, hanno già ordinato quelle QPU.
Entro la fine del 2024, prevede di implementare il suo sistema Ankaa-3 a 84 qubit, in grado di rilevare oltre il 99% (la sua “fedeltà del gate mediano”) dei suoi errori di elaborazione. Nel 2025, prevede di implementare una nuova architettura di sistema modulare che unirà quattro dei suoi chip da 9 qubit in un sistema a 36 qubit con una fedeltà del gate mediano mirata del 99,5%. Entro la fine del prossimo anno, prevede di implementare un sistema non modulare con oltre 100 qubit di potenza di elaborazione e una fedeltà del gate mediano mirata del 99,5%. A lungo termine, mira a sviluppare un sistema a 336 qubit ancora più potente.
Gli analisti si aspettano che le entrate di Rigetti diminuiscano dell’8% a 11 milioni di dollari nel 2024, ma crescano del 47% a 16,2 milioni di dollari nel 2025 e aumenteranno del 130% a 37,3 milioni di dollari nel 2026 man mano che aumenta la sua attività. Ma le azioni di Rigetti non sono ancora economiche a 9 volte le sue vendite del 2026.
È troppo presto per dire se può diventare la prossima Nvidia
Rigetti ha alcune grandi ambizioni per il mercato dell’informatica quantistica, ma è troppo presto per dire se diventerà la “prossima Nvidia”. È ancora un gioco altamente speculativo che potrebbe facilmente esaurire i contanti prima di aumentare la sua attività ad alta intensità di capitale. Ma se ci riesce, potrebbe generare enormi guadagni milionari.
Dovresti investire 1.000 dollari in Rigetti Computing in questo momento?
Prima di acquistare azioni in Rigetti Computing, considera questo:
Il team di analisti di Motley Fool Stock Advisor ha appena identificato quelli che ritengono siano i 10 migliori titoli per gli investitori da acquistare ora… e Rigetti Computing non era uno di questi. Le 10 azioni selezionate potrebbero produrre rendimenti mostruosi nei prossimi anni.
Considera quando Nvidia ha fatto da quando è entrata in questa lista il 15 aprile 2005… se avessi investito 1.000 dollari al momento della nostra raccomandazione, avresti 839.060 dollari! *
Stock Advisor fornisce agli investitori un progetto facile da seguire per il successo, tra cui indicazioni sulla costruzione di un portafoglio, aggiornamenti regolari da parte degli analisti e due nuove scelte azionarie ogni mese. Il servizio Stock Advisor ha più che quadruplicato il rendimento di S&P 500 dal 2002*.
03/10/24 Sole 24 Ore: computer quantistici le prospettive.
03/10/24 Sole 24 Ore: i protagonisti.
sono almeno due momenti fondamentali nel percorso intrapreso da BigG nel campo del calcolo computazionale basato sulla capacità di memorizzare e manipolare le informazioni non solo in codice binario ( come fa un computer convenzionale) ma sotto forma di “sovrapposizioni” di 1 e 0. Il primo risale al 2019, quando nel laboratorio Quantum AI sulle colline di Santa Barbara, i ricercatori di Google riuscirono a eseguire in soli 200 secondi un’operazione che al supercomputer più veloce del mondo in quel momento avrebbe richiesto 10mila anni. Il secondo è molto più recente e risale a poche settimane fa, quando la società ha svelato ( con un cortometraggio) il nuovo progetto che scienziati e ingegneri stanno portando avanti nello stesso laboratorio. Di che si tratta? Del nuovo computer quantistico, o per meglio dire del nuovo processore quantistico in fase di realizzazione, che sarà in grado di risolvere problemi in precedenza ritenuti insormontabili. In Google, insomma, e l’ha dichiarato a chiare lettere uno dei responsabili della ricerca, si sentono oggi nella condizione di giocare con la meccanica quantistica, di capirne le proprietà e di usarla come strumento per arrivare più velocemente a una soluzione. E per farlo hanno costruito il contesto ideale per testare questo minuscolo chip, vale a dire un ambiente a temperature glaciali in grado di assicurare la conduttività necessaria a far funzionare correttamente i qubit, i mattoni dell’informatica quantistica. Ora, come confermano da Mountain View, la sfida è quella di portare questo enorme potenziale di calcolo oltre la fisica teorica, applicandola a settori come la chimica, l’apprendimento automatico e la medicina ( e in particolare la progettazione di farmaci e materiali) per rivoluzionarne i modelli, alzando il concetto di innovazione a un livello così elevato da poter plasmare concretamente il futuro della società. C’è però un altro filone, altrettanto importante, al quale stanno lavorando gli ingegneri di Google, e riguarda i passi in avanti compiuti nella correzione degli errori quantistici. Nel laboratorio Quantum AI, in parole povere, hanno dimostrato che è possibile aggiungere componenti ai computer quantistici per ridurre questi errori, e di conseguenza aprire la strada a sistemi finalmente all’altezza delle promesse di questa tecnologia, superando le limitazioni nell’esecuzione degli algoritmi finora conosciute.
Non meno rilevanti sono stati, nel corso dell’ultimo mese, i progressi in materia quantistica registrati da Microsoft. Due gli annunci da mettere in evidenza, strettamente collegati fra di loro: il record ottenuto a braccetto con Quantinuum nella creazione di qubit logici e il progetto, portato avanti con Atom Computing ( altro partner della galassia del gigante di Redmond), per costruire quella che è stata descritta come la macchina quantistica più potente al mondo. Jason Zander, vicepresidente esecutivo delle missioni e tecnologie strategiche di Microsoft, ha parlato in proposito di « nuova generazione di hardware quantistico affidabile » , e ha spiegato come la suite di calcolo che le due aziende stanno approntando nasca dall’integrazione delle capacità dell’atomo neutro di Atom Computing nella piattaforma di calcolo proprietaria Azure Quantum e con l’AI di Copilot. La sfida a distanza con BigG nella corsa alla supremazia quantistica si gioca insomma sul livello dei qubit logici, ritenuti più adatti ( secondo Microsoft) per mantenere la coerenza per i calcoli di lunga durata e superare i limiti di rumorosità e fallibilità dei qubit fisici, limiti che rendono le macchine Nisq ( Noisy Intermediate- Scale Quantum) poco pratiche e affidabili per le applicazioni del mondo reale.
Questa verità che potrebbe cambiare radicalmente le carte in tavola per gli sviluppi futuri di questa tecnologia si può riassumere in alcuni numeri. Lo scorso aprile, Microsoft e Quantinuum hanno dimostrato come i qubit logici presentino un tasso di errore 800 volte inferiore rispetto a quelli fisici. Qualche settimana fa, lo stesso Zander ha confermato come l’applicazione di un sistema di virtualizzazione dei qubit abbia permesso di creare e agganciare 12 qubit logici altamente affidabili su una macchina ( di Quantinuum) a 56 qubit fisici, segnando il picco di qubit logici “entangled” ( il termine rimanda a una caratteristica fondamentale della meccanica quantistica, e cioè la sovrapposizione degli stati e la non separabilità degli stati delle parti di un sistema composto) con la più elevata fedeltà mai raggiunto. Fantascienza? No. Perché le prime simulazioni che combinano il calcolo quantistico logico con l’high- performance computing e l’intelligenza artificiale per migliorare l’attività scientifica ( e nello specifico per prevedere con precisione l’energia di stato necessaria per uno specifico problema di catalizzazione) sono state già effettuate. E a quanto pare con successo.
15/08/24 Barron’s: Faye Wattleton su Quantum Computing, Reshaping Society e Besting Charlie Munger
Persi in tutto il clamore sull’intelligenza artificiale generativa ci sono alcune altre tendenze tecnologiche significative e incrostanti, non ultimo l’informatica quantistica.
Subito, potresti chiederti: cos’è esattamente l’informatica quantistica?
La prima cosa da sapere è che l’informatica quantistica sarà molto più difficile, migliore, più veloce e più forte dell’informatica più potente di oggi. E il secondo (nota il tempo futuro nella frase precedente) è che l’informatica quantistica non è ancora qui e probabilmente non emergerà davvero per un altro decennio o due.
Per quanto riguarda una descrizione precisa, beh, questo comporta un po’ (gioco di parole) di scienza wiggy, quindi sopportami, ma ecco come pensarci: nell’informatica tradizionale, l’informazione esiste e si esprime in termini di bit, che sono combinazioni di zeri e uno. Nel calcolo quantistico, l’unità più elementare è chiamata qubit, che può essere in uno stato noto come “superposizione” in cui i qubit sono zero e uno allo stesso tempo, il che rende il calcolo infinitamente più veloce.
(Mi indovinalo, Batman!)
“Quantum è davvero costruito su una scienza molto diversa che è molto più potente e ha la capacità di elaborare molte più informazioni”, afferma Faye Wattleton, cofondatrice e vicepresidente esecutivo di EeroQ , una società di hardware quantistico. “Produrrà progressi rivoluzionari nell’assistenza sanitaria nell’identificazione dei farmaci e di altri tipi di scoperte scientifiche”. In generale, le sue potenziali applicazioni sarebbero la risoluzione di problemi che richiedono un’enorme potenza di calcolo come il cambiamento climatico, i nuovi tipi di produzione alimentare, l’esplorazione mineraria e le metodologie di produzione, compresa la produzione di nuovi materiali.
Per quanto si tratta di opportunità di investimento, sono contento che tu l’abbia chiesto. Barron ha approfondito questo in questo articolo, notando ancora una volta che gran parte del lato positivo arriverà più tardi piuttosto che prima. La manciata di azioni quotate in borsa sono speculative, per non dire altro.
A proposito, se il nome Faye Wattleton ti è familiare, potrebbe essere nel contesto del suo essere l’ex presidente di Planned Parenthood , che potresti farti chiedere, come si è collegata all’informatica quantistica?
La risposta breve, dice Wattleton, risale al 2015, quando ha incontrato Nick Farina, uno dei co-fondatori di EeroQ, in vacanza a Martha’s Vineyard, dove, nonostante le loro differenze di età – Wattleton ora ha 81 anni e Farina, 37 anni, si sono legati. “Nick e io abbiamo iniziato a parlare di tutti i problemi che ora affrontiamo e che le informazioni non sono davvero accessibili a molte persone e che l’attuale generazione di computing sta correndo verso i suoi limiti”, dice.
Wattleton afferma che Farina e i suoi altri co-fondatori stavano cercando una mano esperta con un background di corporate governance che potesse aiutarli a navigare in questa nuova tecnologia e costruire un’azienda. “Il calcolo quantistico cambierà il mondo e Faye era l’unica persona sulla mia selezione rapida che aveva già contribuito a cambiare il mondo”, dice Farina.
Wattleton ha davvero una vasta esperienza. Oltre ad essere la persona più giovane, la prima donna nera e, a 14 anni, il capo più longevo di Planned Parenthood (di cui ho scritto in un pezzo su “per sempre amministratori delegati”Wattleton ha fatto parte di più di 20 consigli di amministrazione, tra cui Estée Lauder, Empire Blue Cross & Blue Shield e Columbia University.
Per quanto riper quanto rieva alla sua buona fede scientifica, Wattleton ha due lauree in infermieristica: laurea presso l’Ohio State e laureata alla Columbia. Quella fondazione, dice Wattleton, le dà una “comprensione della lingua e delle possibilità della scienza. Non solo mi ha affascinato emotivamente, ma teoricamente [dandomi] la conoscenza di ciò che sarebbe stato tentato.”
“Non commettere errori”, mi dice, “non abbiamo raggiunto il nirvana. Speriamo di aver imparato dalle controversie sull’IA e dal conflitto che ora è stato generato non pensando in anticipo a quali sono le potenziali insidie, così come le opportunità.
“Nel quantum abbiamo [necessità di un] dialogo multidisciplinare in tutta la società, perché questa scienza rimodellerà la società come la conosciamo e l’elaborazione delle informazioni come la conosciamo, e quindi non può essere lasciata tenere nelle mani di pochi”.
Per ulteriori informazioni, ecco un op-ed che Wattleton ha scrittosull’informatica quantistica e l’etica, e il video qui sotto la include sullo stesso argomento, dicendo: “Se possiamo fare in pochi minuti quello che ci vorrebbero 10.000 anni per fare con la nostra tecnologia attuale, ciò richiede davvero un’attenta considerazione”.
EeroQ ha raccolto circa 13,5 milioni di dollari in finanziamenti di rischio, inclusi 3 milioni di dollari dal suo investitore principale B Capital, che è stato fondato da Facebook (ora Meta Platforms) il cofondatore miliardario Eduardo Saverin ed è il partner di venture del Boston Consulting Group. Il presidente di B Capital e veterano del venture Howard Morgan è nel consiglio di amministrazione di EeroQ. Farina, imprenditore e investitore, funge da CEO dell’azienda e il professore dell’Università di Princeton Steve Lyon è il chief technology officer di EeroQ.
L’approccio di EeroQ alla costruzione di computer quantistici differisce dagli altri in quanto comporta l’uso di elettroni che galleggiano sopra l’elio liquido. È un metodo che renderebbe il calcolo quantistico più senza attrito, ma a questo punto è più teorico della mezza dozzina di altri processi perseguiti da artisti del calibro di IBM , Alphabet (google),Amazon.com, Honeywell International, e varie start-up. Dovrebbe consentire all’azienda di costruire macchine molto più piccole che possono essere commercializzate molto più velocemente dei prodotti della concorrenza. L’Università di Chicago chiama EeroQ il “candidato del cavallo oscuro”, che Farina dice che l’azienda abbraccia.
Forse Wattleton può migliorare ulteriormente le prospettive di EeroQ con ciò che ha scolto dai numerosi luminari aziendali con cui ha strofinato le spalle, tra cui Warren Buffett e Charlie Munger, tornati dai suoi giorni di Planned Parenthood. “Sì, Warren Buffett è stato un sostenitore pro-choice di lunga data”, dice Wattleton. “La Buffett Foundation è uno dei principali finanziatori della formazione per i medici per eseguire l’interruzione della gravidanza sicura per la gravidanza”.
Per quanto riper quanto munge, Wattleton dice che non lo conosceva, “ma era un grande sostenitore di Planned Parenthood di Los Angeles. Era un donatore molto generoso”. E ricorda una storia su Munger che non è d’accordo con una chiamata che ha fatto per quanto riguarda l’assicurazione e che si è risuscitata per avere ragione.
“Quando sono arrivato alla presidenza di Planned Parenthood, non potevamo ottenere un’assicurazione a un tasso ragionevole”, dice Wattleton. “Non aveva senso per me che le compagnie di assicurazione ci chiedessero di pagare a livello di neurochirurghi i nostri premi. Il ragionamento era che se una donna rimane incinta usando i nostri servizi e partisce un bambino danneggiato, le compagnie di assicurazione ne sarebbero responsabili. Ho detto: ‘Questo non ha senso. Dovremmo solo risparmiare i nostri soldi e assicurarci, perché non stavamo ricevendo alcuna causa.’ Così abbiamo formato Planned Protection Insurance. E Charlie Munger pensava che fosse la cosa più stupida che avesse mai sentito.
“Con il suo background nel settore assicurativo e nella gestione del rischio, avremmo dovuto pensare: ‘Beh, Charlie Munger dice che siamo stupidi a farlo, quindi non dovremmo farlo'”, dice. “Ma siamo andati avanti e l’abbiamo formato, e oggi è una delle principali fonti di protezione per i capitoli [Planned Parenthood] nella fornitura di servizi sanitari alle famiglie in tutto il paese”.
Proprio come collegare persone come Buffett e Munger al sostegno dei diritti riproduttivi faceva parte del mandato di Wattleton in una parte precedente della sua carriera, inculcare la governance e l’etica nell’informatica quantistica è un aspetto del suo ultimo capitolo. Riunire pezzi apparentemente disparati è un’abilità inestimabile a sé stante e che potrebbe servire a rafforzare il futuro digitale della nostra economia.
28/07/24 Bloomberg News: Honeywell Considera L’IPO Di Quantinuum, Fissa Una Valutazione Di 10 Miliardi Di Dollari
Riassunto da insider
- Honeywell sta prendendo in considerazione un’offerta pubblica iniziale per Quantinuum, secondo quanto riferito valutando l’azienda a 10 miliardi di dollari.
- Honeywell ha una quota di proprietà di circa il 54% di Quantinuum.
- La notizia è preliminare e si basa su un rapporto di Bloomberg News che cita gli addetti ai lavori vicini all’accordo come fonti della storia.
- Immagine: Chip H2 Di Quantinuum
Honeywell International Inc. sta contemplando un’offerta pubblica iniziale (IPO) per la sua controllata di calcolo quantistico di proprietà di maggioranza, Quantinuum, potenzialmente già il prossimo anno, riferisce Bloomberg News.
Secondo quanto riferito, l’azienda ha avviato discussioni con diverse banche di investimento in merito a una potenziale quotazione negli Stati Uniti e potrebbe perseguire una valutazione di circa 10 miliardi di dollari, secondo Bloomberg News, citando persone vicine al potenziale accordo.
Quantinuum è stata fondata nel 2021 attraverso la fusione di Cambridge Quantum e Honeywell Quantum Solutions. È probabilmente la più grande azienda quantistica full-stack e pure play, che impiega circa 500 persone nei suoi uffici negli Stati Uniti, nel Regno Unito, in Germania e in Giappone.
Honeywell è considerata il maggiore azionista con una partecipazione di proprietà di circa il 54 per cento di Quantinuum. Ilyas Khan, fondatore e Chief Product Officer di Quantinuum, è secondo quanto riferito il secondo azionista più grande con una partecipazione di circa il 23% a partire dal 2021. Altri azionisti includono IBM e JSR Corp dal Giappone.
Bloomberg riferisce che a seguito della notizia della possibile IPO, le azioni Honeywell hanno subito un’impennata significativa, salendo fino al 2,6% venerdì. Questo sarebbe il più grande aumento intraday dall’inizio di giugno, aggiunge il servizio di notizie finanziarie. L’attuale valore di mercato di Honeywell è fissato a circa 133 miliardi di dollari.
A gennaio, Honeywell ha concluso con successo un round di finanziamento di 300 milioni di dollari per Quantinuum, raggiungendo una valutazione pre-money di 5 miliardi di dollari. La raccolta fondi è stata guidata da JPMorgan Chase & Co., con la partecipazione di Mitsui & Co. e Amgen Inc. Questo round di investimenti ha portato la raccolta fondi totale di Quantinuum a circa 625 milioni di dollari dal suo inizio.
La tecnologia di Quantinuum utilizza le proprietà della meccanica quantistica e, in particolare, si basa sull’approccio degli ioni intrappolati per eseguire calcoli utili con stati quantistici complessi e delicati. La tecnologia H-Series di Quantinuum, parte dei loro computer quantistici avanzati, ha ottenuto operazioni quantistiche ad alta fedeltà e una migliore correzione degli errori. Progettata con un approccio modulare, la serie H vanta un alto volume quantistico, indicando che ha una capacità avanzata intrinseca di risolvere problemi complessi.
Questa primavera, gli scienziati Microsoft e Quantinuum hanno dimostrato i qubit logici più affidabili mai registrati, conducendo oltre 14.000 esperimenti privi di errori utilizzando l’hardware quantistico ion-trap di Quantinuum e il sistema di virtualizzazione qubit di Microsoft per la diagnostica e la correzione degli errori. Gli scienziati di entrambe le aziende hanno suggerito all’epoca che l’esperimento ha segnato un importante passo fuori dall’attuale era Noisy Intermediate-Scale Quantum (NISQ).
La partnership Microsoft è solo una delle tante partnership accademiche e industriali che Quantinuum ha forgiato nella sua breve ma altamente produttiva storia. La piattaforma di intelligence di Quantum Insider riporta almeno 90 delle partnership di Quantinuum. Amgen, Mitsui & Co, JPMorgan Chase e l’Università di Cambridge sono tra la tentacolare lista di collaboratori internazionali dell’azienda.
RAMIFICAZIONI PIÙ GRANDI
Per speculare un po’, un’IPO segnerebbe ovviamente una pietra miliare significativa per Quantinuum, ma probabilmente sarebbe anche un punto di svolta nell’interesse e nell’investimento nella tecnologia di calcolo quantistico in generale. Questo potenziale elenco potrebbe aumentare la consapevolezza che potrebbe aprire la strada a ulteriori progressi e applicazioni commerciali nel quantum.
Se la cifra di valutazione di 10 miliardi di dollari riportata da Quantinuum – il doppio della sua attuale valutazione stimata – è valida, potrebbe esserci un effetto a catena delle valutazioni ricalibrate in tutto il settore della tecnologia quantistica.
COSA SUCCEDE ADESSO?
Le discussioni riguardanti l’IPO sarebbero ancora in fase preliminare e le specifiche del piano sono soggette a modifiche. I rappresentanti di Honeywell e Quantinuum hanno rifiutato di commentare la questione. Riconoscendo che questo è estremamente preliminare nel processo di IPO, quindi, potrebbe essere bene esplorare quali sarebbero i possibili passi successivi per Honeywell.
Riconoscendo che le discussioni riguardanti l’IPO sono ancora in fase preliminare e che Bloomberg News ha affermato che i rappresentanti di Honeywell e Quantinuum hanno rifiutato di commentare la questione, il prossimo passo iniziale del processo comporterebbe probabilmente la formalizzazione di queste discussioni con le banche di investimento per finalizzare il team di sottoscrizione. Quindi, le squadre dovrebbero preparare informazioni finanziarie dettagliate e presentare una dichiarazione di registrazione S-1 con gli Stati Uniti. Securities and Exchange Commission (SEC).
In seguito, Quantinuum si imbarcherebbe in un roadshow per presentare l’azienda a potenziali investitori, evidenziando i suoi progressi tecnologici e il potenziale di mercato. Durante quel roadshow, Quantinuum probabilmente si appoggierebbe pesantemente ai recenti progressi, come la ricerca logica qubit dell’azienda con Microsoft, per sottolineare la sua posizione di leader nell’innovazione del calcolo quantistico.
La durata del processo di IPO varia, ma di solito richiede tra sei mesi e un anno, riconoscendo che non tutte le IPO lo rendono con successo sul mercato. Tuttavia, sulla base di tale tempistica e a seconda di quanto è lontana Honeywell nel suo processo decisionale, un’IPO di Quantinuum potrebbe verificarsi già all’inizio o alla metà del 2025.
05/10/22 Nobel ai pionieri dei computer quantistici
Quest’anno il Nobel per la fisica è stato assegnato a quattro pionieri nel campo del computer quantistico. È un riconoscimento molto importante che segna l’uscita del computer quantistico dalla sua infanzia e l’avvio ad un utilizzo reale.
Spiegare cosa e’ un computer quantistico non è facile. Bisogna rifarsi al famoso paradosso del gatto di Schrodinger che chiuso in una scatola potrebbe essere contemporaneamente sia vivo che morto . Mentre l’elettronica dei computer attuali e’ binaria cioè costruita attorno al BIT che può avere valore 0 oppure 1, quella del computer quantistico si basa sul QBIT che può assumere contemporaneamente valore Uno ma anche Zero. Sinceramente non ho capito come funziona il tutto ma questo dovrebbe portare a potenze di calcolo inimmaginabili.
C’e’ in atto una corsa allo sviluppo dei computer quantistici soprattutto fra Usa e Cina con grossissimi investimenti nella ricerca perché chi ci arriverà per primo avrà in mano un’arma strategica per il dominio del mondo. Pensate alla corsa alla bomba atomica fra America e Germania durante la seconda guerra mondiale o fra America e Russia dopo.
OK ma come possiamo investirci? Al solito ci troviamo nel momento magmatico di nascita di un nuovo mercato che si stima fra pochi anni avrà dimensioni miliardarie.
Attualmente lo sviluppo commerciale del quantum computer è diviso fra grandi società già affermate che però fanno altro, Start Up nate nelle università che per il momento vanno avanti a finanziamenti pubblici e società da poco quotatesi in borsa che però ancora non hanno ricavi significativi.
Esaminiamone alcune.
IBM (NYSE: IBM)
La “nonna” delle società di computer, l’unica che è riuscita a sopravvivere agli sconvolgimenti che ha avuto il mercato dell’informatica gli ultimi sessant’anni. Ultimamente la sua stella si era un po’ appannata perché rimasta ferma sui mainframe – i grossi computer per le grossissime aziende – mentre il mercato si spostava sul Cloud. Due anni fa ha cambiato l’amministratore delegato che fra le altre cose ha scelto di investire pesantemente nella quantistica. Per ora offre accesso tramite cloud ai suoi computer quantistici superconduttori e dichiarano di avere il maggior numero di computer quantistici operativi al mondo (20 nelle sedi aziendali più molti altri in tutto il mondo).
QUANTINUUM (privata)
e’ nata dalla fusione da parte di Honeywell della sua divisione quantistica con Cambridge Quantum Computer uno spin-off universitario. E’ ad oggi la più grande società di quantum computing con offerta integrata di hardware e software. Avere alle spalle un colosso come Honeywell non guasta. Se il mercato migliora dovrebbe essere portata in borsa con una IPO
IONQ (NASDAQ: IONQ)
IonQ è stata fondata nel 2015 da Christopher Monroe e Jungsang Kim con una licenza per la tecnologia di base dell’Università del Maryland e della Duke University. L’azienda costruisce computer quantistici con la sua tecnologia Ion Trap di base e attualmente li offre direttamente a partner selezionati o dando l’accesso ai suoi computer quantistica tramite fornitori di servizi (QCaaS) come Google (GCP), Microsoft (Azure) e Amazon (AWS)
RIGETTI (NASDAQ: RGTI)
Rigetti è stata fondata nel 2013 da Chad Rigetti e afferma di essere la prima società di calcolo quantistico “universale”. L’azienda costruisce computer quantistici superconduttori e li fornisce attraverso la propria piattaforma di servizi cloud e tramite i fornitori QCaaS.
QUANTUM COMPUTING INC (NASDAQ: QUBT)
Quantum Computing Inc (QCI) è stata fondata nel 2018 con la visione di rendere la tecnologia di calcolo quantistico più accessibile agli esperti non quantistici. Il suo prodotto principale, “Qatalyst”, è un software quantistico e classico pronto all’uso per i calcoli di ottimizzazione.
D-WAVE (NASDAQ: QBTS )
D-Wave è una società canadese di calcolo quantistico fondata nel 1999. L’azienda ha lanciato il D-Wave One nel 2011, che è descritto come il primo computer quantistico disponibile in commercio. Mentre storicamente i sistemi D-Wave si sono concentrati sulla ricottura quantistica, l’azienda ha annunciato che stava anche lavorando sul calcolo quantistico basato su gate- alla fine del 202
Foglio con le quotazioni delle azioni indicate nel post
05/12/23 The Verge: Jerry Chow di IBM sul futuro dell’informatica quantistica
Cos’è un qubit? I computer quantistici sono ancora utili? E quanto era sbagliato Ant-Man, comunque?
Di Nilay Patel, caporedattore di The Verge, conduttore del podcast Decoder e co-conduttore di The Vergecast.
5 dicembre 2023, 16:00 GMT+1|0 Commenti / 0 Nuovo
Oggi parlo con Jerry Chow. È il direttore dei sistemi quantistici di IBM, il che significa che sta cercando di costruire il futuro un qubit alla volta.
IBM ha fatto alcuni annunci questa settimana sui suoi piani per i prossimi 10 anni di calcolo quantistico: ci sono nuovi chip, nuovi computer e nuove API. Ci sentirai entrare più nei dettagli man mano che andiamo, ma la cosa importante da sapere in anticipo è che i computer quantistici potrebbero avere quantità teoricamente incredibili di potenza di elaborazione e potrebbero rivoluzionare completamente il modo in cui pensiamo ai computer… se, cioè, qualcuno può costruirne uno che sia effettivamente utile.
Ecco Jerry, che spiega le basi di cosa sia un computer quantistico:
Un computer quantistico è fondamentalmente un modo di calcolo totalmente diverso. Si basa sulle leggi della meccanica quantistica, ma cambia solo il modo in cui le informazioni vengono gestite. Quindi, invece di usare bit, abbiamo bit quantistici o qubit.
Un normale computer – la gente quantistica li chiama “computer classici” – come un iPhone o un laptop o anche una GPU Nvidia di fantasia funziona codificando i dati in bit. I bit hanno fondamentalmente due stati, che chiamiamo zero e uno. Sono su o sono spenti.
Ma le leggi della meccanica quantistica che Jerry ha appena menzionato significano che i qubit si comportano in modo molto, molto diverso. Possono essere zero o uno, ma potrebbero anche essere un sacco di cose nel mezzo.
Hai ancora due stati: uno zero e uno. Ma possono anche essere in sovrposizioni di zero e uno, il che significa che c’è una probabilità che quando lo misuri, sarà zero o uno con particolare probabilità. In termini di come li costruiamo fisicamente, non sono più interruttori, non sono transistor, ma in realtà sono elementi che hanno un comportamento di meccanica quantistica.
Una delle mie cose preferite di tutto questo è che per far funzionare questi nuovi computer quantistici, devi raffreddarli entro frazioni di un grado di zero assoluto, il che significa che molte aziende hanno dovuto lavorare molto duramente sui sistemi di raffreddamento criogenico solo per consentire ad altre persone di lavorare sui chip quantistici. Jerry chiama i primi computer quantistici “progetti scientifici”, ma il suo obiettivo è progettare prodotti reali che le persone possono utilizzare
Sentirai Jerry parlare di fare un computer quantistico utile in termini di “utilità”, che è quando i computer quantistici iniziano a spingere contro i limiti di ciò che i normali computer possono simulare. IBM è a caccia di utilità da un po’ di tempo. Ha reso disponibili per la prima volta i computer quantistici sul cloud nel 2016, ha spedito i computer quantistici System One ai partner di tutto il mondo e ora, questa settimana, annuncia System Two insieme a una tabella di marcia per il futuro. ÈDecoder, quindi ho chiesto a Jerry esattamente come lui e il suo team si siedono e costruiscono una tabella di marcia per i prossimi 10 anni di ricerca applicata in un campo che richiede grandi scoperte ad ogni livello del prodotto. Oh, e abbiamo parlato di Ant-Man.
È divertente: pochissime persone si siedono al limite tutto il giorno come Jerry.
Va bene. Jerry Chow, direttore dei sistemi quantistici presso IBM. Eccoci qua.
Jerry Chow, sei un collega IBM e direttore dei sistemi quantistici. Benvenuti in Decoder.
Felice di essere qui.
Sono davvero entusiasta di parlare con te. C’è molto di cui parlare: l’informatica quantistica in generale, dov’è. Ma hai alcune notizie da annunciare oggi, quindi voglio assicurarmi che parliamo subito delle notizie. Cosa sta succedendo in IBM Quantum?
Sì, quindi abbiamo il nostro Quantum Summit annuale in arrivo, dove fondamentalmente invitiamo la nostra rete di membri e utenti a venire, e parliamo di alcune delle notizie davvero entusiasmanti. Quello che stiamo annunciando quest’anno è che in realtà abbiamo un processore quantistico aggiornato davvero eccitante di cui stiamo parlando. Si chiama IBM Quantum Heron. Ha 133 qubit. È il processore più performante che abbiamo mai costruito e sarà disponibile per l’accesso degli utenti tramite i nostri servizi cloud.
Stiamo anche lanciando IBM Quantum System Two e introducendo questo come una nuova architettura per scalare i nostri computer quantistici nel futuro. Stiamo anche parlando di una tabella di marcia decennale che guarda al futuro. A noi di IBM Quantum piace in qualche modo chiamare le nostre offerte, dire a tutti cosa stiamo facendo perché questo ci mantiene onesti, mantiene tutti nel settore sullo stesso punto di riferimento per vedere qual è il progresso. E stiamo espandendo quella tabella di marcia, che in realtà abbiamo introdotto per la prima volta un paio di anni fa e abbiamo raggiunto tutte le nostre pietre miliari finora. Ma lo stiamo estendendo fino al 2033, spingendo in avanti in questo prossimo regno in cui vogliamo davvero guidare verso la spinta dell’informatica quantistica su larga scala.
Quindi hai un nuovo processore, hai una nuova architettura informatica in System Two, hai una tabella di marcia più lunga. Mettilo nel contesto per me: abbiamo sentito parlare di calcolo quantistico per un bel po’ di tempo. Ho fissato un certo numero di computer quantistici e mi è stato detto: “Questo è il pezzo più freddo dell’universo che sia mai esistito”. È stato molto divertente, per lo meno. Siamo solo ora al punto in cui stiamo effettivamente risolvendo problemi reali con i computer quantistici.
Non siamo nemmeno al punto di risolvere problemi reali.
Nemmeno ancora?
Non ancora. Ma siamo, davvero eccitante, proprio l’anno scorso, al punto in cui stiamo chiamando questo calcolo quantistico su scala di utilità. Stiamo usando più di 100 qubit. Abbiamo usato un processore all’inizio dell’anno chiamato Eagle, dove siamo stati in grado di esaminare un problema particolare che non si poteva davvero risolvere con metodi di forza bruta usando un computer classico, ma ha anche sfidato i migliori metodi di approssimazione classici utilizzati nel calcolo ad alte prestazioni. Quindi ciò che è interessante è che ora il computer quantistico diventa come il punto di riferimento. Ne hai quasi bisogno per verificare se i tuoi metodi classici approssimativi funzionano correttamente. E questo succede solo quando si supera i 100 qubit.
A 100 qubit, le cose cambiano tutte in modo che non si possa usare, diciamo, GPU o qualsiasi tipo di computer classici per simulare con precisione ciò che sta succedendo. Questo è il motivo per cui siamo in questa fase in cui la chiamiamo scala di utilità perché ci sarà questo avanti e indietro tra l’uso di un quantum come strumento rispetto a ciò che puoi ancora potenzialmente fare in classico. Ma poi c’è una lunga strada lì che cercheremo di guidare il valore usando il quantum per arrivare verso la gestione quantistica.
Penso che la parola utilità lì mi abbia buttato fuori. Questo è il punto di ramificazioni in cui i problemi che risolvi con un computer quantistico iniziano a diventare significativamente diversi dai problemi che potresti risolvere con un normale computer.
Esatto. Lo vediamo davvero come un punto di inflessione. Ci sono molte industrie che usano già il calcolo ad alte prestazioni, e stanno esaminando problemi molto, molto difficili che usano i supercomputer Oak Ridge e quant’altro. E ora il quantum diventa uno strumento aggiuntivo che apre un nuovo obiettivo per loro di guardare un’area diversa dello spazio di calcolo che non erano in grado di guardare prima.
Quindi IBM ha un enorme programma nel quantum. Anche le altre grandi aziende lo fanno: Microsoft, Google, cosa hai, stanno tutti investendo in questo spazio. Sembra una classica competizione capitalista, “Stiamo tutti correndo in avanti per ottenere il primo prodotto sul mercato”? È un gruppo di ricercatori che sanno che probabilmente c’è un vaso d’oro alla fine di questo arcobaleno, ma non ci siamo ancora vicini, quindi siamo tutti un po’ amichevoli? Com’è l’atmosfera?
Direi che è un momento molto emozionante per essere in questo campo. Quante volte dici che stai costruendo dal piano terra di un’architettura computazionale completamente nuova? Qualcosa che è fondamentalmente diverso dal calcolo classico tradizionale. E quindi sì, direi che c’è sicuramente un sacco di onde, c’è molto ronzio. A volte un po’ troppo ronzio, forse. Ma penso anche che dal punto di vista della concorrenza, aiuti a far progredire l’industria.
Noi di IBM siamo stati all’avanguardia nel calcolo per decenni. E così è nel nostro sangue. Le idee di roadmap e di spingere il prossimo grande sviluppo, le prossime grandi innovazioni nel calcolo, sono sempre state qualcosa che è solo nativo di IBM, e il quantum non è diverso. Siamo stati nel gioco con il quantum fin dalle prime fondazioni teoriche per probabilmente 30 anni, oltre 30 anni. Ma ora stiamo davvero iniziando a portare molto di questo frutto in termini di costruzione delle architetture, costruzione dei sistemi, putting out l’hardware, sviluppando il quadro per come renderlo utilizzabile e accessibile.
Lascia che ti dia solo un confronto molto più stupido. Avevamo il CEO di AWS nello show, Adam Selipsky. AWS è furiosamente competitivo con Microsoft Azure e Google Cloud. Stanno cercando di togliersi quote di mercato l’uno dall’altro e fanno un sacco di cose innovative per creare prodotti migliori, ma l’obiettivo finale è togliere un cliente da Google. Non ci sei ancora, vero? Non c’è ancora una quota di mercato da spostare?
Certamente non su quella scala.
Ma ci sono clienti quantistici per cui competi?
C’è certamente una comunità quantistica in crescita.
[Ride] Non è un cliente; ci sono persone che sono interessate.
Ci sono persone che sono interessate su tutta la linea, dagli sviluppatori, agli studenti, alle aziende Fortune 500. Abbiamo molto interesse. Quindi, solo come esempio, abbiamo messo per la prima volta i sistemi sul cloud nel 2016. Abbiamo messo un computer a cinque qubit molto semplice, un computer quantistico a cinque qubit, sul cloud. Ma rifletteva un vero cambiamento fondamentale nel modo in cui il quantum poteva essere affrontato. Prima, dovevi essere una specie di fisico. Dovevi essere in un laboratorio che girava le manopole. Stai prendendo dati, stai eseguendo codice fisico; non stai programmando un computer.
Wow. [Ride] Grida ai fisici.
Beh, sono un fisico, e non vuoi vedere il mio codice. [Ride] Ma il punto è che abbiamo sviluppato un intero quadro intorno ad esso per distribuirlo effettivamente e renderlo programmabile. E pensa ai primi giorni dei computer e a tutta l’infrastruttura che dovevi costruire in termini di linguaggio assembly e compilatori giusti e i livelli applicativi tutti al di sopra di questo. Lo abbiamo costruito negli ultimi sette anni da quando è stato lanciato per la prima volta. E in quel periodo, abbiamo avuto oltre 500.000 utenti della nostra piattaforma e dei nostri servizi.
Sono sempre curioso di sapere come sono strutturate le cose e come vengono prese le decisioni. Questo è davvero ciò di cui parliamo nello show. E c’è una funzione di forzatura che arriva quando si tratta di un business, e c’è un percorso di crescita. Quantum sembra molto simile che un giorno sarà un business enorme perché risolverà problemi che i normali computer non possono fare. Ma in questo momento, è nella parte molto precoce della curva in cui stai investendo molto in R S, su una tabella di marcia aggressiva, ma non sei ancora affatto vicino al business.
Direi che stiamo bussando alla porta del valore aziendale e cercando quel valore aziendale, perché soprattutto quando siamo in questo regno in cui sappiamo che può essere usato come uno strumento contro i migliori computer classici, c’è qualcosa da esplorare. Molte volte, anche con i computer tradizionali, ci sono pochissimi algoritmi provati che sono dove guidiamo tutto il valore. Molto del valore che viene guidato viene fatto attraverso l’euristica, attraverso solo tentativi ed errori, avendo lo strumento e usandolo su un particolare problema. Ecco perché vediamo questo fondamentale game-changer di questo punto di inflessione che va verso sistemi di utilità di oltre 100 qubit poiché ora questo è lo strumento che vogliamo che gli utenti vadano effettivamente a trovare vantaggi aziendali, trovare i problemi che mappano in modo appropriato su questi sistemi per l’esplorazione.
Quindi mettilo nel contesto di IBM. IBM è un’azienda enorme, ha più di 100 anni, fa un sacco di cose. Questa è probabilmente la cosa più all’avanguardia che IBM sta facendo, immagino. Immagino che non sarai in disaccordo con me. Ma sembra la cosa più all’avanguardia che la maggior parte delle aziende Big Tech sta facendo.
Sì, assolutamente.
Come è strutturato all’interno di IBM? Come funziona?
Quindi siamo IBM Quantum all’interno di IBM Research. IBM Research è sempre stato il motore di crescita organica per tutta IBM. È qui che entrano in gioco molte idee innovative, ma nel complesso, una particolare strategia all’interno di IBM e IBM Research è che non stiamo solo facendo ricerca e poi faremo sviluppo e poi andrà in questo viaggio di prodotto molto linearizzato. È tutto integrato insieme mentre andiamo avanti. E quindi, abbiamo l’opportunità all’interno di IBM Quantum che stiamo sviluppando prodotti, lo stiamo mettendo sul cloud, ci stiamo integrando con IBM Cloud. In realtà stiamo spingendo queste cose in avanti per costruire quella base di utenti, costruire quella pozza di terreno, prima che tutti i vari elementi tecnologici siano finiti. Questa è una specie di questa metodologia agile per costruirlo da zero, ma anche per farlo uscire presto e spesso per guidare l’eccitazione e costruire davvero le altre parti dell’ecosistema.
Quindi, come è strutturato IBM Quantum? Quante persone ci sono? Come è organizzato?
Quindi non parliamo di numeri espliciti, ma abbiamo diverse centinaia di persone. E poi abbiamo parti del team che si concentrano sugli elementi hardware effettivi, fino al processore quantistico effettivo e al sistema intorno ad esso in termini di far funzionare quei processori raffreddandolo nel sistema criogenico, parlando con esso con l’elettronica di controllo, parlando con esso con il calcolo classico. Quindi tutto deve legarsi insieme.
Poi hai dei team di sviluppo software. Abbiamo anche un team di cloud e servizi che aiuta a fornire le nostre offerte come servizio. E poi abbiamo team di applicazioni che guardano ai prossimi algoritmi, i prossimi nuovi modi di fare uso dei nostri servizi quantistici. Abbiamo anche team che sono più orientati verso l’esterno per lo sviluppo del business, cercando di guidare l’adozione, lavorando con vari clienti per impegnarsi nei problemi dei loro interessi. Abbiamo anche una parte del nostro team che gestisce un’offerta chiamata Quantum Accelerator. È come un braccio di consulenza, che lavora con i clienti per ottenere quantum-ready, iniziare a capire come i loro problemi possono essere influenzati dal calcolo quantistico e iniziare a utilizzare i nostri sistemi.
È tutto piatto? Ognuna di quelle squadre ti riferisce, o c’è una struttura in mezzo?
No, quindi tutti quei diversi riferiscono al nostro vicepresidente dell’informatica quantistica, che è Jay Gambetta. Mi prendo cura della parte dei sistemi. Fondamentalmente, l’avvolgimento del processore e come funziona, l’esecuzione di problemi per gli utenti, questo è il pezzo che possiedo.
C’è una tensione lì. Sembra che IBM sia progettata per attaccare questa tensione a testa alta, che è: “Stiamo facendo un sacco di ricerche pure in criogenica per assicurarci che l’informatica quantistica possa funzionare perché deve essere davvero freddo per funzionare”. Poi c’è un team di sviluppo aziendale che è appena fuori e funzionante, facendo cose di vendita, e ad un certo punto torneranno e diranno: “Abbiamo venduto questa cosa”. E il team di criogenica dirà: “Non ancora”. Ogni azienda ha un problema del genere. Quando sei in modalità di ricerca pura, il “non ancora” è un vero problema.
Oh, sì.
Quante volte ti imbatti in questo?
Abbiamo un’ottima strategia in tutta la squadra. Conosciamo i nostri servizi principali e qual è il prodotto principale che abbiamo. E abbiamo anche una tabella di marcia. Il concetto della tabella di marcia è ottimo sia per il lato di ricerca e sviluppo, ma anche per la prospettiva del cliente, la prospettiva dell’angolo di sviluppo del business per vedere cosa verrà dopo. Dal lato interno, sappiamo che dobbiamo continuare a guidare verso questo, e questi sono i nostri risultati e queste sono le nuove innovazioni che dobbiamo fare. Infatti, nella nostra nuova tabella di marcia che stiamo rilasciando, l’abbiamo separata. Sia una tabella di marcia di sviluppo, che è più focalizzata sul prodotto e più simile a ciò che l’utente finale otterrà e il cliente otterrà. E abbiamo una tabella di marcia per l’innovazione per mostrare quelle cose che avremo ancora bisogno di girare per girare e capire cosa si nutre.
Dico spesso che la tabella di marcia è il nostro mantra, ed è davvero il nostro biglietto da visita sia internamente che esternamente. Non molte persone mostrano davvero molti dettagli nella loro tabella di marcia, ma serve come strumento guida per tutti noi.
Stavo guardando quella tabella di marcia, ed è molto aggressiva. Siamo a Heron, ci sono molti uccelli che vengono da quello che capisco. E l’obiettivo è che un computer quantistico veramente funzionale abbia bisogno di migliaia o milioni di qubit, giusto?
Abbiamo una transizione verso quello che chiamiamo quantistico su scala, che penso che quello a cui ti riferisci sia quando raggiungerai il punto in cui puoi eseguire la correzione degli errori quantistici, corretto per tutti gli errori che sono sottostanti all’interno di questi qubit, che sono rumorosi. La gente getta in giro quel numero – milioni di qubit – in un modo che quasi spinge la paura nel cuore delle persone. Una cosa davvero eccitante che abbiamo fatto l’anno scorso è che abbiamo sviluppato una serie di nuovi codici di correzione degli errori che abbassano molto il numero di risorse.
Quindi, in realtà, avrai bisogno potenzialmente di centinaia di migliaia di qubit, 100.000 qubit o giù di che, per costruire un computer quantistico basato sulla correzione degli errori quantistici fault-tolerant di una particolare dimensione per fare alcuni di quei problemi di cui stiamo parlando su larga scala. E anche questo fa parte della tabella di marcia. Quindi questo è ciò che stiamo guardando ulteriormente al sistema Blue Jay nel 2033. Quindi c’è sicuramente un certo numero di uccelli da arrivare, ma abbiamo idee concrete per gli ostacoli tecnologici da superare per arrivarci.
Questo è l’obiettivo. Otterrai una scala massicciamente più grande di quella che sei oggi. Ordini di grandezza. Oggi il chip ha 133 qubit, devi arrivare a migliaia. Alcune persone, in modo terrificante, stanno dicendo milioni.
Parte della tua strategia è collegare i chip insieme in questi sistemi più modulari e poi mettere i circuiti di controllo intorno a loro. Sono una persona che è venuta fuori in quello che si potrebbe chiamare l’ambiente informatico classico, questo è molto familiare. Questa è una strategia molto familiare; faremo solo più core. Questo è quello che mi sembra. Molte aziende si sono imbattte in molti problemi qui. In quella parte del mondo, c’è solo la legge di Moore, e ci sediamo a parlarne tutto il giorno. E Nvidia e forse TSMC l’hanno superato questa volta, e Intel ha lottato per ottenere il prossimo nodo di processo e aumentare la densità del transistor. C’è un equivalente alla legge di Moore in quantum a cui stavi pensando?
La nostra tabella di marcia sta mostrando quel tipo di progressione.
Guardo quella tabella di marcia, e stai sicuramente assumendo una serie di scoperte lungo la strada – in un modo in cui Intel l’ha appena assunta per anni e anni e l’hanno raggiunta, e poi ha colpito la fine della strada.
Anche dove siamo oggi con Heron, e in realtà complementare a Heron quest’anno, abbiamo anche già costruito un processore da 1.000 qubit, Condor. Il suo obiettivo esplicito era quello di spingere i limiti di quanti qubit potremmo mettere su un singolo chip, spingere i limiti di quanta architettura potremmo mettere in un intero sistema. Quanto potremmo effettivamente raffreddare nei frigoriferi a diluizione che conosciamo oggi, i frigoriferi criogenici che abbiamo oggi? Spingere i confini di tutto per capire dove si rompono le cose. E se si guarda la prima parte della nostra tabella di marcia, gli uccelli sono lì con vari ostacoli tecnologici che abbiamo già superato per arrivare a questo livello mille-qubit. E ora quei prossimi uccelli che vedi nel resto della tabella di marcia dell’innovazione sono diversi tipi di accoppiatori, diversi tipi di tecnologie, che sono quegli ostacoli tecnologici, come nei semiconduttori, che ci permettono di colmare il divario.
Sono uguali? È lo stesso tipo di “Dobbiamo raddoppiare la densità dei transistor” o è una serie diversa di sfide?
“Direi che i decenni di esperienza contano”
Sono diversi, perché con questo tipo di approccio modulare, ce ne sono alcuni che sono come, quanti possiamo porre in un singolo chip? Quanti possiamo metterne in un unico pacchetto? Quanti ne possiamo confezionare insieme all’interno del sistema? Quindi tutti richiedono innovazioni tecnologiche leggermente diverse all’interno dell’intera catena del valore. Ma non li vediamo come non fattibili; li vediamo certamente come cose che gestiremo nei prossimi anni. Stiamo già iniziando a testare il collegamento tra due pacchetti tramite un cavo criogenico. Questo è verso la nostra dimostrazione Flamingo, che stiamo pianificando per il prossimo anno.
Puoi sfruttare una delle cose che stanno accadendo sul lato del processo con i computer classici?
Oh, sì.
Come TSMC colpisce tre nanometri e puoi tirarlo in avanti, o è diverso?
Non così esplicitamente alle cose più recenti che stanno accadendo oggi nei semiconduttori. Ma IBM è stata nel gioco dei semiconduttori per molti, molti decenni. E molto del lavoro che abbiamo ottenuto anche raggiungendo un 100 qubit con Eagle un paio di anni fa è stato perché avevamo quello sfondo a semiconduttore profondamente radicato. Quindi, solo per farti un esempio, a 100 qubit, la sfida è come si collega effettivamente a 100 qubit in un chip? La cosa standard che fai nei semiconduttori è andare a più strati, ma non è così facile farlo solo in questi circuiti quantistici superconduttori perché potrebbero rovinare i qubit. Potrebbe farli decoare.
Ma a causa del nostro know-how con l’imballaggio, abbiamo trovato i materiali giusti, abbiamo trovato il modo giusto di usare le nostre tecniche di fabbricazione per implementare quel tipo di cablaggio multistrato e parlare ancora con questi 100 qubit. Ci siamo evoluti ulteriormente lo scorso anno per arrivare effettivamente a 1.000. E così quel tipo di know-how dei semiconduttori è semplicemente radicato e qualcosa che è, direi, i decenni di esperienza contano.
Quindi costruirai il chip di calcolo quantistico di prossima generazione, Heron. Ha 133 qubit. Come viene prodotto quel chip?
Va bene. Bene, per costruire il chip di calcolo quantistico di nuova generazione, ci affidiamo a tecniche di imballaggio avanzate che coinvolgono più strati di metallo superconduttore da imballare e per collegare vari qubit superconduttori. Con Heron, stiamo anche usando una nuova architettura di accoppiatore sintonizzabile, che ci consente di avere qualità di gate two-qubit record al mondo. E tutto questo viene fatto in una struttura di fabbricazione standard che abbiamo in IBM e impacchetta questo chip, e dobbiamo raffreddarlo in un ambiente criogenico.
Quindi il silicio va da un lato dell’edificio, l’erone esce dall’altro?
Voglio dire, sicuramente più passi di così. [Ride] E c’è questo know-how su come farlo correttamente per avere qubit ad alte prestazioni, che abbiamo appena costruito.
Spiegami cos’è un qubit ad alte prestazioni.
Sì, quindi la cosa difficile con questi qubit… Ci sono diversi modi di costruire qubit. Ci sono persone che usano ioni e atomi ed elettroni e cose del genere, ma i nostri sono in realtà solo metallo su un substrato; sono circuiti. Sono molto simili ai circuiti che potresti vedere quando guardi all’interno di un chip standard. Ma il problema con questi circuiti è che puoi costruire, quindi puoi fondamentalmente organizzarli in un certo modo e usare i materiali giusti. E hai un qubit che, in questo caso, per i qubit superconduttori, risuona a cinque gigahertz.
Se scegli i materiali sbagliati, la vita di questi qubit può essere estremamente breve. Quindi, quando abbiamo iniziato nel campo della costruzione di qubit superconduttori nel 1999, i qubit superconduttori sono durati forse per due nanosecondi, cinque nanosecondi. Oggi siamo arrivati a quasi un millisecondo, da centinaia di microsecondi a un millisecondo. Già in numeri ordini di grandezza più lunghi. Ma ci sono voluti molti anni di sviluppo. E al punto di poche centinaia di microsecondi, siamo in grado di fare tutte queste operazioni complesse di cui abbiamo parlato per spingere questa scala di utilità di cui abbiamo discusso in precedenza. Quindi quel know-how per aumentare quella vita si riduce all’ingegneria, si riduce alla comprensione dei pezzi fondamentali che generano perdita nei materiali, e questo è qualcosa in cui abbiamo certamente esperienza.
Parlami dell’industria in generale. Quindi IBM ha un approccio: hai detto che stai usando metalli su un substrato. Stai sfruttando tutto il know-how dei semiconduttori che IBM ha. Quando sei sul mercato e stai guardando tutti i tuoi concorrenti, Microsoft sta facendo qualcos’altro, Google qualcos’altro. Passa attraverso la lista per me. Quali sono gli approcci e come pensi che stiano andando?
Quando pensiamo ai concorrenti, puoi pensare ai concorrenti della piattaforma di chi sta costruendo i servizi, ma penso che quello che stai indicando di più sia il lato hardware.
Quando si tratta di questo, c’è un semplice insieme di metriche per confrontare le prestazioni dei processori quantistici. È scala: a che numero di qubit puoi ottenere e costruire in modo affidabile? Qualità: per quanto tempo vivono quei qubit per eseguire operazioni e calcoli? E velocità: quanto velocemente puoi effettivamente eseguire esecuzioni e problemi attraverso questi processori quantistici? E quella parte della velocità è qualcosa in cui è un’interazione tra il tuo processore quantistico e la tua infrastruttura informatica classica perché parlano tra loro. Non si controlla un computer quantistico senza un computer classico. E quindi devi essere in grado di far entrare i tuoi dati, uscire i dati ed elaborarli sul lato classico.
Quindi scala, qualità, velocità. Il nostro approccio con qubit superconduttori, al meglio delle nostre conoscenze, possiamo colpire tutti e tre in modo molto forte. Scala, spinta fino a oltre 1.000 qubit. Sappiamo che possiamo già costruire fino a 1.000 qubit con le tecnologie che abbiamo costruito. Dalla qualità, Heron – che stiamo rilasciando – ha la migliore qualità del cancello. Quindi i cancelli, le operazioni, le qualità del cancello che sono state mostrate attraverso un grande dispositivo. E poi la velocità, in termini di solo tempi di esecuzione, siamo nell’ordine dei microsecondi per alcune delle velocità di clock, mentre altri approcci possono essere mille ordini di grandezza più lenti.
Quali sono gli altri approcci nel settore che vedi, e dove ti stanno battendo e dove sei avanti?
Quindi ci sono ioni intrappolati: fondamentalmente stanno usando ioni molecolari come il cesio e cose che potresti usare per gli orologi, gli orologi atomici. Possono avere una qualità molto buona. In effetti, ci sono alcuni risultati che hanno prestazioni tremende su un certo numero di quei tipi di qubit agli ioni intrappolati in termini di qualità di gate a due qubit. Ma sono lenti. In termini di velocità di clock per far entrare le tue operazioni, far uscire le tue operazioni, a volte fai operazioni per riciclare lo ione. Ed è qui che, direi, ha un aspetto negativo.
Direi che, in questo momento, i qubit superconduttori e gli ioni intrappolati sono gli approcci che hanno più risalto al momento che sono stati messi in termini di servizi utilizzabili. Sono emersi anche gli atomi; è molto simile agli ioni intrappolati. Lì, usano queste piccole cose divertenti chiamate pinzette ottiche per tenere gli atomi in piccoli array. E ci sono alcuni risultati entusiasmanti che sono usciti da vari gruppi atomici lì. Ma ancora una volta, si riduce a quella velocità. Ogni volta che hai questi oggetti atomici reali, uno ione o un atomo, le tue velocità di clock finiscono per farti male.
Va bene, lasciatemi fare di nuovo un confronto con i semiconduttori. Quindi nei semiconduttori c’era una litografia a più modelli che tutti hanno inseguito per un minuto, e ha raggiunto uno stato finale. E poi TSMC aveva scommesso davvero alla grande su EUV e questo ha permesso loro di andare avanti. E Intel ha dovuto fare un grande cambiamento laggiù. Stai guardando la tua tabella di marcia, stai facendo superconduttori, criogenici, metalli su substrati, e qui alcuni ragazzi stanno facendo pinzette ottiche sugli atomi. C’è un pensiero nella tua testa come: “È meglio tenere d’occhio questo perché potrebbe essere l’innovazione di processo di cui abbiamo effettivamente bisogno”?
Penso che nel complesso, nel paesaggio, teniamo sempre traccia di ciò che sta accadendo. Stai sempre vedendo quali sono le ultime innovazioni nelle varie tecnologie.
È anche un buon confronto con i semiconduttori in quel modo?
Tutti i sistemi sono completamente diversi. Le architetture non sono così compatibili. A un certo livello, con i tuoi nodi dei tuoi semiconduttori, ci potrebbero essere alcuni tipi di know-how che traducono il modo in cui si instrada e si impagina, forse. E qui, al di sopra di un certo livello, ci sarà anche una comunanza in termini di piattaforma di calcolo, come vengono generati i circuiti quantistici. I livelli software potrebbero essere simili, ma l’hardware fisico effettivo è molto diverso.
Sembra che la cosa di cui stiamo parlando sia come si fa un qubit? E non è ancora stato risolto. Hai un approccio in cui sei molto fiducioso, ma non c’è un vincitore sul mercato.
Voglio dire, siamo abbastanza fiduciosi. Siamo abbastanza fiduciosi nei qubit superconduttori.
Abbastanza giusto. [Ride] Mi stavo solo chiedendo.
È per questo che siamo in grado di prevedere 10 anni avanti, che vediamo la direzione che stiamo andando. E per me è più che ci saranno innovazioni all’interno che continueranno a aggravare in quei 10 anni, che potrebbero renderlo ancora più attraente col passare del tempo. E questa è solo la natura della tecnologia.
Devi prendere decisioni su forse la linea temporale più lunga di chiunque abbia mai avuto nello show. Sono sempre le persone chip che hanno le linee temporali più lunghe. Parlo con i CEO dei social media, ed è come se la loro cronologia fosse tra cinque minuti, tipo: “Cosa vieteremo oggi?” Questa è la linea temporale. Parlo con la gente dei chip, e le tue tempistiche sono decenni. Hai appena menzionato casualmente un chip che spedirai nel 2033. È tra molto tempo. Come si prendono decisioni su quel tipo di cronologia?
C’è la roba a breve termine, ovviamente, e la tabella di marcia serve come guida. Quella tabella di marcia è costruita in modo che tutte queste varie cose abbiano un impatto su quella consegna a lungo termine.
Basta guidarmi attraverso: che aspetto ha la riunione della tabella di marcia dell’informatica quantistica? Siete tutti in una sala conferenze, siete alla lavagna? Dipingi il quadro per me.
“È principalmente una cosa di inerzia spostare intere industrie, spostare le banche, spostare il commercio, adottare quegli standard”
Sì, è una grande domanda. Voglio dire, abbiamo un certo numero di noi che sono seduti lì. Sappiamo certamente di avere alcuni tipi di basi tecniche che sappiamo che dobbiamo includere in questi chip e sistemi di nuova generazione.
Per questa tabella di marcia, abbiamo detto: “Sappiamo che a un certo punto dobbiamo ottenere la correzione dell’errore quantistico nella nostra tabella di marcia”. E con quel vantaggio tecnico, sappiamo quali sono i requisiti? Quindi prima abbiamo detto: “Ok, mettiamolo qui. Ora lavoriamo all’indietro. Dice che dobbiamo fare questa innovazione e questa innovazione entro questa data, e quest’altra innovazione nello stack software o qualsiasi altra cosa entro questa data.” E poi diciamo: “Oh, spara, abbiamo finito il tempo. “Stiamo un po’ indietro””.” E così facciamo un po’ di quella pianificazione, perché vogliamo anche farlo in modo da presentare questa tabella di marcia che spesso chiamiamo decisioni no-regrets. Non vogliamo fare cose che sono solo per il breve termine. Vogliamo davvero scegliere strategie che ci diano questo percorso a lungo termine.
È per questo che parliamo così tanto di scala di utilità in termini di ciò che possiamo fare con gli eronti e presto i fenicotteri. Ma tutto ciò che vogliamo costruire in cima a ciò che possiamo fare lì si tradurrà in ciò che possiamo fare quando avremo quei sistemi su larga scala, compresa la correzione degli errori. E in termini di pianificazione della tabella di marcia… Non abbiamo finito, a proposito. Abbiamo questo quadro generale per la tabella di marcia decennale, e poi dobbiamo perfezionare. Abbiamo ancora molti dettagli su cui lavorare in termini di quali sono quelle cose su cui bisogna lavorare attraverso il livello software, il livello del compilatore, il livello dell’elettronica di controllo e certamente il livello del processore.
C’è pressione commerciale su questo? Ancora una volta, questo è un sacco di costi in una grande azienda pubblica. Il CEO di IBM in quella stanza sta dicendo: “Quando farà soldi? Spostalo verso l’alto”?
Penso che il punto sia che la nostra missione è quella di portare l’informatica quantistica utile nel mondo. Lavoro in questo settore da 20 anni. Non siamo mai stati così vicini a essere in grado di costruire qualcosa che sta guidando un valore reale. E quindi penso che quando guardi la nostra squadra, siamo tutti allineati lungo quella missione. Che vogliamo portare questo a qualcosa che… Abbiamo iniziato solo con il farlo uscire nel cloud in termini di costruzione della comunità. Ora, vediamo fondamentalmente questo come uno strumento che altererà il modo in cui gli utenti eseguiranno il calcolo. E quindi ci deve essere, e mi aspetto che ci sia, valore lì. E abbiamo visto come è progredita la comunità HPC e abbiamo visto come il supercalcolo ha… Potresti vedere cosa sta succedendo con l’assorbimento dell’IA e tutto il resto. Lo costruiamo, costruiremo la comunità intorno ad esso, guideremo il valore.
Parliamo di AI per un secondo. Questo è davvero un buon esempio di questo. La domanda di intelligenza artificiale è alle stelle. L’industria è calda. Vedremo se i prodotti sono di lunga durata, ma sembra esserci una reale domanda dei consumatori per loro. E questo è tutto tradotto in un sacco di gente che vuole un sacco di chip Nvidia H100. È focalizzato molto strettamente su un tipo di processore. Vedi sistemi quantistici entrare in quella zona in cui eseguiremo molti carichi di lavoro di intelligenza artificiale su di essi? Come i futuri carichi di lavoro dell’intelligenza artificiale.
Quello che è successo nell’IA è fenomenale, ma non siamo al punto in cui il computer quantistico è questo oggetto di merce che stiamo solo comprando tonnellate di chip. Non stai fabbricando milioni di questi chip. Ma costruiremo questo supercomputer basato sull’informatica quantistica, che sarà squisitamente bravo in certi tipi di compiti. E quindi il framework che vedo effettivamente è … già avrai i tuoi cluster di calcolo AI. Il modo in cui le persone eseguono i carichi di lavoro oggi, sono sicuro che stanno eseguendo alcune parti sui loro normali computer, sui loro laptop, ma parti del lavoro vengono alimentate al cloud, ai loro hyperscaler, e alcuni di loro useranno i nodi di calcolo AI.
Lo vediamo anche per come il quantum si alimenterà. Sarà un’altra parte di quel panorama generale di accesso al cloud in cui prenderai un problema, lo analzzerai. Avrai parti di esso che funzionano sul calcolo classico, parti di esso che potrebbero funzionare sull’intelligenza artificiale, parti di esso che faranno leva su quello che chiamiamo supercomputing quantistico. Questo è il posto migliore per risolvere quella parte del problema. Poi torna, e devi cucire tutto insieme. Quindi, dal punto di vista di IBM, dove parliamo spesso di cloud ibrido, questo è il cloud ibrido che collega tutti questi pezzi insieme. E la differenziazione c’è in termini di costruzione di questo supercomputer quantum-centrico al suo interno.
Quindi il tuo supercomputer quantum-centrico nel cloud. Abbiamo parlato molto di superconduttivo ora. Hai bisogno di un centro dati molto freddo. Questa non sembra una cosa che accadrà a livello locale, per me, mai, a meno che LK-99 non sia reale. Questo non accadrà a nessuno nella propria casa al di fuori di un data center IBM per un bel po’ di tempo.
Direi questo. Quindi, quando lavoravo per la prima volta in questo settore e ho fatto il mio dottorato in questo settore – ho lavorato su qubit superconduttori – avevamo bisogno di questi grandi contenitori, questi frigoriferi, dove dobbiamo far ruotare queste enormi brocche di elio liquido e riempirle ogni tre giorni per tenerle fredde. Ora, questo è un esperimento di fisica. Voglio dire, ci sono già state innovazioni in criogenia che sono chiavi in mano: li colleghi, rimangono in funzione, possono funzionare per anni e mantenere i tuoi carichi utili alle giuste temperature. Stai pagando l’elettricità, ovviamente, per tenerli freddi. Ma stiamo vedendo innovazioni anche lì, in termini di guida della criogenica su scala infrastrutturale. Onestamente, evolveremo il centro dati del futuro, proprio come i centri dati di oggi si sono evoluti per gestire le maggiori risorse di elaborazione necessarie. Lavoreremo mano nella mano con come costruire questi centri dati quantistici, e lo stiamo già facendo. Quindi abbiamo un data center quantistico a Poughkeepsie, che ospita la maggior parte dei nostri sistemi, e stiamo progettando di espanderlo ulteriormente.
Penso che l’IA abbia molto complicato la questione di cosa ti è permesso fare con un chip di computer. La Casa Bianca ha appena rilasciato un ordine esecutivo sull’IA. E da qualche parte c’è l’idea che non dovresti essere in grado di fare alcune cose con l’IA. E ho parlato con il CEO di AMD Lisa Su alla Code Conference e ho detto: “Accetteresti un regolamento che limiti ciò che le persone possono fare su un chip AMD?” E lei ha detto: “Beh, sì, potremmo doverlo fare. Potrebbero esserci alcune cose che non lasciamo più fare a questi computer.” Il che è molto impegnativo quando si parla del portatile di qualcuno.
È molto meno impegnativo quando si parla di un centro dati. Come AWS può solo impedirti di fare un carico di lavoro. IBM, sono sicuro, ha regole e regolamenti su ciò che il suo cloud è in grado di fare e su ciò che si permetterà di fare con il suo cloud computing. Tu fast-forward quantum, la gente è preoccupata che un giorno romperai la crittografia AES con la quantistica, e poi il mondo cadrà a pezzi perché il mondo gira sulla crittografia AES. Ci stai ancora pensando: ci sono alcune cose che non dovremmo permettere alle persone di fare? E mentre costruiamo il sistema cloud, dovremmo assicurarci di mettere in atto i controlli?
Ci sono certamente fili di quel tipo di discorso, specialmente in tutta la comunità. Personalmente, quello che vedo è, quello di crittografia, sappiamo già che ci sono standard di crittografia quantum-safe. E una cosa divertente è che, in termini di IBM Quantum, la nostra missione è quella di portare l’informatica quantistica utile nel mondo. L’altro lato è rendere il mondo quantum-safe. Vogliamo effettivamente aiutare i clienti a capire come aggiornare i loro standard di crittografia a quelli sicuri quantistici. Esistono. Il NIST ne ha approvati un certo numero, che è principalmente una cosa di inerzia per spostare intere industrie, spostare le banche, spostare il commercio, adottare quegli standard.
Non riesco a far smettere di usare password di quattro caratteri. Ci parlerai?
Sì, giusto. Esatto, questa è la sfida. Ed è quasi una sfida sociale che deve essere superata per farlo accadere. Togliendo questo, se guardiamo attraverso ciò che si può o non può fare sui computer quantistici, onestamente penso che dobbiamo solo guardare cosa sta succedendo con l’IA, vedere cosa è stato fatto in passato con il calcolo ad alte prestazioni. Di nuovo, non tutti hanno un computer ad alte prestazioni a casa. E quindi ci aspettiamo che molti dei quadri siano molto simili. E quindi la mia preoccupazione di mettere troppe salvaguardie intorno a esso in anticipo sta soffocando i progressi, sta soffocando lo sviluppo in anticipo.
Ma questa conversazione sta accadendo ora, direi, in un modo molto più acceso nello spazio dell’IA. Voglio dire, è quasi come se due religioni si trovassero in competizione per vedere quale sarà il futuro dell’IA: “Sta solo correre il più velocemente possibile” e “Dovremmo avere più sicurezza”. E questo è culminato potenzialmente in qualsiasi cosa sia successa a OpenAI.
Esatto.
Chi lo sa? Non lo sappiamo ancora. Non so nemmeno se è così. Ma questa è una narrazione su quel caos che certamente esiste. C’è qualcosa di simile in Quantum? Ci sono ricercatori quantistici che dicono: “Quella persona è fuori controllo”? Nomi. [Ride]
No, non siamo ancora in quella fase, direi. Ma ci sono iniziative di responsiblequantum computing. Ci sono cose che lo stanno guardando, e penso che ci sia molto su cui appoggiarsi in termini di apprendimento da ciò che sta accadendo in questo momento con quelle storie di intelligenza artificiale.
Qual è la cosa – al di fuori del puro valore di intrattenimento – qual è la cosa dell’accelerazione dell’IA che hai tirato nel modo in cui stai pensando alla tua tabella di marcia e alla costruzione dei sistemi?
In realtà è davvero bello. Qualcosa di cui stiamo parlando anche al nostro vertice sull’informatica è che abbiamo Watsonx in IBM e abbiamo effettivamente introdotto alcuni metodi GenAI per aiutare gli utenti a programmare in Qiskit. Quindi in realtà c’è un motore che abbiamo costruito lì per aiutare gli utenti a codificare che staremo visualizzando in anteprima. E poi un’altra cosa è che tradurre i problemi nei circuiti giusti che possono funzionare su hardware fisico è un compito molto impegnativo. È, di per sé, un compito di ottimizzazione in termini di c’è un problema particolare che vuoi eseguire, e il mio hardware è configurato in questo particolare modo. Chiamiamo questa traspilazione: come mappare l’uno all’altro. E i nostri team hanno effettivamente usato metodi di intelligenza artificiale per trovare fondamentalmente percorsi più ottimali di quella mappatura. In realtà è davvero divertente in quanto l’IA influisce su come possiamo accelerare il quantum. C’è un altro rovescio della medaglia, che è che stiamo esaminando come il quantum può effettivamente aumentare i metodi di classificazione per l’IA. Quindi è tutto legato insieme in qualche modo qui.
Questo ha cambiato la tua tabella di marcia, l’esplosione della domanda di sistemi di intelligenza artificiale? Un anno fa, non c’era ChatGPT. Ora siamo seduti alla fine, e andrò al CES tra un paio di settimane e tutti mi diranno che l’IA è in tutto. L’industria reagisce solo alle parole d’ordine. Questo ha spostato la tua strada?
Questa cosa della transpilazione AI è arrivata all’improvviso e fa parte della nostra tabella di marcia. È un’innovazione e ora vogliamo inserirla in qualcosa che vogliamo guidare verso il prodotto. Quindi in quel micro senso, ha. Nel senso più macro, dico solo che è sempre bello vedere un’enorme eccitazione per le capacità di calcolo. Se il ronzio è rimasto più sull’IA e ha lasciato il quantum fuori dai guai per un po’, non è così male.
Wow. I doomeri di crittografia sono come “Fai attenzione a noi”. Ci sono alcuni problemi che il quantum è sempre stato promesso di risolvere: comportamento molecolare, mappatura delle proteine. Alcuni di questi problemi sono stati attaccati dall’IA molto direttamente. Abbiamo appena avuto Demis Hassabis nello show – ovviamente DeepMind, hanno solo fatto le proteine. È fatto ora, puoi averlo, ce ne andremo. C’è una sovrapposizione tra dove l’IA si sta espandendo in termini di set di problemi o ciò che può fare che è competitivo con ciò che si vuole realizzare con il quantum?
Non sono il più importante esperto di quali problemi molecolari possono essere risolti qui. Ma posso almeno dire che sappiamo che ci sono certe dimensioni e certe scale di problemi che, in termini di risorse di supercalcolo, spingono il vertice, spingono la frontiera ai suoi limiti massimi di ciò che gli utenti possono effettivamente simulare. Ancora una volta, non so quanto di questo possa effettivamente essere considerato usando l’IA per metodi approssimativi, ma anche allora, sarebbe ancora metodi approssimativi. Ed ecco dove il quantum sarà davvero qualcosa che permette di guardarlo in modo diverso.
Quando guardi quello che hai in questo momento – hai partner, hai potenziali clienti, hai persone interessate – qual è il maggior volume di interesse da parte della comunità?
Ci sono quelli che usano vari materiali. Ad esempio, il Dipartimento dell’Energia, l’Oak Ridge National Lab, quelli che già utilizzano il calcolo ad alte prestazioni. Sono super interessati a utilizzare le nostre piattaforme. Boeing in realtà ha lavorato con noi per un bel po’. Stanno solo esaminando problemi super difficili come compositi di materiali e strati di materiali e il modo migliore per organizzarli. E hanno problemi con migliaia di variabili che sono tremende, che fondamentalmente non possono funzionare sui computer classici. E abbiamo lavorato con loro per capire come mappare i loro problemi in quantum. E poi hai l’industria dei servizi finanziari. Hai un certo numero di giocatori che stanno guardando cose come l’ottimizzazione del portafoglio, cercando di capire tutte queste cose.
È sempre ottimizzazione del portafoglio, amico. Alla fine della giornata, è come se Boeing facesse un po’ di roba figa e l’ottimizzazione del portafoglio. È sempre in agguato sullo sfondo da qualche parte. Va bene, pagano le bollette. È bello.
Hai parlato molto del cloud. Hai i tuoi sistemi cloud. Hai anche messo System Ones nei campus universitari. Come funziona? Compri un System One, ha alcuni qubit. C’è una persona che rotola l’elio fino ad esso?
Sono ancora di proprietà di IBM. Si tratta in realtà di servizi gestiti distribuiti nei locali delle sedi dei clienti. Quindi ne abbiamo uno in realtà che, all’inizio di quest’anno, è con la Cleveland Clinic in Ohio. Questo è probabilmente il posto più interessante in cui abbiamo implementato un sistema, in quanto è nella loro caffetteria.
È incredibile.
Le persone hanno i loro caffè mattutini e mangiano il loro pranzo intorno ad esso.
E questo è solo un supercomputer locale autonomo.
Puoi pensarlo come un servizio gestito autonomo e locale che sono in grado di costruire una rete e un ecosistema con i loro ricercatori, altre istituzioni universitarie partner che potrebbero volerlo utilizzare. Quindi questa è una specie di idea. Ancora una volta, abbiamo il nostro centro dati principale e i sistemi cloud-accessible come hai detto. E hai questi altri che guidi gli ecosistemi regionali. E stiamo effettivamente lanciando un centro dati europeo intorno al nostro sistema in Germania l’anno prossimo perché, in luoghi diversi, le persone si preoccupano di come vengono gestiti i loro dati. E così non devi mai inviare informazioni all’estero e cose del genere. Quindi, a quel livello, possiamo certamente costruire quel tipo di flessibilità nel modo in cui gestiamo quel servizio in termini di dati utente e tutto il resto.
Parte della notizia di oggi è il Sistema Due. Hai clienti System One che dicono: “Oh, merda, avrei dovuto aspettare”? Come funziona con un supercomputer quantistico? C’è un ciclo di upgrade?
Anche con i nostri System Ones, li abbiamo effettivamente aggiornati nel tempo. E di nuovo con la nostra tabella di marcia, alcune di esse, in realtà abbiamo lanciato per la prima volta con 27-qubit Falcons. Ad esempio, abbiamo appena annunciato che il nostro sistema in Giappone con l’Università di Tokyo è stato aggiornato a un processore Eagle 127-qubit. Ma in termini di infrastruttura dal System One al System Two, è completamente diverso. Quindi System One è fantastico in quanto ha dimostrato per la prima volta che possiamo mettere queste cose quasi ovunque: una caffetteria, per esempio. Non dovevi essere in un laboratorio di fisica perché funzionassero.
È difficile perderlo. Immagine: Ryan Lavine per IBM
E nella caffetteria c’è il sistema criogenico superconduttore e super-raffreddato?
Sì. Come ho detto, hai il tuo caffè mattutino…
E tu lo stai solo guardando.
…accanto a un processore quantistico da 15 millikelvin davvero, molto freddo.
La gente sa che è lì? C’è un cartello?
È difficile perderlo. [Ride] È questa scatola di vetro che è… In realtà, la storia divertente è che lavoriamo con questo fornitore, Goppion, che in realtà gestisce il vetro che blinda la Gioconda per aiutare a costruire gli involucri per i nostri sistemi.
È figo. Va bene, quindi il sistema due.
Sì. Quindi Sistema Due: livello di infrastruttura completamente nuovo. Ma è progettato per scalare. Ed è qui che certamente l’aggiornamento e la modularità sono intrinsecamente integrate in esso. Vuoi aumentare il numero di processori, aumentare l’ambiente di raffreddamento criogenico? Possiamo farlo. Come Lego, come i blocchi modulari. Vuoi aumentare la quantità di elettronica di controllo? Possiamo farlo. Vuoi aumentare la quantità di calcolo classico per interfacciarti con il computer quantistico? Possiamo farlo anche noi. Questa è l’idea alla base di System Two, che è davvero progettato per la scalabilità in modo modulare all’interno di un ambiente di data center.
Quindi IBM sta annunciando un nuovo chip, un nuovo supercomputer, System Two, nuove tabelle di marcia. Se sei solo una persona normale e stai guardando il ritmo dello sviluppo dei supercomputer, a cosa dovresti prestare attenzione?
Direi che devi solo guardare fuori il fatto che in realtà non è difficile iniziare e impararlo. C’è un’intera serie di risorse che puoi andare a programmare un computer quantistico domani. E il fatto che abbiamo questa tabella di marcia di 10 anni, e il fatto che stiamo costruendo questo ecosistema e guidando verso queste nuove generazioni di chip e sistemi, vogliamo sviluppare lo sviluppatore del futuro. E quindi se sei interessato a conoscere l’uso di un computer quantistico e a essere coinvolto, c’è un’enorme opportunità di crescita qui. E ne avremo bisogno. Costruire un’intera industria, e costruirla come una piattaforma informatica che funzioni perfettamente con i computer più ad alte prestazioni di oggi, richiederà un’ondata di persone. Quindi, per me, tocchi così tante persone diverse là fuori, è come, esci. Puoi eseguire e programmare un computer quantistico domani. Disponiamo di sistemi liberamente disponibili su cui eseguire i circuiti.
Smettila di giocare con i tuoi LLM; Ottieni il treno quantistico. Questo è quello che sto togliendo da questo.
Sì.
Va bene. Ultima domanda molto sciocca. Quando guardi i film di Ant-Man, sei sempre furioso?
Direi che i primi film di Ant-Man, parte del focus quantistico era interessante, era carino. Ma il più recente in cui avevano un’intera civiltà dentro, oof.
È un po’ ruvido.
È stato un po’ duro.
Va bene, Jerry, è stato fantastico. Grazie mille per essere venuto suDecoder.
Sì, sei il benvenuto. Felice di essere qui.
04/12/23 Forbes: IBM lancia Quantum System Two e una tabella di marcia per Quantum Advantage
di Karl Freund
IBM ha annunciato il suo percorso per raggiungere oltre 100.000 qubit e oltre un miliardo di gate di circuito. Una volta realizzata, IBM potrebbe creare la prima piattaforma al mondo per il calcolo universale in un sistema quantistico. Sembra che Quantum Nirvana sia finalmente in vista.
Scenario
Costruire un computer quantistico pratico rimane sfuggente nonostante alcuni dei team di ricerca più avanzati del mondo. A differenza dei computer classici che si basano su bit, che possono rappresentare 0 o 1, i computer quantistici utilizzano qubit che possono esistere in una sovrapposizione sia di 0 che di 1 contemporaneamente. Questa proprietà unica consente ai computer quantistici di eseguire calcoli esponenzialmente più velocemente dei computer classici per problemi specifici. La sfida ora è aumentare la scala e ridurre gli errori, che possono essere
Tuttavia, sfruttare la potenza della meccanica quantistica non è un’impresa facile. I sistemi quantistici sono estremamente freddi (la temperatura media nello spazio profondo è di 2,7 Kelvin mentre i processori quantistici devono essere a 15 mK), intrinsecamente fragili e suscettibili alla decoerenza, dove le interazioni con l’ambiente interrompono i delicati stati di sovrapposizione dei qubit. Inoltre, manipolare e misurare i qubit con precisione è una sfida significativa, poiché qualsiasi disturbo può introdurre errori che si accumulano e compromettono l’integrità del calcolo. Per scalare, questi tassi di errore devono scendere da uno su mille a uno su un milione di errori per calcolo.
Sistema Quantistico Due
Nonostante questi formidabili ostacoli, i ricercatori di tutto il mondo stanno progredendo costantemente nel superare queste sfide, con IBM Research apparentemente in testa. All’IBM Quantum Summit, i ricercatori hanno annunciato un nuovissimo Quantum System Two, costruito su tre processori IBM Heron e, per la prima volta, hanno condiviso una tabella di marcia che fornirà il quantum su larga scala con la mitigazione e la correzione degli errori e il software necessario per rendere questi sistemi utili
IBM dice che siamo attualmente nell’era 2 di 3. La ricerca in questa era si concentra sulla caratterizzazione dell’hardware quantistico, sulla mitigazione e la soppressione degli errori e sulle applicazioni proof-of-concept. Dopo aver pubblicato circa 2595 documenti di ricerca che condividono le loro idee e progressi, IBM i istirà ora otto centri di calcolo quantistico negli Stati Uniti, in Canada, in Giappone e in Germania entro la fine del 2024 per fornire l’accesso al Sistema Due a scienziati e partner in tutto il mondo. Era 3 espanderà la scala e fornirà la correzione degli errori.
Il futuro di Quantum in IBM è quasi a portata di mano.
Mentre Quantum System 2 è un salto significativo, la vera eccitazione si verifica quando quella tecnologia può scalare riducendo massicciamente i tassi di errore. IBM ha detto che pensano che la correzione degli errori sia più vicina di quanto avessero immaginato. Gran parte di questa fiducia deriva da nuove ricerche oltre la mitigazione degli errori che abbiamo riportato qualche mese fa. Quando è accoppiato, letteralmente, con la nuova tecnologia di interconnessione per consentire il ridimensionamento, IBM può ora vedere la linea di meta.
La nuova roadmap Quantum di IBM si estende oltre l’hardware. Descrive in dettaglio il software e la tecnologia hardware abilitante necessaria per fornire un vantaggio quantistico, quando un sistema quantistico può risolvere problemi che i tradizionali computer one-and-zero semplicemente non possono risolvere in qualsiasi lasso di tempo. Nota i piccoli segni di spunta cerchiati di verde che segnano le pietre miliari raggiunte.
Mentre IBM non confermerebbe che “Blue Jay” prende il nome da Jay Gambetta ;-), lo scienziato che guida il laboratorio quantistico dell’azienda, questa piattaforma consegnerà l’obiettivo a lungo ricercato della ricerca quantistica, risolvendo una vasta gamma di problemi che i computer tradizionali non possono. Dopo tutto, questo è l’intero motivo per cui l’industria sta spendendo miliardi di dollari per costruire questo freddo futuro. I problemi irrisolti nell’IA, nella chimica, nei servizi finanziari, nelle scienze della vita, nella fisica e nella ricerca di base potrebbero finalmente diventare trattabili, rendendo i risultati vicini alla portata dell’umanità.
Tuttavia, lungo la strada, IBM ha fornito obiettivi annuali per ciascuno dei principali componenti che sta ricercando. I nuovi codici di correzione degli errori e la modularità del sistema, con elementi costitutivi interconnessi, consentiranno a milioni di qubit di fornire le stesse prestazioni complessive con il codice di correzione degli errori che si presenta come centinaia di migliaia di qubit, interconnessi con nuovi accoppiatori che IBM sta innovando.
Di seguito è riportato un’esplosione dei passaggi chiave del percorso verso Blue Jay. Kookaburra è il prossimo grande chip nel 2026, formando l’elemento costitutivo iniziale su cui la scalabilità e la riduzione degli errori si evolveranno in Blue Jay nel 2033.
Conclusioni
IBM deve ancora mancare un obiettivo fondamentale nel suo programma di calcolo quantistico e crediamo che non stiano per iniziare ora. Questo notevole track record ha dato agli scienziati computazionali gli strumenti per far progredire il loro lavoro e la gestione IBM la fiducia di annunciare pubblicamente una tabella di marcia per raggiungere il nirvana quantistico.
Allacciati le cinture!
Salve,
articolo molto interessante. Mi chiedevo se aveva in programma di approfondire questo tema:
https://www.milanofinanza.it/news/poste-conviene-comprare-le-azioni-che-il-tesoro-vendera-ecco-quanto-ha-reso-il-titolo-dall-ipo-del-2015-202410042048305679
sembra che il prezzo di collocamento di poste sia un affare.
Grazie
Leonardo
Guarda che le azioni delle Poste che vengono collocate sono le stesse che sono già quotate sul mercato quindi – a meno che per invogliare il piccolo risparmiatore non mettano dei premi tipo 1 az gratis ogni 50 per chi le tiene 1 anno (ma non credo)- comperarle sul mercato o prenderle in collocamento è quasi la stessa cosa.
Poi che sia un titolo da cassetto che ha dato tante soddisfazioni a chi le aveva prese la prima volta e POTREBBE. Dare soddisfazioni anche in futuro è. Un altro paio di maniche.