Intelligenza Artificiale: ma ci si può guadagnare sopra? 2^

Che l’intelligenza artificiale sia una gallina dalle uova d’oro ormai lo hanno capito anche i sassi… il problema è che come già era scritto nel Vangelo “Molti sono i chiamati ma pochi gli eletti ( Matteo 21,23-27)” o per dirla in maniera più moderna individuare quelle aziende che potrebbero affiancare gli attuali Gorilla nell’AI (nvidia e microsoft fra tutti). Gia’ parecchi spunti li ho raccolti nella prima parte di questa discussione che potete trovare QUI ma continuo nella mia selezione di articoli che reputo significativi.



20/06/24 il Foglio: È nata una stella Jensen Huang

Nell’ufficio a Taipei di Morris Chang c’è un disegno incorniciato e appeso a una parete che, da solo, racconta buona parte della rivoluzione digitale che sta vivendo il mondo in questa nuova èra dell’intelligenza artificiale. Il novantaduenne Chang è il fondatore della Taiwan Semiconductor Manufactoring Company (Tsmc), l’azienda leader mondiale dei semiconduttori. Il decollo del colosso taiwanese è legato alla prima rivoluzione digitale, quella di internet, e soprattutto alla partnership tra Tsmc e Apple, che ha portato al boom degli iphone. Ma se Steve Jobs è l’uomo che in qualche modo ha fatto la fortuna di Chang, nel disegno appeso alla parete l’anziano fondatore è ritratto insieme a un altro top manager. Uno che deve larga parte del suo successo proprio al re dei chip di Taipei: Jen-hsun Huang, un altro figlio di Taiwan che ora tutti conoscono con il nome americanizzato in “Jensen”.
E’ stato lo stesso Jensen Huang a regalare il disegno al suo idolo e sotto ha fatto incidere una dedica che dice tutto dell’ammirazione che prova per Chang: “La tua carriera è un capolavoro: sei la Nona Sinfonia di Beethoven”.
E’ da qui, da Taiwan e da Chang, che bisogna partire per capire Huang. Il nuovo Steve Jobs, l’amministratore delegato di Nvidia, una società che fino a pochi anni fa conoscevano solo gli appassionati di videogame e gli addetti ai lavori del mondo tech. L’altro ieri Nvidia ha compiuto l’ultimo salto a Wall Street, dopo tre anni di crescita esplosiva, e ha superato Microsoft dopo aver già lasciato alle spalle Apple. Adesso l’azienda di Santa Clara, nella Silicon Valley, è la numero uno al mondo con una capitalizzazione di oltre 3.300 miliardi di dollari. E Huang, che l’ha fondata a trent’anni nel 1993 e la guida da allora come ceo, è uno degli uomini più ricchi del pianeta, con un patrimonio personale di circa 115 miliardi di dollari.
Tutto parte da Taiwan perché è lì che si producono gran parte dei chip che hanno rivoluzionato il mondo e promettono di rivoluzionarlo di nuovo con L’IA generativa. Senza la capacità produttiva di Chang, Nvidia non sarebbe mai riuscita a tenere il passo della crescita mostruosa che avuto negli ultimi anni, quando da azienda specializzata in Gpu, le schede grafiche nate per i videogiochi, si è trasformata in casa madre per i prodotti che creano la potenza di calcolo necessaria per L’IA. Tutti adesso vogliono la tecnologia di Nvidia, perché è quella che serve a tenere il passo con l’evoluzione dell’intelligenza artificiale. E questo ha reso il gruppo di Huang in breve tempo più ricco di Amazon e Meta messe insieme.
Ma da Taiwan bisogna partire anche per capire Huang, che è nato nel 1963 sull’isola, nella città di Tainan, e da piccolo si è trasferito con la famiglia a vivere in Thailandia. Da lì è poi approdato a dieci anni negli Stati Uniti ed è cresciuto nell’oregon, lo stato della Nike – un’altra azienda storicamente legata al mondo asiatico– delle grandi foreste e degli spiriti liberi. Gli anni della laurea in Ingegneria alla Oregon State University, prima di partire per il master a Stanford e una vita nella Silicon Valley, sono quelli che hanno plasmato in effetti quello spirito libertario oregoniano che Huang mostra ancora oggi. E che è incarnato dal suo oggetto simbolo: il giubbotto di pelle nera.
Se non avete mai sentito parlare di Huang, siete in buona compagnia di una larga fetta di americani, che in larga parte lo hanno scoperto solo due mesi fa da un post su Instagram di Mark Zuckerberg. Il fondatore di Facebook ha postato una foto del suo scambio di giacca con Huang, per mostrarsi orgoglioso con indosso uno dei giubbotti da motociclista del capo di Nvidia. “Non lo conoscete? – ha scritto Zuck – Lui è la Taylor Swift del mondo della tecnologia”.
Da trent’anni, inverno ed estate, Huang gira sempre con giubbotti di pelle di vari tagli, tutti vagamente ispirati a Marlon Brando, che ora probabilmente prenderanno il posto iconico che avevano nella Silicon Valley le maglie turtleneck di Steve Jobs disegnate da Issey Miyake, i bomber da aviatore di Jeff Bezos o le magliette grigie di Zuckerberg.
Anche il look fa parte di un personaggio che ha fama di essere tra i manager che più conoscono il proprio prodotto e hanno uno sguardo capace di anticipare il futuro. Di sicuro Huang vide lunghissimo quel giorno dell’aprile 1993 quando prese posto con due amici in uno squallido fast food della catena Denny’s a San Jose, in una zona all’epoca malfamata della città. Gli altri due erano Chris Malachowsky e Curtis Priem e insieme decisero, tra omelette e tazze di caffè, di avviare una startup dedicata a produrre graphics processor
units (Gpu), schede che all’epoca andavano installate sulla scheda madre di un pc per renderlo capace di sviluppare giochi in 3D e animazioni sempre più realistiche. Era nata Nvidia, che ora potrebbe segnare il ventunesimo secolo come Microsoft e Intel hanno segnato la fine del ventesimo.
Quando la startup cominciò a produrre, il mercato era ancora piccolissimo, ma i tre soci avevano visto arrivare l’onda. Huang si licenziò dal lavoro che aveva in Amd, un altro dei colossi dei chip, e Nvidia iniziò a rilasciare schede grafiche dai nomi iperbolici come “Titan X” o “Geforce Gtx 1080” che innescarono una rivoluzione nel mondo dei videogamer.
Huang dimostrò di nuovo di avere la vista lunga nel 2003 quando, tra lo scetticismo degli investitori di Nvidia, decise di cominciare a proporre le Gpu non solo alle aziende di giochi, ma all’intero mondo tech alla ricerca di potenza di calcolo. Quando le schede di Nvidia si rivelarono perfette per accogliere reti neurali e favorire i processi di machine lear
ning, l’intuizione trovò conferma. Il boom attuale è stato possibile in buona parte grazie a Tsmc e all’amicizia con Chang. E ora a Taiwan Huang è una star. Nei giorni scorsi ha partecipato a Taipei al Computex, il principale evento tech locale, con la moglie Lori e i figli Spencer e Madison, che lavorano entrambi in Nvidia: dovunque è andato, indossando l’inseparabile giubbotto di pelle, si sono viste scene di solito riservate alle star del mondo della musica o dello sport.



13/06/24 E l’Italia ha aziende quotate “AI”? Poca cosa..

intervista alla Ceo di Almaware su Libero … fosse quotata al Nasdaq sarebbe già triplicata.. qui non se ne cura nessuno…


07/06/24 Barron’s: L’intelligenza artificiale è ancora in voga, ma gli investitori stanno diventando sempre più esigenti

Teresa RivasFollow

magnifici sette, tra cui Apple, Microsoft, Nvidia e Tesla, hanno spinto gran parte dei guadagni azionari del 2023. Alcuni investitori temono che ci sia un rischio di concentrazione eccessivo nel mercato.

I

L’entusiasmo per l’intelligenza artificiale ha alimentato buona parte del rally del mercato azionario negli ultimi anni. È improbabile che la situazione cambi presto, ma l’interesse degli investitori potrebbe spostarsi da un’azienda all’altra, almeno temporaneamente.

I magnifici sette – Alphabetsocietà madre di Google, Amazon.com, Apple, Meta Platforms, società madre di FacebookMicrosoft ,  NvidiaTesla , che ha spinto gran parte dei guadagni azionari del 2023 sono stati tutti grandi nomi tecnologici, portando alcuni investitori a temere che ci fosse un rischio di concentrazione eccessivo nel mercato.

Eppure in realtà, nonostante le loro somiglianze superficiali, l’M7 non ha mai davvero scambiato in blocco, come dimostrano le loro prestazioni divergenti nel 2024: mentre le azioni Tesla sono scese di quasi il 30% quest’anno, le azioni Nvidia sono aumentate di quasi il 140%.

James Reilly, economista di mercato di Capital Economics, sostiene che ciò è avvenuto nel contesto di un cambiamento più ampio nel sentiment degli investitori nei confronti dell’IA. Mentre in precedenza sia i titoli del software che quelli dei semiconduttori hanno beneficiato dell’ottimismo sull’IA, più recentemente le azioni della prima categoria sono rimaste indietro, mentre quelle della seconda hanno continuato a salire.

“Contrariamente ad alcuni suggerimenti, non pensiamo che questa debolezza in una parte del settore IT sia la prova che l’entusiasmo per l’IA stia diminuendo”, scrive Reilly. “Questo spostamento a favore dei produttori di semiconduttori e delle utility suggerisce che gli investitori si stanno concentrando maggiormente su quelle società che dovrebbero beneficiare fin dall’inizio dell’IA, piuttosto che su quelle che dovrebbero beneficiare dell’utilizzo finale della tecnologia”.

In un certo senso, questo ha senso: la tecnologia AI è ancora nascente, quindi è difficile prevedere a questo punto chi saranno i veri vincitori dell’uso finale, mentre non importa chi alla fine prenderà il comando, è chiaro che ci sono alcune aziende di chip che forniranno i “picconi e le pale” per arrivarci.

Detto questo, Reilly non crede che questo cambiamento sia permanente, ma piuttosto una variazione naturale nelle opinioni degli investitori, con il pendolo che alla fine oscilla all’indietro. Inoltre, pensa che una volta che sarà più chiaro quali giocatori sono in testa al gruppo, gli utenti di IA potrebbero ancora una volta riprendersi, in tutti i settori.

“La nostra sensazione rimane che il settore IT sia la fonte più probabile di tali vincitori e supererà la maggior parte degli altri”, scrive. “E non saremmo sorpresi se le grandi aziende tecnologiche continuassero a guidare la carica. Ma è possibile creare casi d’uso convincenti per l’IA per le azioni della maggior parte dei settori del mercato. Quindi, man mano che questi usi diventano più chiari, sospettiamo che il rally si allargherà un po’, almeno rispetto a gran parte dell’ultimo anno o giù di lì”.

Questa è ovviamente una buona notizia per il mercato in generale, in quanto renderebbe i guadagni meno dipendenti solo da pochi grandi attori.

Nvidia’s dominance ha comprensibilmente reso nervosi gli investitori. Sebbene il titolo abbia mostrato segni di rallentamento e non sembri necessariamente maturo per un pullback, le sue enormi dimensioni significano che diventa più difficile fornire grandi balzi in avanti.

Come ha notato Bespoke Investment Group all’inizio di questa settimana, quando Nvidia è stata scambiata per l’ultima volta circa 22,6 volte le vendite a termine, nel marzo 2023, la sua capitalizzazione di mercato era solo il 20% del suo livello attuale e le sue entrate previste per i prossimi 12 mesi erano un quarto delle stime attuali.

L’azienda non pensa che Nvidia sembri necessariamente vulnerabile, ma sottolinea che “se le previsioni di vendita dovessero aumentare di nuovo tanto quanto hanno fatto rispetto a marzo 2023, dovrebbero avvicinarsi ai 600 miliardi di dollari. Allo stesso modo, un’altra quintuplicazione del titolo da questi livelli produrrebbe una capitalizzazione di mercato di 15,3 trilioni di dollari (13% dell’attuale capitalizzazione di mercato globale). Questo tipo di mosse non devono assolutamente invertirsi, ma mettiamo in guardia dal pensare che questo tipo di mosse estreme siano sostenibili e consigliamo agli investitori di fissare aspettative realistiche”.

La buona notizia è che, nonostante l’enorme sovraperformance di Nvidia, ci sono prove che anche ora il rally del mercato non è troppo stretto.

“Mentre i più grandi nomi del settore tecnologico stanno chiaramente aiutando di più, anche molti altri stanno facendo bene”, osserva Frank Cappelleri di CappThesis. “Se/quando cominciamo a vedere una notevole divergenza all’interno del Indice S&P 500  Settore tecnologico, è allora che sapremo davvero che le fondamenta si stanno indebolendo. Non ancora”.

Con tanto potenziale  vento contrario si accumula, questa è una buona notizia per gli investitori.

Scrivi a Teresa Rivas all’indirizzo teresa.rivas@barrons.com


07/06/24 Barron’s: Le azioni Nvidia si sono lasciate alle spalle AMD e Intel. Potrebbero recuperare, dice l’analista.

Adam Clark Follow

Nvidia  ha dominato finora il mercato dei chip per l’intelligenza artificiale, e Advanced Micro Devices e Intel sono rimasti sulla sua scia. Le cose potrebbero cambiare in meglio per AMD, ma le possibilità sono meno buone per Intel, secondo un analista di Melius Research.

“Abbiamo incontrato AMD questa settimana e pensiamo che potrebbe essere uno dei beneficiari di un recupero commerciale in uscita dal secondo trimestre”, ha scritto l’analista di Melius Ben Reitzes in una nota di ricerca.

Reitzes ha indicato un paio di fattori che dovrebbero beneficiare AMD come il fatto che Microsoft  ha approvato i vantaggi dei suoi chip AI sulla base del costo totale di proprietà, il costo se si tiene conto di fattori indiretti come le richieste di alimentazione e raffreddamento, un’area in cui Nvidia ha promosso come la propria forza.

Altri potenziali vantaggi per AMD potrebbero includere un maggior numero di ordini da parte di Meta nella seconda metà del 2024 e la sua forza nei nuovi processori AI per PC.

Reitzes ha un rating Buy sul titolo AMD e un target price di 210 dollari. Le azioni sono aumentate dello 0,9% a 168,26 dollari nelle prime contrattazioni di venerdì.

Reitzes ha rating Buy sia sulle azioni Nvidia che su quelle AMD. Tuttavia, il suo target price per le azioni Nvidia di 1.250 dollari implica un potenziale aumento di circa il 5% rispetto ai livelli attuali, mentre il suo target price per le azioni AMD indica un possibile guadagno del 25%.

Tuttavia, è una storia diversa quando si tratta di Intel Il piano dell’azienda di semiconduttori di fare un Investimento enorme nella capacità di produzione di chip confonde le acque per il titolo, secondo l’analista di Melius.

“Non solo la storia della fonderia Intel è troppo complicata per l’investitore medio, ma il fatto che si possano acquistare Nvidia e AMD, aziende con narrazioni di intelligenza artificiale e pochissima intensità di capitale, non fa che aumentare il dolore”, ha scritto Reitzes.

Intel ora deve dimostrare che i suoi margini lordi hanno toccato il fondo e che può beneficiare di un aumento dei mercati dei PC e dei server, piuttosto che dimostrare il successo dei chip AI, secondo Reitzes.


30/05/24 Barron’s: Il fondatore di C3.ai Tom Siebel sul perché l’IA è calda e il software aziendale no

Nel bel mezzo di un tratto difficile per le aziende di software aziendale, C3.ai + 19,44% mercoledì è riuscita a pubblicare risultati migliori del previsto per il suo trimestre di aprile. La società ha mostrato un’accelerazione della crescita top-line per cinque trimestri consecutivi, tornando alla crescita del 20% nell’ultimo periodo per la prima volta dal 2022. E questo ha trascinato in alto l’azione.

Ciò è in contrasto con i risultati deludenti di mercoledì da Salesforce.com che è in calo del 20% giovedì, e UiPath crollata del 34%. Workday ha recentemente riportato un trimestre altrettanto povero.

C’è una visione crescente che i budget IT aziendali si stanno restringendo e la tendenza si sta diffondendo in tutto il settore. Ciò solleva una domanda ovvia: cosa rende C3.ai così speciale?

Il CEO di C3.ai Tom Siebel pensa che la risposta sia semplice. Mentre i budget si stanno restringendo per il software aziendale convenzionale, dice, le aziende stanno spendendo senza reali vincoli di bilancio per le applicazioni AI. Siebel pensa che molte delle aziende di intelligenza artificiale affermate stiano lottando per adattare le loro applicazioni legacy a un mondo di intelligenza artificiale.

“Questi ragazzi hanno cataste di software che hanno costruito letteralmente nel secolo scorso”, ha detto Siebel in un’intervista con Barron’s. “Quello che fanno è che hanno preso un adesivo AI e l’hanno messo sulla parte anteriore della loro scatola – ServiceNow, Salesforce, Workday, Oracle, SAP. Non sono proprio sicuro che i loro risultati saranno all’altezza. La differenza tra noi e loro è che siamo un’IA aziendale nativa. Ho iniziato a costruire questo stack di software AI 15 anni fa, e oggi abbiamo 90 applicazioni aziendali chiavi in mano. Siamo in un posto diverso da loro.” Siebel afferma che l’IA potrebbe effettivamente essere un vento contrario, piuttosto che un accelerante, per alcune società di software aziendale mentre le priorità di spesa cambiano.

Non è sicuramente un vento contrario per noi”, dice. “Dove siamo, non sono davvero sicuro che ci siano budget. Questi ragazzi fanno solo i budget. Questo sta accadendo a livello di CEO, o la persona che gestisce il livello di produzione, e non ha bisogno di un budget. I manager scrivono un assegno e se ne vanno.”

Siebel sottolinea che tutti i chip che NVIDIA vende vengono utilizzate per costruire un’infrastruttura di intelligenza artificiale per eseguire applicazioni di intelligenza artificiale. “Questi ragazzi stanno costruendo hardware per noi. “Sono là fuori a posare il marciapiede 100 miglia davanti a noi in modo che possiamo rotolarci sopra””.”

Il capo di C3.ai, che è stato anche il fondatore della società di software di gestione delle relazioni con i clienti Siebel Systems, che è stata acquisita da Oracle nel 2006, aggiunge che le società di software aziendali stanno soffrendo in parte di una mancanza di innovazione al di là dell’IA.

“Voglio dire, chi non ha il CRM installato?” lui chiede. “Chi non ha una licenza CRM aziendale? Tutti hanno capito. “Devono avere qualcosa di nuovo””.”

Nel frattempo, Siebel sostiene anche che più del valore nella catena alimentare dell’IA alla fine andrà alle società di software di intelligenza artificiale.

“Diamo un’occhiata allo stack di intelligenza artificiale”, dice. “In fondo abbiamo il silicio, e sopra questo abbiamo l’infrastruttura. Sopra questo abbiamo modelli fondamentali, e per di più abbiamo applicazioni. La maggior parte del valore sul mercato oggi viene attribuita al silicio e alle infrastrutture. Era la stessa cosa nel mercato dei PC nel 1990. Ma come abbiamo visto nei PC, a lungo termine, il valore è nel livello dell’applicazione, ed è lì che giochiamo. A lungo termine, il silicio diventa una commodities, perché così succede sempre, e e così pure l’infrastruttura. Abbiamo già visto questo film.”


27/05/24 WSj: L’IA Sta Guidando “la Prossima Rivoluzione Industriale”. Wall Street Sta Incassando.

Le azioni della vecchia scuola nei settori dei servizi pubblici, dell’energia e dei materiali stanno superando il mercato più ampio

La domanda di intelligenza artificiale è ancora in piena espansione, un anno dopo che il fenomeno ha preso d’assalto Wall Street per la prima volta. Ben oltre il settore tecnologico, gli investitori stanno trovando vincitori in azioni pick-and-shovel old-school.

Le aziende con tasche profonde stanno investendo pesantemente nella tecnologia di intelligenza artificiale, il che ha significato una manna per i produttori di chip come Nvidia NVDA 6,98%aumentare; triangolo di puntare verdee una serie di aziende, come i fornitori di energia, manodopera e materie prime, per gestire i loro prodotti.

Wall Street sta prendendo atto. Il settore dei servizi pubblici dell’S&P 500 ha restituito il 15% negli ultimi tre mesi, superando tutti gli altri angoli dell’indice. Le scorte di energia e materiali hanno sovraperformato il mercato più ampio, che è avanzato del 4,2% in quel periodo. I prezzi delle azioni sono in aumento per le aziende industriali che beneficeranno dell’espansione e della ristrutturazione del data center.

Il rapporto sui guadagni di Nvidia la scorsa settimana ha mostrato che la domanda di capacità di intelligenza artificiale sta solo guadagnando piede. La società ha registrato 26 miliardi di dollari di vendite per il suo ultimo trimestre, più del triplo del totale rispetto all’anno precedente. Le azioni del produttore di chip grafici sono scambiate a livelli record, più che raddoppiando quest’anno.

“La prossima rivoluzione industriale è iniziata”, con le imprese e i paesi che convertono i data center esistenti in “fabbriche di intelligenza artificiale”, ha detto l’amministratore delegato Jensen Huang in una chiamata degli investitori.

Le aziende big-tech come Microsoft Meta Platforms stanno spendendo miliardi per i chip Nvidia e l’infrastruttura correlata per costruire le proprie capacità di intelligenza artificiale. Il governo potrebbe unirsi: un gruppo bipartisan del Senato ha raccomandato decine di miliardi di dollari di nuove spese federali relative all’IA negli anni a venire.

È qui che si trovano le opportunità investibili”, ha affermato Lauren Goodwin, economista e capo stratega di mercato di New York Life Investments. “Sono costruttori e operatori di data center, energia e servizi pubblici”.

I dirigenti del centro dati hanno affermato che l’aumento della domanda significa tempi di consegna più lunghi per le apparecchiature essenziali come i generatori di backup e i sistemi di raffreddamento.

“Abbiamo visto un ampliamento del commercio dell’IA. Non dipende più da un solo titolo”, ha detto Nadia Lovell, senior equity strategist degli Stati Uniti, gestione patrimoniale globale presso UBS. “Le patatine sono fondamentali, ma non sono tutta la casa”.

Il Global X U.S. L’ETF per lo sviluppo delle infrastrutture ha restituito il 13% quest’anno, superando l’anticipo dell’11% dell’S&P 500.

Le azioni di Vertiv Holdings, che produce apparecchiature che alimentano e raffreddano i centri dati, sono più che raddoppiate quest’anno. La società ha affermato che i nuovi ordini sono cresciuti del 60% rispetto a un anno prima del primo trimestre. Gli analisti di Wall Street si aspettavano una crescita di circa il 15% e hanno rivisto le loro previsioni di profitto nettamente più in alto per gli anni a venire.

“Anche se ancora nelle sue fasi iniziali, l’IA sta rapidamente diventando un tema pervasivo nei nostri mercati finali”, ha detto il CEO di Vertiv Giordano Albertazzi il mese scorso.

Eaton, un’azienda che produce apparecchiature di gestione dell’alimentazione, ha avanzato il 42% quest’anno. Johnson Controls, che produce sistemi elettronici per edifici commerciali, è in aumento del 28%.

Le azioni infrastrutturali potrebbero ottenere un ulteriore impulso se la Federal Reserve tagliasse i tassi di interesse entro la fine dell’anno, come molti investitori si aspettano. Gli investitori guarderanno il rilascio di venerdì dell’indice delle spese di consumo personale, l’indicatore di inflazione preferito dalla Fed, per indizi sul percorso da seguire sui tassi.

Il rally ha lasciato le azioni scambiate ben al di sopra delle loro medie a lungo termine. Eaton negozia a 31 volte i suoi guadagni attesi nei prossimi 12 mesi, mentre Vertiv negozia a 40 volte. Il multiplo dell’S&P 500 è 21 volte.

Il boom della spesa in corso significa che le valutazioni elevate per le imprese industriali sono meno rischiose del solito, secondo Joseph Ghio, analista di Williams Jones Wealth Management. “Queste aziende sono meno cicliche di una volta”, ha detto, aggiungendo che pensa che Eaton possa quasi raddoppiare il suo profitto nei prossimi cinque anni.

La sua azienda possiede azioni di Eaton e Quanta Services, che fornisce manodopera qualificata alle compagnie elettriche, per conto dei clienti. Le azioni di Quanta sono aumentate del 31% quest’anno.


07/05/24 Briefing.com: Technologies affonda perché i risultati ottimisti del primo trimestre non riescono a soddisfare le alte aspettative (PLTR)

Palantir Technologies (PLTR -14%) non riesce a scoprire alcun guadagno oggi anche dopo aver superato le stime delle entrate nel primo trimestre, proiettando quelle del secondo trimestre al di sopra del consenso e aumentando le sue previsioni di vendita FY24. Lo sviluppatore di software di analisi basato sull’intelligenza artificiale, le cui radici sono iniziate come startup finanziata dalla CIA, stava uscendo da un’impressionante performance del quarto trimestre che ha inviato le sue azioni verso i livelli del 2021. Mentre gli investitori accumulavano, spingendo il PLTR oltre il +50% in più rispetto all’anno, chiedevano a gran voce un altro rapporto eccezionale nel primo trimestre. Di fronte a questa barra elevata, i risultati di PLTR, anche se solidi in superficie, si sono rivelati piuttosto deboli oggi.

C’erano anche alcune crepe sotto la superficie, specialmente intorno alle tendenze d’oltremare. Ad esempio, le entrate commerciali statunitensi sono aumentate del 40% all’anno rispetto a un lieve miglioramento del 16% delle entrate commerciali internazionali. Il CEO Alex Karp, uno che non addolcisce mai le situazioni, lo mette in parole senza mezzi termini, affermando che il PLTR ha venti contrari in Europa. Ha aggiunto che la regione si sta dirigendo verso una crescita del PIL allo 0% nei prossimi anni, il che sarà un problema per l’azienda. Nel frattempo, anche se PLTR ha aumentato la sua previsione delle entrate FY24, proiettando 2,677-2,689 miliardi di dollari rispetto a 2,652-2,668 miliardi di dollari, era semplicemente per le dimensioni del suo rialzo del primo trimestre, segnalando che era giustificata una certa prudenza data l’incertezza macroeconomica.

Tuttavia, nonostante la risposta di oggi, PLTR ha consegnato diversi punti salienti del primo trimestre, illuminando che rimane tra le prime fasi di un vento di coda indotto dall’IA potenzialmente di lunga durata.

  • PLTR ha registrato EPS coerente con le previsioni degli analisti e ha consegnato il suo sesto trimestre consecutivo di redditività GAAP nel primo trimestre. Nel frattempo, la crescita consolidata delle entrate ha accelerato al 20,8% annuo/anno a 643,3 milioni di dollari nel primo trimestre guidata dalla piattaforma di intelligenza artificiale (AIP) di base di PLTR. Le vendite commerciali globali sono aumentate del 27% all’anno a 299 milioni di dollari, mentre le rivorazioni governative sono in ritardo, migliorando del 16% a 335 milioni di dollari.
    • Vale la pena notare che la crescita delle vendite del governo ha accelerato dal +11% registrato nel quarto trimestre, coerentemente con l’aspettativa di PLTR di un’ulteriore aumento della spesa per l’IA mentre si sposta verso la metà posteriore dell’anno.
  • La domanda commerciale degli Stati Uniti è rimasta robusta nel primo trimestre. PLTR ha aggiunto il 69% in più di clienti anno/anno, un bel rialzo dal salto del +55% dello scorso trimestre a 262. La direzione prevede di sostenere questo slancio al rialzo per il resto dell’anno, aumentando le sue prospettive di entrate commerciali negli Stati Uniti ad almeno 661 milioni di dollari, 21 milioni di dollari in più rispetto alle sue previsioni precedenti.
  • Un fattore di fondo nella capacità di PLTR di continuare ad attrarre più aziende sulla sua piattaforma risiede nei suoi Bootcamp, dove le organizzazioni possono visualizzare ciò che il software di PLTR può fare e come può aumentare la produttività. PLTR ha citato un esempio di come queste sessioni di formazione possono aumentare l’adozione di AIP, osservando che una società di servizi pubblici leader ha firmato un accordo a sette cifre in meno di una settimana dopo aver terminato un Bootcamp. Queste sessioni stanno già portando a una sostanziale compressione del ciclo dell’affare.

Nel complesso, le alte aspettative del mercato sono state sufficienti per affondare PLTR oggi nonostante le solide prestazioni del primo trimestre dell’azienda. Le preoccupazioni provenienti dall’Europa si sono aggiunte anche al ritiro di oggi, soprattutto in considerazione dei commenti del CEO Alex Karp secondo cui la regione rappresenterà un problema. Tuttavia, i risultati del primo trimestre non hanno sostenuto una divergenza strutturale dalle prospettive edificanti dell’azienda che circondano l’IA. Come tale, la caduta rapida di oggi offre un punto di ingresso decente a lungo termine.


20/04/24 Financial Time: la caduta degli dei..

Nvidia scende del 10% mentre gli investitori vedono il rischio nelle azioni Big Tech

Il prezzo delle azioni di Nvidia è crollato del 10 per cento venerdì, contribuendo a sigillare il peggior ribasso per i mercati azionari statunitensi dall’ottobre 2022, poiché gli investitori hanno evitato le attività rischiose prima dell’annuncio degli utili delle Big Tech la prossima settimana.

Il produttore di chip ha sopportato la sua peggiore sessione da marzo 2020, perdendo più di 200 miliardi di dollari del suo valore di mercato quella giornata. Il declino ha rappresentato circa la metà del calo dello 0,9 per cento dell’S&P 500 di Wall Street, secondo i dati di Bloomberg.

Netflix, nel frattempo, ha perso circa il 9% al giorno dopo l’annuncio del servizio di streaming che avrebbe smesso di rivelare regolarmente i suoi numeri di abbonati ha oscurato i guadagni più forti del previsto. Il Nasdaq Composite, pesante di tecnologia, ha chiuso la sessione in calo del 2,1 per cento.

Anche le azioni che sono state spinte più in alto dall’entusiasmo degli investitori per l’intelligenza artificiale hanno sofferto, con Advanced Micro Devices, Micron Technology e Meta che hanno chiuso rispettivamente del 5,4 per cento, del 4,6 per cento e del 4,1 per cento in meno. Super Micro Computer, un gruppo di apparecchiature server visto come beneficiario del boom dell’IA, ha chiuso – 23 per cento.

“È una giornata difficile per le azioni tecnologiche”, ha detto Kevin Gordon, uno stratega degli investimenti senior di Charles Schwab. “Tutto ciò che stava andando bene all’inizio di quest’anno si sta rivoltando, ma le banche e l’energia stanno andando bene assieme ai prodotti per la casa [difensive]”.

Le mosse di venerdì arrivano mentre gli investitori hanno iniziato a prendere sul serio la possibilità che la Federal Reserve degli Stati Uniti possa fare solo un taglio di un quarto di punto ai tassi di interesse quest’anno, o forse nessuno. Gli attacchi di rappresaglia tra Iran e Israele hanno anche aumentato l’ansia degli investitori, intaccando il rally del mercato.

Ma gli analisti hanno detto che la svendita di venerdì è stata invece guidata dagli investitori che hanno riposizionato in fretta i loro portafogli prima di una raffica di utili trimestrali delle Big Tech la prossima settimana.

“Il pullback azionario ha molto poco a che fare con i tassi [di interesse]”, ha detto Parag Thatte, uno stratega della Deutsche Bank. “Ha più a che fare con gli investitori che iniziano a prezzare una crescita degli utili più lenta [per Big Tech]”.

Andrew Brenner, capo del reddito fisso internazionale di NatAlliance Securities, ha affermato che “non c’è una pressione relativa sui tassi” in assenza di nuovi annunci dalla Fed. “Ma le azioni vengono schiacciate”.

Microsoft, Alphabet e Meta riporteranno tutte i risultati per il primo trimestre della prossima settimana, mentre i risultati di Nvidia sono dovuti a fine maggio. Anche se ci si aspetta che tutti abbiano funzionato bene, affrontano difficili confronti trimestre su trimestre.

La crescita degli utili per azione su base annua per Nvidia, Meta, Microsoft, Amazon, Alphabet e Apple ha raggiunto il picco del 68,2 per cento nel quarto trimestre del 2023. Gli analisti di UBS si aspettano che i cosiddetti Big 6 riportino una crescita dell’EPS del 42,1 per cento per i primi tre mesi di quest’anno.

L’indice di riferimento S&P 500 di Wall Street ha perso lo 0,9 per cento venerdì, chiudendo la sua settimana peggiore in più di cinque mesi in termini percentuali. L’indice è diminuito ogni giorno dallo scorso venerdì, la sua peggiore corsa in un anno e mezzo. All’improvviso, “gli acquirenti dip (quelli che comperavano ad ogni calo) non stanno comprando dip. . . o se lo sono, vengono sommersi”, ha detto Mike Zigmont, responsabile del trading di Harvest Volatility Management. L’indice del dollaro era stabile il giorno mentre i prezzi del petrolio sono aumentati modestamente.


19/04/24 Barron’s: Nvidia ha vinto il primo round dell’IA. Ora la concorrenza si sta scaldando.

Negli ultimi 18 mesi, l’intelligenza artificiale ha regalato meraviglie apparentemente quotidiane. Per gli investitori, la sorpresa più grande è stata l’ascesa di Nvidia che ha origini umili per dominare completamente il mercato dei chip legati all’intelligenza artificiale.

Un tempo nota soprattutto per la creazione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’intelligenza artificiale, alimentando la creazione di modelli linguistici di grandi dimensioni ed eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi sola sul campo, con una quota di mercato superiore al 90%.

Ma sta arrivando una nuova concorrenza, da parte di aziende grandi e piccole, e la battaglia sarà feroce. La posta in gioco non potrebbe essere più alta: Lisa Su, CEO di Advanced Micro Devices, ha stimato il mercato dei chip AI a 400 miliardi di dollari entro il 2027. Intel Il CEO Pat Gelsinger ha previsto un’opportunità di 1 trilione di dollari entro il 2030. È quasi il doppio delle dimensioni di l’intera industria dei chip nel 2023.

Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su un’unica fonte. Per aziende di hardware come Dell TechnologiesHewlett Packard EnterpriseLenovo e Super Micro Computer non è sufficiente che i chip Nvidia soddisfino la domanda dei clienti, che vorrebbero delle alternative. I fornitori di servizi cloud come Amazon.com e Alphabet vogliono così tanto più opzioni che sta progettando i propri chip. E le aziende che si affidano a sistemi basati sull’intelligenza artificiale vogliono più risorse di calcolo a costi più gestibili di quelli che possono ottenere ora.

Il successo di Nvidia è ora un’opportunità per tutti gli altri.

È difficile trovare un prodotto di qualsiasi tipo che abbia avuto un impatto sui mercati finanziari così rapido della GPU Nvidia H100, lanciata nel marzo 2022.

Il prezzo delle azioni di Nvidia è più che triplicato dal debutto dell’H100, portando il valore di mercato dell’azienda a 2,1 trilioni di dollari. Tra le società quotate negli Stati Uniti, solo Microsoft e Apple hanno capitalizzazioni di mercato più elevate. E nessun’altra azienda di chip si avvicina neanche lontanamente.

Non si tratta di GameStop o Trump Media & Technology. In effetti, Nvidia è il titolo anti-meme: la crescita dei ricavi dell’azienda ha effettivamente superato i guadagni azionari. Per il quarto trimestre fiscale conclusosi il 28 gennaio, Nvidia ha registrato un fatturato di 22,1 miliardi di dollari, in aumento del 265% rispetto all’anno precedente. I ricavi dei data center dell’azienda sono aumentati del 409%.

Poche settimane fa, Nvidia ha lanciato la sua ultima meraviglia, la GPU Blackwell B200, che secondo il CEO Huang supera notevolmente l’H100. Con Blackwell, Nvidia alza l’asticella per i suoi rivali. Nvidia per il prossimo futuro venderà tutti i Blackwell che riuscirà a produrre o, per essere più precisi, il partner Taiwan Semiconductor Manufacturing può realizzare.

Huang ha detto che le GPU Blackwell costeranno da $ 30.000 a $ 40.000 ciascuna. Gli attuali H100 vengono venduti nella stessa gamma. Ma i prezzi dei chip non sono tutto. I clienti dell’IA vogliono eseguire i carichi di lavoro nel minor tempo possibile, al minor costo, con la massima precisione e affidabilità, assorbendo il minor consumo energetico possibile. Ci sono un certo numero di aziende che pensano di poterlo fare altrettanto bene, o meglio, di Nvidia.

I rivali di Nvidia si dividono in tre gruppi: grandi produttori di chip, fornitori di cloud computing e start-up sostenute da venture capital. Con un mercato da 1 trilione di dollari in gioco, questo non sarà il vincitore che prende tutto. Non è game over. Il gioco è iniziato.

Gli sfidanti più ovvi di Nvidia sono Advanced Micro Devices e Intel.

Le azioni AMD sono aumentate del 71% negli ultimi 12 mesi, aiutate dalla percezione del mercato che le sue nuove GPU MI300 eroderanno la morsa di Nvidia sul mercato. Questa speranza è ispirata dal successo di AMD nel rubare quote di mercato a Intel nel settore dei PC e dei server.

“AMD è davvero l’unica altra azienda sul campo”, sostiene Andrew Dieckmann, direttore generale del business delle GPU per data center di AMD. “Siamo l’unica altra soluzione adottata su larga scala all’interno del settore”. Afferma che i chip AMD superano l’H100 di Nvidia per molti carichi di lavoro di inferenza, offrendo al contempo parità per l’addestramento del modello. Ma l’altro vantaggio di AMD è che non è Nvidia.

“Per quanto riguarda gli utenti molto grandi, non hanno intenzione di scommettere l’intero franchising su un unico fornitore”, afferma Dieckmann. “C’è un estremo desiderio di alternative di mercato”.

Il CEO di AMD, Lisa Su, ha dichiarato durante l’ultima chiamata sugli utili dell’azienda che ora si aspetta un fatturato GPU di 3,5 miliardi di dollari nel 2024, rispetto alla previsione di 2 miliardi di dollari del trimestre precedente.

Intel sta venendo da dietro, e il titolo ha lottato per anni, ma la società ha aperto gli occhi questo mese con il lancio di Gaudi 3, i suoi chip acceleratori AI di terza generazione per l’addestramento e l’inferenza. Intel sostiene che Gaudi 3 è più veloce dell’H100 di Nvidia per entrambe le attività di intelligenza artificiale, pur utilizzando meno energia, e che Gaudi 3 sarà competitivo con Blackwell.

Intel, che ora sta spendendo miliardi per costruire fabbriche di chip in Arizona e Ohio, dovrebbe essere avvantaggiata nel lungo periodo dall’avere una propria fonte di approvvigionamento in un mercato con una grave carenza di forniture. Ma non ancora: Gaudi 3 sarà prodotto da TSMC, proprio come i chip AI di Nvidia e AMD.

Jeni Barovian, vice presidente del gruppo Network & Edge di Intel, attribuisce a Nvidia il merito di aver “gettato le basi per questa rivoluzione”, ma afferma che Intel non intende essere lasciata indietro. I clienti vogliono alternative, dice. “Oggi non si sentono come se avessero una scelta”.

Poi c’è Qualcomm, un altro leader di lunga data nel settore dei semiconduttori. L’azienda di chip per telefoni cellulari ha preso tecnologie originariamente progettate per gli smartphone e le ha applicate al cloud in un chip di inferenza AI chiamato Cloud AI 100. Qualcomm sembra più interessata all’opportunità di servire l’edge delle reti, su laptop e telefoni.

Il vicepresidente senior di Qualcomm, Ziad Asghar, ritiene che, nel tempo, un numero maggiore di carichi di lavoro di inferenza verrà gestito su “dispositivi edge”. La teoria è che è più economico e più sicuro per i dati stare fuori dal cloud. “Il centro di gravità nell’inferenza si sta spostando dalla nuvola al bordo”, dice Asghar.

Meno visibili, ma non meno seri nel competere nei chip AI, sono i team interni di quattro giganti del cloud computing: Amazon, Alphabet, Meta (Facebook) e Microsoft. Tutti e quattro stanno progettando chip proprietari sia per le proprie esigenze interne che per servire i clienti del cloud. La storia della concorrenza qui è meno diretta: nessuno dei leader del cloud vende chip a terze parti.

Ciononostante, sono ancora una minaccia per Nvidia. Meta, Microsoft, Amazon e Google insieme stanno spendendo una fortuna per l’infrastruttura AI. Si prevede che questi quattro paesi avranno una spesa in conto capitale combinata per il 2024 di 178 miliardi di dollari, con un aumento di oltre il 26% rispetto all’anno precedente. Microsoft da sola vedrà il capex aumentare del 53% quest’anno, secondo le stime monitorate da FactSet. La spesa aumenterà del 31% per Alphabet e del 26% per Meta. Tutti e quattro stanno costruendo chip in parte per ottenere un migliore controllo della loro spesa, e tutti dicono che possono arrivarci controllando più dello “stack”, incluso il software, l’hardware e la progettazione dei chip, non diversamente dall’approccio di Apple alla progettazione dell’hardware.

Nvidia ha rifiutato di commentare questo articolo, sottolineando che la società è nel suo periodo di quiete pre-guadagni. Ma Huang ha affrontato la questione della concorrenza nel recente passato.

“Abbiamo più concorrenza di chiunque altro sul pianeta”, ha detto Huang in un evento di marzo allo Stanford Institute for Economic Policy. “Non solo abbiamo la concorrenza dei nostri concorrenti, ma anche quella dei nostri clienti”. Il suo punto di vista è che gli alti livelli di integrazione ed efficienza integrati nei sistemi di Nvidia rendono difficile per i rivali tenere il passo. Huang ha affermato che il costo totale di funzionamento dell’azienda è così buono che “anche quando i chip dei concorrenti sono gratuiti, non è abbastanza economico”.

Ciò non ha impedito alle Big Tech di provarci e a loro si sono unite una serie di start-up sostenute da venture capital. Alcune di queste start-up sperano di vendere chip e sistemi a fornitori di server e cloud, ma la maggior parte di esse sta cercando di sconvolgere il mercato offrendo servizi basati su cloud direttamente ai clienti.

La più intrigante del gruppo potrebbe essere Cerebras Systems, che secondo quanto riferito sta pianificando un’IPO nel 2024.

Screenshot

A marzo, Cerebras ha presentato il suo chip più grande fino ad oggi, il Wafer Scale Engine 3, o WSE-3. Con i suoi 72 pollici quadrati, è il più grande chip commerciale mai realizzato. L’H100, al contrario, è di circa un pollice quadrato. Piuttosto che cercare di collegare in rete molti chip insieme, una sfida ingegneristica, Cerebras sta semplicemente impacchettando tutta la potenza su un gigantesco semiconduttore.

Il chip di Cerebras ha quattro trilioni di transistor, 50 volte la potenza di calcolo dell’H100.

Cerebras sta raggruppando i chip in una piattaforma di calcolo chiamata CS-3, che dice di poter addestrare un modello linguistico di grandi dimensioni come Llama di Meta in un giorno, rispetto a un mese per le piattaforme basate su Nvidia. Cerebras non vende direttamente chips. Sebbene sia disposta a vendere sistemi hardware completi, la maggior parte delle entrate della start-up proviene dalla vendita dell’accesso ai suoi sistemi allo stesso modo dei fornitori di cloud. Tra i suoi clienti: la Mayo Clinic, GSK e il Lawrence Livermore National Laboratory.

Il CEO di Cerebras, Andrew Feldman, afferma che l’azienda ha costruito otto volte più sistemi nel 2023 rispetto all’anno precedente e prevede che il totale aumenterà di 10 volte nel 2024. Cerebras ha registrato un fatturato nel 2023 di 79 milioni di dollari e ha raggiunto il pareggio del flusso di cassa. La società ha raccolto 715 milioni di dollari in capitale di rischio ed è stata valutata 4 miliardi di dollari nel suo round più recente, nel 2021.

“L’opportunità è quella di portare le prestazioni dei supercomputer alle grandi aziende senza sovraccarico di supercomputer”, afferma Feldman.

Il segreto di questo, dice, sono i chips delle dimensioni di un piatto. “Grandi chip significano che non devi interrompere il lavoro.”

Jonathan Ross, che ha svolto un ruolo importante nello sviluppo dei chip AI di Google, è ora a capo di una start-up di chip AI chiamata Groq, da non confondere con il modello Grok AI di Elon Musk. (Tutto questo grokking deriva da una parola coniata da Robert Heinlein nel suo romanzo del 1961, Straniero in terra straniera; significa comprendere appieno qualcosa nel modo più profondo possibile.)

Come Cerebras, la strategia di Groq è quella di vendere il tempo di calcolo in base al consumo, piuttosto che vendere chip a società di hardware e cloud. Ross afferma che Groq è in grado di eseguire modelli popolari come il Llama 2-70b di Meta a una velocità 10 volte superiore a quella dei sistemi basati su Nvidia. (Puoi provarlo gratuitamente su Il sito web dell’azienda.) Dopo che Huang di Nvidia ha presentato Blackwell qualche settimana fa, Groq ha rilasciato un comunicato stampa che diceva semplicemente: “Ancora più veloce”. La società ha annunciato un finanziamento di 367 milioni di dollari fino ad oggi; Ross afferma di aver raccolto ulteriori capitali che non sono ancora stati annunciati.

La start-up di chip AI d-Matrix si concentra sulle applicazioni di inferenza AI nei data center, lasciando la costruzione del modello a Nvidia e altri. Fondata nel 2019, d-Matrix utilizza un design chiamato “calcolo in-memory”, che secondo il CEO Sid Sheth è un’idea che esiste da 30 o 40 anni, un approccio per accelerare il calcolo, ma che non ha mai avuto un’applicazione davvero buona fino a quando non è emersa l’intelligenza artificiale. D-Matrix, che ha raccolto 160 milioni di dollari, prevede di iniziare a vendere chip il prossimo anno.

Il server AWS Trainium 1. Meta, Microsoft, Amazon e Google insieme stanno spendendo una fortuna per l’infrastruttura

SambaNova, che ha raccolto 1,1 miliardi di dollari da investitori di rischio, è un’altra società che adotta un approccio basato sui sistemi per servire il mercato dell’intelligenza artificiale. Oltre ai chip, il suo approccio aggrega 54 modelli di intelligenza artificiale open source, compresi quelli di Google e Meta.

Un elemento sorprendente della storia di SambaNova è che, per molti clienti, si tratta di installare sistemi fisici nei loro data center. “La maggior parte dei dati aziendali si trova ancora on-premise”, afferma il CEO Rodrigo Liang. Osserva che i clienti provengono da settori come il settore bancario, sanitario e governativo, compresi i laboratori nazionali di Sandia, Lawrence Livermore e Los Alamos.

Ci sono molte altre start-up di chip AI là fuori. Rain AI, che ha ricevuto finanziamenti iniziali dal CEO di OpenAI Sam Altman, si concentra in particolare sull’efficienza energetica e sull’esecuzione di modelli linguistici di grandi dimensioni su dispositivi edge. Lightmatter sta utilizzando la fotonica, una tecnologia basata sulla luce originariamente creata per applicazioni di calcolo quantistico, per migliorare la velocità di rete nei data center di intelligenza artificiale.

Certo, queste start-up hanno grandi idee, ma operano ancora su piccola scala. Potrebbero volerci anni prima che siano pronti ad affrontare Nvidia. Tuttavia, ci sono potenzialmente grandi portafogli pronti ad accelerare i loro progressi.

Bloomberg ha riferito che SoftBank Group sta valutando un investimento di 100 miliardi di dollari per finanziare una nuova società di chip AI. (SoftBank è anche un investitore e cliente di SambaNova.) Nel frattempo, Altman di OpenAI, secondo il Wall Street Journal, ha messo a punto un piano per investire fino a 7 trilioni di dollari, una cifra che sembra implausibilmente grande, per costruire dozzine di nuove fabbriche di chip. Né SoftBank né OpenAI hanno voluto commentare tali rapporti.

È improbabile che l’emergere di un numero crescente di nuovi e potenziali concorrenti ponga fine al regno di Nvidia come campione dei chip AI. Ma significa che il dominio senza ostacoli di Nvidia su un mercato da 1 trilione di dollari sta volgendo al termine. A partire da ora.

28/03/24 Barron’s: L’intelligenza artificiale sta dando un grande impulso all’energia nucleare. 4 che cavalcano il trend.

I due reattori nucleari del Constellation Energy Limerick Clean Energy Center a Pottstown, in Pennsylvania

UnUn piccolo gruppo di aziende che possiedono reattori nucleari ha visto le loro azioni salire a tassi simili a quelli di Nvidia negli ultimi mesi, parte di una rinascita poco notata in un settore che non ha avuto molto di cui vantarsi da anni. Possono ringraziare l’intelligenza artificiale.

L’energia nucleare, a quanto pare, è eccezionalmente adatta a soddisfare l’enorme domanda di elettricità dei data center per l’intelligenza artificiale. Di conseguenza, le azioni di Constellation Energy CEGVistraVST Talen Energy TLNE sono aumentate di oltre il 90% nell’ultimo anno. C’è una buona probabilità che vadano ancora più in alto.

“Il mondo si sta chiaramente muovendo nella nostra direzione”, ha dichiarato il CEO di Constellation Joe Dominguez durante l’ultima chiamata sugli utili della società.

Per anni, la maggior parte del mondo si è mossa nella direzione opposta. La paura di incidenti nucleari come il disastro di Fukushima del 2011 è parte del problema. Ma anche l’economia ha giocato un ruolo importante. Gestire una centrale nucleare è stato un affare terribile, a malapena redditizio senza sussidi governativi. Generare elettricità dal combustibile nucleare spesso costa di più che generarla dal gas naturale, perché i prezzi del gas naturale sono diminuiti durante la rivoluzione delle trivellazioni di scisto negli Stati Uniti. La crescita delle energie rinnovabili complica anche la vita ai possessori di energia nucleare. Quando soffiano forti venti in Texas, l’ondata di energia eolica può far scendere i prezzi dell’elettricità sotto lo zero.

Solo due nuove centrali nucleari sono state costruite negli Stati Uniti dal 2000. L’ultimo, inaugurato in Georgia nel 2023, è arrivato con sette anni di ritardo ed è costato il doppio del previsto. L’energia nucleare rappresenta il 18% della capacità elettrica degli Stati Uniti ed è probabile che continui a scendere nei prossimi anni con l’espansione delle energie rinnovabili. A livello globale, ha rappresentato il 9,2% nel 2022, il più basso degli ultimi quattro decenni, secondo il World Nuclear Industry Status Report.

Il recente ringiovanimento del settore è guidato da due fattori: il sostegno politico e il cambiamento tecnologico.

Gli sforzi globali per rallentare il cambiamento climatico si basano sull’espansione dell’energia elettrica. Dopo oltre un decennio di domanda relativamente piatta negli Stati Uniti, il consumo di elettricità è destinato ad aumentare rapidamente nei prossimi anni man mano che le persone collegano veicoli elettrici ed elettrodomestici come le pompe di calore. Anche le aziende sono destinate ad aumentare la loro domanda di energia.

Alcune delle maggiori fonti di nuova domanda di energia sono i data center in costruzione per eseguire i sistemi di intelligenza artificiale, ognuno dei quali utilizza in un giorno tanta energia quanto decine di migliaia di case. I data center, che ora rappresentano circa il 2,5% della domanda di energia, potrebbero consumare il 7,5% entro il 2030, secondo Boston Consulting Group. Le aziende che stanno costruendo il maggior numero di data center sono le grandi aziende tecnologiche, tra cui AlphabetMicrosoft e Amazon.com.

Queste aziende si sono tutte impegnate a ottenere la loro energia da fonti più pulite, con Microsoft che afferma che rimuoverà più emissioni di carbonio dall’atmosfera di quante ne produca entro il 2030.

Per le aziende con questo tipo di ambizioni, l’energia nucleare è la soluzione ideale. Le reazioni nucleari non rilasciano carbonio nel modo in cui lo fanno le centrali a carbone e a gas naturale. E le centrali nucleari rimangono costantemente accese, dando loro un vantaggio rispetto alle fonti di energia pulita intermittenti come il solare e l’eolico. La tecnologia di accumulo delle batterie collegata ai parchi solari ed eolici sta avanzando rapidamente, ma non è ancora pronta a fornire abbastanza energia di riserva alle energie rinnovabili per renderle affidabili come l’energia nucleare. Man mano che le energie rinnovabili sottraggono quote di mercato al carbone e, infine, al gas naturale, la percentuale di energia su cui si può contare per funzionare 24 ore su 24, 7 giorni su 7, diminuirà.

“C’è una prospettiva in cui la domanda sta salendo e l’energia affidabile sta diminuendo”, ha detto Rodney Rebello, analista che si concentra sul nucleare presso Reaves Asset Management. “Il nucleare produce energia affidabile e ha anche l’attributo di essere pulito in termini di profilo di emissioni. Il profilo del nucleare – 24 ore su 24, 7 giorni su 7, alimentazione di base, pulito – si allinea molto bene con la domanda di energia dei data center, che è 24 ore su 24”.

Reaves detiene Constellation Energy e Vistra nel suo fondo chiuso Utility Income e nel fondo negoziato in borsa Virtus Reaves Utilities.

È importante notare che non tutti i proprietari di centrali nucleari stanno traendo profitto da questo cambiamento. Le compagnie elettriche indipendenti vendono energia in mercati competitivi e traggono profitto quando i prezzi aumentano. Ma le utility che possiedono centrali nucleari, come  Duke Energy  DUK hanno faticato, perché i loro rendimenti sono limitati dalle autorità di regolamentazione. Le azioni Duke sono scese dell’1% nell’ultimo anno. Circa il 60% della flotta nucleare degli Stati Uniti è nelle mani di servizi pubblici regolamentati, il che significa che la maggior parte della capacità nucleare è ostacolata da tali regole.

Constellation, il più grande proprietario di centrali nucleari indipendenti negli Stati Uniti, ha visto le sue azioni balzare del 150% nello stesso periodo. Si tratta di un’importante inversione di tendenza dopo un periodo difficile per l’azienda. Constellation è stata scorporata dall’utility Exelon, con sede in Illinois, nel 2022, un anno dopo che due delle centrali nucleari dell’azienda in Illinois avevano bisogno di un salvataggio statale per rimanere aperte.

Dopo lo spin-off, Exelon ha mantenuto le sue attività regolamentate di utility e trasmissione, lasciando a Constellation le attività nucleari.

Da allora le azioni si sono differenziate. Exelon è scesa del 9% nell’ultimo anno, danneggiata dalle forze più grandi che hanno fatto crollare i titoli delle utility, come gli alti tassi di interesse, nonché dalle sfide specifiche dell’azienda. L’anno scorso, le autorità di regolamentazione dell’Illinois hanno respinto il suo piano di capitale, che avrebbe potuto portare a aumenti dei prezzi per i consumatori e a migliori guadagni per la società.

A differenza di Exelon e Duke, Constellation non ha bisogno di chiedere alle autorità di regolamentazione di approvare aumenti dei prezzi per la sua energia. Constellation vende l’energia che produce in mercati elettrici competitivi lungo la costa atlantica e nel Midwest, dove la domanda e i prezzi sono in aumento. L’azienda ha anche stretto accordi diretti con aziende tecnologiche come Microsoft che sono disposte a spendere di più per certificare che l’energia che utilizzano per i loro data center è priva di emissioni di carbonio.

L’azienda sta anche beneficiando del sostegno politico. Anche se i politici combattono per le energie rinnovabili e i combustibili fossili, c’è un considerevole sostegno bipartisan per il nucleare. Nella sua ultima presentazione degli utili, Constellation ha presentato citazioni pronucleari sia del presidente Joe Biden che dell’ex presidente Donald Trump.

L’azienda ha ricevuto un beneficio significativo dall’Inflation Reduction Act, che concede crediti d’imposta alle centrali nucleari. La legge ha effettivamente fissato un limite minimo ai prezzi dell’energia nucleare di circa 43 dollari per megawattora, un livello al quale gli impianti possono fare soldi.

Il credito d’imposta stabilisce una soglia minima per l’industria. Ma gli investitori sono ora convinti che ci sia anche un tetto più alto. A marzo, Amazon ha accettato un nuovo insolito accordo con Talen Energy, una società di Houston appena emersa dalla bancarotta l’anno scorso. Amazon ha acquistato un sito vicino alla centrale nucleare di Talen in Pennsylvania per 650 milioni di dollari e riceverà energia direttamente dall’impianto, invece di collegarsi alla rete di trasmissione più grande come la maggior parte dei data center, un accordo noto come “behind the meter”. Amazon potrebbe introdurre gradualmente i data center, utilizzando fino a 960 megawatt dei 2,2 gigawatt di capacità nucleare di Talen. Gli analisti stimano che l’accordo valuti l’energia prodotta da Talen a circa 75 dollari per megawattora, ben al di sopra dei prezzi medi di mercato che Talen riceve vendendo in rete.

Gli analisti hanno estrapolato le cifre dell’accordo Talen ad altri nomi nucleari: Constellation probabilmente ne trarrebbe i maggiori benefici, semplicemente perché possiede il maggior numero di centrali nucleari.

Si prevede che gli utili per azione della società aumenteranno del 33% quest’anno e Constellation afferma di poter continuare a far crescere gli utili di base di almeno il 10% all’anno fino alla fine del decennio, in gran parte grazie alle opportunità dei data center. L’analista di Morgan Stanley David Arcaro pensa che Constellation potrebbe firmare accordi simili a quelli di Talen per circa un quarto della sua capacità nucleare. Lunedì ha aumentato il suo obiettivo di prezzo a $ 193 da $ 166, sulla base di quelle offerte previste.

Anche Vistra, il secondo più grande proprietario di centrali nucleari indipendenti, potrebbe beneficiarne. L’anno scorso l’azienda ha preso la decisione lungimirante di acquisire tre centrali nucleari con quattro gigawatt di capacità, proprio mentre il mercato stava migliorando. Le sue azioni sono aumentate del 190% nell’ultimo anno, ma Arcaro vede un ulteriore rialzo, aumentando il suo obiettivo di prezzo a $ 78 da $ 62.

Poi c’è Public Service Enterprise Group PEG una poliedrica compagnia energetica del New Jersey che possiede anche energia nucleare. Anche se finora non ha beneficiato molto del rally nucleare, Arcaro pensa che la società potrebbe vendere un gigawatt della sua capacità nucleare in un redditizio accordo per i data center. Ha aumentato il suo obiettivo di prezzo a $ 70 da $ 61.

A breve termine, la manciata di aziende che possiedono centrali nucleari ha poco da temere dalla nuova concorrenza. Ma alla fine, è probabile che i nuovi entranti scuotano il settore. Molti di loro, sostenuti da grandi investitori come Bill Gates e Sam Altman, stanno scommettendo su piccoli reattori modulari che possono essere costruiti molto più velocemente degli enormi reattori attualmente in uso e possono sedersi proprio accanto a data center come quelli che Amazon sta costruendo.

Nessuno di questi piccoli reattori è stato ancora costruito e l’industria ha recentemente avuto alcune battute d’arresto. NuScale, la società più avanti, ha annunciato l’anno scorso che stava cancellando i piani per i suoi primi reattori, in gran parte a causa dell’aumento dei costi. Rebello non si aspetta che nessuno di loro entri in funzione nei prossimi tre anni, ma prevede che anche i piccoli reattori alla fine beneficeranno dell’aumento dei data center. “L’accordo con Amazon convalida il nucleare come un partner solido per i data center”, ha affermato. “Accordi come questo potrebbero portare a un nucleare prima”.


19/03/24 FastCompany: intervista al Ceo di Nvidia

“Negli anni ’20, l’acqua entrò in una turbina e uscì la corrente elettrica. Ora gli elettroni entrano in un generatore e l’intelligenza esce.”

Sto chiacchierando con il CEO di Nvidia Jensen Huang presso la sede centrale del gigante dei chip nella Silicon Valley, dove uno dei suoi moduli di calcolo DGX H100 si trova parzialmente smontato davanti a noi. Riempita con processori incredibilmente veloci e altri componenti all’avanguardia, la scatola, che può costare fino a 500.000 dollari, è un elemento fondamentale dei supercomputer utilizzati da grandi aziende, startup e università per alimentare nuove esperienze di intelligenza artificiale trasformative, e Huang si è rivolto a una precedente rivoluzione tecnologica per spiegarne il significato.

È un confronto evocativo: l’IA in esecuzione su hardware Nvidia cambia la vita di tutti i giorni in profondità come una volta l’elettricità. Ma semmai, sottovaluta l’influenza radicale di Nvidia sul momento attuale. Anche la sua quota di mercato schiacciante per i chip di intelligenza artificiale – l’85%, secondo Raymond James Financial – non trasmette il contributo di Nvidia all’IA come la conosciamo.

Nvidia non è solo nel business di fornire hardware di calcolo sempre più potente e lasciare che tutti gli altri capiscano cosa farne. In una serie di settori, le tecnologie, le piattaforme e le partnership dell’azienda stanno facendo gran parte del lavoro pesante di mettere l’IA al lavoro. In una sola settimana nel gennaio 2024, ad esempio, Nvidia ha riferito di aver iniziato a testare in beta la sua piattaforma di scoperta di farmaci, di aver dimostrato il software che consente ai personaggi dei videogiochi di parlare di dialoghi senza script, di aver annunciato accordi con quattro produttori cinesi di veicoli elettrici che incorporeranno la tecnologia Nvidia nei loro veicoli e di aver presentato una partnership nel settore della vendita al dettaglio volto a sventare il taccheggio organizzato.

Per applicare i suoi chip estremamente versatili alle attività del mondo reale, Nvidia ha già avuto bisogno di immergersi profondamente in queste discipline e molte altre. “Non esiste un chip di sintesi proteica”, dice Huang, a titolo di esempio. “Devi andare a capire la biologia delle proteine e devi capire cosa vogliono fare gli scienziati e come possiamo automatizzare meglio il loro lavoro. E quindi tutti questi diversi algoritmi richiedono una discreta quantità di ricerca.”

Annunciato al GTC 2024, il supercomputer DGX SuperPod AI di Nvidia è alimentato dai nuovi chip GB300 Grace Blackwell dell’azienda. [Foto: Courtesy Nvidia]

La tecnologia Nvidia è un ingrediente così essenziale nel progresso dell’IA che i keynote di Huang alla conferenza degli sviluppatori GTC dell’azienda possono servire come anteprima di dove sta andando l’intero campo. Uno dei suoi grandi temi all’edizione di quest’anno, tenutosi lunedì pomeriggio al SAP Center di San Jose davanti a un pubblico di 11.000, era la robotica. Oltre a passare attraverso i prodotti dell’azienda in quel dominio, con nomi come Gr00t e Thor, ha mostrato video in cui gli esseri umani usavano il software Nvidia per insegnare ai bot come eseguire compiti come far funzionare uno spremiagrumi. Non scrivendo codice, ma semplicemente eseguendoli.

Gli unici ospiti sul palco di Huang durante la sua presentazione di due ore erano nove robot umanoidi, che lo hanno affiancato verso la fine, più due minuscoli cugini di WALL-E sviluppati dalla Disney. Quando ha dichiarato che “il momento ChatGPT per la robotica potrebbe essere proprio dietro l’angolo”, respingere di riflesso l’affermazione come hype non sembrava una scommessa sicura. Dopo tutto, stiamo già vivendo nell’era dell’IA che Nvidia ha previsto anni fa e ha fatto tanto quanto qualsiasi azienda per trasformarsi in realtà.


Conosciuto per la sua caratteristica giacca di pelle nera e i suoi modi affabili, Huang ha guidato Nvidia da quando l’ha co-fondata nel 1993. Allora, l’azienda ha aperto la strada al concetto di unità di elaborazione grafica (GPU), chip ad alte prestazioni per il rendering di giochi 3D e altre applicazioni PC visivamente intensive. Il suo primo chip, rilasciato nel 1995, ha venduto male. Ma la RIVA 128 del 1997 è stata un successo, stabilendo l’azienda come una centrale elettrica della computer grafica.

All’epoca in cui Nvidia stava aumentando, l’IA non era solo lontana nel proprio futuro. L’intera industria tecnologica era scettica sul potenziale della tecnologia, portando a un periodo di disillusione e diminuzione degli investimenti noti come inverno di intelligenza artificiale. Ma Huang sottolinea che gran parte dell’attuale successo dell’azienda deriva dalle scelte che ha fatto all’inizio della sua storia, prima di cogliere esattamente dove avrebbero portato.

“Il futuro, come sempre, si svolge in modo continuo”, dice, diventando filosofico. “Non c’è una vera discontinuità di per sé”. Ad esempio, anche quando le GPU riguardavano esclusivamente la grafica, Nvidia le ha rese programmabili, in modo che potessero fare di più che lanciare pixel predefiniti su un display. Ciò li ha resi piattaforme per se stessi piuttosto che semplicemente aiutanti della CPU di un computer.

Le abilità che Nvidia ha acquisito lungo la strada lo hanno preparato per nuove sfide. “La fisica delle particelle per un videogioco non è dissimile dalla fluidodinamica in una simulazione molecolare”, dice Huang, spiegando come gli insegnamenti di un settore potrebbero essere applicati a un altro. “L’elaborazione delle immagini che usiamo per illuminare una scena nella computer grafica non è diversa dall’elaborazione delle immagini per gli strumenti medici. In molti modi, queste sono tutte matematiche molto simili. E così abbiamo ampliato la nostra apertura, lentamente e sistematicamente.”

Più capaci sono i processori Nvidia, maggiore è il loro potenziale al di là delle immagini. Nel 2006, l’azienda ha introdotto un livello software chiamato CUDA (Compute Unified Device Architecture), che consente agli sviluppatori di sfruttare il muscolo algoritmico delle sue GPU per compiti impegnativi di ogni tipo. Nel giro di pochi anni, i ricercatori di intelligenza artificiale lo stavano usando per ottenere scoperte in settori come il deep learning.

Mentre l’IA è sbocciata in laboratorio, la sua promessa del mondo reale è diventata più chiara e chiara per Huang. Ma all’inizio, convincere i potenziali clienti che sarebbe stato ovunque – e Nvidia sarebbe stata nel suo cuore – è stata una vendita difficile. “Nessuno l’ha capito affatto”, dice Huang con una risata, citando il suo lungo fallimento nel far incuriosire un’azienda automobilistica dall’idea di usare la visione artificiale per lasciare che le auto si guidano da sole: “Pensavano solo che fosse un giocattolo”.

Con il tempo, la visione e la persistenza di Huang hanno dato i loro frutti in modo drammatico. Nell’ultimo anno, dice, la comprensione mondiale di ciò che Nvidia sta facendo “è aumentata di un ordine di grandezza”.

Anche in questo caso, quello che potrebbe sembrare un punto di svolta è davvero il culmine di anni di investimenti pazienti che hanno posizionato Nvidia per il successo mentre la commercializzazione dell’IA è iniziata sul serio. “Una volta che la GPU Nvidia è diventata l’impostazione predefinita per la ricerca, ha finito per diventare l’impostazione predefinita per ciò che è diventata quella ricerca”, afferma Anshel Sag, analista principale di Moor Insights & Strategy.

Uno dei pezzi più storici della ricerca basata su Nvidia è stato un programma sperimentale di intelligenza artificiale chiamato AlexNet. Sviluppato nel 2012 da Alex Krizhevsky in collaborazione con Ilya Sutksever (più recentemente meglio conosciuto come capo scienziato di OpenAI) e Geoffrey Hinton (il “Padrino dell’IA” e ora uno scettico dell’IA vocale), potrebbe insegnare a identificare gli oggetti nelle immagini con una precisione senza precedenti. Vedendo la svolta della visione artificiale che rappresentava, Nvidia ha concluso che in futuro, “il software più importante sarebbe stato gli algoritmi che percepiscono il mondo che ci circonda e manipolano le cose o controllano le cose nel mondo reale”, afferma il Rev Lebardian, un VP che è stato in azienda per 22 anni.

Tra le altre implicazioni, Nvidia ha ritenuto che l’IA del mondo reale avrebbe richiedeto una tecnologia di simulazione più sofisticata. Ad esempio, testare qualcosa come le auto autonome, ora parte della piattaforma automobilistica Drive di Nvidia, potrebbe essere fatto in modo molto più sicuro, rapido ed economico in forma virtuale che sulle strade reali. Nel 2020, l’azienda ha incanalato quella realizzazione in Omniverse, un’offerta basata su cloud dedicata a una delle categorie più calde della tecnologia aziendale: i cloni digitali.

Supervisionato da Lebardian e sfruttando l’esperienza dell’azienda sia nell’intelligenza artificiale che nella grafica 3D, Omniverse consente la creazione di repliche digitali ultra-realistiche di oggetti, posizioni e processi fisici. Il gigante del miglioramento della casa Lowe’s lo sta usando per digitalizzare i suoi negozi per applicazioni come la gestione degli scaffali. BMW ha simulato la sua fabbrica per aiutare a posizionare efficacemente i robot. E la società di intelligenza di chirurgia cerebrale Atlas Meditech ha creato una sala operatoria virtuale che consente ai chirurghi di provare in sicurezza le procedure prima di intraprendere per davvero.

Pochi giorni prima che Nvidia svelasse il nuovo software di Omniverse per la Vision Pro di Apple al GTC, ho avuto modo di provarlo da solo in una sala conferenze presso la sede centrale di Nvidia. La coupé sportiva digitale Nissan Z su larga scala con cui ho interagito, dall’apertura del bagagliaio al sedere al volante, è stata renderizzata nel cloud sull’hardware Nvidia. Ma era così ultra-realistico che potevo leggere la stampa fine in rilievo sulle sue gomme. L’azienda ha impiegato solo poche settimane per costruire il codice Vision Pro necessario, che si fa da cavalcare su un’app di configuratore per auto Nissan creata dallo studio di computer grafica Katana. Eppure è anche il risultato diretto della reazione preveggente dell’azienda ad AlexNet più di un decennio fa.

Come altre iniziative Nvidia, Omniverse beneficia dell’incata dedizione dell’azienda a incontrare i clienti dove si trovano, che si tratti di un centro commerciale suburbano o di un centro medico. “Capiscono l’utente finale meglio di chiunque altro, e questa è davvero la chiave per chi sono e perché hanno così tanto successo”, afferma Peter Rutten, VP del calcolo ad alta intensità di prestazioni presso la società di ricerca IDC.

Il che non vuol dire che l’approccio di Nvidia all’innovazione implichi far bollire una quantità illimitata di oceani da solo. Al suo centro, è una società di piattaforme, dipendente dai partner per finire il lavoro creando esperienze specifiche del settore in cima al suo stack hardware e software.

Non possiamo andare a costruire tutti quegli strumenti e tutte le soluzioni e le applicazioni per tutti in ogni settore con la scala in cui ci triamo”, afferma Lebardian. “Dovremmo essere milioni di persone. Quindi siamo perfettamente felici di lavorare con gli altri, e lo preferiamo.” (Il numero di persone è attualmente di circa 30.000 persone, di trenta volte in più rispetto a quando Lebardian si è unito nel 2002.)

Più di 100 partner offrono prodotti basati su una sola piattaforma di intelligenza artificiale Nvidia: la Clara incentrata sull’assistenza sanitaria, che ha una suite di offerte che abbraccia biofarmaceutiche, immagini, dispositivi e genomica. Tuttavia, sapere semplicemente abbastanza per collaborare efficacemente in così tante categorie ha contribuito a plasmare la forza lavoro dell’azienda. “Abbiamo medici qui”, dice Kimberly Powell, che è entrata a far parte di Nvidia nel 2008 come primo dipendente dedicato alla tecnologia sanitaria ed è ora vicepresidente e direttore generale di quel gruppo. “Abbiamo chimici computazionali. Abbiamo biologi computazionali. Nel corso degli anni, abbiamo assunto esperti di dominio profondo, perché c’è un livello di traduzione linguistica che dobbiamo capire”.


“Nel prossimo decennio, vedremo progressi nell’informatica come non abbiamo mai visto prima”, dice Huang. Si stacca da alcune aree di cui è particolarmente appassionato (tecnologia climatica, biologia digitale, robotica generica) e sottolinea che anche se molti dei recenti risultati di Nvidia sono il risultato di 5-15 anni di investimento, tutti rimangono lavori in corso. Ad un certo punto, i computer quantistici potrebbero superare i supercomputer classici, come quelli basati sulle GPU Nvidia. Ma Huang non si aspetta che ciò accada per un altro decennio o due. Anche allora, è fiducioso che i computer più potenti del mondo saranno gli ibridi classici-quantistici, un’area di ricerca che l’azienda sta già perseguendo.

L’ottimismo di Wall Street che Nvidia possa continuare a cavalcare l’onda dell’IA si riflette nella sua capitalizzazione di mercato, che ha superato 1 trilione di dollari nel maggio 2023, mettendo il produttore di chip nel cielo rarefatto di Microsoft, Apple, Alphabet e Meta. A febbraio, Nvidia ha annunciato un fatturato del 2023 di 60,8 miliardi di dollari, in aumento del 126% rispetto al 2022. Lo stesso mese, la sua capitalizzazione di mercato ha raggiunto i 2 trilioni di dollari, dietro solo a Microsoft e Apple.

Questi vasti numeri sono in parte una scommessa sul mercato generale dell’IA, che la società di ricerca Spherical Insights prevede salirà a 2,76 trilioni di dollari entro il 2032. Anche se non ci sono garanzie che Nvidia continuerà a svolgere un ruolo essenziale, è difficile trovare qualcuno disposto a prevedere che non lo farà. “Nvidia ha un fossato molto profondo”, afferma Jack Hidary, CEO della società di intelligenza artificiale e software quantistico SandboxAQ, un partner Nvidia. “E mi aspetto che quel vantaggio competitivo non solo rimanga, ma cresca effettivamente nei prossimi quattro o cinque anni”.

Alla domanda sugli scenari in cui altri giocatori di intelligenza artificiale potrebbero recuperare, Huang indica l’ubiquità di Nvidia, che ha richiesto anni per essere raggiunta e non sarebbe facile da replicare. “Siamo l’unica architettura al mondo disponibile in ogni cloud”, dice. “È disponibile in cloud privati, è in loco, è al limite nelle auto, nei robot e nelle fabbriche”.

In effetti, così tanti clienti desidano le GPU Nvidia, per il gioco e il mining di criptovaluta, nonché l’intelligenza artificiale, che la domanda ha spesso superato l’offerta. Questa è un’opportunità per altre aziende, almeno se hanno le tasche straordinariamente profonde necessarie per entrare nel business dei semiconduttori. A febbraio, Bloomberg ha riferito che la giapponese SoftBank sta progettando di raccogliere fondi per un’impresa di chip AI da 100 miliardi di dollari per integrare la sua risorsa esistente Arm, la cui tecnologia è concessa in licenza da molte società, tra cui Nvidia. Poi c’è il CEO di OpenAI Sam Altman, che secondo quanto riferito ha cercato 7 trilioni di dollari per lanciare una nuova società di chip.

Più immediatamente, Nvidia affronta già rivali sotto forma di nuovi assumi come Cerebras, Graphcore, Groq e SambaNova. Ma piuttosto che sfidare a testa alta il gorilla 800-pound dell’hardware AI, i nuovi arrivati sono meglio cercare di scolpirsi le proprie nicchie, dice Rutten di IDC. Ad esempio, invece di improrsi sul mercato per la formazione di modelli di intelligenza artificiale, in cui l’hardware Nvidia potrebbe rivelarsi impossibile da spostare, la startup di chip Recogni si sta concentrando sull’inferenza: il processo di estrazione di informazioni da un modello e di sfruttarle per uno scopo particolare, come un sistema avanzato di assistenza alla guida.

“Nvidia sta usando la stessa soluzione per la formazione e l’inferenza”, spiega il CEO di Recogni Marc Bolitho. “Stiamo lavorando per una soluzione appositamente costruita e ottimizzata per l’inferenza dell’IA e vediamo che il mercato cresce molto rapidamente con l’aumentare della base di utenti per l’IA generativa”. Gli investitori vedono abbastanza potenziale in questo tipo di concorrenza mirata che Recogni è stato in grado di annunciare un round di finanziamento di 102 milioni di dollari a febbraio.

Un’altra minaccia potenzialmente importante risiede nella gran voglia delle enormi aziende tecnologiche di controllare i loro stack tecnologici da cima a fondo. Amazon, Microsoft, Google e Meta hanno riversato risorse nello sviluppo di chip personalizzati, forse prefigurando un giorno in cui sono più pienamente responsabili dei propri destini di IA. Google ha viaggiato particolarmente lontano lungo questa strada con le sue Tensor Processing Units, attualmente nella loro quinta generazione. E lo scorso maggio, Meta ha rivelato il suo primo processore AI, il Meta Training and Inference Accelerator. Su misura per il processo di scelta di contenuti e annunci da visualizzare nei feed dei social network, potrebbe essere un chip che nessuno tranne Meta progetterebbe.

Huang non esclude tali esercizi nell’indipendenza dell’IA. “Se le grandi aziende volessero costruire il proprio silicio, noi aumentiamo ancora”, dice. “Ogni volta che ci hanno nel loro cloud, portiamo loro molti e molti clienti. Portiamo molti sviluppatori a loro.” Partecipare al vibrante ecosistema di Nvidia, sostiene, è in definitiva un atto di interesse personale, una posizione che il continuo abbraccio della grande tecnologia sembrerebbe confermare.

A gennaio, quando Mark Zuckerberg si è recato su Instagram per fornire un aggiornamento video sulla ricerca sull’intelligenza artificiale di Meta, non ha nemmeno menzionato gli sforzi di progettazione dei chip dell’azienda. Invece, ha parlato in termini che tutti nell’industria tecnologica potrebbero capire, vantandosi di un piano per distribuire 350.000 GPU Nvidia H100 entro la fine del 2024, un impegno che gli costerà miliardi. Anche per i titani dell’IA, basarsi su ciò che Nvidia ha creato – più ambizioso, meglio è – è spesso il modo in cui avvengono i progressi.


19/03/24 Briefing.com: NVIDIA soccombe alla presa di profitto sulla scia della conferenza GPU, ma le prospettive sono più brillanti che mai (NVDA)

Di fronte a una affollatissima audience alla GPU Technology Conference a San Jose, NVIDIA (NVDA) ha presentato il suo supercomputer AI di nuova generazione, il DGX SuperPod, che sarà alimentato da un nuovo processore chiamato Blackwell. Dire che questo evento è stato molto atteso sarebbe un’importante eufemismo e il meteorico aumento del 75% da inizio anno del titolo rispecchia quell’entusiasmo. La debolezza iniziale del titolo, quindi, è più la funzione di qualche consolidamento e presa di profitto, piuttosto che una vera delusione per quanto riguarda la raffica di annunci di NVDA che escono da questo evento.

  • In effetti, i due principali takeaway di questa mattina sono che Blackwell è una piattaforma significativamente più potente del suo predecessore, Hopper, e che NVDA è solo nei primi inning di questo boom di crescita basato sull’IA. Sul primo punto, NVDA ha dichiarato che i Superchip GB200 – che alimentano il supercomputer DGX AI e includono 72 GPU Blackwell – offrono un aumento delle prestazioni fino a 30 volte rispetto alla GPU NVIDIA H100 Tensor Core per carichi di lavoro di inferenza del modello linguistico di grandi dimensioni.
  • Su quest’ultimo punto, NVDA ha scatenato una raffica di comunicati stampa, annunciando che molte aziende tecnologiche leader stanno espandendo le loro partnership e collaborazioni con NVDA per scalare le loro capacità di intelligenza artificiale generativa. Alcuni standout includono Google (GOOG) Cloud, Amazon (AMZN), NetApp (NTAP) e CrowdStrike (CRWD). Quando il CEO di NVDA Jensen Huang ha commentato lo scorso trimestre che l’informatica accelerata e l’IA generativa hanno raggiunto il punto di svolta, questa serie di annunci incapsula davvero questa affermazione.
  • NVDA in realtà non produce i suoi chip. Tale compito è esternalizzato a Taiwan Semiconductor Manufacturing (TSM), che sta anche vivendo una reazione sell-the-news dopo che le azioni hanno raggiunto livelli record la scorsa settimana.
  • Guardando oltre il calo di oggi in entrambe le azioni, è difficile immaginare che la debolezza sarà duratura, dato che il lancio di Blackwell sembra destinato a diventare il prossimo potente catalizzatore di crescita per entrambe le società. Blackwell sarà sul mercato entro la fine dell’anno e dovrebbe avere un impatto immediato e sostanziale sul segmento Data Center di NVDA. Forse l’unico fattore che trattiene NVDA sarà la catena di approvvigionamento, che potrebbe non essere abbastanza robusta per gestire la domanda alle stelle.
  • Grazie al successo dilagante della GPU Hopper di NVDA, il segmento Data Center è stato la star dello spettacolo nell’ultimo anno. Nel quarto trimestre, le entrate del centro dati sono aumentate del 409% all’anno a 18,4 miliardi di dollari, anche se le vendite in Cina sono diminuite in modo significativo a causa delle restrizioni commerciali. Con il lancio di Blackwell, le opportunità di mercato si espandono ulteriormente poiché il processore è in grado di eseguire azioni molto più complesse, come la generazione di video 3D su comando.

La linea di fondo è che NVDA sta continuando a progredire attraverso un modello di consolidamento tanto bisognoso dopo l’enorme rally del titolo, ma le prospettive di crescita rimangono più brillanti che mai uscendo dalla sua conferenza.


04/03/24 Forbes: Anthropic rilascia Claude 3, un modello che sostiene può battere il migliore di OpenAI

In un’intervista, i fondatori Dario e Daniela Amodei hanno detto a Forbes che il nuovo modello incentrato sull’impresa di Anthropic, pubblicato lunedì, supera i rivali con GPT-4 e Gemini 1.0 Ultra di Google.

cofondatori e fratelli Dario Amodei e Daniela Amodei affermano che il rilascio di Claude 3 è un altro segno che “Anthropic è più un’azienda che un’azienda di consumo”.

Anthropic ha annunciato oggi una nuova serie di modelli in grande linguaggio che la società di intelligenza artificiale sostiene siano i più intelligenti del mondo fino ad oggi, superando le offerte rivali di OpenAI e Google.

Chiamato Claude 3, la nuova famiglia di Anthropic è disponibile in tre versioni – Opus, Sonnet e Haiku – che variano in base alle prestazioni e al prezzo. Opus, la versione più potente e costosa da eseguire, ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google attraverso una serie di benchmark che misurano l’intelligenza, ha detto la società. It e Sonnet, l’offerta di medio livello, sono stati resi disponibili lunedì, mentre Haiku sarà rilasciato in una data annunciata successiva.

In un’intervista, il cofondatore e CEO Dario Amodei ha detto che la famiglia di modelli è stata progettata pensando a diversi casi d’uso aziendali. “Claude 3 Opus è, almeno secondo le valutazioni, per molti aspetti il modello più performante al mondo in una serie di compiti”, ha aggiunto.

Su una serie di soggetti di test popolari tra cui le conoscenze generali di livello universitario (MMLU), la matematica della scuola elementare (GSM8K), il codice informatico (HumanEval) e la conoscenza delle domande e risposte (ARC-Challenge), Claude 3 Opus ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google, per i benchmark condivisi dall’azienda. Sul benchmark general-knowledge, Claude 3 Opus ha anche superato Mistral Large, il modello top-line rilasciato dall’unicorno AI open-source Mistral, pubblicato la scorsa settimana.

La versione di Claude 3 che la maggior parte degli utenti vedrà, tuttavia, Claude 3 Sonnet, si è comportata più alla pari con GPT-4: avanti su alcuni benchmark, indietro su altri. E Amodei ha ammesso che i benchmark di Anthropic non hanno tenuto conto dei recenti aggiornamenti di OpenAI e Google (GPT-4 Turbo e Gemini 1.5 Pro) poiché i loro colleghi non hanno ancora pubblicato le valutazioni dei test corrispondenti. “Sarei sorpreso se non ci esibissimo in modo competitivo”, ha detto.

A 15 dollari per milione di token di input – equivalente al testo di 2.500 pagine di libro – e 75 dollari per milione di token di output, Claude 3 Opus è più costoso della versione di anteprima del GPT-4 Turbo di OpenAI, che costa rispettivamente 10 e 30 dollari per milione di token. Amodei e la cofondatrice e sorella Daniela Amodei hanno detto a Forbes che si aspettano che Opus sia utilizzato da aziende che hanno bisogno delle prestazioni più all’avanguardia per funzioni come l’analisi dei dati complessi e la ricerca biomedica.

Claude 3 Sonnet, in confronto – che è cinque volte più economico – avrebbe senso per la maggior parte delle attività, hanno aggiunto, con usi che vanno dalla ricerca e dal recupero attraverso grandi archivi di dati, alle previsioni delle vendite e al marketing mirato e alla generazione di codice.

Il modello a basso costo, Claude 3 Haiku, costerà solo una frazione di questo, utile per le interazioni dal vivo con i clienti, la moderazione dei contenuti e la gestione dell’inventario logistico. La versione Haiku ha ancora funzionato alla pari con l’ultima versione di punta di Anthropic di Claude 2, il modello predecessore rilasciato solo otto mesi fa, ha detto Dario Amodei: “È molto competitivo con altri modelli della stessa classe. Questo è un grande guadagno”.

Tutti e tre i modelli consentiranno richieste fino a 200.000 token (approssimativamente delle dimensioni di un libro), più dei 128.000 supportati da GPT-4 Turbo. Gli utenti di Opus saranno in grado di richiedere 1 milione di limiti di token per alcuni usi, ha detto Anthropic, corrispondente al tetto che Google ha offerto ad alcuni utenti di Gemini 1.5 Pro.

Formato da sette ricercatori che hanno lasciato OpenAI, Anthropic ha storicamente mirato a separarsi dal suo progenitore e da altre aziende del settore attraverso un’attenzione più profonda alla sicurezza dell’IA. Alcuni addetti ai lavori del settore si sono chiesti se questo abbia rallentato l’azienda e messo in discussione le prestazioni del suo modello negli ultimi mesi, anche sui social media. Su una popolare classifica crowdsourcing di valutatori umani, Claude 1 ha attualmente una valutazione più alta rispetto ai suoi successori Claude 2.0 e il Claude 2.1 aggiornato.

Dario Amodei si è scrollato di dosso quelle valutazioni come una sola valutazione basata sull’uomo di un numero finito di compiti dei consumatori. Ha ammesso che mentre Claude 2 era più sicuro del suo predecessore in un modo che soddisfaceva i ricercatori di Anthropic, ciò è venuto a costo di maggiori “rifiuti errati” o rifiuti di suggerimenti che il modello riteneva si avvicinassero troppo ai suoi guardrail di sicurezza. La famiglia Claude 3 si comporta molto meglio dei predecessori nel non servire quei rifiuti, ha affermato Anthropic. I prompt innocui che si avvicinano al contenuto ai suoi limiti di sicurezza vengono rifiutati circa il 10% delle volte, rispetto al 25% di Claude 2.1. “Ora stiamo facendo progressi verso un maggiore equilibrio tra i due, qualcosa che ottiene il meglio di entrambi i mondi”, ha detto Amodei. “È davvero difficile tracciare un confine complesso nel modo giusto. Cerchiamo sempre di farlo meglio.”

Mentre aziende come InflectionCharacter.AI e persino OpenAI si sono avventurate ulteriormente nei casi d’uso dei consumatori, Anthropic si sta concentrando sui clienti aziendali. Gli utenti del suo chatbot consumer gratuito, chiamato anche Claude, avranno ora accesso a Sonnet, mentre le persone che desiderano provare Opus dovranno abbonarsi alla sua versione a pagamento da 20 dollari al mese. Ma le versioni di Claude 3 sono state fatte più per i casi d’uso aziendali in mente, ha detto Daniela Amodei. I clienti di Claude includono le società tecnologiche Gitlab, Notion, Quora e Salesforce (un investitore antropico); il gigante finanziario Bridgewater e il conglomerato SAP, nonché il portale di ricerca aziendale LexisNexis, il telco SK Telecom e il Dana-Farber Cancer Institute.

Tra i primi utenti di test Claude 3, il produttore di software di produttività Asana ha trovato un miglioramento del 42% nel tempo di risposta iniziale, ha detto il dirigente focalizzato sull’IA Eric Pelz in una dichiarazione. La collega società di software Airtable ha affermato di aver integrato Claude 3 Sonnet nel proprio strumento di intelligenza artificiale per aiutare a creare contenuti e riepilogare i dati più velocemente.

Per quanto sia quanto è costato l’allenamento di Claude 3 – quanto computing e per quanto tempo – i cofondatori di Anthropic hanno rifiutato di dire. Mentre Claude 2 è stato rilasciato lo scorso luglio, Amodei ha detto che non era un omaggio, poiché l’azienda a volte allena più modelli contemporaneamente, a seconda della disponibilità di cluster di unità di elaborazione grafica o GPU.

Anthropic – che ha recentemente raccolto 750 milioni di dollari con una valutazione di 18,4 miliardi di dollari, come riportato da Forbes – prevede di aggiungere funzionalità tra cui l’interpretazione del codice, le funzioni di ricerca e le citazioni delle fonti nei prossimi mesi. “Continueremo a scalare i nostri modelli e a renderli più intelligenti, ma continueremo anche a cercare di rendere i modelli più piccoli ed economici più intelligenti ed efficienti”, ha detto Amodei. “Ci saranno aggiornamenti grandi e piccoli durante tutto l’anno”.


22/02/24 Barron’s: Nvidia sta vendendo picconi in una corsa all’oro

Le prestazioni stellari di Nvidia e le prospettive sbalorditive  spingono i commentatori alla ricerca di un confronto storico appropriato.

È come il boom delle dot-com degli anni ’90? Quella è stata l’ultima volta che le azioni tecnologiche sembravano entusiasmare così tanto le persone. Ha scatenato un altro Roaring 20s, parallelo a quello che è successo nello stesso decennio del secolo scorso? Il rally che le azioni tecnologiche hanno acceso potrebbe diffondersi. Prima che Nvidia riportasse i guadagni, 10 degli 11 settori dell’S&P 500 sono aumentati mercoledì.

Forse la migliore analogia è la corsa all’oro della California nel XIX secolo. Come dice il proverbio, le persone che fanno più soldi sono quelle che vendono pale.

Questo è ciò che sta facendo Nvidia. L’intelligenza artificiale è la miniera d’oro. Non è ovvio quali aziende faranno le maggiori fortune con l’IA, ma avranno bisogno dei chip ad alta potenza che solo Nvidia offre per iniziare.

Ecco perché l’azione sembra essere un investimento così certo: l’unico problema che sembra trattenere Nvidia è se può fare abbastanza semiconduttori per soddisfare la domanda che sta ancora crescendo più velocemente delle aspettative. Anche se col tempo affronterà sicuramente una feroce concorrenza man mano che i rivali colmeranno il ritardo.

I risultati della società hanno di gran lunga oscurato le veline della Federal Reserve, che ha suggerito che i tagli ai tassi di interesse potrebbero essere ancora molto lontani. Se l’hype dell’IA e i tassi di interesse più alti degli ultimi decenni stanno avendo una partita di wrestling, l’IA sembra tenere la Fed per il collo.

Naturalmente, i riferimenti storici per l’attuale frenesia faranno confronti su come tutto finisce. Ovviamente, il boom delle dot-com ha portato a un crollo spettacolare. I ruggenti anni ’20 sono stati peggiori, culminando nella Grande Depressione.

Ma la fine della corsa all’oro della California non è stata così drammatica. È arrivato al termine quando l’argento è stato scoperto nel vicino Nevada, semplicemente inviando cercatori che cercavano di farlo diventare ricco in una destinazione diversa.

Cresce l’aspettativa che Chip Maker batteranno le attese

Nvidia ha dimostrato che lo slancio di un boom delle vendite stimolato dall’intelligenza artificiale è ancora forte, triplicando le vendite nell’ultimo trimestre e prevedendo entrate migliori del previsto per quello attuale. Il CEO Jensen Huang ha affermato che l’informatica accelerata e l’IA generativa hanno raggiunto un punto di svolta, con una domanda in aumento ovunque.

  • Le entrate del quarto trimestre hanno raggiunto i 22 miliardi di dollari, superando le aspettative. Ha previsto 24 miliardi di dollari di vendite per il suo trimestre in corso e ha indicato l’aumento della domanda dalla sua attività di data center, dove le vendite sono salite di cinque volte rispetto all’anno precedente.
  • Nvidia ha affermato che l’aumento dei risultati dei data center riflette maggiori spedizioni di chip Nvidia Hopper, che vengono utilizzati per la formazione e l’inferenza di modelli di intelligenza artificiale di grandi dimensioni e applicazioni di intelligenza artificiale generativa. I grandi fornitori di cloud computing hanno rappresentato oltre la metà delle entrate del centro dati per il trimestre.
  • Il direttore finanziario Colette Kress ha dichiarato in un commento scritto che le vendite di chip per data center da parte di Nvidia in Cina sono diminuite in modo significativo nel quarto trimestre a causa del rafforzamento delle restrizioni statunitensi sulle vendite lì. Il commento non ha delineato le dimensioni del calo.
  • Nel gioco, le entrate del quarto trimestre di Nvidia di 2,9 miliardi di dollari sono aumentate del 56% rispetto all’anno precedente. Nella sua sezione di visualizzazione professionale, che si occupa di sistemi che richiedono un’intensa elaborazione grafica, come la progettazione 3-D, le entrate sono raddoppiate a 463 milioni di dollari e nelle entrate della sua divisione automobilistica sono diminuite del 4% rispetto all’anno precedente a 281 milioni di dollari.

Cosa c’è dopo: Kress ha detto che la domanda per i futuri prodotti Nvidia è robusta. L’azienda si aspetta che i prodotti di prossima generazione siano limitati dall’offerta poiché la domanda supera di gran lunga l’offerta, ha detto agli analisti. Il prossimo chip AI, il B100, dovrebbe essere rilasciato nei prossimi trimestri.

— Tae Kim e Liz Moyer



05/02/24 Barron’s: Palantir sale dopo gli utili. Il CEO vede un mondo di “aumento del caos e del pericolo””.”

DaEric J. SavitzSegui

Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi. 

Forte rialzo di Palantir  nel dopo mercato dopo che la società ha registrato una crescita dei ricavi del quarto trimestre migliore del previsto.

La forte domanda da parte dei clienti commerciali dell’azienda compensa le entrate governative più leggere del previsto.

Il titolo è aumentato fino al 18% nel tardo trading a seguito del rapporto sugli utili.

Per il trimestre, Palantir ha registrato entrate di 608 milioni di dollari, in aumento del 20% rispetto a un anno fa, e superiore alla stima di 603 milioni di dollari di Wall Street. I risultati suggeriscono un aumento degli affari recenti; le entrate sono cresciute del 17% nel terzo trimestre.

Su base rettificata, Palantir ha guadagnato 8 centesimi per azione, in linea con le stime del consenso di Wall Street tracciate da FactSet.

Le entrate commerciali di Palantir sono state di 284 milioni di dollari, in aumento del 32% rispetto a un anno fa, e in anticipo rispetto alla previsione di Wall Street di 271 milioni di dollari. Ciò include una crescita del 70% del business commerciale statunitense, una forte accelerazione dall’espansione del 33% nel terzo trimestre, a 131 milioni di dollari.

https://247618427e3be929b9c353b9c4a848c8.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html

In un’intervista con Barron’s, il CEO Alex Karp ha detto che l’attività commerciale del trimestre è stata “roboante, ballerina, incomprensibile”.

Le entrate dal settore pubblico sono state di 324 milioni di dollari, in aumento dell’11%, ma timide rispetto alle previsioni degli analisti per 333 milioni di dollari. Karp dice che l’attuale situazione geopolitica, con disordini in Medio Oriente, guerra in Ucraina e una relazione controversa tra Stati Uniti e Cina, andrà a beneficio di Palantir a lungo termine.

“Il governo è un business complicato”, dice Karp. “Le parti del governo che si stanno preparando ad andare in guerra stanno usando Palantir o stanno per usare Palantir”.

Durante il quarto trimestre, Palantir ha chiuso 103 accordi tra clienti commerciali e governativi per un valore di oltre 1 milione di dollari, dice Karp, il doppio rispetto al trimestre di un anno fa.

Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi, potenziate dall’eccitazione per l’intelligenza artificiale.

“I nostri risultati riflettono sia la forza del nostro software che la domanda crescente che stiamo vedendo in tutti i settori e settori per le piattaforme di intelligenza artificiale, compresi i grandi modelli linguistici, che sono in grado di integrarsi con il groviglio di infrastrutture tecniche esistenti che le organizzazioni stanno costruendo da anni”, ha detto Karp in una lettera agli azionisti.

Per alcuni investitori, l’acquisto di azioni Palantir porta sfumature politiche. Originariamente finanziata in parte da In-Q-Tel, il braccio di capitale di rischio della CIA, la società è rimasta un aperto sostenitore dell’esercito statunitense. Nel 2020, Palantir ha trasferito la sua sede centrale a Denver da Palo Alto, in parte a causa della sensazione dell’azienda che la sua attenzione commerciale non si adattasse alla Silicon Valley.

Karp è stato anche esplicito nel suo sostegno all’esercito israeliano, un cliente di Palantir, nella sua attuale guerra con Hamas a Gaza.

“Abbiamo costruito l’azienda attorno al presupposto che il mondo non fosse stabile, che i pregiudizi non stavano scomparendo”, ha detto Karp a Barron. “L’Occidente deve combattere per avere successo, e se l’Occidente combatte per avere successo, puoi vincere”.

“La ragione per cui il mondo è così pericoloso è perché la Cina sta ovviamente notando che l’America è l’unico paese al mondo con crescita del PIL. E accelererà a causa di questi progressi tecnologici che stanno praticamente accadendo esclusivamente in questo paese. Averai una massiccia crescita del PIL nel futuro dell’America e avrai una crescita del PIL in calo, o forse zero o appena al di sopra dell’inflazione, in Europa, che porterà a una massiccia instabilità”.

Karp vede rischi geopolitici in aumento intorno alla parola. “I nostri avversari presumono correttamente che l’America sarà ancora più forte domani di oggi. “Quindi sono razionali per agire””, dice.” “La situazione è molto più pericolosa a Taiwan di quanto la gente si renda conto, perché è razionale per la Cina agire. Ed è più pericoloso in Medio Oriente di quanto la gente pensi”.

Karp dice di capire perché ci sono scettici su Palantir.

“Perché se ho ragione, le loro attività e i loro investimenti falliranno tutti”, dice. “E se hanno ragione, è un mondo migliore” Ma, aggiunge Karp, “Sembra certamente che siamo in un mondo di caos e pericolo crescente”.

Per il trimestre di marzo, Palantir vede entrate che vanno da 612 milioni a 616 milioni di dollari, poco prima del consenso di Wall Street di 617 milioni di dollari. La società vede un reddito rettificato da operazioni compreso tra 196 e 200 milioni di dollari, al di sopra del consenso di 172 milioni di dollari.

Per il 2024, Palantir prevede entrate comprese tra 2,652 miliardi di dollari e 2,668 miliardi di dollari; gli analisti sono a 2,643 miliardi di dollari. La società vede un reddito rettificato per l’intero anno da operazioni comprese tra 834 milioni di dollari e 850 milioni di dollari, in anticipo del consenso a 747 milioni di dollari. La società prevede una crescita delle entrate commerciali degli Stati Uniti per l’anno di almeno il 40%. Palantir prevede un flusso di cassa libero rettificato per il 2024 compreso tra 800 milioni di dollari e 1 miliardo di dollari, al di sopra del consenso a 658 milioni di dollari.

Scrivi a Eric J. Savitz su eric.savitz@barrons.com


05/02/24 Barron’s: Nvidia e questo altro titolo sono le migliori scommesse sulla domanda di chip AI, dice l’analista

DaTae KimSegui

Gli strumenti di programmazione di Nvidia si aggiungono al fascino dei suoi chip. 

Due titoli legati ai chip trarrrano il massimo dalla crescente domanda di semiconduttori di intelligenza artificiale, afferma Raymond James.

Venerdì, l’analista Srini Pajjuri ha ribadito le valutazioni Strong Buy su Nvidia  e ASML, citando come le grandi aziende tecnologiche sembrano fare progressi nel guadagnare denaro da progetti di intelligenza artificiale generativa. Strong Buy è il punteggio più alto di Raymond James per le azioni.

“Rimaniamo rialzisti sull’adozione dell’IA in tutti i settori e vediamo una lunga strada per i fornitori di componenti”, ha scritto. “Stimiamo che le entrate semi relative all’IA della generazione siano cresciute del 200% nel 2023 e ci aspettiamo che raddoppi nel 2024”.

Nel trading di lunedì, le azioni Nvidia sono aumentate del 3,6% a 685,19 dollari, mentre le azioni ASML sono scese dello 0,2% a 887,78 dollari.

Nvidia è il principale produttore di chip AI per i centri dati. Sia le start-up che le aziende hanno preferito i suoi prodotti perché l’azienda ha una solida piattaforma di programmazione, CUDA, che fornisce strumenti che rendono più facile lo sviluppo di applicazioni AI.

ASML, nel frattempo, rende le macchine di litografia ultravioletta estrema fondamentali per la produzione di semiconduttori AI. I clienti dell’azienda olandese includono Taiwan Semiconductor Manufacturing, Samsung Electronicse Intel.

“L’impatto della monetizzazione dell’IA (sui guadagni dell’azienda hyperscaler) è stato molto più evidente in questa stagione degli utili”, ha scritto, riferendosi ai grandi fornitori di cloud computing.

L’analista ha notato che queste società di cloud-computing hanno commentato positivamente la spesa quando hanno riportato i loro guadagni la scorsa settimana. Microsoft  ha detto che si aspetta che le spese in conto capitale “aumentino materialmente” nel trimestre in corso e che intende continuare a investire in modo aggressivo. Alphabet ha detto che il suo capex sarebbe “notevolmente più grande” nel 2024 che nel 2023.

Le tendenze nella domanda di intelligenza artificiale sono dietro quegli investimenti in infrastrutture, hanno detto le aziende.


25/01/24 Barron’s: Le azioni IBM saltano al massimo di 11 anni grazie alla scommessa sull’AI che inizia a pagare

DaEric J. SavitzSegui

Se vuoi vedere il vero potere dell’intelligenza artificiale, non guardare oltre il rally mozzafiato di giovedì in azioni di quel nuovo up dell’informatica di 113 anni, IBM

Mercoledì scorso, IBM ha pubblicato risultati finanziari del quarto trimestre che hanno leggermente superato le stime di Wall Street. Ma la vera notizia era altrove. IBM ha affermato che il suo “libro degli affari” per i carichi di lavoro di intelligenza artificiale è raddoppiato in sequenza nel trimestre rispetto alle “basse centinaia di milioni” che ha riportato nel terzo trimestre, implicando circa 400 milioni di dollari. Barron ha scritto ripetutamente che IBM è uno dei giocatori più sottovalutati sulla tendenza dell’IA e gli investitori ora sembrano prendere piede.

L’altra chiave della storia di IBM è il free cash flow. La società aveva previsto 10,5 miliardi di dollari di flusso di cassa libero per l’anno e ha superato quel numero, raggiungendo 11,2 miliardi di dollari. Inoltre, IBM ha previsto un aumento di 12 miliardi di dollari di flusso di cassa libero per il 2024, circa 1 miliardo di dollari in più di quanto la Street avesse previsto.

IBM ha anche detto che dovrebbe pubblicare entrate per il 2024 a metà una cifra – chiamalo dal 4% al 6% – che era al di sopra del consenso di Street al 3%. IBM sta raggiungendo i numeri di una previsione a lungo termine dell’ottobre 2021 che ha definito la strategia di turnaround dell’azienda, che includeva una doppia attenzione al cloud ibrido e all’intelligenza artificiale. Il piano dell’azienda ha richiesto una crescita ad alta cifra nella consulenza e una crescita a mezza cifra nel software. Ed è quello che sta offrendo.

IBM ha anche detto mercoledì che prevede di assumere alcuni costi aggiuntivi, riducendo la sua forza lavoro di un paio di per cento, poiché si adatta sia alle proprie efficienze dall’uso dell’IA che per aumentare gli esperti di intelligenza artificiale nei suoi bracci di consulenza e software.

The Street ha apprezzato quello che ha sentito da IBM: a loro è piaciuto molto. Le azioni IBM sono aumentate di quasi il 13% nelle recenti negoziazioni, a 196,43 dollari. Se quel prezzo rimane, sarebbe il livello di chiusura più alto del titolo da giugno 2013. IBM è ora entro il 5% del suo massimo record di chiusura di 206,12 dollari, raggiunto il 15 marzo 2013. Il rally di oggi è la più grande mossa di un giorno del titolo dal luglio 2000. Contribuendo con più di 140 punti alla Dow Jones Industrial Avwrage il titolo sta mantenendo da sola l’indice blue-chip nel verde.

C’erano alcuni punti delicati nel rapporto: le entrate del software in particolare erano leggermente al di sotto delle stime di Street. Ma gli analisti sono rimasti colpiti dai numeri in generale e dai risultati del free-cash-flow in particolare.

L’analista di BofA Global Research Wamsi Mohan ha ripetuto il suo rating Buy sulle azioni IBM e ha aumentato il suo prezzo obiettivo sul titolo a 200 dollari, da 170 dollari. Mohan ha osservato che la guida del 2024, in particolare sul flusso di cassa libero, era “molto migliore del previsto”, riflettendo una combinazione di maggiore redditività e minori esigenze di cassa per i suoi piani pensionistici, compensate in parte da maggiori spese in conto capitale. “L’inversione di tendenza di IBM continua, con un portafoglio difensivo, un rendimento dei dividendi attraente e un portafoglio di intelligenza artificiale sottovalutato”, ha scritto.

L’analista di Melius Research Ben Reitzes, che ha un rating Buy e un prezzo obiettivo di 224 dollari sul titolo, afferma che il trimestre era “tutto sul flusso di cassa”. Pensa che il titolo dovrebbe continuare a muoversi più in alto, notando in particolare che la società sta crescendo molto più velocemente nella sua attività di consulenza rispetto alla rivale Accenture 

Egli osserva che IBM ha scambiato con uno sconto del 40% con Accenture su base multipla principe/guadagni del 2024.

“Gli investitori sono ancora nelle prime fasi di realizzazione di IBM ha remixato la sua attività per guidare l’accelerazione fino al 2025”, scrive Reitzes. “La crescita a una cifra media di Big Blue e la crescente rilevanza dell’IA dovrebbero renderla più vicina a un multiplo di mercato”.

Scrivi a Eric J. Savitz su eric.savitz@barrons.com


16/01/24 Forbes: Come una società di chip in difficoltà ha beneficiato delle ambizioni di intelligenza artificiale degli investitori mediorientali

ILLUSTRAZIONE DI ANGELICA ALZONA PER FORBES; GRAFICA DI NATALJA CERNECKA/GETTY IMAGES

Mentre gli Stati Uniti limitano le vendite di chip alla regione a causa delle preoccupazioni della Cina, Blaize, con sede in California, sta progettando di andare in pubblica attraverso uno SPAC sostenuto da investitori mediorientali.

Di David Jeans, Staff Forbes


Per più di un decennio, una società di semiconduttori con sede in California lanciata dagli ingegneri Intel ha operato nell’oscurità, sviluppando un chip che sperava potesse intaccare il business dell’edge computing di Nvidia. Ma anche dopo che la società, Blaize, ha raccolto più di 200 milioni di dollari da società di venture capital come GGV e l’investitore tecnologico Lane Bess, l’anno scorso aveva bisogno di più capitale e i suoi investitori esistenti non erano disposti a fornire di più. “Sono tornati da me e mi hanno detto: ‘Puoi mettere più soldi per farci andare avanti?'” Bess, che ha investito circa 25 milioni di dollari, ha detto a Forbes. “E o era quello o fondamentalmente scriviamo una perdita”.

Ma la scorsa estate, è emersa una terza opzione: un gruppo di investitori mediorientali con un crescente interesse per l’IA. Guidato da Shahal Khan, che ha curato l’acquisizione nel 2018 del Plaza Hotel di Manhattan, il gruppo stava investendo miliardi in iniziative di intelligenza artificiale con l’obiettivo di trasformare gli stati del Golfo in un hub tecnologico preminente. I chip di Blaize – che potrebbero fornire potenza di calcolo edge per qualsiasi cosa, dai filmati di droni militari ai veicoli autonomi – aiuterebbero a rafforzare queste ambizioni.

CEO di Blaize Dinakar MunagalaBLAIZE

Ora, Blaize è destinata ad essere quotata attraverso una fusione SPAC con una società di assegni in bianco guidata da Khan, BurTech, con un valore aziendale di 894 milioni di dollari, e dovrebbe portare 71 milioni di dollari in nuovo capitale, ha detto la società il mese scorso; prevede di quotarsi sul NASDAQ nel secondo trimestre del 2024. “Il motivo per cui ci abbiamo investito è stato che molti dei miei LP provengono dal Medio Oriente”, ha detto Khan a Forbes, compresi i family office delle famiglie reali dell’Arabia Saudita, degli Emirati Arabi Uniti e del Qatar. “E stanno investendo un’enorme quantità di denaro nella costruzione di quello che pensano sarà probabilmente uno dei principali hub di supercomputer del pianeta”.

I fondi sovrani del Golfo sono stati a lungo finanziatori per le startup della Silicon Valley e le tecnologie di intelligenza artificiale. Ma come società di chip americana, i nuovi legami di Blaize con la regione potrebbero presentare sfide in un momento in cui il governo degli Stati Uniti sta rafforzando i controlli sulle esportazioni di semiconduttori in paesi come l’Arabia Saudita, il Qatar e gli Emirati Arabi Uniti tra le preoccupazioni che la Cina stia usando la regione per aggirare le restrizioni americane sull’ottenimento della tecnologia.

Altri produttori di chip, tra cui Nvidia e AMD, hanno subito pressioni da parte del governo: ad agosto i giganti della tecnologia hanno rivelato che gli Stati Uniti avevano limitato le esportazioni alle nazioni del Medio Oriente non divulgate (un portavoce del Dipartimento del Commercio ha negato a Reuters di aver limitato le vendite). E a novembre, secondo quanto riferito, la Casa Bianca ha espresso preoccupazioni per i legami della Cina con la più grande società di intelligenza artificiale degli Emirati Arabi Uniti, G42, che deteneva importanti contratti con società americane come OpenAI. Recentemente, Bloomberg ha riferito che l’amministrazione Biden ha costretto un braccio di venture di Saudi Aramco a vendere la sua posizione in una startup di intelligenza artificiale sostenuta da Sam Altman chiamata RainAI.

Blaize potrebbe trovarsi sotto un controllo simile. “Il governo degli Stati Uniti, comprese persone come [il Comitato per gli investimenti esteri negli Stati Uniti], avrebbe un interesse e darebbe un’occhiata abbastanza da vicino a ciò che sapevano di questa transazione”, ha detto Brian Egan, un avvocato di Skadden che consiglia le aziende sulla sicurezza nazionale e sulle questioni prima di CFIUS.

Il CEO di Blaize, Dinakar Munagala, ha sottolineato che l’azienda aderirebbe alle leggi americane: “Come azienda, abbiamo tutti i processi di controllo delle esportazioni in atto in modo che quando vendiamo i nostri chip ci assicuriamo di conformarci a tutte le regole”.

Il Dipartimento del Commercio non ha risposto a una richiesta di commento.

Blaize, che ha sede a El Dorado Hills, in California, e ha uffici nel Regno Unito e in India, è stato impegnato a firmare accordi in Medio Oriente. A settembre, la società ha annunciato di aver inserito un memorandum d’intesa con Mark AB Capital, un fondo controllato da membri della famiglia reale di Abu Dhabi. La società ha detto che si aspettava di generare 50 milioni di dollari di entrate annuali dalla partnership attraverso gli ordini del Consiglio di cooperazione del Golfo, che include gli Emirati Arabi Uniti e l’Arabia Saudita, e avrebbe formato 5.000 cittadini degli Emirati Arabi Uniti sulla sua piattaforma software di intelligenza artificiale. “Con questa partnership, non stiamo solo sfruttando il potenziale dell’IA, ma stiamo anche aprendo la strada verso una nazione alimentata dall’IA in cui il progresso non conosce limiti”, ha detto all’epoca Abdullah Mohamed Al Qubaisi, CEO di Mark AB Capital.

Tali accordi vengono fatti insieme a una raffica di altre partnership tecnologiche di intelligenza artificiale nella regione. All’inizio del 2023, la società di intelligenza artificiale con sede in California Cerebras ha firmato un accordo da 100 milioni di dollari per fornire supercomputer al G42 degli Emirati Arabi Uniti, che è stato seguito da una partnership per sviluppare un importante modello di grande lingua in lingua araba. Secondo quanto riferito, il mese scorso, il gruppo indiano Adani ha formato una fusione congiunta con l’International Holding Co. degli Emirati Arabi Uniti per “esplorare l’intelligenza artificiale e altre tecnologie”. E nei mesi precedenti la sua breve sostrazione come CEO di Open AI a novembre, Sam Altman era stato in trattative per raccogliere miliardi dall’Arabia Saudita e dagli Emirati Arabi Uniti per una società di semiconduttori per rivaleggiare con Nvidia.

Il CEO Munagala ha detto a Forbes che Blaize ha clienti oltre il Medio Oriente, tra cui Stati Uniti, Giappone e Germania, ma ha rifiutato di elaborare. Ha aggiunto che i chip e il software di Blaize vengono distribuiti in un aeroporto non divulgato dove vengono utilizzati per ordinare innumerevoli ore di filmati di sicurezza e che l’azienda sta anche prendendo di mira applicazioni di difesa, come la fornitura di calcolo per l’analisi video da filmati di droni; la società ha detto di aver fatto un’offerta su almeno uno degli Stati Uniti. Contratto del Dipartimento della Difesa, ma ha rifiutato di dire di più.

Lanciato nel 2011 come ThinCI, il team fondatore era composto da ex ingegneri dei semiconduttori Intel, guidati da Munagala, che hanno visto l’opportunità di fornire potenza di calcolo per applicazioni edge, come attività ad alta intensità di calcolo come l’analisi video. Investitori strategici come Daimler e il gigante giapponese dei ricambi auto Denso hanno guidato cicli di finanziamento nell’azienda, vedendo il potenziale nelle rivendicazioni dell’azienda di eseguire modelli di intelligenza artificiale in modo più efficiente sui suoi chip. Dopo aver rilasciato i suoi primi prodotti nel 2020 – tra cui uno “studio di intelligenza artificiale” che ha permesso agli utenti di costruire applicazioni di intelligenza artificiale senza codice e più piattaforme hardware – la società ha raccolto altri 70 milioni di dollari da investitori come Franklin Templeton, GGV e il fondo sovrano di Singapore Temasek.

Ora che Blaize si è assicurato una nuova ancora di salvezza, Munagala sta andando in un roadshow per scatenare l’hype in vista dell’imminente IPO. La sua prima tappa questo mese è l’Arabia Saudita, dove Blaize è attualmente in trattative per formare una joint venture per distribuire i suoi chip in un nuovo data center fuori Riyadh e nei droni utilizzati per l’agricoltura. (Un portavoce dell’appaltatore, Saudi National Projects Investments, non ha risposto a una richiesta di commento). “Dinakar sarà piuttosto impegnato questo mese”, ha detto Khan.

Bess, da parte sua, è sollevato dal fatto che il suo investimento abbia trovato nuovi sostenitori dopo le sue sfide di raccolta di denaro. “Dove l’azienda ha trovato la sua base”, ha detto, “è nella progressività dei governi mediorientali e delle famiglie reali nell’avere l’appetito di investire nel loro futuro”.


05/01/24 Barron’s: Nvidia può fare 100 miliardi di dollari in denaro extra nei prossimi 2 anni, dice l’analista

DaTae Kim

Le azioni Nvidia sono aumentate del 230% negli ultimi 12 mesi.

 Nvidia  genererà un enorme flusso di profitti dalla vendita dei suoi semiconduttori di intelligenza artificiale nei prossimi anni, afferma BofA Global Research.

Giovedì, l’analista Vivek Arya ha ribadito la sua valutazione di acquisto “Top Pick” per le azioni Nvidia, prevedendo che il produttore di chip farà 100 miliardi di dollari di flusso di cassa libero in totale nei prossimi due anni. Ha riaffermato il suo obiettivo di prezzo di 700 dollari per le azioni.

“La solida generazione di FCF [flusso di cassa libero] di NVDA crea opzionalità”, ha scritto. “Ci aspettiamo che NVDA consideri le risorse che la aiutano a creare un profilo di entrate ricorrenti più significativo”.

Arya stima che Nvidia possa utilizzare da 30 a 35 miliardi di dollari dei 100 miliardi di dollari di flusso di cassa libero per i riacquisti di azioni. La società ha acquistato 3,8 miliardi di dollari delle sue azioni nel suo ultimo trimestre riportato.

Con il resto dei soldi, il produttore di chip potrebbe investire in nuove opportunità di generazione di entrate. L’analista afferma che l’investimento aggiuntivo può aiutare ad espandere il multiplo della valutazione price-to-earnings di Nvidia alla sua media mediana storica da 35 volte a 40 volte, rispetto a 24 volte oggi.

“Ci figuramo NVDA considerare partnership/M&A più avanzate di aziende di software che stanno aiutando i clienti aziendali tradizionali a implementare, monitorare e analizzare le app genAI”, ha scritto.

Nvidia attualmente domina il mercato dei chip utilizzati per le applicazioni di intelligenza artificiale. Le start-up e le aziende preferiscono i prodotti dell’azienda a causa della sua robusta piattaforma di programmazione, CUDA, che fornisce strumenti relativi all’IA che rendono più facile lo sviluppo di progetti di intelligenza artificiale.


27/12/23 Briefing.com: Synopsys crolla per l’annuncio di una acquisizione

Gli investitori di Synopsys sono delusi dal potenziale prezzo che la società potrebbe pagare per acquisire Ansys (SNPS)

Synopsys (SNPS), un fornitore di software di automazione della progettazione elettronica utilizzato per testare e progettare chip, ha scesa l’ultima ora della sessione di venerdì su un rapporto del WSJ che stava cercando di acquisire Ansys (ANSS), uno sviluppatore di software di simulazione ingegneristica. Ulteriori dettagli della presunta transazione si sono materializzati dopo la chiusura di venerdì. Reuters ha riferito che Ansys stava ricevendo offerte di acquisizione per oltre 400 dollari per azione, un premio di circa il 17% rispetto al prezzo di apertura di venerdì.

Senza alcun accordo formalizzato, non vi è alcuna garanzia che Ansys sarà acquisita da Synopsys, o da qualsiasi società per quella materia, o se inchiostrerà un accordo a un prezzo superiore a 400 dollari/azione, sottolineato da Ansys che quota ancora ben al di sotto di quei livelli. Reuters ha notato che un annuncio formale dovrebbe essere fatto entro le prossime settimane.

  • Perché un’acquisizione di Synopsys/Ansys dovrebbe avere senso? Ansys ha sviluppato un software di simulazione ingegneristica per decenni, espandendo costantemente il suo vantaggio competitivo penetrando numerose industrie attraverso l’ampia gamma di applicazioni del suo software. A causa dell’alto livello di formazione coinvolto, il software di simulazione di Ansys è costoso da disattivare, fornendo all’azienda un flusso di entrate difensivo. Mentre la linea superiore di Ansys ha fatto un underwhelm lo scorso trimestre, ciò era in gran parte dovuto agli Stati Uniti. Ulteriori restrizioni all’esportazione del Dipartimento del Commercio per alcune imprese cinesi, un probabile vento contrario a breve termine.
  • Ansys comanda anche margini eccellenti, mantenendo margini lordi di oltre il 90% nel terzo trimestre, evidenziando la capacità della direzione di tenere sotto controllo le spese. Tuttavia, per lo stesso motivo, non lascia molto spazio a Synopsys per entrare e tagliare le spese gonfie, mantenendo un limite alle potenziali sinergie.
  • Allora perché le azioni di Synopsys sono diminuite rapidamente sulle segnalazioni di un’acquisizione di Ansys? Il prezzo sospetto che Synopsys avrebbe pagato per aggiungere il software Ansys al suo arsenale era troppo alto. Se Synopsys dovesse acquistare Ansys per 400 dollari per azione, si tradurrebbe in circa 15x entrate stimate FY23 e 46x guadagni rettificati, significativamente al di sopra di molti altri giganti della tecnologia del software come ORCLADBE CRM.

I rapporti che Synopsys potrebbe offrire formalmente almeno 400 dollari per azione per Ansys sono stati accolti da un contraccolpo immediato da parte degli investitori di Synopsys, principalmente a causa del prezzo elevato. Ansys vanta un bossato economico considerevole data la sua vasta storia, che si incorpora in numerose industrie e alti costi di commutazione. Tuttavia, le entrate di Ansys si sono recentemente raffreddate, scivolando in territorio negativo nel terzo trimestre mentre le restrizioni cinesi pesavano. Tuttavia, l’aggiunta di Ansys sarebbe una mossa eccellente per Synopsys nel lungo periodo, soprattutto perché il contenuto di semiconduttori aumenta, con fluttuazioni azionarie a breve termine che creano punti di ingresso interessanti.


22/12/23 Barron’s: Ecco un titolo sull’ intelligenza artificiale di cui probabilmente non hai sentito parlare. Sembra un acquisto interessante.

DaTae KimSegui

Synopsys è il più grande fornitore di software di automazione della progettazione elettronica, che viene utilizzato per progettare semiconduttori. È un beneficiario sottovalutato del boom dell’intelligenza artificiale. 

Nonostante il suo pedigree di quasi quattro decenni e un valore di mercato di 85 miliardi di dollari, Synopsys SNPSnon ottiene molta copertura da Wall Street o dai media, soprattutto rispetto ai suoi principali clienti: NvidiaAdvanced Micro Devices Intel.

È un nome che vale la pena conoscere, però. Synopsys è il più grande fornitore di software di automazione della progettazione elettronica, o EDA, che viene utilizzato per progettare semiconduttori. L’azienda potrebbe essere il beneficiario più sottovalutato del boom dell’intelligenza artificiale.

Nell’ultimo decennio, Synopsys è cresciuta insieme alla proliferazione di chip nei prodotti di consumo, dalle auto agli elettrodomestici e all’elettronica. Ma l’era dell’IA ha il potenziale per innescare un altro livello di crescita.

Le azioni di Synopsys sono aumentate del 75% quest’anno, a un recente 560 dollari, anche se questo impallidisce rispetto ai beneficiari di intelligenza artificiale più noti come Nvidia, in aumento del 235% e Palantir Technologies, in aumento del 174%.

L’aumento della domanda di chip AI, dalle start-up ai giganti del cloud computing, e l’implementazione aggressiva dell’azienda delle proprie funzionalità basate sull’intelligenza artificiale potrebbero guidare un aumento della domanda di anni per il software Synopsys.

“L’IA è stata una grande opportunità per accelerare il time-to-market dei nostri clienti fornendo loro prodotti EDA e IP [proprietà intellettuale] più efficienti per sviluppare quei chip complessi”, ha recentemente detto il CEO entrante Sassine Ghazi a Barron.

Il dirigente prende le redini di Synopsys il 1° gennaio, sostituendo il fondatore dell’azienda, Aart de Geus, che sta passando al ruolo di presidente esecutivo. Ghazi è entrato a far parte di Synopsys nel 1998. Ha ricoperto vari ruoli dirigenziali, tra cui ingegneria e sviluppo del prodotto, prima di diventare direttore operativo dell’azienda nel 2020.

Ghazi afferma che l’interesse delle aziende per l’IA generativa sta in aumento, scatenando una maggiore domanda di chip avanzati che saranno progettati dal software Synopsys.

“Non mancano le idee per varie applicazioni di intelligenza artificiale nel centro dati o nel cloud”, afferma. “È a destra in termini di domanda”.

Ghazi aggiunge che Synopsys ha iniziato a esaminare come l’azienda può utilizzare l’intelligenza artificiale per migliorare l’efficienza, l’accuratezza e la sicurezza in tutti i suoi dipartimenti di marketing, risorse umane e legali. L’azienda ha già diversi progetti nelle prime fasi di adozione, dice, che migliorano drasticamente la produttività e i processi del flusso di lavoro.

Per i suoi clienti, l’azienda ha recentemente presentato Synopsys.ai Copilot attraverso una partnership con Microsoft. Sfrutta modelli linguistici di grandi dimensioni per formare ingegneri attraverso un’interfaccia simile a ChatGPT. “Pensalo come un assistente di intelligenza artificiale per la progettazione di chip”, dice Ghazi. ” Riduce significativamente il nostro carico di supporto e migliora il nostro aumento dei clienti”.

Il nuovo CEO vede la tecnologia evolversi dove l’IA può generare progetti di semiconduttori con una minima interazione da parte dei progettisti di chip. La nuova funzionalità di intelligenza artificiale verrà aggiunta al software Synopsys ogni nove mesi.

L’analista di KeyBanc Capital Markets Jason Celino è ottimista sul fatto che il passaggio di Synopsys verso una maggiore intelligenza artificiale pagherà dividendi all’azienda e ai suoi clienti.

“Il design abilitato all’intelligenza artificiale è la più grande svolta del prodotto nello sviluppo EDA in 30-40 anni”, afferma Celino. Ha un rating di sovrappeso sul titolo e un obiettivo di prezzo di 675 dollari, circa il 20% al di sopra dei livelli attuali.

I miglioramenti dell’IA dovrebbero significare che i clienti Synopsys hanno meno probabilità di cambiare fornitore. Ci sono poche scelte, comunque. Il design dei chip è dominato da Synopsys e rivaleggia Cadence Design Systems e Siemens EDA, un prodotto dell’acquisizione di Mentor Graphics da parte di Siemens nel 2017 per 4,5 miliardi di dollari. È un’area del mercato che è probabilmente altrettanto importante delle fonderie, dominate dalla Taiwan Semiconductor Manufacturing, e dalle apparecchiature per chip, guidate da ASML.

Insieme, le tre aziende EDA hanno circa il 90% della quota di mercato per gli strumenti software EDA, secondo KeyBanc. Synopsys è il più grande fornitore, con il 35%.


07/12/23 Barron’s: C3.ai è in una fase di investimenti accelerati . Il CEO Tom Siebel spiega perché.

DiEric J. Savitz

“L’opportunità in Gen AI è semplicemente sbalorditiva”, ha detto il CEO di C3.ai Tom Siebel a Barron. 

Il CEO di C3.ai Tom Siebel pensa di avere una tigre per la coda e non lascerà che le preoccupazioni di Wall Street si intromettano.

Alla fine di mercoledì C3.ai ha riportato utili per il trimestre di ottobre che ha lasciato i mercati  delusi sia dai risultati che dalla stime della società.

Le azioni C3.ai di giovedì sono scese del 10,7% a 26,05 dollari, ma rimangono più alte del 133% per l’anno fino ad oggi. Siebel, per esempio, non si preoccupa del movimento di un giorno nelle azioni generalmente volatili della società.

Ecco la situazione. La crescita negli ultimi trimestri non è stata all’altezza di quella di due anni fa, una situazione che Siebel dice che riflette meno in parte una transizione del modello di business: l’azienda ora utilizza un modello di consumo, come molti fornitori di cloud, piuttosto che un modello di abbonamento.

Per il secondo trimestre fiscale conclusosi a ottobre. 31, C3.ai ha registrato un fatturato di 73,2 milioni di dollari, in aumento del 17% rispetto a un anno fa, verso la fascia più bassa della gamma di orientamento dell’azienda da 72,5 milioni a 76,5 milioni di dollari e al di sotto delle previsioni di consenso di Street tracciate da FactSet di 74,3 milioni di dollari.

Per il trimestre di gennaio, C3.ai prevede entrate comprese tra 74 e 78 milioni di dollari, con una perdita operativa non GAAP compresa tra 40 e 46 milioni di dollari. Il consenso di strada aveva precedentemente richiesto entrate di 77,7 milioni di dollari e una perdita operativa non GAAP di 21,1 milioni di dollari.

Il vero kicker sono state le prospettive per l’intero anno fiscale che termina ad aprile 2024. C3.ai ha ribadito la sua guida alle entrate, che richiede entrate comprese tra 295 e 320 milioni di dollari. Ma la società ora vede una perdita non GAAP da operazioni tra 115 milioni e 135 milioni di dollari, allargando da un precedente intervallo di previsioni che richiede una perdita da 70 milioni di dollari a 100 milioni di dollari.

C3.ai aveva avvertito il mercato nel riportare i risultati del trimestre di luglio che avrebbe accelerato il ritmo di spesa per muoversi in modo aggressivo per capitalizzare la crescita della domanda di software di intelligenza artificiale generativa da parte di aziende di ogni descrizione. C3.ai ha detto all’epoca che ulteriori investimenti avrebbero ritardato i tempi dell’azienda per raggiungere la redditività non GAAP.

A quel tempo, Siebel ha detto a Barron che la società ha deciso di spendere una parte dei suoi 800 milioni di dollari in contanti in vendite, marketing, pubblicità e scienziati dei dati per acquisire più quote di mercato nell’IA generativa. Ha descritto la strategia come “un’accaparramento della terra”, aggiungendo che sarebbe “pazzi non investire in questo mercato… lo stiamo facendo con gli occhi aperti”.

E ora il Siebel sta forzando la sua scommessa.

“L’opportunità in Gen AI è semplicemente sconcertante”, ha detto Siebel in un’intervista con Baron giovedì. “L’opportunità è più grande di qualsiasi cosa abbia visto nella mia carriera professionale”. Questa non è una dichiarazione da poco del fondatore di Siebel Systems, una società di software per la gestione delle relazioni con i clienti che è stata acquisita da Oracle per 5,6 miliardi di dollari nel 2006.

“Ho quasi 800 milioni di dollari in banca”, dice. “Cos’altro dovrei fare con esso? Lo sto investendo nel business. C’è un imperativo economico per farlo. Non farlo non sarebbe razionale.” Ha detto che l’azienda prevede di lanciare una campagna sul marchio, aggiungendo anche personale, costruendo più applicazioni e mettendo a punto più modelli. Dice che l’emergere nell’ultimo anno dell’IA generativa ha effettivamente raddoppiato l’opportunità di mercato dell’azienda.

Siebel afferma che la storia di C3.ai negli ultimi trimestri è stata la trasformazione dell’azienda del suo modello di business dagli abbonamenti ai prezzi di consumo. E in effetti, il tasso di crescita top-line di C3.ai è sceso dal 42% nel trimestre di luglio 2021 al -4% nel trimestre di gennaio 2023. Ma la crescita è migliorata da lì: piatta nel trimestre di aprile, in crescita dell’11% a luglio e in aumento del 17% in questo trimestre.

“Abbiamo detto alla gente che c’era un sistema a bassa pressione in arrivo, che avrebbe piovuto e poi sarebbe andato avanti”, ha detto. Siebel pensa che la crescita continuerà ad accelerare da qui e che l’azienda possa tornare ai giorni gloriosi con una crescita del 40%-plus alla fine.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.