Intelligenza Artificiale: ma ci si può guadagnare sopra? 2^

Che l’intelligenza artificiale sia una gallina dalle uova d’oro ormai lo hanno capito anche i sassi… il problema è che come già era scritto nel Vangelo “Molti sono i chiamati ma pochi gli eletti ( Matteo 21,23-27)” o per dirla in maniera più moderna individuare quelle aziende che potrebbero affiancare gli attuali Gorilla nell’AI (nvidia e microsoft fra tutti). Gia’ parecchi spunti li ho raccolti nella prima parte di questa discussione che potete trovare QUI ma continuo nella mia selezione di articoli che reputo significativi.



25/07/24 Barron’s: Le vendite di chip AI di AMD possono essere forti, ma l’analista nota i rischi

DaTae Kim

AMD venderà più chip di intelligenza artificiale del previsto quest’anno, afferma Susquehanna. 

AMD venderà più chip di intelligenza artificiale del previsto quest’anno, dice Susquehanna.

Giovedì, l’analista Christopher Rolland ha ribadito il suo rating positivo per l’AMDstock e ha riaffermato il suo obiettivo di prezzo di 200 dollari.

Ad aprile, la direzione di AMD aumentato la sua previsione per il 2024 per le entrate dell’unità di elaborazione grafica AI del centro dati a più di 4 miliardi di dollari da 3,5 miliardi di dollari. L’MI300, una GPU per data center, è l’offerta di AMD per alimentare progetti di intelligenza artificiale e applicazioni di intelligenza artificiale.

Rolland si aspetta che AMD aumenti di nuovo la sua guida per l’MI300 quando la società riporterà i guadagni la prossima settimana, ma non è sicuro.

“Senza grande fiducia, ci aspettiamo a malincuore un ulteriore aumento di 500 milioni di dollari”, ha scritto, aggiungendo che la guida del centro dati sarà l’obiettivo principale per gli investitori.

Che AMD aumenti le sue previsioni la prossima settimana o meno, l’analista stima che l’azienda venderà 5 miliardi di dollari di GPU per data center quest’anno rispetto all’attuale orientamento di oltre 4 miliardi di dollari.

Rolland ha anche detto che ora ci sono rischi crescenti per il business della CPU di AMD, notando il ritardo nel lancio del prodotto.

Mercoledì, un dirigente di AMD ha annunciato che la consegna dei nuovi processori desktop della serie Ryzen 9000 dell’azienda slitterà di una o due settimane all’inizio di agosto poiché le spedizioni iniziali “non hanno soddisfatto” le sue aspettative di qualità.

Le azioni AMD sono aumentate del 26% negli ultimi 12 mesi, rispetto all’aumento del 32% dell’ETF  iShares Semiconductor


15/07/24 Corriere Economia: Metti l’AI nei portafogli


14/07/24 E se invece guadagnare con l’AI provassimo guadagnare grazie ai suggerimenti dell’AI?

UniCredit e AcomeA hanno lanciato un certificato aperto su 10 azioni europee che vengono settimanalmente selezionate fra le 50 dell’ EURO STOXX 50 da un algoritmo di Intelligenza artificiale.

Di fatto e’ un fondo con dei costi di gestione piu’ bassi – 0.76% annuo – rispetto ai fondi – ma superiori a quelli degli ETF – e con l’innegabile vantaggio che in caso di guadagno si possono compensare eventuali minusvalenze.


10/07/24 Briefing.com: Advanced Micro rivede i massimi di più mesi dopo il suo acquisto di Silo AI (AMD) da 665 milioni di dollari

L’acquisto in contanti di Silo AI di circa 665 milioni di dollari di Advanced Micro (AMD +3%) sta stimolando una sana attività di acquisto oggi mentre le azioni si spostano ai loro migliori livelli dall’inizio di aprile, prima che i numeri del primo trimestre innescassero una svendita. La risposta energica all’acquisizione da parte di AMD di un’organizzazione legata all’IA è alla base di un appetito sostenuto tra gli investitori per tutto ciò che riguarda l’IA. Mentre i rendimenti della tecnologia devono ancora essere significativi, il mercato è più che disposto a comprare ora in previsione di una crescita esplosiva lungo la linea.

L’IA rimarrà al centro dell’attenzione verso la stagione dei guadagni, che prenderà il via alla fine di questa settimana. Le grandi aziende tecnologiche stanno cercando di superarsi a vicenda in una corsa per essere il leader dominante nell’IA. La battaglia di AMD è attualmente con NVIDIA (NVDA), le cui GPU, inclusa la sua prossima piattaforma Blackwell, sono rimaste la scelta migliore tra i giganti della tecnologia che costruiscono la loro infrastruttura AI. Tuttavia, AMD si è in genere trovata al secondo posto dopo NVIDIA, non è un brutto posto dove stare se l’IA si rivela redditizia come molti si aspettano.

  • Tuttavia, AMD non è compiacente nel rimanere al numero due. Accettando di acquisire Silo AI, che si presenta come il più grande laboratorio di intelligenza artificiale privato d’Europa, lavorando con ogni verticale, dall’automotive all’energia, AMD prevede di fortificare in modo significativo la sua attività di intelligenza artificiale.
  • Silo AI è stata fondata nel 2017 e da allora si è impegnata nello sviluppo di modelli di intelligenza artificiale su misura. Alcuni dei suoi clienti passati includono Unilever (UL), dove Silo ha sviluppato uno strumento ML per migliorare l’efficienza dell’imballaggio, e Intel (INTC), che ha utilizzato la tecnologia di controllo qualità di Silo.
  • Con esperienza nel lavorare con un importante progettista e produttore di chip in Intel, Silo AI sembra essere una soluzione solida per AMD. Il laboratorio probabilmente lavorerà fianco a fianco con AMD che integra rapidamente l’intelligenza artificiale nei suoi prodotti, portando forse a futuri guadagni di prestazioni rispetto a NVIDIA, forse a prezzi più bassi.

Anche con l’IA in fase di sperimentazione, le aziende si stanno rivolgendo alla tecnologia per non essere lasciate indietro in modo competitivo se l’IA decolla in modo significativo. I progettisti di chip, tra cui NVDA, AMD e INTC, saranno ciascuno in competizione per una fetta della torta AI, e qualsiasi vantaggio minore potrebbe tradursi in notevoli guadagni finanziari. Accettando di aggiungere Silo AI alla sua attività, AMD sta facendo il passo necessario per ottenere un potenziale vantaggio rispetto ai suoi colleghi. Se l’acquisto alla fine si tradurrà in un sano ritorno sull’investimento deve ancora essere visto. Tuttavia, stare seduti non è un’opzione per i produttori di chip durante una tale frenesia legata all’IA.


05/07/24 TomsHardware: L’industria dell’IA deve guadagnare 600 miliardi di dollari all’anno per pagare la massiccia spesa hardware: i timori di una bolla di intelligenza artificiale si intensificano sulla scia del rapporto Sequoia

da Anton Shilov

La bolla dell’IA sta raggiungendo un punto di svolta?

Nonostante i massicci investimenti nell’infrastruttura di intelligenza artificiale da parte di giganti dell’alta tecnologia, la crescita dei ricavi dell’IA deve ancora materializzarsi, indicando un divario significativo nel valore dell’utente finale dell’ecosistema. In effetti, David Cahn, un analista di Sequoia Capital, ritiene che le aziende di intelligenza artificiale dovranno guadagnare circa 600 miliardi di dollari all’anno per pagare la loro infrastruttura di intelligenza artificiale, come i centri dati.

Nvidia ha guadagnato 47,5 miliardi di dollari di entrate hardware per data center l’anno scorso (con la maggior parte dell’hardware che sono GPU di elaborazione per applicazioni AI e HPC). Aziende come AWS, Google, Meta, Microsoft e molte altre hanno investito pesantemente nella loro infrastruttura di intelligenza artificiale nel 2023 per applicazioni come ChatGPT di OpenAI. Tuttavia, guadagneranno quell’investimento? David Cahn crede che questo potrebbe significare che stiamo assistendo alla crescita di una bolla finanziaria.

Matematica semplice

La matematica di Cahn è relativamente semplice. In primo luogo, raddoppia la previsione delle entrate run-rate di Nvidia per coprire i costi totali del centro dati AI (le GPU sono la metà; il resto include energia, edifici e generatori di backup). Quindi, raddoppia di nuovo quell’importo per tenere conto di un margine lordo del 50% per gli utenti finali, come le startup o le aziende che acquistano AI computing da aziende come AWS o Microsoft Azure, che devono anche fare soldi.

 I fornitori di cloud, in particolare Microsoft, stanno investendo pesantemente nelle scorte di GPU. Nvidia ha riferito che metà delle entrate del suo data center proviene da grandi fornitori di cloud, con Microsoft da sola che probabilmente contribuisce a circa il 22% delle entrate del quarto trimestre FY2024 di Nvidia. Nel frattempo, l’azienda ha venduto circa 19 miliardi di dollari di GPU per data center nel primo trimestre dell’anno fiscale 2025.

L’introduzione dei processori B100/B200 di Nvidia, che promettono prestazioni 2,5 volte migliori mentre costano solo il 25% in più, probabilmente guiderà ulteriori investimenti e creerà un’altra carenza di forniture.

Secondo l’analista, OpenAI, che utilizza l’infrastruttura Azure di Microsoft, ha visto un sostanziale aumento delle entrate, da 1,6 miliardi di dollari alla fine del 2023 a 3,4 miliardi di dollari nel 2024. Questa crescita sottolinea la posizione dominante di OpenAI sul mercato, superando di gran lunga altre startup che stanno ancora lottando per raggiungere un traglio di 100 milioni di dollari. Eppure gli investimenti nell’hardware AI stanno crescendo.

Anche le proiezioni ottimistiche per le entrate dell’IA delle grandi aziende tecnologiche non sono all’altezza, dice Cahn. Supponendo che Google, Microsoft, Apple e Meta generino ciascuno 10 miliardi di dollari all’anno dall’IA e altre aziende come Oracle, ByteDance, Alibaba, Tencent, X e Tesla generino 5 miliardi di dollari ciascuna, rimane un divario di 500 miliardi di dollari.

L’industria dell’IA deve imparare a guadagnare

Ci sono sfide significative alla visione ottimistica degli investimenti nell’infrastruttura di intelligenza artificiale. A differenza dell’infrastruttura fisica, l’informatica GPU AI potrebbe essere mercificata man mano che nuovi giocatori entrano in scena (AMD, Intel, per non parlare dei processori personalizzati di Google, Meta e Microsoft), in particolare nel campo dell’inferenza, portando a un’intensa concorrenza sui prezzi. Gli investimenti speculativi spesso si traducono in perdite elevate e i nuovi processori svalutano rapidamente quelli più vecchi, contrariamente al valore più stabile dell’infrastruttura fisica.

In definitiva, mentre l’IA ha un potenziale di trasformazione e aziende come Nvidia svolgono un ruolo cruciale, la strada da percorrere sarà lunga e impegnativa poiché le aziende e le startup devono ancora inventare applicazioni che fanno soldi.

Cahn ritiene che l’industria debba temperare le aspettative di rapidi profitti dai progressi dell’IA, riconoscendo la natura speculativa degli investimenti attuali e la necessità di un’innovazione sostenuta e di creazione di valore. In caso contrario, la bolla del valore di centinaia di miliardi di dollari è destinata a esplodere, portando potenzialmente a una crisi economica globale, ma stiamo speculando qui, ovviamente.


05/07/24 Varie notizie sul declassamento di Nvidia a “neutral”


  • Le azioni AMD sono aumentate del 5% venerdì.
  • L’analista di New Street Research Pierre Ferragamo afferma che il successo di Nvidia è già incluso nel prezzo.
  • Pierre Ferragu vede molto più spazio per la crescita del prezzo delle azioni in AMD.

L’analista di New Street Research Pierre Ferragu ha abbssato il suo rating Buy suNvidia (NVDA) questo venerdì a favore di un voto neutro. La valutazione di Ferragu ha sorpreso il mercato poiché Nvidia è stata l’ovvio leader nell’attuale mercato rialzista iniziato quasi due anni fa nell’ottobre del 2022.

Ferragu non è davvero ribassista sulle prospettive di intelligenza artificiale (AI) di Nvidia, anzi, in realtà. Invece, pensa che Nvidia sia correttamente valutata al momento in base alla guida attuale. Come analista di alto livello che ha trascorso 10 anni a coprire i semiconduttori alla Bernstein, Ferragu ha detto ai clienti di concentrarsi invece su sostenitori del settore a prezzi migliori come AMD e Taiwan Semiconductor (TSM).

Farragu ha dato alle azioni AMD un obiettivo di prezzo di 235 dollari, 12 mesi e un obiettivo di 345 dollari entro la fine del 2026. Ha basato la sua valutazione su una previsione che AMD produrrà 10 dollari di utili per azione entro il 2027.

AMD ha sottoperformato il sentimento degli investitori per la sua attività di chip AI finora quest’anno, e Morgan Stanley ha recentemente declassato le azioni su tale conto.

Tuttavia, il continuo guadagno di quota di mercato di AMD all’interno del mercato delle CPU per i PC non ha motivo di fermarsi. I processori Ryzen AI 300 di nuova generazione sono progettati per elaborare meglio i carichi di lavoro AI e molti analisti pensano che potrebbero aiutare AMD a rubare ancora più quota di mercato da Intel (INTC).

Inoltre, gli investitori stanno spingendo in alto secondo produttore di chip faberless poiché si prevede che le sue GPU del data center abilitate all’IA venderanno 4 miliardi di dollari solo quest’anno.


01/07/24 WSj: Le più grandi aziende tecnologiche stanno cercando di acquistare energia nucleare direttamente dalle centrali, il che potrebbe minare la rete di risorse critiche

DaJennifer HillerSegui

eSebastian HerreraSegui


L'IA sta alimentando un boom del centro dati. La rete elettrica può tenere il passo?
Lo sviluppo del centro dati è in piena espansione negli Stati Uniti grazie all’IA. Alcuni analisti del settore stimano che la capacità globale raddoppierà entro il 2030. Ma affronta un grande ostacolo: ottenere abbastanza potenza. Grafica: Ryan Trefes, JLL

Le aziende tecnologiche che perlustrano il paese per le forniture di energia elettrica si sono concentrate su un obiettivo chiave: le centrali nucleari americane.

I proprietari di circa un terzo delle centrali nucleari statunitensi sono in trattative con le aziende tecnologiche per fornire elettricità ai nuovi data center necessari per soddisfare le esigenze di un boom dell’intelligenza artificiale.

Tra questi, Amazon Web Services si sta avvicinando a un accordo per l’elettricità fornita direttamente da una centrale nucleare sulla costa orientale con Constellation Energy, il più grande proprietario di centrali nucleari statunitensi, secondo persone che hanno familiarità con la questione. In un accordo separato a marzo, Amazon.com la controllata ha acquistato un data center a propulsione nucleare in Pennsylvania per 650 milioni di dollari.

Le discussioni hanno il potenziale di rimuovere la produzione di energia stabile dalla rete mentre le preoccupazioni per l’affidabilità sono in aumento in gran parte degli Stati Uniti e nuovi tipi di utenti di elettricità, tra cui l’intelligenza artificiale, la produzione e i trasporti, stanno aumentando significativamente la domanda di elettricità nelle tasche del paese.

I data center a propulsione nucleare corrisponderebbero al cavallo di battaglia più affidabilità della rete con un cliente ricco che vuole un’energia senza emissioni di carbonio 24-7, probabilmente accelerando l’aggiunta di data center necessari nella corsa globale all’IA.

Ma invece di aggiungere nuova energia verde per soddisfare le loro impennate esigenze di energia, le aziende tecnologiche divorerebbero efficacemente le risorse elettriche esistenti. Ciò potrebbe aumentare i prezzi per altri clienti e trattenere gli obiettivi di riduzione delle emissioni.

Una sala di controllo in una struttura di Constellation Energy, che possiede 14 centrali nucleari statunitensi. FOTO:ALYSSA SCHUKAR PER IL WALL STREET JOURNAL

Anche se le aziende tecnologiche dovessero compensare gli accordi di energia nucleare finanziando l’aggiunta di energia rinnovabile, gli esperti dicono che il probabile risultato è una maggiore dipendenza dal gas naturale per sostituire l’energia nucleare deviata. Le centrali a gas naturale producono emissioni di carbonio ma, a differenza delle energie rinnovabili, possono fornire energia 24 ore su 24 e sono più economiche e pratiche da costruire rispetto alle nuove centrali nucleari.

Il matrimonio nuclear-tech sta alimentando le tensioni sullo sviluppo economico, l’affidabilità della rete, i costi e gli obiettivi climatici in stati come Connecticut, Maryland, New Jersey e Pennsylvania.

L’accordo di Amazon in Pennsylvania ha fatto scattare i campanelli d’allarme per Patrick Cicero, il sostenitore dei consumatori dello stato. Cicerone ha detto di essere preoccupato per i costi e l’affidabilità se “i massicci consumatori di energia ottengono i primi dibs”. Non è chiaro se lo stato abbia attualmente l’autorità di regolamentazione per intervenire in tali accordi, ha detto.

“Mai prima d’ora nessuno poteva dire a una centrale nucleare, prenderemo tutta l’energia che puoi darci”, ha detto Cicerone.

“Per integrare i nostri progetti di energia eolica e solare, che dipendono dalle condizioni meteorologiche per generare energia, stiamo anche esplorando nuove innovazioni e tecnologie e investendo in altre fonti di energia pulita e senza carbonio”, ha detto una portavoce di Amazon.

L’impianto nucleare di Beaver Valley in Pennsylvania. FOTO: JUSTIN MERRIMAN/BLOOMBERG NEWS

Un nuovo accordo

Il data center che Amazon ha acquistato in Pennsylvania può ricevere fino a 960 megawatt di elettricità, abbastanza per alimentare centinaia di migliaia di case. L’acquisizione ha accelerato l’interesse per le cosiddette offerte behind-the-meter, in cui un grande cliente riceve energia direttamente da un impianto.

Gli accordi relativamente nuovi significano che i data center possono essere costruiti anni più velocemente perché è necessaria poca o nessuna nuova infrastruttura di rete. I centri dati potrebbero anche evitare le spese di trasmissione e distribuzione che costituiscono una grande quota delle bollette.

Il nuovo interesse per l’energia nucleare fa parte di un’inversione di fortuna per le aziende che possiedono centrali elettriche in mercati dell’energia competitivi. Quell’attività è stata difficile per due decenni dopo l’eccessiva costruzione negli anni ’90. Le centrali nucleari hanno lottato per competere con l’eolico, il solare e il gas naturale, provocando un’ondata di chiusure.

Ma le aziende tecnologiche disposte a pagare un premio per l’energia quasi ininterrotta e senza carbonio potrebbero fare gli impegni sul cambiamento climatico mentre alimentano l’IA.

Azioni di Vistra VST  il più grande generatore di energia competitivo negli Stati Uniti, è più che raddoppiato quest’anno. L’azienda è stata in trattative per accordi behind-the-meter sia nelle centrali nucleari che in quelle a gas.

“In questo caso, il cliente è venuto da noi e è venuto da molti nel settore e ha detto ‘Ho bisogno di tutta la potenza che puoi rendere disponibile'”, ha detto l’amministratore delegato di Vistra Jim Burke.

Alla centrale nucleare del Maryland. Il matrimonio nuclear-tech sta alimentando le tensioni sullo sviluppo economico, l’affidabilità della rete, i costi e gli obiettivi climatici. FOTO: ALYSSA SCHUKAR PER IL WALL STREET JOURNAL

Constellation Energy, che possiede 14 centrali nucleari statunitensi e produce più di un quinto dell’energia nucleare della nazione, ha visto le sue azioni aumentare di oltre il 70% quest’anno.

Il presidente e CEO di Constellation, Joseph Dominguez, ha affermato che ci sono ancora molti posti, tra cui una fascia dalla Pennsylvania all’Illinois, con un eccesso di potere. Ciò lascia spazio ai data center, ha detto.

I contratti con i centri dati disposti a pagare un premio coprirebbero il costo della ri-licensing, ha detto, estendendo la vita dell’impianto di altri 20 anni e sostenendo investimenti che potrebbero aumentare la produzione di energia nucleare.

“Se non abbiamo quelle cose, perderemo di nuovo le armi nucleari”, ha detto Dominguez. “Ritorneremo dove eravamo”.

Un sacco di discorsi e polemiche

È troppo presto per sapere di quanta energia avranno bisogno i centri dati. Le stime vanno da circa il 4% dell’energia consumata l’anno scorso negli Stati Uniti a qualcosa tra il 4,6% e il 9% entro il 2030, secondo l’Electric Power Research Institute.

Nel Connecticut, lo stato Sen. Norm Needleman non ha mai immaginato di togliere l’energia esistente dalla rete quando ha sostenuto gli incentivi economici per i data center qualche anno fa. Poi uno sviluppatore ha proposto di collegare un centro dati alla centrale nucleare di Millstone.

“Se perdiamo una risorsa senza carbonio, con cosa la sostituiremo?” ha chiesto a Needleman, il cui disegno di legge per richiedere uno studio di tali progetti non è passato quest’anno.

Daniel O’Keefe, commissario per il Dipartimento per lo sviluppo economico e comunitario del Connecticut, ha affermato che la proposta potrebbe funzionare se fosse fatta in modo ponderato. Gli stati vicini stanno aggiungendo data center, con i necessari miglioramenti della rete condivisi da tutti i clienti del New England, quindi il Connecticut dovrebbe ricevere alcuni benefici economici, ha detto.

“I nostri elettori stanno pagando per questi data center indipendentemente dal fatto che si trovino all’interno del Connecticut”, ha detto O’Keefe.

Contenitori di stoccaggio in una centrale nucleare in Pennsylvania nel 2019. FOTO: MELISSA LYTTLE/BLOOMBERG NEWS

Nel New Jersey, Public Service Enterprise Group PEG 0.56% Il CEO Ralph LaRossa ha affermato che l’azienda è stata in trattative con i data center, anche per le vendite dirette di energia, che potrebbero sostenere gli sforzi di sviluppo economico del New Jersey per creare un hub di intelligenza artificiale.

Circa il 40% dell’energia dello stato proviene dall’energia nucleare, comprese le piante di proprietà di PSEG.

I clienti del New Jersey hanno speso circa 300 milioni di dollari all’anno negli ultimi sei anni per aiutare a mantenere i suoi impianti in funzione, più centinaia di milioni prima, ha detto Brian Lipman, direttore della New Jersey Division of Rate Counsel.

“Cosa è successo a quell’investimento?” chiese a Lipman.

Il New Jersey punta anche alla generazione di energia pulita al 100% entro il 2035, che Lipman ha detto sarebbe impossibile senza l’energia nucleare. PSEG ha rifiutato di commentare.

fabbisogno energetico

Molti dei negoziati stanno avvenendo all’interno della PJM Interconnection, dell’organizzazione regionale della trasmissione e del mercato dell’elettricità che serve Washington, D.C., e 13 stati dalla Virginia all’Illinois. Ha detto che avrebbe lavorato sia con i proprietari degli impianti che delle trasmissioni e avrebbe condotto analisi per evitare problemi di affidabilità e altri problemi.

La scorsa settimana, i servizi pubblici American Electric Power AEP  e  Exelon ECC  hanno richiesto un’audizione presso la Federal Energy Regulatory Commission sull’accordo di Amazon in Pennsylvania, sostenendo che fino a 140 milioni di dollari di costi potrebbero passare ad altri clienti e che il centro dati “non dovrebbe essere autorizzato a operare come free rider”, beneficiando di un sistema di trasmissione per cui altri pagano.

Energia Talen TLNE che ha costruito il centro dati e gestisce la centrale nucleare, ha definito la richiesta un “tentativo fuorviante di soffocare questa innovazione”.

Non è chiaro se e quanto i centri dati situati nelle centrali nucleari dovrebbero dipendere dall’energia della rete. Le centrali nucleari sono molto più affidabili di altri tipi di generazione di energia, ma hanno anche interruzioni.

Prima che Amazon acquistasse il data center della Pennsylvania, un reattore nucleare Talen ha avuto un’interruzione lo scorso autunno e il campus del data-center ha dovuto estrarre energia dalla rete, secondo le persone che hanno familiarità con l’incidente. La necessità di energia di rete era inaspettata e da allora sono state messe in atto ulteriori protezioni del sistema per evitare una ripetizione, hanno detto le persone.

Talen e l’operatore di rete PJM hanno rifiutato di commentare l’incidente.


2/06/24 MarketWatch: Si sta profilando una bolla azionaria di intelligenza artificiale? Questa è la domanda da 167 miliardi di dollari.

Emily Bary

Le proiezioni delle spese di capitale dell’IA non sono al passo con le proiezioni delle entrate dell’IA, che secondo Barclays potrebbero incapsulare FOMO, o la paura di perdere il rialzo

La spesa frenetica per l’intelligenza artificiale guiderà importanti aumenti delle entrate per le aziende di Internet – o quei grandi spenditori non sono troppo precipitosi ?

Questa è una domanda chiave per gli investitori in questi giorni, secondo l’analista di Barclays Ross Sandler, che ha notato martedì che la matematica non sembra sommarsi. Le aspettative di Wall Street sono di circa 60 miliardi di dollari in spese di capitale incrementali per l’IA, ma solo 20 miliardi di dollari in entrate cloud incrementali per il 2026.

“Uno dei dibattiti più caldi di oggi nella comunità degli investimenti è se tutti gli investimenti in capex AI che vanno nei centri dati finiranno per essere un’overbuild della bolla [telecomunicazioni] del 2000, o se c’è abbastanza domanda di [entrate] di intelligenza artificiale da giustificarli”, ha detto Sandler in una nota ai clienti.

Rispondere a questa domanda dipende da quale scenario gli investitori ritengono più probabile quando cercano di dare un senso alle discrepanze tra la spesa prevista per l’IA e le entrate previste per l’IA. Gli investitori devono chiedere se pensano che le aspettative di reddito siano corrette, il che significa che la spesa in conto capitale è troppo alta per sostenerlo, o se le proiezioni sulle entrate sottovalutano l’impatto futuro dell’IA sui dati finanziari.

Sandler pensa che la corsa alla spesa per l’IA – un totale di 167 miliardi di dollari dall’inizio della frenesia dell’IA – potrebbe riflettere un po’ di FOMO, o la paura di perdere l’opportunità, piuttosto che uno “scenario Field of Dreams” in cui le entrate diffuse dell’IA si manifesteranno presto in grande stile.

Potresti chiamarla una domanda da 167 miliardi di dollari, anche se Sandler fa un ulteriore passo avanti nel soprannominarla “la domanda da miliardi di dollari”.

Sulla base del nostro lavoro preliminare qui, la stima di consenso per il capex AI hyperscaler nel 2026 è sufficiente per supportare Internet esistente più 12.000 nuovi prodotti AI su scala ChatGPT”, ha scritto. Ma Wall Street è preoccupata se ci saranno effettivamente da qualche parte vicino a così tante applicazioni di intelligenza artificiale che possono generare entrate, secondo Sandler.

Dal suo punto di vista, Sandler vede il potenziale per “molti nuovi servizi che porteranno alla luce alcuni di questo caso toro, ma probabilmente non 12.000 di loro”. Al di fuori della Cina, ci sono circa 50 app di consumo in generale che hanno più di 50 utenti, mentre nel mercato del software, forse qualche dozzina di grandi aziende di software insieme rastrellano circa 1 miliardo di licenze.

Con questa matematica, “anche se tutti questi prodotti sono stati sostituiti da prodotti di intelligenza artificiale concorrenti, non c’è modo che le entrate di tali prodotti di intelligenza artificiale giustifichino il limite per il 2026”, ha detto Sandler.

Riconosce che i servizi di intelligenza artificiale potrebbero finire per sfoggiare metriche di coinvolgimento molto più profonde rispetto alle loro controparti tradizionali. In un tale scenario, il possibile impatto sulle entrate dell’IA potrebbe ora essere sottovalutato. Ad esempio, nota che Character.ai vede un quinto delle richieste di inferenza giornaliere relative a ciò che Google vede, anche da una base di utenti molto più piccola.

“Solo cinque Character.ai sono gli stessi di un Google?” Sandler ha chiesto. “È piuttosto selvaggio a cui pensarci”.

Nel complesso, però, quando si tratta del grande dibattito sugli investimenti, ha scritto che lui e il suo team stanno “annusando FOMO e si aspettano che qualcuno cominci a rinsavire prossimo, ma è ancora molto presto per l’IA”.

Mentre si concentra sulle azioni di Internet, ha aggiunto che la tendenza “probabilmente non significa che Nvidia sia in qualsiasi tipo di problema a medio termine, poiché ci aspettiamo che il capex dell’IA continui ad andare forte per un paio d’anni prima che qualcuno sbatta le palpebre e tagli”.


20/06/24 Barron’s: AMD diventa ora la scelta Top dell’analista Piper a causa dei chip del server AI

DaEric J. SavitzSegui

Lisa Su è CEO di Advanced Micro Devices.

 

Le azioni di Advanced Micro Devices sono scambiate in rialzo giovedì, almeno in parte grazie a una nota rialzista sul business dei server AI del produttore di chip da parte dell’analista di Piper Sandler Harsh Kumar.

Kumar, che mantiene un rating di sovrappeso e un prezzo obiettivo di 175 dollari sul titolo, ha designato AMD come la sua prima scelta di semiconduttori di grande capitalizzazione verso la seconda metà dell’anno.

In una nota di ricerca, Kumar ha notato che ha viaggiato con la gestione AMD in Europa la scorsa settimana ed è uscito “estremamente impressionato” dalla strategia dell’azienda e dal suo posizionamento competitivo sul mercato delle GPU utilizzate per le applicazioni di intelligenza artificiale, dove è una delle poche aziende che sfida Nvidiahead.

Kumar vede anche venti in coda sia per i segmenti PC di AMD che per i segmenti server convenzionali.

Ma l’IA è al centro della storia di AMD in questo momento. Kumar riferisce che AMD ha più di 100 clienti per i suoi processori AI, con la maggior parte di loro che dovrebbe aumentare l’adozione nella seconda metà del 2024. Dice che il chip MI300 di punta dell’azienda sta “performando molto bene”, con vendite che dovrebbero superare i 4 miliardi di dollari quest’anno.

Ma come AMD ha recentemente rivelato, ha una raffica di chip follow-on in arrivo, tra cui l’MI325 (previsto entro la fine dell’anno), l’MI350 (in arrivo l’anno prossimo) e l’MI400 (in programma per il 2026). Kumar sostiene che l’MI350 sarà competitivo con la linea di chip Blackwell di Nvidia, mentre l’MI400 affronta il chip di prossima generazione recentemente annunciato da Nvidia, soprannominato Rubin.

L’analista sottolinea che i clienti di AMD per i suoi chip AI includono Microsoft, Meta e Oracle.

Un altro fattore che potrebbe contribuire alla forza delle azioni AMD è un articolo del Wall Street Journal affermando che alcuni PC Samsung AI basati sui chip Snapdragon di Qualcomm stanno avendo problemi a eseguire alcune applicazioni. Questa notizia sta facendo pressione sulle azioni sia di Qualcomm che di Arm (che fornisce i progetti su cui si basano i chip di Qualcomm). Gli investitori sono stati ottimisti sulle prospettive per Qualcomm di assumere una certa quota di mercato nei processori PC di AMD e Intel.

Nel trading di giovedì, le azioni Advanced Micro sono del 4,5% in più a 161,59 dollari, mentre Arm è in calo del 9% a 158,36 dollari e Qualcomm è inferiore del 5,7% a 214,18 dollari. Le azioni del rivale AMD Intel sono frazionalmente più basse.


20/06/24 il Foglio: È nata una stella Jensen Huang

Nell’ufficio a Taipei di Morris Chang c’è un disegno incorniciato e appeso a una parete che, da solo, racconta buona parte della rivoluzione digitale che sta vivendo il mondo in questa nuova èra dell’intelligenza artificiale. Il novantaduenne Chang è il fondatore della Taiwan Semiconductor Manufactoring Company (Tsmc), l’azienda leader mondiale dei semiconduttori. Il decollo del colosso taiwanese è legato alla prima rivoluzione digitale, quella di internet, e soprattutto alla partnership tra Tsmc e Apple, che ha portato al boom degli iphone. Ma se Steve Jobs è l’uomo che in qualche modo ha fatto la fortuna di Chang, nel disegno appeso alla parete l’anziano fondatore è ritratto insieme a un altro top manager. Uno che deve larga parte del suo successo proprio al re dei chip di Taipei: Jen-hsun Huang, un altro figlio di Taiwan che ora tutti conoscono con il nome americanizzato in “Jensen”.
E’ stato lo stesso Jensen Huang a regalare il disegno al suo idolo e sotto ha fatto incidere una dedica che dice tutto dell’ammirazione che prova per Chang: “La tua carriera è un capolavoro: sei la Nona Sinfonia di Beethoven”.
E’ da qui, da Taiwan e da Chang, che bisogna partire per capire Huang. Il nuovo Steve Jobs, l’amministratore delegato di Nvidia, una società che fino a pochi anni fa conoscevano solo gli appassionati di videogame e gli addetti ai lavori del mondo tech. L’altro ieri Nvidia ha compiuto l’ultimo salto a Wall Street, dopo tre anni di crescita esplosiva, e ha superato Microsoft dopo aver già lasciato alle spalle Apple. Adesso l’azienda di Santa Clara, nella Silicon Valley, è la numero uno al mondo con una capitalizzazione di oltre 3.300 miliardi di dollari. E Huang, che l’ha fondata a trent’anni nel 1993 e la guida da allora come ceo, è uno degli uomini più ricchi del pianeta, con un patrimonio personale di circa 115 miliardi di dollari.
Tutto parte da Taiwan perché è lì che si producono gran parte dei chip che hanno rivoluzionato il mondo e promettono di rivoluzionarlo di nuovo con L’IA generativa. Senza la capacità produttiva di Chang, Nvidia non sarebbe mai riuscita a tenere il passo della crescita mostruosa che avuto negli ultimi anni, quando da azienda specializzata in Gpu, le schede grafiche nate per i videogiochi, si è trasformata in casa madre per i prodotti che creano la potenza di calcolo necessaria per L’IA. Tutti adesso vogliono la tecnologia di Nvidia, perché è quella che serve a tenere il passo con l’evoluzione dell’intelligenza artificiale. E questo ha reso il gruppo di Huang in breve tempo più ricco di Amazon e Meta messe insieme.
Ma da Taiwan bisogna partire anche per capire Huang, che è nato nel 1963 sull’isola, nella città di Tainan, e da piccolo si è trasferito con la famiglia a vivere in Thailandia. Da lì è poi approdato a dieci anni negli Stati Uniti ed è cresciuto nell’oregon, lo stato della Nike – un’altra azienda storicamente legata al mondo asiatico– delle grandi foreste e degli spiriti liberi. Gli anni della laurea in Ingegneria alla Oregon State University, prima di partire per il master a Stanford e una vita nella Silicon Valley, sono quelli che hanno plasmato in effetti quello spirito libertario oregoniano che Huang mostra ancora oggi. E che è incarnato dal suo oggetto simbolo: il giubbotto di pelle nera.
Se non avete mai sentito parlare di Huang, siete in buona compagnia di una larga fetta di americani, che in larga parte lo hanno scoperto solo due mesi fa da un post su Instagram di Mark Zuckerberg. Il fondatore di Facebook ha postato una foto del suo scambio di giacca con Huang, per mostrarsi orgoglioso con indosso uno dei giubbotti da motociclista del capo di Nvidia. “Non lo conoscete? – ha scritto Zuck – Lui è la Taylor Swift del mondo della tecnologia”.
Da trent’anni, inverno ed estate, Huang gira sempre con giubbotti di pelle di vari tagli, tutti vagamente ispirati a Marlon Brando, che ora probabilmente prenderanno il posto iconico che avevano nella Silicon Valley le maglie turtleneck di Steve Jobs disegnate da Issey Miyake, i bomber da aviatore di Jeff Bezos o le magliette grigie di Zuckerberg.
Anche il look fa parte di un personaggio che ha fama di essere tra i manager che più conoscono il proprio prodotto e hanno uno sguardo capace di anticipare il futuro. Di sicuro Huang vide lunghissimo quel giorno dell’aprile 1993 quando prese posto con due amici in uno squallido fast food della catena Denny’s a San Jose, in una zona all’epoca malfamata della città. Gli altri due erano Chris Malachowsky e Curtis Priem e insieme decisero, tra omelette e tazze di caffè, di avviare una startup dedicata a produrre graphics processor
units (Gpu), schede che all’epoca andavano installate sulla scheda madre di un pc per renderlo capace di sviluppare giochi in 3D e animazioni sempre più realistiche. Era nata Nvidia, che ora potrebbe segnare il ventunesimo secolo come Microsoft e Intel hanno segnato la fine del ventesimo.
Quando la startup cominciò a produrre, il mercato era ancora piccolissimo, ma i tre soci avevano visto arrivare l’onda. Huang si licenziò dal lavoro che aveva in Amd, un altro dei colossi dei chip, e Nvidia iniziò a rilasciare schede grafiche dai nomi iperbolici come “Titan X” o “Geforce Gtx 1080” che innescarono una rivoluzione nel mondo dei videogamer.
Huang dimostrò di nuovo di avere la vista lunga nel 2003 quando, tra lo scetticismo degli investitori di Nvidia, decise di cominciare a proporre le Gpu non solo alle aziende di giochi, ma all’intero mondo tech alla ricerca di potenza di calcolo. Quando le schede di Nvidia si rivelarono perfette per accogliere reti neurali e favorire i processi di machine lear
ning, l’intuizione trovò conferma. Il boom attuale è stato possibile in buona parte grazie a Tsmc e all’amicizia con Chang. E ora a Taiwan Huang è una star. Nei giorni scorsi ha partecipato a Taipei al Computex, il principale evento tech locale, con la moglie Lori e i figli Spencer e Madison, che lavorano entrambi in Nvidia: dovunque è andato, indossando l’inseparabile giubbotto di pelle, si sono viste scene di solito riservate alle star del mondo della musica o dello sport.



13/06/24 E l’Italia ha aziende quotate “AI”? Poca cosa..

intervista alla Ceo di Almaware su Libero … fosse quotata al Nasdaq sarebbe già triplicata.. qui non se ne cura nessuno…


07/06/24 Barron’s: L’intelligenza artificiale è ancora in voga, ma gli investitori stanno diventando sempre più esigenti

Teresa RivasFollow

magnifici sette, tra cui Apple, Microsoft, Nvidia e Tesla, hanno spinto gran parte dei guadagni azionari del 2023. Alcuni investitori temono che ci sia un rischio di concentrazione eccessivo nel mercato.

I

L’entusiasmo per l’intelligenza artificiale ha alimentato buona parte del rally del mercato azionario negli ultimi anni. È improbabile che la situazione cambi presto, ma l’interesse degli investitori potrebbe spostarsi da un’azienda all’altra, almeno temporaneamente.

I magnifici sette – Alphabetsocietà madre di Google, Amazon.com, Apple, Meta Platforms, società madre di FacebookMicrosoft ,  NvidiaTesla , che ha spinto gran parte dei guadagni azionari del 2023 sono stati tutti grandi nomi tecnologici, portando alcuni investitori a temere che ci fosse un rischio di concentrazione eccessivo nel mercato.

Eppure in realtà, nonostante le loro somiglianze superficiali, l’M7 non ha mai davvero scambiato in blocco, come dimostrano le loro prestazioni divergenti nel 2024: mentre le azioni Tesla sono scese di quasi il 30% quest’anno, le azioni Nvidia sono aumentate di quasi il 140%.

James Reilly, economista di mercato di Capital Economics, sostiene che ciò è avvenuto nel contesto di un cambiamento più ampio nel sentiment degli investitori nei confronti dell’IA. Mentre in precedenza sia i titoli del software che quelli dei semiconduttori hanno beneficiato dell’ottimismo sull’IA, più recentemente le azioni della prima categoria sono rimaste indietro, mentre quelle della seconda hanno continuato a salire.

“Contrariamente ad alcuni suggerimenti, non pensiamo che questa debolezza in una parte del settore IT sia la prova che l’entusiasmo per l’IA stia diminuendo”, scrive Reilly. “Questo spostamento a favore dei produttori di semiconduttori e delle utility suggerisce che gli investitori si stanno concentrando maggiormente su quelle società che dovrebbero beneficiare fin dall’inizio dell’IA, piuttosto che su quelle che dovrebbero beneficiare dell’utilizzo finale della tecnologia”.

In un certo senso, questo ha senso: la tecnologia AI è ancora nascente, quindi è difficile prevedere a questo punto chi saranno i veri vincitori dell’uso finale, mentre non importa chi alla fine prenderà il comando, è chiaro che ci sono alcune aziende di chip che forniranno i “picconi e le pale” per arrivarci.

Detto questo, Reilly non crede che questo cambiamento sia permanente, ma piuttosto una variazione naturale nelle opinioni degli investitori, con il pendolo che alla fine oscilla all’indietro. Inoltre, pensa che una volta che sarà più chiaro quali giocatori sono in testa al gruppo, gli utenti di IA potrebbero ancora una volta riprendersi, in tutti i settori.

“La nostra sensazione rimane che il settore IT sia la fonte più probabile di tali vincitori e supererà la maggior parte degli altri”, scrive. “E non saremmo sorpresi se le grandi aziende tecnologiche continuassero a guidare la carica. Ma è possibile creare casi d’uso convincenti per l’IA per le azioni della maggior parte dei settori del mercato. Quindi, man mano che questi usi diventano più chiari, sospettiamo che il rally si allargherà un po’, almeno rispetto a gran parte dell’ultimo anno o giù di lì”.

Questa è ovviamente una buona notizia per il mercato in generale, in quanto renderebbe i guadagni meno dipendenti solo da pochi grandi attori.

Nvidia’s dominance ha comprensibilmente reso nervosi gli investitori. Sebbene il titolo abbia mostrato segni di rallentamento e non sembri necessariamente maturo per un pullback, le sue enormi dimensioni significano che diventa più difficile fornire grandi balzi in avanti.

Come ha notato Bespoke Investment Group all’inizio di questa settimana, quando Nvidia è stata scambiata per l’ultima volta circa 22,6 volte le vendite a termine, nel marzo 2023, la sua capitalizzazione di mercato era solo il 20% del suo livello attuale e le sue entrate previste per i prossimi 12 mesi erano un quarto delle stime attuali.

L’azienda non pensa che Nvidia sembri necessariamente vulnerabile, ma sottolinea che “se le previsioni di vendita dovessero aumentare di nuovo tanto quanto hanno fatto rispetto a marzo 2023, dovrebbero avvicinarsi ai 600 miliardi di dollari. Allo stesso modo, un’altra quintuplicazione del titolo da questi livelli produrrebbe una capitalizzazione di mercato di 15,3 trilioni di dollari (13% dell’attuale capitalizzazione di mercato globale). Questo tipo di mosse non devono assolutamente invertirsi, ma mettiamo in guardia dal pensare che questo tipo di mosse estreme siano sostenibili e consigliamo agli investitori di fissare aspettative realistiche”.

La buona notizia è che, nonostante l’enorme sovraperformance di Nvidia, ci sono prove che anche ora il rally del mercato non è troppo stretto.

“Mentre i più grandi nomi del settore tecnologico stanno chiaramente aiutando di più, anche molti altri stanno facendo bene”, osserva Frank Cappelleri di CappThesis. “Se/quando cominciamo a vedere una notevole divergenza all’interno del Indice S&P 500  Settore tecnologico, è allora che sapremo davvero che le fondamenta si stanno indebolendo. Non ancora”.

Con tanto potenziale  vento contrario si accumula, questa è una buona notizia per gli investitori.

Scrivi a Teresa Rivas all’indirizzo teresa.rivas@barrons.com


07/06/24 Barron’s: Le azioni Nvidia si sono lasciate alle spalle AMD e Intel. Potrebbero recuperare, dice l’analista.

Adam Clark Follow

Nvidia  ha dominato finora il mercato dei chip per l’intelligenza artificiale, e Advanced Micro Devices e Intel sono rimasti sulla sua scia. Le cose potrebbero cambiare in meglio per AMD, ma le possibilità sono meno buone per Intel, secondo un analista di Melius Research.

“Abbiamo incontrato AMD questa settimana e pensiamo che potrebbe essere uno dei beneficiari di un recupero commerciale in uscita dal secondo trimestre”, ha scritto l’analista di Melius Ben Reitzes in una nota di ricerca.

Reitzes ha indicato un paio di fattori che dovrebbero beneficiare AMD come il fatto che Microsoft  ha approvato i vantaggi dei suoi chip AI sulla base del costo totale di proprietà, il costo se si tiene conto di fattori indiretti come le richieste di alimentazione e raffreddamento, un’area in cui Nvidia ha promosso come la propria forza.

Altri potenziali vantaggi per AMD potrebbero includere un maggior numero di ordini da parte di Meta nella seconda metà del 2024 e la sua forza nei nuovi processori AI per PC.

Reitzes ha un rating Buy sul titolo AMD e un target price di 210 dollari. Le azioni sono aumentate dello 0,9% a 168,26 dollari nelle prime contrattazioni di venerdì.

Reitzes ha rating Buy sia sulle azioni Nvidia che su quelle AMD. Tuttavia, il suo target price per le azioni Nvidia di 1.250 dollari implica un potenziale aumento di circa il 5% rispetto ai livelli attuali, mentre il suo target price per le azioni AMD indica un possibile guadagno del 25%.

Tuttavia, è una storia diversa quando si tratta di Intel Il piano dell’azienda di semiconduttori di fare un Investimento enorme nella capacità di produzione di chip confonde le acque per il titolo, secondo l’analista di Melius.

“Non solo la storia della fonderia Intel è troppo complicata per l’investitore medio, ma il fatto che si possano acquistare Nvidia e AMD, aziende con narrazioni di intelligenza artificiale e pochissima intensità di capitale, non fa che aumentare il dolore”, ha scritto Reitzes.

Intel ora deve dimostrare che i suoi margini lordi hanno toccato il fondo e che può beneficiare di un aumento dei mercati dei PC e dei server, piuttosto che dimostrare il successo dei chip AI, secondo Reitzes.


30/05/24 Barron’s: Il fondatore di C3.ai Tom Siebel sul perché l’IA è calda e il software aziendale no

Nel bel mezzo di un tratto difficile per le aziende di software aziendale, C3.ai + 19,44% mercoledì è riuscita a pubblicare risultati migliori del previsto per il suo trimestre di aprile. La società ha mostrato un’accelerazione della crescita top-line per cinque trimestri consecutivi, tornando alla crescita del 20% nell’ultimo periodo per la prima volta dal 2022. E questo ha trascinato in alto l’azione.

Ciò è in contrasto con i risultati deludenti di mercoledì da Salesforce.com che è in calo del 20% giovedì, e UiPath crollata del 34%. Workday ha recentemente riportato un trimestre altrettanto povero.

C’è una visione crescente che i budget IT aziendali si stanno restringendo e la tendenza si sta diffondendo in tutto il settore. Ciò solleva una domanda ovvia: cosa rende C3.ai così speciale?

Il CEO di C3.ai Tom Siebel pensa che la risposta sia semplice. Mentre i budget si stanno restringendo per il software aziendale convenzionale, dice, le aziende stanno spendendo senza reali vincoli di bilancio per le applicazioni AI. Siebel pensa che molte delle aziende di intelligenza artificiale affermate stiano lottando per adattare le loro applicazioni legacy a un mondo di intelligenza artificiale.

“Questi ragazzi hanno cataste di software che hanno costruito letteralmente nel secolo scorso”, ha detto Siebel in un’intervista con Barron’s. “Quello che fanno è che hanno preso un adesivo AI e l’hanno messo sulla parte anteriore della loro scatola – ServiceNow, Salesforce, Workday, Oracle, SAP. Non sono proprio sicuro che i loro risultati saranno all’altezza. La differenza tra noi e loro è che siamo un’IA aziendale nativa. Ho iniziato a costruire questo stack di software AI 15 anni fa, e oggi abbiamo 90 applicazioni aziendali chiavi in mano. Siamo in un posto diverso da loro.” Siebel afferma che l’IA potrebbe effettivamente essere un vento contrario, piuttosto che un accelerante, per alcune società di software aziendale mentre le priorità di spesa cambiano.

Non è sicuramente un vento contrario per noi”, dice. “Dove siamo, non sono davvero sicuro che ci siano budget. Questi ragazzi fanno solo i budget. Questo sta accadendo a livello di CEO, o la persona che gestisce il livello di produzione, e non ha bisogno di un budget. I manager scrivono un assegno e se ne vanno.”

Siebel sottolinea che tutti i chip che NVIDIA vende vengono utilizzate per costruire un’infrastruttura di intelligenza artificiale per eseguire applicazioni di intelligenza artificiale. “Questi ragazzi stanno costruendo hardware per noi. “Sono là fuori a posare il marciapiede 100 miglia davanti a noi in modo che possiamo rotolarci sopra””.”

Il capo di C3.ai, che è stato anche il fondatore della società di software di gestione delle relazioni con i clienti Siebel Systems, che è stata acquisita da Oracle nel 2006, aggiunge che le società di software aziendali stanno soffrendo in parte di una mancanza di innovazione al di là dell’IA.

“Voglio dire, chi non ha il CRM installato?” lui chiede. “Chi non ha una licenza CRM aziendale? Tutti hanno capito. “Devono avere qualcosa di nuovo””.”

Nel frattempo, Siebel sostiene anche che più del valore nella catena alimentare dell’IA alla fine andrà alle società di software di intelligenza artificiale.

“Diamo un’occhiata allo stack di intelligenza artificiale”, dice. “In fondo abbiamo il silicio, e sopra questo abbiamo l’infrastruttura. Sopra questo abbiamo modelli fondamentali, e per di più abbiamo applicazioni. La maggior parte del valore sul mercato oggi viene attribuita al silicio e alle infrastrutture. Era la stessa cosa nel mercato dei PC nel 1990. Ma come abbiamo visto nei PC, a lungo termine, il valore è nel livello dell’applicazione, ed è lì che giochiamo. A lungo termine, il silicio diventa una commodities, perché così succede sempre, e e così pure l’infrastruttura. Abbiamo già visto questo film.”


27/05/24 WSj: L’IA Sta Guidando “la Prossima Rivoluzione Industriale”. Wall Street Sta Incassando.

Le azioni della vecchia scuola nei settori dei servizi pubblici, dell’energia e dei materiali stanno superando il mercato più ampio

La domanda di intelligenza artificiale è ancora in piena espansione, un anno dopo che il fenomeno ha preso d’assalto Wall Street per la prima volta. Ben oltre il settore tecnologico, gli investitori stanno trovando vincitori in azioni pick-and-shovel old-school.

Le aziende con tasche profonde stanno investendo pesantemente nella tecnologia di intelligenza artificiale, il che ha significato una manna per i produttori di chip come Nvidia NVDA 6,98%aumentare; triangolo di puntare verdee una serie di aziende, come i fornitori di energia, manodopera e materie prime, per gestire i loro prodotti.

Wall Street sta prendendo atto. Il settore dei servizi pubblici dell’S&P 500 ha restituito il 15% negli ultimi tre mesi, superando tutti gli altri angoli dell’indice. Le scorte di energia e materiali hanno sovraperformato il mercato più ampio, che è avanzato del 4,2% in quel periodo. I prezzi delle azioni sono in aumento per le aziende industriali che beneficeranno dell’espansione e della ristrutturazione del data center.

Il rapporto sui guadagni di Nvidia la scorsa settimana ha mostrato che la domanda di capacità di intelligenza artificiale sta solo guadagnando piede. La società ha registrato 26 miliardi di dollari di vendite per il suo ultimo trimestre, più del triplo del totale rispetto all’anno precedente. Le azioni del produttore di chip grafici sono scambiate a livelli record, più che raddoppiando quest’anno.

“La prossima rivoluzione industriale è iniziata”, con le imprese e i paesi che convertono i data center esistenti in “fabbriche di intelligenza artificiale”, ha detto l’amministratore delegato Jensen Huang in una chiamata degli investitori.

Le aziende big-tech come Microsoft Meta Platforms stanno spendendo miliardi per i chip Nvidia e l’infrastruttura correlata per costruire le proprie capacità di intelligenza artificiale. Il governo potrebbe unirsi: un gruppo bipartisan del Senato ha raccomandato decine di miliardi di dollari di nuove spese federali relative all’IA negli anni a venire.

È qui che si trovano le opportunità investibili”, ha affermato Lauren Goodwin, economista e capo stratega di mercato di New York Life Investments. “Sono costruttori e operatori di data center, energia e servizi pubblici”.

I dirigenti del centro dati hanno affermato che l’aumento della domanda significa tempi di consegna più lunghi per le apparecchiature essenziali come i generatori di backup e i sistemi di raffreddamento.

“Abbiamo visto un ampliamento del commercio dell’IA. Non dipende più da un solo titolo”, ha detto Nadia Lovell, senior equity strategist degli Stati Uniti, gestione patrimoniale globale presso UBS. “Le patatine sono fondamentali, ma non sono tutta la casa”.

Il Global X U.S. L’ETF per lo sviluppo delle infrastrutture ha restituito il 13% quest’anno, superando l’anticipo dell’11% dell’S&P 500.

Le azioni di Vertiv Holdings, che produce apparecchiature che alimentano e raffreddano i centri dati, sono più che raddoppiate quest’anno. La società ha affermato che i nuovi ordini sono cresciuti del 60% rispetto a un anno prima del primo trimestre. Gli analisti di Wall Street si aspettavano una crescita di circa il 15% e hanno rivisto le loro previsioni di profitto nettamente più in alto per gli anni a venire.

“Anche se ancora nelle sue fasi iniziali, l’IA sta rapidamente diventando un tema pervasivo nei nostri mercati finali”, ha detto il CEO di Vertiv Giordano Albertazzi il mese scorso.

Eaton, un’azienda che produce apparecchiature di gestione dell’alimentazione, ha avanzato il 42% quest’anno. Johnson Controls, che produce sistemi elettronici per edifici commerciali, è in aumento del 28%.

Le azioni infrastrutturali potrebbero ottenere un ulteriore impulso se la Federal Reserve tagliasse i tassi di interesse entro la fine dell’anno, come molti investitori si aspettano. Gli investitori guarderanno il rilascio di venerdì dell’indice delle spese di consumo personale, l’indicatore di inflazione preferito dalla Fed, per indizi sul percorso da seguire sui tassi.

Il rally ha lasciato le azioni scambiate ben al di sopra delle loro medie a lungo termine. Eaton negozia a 31 volte i suoi guadagni attesi nei prossimi 12 mesi, mentre Vertiv negozia a 40 volte. Il multiplo dell’S&P 500 è 21 volte.

Il boom della spesa in corso significa che le valutazioni elevate per le imprese industriali sono meno rischiose del solito, secondo Joseph Ghio, analista di Williams Jones Wealth Management. “Queste aziende sono meno cicliche di una volta”, ha detto, aggiungendo che pensa che Eaton possa quasi raddoppiare il suo profitto nei prossimi cinque anni.

La sua azienda possiede azioni di Eaton e Quanta Services, che fornisce manodopera qualificata alle compagnie elettriche, per conto dei clienti. Le azioni di Quanta sono aumentate del 31% quest’anno.


07/05/24 Briefing.com: Technologies affonda perché i risultati ottimisti del primo trimestre non riescono a soddisfare le alte aspettative (PLTR)

Palantir Technologies (PLTR -14%) non riesce a scoprire alcun guadagno oggi anche dopo aver superato le stime delle entrate nel primo trimestre, proiettando quelle del secondo trimestre al di sopra del consenso e aumentando le sue previsioni di vendita FY24. Lo sviluppatore di software di analisi basato sull’intelligenza artificiale, le cui radici sono iniziate come startup finanziata dalla CIA, stava uscendo da un’impressionante performance del quarto trimestre che ha inviato le sue azioni verso i livelli del 2021. Mentre gli investitori accumulavano, spingendo il PLTR oltre il +50% in più rispetto all’anno, chiedevano a gran voce un altro rapporto eccezionale nel primo trimestre. Di fronte a questa barra elevata, i risultati di PLTR, anche se solidi in superficie, si sono rivelati piuttosto deboli oggi.

C’erano anche alcune crepe sotto la superficie, specialmente intorno alle tendenze d’oltremare. Ad esempio, le entrate commerciali statunitensi sono aumentate del 40% all’anno rispetto a un lieve miglioramento del 16% delle entrate commerciali internazionali. Il CEO Alex Karp, uno che non addolcisce mai le situazioni, lo mette in parole senza mezzi termini, affermando che il PLTR ha venti contrari in Europa. Ha aggiunto che la regione si sta dirigendo verso una crescita del PIL allo 0% nei prossimi anni, il che sarà un problema per l’azienda. Nel frattempo, anche se PLTR ha aumentato la sua previsione delle entrate FY24, proiettando 2,677-2,689 miliardi di dollari rispetto a 2,652-2,668 miliardi di dollari, era semplicemente per le dimensioni del suo rialzo del primo trimestre, segnalando che era giustificata una certa prudenza data l’incertezza macroeconomica.

Tuttavia, nonostante la risposta di oggi, PLTR ha consegnato diversi punti salienti del primo trimestre, illuminando che rimane tra le prime fasi di un vento di coda indotto dall’IA potenzialmente di lunga durata.

  • PLTR ha registrato EPS coerente con le previsioni degli analisti e ha consegnato il suo sesto trimestre consecutivo di redditività GAAP nel primo trimestre. Nel frattempo, la crescita consolidata delle entrate ha accelerato al 20,8% annuo/anno a 643,3 milioni di dollari nel primo trimestre guidata dalla piattaforma di intelligenza artificiale (AIP) di base di PLTR. Le vendite commerciali globali sono aumentate del 27% all’anno a 299 milioni di dollari, mentre le rivorazioni governative sono in ritardo, migliorando del 16% a 335 milioni di dollari.
    • Vale la pena notare che la crescita delle vendite del governo ha accelerato dal +11% registrato nel quarto trimestre, coerentemente con l’aspettativa di PLTR di un’ulteriore aumento della spesa per l’IA mentre si sposta verso la metà posteriore dell’anno.
  • La domanda commerciale degli Stati Uniti è rimasta robusta nel primo trimestre. PLTR ha aggiunto il 69% in più di clienti anno/anno, un bel rialzo dal salto del +55% dello scorso trimestre a 262. La direzione prevede di sostenere questo slancio al rialzo per il resto dell’anno, aumentando le sue prospettive di entrate commerciali negli Stati Uniti ad almeno 661 milioni di dollari, 21 milioni di dollari in più rispetto alle sue previsioni precedenti.
  • Un fattore di fondo nella capacità di PLTR di continuare ad attrarre più aziende sulla sua piattaforma risiede nei suoi Bootcamp, dove le organizzazioni possono visualizzare ciò che il software di PLTR può fare e come può aumentare la produttività. PLTR ha citato un esempio di come queste sessioni di formazione possono aumentare l’adozione di AIP, osservando che una società di servizi pubblici leader ha firmato un accordo a sette cifre in meno di una settimana dopo aver terminato un Bootcamp. Queste sessioni stanno già portando a una sostanziale compressione del ciclo dell’affare.

Nel complesso, le alte aspettative del mercato sono state sufficienti per affondare PLTR oggi nonostante le solide prestazioni del primo trimestre dell’azienda. Le preoccupazioni provenienti dall’Europa si sono aggiunte anche al ritiro di oggi, soprattutto in considerazione dei commenti del CEO Alex Karp secondo cui la regione rappresenterà un problema. Tuttavia, i risultati del primo trimestre non hanno sostenuto una divergenza strutturale dalle prospettive edificanti dell’azienda che circondano l’IA. Come tale, la caduta rapida di oggi offre un punto di ingresso decente a lungo termine.


20/04/24 Financial Time: la caduta degli dei..

Nvidia scende del 10% mentre gli investitori vedono il rischio nelle azioni Big Tech

Il prezzo delle azioni di Nvidia è crollato del 10 per cento venerdì, contribuendo a sigillare il peggior ribasso per i mercati azionari statunitensi dall’ottobre 2022, poiché gli investitori hanno evitato le attività rischiose prima dell’annuncio degli utili delle Big Tech la prossima settimana.

Il produttore di chip ha sopportato la sua peggiore sessione da marzo 2020, perdendo più di 200 miliardi di dollari del suo valore di mercato quella giornata. Il declino ha rappresentato circa la metà del calo dello 0,9 per cento dell’S&P 500 di Wall Street, secondo i dati di Bloomberg.

Netflix, nel frattempo, ha perso circa il 9% al giorno dopo l’annuncio del servizio di streaming che avrebbe smesso di rivelare regolarmente i suoi numeri di abbonati ha oscurato i guadagni più forti del previsto. Il Nasdaq Composite, pesante di tecnologia, ha chiuso la sessione in calo del 2,1 per cento.

Anche le azioni che sono state spinte più in alto dall’entusiasmo degli investitori per l’intelligenza artificiale hanno sofferto, con Advanced Micro Devices, Micron Technology e Meta che hanno chiuso rispettivamente del 5,4 per cento, del 4,6 per cento e del 4,1 per cento in meno. Super Micro Computer, un gruppo di apparecchiature server visto come beneficiario del boom dell’IA, ha chiuso – 23 per cento.

“È una giornata difficile per le azioni tecnologiche”, ha detto Kevin Gordon, uno stratega degli investimenti senior di Charles Schwab. “Tutto ciò che stava andando bene all’inizio di quest’anno si sta rivoltando, ma le banche e l’energia stanno andando bene assieme ai prodotti per la casa [difensive]”.

Le mosse di venerdì arrivano mentre gli investitori hanno iniziato a prendere sul serio la possibilità che la Federal Reserve degli Stati Uniti possa fare solo un taglio di un quarto di punto ai tassi di interesse quest’anno, o forse nessuno. Gli attacchi di rappresaglia tra Iran e Israele hanno anche aumentato l’ansia degli investitori, intaccando il rally del mercato.

Ma gli analisti hanno detto che la svendita di venerdì è stata invece guidata dagli investitori che hanno riposizionato in fretta i loro portafogli prima di una raffica di utili trimestrali delle Big Tech la prossima settimana.

“Il pullback azionario ha molto poco a che fare con i tassi [di interesse]”, ha detto Parag Thatte, uno stratega della Deutsche Bank. “Ha più a che fare con gli investitori che iniziano a prezzare una crescita degli utili più lenta [per Big Tech]”.

Andrew Brenner, capo del reddito fisso internazionale di NatAlliance Securities, ha affermato che “non c’è una pressione relativa sui tassi” in assenza di nuovi annunci dalla Fed. “Ma le azioni vengono schiacciate”.

Microsoft, Alphabet e Meta riporteranno tutte i risultati per il primo trimestre della prossima settimana, mentre i risultati di Nvidia sono dovuti a fine maggio. Anche se ci si aspetta che tutti abbiano funzionato bene, affrontano difficili confronti trimestre su trimestre.

La crescita degli utili per azione su base annua per Nvidia, Meta, Microsoft, Amazon, Alphabet e Apple ha raggiunto il picco del 68,2 per cento nel quarto trimestre del 2023. Gli analisti di UBS si aspettano che i cosiddetti Big 6 riportino una crescita dell’EPS del 42,1 per cento per i primi tre mesi di quest’anno.

L’indice di riferimento S&P 500 di Wall Street ha perso lo 0,9 per cento venerdì, chiudendo la sua settimana peggiore in più di cinque mesi in termini percentuali. L’indice è diminuito ogni giorno dallo scorso venerdì, la sua peggiore corsa in un anno e mezzo. All’improvviso, “gli acquirenti dip (quelli che comperavano ad ogni calo) non stanno comprando dip. . . o se lo sono, vengono sommersi”, ha detto Mike Zigmont, responsabile del trading di Harvest Volatility Management. L’indice del dollaro era stabile il giorno mentre i prezzi del petrolio sono aumentati modestamente.


19/04/24 Barron’s: Nvidia ha vinto il primo round dell’IA. Ora la concorrenza si sta scaldando.

Negli ultimi 18 mesi, l’intelligenza artificiale ha regalato meraviglie apparentemente quotidiane. Per gli investitori, la sorpresa più grande è stata l’ascesa di Nvidia che ha origini umili per dominare completamente il mercato dei chip legati all’intelligenza artificiale.

Un tempo nota soprattutto per la creazione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’intelligenza artificiale, alimentando la creazione di modelli linguistici di grandi dimensioni ed eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi sola sul campo, con una quota di mercato superiore al 90%.

Ma sta arrivando una nuova concorrenza, da parte di aziende grandi e piccole, e la battaglia sarà feroce. La posta in gioco non potrebbe essere più alta: Lisa Su, CEO di Advanced Micro Devices, ha stimato il mercato dei chip AI a 400 miliardi di dollari entro il 2027. Intel Il CEO Pat Gelsinger ha previsto un’opportunità di 1 trilione di dollari entro il 2030. È quasi il doppio delle dimensioni di l’intera industria dei chip nel 2023.

Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su un’unica fonte. Per aziende di hardware come Dell TechnologiesHewlett Packard EnterpriseLenovo e Super Micro Computer non è sufficiente che i chip Nvidia soddisfino la domanda dei clienti, che vorrebbero delle alternative. I fornitori di servizi cloud come Amazon.com e Alphabet vogliono così tanto più opzioni che sta progettando i propri chip. E le aziende che si affidano a sistemi basati sull’intelligenza artificiale vogliono più risorse di calcolo a costi più gestibili di quelli che possono ottenere ora.

Il successo di Nvidia è ora un’opportunità per tutti gli altri.

È difficile trovare un prodotto di qualsiasi tipo che abbia avuto un impatto sui mercati finanziari così rapido della GPU Nvidia H100, lanciata nel marzo 2022.

Il prezzo delle azioni di Nvidia è più che triplicato dal debutto dell’H100, portando il valore di mercato dell’azienda a 2,1 trilioni di dollari. Tra le società quotate negli Stati Uniti, solo Microsoft e Apple hanno capitalizzazioni di mercato più elevate. E nessun’altra azienda di chip si avvicina neanche lontanamente.

Non si tratta di GameStop o Trump Media & Technology. In effetti, Nvidia è il titolo anti-meme: la crescita dei ricavi dell’azienda ha effettivamente superato i guadagni azionari. Per il quarto trimestre fiscale conclusosi il 28 gennaio, Nvidia ha registrato un fatturato di 22,1 miliardi di dollari, in aumento del 265% rispetto all’anno precedente. I ricavi dei data center dell’azienda sono aumentati del 409%.

Poche settimane fa, Nvidia ha lanciato la sua ultima meraviglia, la GPU Blackwell B200, che secondo il CEO Huang supera notevolmente l’H100. Con Blackwell, Nvidia alza l’asticella per i suoi rivali. Nvidia per il prossimo futuro venderà tutti i Blackwell che riuscirà a produrre o, per essere più precisi, il partner Taiwan Semiconductor Manufacturing può realizzare.

Huang ha detto che le GPU Blackwell costeranno da $ 30.000 a $ 40.000 ciascuna. Gli attuali H100 vengono venduti nella stessa gamma. Ma i prezzi dei chip non sono tutto. I clienti dell’IA vogliono eseguire i carichi di lavoro nel minor tempo possibile, al minor costo, con la massima precisione e affidabilità, assorbendo il minor consumo energetico possibile. Ci sono un certo numero di aziende che pensano di poterlo fare altrettanto bene, o meglio, di Nvidia.

I rivali di Nvidia si dividono in tre gruppi: grandi produttori di chip, fornitori di cloud computing e start-up sostenute da venture capital. Con un mercato da 1 trilione di dollari in gioco, questo non sarà il vincitore che prende tutto. Non è game over. Il gioco è iniziato.

Gli sfidanti più ovvi di Nvidia sono Advanced Micro Devices e Intel.

Le azioni AMD sono aumentate del 71% negli ultimi 12 mesi, aiutate dalla percezione del mercato che le sue nuove GPU MI300 eroderanno la morsa di Nvidia sul mercato. Questa speranza è ispirata dal successo di AMD nel rubare quote di mercato a Intel nel settore dei PC e dei server.

“AMD è davvero l’unica altra azienda sul campo”, sostiene Andrew Dieckmann, direttore generale del business delle GPU per data center di AMD. “Siamo l’unica altra soluzione adottata su larga scala all’interno del settore”. Afferma che i chip AMD superano l’H100 di Nvidia per molti carichi di lavoro di inferenza, offrendo al contempo parità per l’addestramento del modello. Ma l’altro vantaggio di AMD è che non è Nvidia.

“Per quanto riguarda gli utenti molto grandi, non hanno intenzione di scommettere l’intero franchising su un unico fornitore”, afferma Dieckmann. “C’è un estremo desiderio di alternative di mercato”.

Il CEO di AMD, Lisa Su, ha dichiarato durante l’ultima chiamata sugli utili dell’azienda che ora si aspetta un fatturato GPU di 3,5 miliardi di dollari nel 2024, rispetto alla previsione di 2 miliardi di dollari del trimestre precedente.

Intel sta venendo da dietro, e il titolo ha lottato per anni, ma la società ha aperto gli occhi questo mese con il lancio di Gaudi 3, i suoi chip acceleratori AI di terza generazione per l’addestramento e l’inferenza. Intel sostiene che Gaudi 3 è più veloce dell’H100 di Nvidia per entrambe le attività di intelligenza artificiale, pur utilizzando meno energia, e che Gaudi 3 sarà competitivo con Blackwell.

Intel, che ora sta spendendo miliardi per costruire fabbriche di chip in Arizona e Ohio, dovrebbe essere avvantaggiata nel lungo periodo dall’avere una propria fonte di approvvigionamento in un mercato con una grave carenza di forniture. Ma non ancora: Gaudi 3 sarà prodotto da TSMC, proprio come i chip AI di Nvidia e AMD.

Jeni Barovian, vice presidente del gruppo Network & Edge di Intel, attribuisce a Nvidia il merito di aver “gettato le basi per questa rivoluzione”, ma afferma che Intel non intende essere lasciata indietro. I clienti vogliono alternative, dice. “Oggi non si sentono come se avessero una scelta”.

Poi c’è Qualcomm, un altro leader di lunga data nel settore dei semiconduttori. L’azienda di chip per telefoni cellulari ha preso tecnologie originariamente progettate per gli smartphone e le ha applicate al cloud in un chip di inferenza AI chiamato Cloud AI 100. Qualcomm sembra più interessata all’opportunità di servire l’edge delle reti, su laptop e telefoni.

Il vicepresidente senior di Qualcomm, Ziad Asghar, ritiene che, nel tempo, un numero maggiore di carichi di lavoro di inferenza verrà gestito su “dispositivi edge”. La teoria è che è più economico e più sicuro per i dati stare fuori dal cloud. “Il centro di gravità nell’inferenza si sta spostando dalla nuvola al bordo”, dice Asghar.

Meno visibili, ma non meno seri nel competere nei chip AI, sono i team interni di quattro giganti del cloud computing: Amazon, Alphabet, Meta (Facebook) e Microsoft. Tutti e quattro stanno progettando chip proprietari sia per le proprie esigenze interne che per servire i clienti del cloud. La storia della concorrenza qui è meno diretta: nessuno dei leader del cloud vende chip a terze parti.

Ciononostante, sono ancora una minaccia per Nvidia. Meta, Microsoft, Amazon e Google insieme stanno spendendo una fortuna per l’infrastruttura AI. Si prevede che questi quattro paesi avranno una spesa in conto capitale combinata per il 2024 di 178 miliardi di dollari, con un aumento di oltre il 26% rispetto all’anno precedente. Microsoft da sola vedrà il capex aumentare del 53% quest’anno, secondo le stime monitorate da FactSet. La spesa aumenterà del 31% per Alphabet e del 26% per Meta. Tutti e quattro stanno costruendo chip in parte per ottenere un migliore controllo della loro spesa, e tutti dicono che possono arrivarci controllando più dello “stack”, incluso il software, l’hardware e la progettazione dei chip, non diversamente dall’approccio di Apple alla progettazione dell’hardware.

Nvidia ha rifiutato di commentare questo articolo, sottolineando che la società è nel suo periodo di quiete pre-guadagni. Ma Huang ha affrontato la questione della concorrenza nel recente passato.

“Abbiamo più concorrenza di chiunque altro sul pianeta”, ha detto Huang in un evento di marzo allo Stanford Institute for Economic Policy. “Non solo abbiamo la concorrenza dei nostri concorrenti, ma anche quella dei nostri clienti”. Il suo punto di vista è che gli alti livelli di integrazione ed efficienza integrati nei sistemi di Nvidia rendono difficile per i rivali tenere il passo. Huang ha affermato che il costo totale di funzionamento dell’azienda è così buono che “anche quando i chip dei concorrenti sono gratuiti, non è abbastanza economico”.

Ciò non ha impedito alle Big Tech di provarci e a loro si sono unite una serie di start-up sostenute da venture capital. Alcune di queste start-up sperano di vendere chip e sistemi a fornitori di server e cloud, ma la maggior parte di esse sta cercando di sconvolgere il mercato offrendo servizi basati su cloud direttamente ai clienti.

La più intrigante del gruppo potrebbe essere Cerebras Systems, che secondo quanto riferito sta pianificando un’IPO nel 2024.

Screenshot

A marzo, Cerebras ha presentato il suo chip più grande fino ad oggi, il Wafer Scale Engine 3, o WSE-3. Con i suoi 72 pollici quadrati, è il più grande chip commerciale mai realizzato. L’H100, al contrario, è di circa un pollice quadrato. Piuttosto che cercare di collegare in rete molti chip insieme, una sfida ingegneristica, Cerebras sta semplicemente impacchettando tutta la potenza su un gigantesco semiconduttore.

Il chip di Cerebras ha quattro trilioni di transistor, 50 volte la potenza di calcolo dell’H100.

Cerebras sta raggruppando i chip in una piattaforma di calcolo chiamata CS-3, che dice di poter addestrare un modello linguistico di grandi dimensioni come Llama di Meta in un giorno, rispetto a un mese per le piattaforme basate su Nvidia. Cerebras non vende direttamente chips. Sebbene sia disposta a vendere sistemi hardware completi, la maggior parte delle entrate della start-up proviene dalla vendita dell’accesso ai suoi sistemi allo stesso modo dei fornitori di cloud. Tra i suoi clienti: la Mayo Clinic, GSK e il Lawrence Livermore National Laboratory.

Il CEO di Cerebras, Andrew Feldman, afferma che l’azienda ha costruito otto volte più sistemi nel 2023 rispetto all’anno precedente e prevede che il totale aumenterà di 10 volte nel 2024. Cerebras ha registrato un fatturato nel 2023 di 79 milioni di dollari e ha raggiunto il pareggio del flusso di cassa. La società ha raccolto 715 milioni di dollari in capitale di rischio ed è stata valutata 4 miliardi di dollari nel suo round più recente, nel 2021.

“L’opportunità è quella di portare le prestazioni dei supercomputer alle grandi aziende senza sovraccarico di supercomputer”, afferma Feldman.

Il segreto di questo, dice, sono i chips delle dimensioni di un piatto. “Grandi chip significano che non devi interrompere il lavoro.”

Jonathan Ross, che ha svolto un ruolo importante nello sviluppo dei chip AI di Google, è ora a capo di una start-up di chip AI chiamata Groq, da non confondere con il modello Grok AI di Elon Musk. (Tutto questo grokking deriva da una parola coniata da Robert Heinlein nel suo romanzo del 1961, Straniero in terra straniera; significa comprendere appieno qualcosa nel modo più profondo possibile.)

Come Cerebras, la strategia di Groq è quella di vendere il tempo di calcolo in base al consumo, piuttosto che vendere chip a società di hardware e cloud. Ross afferma che Groq è in grado di eseguire modelli popolari come il Llama 2-70b di Meta a una velocità 10 volte superiore a quella dei sistemi basati su Nvidia. (Puoi provarlo gratuitamente su Il sito web dell’azienda.) Dopo che Huang di Nvidia ha presentato Blackwell qualche settimana fa, Groq ha rilasciato un comunicato stampa che diceva semplicemente: “Ancora più veloce”. La società ha annunciato un finanziamento di 367 milioni di dollari fino ad oggi; Ross afferma di aver raccolto ulteriori capitali che non sono ancora stati annunciati.

La start-up di chip AI d-Matrix si concentra sulle applicazioni di inferenza AI nei data center, lasciando la costruzione del modello a Nvidia e altri. Fondata nel 2019, d-Matrix utilizza un design chiamato “calcolo in-memory”, che secondo il CEO Sid Sheth è un’idea che esiste da 30 o 40 anni, un approccio per accelerare il calcolo, ma che non ha mai avuto un’applicazione davvero buona fino a quando non è emersa l’intelligenza artificiale. D-Matrix, che ha raccolto 160 milioni di dollari, prevede di iniziare a vendere chip il prossimo anno.

Il server AWS Trainium 1. Meta, Microsoft, Amazon e Google insieme stanno spendendo una fortuna per l’infrastruttura

SambaNova, che ha raccolto 1,1 miliardi di dollari da investitori di rischio, è un’altra società che adotta un approccio basato sui sistemi per servire il mercato dell’intelligenza artificiale. Oltre ai chip, il suo approccio aggrega 54 modelli di intelligenza artificiale open source, compresi quelli di Google e Meta.

Un elemento sorprendente della storia di SambaNova è che, per molti clienti, si tratta di installare sistemi fisici nei loro data center. “La maggior parte dei dati aziendali si trova ancora on-premise”, afferma il CEO Rodrigo Liang. Osserva che i clienti provengono da settori come il settore bancario, sanitario e governativo, compresi i laboratori nazionali di Sandia, Lawrence Livermore e Los Alamos.

Ci sono molte altre start-up di chip AI là fuori. Rain AI, che ha ricevuto finanziamenti iniziali dal CEO di OpenAI Sam Altman, si concentra in particolare sull’efficienza energetica e sull’esecuzione di modelli linguistici di grandi dimensioni su dispositivi edge. Lightmatter sta utilizzando la fotonica, una tecnologia basata sulla luce originariamente creata per applicazioni di calcolo quantistico, per migliorare la velocità di rete nei data center di intelligenza artificiale.

Certo, queste start-up hanno grandi idee, ma operano ancora su piccola scala. Potrebbero volerci anni prima che siano pronti ad affrontare Nvidia. Tuttavia, ci sono potenzialmente grandi portafogli pronti ad accelerare i loro progressi.

Bloomberg ha riferito che SoftBank Group sta valutando un investimento di 100 miliardi di dollari per finanziare una nuova società di chip AI. (SoftBank è anche un investitore e cliente di SambaNova.) Nel frattempo, Altman di OpenAI, secondo il Wall Street Journal, ha messo a punto un piano per investire fino a 7 trilioni di dollari, una cifra che sembra implausibilmente grande, per costruire dozzine di nuove fabbriche di chip. Né SoftBank né OpenAI hanno voluto commentare tali rapporti.

È improbabile che l’emergere di un numero crescente di nuovi e potenziali concorrenti ponga fine al regno di Nvidia come campione dei chip AI. Ma significa che il dominio senza ostacoli di Nvidia su un mercato da 1 trilione di dollari sta volgendo al termine. A partire da ora.

28/03/24 Barron’s: L’intelligenza artificiale sta dando un grande impulso all’energia nucleare. 4 che cavalcano il trend.

I due reattori nucleari del Constellation Energy Limerick Clean Energy Center a Pottstown, in Pennsylvania

UnUn piccolo gruppo di aziende che possiedono reattori nucleari ha visto le loro azioni salire a tassi simili a quelli di Nvidia negli ultimi mesi, parte di una rinascita poco notata in un settore che non ha avuto molto di cui vantarsi da anni. Possono ringraziare l’intelligenza artificiale.

L’energia nucleare, a quanto pare, è eccezionalmente adatta a soddisfare l’enorme domanda di elettricità dei data center per l’intelligenza artificiale. Di conseguenza, le azioni di Constellation Energy CEGVistraVST Talen Energy TLNE sono aumentate di oltre il 90% nell’ultimo anno. C’è una buona probabilità che vadano ancora più in alto.

“Il mondo si sta chiaramente muovendo nella nostra direzione”, ha dichiarato il CEO di Constellation Joe Dominguez durante l’ultima chiamata sugli utili della società.

Per anni, la maggior parte del mondo si è mossa nella direzione opposta. La paura di incidenti nucleari come il disastro di Fukushima del 2011 è parte del problema. Ma anche l’economia ha giocato un ruolo importante. Gestire una centrale nucleare è stato un affare terribile, a malapena redditizio senza sussidi governativi. Generare elettricità dal combustibile nucleare spesso costa di più che generarla dal gas naturale, perché i prezzi del gas naturale sono diminuiti durante la rivoluzione delle trivellazioni di scisto negli Stati Uniti. La crescita delle energie rinnovabili complica anche la vita ai possessori di energia nucleare. Quando soffiano forti venti in Texas, l’ondata di energia eolica può far scendere i prezzi dell’elettricità sotto lo zero.

Solo due nuove centrali nucleari sono state costruite negli Stati Uniti dal 2000. L’ultimo, inaugurato in Georgia nel 2023, è arrivato con sette anni di ritardo ed è costato il doppio del previsto. L’energia nucleare rappresenta il 18% della capacità elettrica degli Stati Uniti ed è probabile che continui a scendere nei prossimi anni con l’espansione delle energie rinnovabili. A livello globale, ha rappresentato il 9,2% nel 2022, il più basso degli ultimi quattro decenni, secondo il World Nuclear Industry Status Report.

Il recente ringiovanimento del settore è guidato da due fattori: il sostegno politico e il cambiamento tecnologico.

Gli sforzi globali per rallentare il cambiamento climatico si basano sull’espansione dell’energia elettrica. Dopo oltre un decennio di domanda relativamente piatta negli Stati Uniti, il consumo di elettricità è destinato ad aumentare rapidamente nei prossimi anni man mano che le persone collegano veicoli elettrici ed elettrodomestici come le pompe di calore. Anche le aziende sono destinate ad aumentare la loro domanda di energia.

Alcune delle maggiori fonti di nuova domanda di energia sono i data center in costruzione per eseguire i sistemi di intelligenza artificiale, ognuno dei quali utilizza in un giorno tanta energia quanto decine di migliaia di case. I data center, che ora rappresentano circa il 2,5% della domanda di energia, potrebbero consumare il 7,5% entro il 2030, secondo Boston Consulting Group. Le aziende che stanno costruendo il maggior numero di data center sono le grandi aziende tecnologiche, tra cui AlphabetMicrosoft e Amazon.com.

Queste aziende si sono tutte impegnate a ottenere la loro energia da fonti più pulite, con Microsoft che afferma che rimuoverà più emissioni di carbonio dall’atmosfera di quante ne produca entro il 2030.

Per le aziende con questo tipo di ambizioni, l’energia nucleare è la soluzione ideale. Le reazioni nucleari non rilasciano carbonio nel modo in cui lo fanno le centrali a carbone e a gas naturale. E le centrali nucleari rimangono costantemente accese, dando loro un vantaggio rispetto alle fonti di energia pulita intermittenti come il solare e l’eolico. La tecnologia di accumulo delle batterie collegata ai parchi solari ed eolici sta avanzando rapidamente, ma non è ancora pronta a fornire abbastanza energia di riserva alle energie rinnovabili per renderle affidabili come l’energia nucleare. Man mano che le energie rinnovabili sottraggono quote di mercato al carbone e, infine, al gas naturale, la percentuale di energia su cui si può contare per funzionare 24 ore su 24, 7 giorni su 7, diminuirà.

“C’è una prospettiva in cui la domanda sta salendo e l’energia affidabile sta diminuendo”, ha detto Rodney Rebello, analista che si concentra sul nucleare presso Reaves Asset Management. “Il nucleare produce energia affidabile e ha anche l’attributo di essere pulito in termini di profilo di emissioni. Il profilo del nucleare – 24 ore su 24, 7 giorni su 7, alimentazione di base, pulito – si allinea molto bene con la domanda di energia dei data center, che è 24 ore su 24”.

Reaves detiene Constellation Energy e Vistra nel suo fondo chiuso Utility Income e nel fondo negoziato in borsa Virtus Reaves Utilities.

È importante notare che non tutti i proprietari di centrali nucleari stanno traendo profitto da questo cambiamento. Le compagnie elettriche indipendenti vendono energia in mercati competitivi e traggono profitto quando i prezzi aumentano. Ma le utility che possiedono centrali nucleari, come  Duke Energy  DUK hanno faticato, perché i loro rendimenti sono limitati dalle autorità di regolamentazione. Le azioni Duke sono scese dell’1% nell’ultimo anno. Circa il 60% della flotta nucleare degli Stati Uniti è nelle mani di servizi pubblici regolamentati, il che significa che la maggior parte della capacità nucleare è ostacolata da tali regole.

Constellation, il più grande proprietario di centrali nucleari indipendenti negli Stati Uniti, ha visto le sue azioni balzare del 150% nello stesso periodo. Si tratta di un’importante inversione di tendenza dopo un periodo difficile per l’azienda. Constellation è stata scorporata dall’utility Exelon, con sede in Illinois, nel 2022, un anno dopo che due delle centrali nucleari dell’azienda in Illinois avevano bisogno di un salvataggio statale per rimanere aperte.

Dopo lo spin-off, Exelon ha mantenuto le sue attività regolamentate di utility e trasmissione, lasciando a Constellation le attività nucleari.

Da allora le azioni si sono differenziate. Exelon è scesa del 9% nell’ultimo anno, danneggiata dalle forze più grandi che hanno fatto crollare i titoli delle utility, come gli alti tassi di interesse, nonché dalle sfide specifiche dell’azienda. L’anno scorso, le autorità di regolamentazione dell’Illinois hanno respinto il suo piano di capitale, che avrebbe potuto portare a aumenti dei prezzi per i consumatori e a migliori guadagni per la società.

A differenza di Exelon e Duke, Constellation non ha bisogno di chiedere alle autorità di regolamentazione di approvare aumenti dei prezzi per la sua energia. Constellation vende l’energia che produce in mercati elettrici competitivi lungo la costa atlantica e nel Midwest, dove la domanda e i prezzi sono in aumento. L’azienda ha anche stretto accordi diretti con aziende tecnologiche come Microsoft che sono disposte a spendere di più per certificare che l’energia che utilizzano per i loro data center è priva di emissioni di carbonio.

L’azienda sta anche beneficiando del sostegno politico. Anche se i politici combattono per le energie rinnovabili e i combustibili fossili, c’è un considerevole sostegno bipartisan per il nucleare. Nella sua ultima presentazione degli utili, Constellation ha presentato citazioni pronucleari sia del presidente Joe Biden che dell’ex presidente Donald Trump.

L’azienda ha ricevuto un beneficio significativo dall’Inflation Reduction Act, che concede crediti d’imposta alle centrali nucleari. La legge ha effettivamente fissato un limite minimo ai prezzi dell’energia nucleare di circa 43 dollari per megawattora, un livello al quale gli impianti possono fare soldi.

Il credito d’imposta stabilisce una soglia minima per l’industria. Ma gli investitori sono ora convinti che ci sia anche un tetto più alto. A marzo, Amazon ha accettato un nuovo insolito accordo con Talen Energy, una società di Houston appena emersa dalla bancarotta l’anno scorso. Amazon ha acquistato un sito vicino alla centrale nucleare di Talen in Pennsylvania per 650 milioni di dollari e riceverà energia direttamente dall’impianto, invece di collegarsi alla rete di trasmissione più grande come la maggior parte dei data center, un accordo noto come “behind the meter”. Amazon potrebbe introdurre gradualmente i data center, utilizzando fino a 960 megawatt dei 2,2 gigawatt di capacità nucleare di Talen. Gli analisti stimano che l’accordo valuti l’energia prodotta da Talen a circa 75 dollari per megawattora, ben al di sopra dei prezzi medi di mercato che Talen riceve vendendo in rete.

Gli analisti hanno estrapolato le cifre dell’accordo Talen ad altri nomi nucleari: Constellation probabilmente ne trarrebbe i maggiori benefici, semplicemente perché possiede il maggior numero di centrali nucleari.

Si prevede che gli utili per azione della società aumenteranno del 33% quest’anno e Constellation afferma di poter continuare a far crescere gli utili di base di almeno il 10% all’anno fino alla fine del decennio, in gran parte grazie alle opportunità dei data center. L’analista di Morgan Stanley David Arcaro pensa che Constellation potrebbe firmare accordi simili a quelli di Talen per circa un quarto della sua capacità nucleare. Lunedì ha aumentato il suo obiettivo di prezzo a $ 193 da $ 166, sulla base di quelle offerte previste.

Anche Vistra, il secondo più grande proprietario di centrali nucleari indipendenti, potrebbe beneficiarne. L’anno scorso l’azienda ha preso la decisione lungimirante di acquisire tre centrali nucleari con quattro gigawatt di capacità, proprio mentre il mercato stava migliorando. Le sue azioni sono aumentate del 190% nell’ultimo anno, ma Arcaro vede un ulteriore rialzo, aumentando il suo obiettivo di prezzo a $ 78 da $ 62.

Poi c’è Public Service Enterprise Group PEG una poliedrica compagnia energetica del New Jersey che possiede anche energia nucleare. Anche se finora non ha beneficiato molto del rally nucleare, Arcaro pensa che la società potrebbe vendere un gigawatt della sua capacità nucleare in un redditizio accordo per i data center. Ha aumentato il suo obiettivo di prezzo a $ 70 da $ 61.

A breve termine, la manciata di aziende che possiedono centrali nucleari ha poco da temere dalla nuova concorrenza. Ma alla fine, è probabile che i nuovi entranti scuotano il settore. Molti di loro, sostenuti da grandi investitori come Bill Gates e Sam Altman, stanno scommettendo su piccoli reattori modulari che possono essere costruiti molto più velocemente degli enormi reattori attualmente in uso e possono sedersi proprio accanto a data center come quelli che Amazon sta costruendo.

Nessuno di questi piccoli reattori è stato ancora costruito e l’industria ha recentemente avuto alcune battute d’arresto. NuScale, la società più avanti, ha annunciato l’anno scorso che stava cancellando i piani per i suoi primi reattori, in gran parte a causa dell’aumento dei costi. Rebello non si aspetta che nessuno di loro entri in funzione nei prossimi tre anni, ma prevede che anche i piccoli reattori alla fine beneficeranno dell’aumento dei data center. “L’accordo con Amazon convalida il nucleare come un partner solido per i data center”, ha affermato. “Accordi come questo potrebbero portare a un nucleare prima”.


19/03/24 FastCompany: intervista al Ceo di Nvidia

“Negli anni ’20, l’acqua entrò in una turbina e uscì la corrente elettrica. Ora gli elettroni entrano in un generatore e l’intelligenza esce.”

Sto chiacchierando con il CEO di Nvidia Jensen Huang presso la sede centrale del gigante dei chip nella Silicon Valley, dove uno dei suoi moduli di calcolo DGX H100 si trova parzialmente smontato davanti a noi. Riempita con processori incredibilmente veloci e altri componenti all’avanguardia, la scatola, che può costare fino a 500.000 dollari, è un elemento fondamentale dei supercomputer utilizzati da grandi aziende, startup e università per alimentare nuove esperienze di intelligenza artificiale trasformative, e Huang si è rivolto a una precedente rivoluzione tecnologica per spiegarne il significato.

È un confronto evocativo: l’IA in esecuzione su hardware Nvidia cambia la vita di tutti i giorni in profondità come una volta l’elettricità. Ma semmai, sottovaluta l’influenza radicale di Nvidia sul momento attuale. Anche la sua quota di mercato schiacciante per i chip di intelligenza artificiale – l’85%, secondo Raymond James Financial – non trasmette il contributo di Nvidia all’IA come la conosciamo.

Nvidia non è solo nel business di fornire hardware di calcolo sempre più potente e lasciare che tutti gli altri capiscano cosa farne. In una serie di settori, le tecnologie, le piattaforme e le partnership dell’azienda stanno facendo gran parte del lavoro pesante di mettere l’IA al lavoro. In una sola settimana nel gennaio 2024, ad esempio, Nvidia ha riferito di aver iniziato a testare in beta la sua piattaforma di scoperta di farmaci, di aver dimostrato il software che consente ai personaggi dei videogiochi di parlare di dialoghi senza script, di aver annunciato accordi con quattro produttori cinesi di veicoli elettrici che incorporeranno la tecnologia Nvidia nei loro veicoli e di aver presentato una partnership nel settore della vendita al dettaglio volto a sventare il taccheggio organizzato.

Per applicare i suoi chip estremamente versatili alle attività del mondo reale, Nvidia ha già avuto bisogno di immergersi profondamente in queste discipline e molte altre. “Non esiste un chip di sintesi proteica”, dice Huang, a titolo di esempio. “Devi andare a capire la biologia delle proteine e devi capire cosa vogliono fare gli scienziati e come possiamo automatizzare meglio il loro lavoro. E quindi tutti questi diversi algoritmi richiedono una discreta quantità di ricerca.”

Annunciato al GTC 2024, il supercomputer DGX SuperPod AI di Nvidia è alimentato dai nuovi chip GB300 Grace Blackwell dell’azienda. [Foto: Courtesy Nvidia]

La tecnologia Nvidia è un ingrediente così essenziale nel progresso dell’IA che i keynote di Huang alla conferenza degli sviluppatori GTC dell’azienda possono servire come anteprima di dove sta andando l’intero campo. Uno dei suoi grandi temi all’edizione di quest’anno, tenutosi lunedì pomeriggio al SAP Center di San Jose davanti a un pubblico di 11.000, era la robotica. Oltre a passare attraverso i prodotti dell’azienda in quel dominio, con nomi come Gr00t e Thor, ha mostrato video in cui gli esseri umani usavano il software Nvidia per insegnare ai bot come eseguire compiti come far funzionare uno spremiagrumi. Non scrivendo codice, ma semplicemente eseguendoli.

Gli unici ospiti sul palco di Huang durante la sua presentazione di due ore erano nove robot umanoidi, che lo hanno affiancato verso la fine, più due minuscoli cugini di WALL-E sviluppati dalla Disney. Quando ha dichiarato che “il momento ChatGPT per la robotica potrebbe essere proprio dietro l’angolo”, respingere di riflesso l’affermazione come hype non sembrava una scommessa sicura. Dopo tutto, stiamo già vivendo nell’era dell’IA che Nvidia ha previsto anni fa e ha fatto tanto quanto qualsiasi azienda per trasformarsi in realtà.


Conosciuto per la sua caratteristica giacca di pelle nera e i suoi modi affabili, Huang ha guidato Nvidia da quando l’ha co-fondata nel 1993. Allora, l’azienda ha aperto la strada al concetto di unità di elaborazione grafica (GPU), chip ad alte prestazioni per il rendering di giochi 3D e altre applicazioni PC visivamente intensive. Il suo primo chip, rilasciato nel 1995, ha venduto male. Ma la RIVA 128 del 1997 è stata un successo, stabilendo l’azienda come una centrale elettrica della computer grafica.

All’epoca in cui Nvidia stava aumentando, l’IA non era solo lontana nel proprio futuro. L’intera industria tecnologica era scettica sul potenziale della tecnologia, portando a un periodo di disillusione e diminuzione degli investimenti noti come inverno di intelligenza artificiale. Ma Huang sottolinea che gran parte dell’attuale successo dell’azienda deriva dalle scelte che ha fatto all’inizio della sua storia, prima di cogliere esattamente dove avrebbero portato.

“Il futuro, come sempre, si svolge in modo continuo”, dice, diventando filosofico. “Non c’è una vera discontinuità di per sé”. Ad esempio, anche quando le GPU riguardavano esclusivamente la grafica, Nvidia le ha rese programmabili, in modo che potessero fare di più che lanciare pixel predefiniti su un display. Ciò li ha resi piattaforme per se stessi piuttosto che semplicemente aiutanti della CPU di un computer.

Le abilità che Nvidia ha acquisito lungo la strada lo hanno preparato per nuove sfide. “La fisica delle particelle per un videogioco non è dissimile dalla fluidodinamica in una simulazione molecolare”, dice Huang, spiegando come gli insegnamenti di un settore potrebbero essere applicati a un altro. “L’elaborazione delle immagini che usiamo per illuminare una scena nella computer grafica non è diversa dall’elaborazione delle immagini per gli strumenti medici. In molti modi, queste sono tutte matematiche molto simili. E così abbiamo ampliato la nostra apertura, lentamente e sistematicamente.”

Più capaci sono i processori Nvidia, maggiore è il loro potenziale al di là delle immagini. Nel 2006, l’azienda ha introdotto un livello software chiamato CUDA (Compute Unified Device Architecture), che consente agli sviluppatori di sfruttare il muscolo algoritmico delle sue GPU per compiti impegnativi di ogni tipo. Nel giro di pochi anni, i ricercatori di intelligenza artificiale lo stavano usando per ottenere scoperte in settori come il deep learning.

Mentre l’IA è sbocciata in laboratorio, la sua promessa del mondo reale è diventata più chiara e chiara per Huang. Ma all’inizio, convincere i potenziali clienti che sarebbe stato ovunque – e Nvidia sarebbe stata nel suo cuore – è stata una vendita difficile. “Nessuno l’ha capito affatto”, dice Huang con una risata, citando il suo lungo fallimento nel far incuriosire un’azienda automobilistica dall’idea di usare la visione artificiale per lasciare che le auto si guidano da sole: “Pensavano solo che fosse un giocattolo”.

Con il tempo, la visione e la persistenza di Huang hanno dato i loro frutti in modo drammatico. Nell’ultimo anno, dice, la comprensione mondiale di ciò che Nvidia sta facendo “è aumentata di un ordine di grandezza”.

Anche in questo caso, quello che potrebbe sembrare un punto di svolta è davvero il culmine di anni di investimenti pazienti che hanno posizionato Nvidia per il successo mentre la commercializzazione dell’IA è iniziata sul serio. “Una volta che la GPU Nvidia è diventata l’impostazione predefinita per la ricerca, ha finito per diventare l’impostazione predefinita per ciò che è diventata quella ricerca”, afferma Anshel Sag, analista principale di Moor Insights & Strategy.

Uno dei pezzi più storici della ricerca basata su Nvidia è stato un programma sperimentale di intelligenza artificiale chiamato AlexNet. Sviluppato nel 2012 da Alex Krizhevsky in collaborazione con Ilya Sutksever (più recentemente meglio conosciuto come capo scienziato di OpenAI) e Geoffrey Hinton (il “Padrino dell’IA” e ora uno scettico dell’IA vocale), potrebbe insegnare a identificare gli oggetti nelle immagini con una precisione senza precedenti. Vedendo la svolta della visione artificiale che rappresentava, Nvidia ha concluso che in futuro, “il software più importante sarebbe stato gli algoritmi che percepiscono il mondo che ci circonda e manipolano le cose o controllano le cose nel mondo reale”, afferma il Rev Lebardian, un VP che è stato in azienda per 22 anni.

Tra le altre implicazioni, Nvidia ha ritenuto che l’IA del mondo reale avrebbe richiedeto una tecnologia di simulazione più sofisticata. Ad esempio, testare qualcosa come le auto autonome, ora parte della piattaforma automobilistica Drive di Nvidia, potrebbe essere fatto in modo molto più sicuro, rapido ed economico in forma virtuale che sulle strade reali. Nel 2020, l’azienda ha incanalato quella realizzazione in Omniverse, un’offerta basata su cloud dedicata a una delle categorie più calde della tecnologia aziendale: i cloni digitali.

Supervisionato da Lebardian e sfruttando l’esperienza dell’azienda sia nell’intelligenza artificiale che nella grafica 3D, Omniverse consente la creazione di repliche digitali ultra-realistiche di oggetti, posizioni e processi fisici. Il gigante del miglioramento della casa Lowe’s lo sta usando per digitalizzare i suoi negozi per applicazioni come la gestione degli scaffali. BMW ha simulato la sua fabbrica per aiutare a posizionare efficacemente i robot. E la società di intelligenza di chirurgia cerebrale Atlas Meditech ha creato una sala operatoria virtuale che consente ai chirurghi di provare in sicurezza le procedure prima di intraprendere per davvero.

Pochi giorni prima che Nvidia svelasse il nuovo software di Omniverse per la Vision Pro di Apple al GTC, ho avuto modo di provarlo da solo in una sala conferenze presso la sede centrale di Nvidia. La coupé sportiva digitale Nissan Z su larga scala con cui ho interagito, dall’apertura del bagagliaio al sedere al volante, è stata renderizzata nel cloud sull’hardware Nvidia. Ma era così ultra-realistico che potevo leggere la stampa fine in rilievo sulle sue gomme. L’azienda ha impiegato solo poche settimane per costruire il codice Vision Pro necessario, che si fa da cavalcare su un’app di configuratore per auto Nissan creata dallo studio di computer grafica Katana. Eppure è anche il risultato diretto della reazione preveggente dell’azienda ad AlexNet più di un decennio fa.

Come altre iniziative Nvidia, Omniverse beneficia dell’incata dedizione dell’azienda a incontrare i clienti dove si trovano, che si tratti di un centro commerciale suburbano o di un centro medico. “Capiscono l’utente finale meglio di chiunque altro, e questa è davvero la chiave per chi sono e perché hanno così tanto successo”, afferma Peter Rutten, VP del calcolo ad alta intensità di prestazioni presso la società di ricerca IDC.

Il che non vuol dire che l’approccio di Nvidia all’innovazione implichi far bollire una quantità illimitata di oceani da solo. Al suo centro, è una società di piattaforme, dipendente dai partner per finire il lavoro creando esperienze specifiche del settore in cima al suo stack hardware e software.

Non possiamo andare a costruire tutti quegli strumenti e tutte le soluzioni e le applicazioni per tutti in ogni settore con la scala in cui ci triamo”, afferma Lebardian. “Dovremmo essere milioni di persone. Quindi siamo perfettamente felici di lavorare con gli altri, e lo preferiamo.” (Il numero di persone è attualmente di circa 30.000 persone, di trenta volte in più rispetto a quando Lebardian si è unito nel 2002.)

Più di 100 partner offrono prodotti basati su una sola piattaforma di intelligenza artificiale Nvidia: la Clara incentrata sull’assistenza sanitaria, che ha una suite di offerte che abbraccia biofarmaceutiche, immagini, dispositivi e genomica. Tuttavia, sapere semplicemente abbastanza per collaborare efficacemente in così tante categorie ha contribuito a plasmare la forza lavoro dell’azienda. “Abbiamo medici qui”, dice Kimberly Powell, che è entrata a far parte di Nvidia nel 2008 come primo dipendente dedicato alla tecnologia sanitaria ed è ora vicepresidente e direttore generale di quel gruppo. “Abbiamo chimici computazionali. Abbiamo biologi computazionali. Nel corso degli anni, abbiamo assunto esperti di dominio profondo, perché c’è un livello di traduzione linguistica che dobbiamo capire”.


“Nel prossimo decennio, vedremo progressi nell’informatica come non abbiamo mai visto prima”, dice Huang. Si stacca da alcune aree di cui è particolarmente appassionato (tecnologia climatica, biologia digitale, robotica generica) e sottolinea che anche se molti dei recenti risultati di Nvidia sono il risultato di 5-15 anni di investimento, tutti rimangono lavori in corso. Ad un certo punto, i computer quantistici potrebbero superare i supercomputer classici, come quelli basati sulle GPU Nvidia. Ma Huang non si aspetta che ciò accada per un altro decennio o due. Anche allora, è fiducioso che i computer più potenti del mondo saranno gli ibridi classici-quantistici, un’area di ricerca che l’azienda sta già perseguendo.

L’ottimismo di Wall Street che Nvidia possa continuare a cavalcare l’onda dell’IA si riflette nella sua capitalizzazione di mercato, che ha superato 1 trilione di dollari nel maggio 2023, mettendo il produttore di chip nel cielo rarefatto di Microsoft, Apple, Alphabet e Meta. A febbraio, Nvidia ha annunciato un fatturato del 2023 di 60,8 miliardi di dollari, in aumento del 126% rispetto al 2022. Lo stesso mese, la sua capitalizzazione di mercato ha raggiunto i 2 trilioni di dollari, dietro solo a Microsoft e Apple.

Questi vasti numeri sono in parte una scommessa sul mercato generale dell’IA, che la società di ricerca Spherical Insights prevede salirà a 2,76 trilioni di dollari entro il 2032. Anche se non ci sono garanzie che Nvidia continuerà a svolgere un ruolo essenziale, è difficile trovare qualcuno disposto a prevedere che non lo farà. “Nvidia ha un fossato molto profondo”, afferma Jack Hidary, CEO della società di intelligenza artificiale e software quantistico SandboxAQ, un partner Nvidia. “E mi aspetto che quel vantaggio competitivo non solo rimanga, ma cresca effettivamente nei prossimi quattro o cinque anni”.

Alla domanda sugli scenari in cui altri giocatori di intelligenza artificiale potrebbero recuperare, Huang indica l’ubiquità di Nvidia, che ha richiesto anni per essere raggiunta e non sarebbe facile da replicare. “Siamo l’unica architettura al mondo disponibile in ogni cloud”, dice. “È disponibile in cloud privati, è in loco, è al limite nelle auto, nei robot e nelle fabbriche”.

In effetti, così tanti clienti desidano le GPU Nvidia, per il gioco e il mining di criptovaluta, nonché l’intelligenza artificiale, che la domanda ha spesso superato l’offerta. Questa è un’opportunità per altre aziende, almeno se hanno le tasche straordinariamente profonde necessarie per entrare nel business dei semiconduttori. A febbraio, Bloomberg ha riferito che la giapponese SoftBank sta progettando di raccogliere fondi per un’impresa di chip AI da 100 miliardi di dollari per integrare la sua risorsa esistente Arm, la cui tecnologia è concessa in licenza da molte società, tra cui Nvidia. Poi c’è il CEO di OpenAI Sam Altman, che secondo quanto riferito ha cercato 7 trilioni di dollari per lanciare una nuova società di chip.

Più immediatamente, Nvidia affronta già rivali sotto forma di nuovi assumi come Cerebras, Graphcore, Groq e SambaNova. Ma piuttosto che sfidare a testa alta il gorilla 800-pound dell’hardware AI, i nuovi arrivati sono meglio cercare di scolpirsi le proprie nicchie, dice Rutten di IDC. Ad esempio, invece di improrsi sul mercato per la formazione di modelli di intelligenza artificiale, in cui l’hardware Nvidia potrebbe rivelarsi impossibile da spostare, la startup di chip Recogni si sta concentrando sull’inferenza: il processo di estrazione di informazioni da un modello e di sfruttarle per uno scopo particolare, come un sistema avanzato di assistenza alla guida.

“Nvidia sta usando la stessa soluzione per la formazione e l’inferenza”, spiega il CEO di Recogni Marc Bolitho. “Stiamo lavorando per una soluzione appositamente costruita e ottimizzata per l’inferenza dell’IA e vediamo che il mercato cresce molto rapidamente con l’aumentare della base di utenti per l’IA generativa”. Gli investitori vedono abbastanza potenziale in questo tipo di concorrenza mirata che Recogni è stato in grado di annunciare un round di finanziamento di 102 milioni di dollari a febbraio.

Un’altra minaccia potenzialmente importante risiede nella gran voglia delle enormi aziende tecnologiche di controllare i loro stack tecnologici da cima a fondo. Amazon, Microsoft, Google e Meta hanno riversato risorse nello sviluppo di chip personalizzati, forse prefigurando un giorno in cui sono più pienamente responsabili dei propri destini di IA. Google ha viaggiato particolarmente lontano lungo questa strada con le sue Tensor Processing Units, attualmente nella loro quinta generazione. E lo scorso maggio, Meta ha rivelato il suo primo processore AI, il Meta Training and Inference Accelerator. Su misura per il processo di scelta di contenuti e annunci da visualizzare nei feed dei social network, potrebbe essere un chip che nessuno tranne Meta progetterebbe.

Huang non esclude tali esercizi nell’indipendenza dell’IA. “Se le grandi aziende volessero costruire il proprio silicio, noi aumentiamo ancora”, dice. “Ogni volta che ci hanno nel loro cloud, portiamo loro molti e molti clienti. Portiamo molti sviluppatori a loro.” Partecipare al vibrante ecosistema di Nvidia, sostiene, è in definitiva un atto di interesse personale, una posizione che il continuo abbraccio della grande tecnologia sembrerebbe confermare.

A gennaio, quando Mark Zuckerberg si è recato su Instagram per fornire un aggiornamento video sulla ricerca sull’intelligenza artificiale di Meta, non ha nemmeno menzionato gli sforzi di progettazione dei chip dell’azienda. Invece, ha parlato in termini che tutti nell’industria tecnologica potrebbero capire, vantandosi di un piano per distribuire 350.000 GPU Nvidia H100 entro la fine del 2024, un impegno che gli costerà miliardi. Anche per i titani dell’IA, basarsi su ciò che Nvidia ha creato – più ambizioso, meglio è – è spesso il modo in cui avvengono i progressi.


19/03/24 Briefing.com: NVIDIA soccombe alla presa di profitto sulla scia della conferenza GPU, ma le prospettive sono più brillanti che mai (NVDA)

Di fronte a una affollatissima audience alla GPU Technology Conference a San Jose, NVIDIA (NVDA) ha presentato il suo supercomputer AI di nuova generazione, il DGX SuperPod, che sarà alimentato da un nuovo processore chiamato Blackwell. Dire che questo evento è stato molto atteso sarebbe un’importante eufemismo e il meteorico aumento del 75% da inizio anno del titolo rispecchia quell’entusiasmo. La debolezza iniziale del titolo, quindi, è più la funzione di qualche consolidamento e presa di profitto, piuttosto che una vera delusione per quanto riguarda la raffica di annunci di NVDA che escono da questo evento.

  • In effetti, i due principali takeaway di questa mattina sono che Blackwell è una piattaforma significativamente più potente del suo predecessore, Hopper, e che NVDA è solo nei primi inning di questo boom di crescita basato sull’IA. Sul primo punto, NVDA ha dichiarato che i Superchip GB200 – che alimentano il supercomputer DGX AI e includono 72 GPU Blackwell – offrono un aumento delle prestazioni fino a 30 volte rispetto alla GPU NVIDIA H100 Tensor Core per carichi di lavoro di inferenza del modello linguistico di grandi dimensioni.
  • Su quest’ultimo punto, NVDA ha scatenato una raffica di comunicati stampa, annunciando che molte aziende tecnologiche leader stanno espandendo le loro partnership e collaborazioni con NVDA per scalare le loro capacità di intelligenza artificiale generativa. Alcuni standout includono Google (GOOG) Cloud, Amazon (AMZN), NetApp (NTAP) e CrowdStrike (CRWD). Quando il CEO di NVDA Jensen Huang ha commentato lo scorso trimestre che l’informatica accelerata e l’IA generativa hanno raggiunto il punto di svolta, questa serie di annunci incapsula davvero questa affermazione.
  • NVDA in realtà non produce i suoi chip. Tale compito è esternalizzato a Taiwan Semiconductor Manufacturing (TSM), che sta anche vivendo una reazione sell-the-news dopo che le azioni hanno raggiunto livelli record la scorsa settimana.
  • Guardando oltre il calo di oggi in entrambe le azioni, è difficile immaginare che la debolezza sarà duratura, dato che il lancio di Blackwell sembra destinato a diventare il prossimo potente catalizzatore di crescita per entrambe le società. Blackwell sarà sul mercato entro la fine dell’anno e dovrebbe avere un impatto immediato e sostanziale sul segmento Data Center di NVDA. Forse l’unico fattore che trattiene NVDA sarà la catena di approvvigionamento, che potrebbe non essere abbastanza robusta per gestire la domanda alle stelle.
  • Grazie al successo dilagante della GPU Hopper di NVDA, il segmento Data Center è stato la star dello spettacolo nell’ultimo anno. Nel quarto trimestre, le entrate del centro dati sono aumentate del 409% all’anno a 18,4 miliardi di dollari, anche se le vendite in Cina sono diminuite in modo significativo a causa delle restrizioni commerciali. Con il lancio di Blackwell, le opportunità di mercato si espandono ulteriormente poiché il processore è in grado di eseguire azioni molto più complesse, come la generazione di video 3D su comando.

La linea di fondo è che NVDA sta continuando a progredire attraverso un modello di consolidamento tanto bisognoso dopo l’enorme rally del titolo, ma le prospettive di crescita rimangono più brillanti che mai uscendo dalla sua conferenza.


04/03/24 Forbes: Anthropic rilascia Claude 3, un modello che sostiene può battere il migliore di OpenAI

In un’intervista, i fondatori Dario e Daniela Amodei hanno detto a Forbes che il nuovo modello incentrato sull’impresa di Anthropic, pubblicato lunedì, supera i rivali con GPT-4 e Gemini 1.0 Ultra di Google.

cofondatori e fratelli Dario Amodei e Daniela Amodei affermano che il rilascio di Claude 3 è un altro segno che “Anthropic è più un’azienda che un’azienda di consumo”.

Anthropic ha annunciato oggi una nuova serie di modelli in grande linguaggio che la società di intelligenza artificiale sostiene siano i più intelligenti del mondo fino ad oggi, superando le offerte rivali di OpenAI e Google.

Chiamato Claude 3, la nuova famiglia di Anthropic è disponibile in tre versioni – Opus, Sonnet e Haiku – che variano in base alle prestazioni e al prezzo. Opus, la versione più potente e costosa da eseguire, ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google attraverso una serie di benchmark che misurano l’intelligenza, ha detto la società. It e Sonnet, l’offerta di medio livello, sono stati resi disponibili lunedì, mentre Haiku sarà rilasciato in una data annunciata successiva.

In un’intervista, il cofondatore e CEO Dario Amodei ha detto che la famiglia di modelli è stata progettata pensando a diversi casi d’uso aziendali. “Claude 3 Opus è, almeno secondo le valutazioni, per molti aspetti il modello più performante al mondo in una serie di compiti”, ha aggiunto.

Su una serie di soggetti di test popolari tra cui le conoscenze generali di livello universitario (MMLU), la matematica della scuola elementare (GSM8K), il codice informatico (HumanEval) e la conoscenza delle domande e risposte (ARC-Challenge), Claude 3 Opus ha superato il GPT-4 di OpenAI e il Gemini 1.0 Ultra di Google, per i benchmark condivisi dall’azienda. Sul benchmark general-knowledge, Claude 3 Opus ha anche superato Mistral Large, il modello top-line rilasciato dall’unicorno AI open-source Mistral, pubblicato la scorsa settimana.

La versione di Claude 3 che la maggior parte degli utenti vedrà, tuttavia, Claude 3 Sonnet, si è comportata più alla pari con GPT-4: avanti su alcuni benchmark, indietro su altri. E Amodei ha ammesso che i benchmark di Anthropic non hanno tenuto conto dei recenti aggiornamenti di OpenAI e Google (GPT-4 Turbo e Gemini 1.5 Pro) poiché i loro colleghi non hanno ancora pubblicato le valutazioni dei test corrispondenti. “Sarei sorpreso se non ci esibissimo in modo competitivo”, ha detto.

A 15 dollari per milione di token di input – equivalente al testo di 2.500 pagine di libro – e 75 dollari per milione di token di output, Claude 3 Opus è più costoso della versione di anteprima del GPT-4 Turbo di OpenAI, che costa rispettivamente 10 e 30 dollari per milione di token. Amodei e la cofondatrice e sorella Daniela Amodei hanno detto a Forbes che si aspettano che Opus sia utilizzato da aziende che hanno bisogno delle prestazioni più all’avanguardia per funzioni come l’analisi dei dati complessi e la ricerca biomedica.

Claude 3 Sonnet, in confronto – che è cinque volte più economico – avrebbe senso per la maggior parte delle attività, hanno aggiunto, con usi che vanno dalla ricerca e dal recupero attraverso grandi archivi di dati, alle previsioni delle vendite e al marketing mirato e alla generazione di codice.

Il modello a basso costo, Claude 3 Haiku, costerà solo una frazione di questo, utile per le interazioni dal vivo con i clienti, la moderazione dei contenuti e la gestione dell’inventario logistico. La versione Haiku ha ancora funzionato alla pari con l’ultima versione di punta di Anthropic di Claude 2, il modello predecessore rilasciato solo otto mesi fa, ha detto Dario Amodei: “È molto competitivo con altri modelli della stessa classe. Questo è un grande guadagno”.

Tutti e tre i modelli consentiranno richieste fino a 200.000 token (approssimativamente delle dimensioni di un libro), più dei 128.000 supportati da GPT-4 Turbo. Gli utenti di Opus saranno in grado di richiedere 1 milione di limiti di token per alcuni usi, ha detto Anthropic, corrispondente al tetto che Google ha offerto ad alcuni utenti di Gemini 1.5 Pro.

Formato da sette ricercatori che hanno lasciato OpenAI, Anthropic ha storicamente mirato a separarsi dal suo progenitore e da altre aziende del settore attraverso un’attenzione più profonda alla sicurezza dell’IA. Alcuni addetti ai lavori del settore si sono chiesti se questo abbia rallentato l’azienda e messo in discussione le prestazioni del suo modello negli ultimi mesi, anche sui social media. Su una popolare classifica crowdsourcing di valutatori umani, Claude 1 ha attualmente una valutazione più alta rispetto ai suoi successori Claude 2.0 e il Claude 2.1 aggiornato.

Dario Amodei si è scrollato di dosso quelle valutazioni come una sola valutazione basata sull’uomo di un numero finito di compiti dei consumatori. Ha ammesso che mentre Claude 2 era più sicuro del suo predecessore in un modo che soddisfaceva i ricercatori di Anthropic, ciò è venuto a costo di maggiori “rifiuti errati” o rifiuti di suggerimenti che il modello riteneva si avvicinassero troppo ai suoi guardrail di sicurezza. La famiglia Claude 3 si comporta molto meglio dei predecessori nel non servire quei rifiuti, ha affermato Anthropic. I prompt innocui che si avvicinano al contenuto ai suoi limiti di sicurezza vengono rifiutati circa il 10% delle volte, rispetto al 25% di Claude 2.1. “Ora stiamo facendo progressi verso un maggiore equilibrio tra i due, qualcosa che ottiene il meglio di entrambi i mondi”, ha detto Amodei. “È davvero difficile tracciare un confine complesso nel modo giusto. Cerchiamo sempre di farlo meglio.”

Mentre aziende come InflectionCharacter.AI e persino OpenAI si sono avventurate ulteriormente nei casi d’uso dei consumatori, Anthropic si sta concentrando sui clienti aziendali. Gli utenti del suo chatbot consumer gratuito, chiamato anche Claude, avranno ora accesso a Sonnet, mentre le persone che desiderano provare Opus dovranno abbonarsi alla sua versione a pagamento da 20 dollari al mese. Ma le versioni di Claude 3 sono state fatte più per i casi d’uso aziendali in mente, ha detto Daniela Amodei. I clienti di Claude includono le società tecnologiche Gitlab, Notion, Quora e Salesforce (un investitore antropico); il gigante finanziario Bridgewater e il conglomerato SAP, nonché il portale di ricerca aziendale LexisNexis, il telco SK Telecom e il Dana-Farber Cancer Institute.

Tra i primi utenti di test Claude 3, il produttore di software di produttività Asana ha trovato un miglioramento del 42% nel tempo di risposta iniziale, ha detto il dirigente focalizzato sull’IA Eric Pelz in una dichiarazione. La collega società di software Airtable ha affermato di aver integrato Claude 3 Sonnet nel proprio strumento di intelligenza artificiale per aiutare a creare contenuti e riepilogare i dati più velocemente.

Per quanto sia quanto è costato l’allenamento di Claude 3 – quanto computing e per quanto tempo – i cofondatori di Anthropic hanno rifiutato di dire. Mentre Claude 2 è stato rilasciato lo scorso luglio, Amodei ha detto che non era un omaggio, poiché l’azienda a volte allena più modelli contemporaneamente, a seconda della disponibilità di cluster di unità di elaborazione grafica o GPU.

Anthropic – che ha recentemente raccolto 750 milioni di dollari con una valutazione di 18,4 miliardi di dollari, come riportato da Forbes – prevede di aggiungere funzionalità tra cui l’interpretazione del codice, le funzioni di ricerca e le citazioni delle fonti nei prossimi mesi. “Continueremo a scalare i nostri modelli e a renderli più intelligenti, ma continueremo anche a cercare di rendere i modelli più piccoli ed economici più intelligenti ed efficienti”, ha detto Amodei. “Ci saranno aggiornamenti grandi e piccoli durante tutto l’anno”.


22/02/24 Barron’s: Nvidia sta vendendo picconi in una corsa all’oro

Le prestazioni stellari di Nvidia e le prospettive sbalorditive  spingono i commentatori alla ricerca di un confronto storico appropriato.

È come il boom delle dot-com degli anni ’90? Quella è stata l’ultima volta che le azioni tecnologiche sembravano entusiasmare così tanto le persone. Ha scatenato un altro Roaring 20s, parallelo a quello che è successo nello stesso decennio del secolo scorso? Il rally che le azioni tecnologiche hanno acceso potrebbe diffondersi. Prima che Nvidia riportasse i guadagni, 10 degli 11 settori dell’S&P 500 sono aumentati mercoledì.

Forse la migliore analogia è la corsa all’oro della California nel XIX secolo. Come dice il proverbio, le persone che fanno più soldi sono quelle che vendono pale.

Questo è ciò che sta facendo Nvidia. L’intelligenza artificiale è la miniera d’oro. Non è ovvio quali aziende faranno le maggiori fortune con l’IA, ma avranno bisogno dei chip ad alta potenza che solo Nvidia offre per iniziare.

Ecco perché l’azione sembra essere un investimento così certo: l’unico problema che sembra trattenere Nvidia è se può fare abbastanza semiconduttori per soddisfare la domanda che sta ancora crescendo più velocemente delle aspettative. Anche se col tempo affronterà sicuramente una feroce concorrenza man mano che i rivali colmeranno il ritardo.

I risultati della società hanno di gran lunga oscurato le veline della Federal Reserve, che ha suggerito che i tagli ai tassi di interesse potrebbero essere ancora molto lontani. Se l’hype dell’IA e i tassi di interesse più alti degli ultimi decenni stanno avendo una partita di wrestling, l’IA sembra tenere la Fed per il collo.

Naturalmente, i riferimenti storici per l’attuale frenesia faranno confronti su come tutto finisce. Ovviamente, il boom delle dot-com ha portato a un crollo spettacolare. I ruggenti anni ’20 sono stati peggiori, culminando nella Grande Depressione.

Ma la fine della corsa all’oro della California non è stata così drammatica. È arrivato al termine quando l’argento è stato scoperto nel vicino Nevada, semplicemente inviando cercatori che cercavano di farlo diventare ricco in una destinazione diversa.

Cresce l’aspettativa che Chip Maker batteranno le attese

Nvidia ha dimostrato che lo slancio di un boom delle vendite stimolato dall’intelligenza artificiale è ancora forte, triplicando le vendite nell’ultimo trimestre e prevedendo entrate migliori del previsto per quello attuale. Il CEO Jensen Huang ha affermato che l’informatica accelerata e l’IA generativa hanno raggiunto un punto di svolta, con una domanda in aumento ovunque.

  • Le entrate del quarto trimestre hanno raggiunto i 22 miliardi di dollari, superando le aspettative. Ha previsto 24 miliardi di dollari di vendite per il suo trimestre in corso e ha indicato l’aumento della domanda dalla sua attività di data center, dove le vendite sono salite di cinque volte rispetto all’anno precedente.
  • Nvidia ha affermato che l’aumento dei risultati dei data center riflette maggiori spedizioni di chip Nvidia Hopper, che vengono utilizzati per la formazione e l’inferenza di modelli di intelligenza artificiale di grandi dimensioni e applicazioni di intelligenza artificiale generativa. I grandi fornitori di cloud computing hanno rappresentato oltre la metà delle entrate del centro dati per il trimestre.
  • Il direttore finanziario Colette Kress ha dichiarato in un commento scritto che le vendite di chip per data center da parte di Nvidia in Cina sono diminuite in modo significativo nel quarto trimestre a causa del rafforzamento delle restrizioni statunitensi sulle vendite lì. Il commento non ha delineato le dimensioni del calo.
  • Nel gioco, le entrate del quarto trimestre di Nvidia di 2,9 miliardi di dollari sono aumentate del 56% rispetto all’anno precedente. Nella sua sezione di visualizzazione professionale, che si occupa di sistemi che richiedono un’intensa elaborazione grafica, come la progettazione 3-D, le entrate sono raddoppiate a 463 milioni di dollari e nelle entrate della sua divisione automobilistica sono diminuite del 4% rispetto all’anno precedente a 281 milioni di dollari.

Cosa c’è dopo: Kress ha detto che la domanda per i futuri prodotti Nvidia è robusta. L’azienda si aspetta che i prodotti di prossima generazione siano limitati dall’offerta poiché la domanda supera di gran lunga l’offerta, ha detto agli analisti. Il prossimo chip AI, il B100, dovrebbe essere rilasciato nei prossimi trimestri.

— Tae Kim e Liz Moyer



05/02/24 Barron’s: Palantir sale dopo gli utili. Il CEO vede un mondo di “aumento del caos e del pericolo””.”

DaEric J. SavitzSegui

Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi. 

Forte rialzo di Palantir  nel dopo mercato dopo che la società ha registrato una crescita dei ricavi del quarto trimestre migliore del previsto.

La forte domanda da parte dei clienti commerciali dell’azienda compensa le entrate governative più leggere del previsto.

Il titolo è aumentato fino al 18% nel tardo trading a seguito del rapporto sugli utili.

Per il trimestre, Palantir ha registrato entrate di 608 milioni di dollari, in aumento del 20% rispetto a un anno fa, e superiore alla stima di 603 milioni di dollari di Wall Street. I risultati suggeriscono un aumento degli affari recenti; le entrate sono cresciute del 17% nel terzo trimestre.

Su base rettificata, Palantir ha guadagnato 8 centesimi per azione, in linea con le stime del consenso di Wall Street tracciate da FactSet.

Le entrate commerciali di Palantir sono state di 284 milioni di dollari, in aumento del 32% rispetto a un anno fa, e in anticipo rispetto alla previsione di Wall Street di 271 milioni di dollari. Ciò include una crescita del 70% del business commerciale statunitense, una forte accelerazione dall’espansione del 33% nel terzo trimestre, a 131 milioni di dollari.

https://247618427e3be929b9c353b9c4a848c8.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html

In un’intervista con Barron’s, il CEO Alex Karp ha detto che l’attività commerciale del trimestre è stata “roboante, ballerina, incomprensibile”.

Le entrate dal settore pubblico sono state di 324 milioni di dollari, in aumento dell’11%, ma timide rispetto alle previsioni degli analisti per 333 milioni di dollari. Karp dice che l’attuale situazione geopolitica, con disordini in Medio Oriente, guerra in Ucraina e una relazione controversa tra Stati Uniti e Cina, andrà a beneficio di Palantir a lungo termine.

“Il governo è un business complicato”, dice Karp. “Le parti del governo che si stanno preparando ad andare in guerra stanno usando Palantir o stanno per usare Palantir”.

Durante il quarto trimestre, Palantir ha chiuso 103 accordi tra clienti commerciali e governativi per un valore di oltre 1 milione di dollari, dice Karp, il doppio rispetto al trimestre di un anno fa.

Le azioni di Palantir sono aumentate del 98% negli ultimi 12 mesi, potenziate dall’eccitazione per l’intelligenza artificiale.

“I nostri risultati riflettono sia la forza del nostro software che la domanda crescente che stiamo vedendo in tutti i settori e settori per le piattaforme di intelligenza artificiale, compresi i grandi modelli linguistici, che sono in grado di integrarsi con il groviglio di infrastrutture tecniche esistenti che le organizzazioni stanno costruendo da anni”, ha detto Karp in una lettera agli azionisti.

Per alcuni investitori, l’acquisto di azioni Palantir porta sfumature politiche. Originariamente finanziata in parte da In-Q-Tel, il braccio di capitale di rischio della CIA, la società è rimasta un aperto sostenitore dell’esercito statunitense. Nel 2020, Palantir ha trasferito la sua sede centrale a Denver da Palo Alto, in parte a causa della sensazione dell’azienda che la sua attenzione commerciale non si adattasse alla Silicon Valley.

Karp è stato anche esplicito nel suo sostegno all’esercito israeliano, un cliente di Palantir, nella sua attuale guerra con Hamas a Gaza.

“Abbiamo costruito l’azienda attorno al presupposto che il mondo non fosse stabile, che i pregiudizi non stavano scomparendo”, ha detto Karp a Barron. “L’Occidente deve combattere per avere successo, e se l’Occidente combatte per avere successo, puoi vincere”.

“La ragione per cui il mondo è così pericoloso è perché la Cina sta ovviamente notando che l’America è l’unico paese al mondo con crescita del PIL. E accelererà a causa di questi progressi tecnologici che stanno praticamente accadendo esclusivamente in questo paese. Averai una massiccia crescita del PIL nel futuro dell’America e avrai una crescita del PIL in calo, o forse zero o appena al di sopra dell’inflazione, in Europa, che porterà a una massiccia instabilità”.

Karp vede rischi geopolitici in aumento intorno alla parola. “I nostri avversari presumono correttamente che l’America sarà ancora più forte domani di oggi. “Quindi sono razionali per agire””, dice.” “La situazione è molto più pericolosa a Taiwan di quanto la gente si renda conto, perché è razionale per la Cina agire. Ed è più pericoloso in Medio Oriente di quanto la gente pensi”.

Karp dice di capire perché ci sono scettici su Palantir.

“Perché se ho ragione, le loro attività e i loro investimenti falliranno tutti”, dice. “E se hanno ragione, è un mondo migliore” Ma, aggiunge Karp, “Sembra certamente che siamo in un mondo di caos e pericolo crescente”.

Per il trimestre di marzo, Palantir vede entrate che vanno da 612 milioni a 616 milioni di dollari, poco prima del consenso di Wall Street di 617 milioni di dollari. La società vede un reddito rettificato da operazioni compreso tra 196 e 200 milioni di dollari, al di sopra del consenso di 172 milioni di dollari.

Per il 2024, Palantir prevede entrate comprese tra 2,652 miliardi di dollari e 2,668 miliardi di dollari; gli analisti sono a 2,643 miliardi di dollari. La società vede un reddito rettificato per l’intero anno da operazioni comprese tra 834 milioni di dollari e 850 milioni di dollari, in anticipo del consenso a 747 milioni di dollari. La società prevede una crescita delle entrate commerciali degli Stati Uniti per l’anno di almeno il 40%. Palantir prevede un flusso di cassa libero rettificato per il 2024 compreso tra 800 milioni di dollari e 1 miliardo di dollari, al di sopra del consenso a 658 milioni di dollari.

Scrivi a Eric J. Savitz su eric.savitz@barrons.com


05/02/24 Barron’s: Nvidia e questo altro titolo sono le migliori scommesse sulla domanda di chip AI, dice l’analista

DaTae KimSegui

Gli strumenti di programmazione di Nvidia si aggiungono al fascino dei suoi chip. 

Due titoli legati ai chip trarrrano il massimo dalla crescente domanda di semiconduttori di intelligenza artificiale, afferma Raymond James.

Venerdì, l’analista Srini Pajjuri ha ribadito le valutazioni Strong Buy su Nvidia  e ASML, citando come le grandi aziende tecnologiche sembrano fare progressi nel guadagnare denaro da progetti di intelligenza artificiale generativa. Strong Buy è il punteggio più alto di Raymond James per le azioni.

“Rimaniamo rialzisti sull’adozione dell’IA in tutti i settori e vediamo una lunga strada per i fornitori di componenti”, ha scritto. “Stimiamo che le entrate semi relative all’IA della generazione siano cresciute del 200% nel 2023 e ci aspettiamo che raddoppi nel 2024”.

Nel trading di lunedì, le azioni Nvidia sono aumentate del 3,6% a 685,19 dollari, mentre le azioni ASML sono scese dello 0,2% a 887,78 dollari.

Nvidia è il principale produttore di chip AI per i centri dati. Sia le start-up che le aziende hanno preferito i suoi prodotti perché l’azienda ha una solida piattaforma di programmazione, CUDA, che fornisce strumenti che rendono più facile lo sviluppo di applicazioni AI.

ASML, nel frattempo, rende le macchine di litografia ultravioletta estrema fondamentali per la produzione di semiconduttori AI. I clienti dell’azienda olandese includono Taiwan Semiconductor Manufacturing, Samsung Electronicse Intel.

“L’impatto della monetizzazione dell’IA (sui guadagni dell’azienda hyperscaler) è stato molto più evidente in questa stagione degli utili”, ha scritto, riferendosi ai grandi fornitori di cloud computing.

L’analista ha notato che queste società di cloud-computing hanno commentato positivamente la spesa quando hanno riportato i loro guadagni la scorsa settimana. Microsoft  ha detto che si aspetta che le spese in conto capitale “aumentino materialmente” nel trimestre in corso e che intende continuare a investire in modo aggressivo. Alphabet ha detto che il suo capex sarebbe “notevolmente più grande” nel 2024 che nel 2023.

Le tendenze nella domanda di intelligenza artificiale sono dietro quegli investimenti in infrastrutture, hanno detto le aziende.


25/01/24 Barron’s: Le azioni IBM saltano al massimo di 11 anni grazie alla scommessa sull’AI che inizia a pagare

DaEric J. SavitzSegui

Se vuoi vedere il vero potere dell’intelligenza artificiale, non guardare oltre il rally mozzafiato di giovedì in azioni di quel nuovo up dell’informatica di 113 anni, IBM

Mercoledì scorso, IBM ha pubblicato risultati finanziari del quarto trimestre che hanno leggermente superato le stime di Wall Street. Ma la vera notizia era altrove. IBM ha affermato che il suo “libro degli affari” per i carichi di lavoro di intelligenza artificiale è raddoppiato in sequenza nel trimestre rispetto alle “basse centinaia di milioni” che ha riportato nel terzo trimestre, implicando circa 400 milioni di dollari. Barron ha scritto ripetutamente che IBM è uno dei giocatori più sottovalutati sulla tendenza dell’IA e gli investitori ora sembrano prendere piede.

L’altra chiave della storia di IBM è il free cash flow. La società aveva previsto 10,5 miliardi di dollari di flusso di cassa libero per l’anno e ha superato quel numero, raggiungendo 11,2 miliardi di dollari. Inoltre, IBM ha previsto un aumento di 12 miliardi di dollari di flusso di cassa libero per il 2024, circa 1 miliardo di dollari in più di quanto la Street avesse previsto.

IBM ha anche detto che dovrebbe pubblicare entrate per il 2024 a metà una cifra – chiamalo dal 4% al 6% – che era al di sopra del consenso di Street al 3%. IBM sta raggiungendo i numeri di una previsione a lungo termine dell’ottobre 2021 che ha definito la strategia di turnaround dell’azienda, che includeva una doppia attenzione al cloud ibrido e all’intelligenza artificiale. Il piano dell’azienda ha richiesto una crescita ad alta cifra nella consulenza e una crescita a mezza cifra nel software. Ed è quello che sta offrendo.

IBM ha anche detto mercoledì che prevede di assumere alcuni costi aggiuntivi, riducendo la sua forza lavoro di un paio di per cento, poiché si adatta sia alle proprie efficienze dall’uso dell’IA che per aumentare gli esperti di intelligenza artificiale nei suoi bracci di consulenza e software.

The Street ha apprezzato quello che ha sentito da IBM: a loro è piaciuto molto. Le azioni IBM sono aumentate di quasi il 13% nelle recenti negoziazioni, a 196,43 dollari. Se quel prezzo rimane, sarebbe il livello di chiusura più alto del titolo da giugno 2013. IBM è ora entro il 5% del suo massimo record di chiusura di 206,12 dollari, raggiunto il 15 marzo 2013. Il rally di oggi è la più grande mossa di un giorno del titolo dal luglio 2000. Contribuendo con più di 140 punti alla Dow Jones Industrial Avwrage il titolo sta mantenendo da sola l’indice blue-chip nel verde.

C’erano alcuni punti delicati nel rapporto: le entrate del software in particolare erano leggermente al di sotto delle stime di Street. Ma gli analisti sono rimasti colpiti dai numeri in generale e dai risultati del free-cash-flow in particolare.

L’analista di BofA Global Research Wamsi Mohan ha ripetuto il suo rating Buy sulle azioni IBM e ha aumentato il suo prezzo obiettivo sul titolo a 200 dollari, da 170 dollari. Mohan ha osservato che la guida del 2024, in particolare sul flusso di cassa libero, era “molto migliore del previsto”, riflettendo una combinazione di maggiore redditività e minori esigenze di cassa per i suoi piani pensionistici, compensate in parte da maggiori spese in conto capitale. “L’inversione di tendenza di IBM continua, con un portafoglio difensivo, un rendimento dei dividendi attraente e un portafoglio di intelligenza artificiale sottovalutato”, ha scritto.

L’analista di Melius Research Ben Reitzes, che ha un rating Buy e un prezzo obiettivo di 224 dollari sul titolo, afferma che il trimestre era “tutto sul flusso di cassa”. Pensa che il titolo dovrebbe continuare a muoversi più in alto, notando in particolare che la società sta crescendo molto più velocemente nella sua attività di consulenza rispetto alla rivale Accenture 

Egli osserva che IBM ha scambiato con uno sconto del 40% con Accenture su base multipla principe/guadagni del 2024.

“Gli investitori sono ancora nelle prime fasi di realizzazione di IBM ha remixato la sua attività per guidare l’accelerazione fino al 2025”, scrive Reitzes. “La crescita a una cifra media di Big Blue e la crescente rilevanza dell’IA dovrebbero renderla più vicina a un multiplo di mercato”.

Scrivi a Eric J. Savitz su eric.savitz@barrons.com


16/01/24 Forbes: Come una società di chip in difficoltà ha beneficiato delle ambizioni di intelligenza artificiale degli investitori mediorientali

ILLUSTRAZIONE DI ANGELICA ALZONA PER FORBES; GRAFICA DI NATALJA CERNECKA/GETTY IMAGES

Mentre gli Stati Uniti limitano le vendite di chip alla regione a causa delle preoccupazioni della Cina, Blaize, con sede in California, sta progettando di andare in pubblica attraverso uno SPAC sostenuto da investitori mediorientali.

Di David Jeans, Staff Forbes


Per più di un decennio, una società di semiconduttori con sede in California lanciata dagli ingegneri Intel ha operato nell’oscurità, sviluppando un chip che sperava potesse intaccare il business dell’edge computing di Nvidia. Ma anche dopo che la società, Blaize, ha raccolto più di 200 milioni di dollari da società di venture capital come GGV e l’investitore tecnologico Lane Bess, l’anno scorso aveva bisogno di più capitale e i suoi investitori esistenti non erano disposti a fornire di più. “Sono tornati da me e mi hanno detto: ‘Puoi mettere più soldi per farci andare avanti?'” Bess, che ha investito circa 25 milioni di dollari, ha detto a Forbes. “E o era quello o fondamentalmente scriviamo una perdita”.

Ma la scorsa estate, è emersa una terza opzione: un gruppo di investitori mediorientali con un crescente interesse per l’IA. Guidato da Shahal Khan, che ha curato l’acquisizione nel 2018 del Plaza Hotel di Manhattan, il gruppo stava investendo miliardi in iniziative di intelligenza artificiale con l’obiettivo di trasformare gli stati del Golfo in un hub tecnologico preminente. I chip di Blaize – che potrebbero fornire potenza di calcolo edge per qualsiasi cosa, dai filmati di droni militari ai veicoli autonomi – aiuterebbero a rafforzare queste ambizioni.

CEO di Blaize Dinakar MunagalaBLAIZE

Ora, Blaize è destinata ad essere quotata attraverso una fusione SPAC con una società di assegni in bianco guidata da Khan, BurTech, con un valore aziendale di 894 milioni di dollari, e dovrebbe portare 71 milioni di dollari in nuovo capitale, ha detto la società il mese scorso; prevede di quotarsi sul NASDAQ nel secondo trimestre del 2024. “Il motivo per cui ci abbiamo investito è stato che molti dei miei LP provengono dal Medio Oriente”, ha detto Khan a Forbes, compresi i family office delle famiglie reali dell’Arabia Saudita, degli Emirati Arabi Uniti e del Qatar. “E stanno investendo un’enorme quantità di denaro nella costruzione di quello che pensano sarà probabilmente uno dei principali hub di supercomputer del pianeta”.

I fondi sovrani del Golfo sono stati a lungo finanziatori per le startup della Silicon Valley e le tecnologie di intelligenza artificiale. Ma come società di chip americana, i nuovi legami di Blaize con la regione potrebbero presentare sfide in un momento in cui il governo degli Stati Uniti sta rafforzando i controlli sulle esportazioni di semiconduttori in paesi come l’Arabia Saudita, il Qatar e gli Emirati Arabi Uniti tra le preoccupazioni che la Cina stia usando la regione per aggirare le restrizioni americane sull’ottenimento della tecnologia.

Altri produttori di chip, tra cui Nvidia e AMD, hanno subito pressioni da parte del governo: ad agosto i giganti della tecnologia hanno rivelato che gli Stati Uniti avevano limitato le esportazioni alle nazioni del Medio Oriente non divulgate (un portavoce del Dipartimento del Commercio ha negato a Reuters di aver limitato le vendite). E a novembre, secondo quanto riferito, la Casa Bianca ha espresso preoccupazioni per i legami della Cina con la più grande società di intelligenza artificiale degli Emirati Arabi Uniti, G42, che deteneva importanti contratti con società americane come OpenAI. Recentemente, Bloomberg ha riferito che l’amministrazione Biden ha costretto un braccio di venture di Saudi Aramco a vendere la sua posizione in una startup di intelligenza artificiale sostenuta da Sam Altman chiamata RainAI.

Blaize potrebbe trovarsi sotto un controllo simile. “Il governo degli Stati Uniti, comprese persone come [il Comitato per gli investimenti esteri negli Stati Uniti], avrebbe un interesse e darebbe un’occhiata abbastanza da vicino a ciò che sapevano di questa transazione”, ha detto Brian Egan, un avvocato di Skadden che consiglia le aziende sulla sicurezza nazionale e sulle questioni prima di CFIUS.

Il CEO di Blaize, Dinakar Munagala, ha sottolineato che l’azienda aderirebbe alle leggi americane: “Come azienda, abbiamo tutti i processi di controllo delle esportazioni in atto in modo che quando vendiamo i nostri chip ci assicuriamo di conformarci a tutte le regole”.

Il Dipartimento del Commercio non ha risposto a una richiesta di commento.

Blaize, che ha sede a El Dorado Hills, in California, e ha uffici nel Regno Unito e in India, è stato impegnato a firmare accordi in Medio Oriente. A settembre, la società ha annunciato di aver inserito un memorandum d’intesa con Mark AB Capital, un fondo controllato da membri della famiglia reale di Abu Dhabi. La società ha detto che si aspettava di generare 50 milioni di dollari di entrate annuali dalla partnership attraverso gli ordini del Consiglio di cooperazione del Golfo, che include gli Emirati Arabi Uniti e l’Arabia Saudita, e avrebbe formato 5.000 cittadini degli Emirati Arabi Uniti sulla sua piattaforma software di intelligenza artificiale. “Con questa partnership, non stiamo solo sfruttando il potenziale dell’IA, ma stiamo anche aprendo la strada verso una nazione alimentata dall’IA in cui il progresso non conosce limiti”, ha detto all’epoca Abdullah Mohamed Al Qubaisi, CEO di Mark AB Capital.

Tali accordi vengono fatti insieme a una raffica di altre partnership tecnologiche di intelligenza artificiale nella regione. All’inizio del 2023, la società di intelligenza artificiale con sede in California Cerebras ha firmato un accordo da 100 milioni di dollari per fornire supercomputer al G42 degli Emirati Arabi Uniti, che è stato seguito da una partnership per sviluppare un importante modello di grande lingua in lingua araba. Secondo quanto riferito, il mese scorso, il gruppo indiano Adani ha formato una fusione congiunta con l’International Holding Co. degli Emirati Arabi Uniti per “esplorare l’intelligenza artificiale e altre tecnologie”. E nei mesi precedenti la sua breve sostrazione come CEO di Open AI a novembre, Sam Altman era stato in trattative per raccogliere miliardi dall’Arabia Saudita e dagli Emirati Arabi Uniti per una società di semiconduttori per rivaleggiare con Nvidia.

Il CEO Munagala ha detto a Forbes che Blaize ha clienti oltre il Medio Oriente, tra cui Stati Uniti, Giappone e Germania, ma ha rifiutato di elaborare. Ha aggiunto che i chip e il software di Blaize vengono distribuiti in un aeroporto non divulgato dove vengono utilizzati per ordinare innumerevoli ore di filmati di sicurezza e che l’azienda sta anche prendendo di mira applicazioni di difesa, come la fornitura di calcolo per l’analisi video da filmati di droni; la società ha detto di aver fatto un’offerta su almeno uno degli Stati Uniti. Contratto del Dipartimento della Difesa, ma ha rifiutato di dire di più.

Lanciato nel 2011 come ThinCI, il team fondatore era composto da ex ingegneri dei semiconduttori Intel, guidati da Munagala, che hanno visto l’opportunità di fornire potenza di calcolo per applicazioni edge, come attività ad alta intensità di calcolo come l’analisi video. Investitori strategici come Daimler e il gigante giapponese dei ricambi auto Denso hanno guidato cicli di finanziamento nell’azienda, vedendo il potenziale nelle rivendicazioni dell’azienda di eseguire modelli di intelligenza artificiale in modo più efficiente sui suoi chip. Dopo aver rilasciato i suoi primi prodotti nel 2020 – tra cui uno “studio di intelligenza artificiale” che ha permesso agli utenti di costruire applicazioni di intelligenza artificiale senza codice e più piattaforme hardware – la società ha raccolto altri 70 milioni di dollari da investitori come Franklin Templeton, GGV e il fondo sovrano di Singapore Temasek.

Ora che Blaize si è assicurato una nuova ancora di salvezza, Munagala sta andando in un roadshow per scatenare l’hype in vista dell’imminente IPO. La sua prima tappa questo mese è l’Arabia Saudita, dove Blaize è attualmente in trattative per formare una joint venture per distribuire i suoi chip in un nuovo data center fuori Riyadh e nei droni utilizzati per l’agricoltura. (Un portavoce dell’appaltatore, Saudi National Projects Investments, non ha risposto a una richiesta di commento). “Dinakar sarà piuttosto impegnato questo mese”, ha detto Khan.

Bess, da parte sua, è sollevato dal fatto che il suo investimento abbia trovato nuovi sostenitori dopo le sue sfide di raccolta di denaro. “Dove l’azienda ha trovato la sua base”, ha detto, “è nella progressività dei governi mediorientali e delle famiglie reali nell’avere l’appetito di investire nel loro futuro”.


05/01/24 Barron’s: Nvidia può fare 100 miliardi di dollari in denaro extra nei prossimi 2 anni, dice l’analista

DaTae Kim

Le azioni Nvidia sono aumentate del 230% negli ultimi 12 mesi.

 Nvidia  genererà un enorme flusso di profitti dalla vendita dei suoi semiconduttori di intelligenza artificiale nei prossimi anni, afferma BofA Global Research.

Giovedì, l’analista Vivek Arya ha ribadito la sua valutazione di acquisto “Top Pick” per le azioni Nvidia, prevedendo che il produttore di chip farà 100 miliardi di dollari di flusso di cassa libero in totale nei prossimi due anni. Ha riaffermato il suo obiettivo di prezzo di 700 dollari per le azioni.

“La solida generazione di FCF [flusso di cassa libero] di NVDA crea opzionalità”, ha scritto. “Ci aspettiamo che NVDA consideri le risorse che la aiutano a creare un profilo di entrate ricorrenti più significativo”.

Arya stima che Nvidia possa utilizzare da 30 a 35 miliardi di dollari dei 100 miliardi di dollari di flusso di cassa libero per i riacquisti di azioni. La società ha acquistato 3,8 miliardi di dollari delle sue azioni nel suo ultimo trimestre riportato.

Con il resto dei soldi, il produttore di chip potrebbe investire in nuove opportunità di generazione di entrate. L’analista afferma che l’investimento aggiuntivo può aiutare ad espandere il multiplo della valutazione price-to-earnings di Nvidia alla sua media mediana storica da 35 volte a 40 volte, rispetto a 24 volte oggi.

“Ci figuramo NVDA considerare partnership/M&A più avanzate di aziende di software che stanno aiutando i clienti aziendali tradizionali a implementare, monitorare e analizzare le app genAI”, ha scritto.

Nvidia attualmente domina il mercato dei chip utilizzati per le applicazioni di intelligenza artificiale. Le start-up e le aziende preferiscono i prodotti dell’azienda a causa della sua robusta piattaforma di programmazione, CUDA, che fornisce strumenti relativi all’IA che rendono più facile lo sviluppo di progetti di intelligenza artificiale.


27/12/23 Briefing.com: Synopsys crolla per l’annuncio di una acquisizione

Gli investitori di Synopsys sono delusi dal potenziale prezzo che la società potrebbe pagare per acquisire Ansys (SNPS)

Synopsys (SNPS), un fornitore di software di automazione della progettazione elettronica utilizzato per testare e progettare chip, ha scesa l’ultima ora della sessione di venerdì su un rapporto del WSJ che stava cercando di acquisire Ansys (ANSS), uno sviluppatore di software di simulazione ingegneristica. Ulteriori dettagli della presunta transazione si sono materializzati dopo la chiusura di venerdì. Reuters ha riferito che Ansys stava ricevendo offerte di acquisizione per oltre 400 dollari per azione, un premio di circa il 17% rispetto al prezzo di apertura di venerdì.

Senza alcun accordo formalizzato, non vi è alcuna garanzia che Ansys sarà acquisita da Synopsys, o da qualsiasi società per quella materia, o se inchiostrerà un accordo a un prezzo superiore a 400 dollari/azione, sottolineato da Ansys che quota ancora ben al di sotto di quei livelli. Reuters ha notato che un annuncio formale dovrebbe essere fatto entro le prossime settimane.

  • Perché un’acquisizione di Synopsys/Ansys dovrebbe avere senso? Ansys ha sviluppato un software di simulazione ingegneristica per decenni, espandendo costantemente il suo vantaggio competitivo penetrando numerose industrie attraverso l’ampia gamma di applicazioni del suo software. A causa dell’alto livello di formazione coinvolto, il software di simulazione di Ansys è costoso da disattivare, fornendo all’azienda un flusso di entrate difensivo. Mentre la linea superiore di Ansys ha fatto un underwhelm lo scorso trimestre, ciò era in gran parte dovuto agli Stati Uniti. Ulteriori restrizioni all’esportazione del Dipartimento del Commercio per alcune imprese cinesi, un probabile vento contrario a breve termine.
  • Ansys comanda anche margini eccellenti, mantenendo margini lordi di oltre il 90% nel terzo trimestre, evidenziando la capacità della direzione di tenere sotto controllo le spese. Tuttavia, per lo stesso motivo, non lascia molto spazio a Synopsys per entrare e tagliare le spese gonfie, mantenendo un limite alle potenziali sinergie.
  • Allora perché le azioni di Synopsys sono diminuite rapidamente sulle segnalazioni di un’acquisizione di Ansys? Il prezzo sospetto che Synopsys avrebbe pagato per aggiungere il software Ansys al suo arsenale era troppo alto. Se Synopsys dovesse acquistare Ansys per 400 dollari per azione, si tradurrebbe in circa 15x entrate stimate FY23 e 46x guadagni rettificati, significativamente al di sopra di molti altri giganti della tecnologia del software come ORCLADBE CRM.

I rapporti che Synopsys potrebbe offrire formalmente almeno 400 dollari per azione per Ansys sono stati accolti da un contraccolpo immediato da parte degli investitori di Synopsys, principalmente a causa del prezzo elevato. Ansys vanta un bossato economico considerevole data la sua vasta storia, che si incorpora in numerose industrie e alti costi di commutazione. Tuttavia, le entrate di Ansys si sono recentemente raffreddate, scivolando in territorio negativo nel terzo trimestre mentre le restrizioni cinesi pesavano. Tuttavia, l’aggiunta di Ansys sarebbe una mossa eccellente per Synopsys nel lungo periodo, soprattutto perché il contenuto di semiconduttori aumenta, con fluttuazioni azionarie a breve termine che creano punti di ingresso interessanti.


22/12/23 Barron’s: Ecco un titolo sull’ intelligenza artificiale di cui probabilmente non hai sentito parlare. Sembra un acquisto interessante.

DaTae KimSegui

Synopsys è il più grande fornitore di software di automazione della progettazione elettronica, che viene utilizzato per progettare semiconduttori. È un beneficiario sottovalutato del boom dell’intelligenza artificiale. 

Nonostante il suo pedigree di quasi quattro decenni e un valore di mercato di 85 miliardi di dollari, Synopsys SNPSnon ottiene molta copertura da Wall Street o dai media, soprattutto rispetto ai suoi principali clienti: NvidiaAdvanced Micro Devices Intel.

È un nome che vale la pena conoscere, però. Synopsys è il più grande fornitore di software di automazione della progettazione elettronica, o EDA, che viene utilizzato per progettare semiconduttori. L’azienda potrebbe essere il beneficiario più sottovalutato del boom dell’intelligenza artificiale.

Nell’ultimo decennio, Synopsys è cresciuta insieme alla proliferazione di chip nei prodotti di consumo, dalle auto agli elettrodomestici e all’elettronica. Ma l’era dell’IA ha il potenziale per innescare un altro livello di crescita.

Le azioni di Synopsys sono aumentate del 75% quest’anno, a un recente 560 dollari, anche se questo impallidisce rispetto ai beneficiari di intelligenza artificiale più noti come Nvidia, in aumento del 235% e Palantir Technologies, in aumento del 174%.

L’aumento della domanda di chip AI, dalle start-up ai giganti del cloud computing, e l’implementazione aggressiva dell’azienda delle proprie funzionalità basate sull’intelligenza artificiale potrebbero guidare un aumento della domanda di anni per il software Synopsys.

“L’IA è stata una grande opportunità per accelerare il time-to-market dei nostri clienti fornendo loro prodotti EDA e IP [proprietà intellettuale] più efficienti per sviluppare quei chip complessi”, ha recentemente detto il CEO entrante Sassine Ghazi a Barron.

Il dirigente prende le redini di Synopsys il 1° gennaio, sostituendo il fondatore dell’azienda, Aart de Geus, che sta passando al ruolo di presidente esecutivo. Ghazi è entrato a far parte di Synopsys nel 1998. Ha ricoperto vari ruoli dirigenziali, tra cui ingegneria e sviluppo del prodotto, prima di diventare direttore operativo dell’azienda nel 2020.

Ghazi afferma che l’interesse delle aziende per l’IA generativa sta in aumento, scatenando una maggiore domanda di chip avanzati che saranno progettati dal software Synopsys.

“Non mancano le idee per varie applicazioni di intelligenza artificiale nel centro dati o nel cloud”, afferma. “È a destra in termini di domanda”.

Ghazi aggiunge che Synopsys ha iniziato a esaminare come l’azienda può utilizzare l’intelligenza artificiale per migliorare l’efficienza, l’accuratezza e la sicurezza in tutti i suoi dipartimenti di marketing, risorse umane e legali. L’azienda ha già diversi progetti nelle prime fasi di adozione, dice, che migliorano drasticamente la produttività e i processi del flusso di lavoro.

Per i suoi clienti, l’azienda ha recentemente presentato Synopsys.ai Copilot attraverso una partnership con Microsoft. Sfrutta modelli linguistici di grandi dimensioni per formare ingegneri attraverso un’interfaccia simile a ChatGPT. “Pensalo come un assistente di intelligenza artificiale per la progettazione di chip”, dice Ghazi. ” Riduce significativamente il nostro carico di supporto e migliora il nostro aumento dei clienti”.

Il nuovo CEO vede la tecnologia evolversi dove l’IA può generare progetti di semiconduttori con una minima interazione da parte dei progettisti di chip. La nuova funzionalità di intelligenza artificiale verrà aggiunta al software Synopsys ogni nove mesi.

L’analista di KeyBanc Capital Markets Jason Celino è ottimista sul fatto che il passaggio di Synopsys verso una maggiore intelligenza artificiale pagherà dividendi all’azienda e ai suoi clienti.

“Il design abilitato all’intelligenza artificiale è la più grande svolta del prodotto nello sviluppo EDA in 30-40 anni”, afferma Celino. Ha un rating di sovrappeso sul titolo e un obiettivo di prezzo di 675 dollari, circa il 20% al di sopra dei livelli attuali.

I miglioramenti dell’IA dovrebbero significare che i clienti Synopsys hanno meno probabilità di cambiare fornitore. Ci sono poche scelte, comunque. Il design dei chip è dominato da Synopsys e rivaleggia Cadence Design Systems e Siemens EDA, un prodotto dell’acquisizione di Mentor Graphics da parte di Siemens nel 2017 per 4,5 miliardi di dollari. È un’area del mercato che è probabilmente altrettanto importante delle fonderie, dominate dalla Taiwan Semiconductor Manufacturing, e dalle apparecchiature per chip, guidate da ASML.

Insieme, le tre aziende EDA hanno circa il 90% della quota di mercato per gli strumenti software EDA, secondo KeyBanc. Synopsys è il più grande fornitore, con il 35%.


07/12/23 Barron’s: C3.ai è in una fase di investimenti accelerati . Il CEO Tom Siebel spiega perché.

DiEric J. Savitz

“L’opportunità in Gen AI è semplicemente sbalorditiva”, ha detto il CEO di C3.ai Tom Siebel a Barron. 

Il CEO di C3.ai Tom Siebel pensa di avere una tigre per la coda e non lascerà che le preoccupazioni di Wall Street si intromettano.

Alla fine di mercoledì C3.ai ha riportato utili per il trimestre di ottobre che ha lasciato i mercati  delusi sia dai risultati che dalla stime della società.

Le azioni C3.ai di giovedì sono scese del 10,7% a 26,05 dollari, ma rimangono più alte del 133% per l’anno fino ad oggi. Siebel, per esempio, non si preoccupa del movimento di un giorno nelle azioni generalmente volatili della società.

Ecco la situazione. La crescita negli ultimi trimestri non è stata all’altezza di quella di due anni fa, una situazione che Siebel dice che riflette meno in parte una transizione del modello di business: l’azienda ora utilizza un modello di consumo, come molti fornitori di cloud, piuttosto che un modello di abbonamento.

Per il secondo trimestre fiscale conclusosi a ottobre. 31, C3.ai ha registrato un fatturato di 73,2 milioni di dollari, in aumento del 17% rispetto a un anno fa, verso la fascia più bassa della gamma di orientamento dell’azienda da 72,5 milioni a 76,5 milioni di dollari e al di sotto delle previsioni di consenso di Street tracciate da FactSet di 74,3 milioni di dollari.

Per il trimestre di gennaio, C3.ai prevede entrate comprese tra 74 e 78 milioni di dollari, con una perdita operativa non GAAP compresa tra 40 e 46 milioni di dollari. Il consenso di strada aveva precedentemente richiesto entrate di 77,7 milioni di dollari e una perdita operativa non GAAP di 21,1 milioni di dollari.

Il vero kicker sono state le prospettive per l’intero anno fiscale che termina ad aprile 2024. C3.ai ha ribadito la sua guida alle entrate, che richiede entrate comprese tra 295 e 320 milioni di dollari. Ma la società ora vede una perdita non GAAP da operazioni tra 115 milioni e 135 milioni di dollari, allargando da un precedente intervallo di previsioni che richiede una perdita da 70 milioni di dollari a 100 milioni di dollari.

C3.ai aveva avvertito il mercato nel riportare i risultati del trimestre di luglio che avrebbe accelerato il ritmo di spesa per muoversi in modo aggressivo per capitalizzare la crescita della domanda di software di intelligenza artificiale generativa da parte di aziende di ogni descrizione. C3.ai ha detto all’epoca che ulteriori investimenti avrebbero ritardato i tempi dell’azienda per raggiungere la redditività non GAAP.

A quel tempo, Siebel ha detto a Barron che la società ha deciso di spendere una parte dei suoi 800 milioni di dollari in contanti in vendite, marketing, pubblicità e scienziati dei dati per acquisire più quote di mercato nell’IA generativa. Ha descritto la strategia come “un’accaparramento della terra”, aggiungendo che sarebbe “pazzi non investire in questo mercato… lo stiamo facendo con gli occhi aperti”.

E ora il Siebel sta forzando la sua scommessa.

“L’opportunità in Gen AI è semplicemente sconcertante”, ha detto Siebel in un’intervista con Baron giovedì. “L’opportunità è più grande di qualsiasi cosa abbia visto nella mia carriera professionale”. Questa non è una dichiarazione da poco del fondatore di Siebel Systems, una società di software per la gestione delle relazioni con i clienti che è stata acquisita da Oracle per 5,6 miliardi di dollari nel 2006.

“Ho quasi 800 milioni di dollari in banca”, dice. “Cos’altro dovrei fare con esso? Lo sto investendo nel business. C’è un imperativo economico per farlo. Non farlo non sarebbe razionale.” Ha detto che l’azienda prevede di lanciare una campagna sul marchio, aggiungendo anche personale, costruendo più applicazioni e mettendo a punto più modelli. Dice che l’emergere nell’ultimo anno dell’IA generativa ha effettivamente raddoppiato l’opportunità di mercato dell’azienda.

Siebel afferma che la storia di C3.ai negli ultimi trimestri è stata la trasformazione dell’azienda del suo modello di business dagli abbonamenti ai prezzi di consumo. E in effetti, il tasso di crescita top-line di C3.ai è sceso dal 42% nel trimestre di luglio 2021 al -4% nel trimestre di gennaio 2023. Ma la crescita è migliorata da lì: piatta nel trimestre di aprile, in crescita dell’11% a luglio e in aumento del 17% in questo trimestre.

“Abbiamo detto alla gente che c’era un sistema a bassa pressione in arrivo, che avrebbe piovuto e poi sarebbe andato avanti”, ha detto. Siebel pensa che la crescita continuerà ad accelerare da qui e che l’azienda possa tornare ai giorni gloriosi con una crescita del 40%-plus alla fine.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.