creo un nuovo gruppo dove concentrare i miei post sui semiconduttori fino ad ora divisi in diversi settori
15/07/25 Briefing.com: Le vendite del chip H20 di NVIDIA in Cina riprenderanno, eliminando un importante ostacolo per il titolo (NVDA)
NVIDIA (NVDA) ha annunciato in un’e-mail agli investitori che prevede di riprendere “presto” le vendite del suo chip AI H20 in Cina, segnando uno sviluppo significativo dopo i controlli sulle esportazioni imposti dal governo statunitense a metà aprile 2025, citando preoccupazioni per la sicurezza nazionale. Il chip H20 è stato progettato specificamente per il mercato cinese per conformarsi alle restrizioni iniziali sulle esportazioni degli Stati Uniti implementate nel 2022, che vietavano la vendita in Cina dei chip AI più avanzati di NVIDIA, come l’H100. Tuttavia, l’amministrazione Trump ha inasprito queste restrizioni ad aprile 2025, richiedendo licenze di esportazione per l’H20 e qualsiasi chip con una larghezza di banda di memoria equivalente, bloccando di fatto le vendite.
Questo annuncio, che ha scatenato un forte rialzo del titolo NVDA oggi, coincide con le visite di alto profilo del CEO Jensen Huang a Pechino e Washington. A Pechino, Huang ha incontrato alti funzionari cinesi e leader del settore per discutere dei benefici dell’IA e dell’impegno di NVIDIA nel mercato cinese, mentre a Washington ha dialogato con il presidente Donald Trump per riaffermare il supporto di NVIDIA alla creazione di posti di lavoro negli Stati Uniti e alla leadership nell’IA.
L’uso del termine “presto” da parte di Huang suggerisce che le vendite dell’H20 potrebbero riprendere nel terzo trimestre del 2025, a seguito delle rassicurazioni del governo statunitense che le licenze di esportazione saranno concesse, probabilmente facilitate da un recente quadro commerciale USA-Cina che ha allentato le restrizioni sulle esportazioni tecnologiche in cambio della riduzione dei controlli cinesi sulle esportazioni di terre rare. Questo progresso diplomatico, unito all’impegno strategico di Huang, posiziona NVIDIA per rientrare rapidamente nel mercato cinese dell’IA, valutato tra i 50 e i 60 miliardi di dollari.
L’interruzione delle vendite del chip H20 a metà aprile ha avuto un impatto significativo sulle finanze di NVIDIA nel primo trimestre del 2025. La società ha registrato un onere di 4,5 miliardi di dollari relativo all’inventario di H20 che non poteva essere venduto o riutilizzato, riflettendo la natura improvvisa delle restrizioni sulle esportazioni senza “periodo di grazia”. Inoltre, NVIDIA non è stata in grado di spedire chip H20 già prodotti per un valore di 2,5 miliardi di dollari, anche se è riuscita a registrare 4,6 miliardi di dollari in vendite di H20 in Cina prima che i controlli entrassero in vigore.
Se l’intero ordine di 7,1 miliardi di dollari di H20 fosse stato evaso, queste vendite avrebbero rappresentato circa il 16% dei ricavi del primo trimestre di NVIDIA, pari a 44 miliardi di dollari. La società ha anche previsto una perdita aggiuntiva di 8 miliardi di dollari in vendite di H20 per il secondo trimestre, sottolineando il significativo impatto finanziario delle restrizioni e l’importanza di riprendere le vendite per mitigare ulteriori perdite.
Nello stesso annuncio, Huang ha introdotto la GPU RTX PRO, descritta come “pienamente conforme” ai controlli sulle esportazioni degli Stati Uniti e “ideale per l’IA di gemelli digitali per fabbriche intelligenti e logistica”. Questo chip si rivolge alla crescente domanda cinese di applicazioni IA nell’automazione industriale, dove i gemelli digitali — modelli virtuali di sistemi fisici — consentono l’ottimizzazione in tempo reale dei processi di produzione e della catena di approvvigionamento. L’attenzione di RTX PRO su fabbriche intelligenti e logistica si allinea con la spinta della Cina verso l’Industria 4.0, potenzialmente servendo grandi attori come ByteDance e Tencent, che stanno investendo pesantemente in operazioni guidate dall’IA.
Tuttavia, le prestazioni inferiori riportate di RTX PRO rispetto all’H20 potrebbero limitarne la competitività, e il suo prezzo più basso, basato su requisiti di produzione più semplici, suggerisce che è improbabile che compensi significativamente il potenziale di reddito delle vendite di H20.
La prevista ripresa delle vendite del chip H20 in Cina è un evento rialzista, che rimuove un ostacolo chiave che ha pesato sul titolo da aprile a causa delle restrizioni sulle esportazioni. Con il mercato cinese nuovamente aperto agli affari, NVIDIA è ben posizionata per recuperare i ricavi persi e rafforzare la sua dominanza nella tecnologia dei chip AI.
16/06/25 Barron’s: Le azioni AMD sono le migliori dell’S&P 500 oggi. I lanci di prodotti entusiasmano questi analisti.
Le azioni di Advanced Micro Devices erano in rialzo lunedì dopo che gli investitori hanno risposto positivamente a una gamma di nuovi prodotti per l’infrastruttura dell’intelligenza artificiale.
Durante l’evento Advancing AI della settimana scorsa a San Jose, il produttore di chip ha svelato la serie di chip AMD Instinct MI350, progettati per competere con il leader di mercato Nvidia
L’azienda ha anche anticipato il suo rack Helios, alimentato dalla serie di chip Instinct MI400, che sarà rilasciato nel 2026 e disponibile in configurazioni fino a 72 chip in un unico server.
“Quando Helios verrà lanciato nel 2026, crediamo che stabilirà un nuovo standard per l’AI su larga scala,” ha dichiarato la CEO Lisa T. Su durante l’evento Advancing AI.
Le azioni AMD sono scivolate durante l’evento di giovedì e sono rimaste stabili venerdì. Ma lunedì il titolo è schizzato, salendo dell’8,1% a $125,54. AMD è stata la migliore performer sia nell’S&P 500
che nel Nasdaq 100, secondo i dati di Dow Jones Market Data.
Gli analisti di Piper Sandler hanno lasciato la conferenza della settimana scorsa e una chiamata con gli analisti venerdì con un atteggiamento ottimista su AMD, mantenendo un rating di Overweight sul titolo e alzando il loro target di prezzo a $140 da $125.
“Nel complesso, siamo entusiasti dei lanci di prodotti all’evento AMD,” hanno scritto gli analisti, evidenziando il rack Helios come un elemento di spicco.
AMD ha affrontato forti venti contrari geopolitici ed economici quest’anno, riportando ad aprile che le nuove regole di licenza degli Stati Uniti per le esportazioni di semiconduttori in Cina potrebbero costare all’azienda fino a $800 milioni. Queste spese ridurranno i margini lordi di AMD nel secondo e terzo trimestre dell’anno, ma gli analisti di Piper Sandler sostengono che l’azienda potrebbe riprendersi presto.
“Riteniamo che, sebbene AMD stia attraversando una fase di assestamento a breve termine e alcuni sfortunati eventi geopolitici, l’azienda sembra ben posizionata per mostrare crescita a partire dalla seconda metà del 2025, in particolare dal trimestre di settembre 2025,” hanno scritto gli analisti. “Ci aspettiamo una trazione significativa per l’azienda a partire dal trimestre di dicembre 2025.”
Le azioni AMD hanno avuto un andamento molto volatile nell’ultimo anno. Le azioni sono scese del 32% dal massimo di chiusura delle ultime 52 settimane di $183,96 il 10 luglio 2024, ma sono aumentate del 61% dal minimo di chiusura delle ultime 52 settimane di $78,21 l’8 aprile 2025.
Le azioni Nvidia erano in rialzo del 2,1% lunedì.
Scritto da Nate Wolf a nate.wolf@barrons.com.
29/05/25 Barron’s: NVIDIA in rialzo dopo i risultati del Q1; la crescita robusta del Data Center attenua i timori sul mercato H20 (NVDA)
NVIDIA (NVDA +5%) registra un forte rialzo dopo aver riportato risultati superiori alle attese per il Q1 (aprile) la scorsa notte. I ricavi sono aumentati del 69,2% su base annua, raggiungendo i 44,06 miliardi di dollari, superando le aspettative. Anche le previsioni di fatturato per il Q2 (luglio), comprese tra 44,10 e 45,90 miliardi di dollari, sembrano aver soddisfatto gli investitori, nonostante riflettano una perdita di circa 8 miliardi di dollari di entrate legate al chip H20 a causa delle recenti restrizioni alle esportazioni. Le previsioni appaiono leggermente inferiori, ma non è chiaro se siano davvero comparabili al consensus.
- Un altro elemento positivo è stato il fatto che la svalutazione dell’inventario dell’H20 dovuta alle restrizioni è risultata inferiore alle attese: 4,5 miliardi di dollari rispetto ai 5,5 miliardi precedentemente stimati, grazie alla possibilità di riutilizzare parte dei materiali. Si tratta dunque di una notizia positiva. Il 9 aprile, il governo USA ha imposto nuove restrizioni all’esportazione dell’H20, un chip GPU per data center progettato specificamente per il mercato cinese. L’H20 è sul mercato da oltre un anno e non ha utilizzi al di fuori della Cina.
- Il segmento Data Center ha brillato nel Q1, con ricavi pari a 39,1 miliardi di dollari, in crescita del 73% su base annua e del 10% rispetto al trimestre precedente. NVIDIA ha spiegato che i carichi di lavoro legati alla realtà aumentata si sono fortemente spostati sull’inferenza, mentre la costruzione di “fabbriche di IA” sta generando ricavi significativi. Fondamentale anche la solidità degli impegni dei clienti. Il ramp-up della piattaforma Blackwell, il più veloce nella storia dell’azienda, ha guidato la crescita del segmento: ha contribuito a quasi il 70% dei ricavi da calcolo nel Data Center, con la transizione da Hopper quasi completata. NVIDIA sta registrando un forte aumento della domanda di inferenza. OpenAI, Microsoft e Google stanno assistendo a un’impennata nella generazione di token.
- Il suo altro grande segmento, Gaming e PC AI, ha raggiunto ricavi record per 3,8 miliardi di dollari, in crescita del 42% su base annua e del 48% su base trimestrale. La forte adozione da parte di gamer, creativi e appassionati di IA ha reso il lancio di Blackwell il più rapido di sempre. In un contesto di domanda sostenuta, NVIDIA ha notevolmente migliorato l’offerta e la disponibilità nel Q1. In questo trimestre, ha anche ampliato la gamma di laptop AI PC, includendo modelli in grado di eseguire Microsoft CoPilot+.
- Guardando al Q2, NVIDIA prevede che il segmento Data Center continuerà a beneficiare del ramp-up di Blackwell, sebbene in parte compensato da un calo dei ricavi dalla Cina. Riguardo alle restrizioni all’export, l’azienda sottolinea come la Cina sia uno dei mercati IA più grandi al mondo, con metà dei ricercatori IA globali che vi risiedono. La piattaforma che riesce a conquistare la Cina è ben posizionata per guidare a livello globale. Tuttavia, il mercato cinese da 50 miliardi di dollari è ora praticamente chiuso all’industria statunitense. L’IA in Cina proseguirà il suo sviluppo, con o senza i chip americani.
Due motivi principali sembrano trainare il titolo oggi:
- Il segmento Data Center continua a crescere con forza nonostante il contraccolpo dell’H20. Le costruzioni di “fabbriche di IA” stanno generando ricavi consistenti. L’espansione di Blackwell prosegue senza rallentamenti, contribuendo ad attutire la prevista riduzione dei ricavi dal mercato cinese nel Q2. La perdita stimata di 8 miliardi di dollari è risultata meno grave del previsto.
- Il costo straordinario da 4,5 miliardi di dollari legato all’H20 è stato inferiore alle attese.
Sebbene permangano delle criticità — in particolare con la Cina — il sentiment degli investitori nei confronti di NVIDIA sembra nuovamente in crescita.
20/05/25 Barron’s: Il fatturato di Nvidia dai chip AI più che raddoppierà a 262 miliardi di dollari entro il 2030, secondo un analista
Di Tae Kim
TD Cowen è sempre più ottimista sulla capacità di Nvidia (NVDA, -1,06%) di dominare il mercato in forte crescita dei chip per l’intelligenza artificiale fino alla fine del decennio.
“Dalla nostra analisi emergiamo più positivi sui fornitori di GPU commerciali rispetto a quelli personalizzati, e siamo sempre più fiduciosi nella profondità e ampiezza del posizionamento competitivo di Nvidia,” ha scritto il team tecnologico di Cowen in un rapporto pubblicato martedì.
TD Cowen prevede che il mercato complessivo dei processori per l’intelligenza artificiale, come le unità di elaborazione grafica (GPU), crescerà da 117 miliardi di dollari nel 2024 a 334 miliardi di dollari nel 2030. Gli analisti stimano che Nvidia manterrà il 90% del mercato delle GPU, con un fatturato dai chip AI che passerà da 100 miliardi di dollari nel 2024 a 262 miliardi di dollari nel 2030.
Gli scettici hanno sostenuto che Nvidia avrebbe affrontato una concorrenza più dura con le grandi aziende tecnologiche che, con l’aiuto di Broadcom (AVGO, -0,05%) e Marvell Technology, sviluppano chip AI personalizzati migliori. Tuttavia, entro la fine del decennio, la quota dei chip personalizzati nel mercato AI crescerà solo dal 10% al 15%, secondo Cowen.
TD Cowen ritiene che Nvidia manterrà la sua posizione di leader, affermando che i chip AI personalizzati continueranno a offrire prestazioni inferiori rispetto a quelli di Nvidia con un “margine significativo”. L’azienda ha anche l’offerta tecnologica più matura in termini di hardware, software e networking, secondo il rapporto.
“Riteniamo che l’approccio di Nvidia, basato su un sistema hardware completamente integrato e una robusta suite software, le consenta di dimostrare prestazioni superiori nell’inferenza GenAI rispetto ai concorrenti,” hanno scritto gli analisti.
La concorrenza da parte dei chip AI personalizzati prodotti dalle grandi aziende tecnologiche non è una novità. Amazon Web Services ha lanciato il suo chip AI personalizzato nel 2019, mentre Google di Alphabet (GOOGL, +0,66%) ha introdotto il suo acceleratore AI nel 2015. Entrambe le aziende hanno rilasciato diverse versioni successive, ma finora Nvidia ha conquistato la maggior parte del mercato dei chip AI.
“Vediamo il portafoglio tecnologico di punta di Nvidia, la sua lunga tradizione di innovazione e gli ingenti investimenti orientati alla crescita come motori di una forte espansione degli acceleratori nei prossimi anni,” hanno dichiarato gli analisti.
Scritto da Tae Kim a tae.kim@barrons.com
Stratechery: Un’intervista con il CEO di Nvidia Jensen Huang su controlli dei chip, fabbriche di IA e pragmatismo aziendale
L’intervista di Stratechery di questa settimana è pubblicata in anticipo, poiché ho avuto l’opportunità di parlare di persona con il CEO di Nvidia, Jensen Huang, al termine del suo discorso di apertura al Computex 2025, che si è tenuto questa mattina a Taiwan. Ho intenzione di toccare alcuni dei temi di questa intervista più avanti questa settimana, quindi, nello spirito di condividere le mie conversazioni con voi — che è alla base di questa serie di interviste — volevo pubblicarla il prima possibile.
Ho parlato con Huang tre volte in precedenza, a marzo 2022, settembre 2022 e marzo 2023. Ciò che era notevole in quelle interviste era il modo in cui Huang cercava di far capire al mondo il potenziale del calcolo tramite GPU; ora che questo potenziale si sta realizzando, Huang e Nvidia si trovano ad affrontare un insieme completamente nuovo di problemi, mentre continuano a spingere avanti il calcolo.
Questa intervista inizia discutendo alcune di queste nuove sfide, in particolare quelle legate alla politica: parliamo degli accordi della settimana scorsa con Arabia Saudita ed Emirati Arabi Uniti, del divieto di vendita dell’H20 in Cina e del perché l’approccio degli Stati Uniti ai controlli sui chip rischia di compromettere il controllo a lungo termine dell’America — e di Nvidia. Huang sostiene anche il motivo per cui l’IA guiderà la crescita del PIL nel prossimo futuro e potrebbe persino ridurre il deficit commerciale.
Successivamente, entriamo nel discorso di oggi e in quello del mese scorso al GTC. Come noto in questa intervista, sono rimasto sorpreso da quanto fossero diversi, forse perché rivolti a pubblici diversi: produttori OEM e di componenti taiwanesi e i loro clienti aziendali oggi, contro gli hyperscaler americani il mese scorso; la chiave per capire Nvidia è che vogliono vendere a entrambi. A tal proposito, discutiamo del perché una soluzione completa Nvidia massimizza l’utilità, incluso come Dynamo migliori le prestazioni di inferenza, anche se l’approccio di Nvidia a software e costruzione di sistemi permette di vendere solo le parti che desideri. E — forse appropriatamente data la domanda — tocchiamo brevemente il gaming alla fine.
Come promemoria, tutti i contenuti di Stratechery, incluse le interviste, sono disponibili come podcast; clicca sul link in cima a questa email per aggiungere Stratechery al tuo lettore di podcast.
Passiamo all’intervista:
Un’intervista con il CEO di Nvidia Jensen Huang su controlli dei chip, fabbriche di IA e pragmatismo aziendale
Questa intervista è leggermente modificata per chiarezza.
Temi:
- IA araba e la regola di diffusione dei chip
- Nvidia e Cina
- Crescita del PIL tramite IA
- Dynamo e Nvidia full-stack
- IA aziendale e pragmatismo
- Che ne è del gaming
IA araba e la regola di diffusione dei chip
Jensen Huang, bentornato su Stratechery.
Jensen Huang: È un piacere vederti, Ben.
È fantastico incontrarti di persona, le nostre conversazioni precedenti erano su Zoom, e sei qui a Taiwan. Hai appena annunciato un nuovo edificio vicino a casa mia, il che è emozionante. Quando abbiamo parlato in precedenza, sentivo che volevi che il mondo capisse cosa potevano fare le GPU. Era prima di ChatGPT quando abbiamo iniziato a parlare, e ora l’intero mercato mondiale è in bilico quando annunci i risultati. Ora, credo siamo in un periodo di silenzio, non sto chiedendo dei risultati, ma come ci si sente a essere catapultati in quella posizione, al centro del mondo in questo senso?
JH: Beh, mi hai fatto una domanda a cui non ho una risposta interessante. La risposta è che non provo nulla al riguardo, ma riconosco questo: mentre siamo nel processo di reinventare Nvidia, che è sempre al centro di ciò che facciamo in ufficio, stiamo cercando di reinventare Nvidia per essere davanti al gioco, per essere dove l’industria andrà e vogliamo risolvere problemi difficili e contribuire all’industria. Ma ora, cosa molto importante, non solo abbiamo creato una piattaforma di calcolo, abbiamo reinventato la nostra azienda, siamo molto più un’azienda su scala di data center, e offriamo una tecnologia che per la prima volta è completamente integrata per funzionare insieme, ma disintegrata così che l’intero ecosistema possa lavorarci.
Ma la cosa che ho detto nel discorso, che è davvero importante, è che per la prima volta stiamo costruendo computer, non solo per l’industria tecnologica, stiamo costruendo computer per una nuova industria chiamata IA. Ora, l’IA è in parte tecnologia, ma è anche in parte lavoro e aumenta il lavoro come sappiamo, e man mano che entreremo nella robotica sarà molto, molto chiaro. Questa nuova tecnologia chiamata IA è in realtà un’industria completamente nuova, e tutta questa industria sarà alimentata da fabbriche, che avranno bisogno di molti computer, e le persone stanno appena iniziando a rendersi conto che stiamo per entrare in un futuro in cui calcoliamo, ciò che le persone chiamano data center, ma che in realtà sono fabbriche di IA, sarà probabilmente piuttosto grande.
Ho notato che hai citato Satya Nadella nella chiamata sugli utili di Microsoft, che ha riportato il numero di token che hanno processato, credo fosse l’ultimo trimestre. È stato il tuo dato preferito degli utili di questo trimestre? L’ho notato subito anch’io, che metrica fantastica.
JH: In effetti, il numero di token che vengono effettivamente generati è molto, molto, molto più alto di quello. È solo la parte che Microsoft generava per terzi, ma il loro consumo interno è molto, molto più alto e non include nemmeno OpenAI, quindi puoi immaginare quanto sia.
Da quello che so, è una quantità molto, molto grande rispetto al numero riportato. Sei stato in un bel tour mondiale — tu e io sappiamo che Taiwan è bellissima, ho menzionato il nuovo parco uffici — devo chiedere, com’è il Medio Oriente in questo periodo dell’anno?
JH: Caldo, ma non umido.
È un caldo secco, giusto?
JH: Sì, è un caldo secco. Mi è piaciuto molto perché gli edifici erano freddi e uscivo a crogiolarmi al sole e mi sentivo davvero bene. Ma le notti sono semplicemente incredibili. Le notti sono incredibili. Mangiare fuori, prendere una tazza di tè fuori, è davvero incredibile.
Sto ovviamente anche chiedendo di questi accordi sull’IA annunciati con Arabia Saudita ed Emirati Arabi Uniti. Perché dalla tua prospettiva è importante e perché era importante per te essere lì?
JH: Beh, perché mi hanno chiesto di essere lì, e eravamo lì per annunciare due costruzioni di infrastrutture per l’IA piuttosto ambiziose, una in Arabia Saudita e una ad Abu Dhabi, e i leader di entrambi i paesi erano molto in prima linea nel riconoscere l’importanza della partecipazione delle loro nazioni alla rivoluzione dell’IA, riconoscendo che hanno un’opportunità straordinaria, hanno un’abbondanza di energia e una carenza di manodopera, e il potenziale dei loro paesi è limitato dalla quantità di manodopera che hanno, dalla quantità di persone che hanno. Quindi, per la prima volta, possono trasformarsi, se vuoi, da energia a manodopera digitale e manodopera robotica, agenti, robot. Sono super concentrati su questo e molto articolati al riguardo.
Sua Altezza Reale in Arabia Saudita è stato molto articolato al riguardo e molto appassionato e capisce persino la tecnologia. E lo Sceicco Tahnoun ad Abu Dhabi, molto appassionato al riguardo, molto lungimirante, comprende molto profondamente le implicazioni della tecnologia e le opportunità per loro e quindi ero felice di essere lì, stiamo collaborando con entrambi.
Abbiamo aiutato a lanciare una nuova azienda chiamata HUMAIN in Arabia Saudita e la loro speranza è di essere sul palcoscenico mondiale costruendo queste fabbriche di IA, ospitando aziende internazionali, aziende come OpenAI che era anche lì, e quindi un’iniziativa molto grande.
Questo è un grande cambiamento. Parte integrante di questo è un passo indietro dalle regole di diffusione dell’IA, che penso siano state piuttosto dure per quei paesi in particolare, avendo un numero regolamentato, che deve essere controllato da aziende statunitensi, limitato in qualche modo da ciò che viene costruito negli Stati Uniti. Nvidia, credo contrariamente alle tue azioni precedenti, si è espressa molto fortemente contro queste e dalla tua prospettiva — c’è un punto in cui hai dovuto crescere, mi sembra. Tae Kim ha detto nel suo libro che Nvidia è come una macchina di Formula 1 costruita intorno a te, e tu sei il pilota e c’è un punto in cui non volevi mai pensare a queste cose governative, e quindi Nvidia non ci ha mai davvero pensato, e poi improvvisamente sei l’azienda più importante del mondo e hai dovuto imparare questo molto, molto velocemente?
JH: Beh, non è che non volessi mai, non ho mai dovuto. Per la stragrande maggioranza della vita di Nvidia ci siamo occupati di costruire la tecnologia, costruire l’azienda, costruire l’industria, competere.
Sì, in un’industria che è pura competizione.
JH: Ogni singolo giorno, ogni singolo momento. Costruire la nostra catena di approvvigionamento, costruire il nostro ecosistema. Nota che ho appena descritto un mucchio di cose che sono gigantesche in scala e portata, già di per sé abbastanza difficili, e all’improvviso è arrivata la regola di diffusione, e penso che l’abbiamo detto all’epoca, ma credo che ora sia evidente a tutti, è esattamente sbagliata, è esattamente sbagliata per l’America. Se l’obiettivo della regola di diffusione è garantire che l’America debba guidare, la regola di diffusione come è stata scritta causerà esattamente la perdita della nostra leadership.
L’IA non è solo lo strato di software chiamato modello, l’IA è una cosa full-stack, è per questo che tutti parlano sempre di sistemi Nvidia, infrastrutture e fabbriche e così via. L’IA è full-stack. Se l’America vuole guidare nell’IA, deve iniziare guidando full-stack a livello di chip, a livello di fabbrica, a livello di infrastruttura, a livello di modello così come a livello di applicazione — l’IA è tutto questo.
Non puoi semplicemente dire, “Scriviamo una regola di diffusione, proteggiamo uno strato a scapito di tutto il resto”, è insensato. L’idea che limiteremmo la tecnologia IA americana proprio nel momento in cui i concorrenti internazionali hanno recuperato, e l’avevamo praticamente previsto.
E per concorrenti internazionali, intendi altri modelli?
JH: La Cina sta facendo un lavoro fantastico, il 50% dei ricercatori di IA del mondo sono cinesi e non li fermerai, non impedirai loro di avanzare nell’IA. Ammettiamolo, DeepSeek è un lavoro profondamente eccellente. Dare loro meno di questo è una mancanza di fiducia così profonda che non riesco nemmeno a tollerarla.
Abbiamo stimolato quel lavoro a essere ancora migliore a causa delle restrizioni che sono state imposte loro, in particolare in termini di gestione della memoria e larghezza di banda?
JH: Tutti amano la competizione. Le aziende hanno bisogno di competizione per ispirarsi, le nazioni ne hanno bisogno, e non c’è dubbio che li abbiamo stimolati. Tuttavia, mi aspettavo pienamente che la Cina fosse lì a ogni passo. Huawei è un’azienda formidabile, è un’azienda tecnologica di classe mondiale. I ricercatori, gli scienziati di IA in Cina, sono di classe mondiale. Questi non sono ricercatori di IA cinesi, sono ricercatori di IA di classe mondiale. Cammini su e giù per i corridoi di Anthropic o OpenAI o DeepMind, ci sono un sacco di ricercatori di IA lì, e sono dalla Cina. Ovviamente è sensato, e sono straordinari e quindi il fatto che facciano un lavoro straordinario non mi sorprende.
L’idea della diffusione dell’IA che limita l’accesso di altri paesi alla tecnologia americana è una missione espressa esattamente sbagliata, dovrebbe riguardare l’accelerazione dell’adozione della tecnologia americana ovunque prima che sia troppo tardi. Se l’obiettivo è che l’America guidi, allora la diffusione dell’IA ha fatto esattamente il contrario.
Penso che la diffusione dell’IA manchi anche il grande concetto di come funziona lo stack di IA. Lo stack di IA funziona come una piattaforma di calcolo, è una piattaforma. Più grande, più capace è la tua piattaforma, più grande è la base installata, più sviluppatori ci corrono e sviluppano sopra. Quando più sviluppatori ci sviluppano sopra, rende i risultati, le applicazioni, che girano sulla tua piattaforma di calcolo migliori. Di conseguenza, vendi di più, e più della tua piattaforma di calcolo viene adottata, il che aumenta la tua base installata, il che aumenta gli sviluppatori che la usano per sviluppare modelli di IA, il che aumenta — quel sistema di feedback positivo non può essere sottovalutato per qualsiasi piattaforma di calcolo, è il motivo per cui Nvidia ha successo oggi.
L’idea che l’America non competa nel mercato cinese, dove si trova il 50% degli sviluppatori, non ha assolutamente senso da una prospettiva di infrastruttura di calcolo, di architettura di calcolo. Dovremmo andare e dare alle aziende americane l’opportunità di competere in Cina, bilanciare il deficit commerciale, generare entrate fiscali per il popolo americano, costruire, assumere posti di lavoro, creare più posti di lavoro.
Nvidia e Cina
È giusto dire che siamo a metà strada? Perché abbiamo iniziato con l’accordo del Golfo e la regola di diffusione dell’IA e certamente, credo si possa vedere dalla prospettiva della competizione tra stati-nazione, avere questi paesi—
JH: Queste due idee vanno di pari passo e quello che intendo è questo: se non competiamo in Cina, e permettiamo all’ecosistema cinese di costruire un ricco ecosistema perché non siamo lì a competere per esso, e nuove piattaforme vengono sviluppate e non sono americane in un momento in cui il mondo sta diffondendo la tecnologia IA, la loro leadership e la loro tecnologia si diffonderanno in tutto il mondo.
Questo è il mio punto, dove dalla tua prospettiva, siamo a metà strada. Almeno non ci stiamo tagliando fuori in altri paesi.
JH: Esatto.
Ma dovremmo andare fino in fondo e lasciare che Nvidia torni in Cina.
JH: Sì, ma direi che, in effetti, non andare in Cina è circa il 90% del percorso. Non è 50/50, è il 90%.
Quindi abbiamo fatto il 10%.
JH: Sì, esatto. Esattamente.
Per la cronaca, sono d’accordo con te. La mia opinione è che questo tentativo di limitare le vendite di chip e poi dare loro tutte le attrezzature per la produzione di chip che vogliono è precisamente al contrario — è molto più difficile tracciare i chip rispetto alle attrezzature per la produzione di chip comunque. Una delle teorie che le persone a Washington DC hanno avanzato è, “Le aziende di produzione di chip o le aziende di attrezzature per semiconduttori, sono a Washington da anni, sono molto brave a fare lobbying e Nvidia non è qui, e quindi sono indietro”. Ti sembra vero? Hai difficoltà a far capire questo punto di vista alle persone a Washington?
JH: Abbiamo dovuto lavorare molto duramente negli ultimi anni per costruire una presenza a DC. Abbiamo una manciata di persone, la maggior parte delle aziende della nostra dimensione ne hanno centinaia, noi ne abbiamo una manciata. La nostra manciata di persone è incredibile, stanno raccontando la nostra storia. Stanno aiutando le persone a spiegare, capire non solo come funzionano i chip, ma come funzionano gli ecosistemi, e come funzionano gli ecosistemi di IA, e quali sono alcune delle conseguenze non intenzionali delle politiche.
Vogliamo che l’America vinca. Ogni azienda dovrebbe volere che il proprio paese vinca, e ogni paese dovrebbe volere che le proprie aziende vincano, non sono cose terribili da sentire, sono cose buone da sentire, ed è anche buono che le persone amino vincere. La competizione è una cosa buona, aspirare a essere grandi è una cosa buona. Quando qualche paese aspira a essere grande, non dovremmo invidiarli. Quando qualche azienda aspira a essere grande, non li invidio. Ci spinge tutti a salire e a fare ancora meglio di quanto potremmo, e quindi amo guardare le persone che aspirano a essere grandi.
Non c’è dubbio che la Cina aspiri a essere grande, buon per loro! Dovrebbero aspettarsi assolutamente niente di meno, e per tutti i ricercatori di IA e scienziati di IA che conosco in tutto il mondo, sono arrivati dove sono perché tutti aspirano a essere grandi, e lo sono. Penso che l’idea che in qualche modo—
Per vincere, devi abbattere l’altro.
JH: Esatto, non ha senso per me. Dovremmo andare più veloci. Il motivo per cui Nvidia è qui oggi, il motivo per cui abbiamo la nostra posizione oggi, non abbiamo avuto assolutamente nessun supporto da nessuno per arrivare qui, lasciateci solo continuare a correre forte. Penso che l’idea che tratterremmo gli altri, come hai menzionato, li sprona solo a essere ancora più grandi, perché sono persone straordinarie.
Sono d’accordo. Lo trovo, come americano, profondamente frustrante. Sento che dovremmo voler vincere innovando di più, andando più veloci e questa idea che vinceremo tirando su la scala e tagliando fuori le persone, e mettendo nastro burocratico rosso su tutti e cercando di tracciare tutto sembra profondamente, frustrantemente non americano per me.
JH: Sì. Comunque, penso che il Presidente lo veda davvero, vuole che l’America vinca.
Ecco una domanda su questo, perché è la stessa amministrazione che ha tagliato l’H20, un chip che hai praticamente progettato secondo le specifiche della precedente amministrazione, e improvvisamente, “Non va bene”, e ora stanno facendo questo accordo. I critici sono lì, “Oh, questo potenzialmente aprirà alla Cina, XYZ”. Sembra un cambiamento nell’amministrazione, forse loro direbbero che è ancora la stessa cosa. Ma abbiamo anche avuto molti cambiamenti tra Stati Uniti e Cina nelle ultime sei settimane, credo sia un modo per dirlo.
Hai la sensazione che forse ci sia stata una vera realizzazione che questo mondo è così interconnesso e correlato, e ciò che accade da una parte accade dall’altra, e forse non sarà così facile separarlo, e ci sarà un ritorno al pragmatismo, e come lo gestiamo? Sei ottimista in questo senso o ti stai preparando al peggio?
JH: Il Presidente ha una visione di ciò che vuole raggiungere, supporto il Presidente, credo nel Presidente, e penso che creerà un ottimo risultato per l’America, e lo farà con rispetto e con un atteggiamento di voler competere, ma anche cercando opportunità per cooperare. Lo sento, lo vedo tutto questo. Ovviamente, non sono alla Casa Bianca e non so esattamente come si sentono, ma è quello che percepisco.
Prima di tutto, il divieto sugli H20, è il limite di ciò che possiamo fare con Hopper, e l’abbiamo ridotto al punto che non c’è molto altro da tagliare. Abbiamo cancellato — credo siano 5,5 miliardi di dollari — nessuna azienda nella storia ha mai cancellato così tanto inventario, quindi questo ulteriore divieto sull’H20 di Nvidia è profondamente doloroso. I costi sono enormemente costosi, non solo sto perdendo 5,5 miliardi di dollari, abbiamo cancellato 5,5 miliardi di dollari, abbiamo rinunciato a 15 miliardi di dollari di vendite e probabilmente — cos’è? — 3 miliardi di dollari di tasse. Il mercato cinese è di circa 50 miliardi di dollari all’anno e non è 50 milioni, è 50 miliardi. 50 miliardi sono come Boeing, non l’aereo, l’intera azienda. Lasciare questo indietro così che i profitti che ne derivano, la scala che ne deriva, la costruzione dell’ecosistema che ne deriva—
Questa è la vera minaccia per CUDA a lungo termine—
JH: Esatto.
La Cina costruisce un’alternativa.
JH: Esattamente. Chiunque abbia pensato che una mossa scacchistica per bandire in qualche modo la Cina dagli H20 avrebbe in qualche modo tagliato la loro capacità di fare IA è profondamente disinformato.
Crescita del PIL tramite IA
C’è un angolo su questo nel discorso sull’energia che voglio affrontare tra un momento, ma questo sarà più divertente. Lasciamo da parte tutte le cose governative, ci torneremo. Un terzo modo per arrivare alla mia domanda sui mercati finanziari, governi, nel discorso di oggi hai iniziato dicendo, “Siamo un’azienda di infrastrutture, avete bisogno di roadmap a cinque anni”. Hai menzionato di passaggio che la tua stima originale del TAM quando hai fondato Nvidia era di 300 milioni di dollari. Quando hai effettivamente visto questo arrivare, “Saremo infrastrutture?” — di nuovo, torno alle nostre conversazioni precedenti, la mia impressione da quelle è che volevi solo che le persone vedessero questa possibilità. Vedevi la possibilità del calcolo tramite GPU, ma la scala, ti ha un po’ sbalordito?
JH: Se guardi i miei discorsi, come fai tu, quasi costantemente, le cose che stanno accadendo oggi, ne ho parlato cinque anni fa. All’epoca in cui ne parlavo cinque anni fa, le parole non erano così chiare e il vocabolario che usavo non era così preciso, ma dove stavamo andando è coerente.
Quindi, in pratica, ora quando parli molto di robotica alla fine di ogni discorso, cosa che hai fatto, è la nostra anteprima a cinque anni a cui dovremmo davvero prestare attenzione.
JH: Sì. E in effetti, ne parlo da circa tre anni.
Sì, quindi tra un paio d’anni.
JH: Tra un paio d’anni, penso che accadrà.
La cosa che è abbastanza profonda e abbastanza significativa per questa industria è che per tutti gli ultimi 60 anni siamo stati l’industria IT, che è una tecnologia e uno strumento, è una tecnologia e uno strumento usato dalle persone — per la prima volta, lasceremo il budget IT, ciò che vendiamo va nel budget IT, stiamo per lasciare il budget IT e entrare nel budget di produzione o operativo.
Il budget di produzione è perché stiamo costruendo robot o perché i sistemi robotici vengono usati per costruire prodotti e poi il budget operativo è a causa dei lavoratori digitali. Il budget operativo e di capitale del mondo è quanto? Combinati 50 trilioni di dollari? È un numero gigantesco. Quindi l’industria IT è di circa un trilione, stiamo per portare, grazie all’IA, tutti noi in un’industria da circa 50 trilioni di dollari.
Ovviamente, la mia prima speranza, e penso che accadrà in questo modo, anche se i lavori cambieranno e alcuni lavori verranno persi, verranno creati molti lavori. È molto probabile che i sistemi robotici, dove i loro agenti sono robot fisici, probabilmente espanderanno il PIL mondiale. Il motivo è che abbiamo una carenza di manodopera, è per questo che tutti sono impiegati. Se vai in giro per gli Stati Uniti, la disoccupazione è ai minimi storici, ed è perché non abbiamo abbastanza manodopera. I ristoranti hanno difficoltà a trovare personale, molte fabbriche ovviamente hanno molta difficoltà a trovare personale. Penso che l’idea che assumeresti un robot per 100.000 dollari all’anno, penso che le persone lo farebbero in un batter d’occhio e il motivo è perché ha appena aumentato la loro capacità di generare più entrate, e quindi penso che nei prossimi cinque, dieci anni probabilmente sperimenteremo quell’espansione del PIL e un’intera nuova industria di questi sistemi di produzione di token che ora le persone capiranno.
Quello che ho trovato interessante del discorso di oggi è che mi sono preparato per questa intervista prima di venire e ho pensato, “Beh, probabilmente sarà un po’ una ripetizione del GTC”, e invece ho trovato che fosse abbastanza nettamente diverso. Ecco la mia interpretazione, devi dirmi se è corretta. Mi è sembrato che il GTC fosse per gli hyperscaler e la presentazione di oggi fosse per l’IT aziendale, erano come due mercati diversi.
JH: Sì.
Ho capito bene in termini di target?
JH: IT aziendale o agenti e robot, e agenti per l’IT aziendale e robot per la produzione e il motivo è molto chiaro, questo è l’inizio dell’ecosistema.
Hai fatto un bel video, a proposito, dell’ecosistema di Taiwan e questo va nella creazione di tutti i pezzi, è stato davvero fantastico.
Dynamo e Nvidia full-stack
Passiamo al discorso del GTC, è stato uno dei miei discorsi preferiti di tuoi, li guardo tutti e li ho guardati per anni. Un po’ di energia da Professor Jensen, mentre spiegavi i limiti dei data center, perché Nvidia era la risposta, e l’ho interpretato come un messaggio un po’ anti-ASIC. Avevi una combinazione di, hai mostrato la tua roadmap, è come, “Prova a tenere il passo con questo”, e poi numero due, hai introdotto la curva di Pareto di latenza contro larghezza di banda, e poiché sono programmabili, puoi usare le stesse GPU su tutta questa curva e ovviamente, gli hyperscaler sono quelli che faranno gli ASIC.
La curva di Pareto delle prestazioni di inferenza, dal GTC 2025
Ho capito correttamente la tua presentazione lì?
JH: Penso che l’insegnamento fosse corretto, i motivi per cui l’ho fatto non erano esattamente quelli. Stavo semplicemente cercando di aiutare le persone a capire come costruire un nuovo data center. Ci abbiamo pensato e quindi ecco la sfida. C’è solo una certa quantità di energia nel data center. 100 megawatt sono 100 megawatt, 250 megawatt sono 250 megawatt e quindi il tuo lavoro fondamentale, se è una fabbrica, è assicurarti che il rendimento complessivo不做作地 per watt complessivo sia il più alto, perché ciò massimizza il rendimento-per-watt, che è il più alto possibile, perché se è economico, token economici, cioè token gratuiti, o token di alta qualità che qualcuno potrebbe effettivamente pagare, diciamo, mille dollari al mese, 10.000 dollari al mese.
Beh, hai appena menzionato un assistente IA da 100.000 dollari.
JH: Esatto. Assumerei un agente IA da 100.000 dollari all’anno? In un batter d’occhio. E il motivo è che assumiamo persone molto più costose di così tutto il giorno e se posso semplicemente amplificare qualcuno che pago 500.000 dollari all’anno, sarebbe incredibile, per centomila dollari, quindi ovviamente lo farei.
La qualità dei token che generi in una fabbrica è piuttosto varia. Ne hai bisogno di alcuni gratuiti, ne hai bisogno di alcuni di alta qualità e quindi sei su quella Pareto. Non puoi progettare un chip o un sistema che sia bravo solo in uno, perché sarebbe sottoutilizzato e quindi ora la domanda è, come crei un sistema che contemporaneamente, in alcuni momenti, possa essere usato per la generazione di token gratuiti, parte per token gratuiti, parte per alta qualità?
Se frammenti troppo l’architettura, la tua capacità di spostare il carico di lavoro avanti e indietro è difficile e quindi penso che quando le persone ci ragionano sopra, se progetti un sistema che è molto, molto bravo a un alto tasso di token, naturalmente ha un rendimento complessivo molto basso. Se progetti qualcosa a un rendimento molto alto, tende ad avere una bassa interattività, i token-per-secondo per utente sono bassi e quindi è facile abbracciare l’asse X, è facile abbracciare l’asse Y, è difficile riempire quell’area, e quindi questa è l’invenzione su tutta la combinazione di ciò che abbiamo fatto con l’architettura Blackwell e FP4 e NVLink 72 e il rapporto, l’equilibrio tra la memoria HBM e la sua capacità, l’equilibrio tra la quantità di calcolo in virgola mobile e la capacità e la larghezza di banda della memoria e poi, molto importante, l’ecosistema di servizio in streaming disaggregato Dynamo, sistema hardware.
Volevo chiederti di Dynamo, che non è emerso oggi, ma penso sia super interessante.
JH: Super importante.
Fammi il pitch, credo che l’hai chiamato il sistema operativo per i data center.
JH: Il pitch è fondamentalmente che il carico di lavoro di inferenza, il trasformatore, ha diverse fasi, e diverse fasi possono essere usate diversamente a seconda dell’utente e del modello e del contesto di quel modello e quindi abbiamo disaggregato l’elaborazione del modello linguistico di grandi dimensioni in pre-fill, che è l’elaborazione del contesto, pensare a cosa stai per chiedermi. Ha a che fare con i miei ricordi di Ben e il tipo di podcast profondi e conversazionali che ti piace fare, e tendono ad avere — se inizio a parlare profondamente dell’industria e della tecnologia, non mi sento a disagio nel farlo.
Giusto, non stai facendo un sound byte ora per il telegiornale della sera o qualcosa del genere.
JH: Esatto. Mi sento come se potessi approfondire e poiché tu lo capirai, non mi sento come se stessi parlando al muro, e quindi mi sento molto a mio agio nel parlare di queste cose.
Beh, quando un’IA arriva a un chatbot, il chatbot deve avere un po’ di quel contesto e quindi i chatbot hanno memoria, elaborano il contesto, e potrebbero persino dover leggere un PDF o due, e quindi quella è chiamata la parte di pre-fill, quella parte di pre-fill è molto intensiva in termini di virgola mobile.
Poi c’è la parte di decodifica. La parte di decodifica riguarda ora la generazione dei pensieri, riguarda il ragionare su ciò che stai per dire, prevedere il prossimo token e quindi una catena di pensieri genera fondamentalmente molti più token, che vengono reinseriti nel contesto che genera più token, e quindi è un ragionare su un problema passo dopo passo, forse deve andare a leggere qualcosa. Le versioni moderne di IA, le IA agentiche, le IA di ragionamento, la quantità di calcolo in virgola mobile, la quantità di larghezza di banda — la decodifica richiede molta larghezza di banda — è alta in tutti i casi, ma potrebbe essere più alta.
Varia.
JH: Esatto, varia a seconda delle cose.
Non hai bisogno di un’alta precisione in virgola mobile nella fase di decodifica.
JH: Esatto. Quindi, ad esempio, un colpo solo, e ha già una forte cache KV, non hai bisogno di molto calcolo in virgola mobile. Tuttavia, nel momento in cui lo carichi di contesto, hai bisogno di molto calcolo in virgola mobile. Dynamo disaggrega tutta l’elaborazione e la disperde nel data center in modo intelligente, misurando il carico di lavoro e il carico sui processori, roba davvero complessa.
Beh, e si collega al fatto che, se l’intero data center è una GPU, stai parlando di uno strato software che lo tratta in quel modo.
JH: Esatto, è essenzialmente il sistema operativo di una fabbrica di IA.
Quando pensi a questi modelli di pensiero, questi modelli di ragionamento, guardando avanti — sei qualcuno, come hai detto, che fa ottime previsioni — li vedi usati principalmente in flussi di lavoro agentici e lo svantaggio è che stai seduto ad aspettare, o forse stai impostando un mucchio di agenti che agiscono in parallelo, quindi funziona bene, o potrebbero finire per essere più importanti nella generazione di dati per l’addestramento per ottenere migliori risultati one-shot, che è come le persone interagirebbero più frequentemente?
JH: Penso che dipenda dal costo, e la mia previsione è che probabilmente i modelli di ragionamento saranno solo la base, perché li elaboreremo così velocemente. Fondamentalmente, quando accendi Grace Blackwell, è 40 volte più veloce, e diciamo che il prossimo passo è un altro 40 volte più veloce e i modelli stanno migliorando. Quindi l’idea che tra ora e cinque anni da ora potremmo essere 100.000 volte più veloci per i modelli agentici, mi sembra molto sensato.
Questa è la storia del calcolo.
JH: Esatto. Quindi ha appena pensato a una montagna di cose, tu non l’hai visto. Ora è un pensatore veloce, anche il pensiero lento è veloce.
Qual era quel libro? Pensare, veloce e lento, ora applicalo all’IA. Immagino che potrebbe leggere tutto in un secondo, quindi potrebbe sconfiggere lo scopo.
JH: Esatto.
IA aziendale e pragmatismo
Tornando indietro, solo un breve tocco sulla politica. C’è un punto in cui il tuo modo di parlarne e le tue prestazioni-per-watt, è davvero una cosa incentrata sugli Stati Uniti in un mondo in cui abbiamo difficoltà a costruire energia e l’energia è il principale vincolo? Guardi qualcosa come questi paesi del Golfo, l’energia è più accessibile, più facile da costruire per vari motivi, e vai in Cina, indovina un po’? Se l’energia non è il principale vincolo, puoi risolvere molti problemi che Nvidia risolve per te. È per questo che il GTC è negli Stati Uniti, è il messaggio per gli Stati Uniti?
JH: Oh, non ci avevo pensato in quel modo. Penso che non importa cosa accada, la tua fabbrica sarà sempre di una certa dimensione e anche se il tuo paese ha molta più energia, il tuo data center no e quindi penso che le prestazioni-per-watt siano importanti, sempre.
È sempre importante, ma il grado di importanza può variare.
JH: Esatto, sì. È solo che se lo pianifichi, d’altra parte dici, “Ok, beh, ho un’architettura che ha la metà delle prestazioni-per-watt, e quindi forse prenderò il doppio del terreno, e il doppio di energia, e inizierò a costruire da lì”. Quando metti insieme tutte quelle cose, però, questo è il problema.
Ricorda, anche l’infrastruttura stessa e la consegna di energia, diciamo per un gigawatt, facciamo un po’ di matematica semplice. Diciamo che 30 miliardi di dollari potrebbero essere per l’involucro, l’energia, il terreno, il funzionamento, tutto questo 30 miliardi. Diciamo che il calcolo e il networking e tutto, tutto incluso lo storage, 50 miliardi, ok? Beh, se risulta che devi costruirne il doppio, moltiplichi i tuoi 30 per 2, quindi sono 60 miliardi e quindi dovrai procurarti un calcolo davvero economico per compensare. Ecco perché sento sempre che nel mondo delle fabbriche di IA, la matematica suggerirebbe che se un’architettura non è così buona, a volte a seconda di quanto è povera, anche gratis non è abbastanza economico.
Se è la tua unica scelta, lo farai funzionare.
JH: Esatto.
Beh, confrontiamo questo con oggi. Hai detto un paio di volte oggi, “Mi piace se compri tutto da me, ma sono felice se compri qualsiasi cosa da me”. È stato divertente prima che mi si cristallizzasse completamente che questo sembra il discorso aziendale, che sono di nuovo le mie parole non le tue, c’era questo senso di pragmatismo che mi ha fatto pensare, “Sta parlando come un CEO aziendale ora, sono molto pragmatici”. Ovviamente, se compri l’intero stack, funziona meglio, ed è interessante dove se stai parlando di costruire una vera fabbrica di IA, per usare le tue parole, ovviamente usare tutto Nvidia massimizzerà i tuoi ritorni da essa, ma ci sono molti clienti là fuori che comprano solo pezzi e bocconi, e quei clienti, forse ti piacerebbe che comprassero tutto, ma anche se comprano qualcosa da te, probabilmente lo compreranno da te per sempre. Quindi sembra strategicamente una base molto utile da perseguire.
JH: Servire un cliente è semplicemente intelligente. Se guardi il modo in cui Nvidia va sul mercato, abbiamo sempre costruito le cose in modo completamente integrato perché il software deve essere integrato con l’hardware in qualche modo, ma lo facciamo con abbastanza disciplina da poter poi disaggregare il software dall’hardware, e puoi decidere di non usare il nostro software, puoi scegliere di non farlo. E se guardi il modo in cui progettiamo i nostri sistemi, abbiamo effettivamente disaggregato i sistemi in modo sufficientemente disciplinato, che se volessi sostituire alcune parti, potresti. In questo momento, Grace Blackwell viene integrato e installato in tutto il mondo in diversi cloud e sono tutti basati sui nostri standard, ma sono tutti un po’ diversi, e tuttavia ci adattiamo a loro.
Penso che questa sia la vera sfida del modello di business di Nvidia, e va di pari passo con il voler essere un’azienda di piattaforme di calcolo. La cosa più importante è che uno degli stack di Nvidia, se è il nostro stack di calcolo, è fantastico. Se è il nostro stack di networking, di cui mi sento profondamente e fortemente come del mio stack di calcolo, se il mio stack di calcolo viene adottato tutto intero, fantastico. Se il mio stack di networking viene adottato, fantastico. Se entrambi vengono adottati, incredibile.
Beh, voglio dire, molte persone, il tuo NVLink Fusion, puoi prendere solo NVLink, puoi integrarlo con il tuo ASIC con — di nuovo, totale contrasto con quello che ho interpretato del messaggio del GTC — ma di nuovo, posso vedere il punto di vista qui. Voglio dire, chi è il cliente?
JH: Credo ancora profondamente che Nvidia stia costruendo un sistema complessivamente migliore, ci credo ancora. E se non ci credo, allora ovviamente dobbiamo fare qualcosa di sbagliato, e dobbiamo convincerci di crederci, e quindi credo completamente che Nvidia sia l’azienda di calcolo accelerato su scala più grande del mondo, siamo l’azienda di calcolo IA su scala più grande del mondo. Nessuno di 36-38.000 persone è unito a questo unico lavoro più di qualsiasi altro posto e quindi l’idea che un piccolo team di 14 persone possa fare un lavoro migliore di noi sarebbe piuttosto doloroso da interiorizzare, e quindi ci sforziamo di fare meglio.
Tuttavia, credi anche nella scala, e un ottimo modo per ottenere scala in tutto ciò che vendi è venderlo come vuole il cliente.
JH: Esatto, esattamente. Esattamente. Quindi ho delle preferenze, ma vogliamo assicurarci di poter servire ogni cliente come preferisce essere servito.
Che ne è del gaming
In questa linea, e forse è correlato: stavo chiedendo a un mio amico di questa intervista e ha detto che suo figlio ha insistito che facessi questa domanda. Alcune persone nel gaming sentono, l’hai menzionato oggi, solo il 10% del discorso riguarda GeForce, ma è ancora importante per noi. È un, “È ancora importante per noi perché tutto questo scala e stiamo facendo GPU?”, o cosa dovrei dire al figlio del mio amico riguardo a Nvidia e il gaming?
JH: Vedi, vorrei averlo detto, RTX PRO non sarebbe possibile senza GeForce, Omniverse non sarebbe possibile senza GeForce, nessuno di quei pixel che abbiamo visto in quei video sarebbe stato possibile senza GeForce, i robot non sarebbero possibili senza GeForce, Newton non è possibile senza GeForce, quindi GeForce stesso, non è così profondamente parte dell’evento GTC perché il GTC tende a riguardare il calcolo ad alte prestazioni, e aziendale, e IA, e cose del genere. Abbiamo una conferencia separata per gli sviluppatori di giochi e cose del genere e quindi è solo che quando faccio il GTC, mi sento sempre un po’ male per quel gruppo di persone che il loro lancio di prodotto non è così centrale, ma è solo che non è il pubblico giusto, ma sanno anche che GeForce gioca un ruolo così integrante in tutto ciò che facciamo.
Voglio dire, c’è un po’ il fatto che forse i gamer non apprezzano pienamente fino a che punto le loro GeForce sono molto più che semplici motori di rendering grafico a questo punto?
JH: (ridendo) Sì, esatto. Esattamente. E l’ho detto oggi, stiamo renderizzando solo 1 pixel su 10, è un numero scioccante. Supponi che ti dia un puzzle, e ti dia 1 pezzo su 10 e gli altri 10 pezzi non te li do nemmeno, devi inventarteli.
Ho un altro pitch per collegare il gaming alle tue altre cose. Hai appena parlato di come sei disciplinato nel tenere le cose separate, e di poterle separare e il software che gestisce tutto questo. Sembra un po’ il problema dei driver su Windows, a essere totalmente onesti, è solo una competenza di base che hai.
JH: Sì, è solo che un driver è troppo di basso livello, e ha troppe cose, troppi registri e l’astrazione del driver è stata in realtà una rivoluzione in cui Microsoft ha davvero giocato un ruolo molto importante. Windows non sarebbe dove è se non fosse per questo concetto di driver, e ha creato un’astrazione di un’API mentre sotto l’hardware può cambiare abbastanza significativamente.
Siamo open source, il nostro driver ora, e francamente, non vedo molte persone che ci contribuiscono, e il motivo è che nel momento in cui esco con un’altra GPU, tutto il lavoro che hanno fatto nell’ultimo driver viene un po’ buttato via, e quindi senza un grande corpo di ingegneri come ha Nvidia, è difficile farlo. Ma se ottimizziamo ogni GPU per ogni driver con il suo driver associato, allora c’è uno strato di isolamento meraviglioso, uno strato di astrazione, che sia CUDA o DirectX, su cui le persone possono costruire sopra.
Guarda, ecco la mia risposta al figlio del mio amico. Dovevo chiederti delle cose governative, e hai dato una difesa buona e appassionata del tuo punto di vista, ma ti sei davvero entusiasmato e i tuoi occhi si sono illuminati quando ti ho chiesto dei driver di gioco.
JH: Oh, davvero?
Quindi penso che tutto sia ancora a posto.
JH: Oh, bene. Sì, amo GeForce in realtà.
Ecco, per questo è bello parlare di persona. Jensen Huang, grazie mille.
Questa intervista di Daily Update è disponibile anche come podcast. Per riceverla nel tuo lettore di podcast, visita Stratechery.
Il Daily Update è destinato a un singolo destinatario, ma inoltrare occasionalmente va benissimo! Se desideri ordinare più abbonamenti per il tuo team con uno sconto di gruppo (minimo 5), contattami direttamente.
Grazie per essere un sostenitore, e buona giornata!
Condividi
19/05/25 Briefing.com: Sanmina crolla mentre il mercato mette in dubbio il valore dell’acquisizione del business manifatturiero di ZT Systems (SANM)
Sanmina (SANM) registra un forte calo in borsa dopo l’annuncio dell’acquisizione da 3,0 miliardi di dollari del business di produzione di infrastrutture per data center di ZT Systems da Advanced Micro Devices (AMD). Il ribasso riflette le preoccupazioni degli investitori riguardo ai rischi di integrazione, l’ingente debito contratto per finanziare l’operazione e l’emissione di nuove azioni per coprire parte del premio. ZT Systems, acquisita da AMD per 4,9 miliardi di dollari meno di due mesi fa, è un fornitore di soluzioni server hyperscale, specializzato nella progettazione, integrazione, produzione e implementazione di infrastrutture cloud e AI per grandi clienti come Amazon Web Services (AMZN) e Microsoft Azure (MSFT).
Struttura dell’accordo: Sanmina pagherà 2,25 miliardi di dollari in contanti, un premio di 300 milioni di dollari (diviso equamente tra contanti ed equity) e fino a 450 milioni di dollari in pagamenti contingenti basati sulle performance finanziarie del business nei prossimi tre anni. Per finanziare l’operazione, Sanmina ha ottenuto un impegno di 2,5 miliardi di dollari da Bank of America.
Valutazione finanziaria: Con un fatturato annuo di ZT Systems stimato tra 5 e 6 miliardi di dollari, il rapporto prezzo/vendite è di circa 0,5-0,6x, ragionevole per un’attività manifatturiera con margini lordi bassi (potenzialmente sotto il 10%), rispetto alle operazioni di progettazione di chip ad alto margine di AMD. Tuttavia, il pagamento contingente introduce rischi, poiché il raggiungimento del valore totale di 3 miliardi dipende da performance sostenute in un mercato competitivo. Sebbene il prezzo non sembri eccessivo, il successo dell’operazione dipenderà dalla capacità di Sanmina di sfruttare la scala e le relazioni con i clienti di ZT Systems senza erodere i margini, specialmente in un contesto di domanda hyperscale variabile.
Strategia di AMD: La cessione del business manifatturiero di ZT Systems si allinea con l’obiettivo di AMD di concentrarsi su segmenti ad alto margine, come acceleratori AI e sistemi AI rack-scale, liberandosi delle operazioni manifatturiere ad alta intensità di capitale. Mantenendo i team di progettazione e supporto clienti di ZT Systems, AMD può migliorare la qualità e l’implementazione delle soluzioni AI per clienti hyperscale senza il peso della gestione produttiva. La partnership preferenziale con Sanmina per la produzione di soluzioni AI cloud rack e cluster-scale rafforza questa collaborazione, consentendo ad AMD di ottimizzare la supply chain e concentrare la R&S su aree competitive come gli acceleratori Instinct AI e i processori EPYC. Finanziariamente, la vendita da 3 miliardi, dopo l’acquisizione da 4,9 miliardi, permette ad AMD di recuperare una parte significativa dell’investimento, rafforzando il bilancio per ulteriori investimenti in AI, anche se la cessione riduce il controllo diretto sulla qualità e i tempi di produzione.
Impatto per Sanmina: L’acquisizione del business manifatturiero di ZT Systems rappresenta una svolta strategica per cavalcare il boom delle infrastrutture AI, posizionando Sanmina come leader negli ecosistemi cloud e AI. L’operazione rafforza le capacità di Sanmina in tecnologie di componenti, integrazione di sistemi e soluzioni di supply chain, integrando l’expertise di ZT Systems nella produzione di alta qualità per hyperscaler, in particolare nelle tecnologie di raffreddamento a liquido avanzate, cruciali per ambienti di calcolo AI densi. L’operazione dovrebbe incrementare l’EPS non-GAAP di Sanmina nel primo anno post-chiusura, grazie alle sinergie derivanti dalla combinazione dell’expertise manifatturiera globale di Sanmina con le relazioni hyperscale e le strutture specializzate di ZT Systems. Tuttavia, Sanmina dovrà affrontare pressioni sui margini nel contract manufacturing e costi di integrazione, che potrebbero limitare la crescita dell’EPS se la domanda hyperscale rallenta o la competizione si intensifica.
Conclusioni: Per AMD, la cessione affina il focus sul design AI ad alto margine e recupera capitale significativo, ma comporta rischi di minore controllo sulla produzione. Per Sanmina, l’acquisizione offre un posizionamento strategico nell’infrastruttura AI con forte potenziale di crescita di fatturato ed EPS, ma presenta sfide in termini di integrazione e sostenibilità dei margini.
Nota sui dati finanziari di SANM: Il prezzo attuale di Sanmina (SANM) è 80,021 USD (19 maggio 2025), in calo rispetto alla chiusura del giorno precedente di 84,56 USD, con un minimo giornaliero di 78,471 USD e un massimo di 84,975 USD. Questo ribasso riflette le preoccupazioni del mercato descritte sopra. La capitalizzazione di mercato è di circa 4,46 miliardi USD, con un massimo annuale di 91,1225 USD e un minimo di 61,52 USD.
08/05/25 Barron’s: Le azioni di Arm crollano. Perché il designer di chip non è un al riparo dalle tariffe.
Di Adam Clark
Arm Holding stava crollando bruscamente giovedì mattina presto. Le speranze che il progettista di chip sarebbe stato protetto dalle tariffe, come i suoi pari nel settore dei semiconduttori, sembrano essere state fuori bersaglio.
Le azioni di Arm erano in calo dell’8,9% nel premercato di giovedì dopo che le previsioni per il trimestre corrente si sono rivelate inferiori alle aspettative degli analisti.
Le azioni erano leggermente cresciute finora quest’anno, sfidando un più ampio crollo delle azioni dei chip, grazie alla speranza che il suo modello di business sarebbe stato resiliente contro le minacce di tariffe. I produttori di chip licenziano il lavoro di Arm e poi pagano una piccola royalty per ogni chip progettato da Arm che vendono.
Tuttavia, la dirigenza di Arm ha stimato che dal 10% al 20% delle sue entrate da royalty proviene dalle importazioni negli Stati Uniti, che sono vulnerabili a una debolezza della domanda guidata dalle tariffe. L’azienda con sede nel Regno Unito è onnipresente nel mercato dei telefoni cellulari e sta espandendo la sua presenza nei processori per computer personali e server di fascia alta. Tra i clienti di Arm ci sono Apple, Qualcomm e Nvidia
“Sebbene continuiamo a considerare Arm positivamente nel lungo termine, data la sua crescente monetizzazione della proprietà intellettuale e il potenziale di guadagno di quote di mercato, siamo più cauti sul titolo nel breve termine a causa della sua ampia esposizione macroeconomica,” ha scritto l’analista di William Blair Sebastien Naji in una nota di ricerca.
Naji ha abbassato le sue stime per la crescita dei ricavi di Arm per l’anno fiscale 2026 al 15% dal precedente 20,5%, pur mantenendo un rating Outperform sul titolo senza indicare un prezzo obiettivo.
Un altro motivo per il forte calo è probabilmente la valutazione elevata di Arm. All’inizio della sessione di giovedì, Arm era scambiata a circa 64 volte gli utili previsti per l’anno fiscale corrente, secondo FactSet.
“Riteniamo che la valutazione premium di Arm (>40x P/E CY 26) lasci poco margine per errori nelle previsioni, nonostante i suoi margini superiori e il profilo di entrate ricorrenti,” ha scritto l’analista di CFRA Angelo Zino in una nota di ricerca.
Scrivere ad Adam Clark all’indirizzo adam.clark@barrons.com
08/05/25 Barron’s: Le azioni di Nvidia e AMD salgono mentre Trump pianifica di abolire le regole sull’esportazione di chip di Biden
Di Adam Clark
Le azioni di Nvidia e di altri produttori di semiconduttori erano in rialzo giovedì, dopo che l’amministrazione Trump ha dichiarato di voler abolire le regolamentazioni che avrebbero limitato le esportazioni di chip per l’intelligenza artificiale in tutto il mondo.
Le azioni Nvidia erano in rialzo dell’1,9% a 119,25 dollari nel premercato. Advanced Micro Devices guadagnava l’1,3% e Broadcom saliva dell’1,9% nel premercato.
I produttori di chip erano in crescita dopo che il Dipartimento del Commercio ha dichiarato mercoledì pomeriggio che non intende implementare le restrizioni sui processori per l’IA elaborate sotto l’amministrazione Biden, secondo quanto riportato dal The Wall Street Journal. Le restrizioni sarebbero dovute entrare in vigore il 15 maggio e avrebbero limitato le vendite in modo più ampio rispetto alle sanzioni esistenti sulle esportazioni verso la Cina.
Le cosiddette regole di “diffusione dell’IA” avrebbero dovuto ridurre il mercato a lungo termine dei chip per l’IA fino al 10%, secondo gli analisti di BofA Securities.
“Accogliamo con favore la leadership dell’amministrazione e la nuova direzione nella politica sull’IA. Con l’abolizione della regola di diffusione dell’IA, l’America avrà un’opportunità unica in una generazione di guidare la prossima rivoluzione industriale, creare posti di lavoro ben retribuiti negli Stati Uniti, costruire nuove infrastrutture fornite dagli Stati Uniti e ridurre il deficit commerciale,” ha dichiarato un portavoce di Nvidia in una dichiarazione inviata via email.
Scrivere ad Adam Clark all’indirizzo adam.clark@barrons.com
07/05/25 Briefing.com: AMD Stabile Dopo Risultati del Primo Trimestre Positivi; Guidance del Secondo Trimestre Incoraggiante, ma Incertezze su Cina Persistono (AMD)
Advanced Micro Devices (AMD) è scambiata in modo sostanzialmente stabile dopo i risultati del primo trimestre, pubblicati ieri sera, che hanno superato le aspettative. Il superamento delle attese sugli utili per azione (EPS) è stato leggermente più marcato rispetto ai trimestri recenti. I ricavi di questo produttore di chip, che compete con NVIDIA (NVDA) e Intel (INTC) nella corsa all’intelligenza artificiale, sono aumentati del 35,9% su base annua, raggiungendo 7,44 miliardi di dollari, superando le previsioni, grazie a una crescita significativa delle vendite di acceleratori Instinct AI, CPU EPYC e Ryzen. Inoltre, il punto medio della guidance sui ricavi per il secondo trimestre è stato superiore alle aspettative degli analisti.
Nel trimestre precedente, il titolo era crollato dopo i risultati, nonostante un superamento delle attese, a causa di una delusione significativa nei ricavi del segmento Data Center. Nel primo trimestre, i ricavi del segmento Data Center sono cresciuti del 57% su base annua a 3,7 miliardi di dollari, trainati principalmente da continui guadagni di quote di mercato delle CPU per server sia tra i clienti cloud che aziendali, oltre alla forte crescita degli acceleratori GPU Instinct di AMD. La domanda da parte degli hyperscaler è rimasta robusta, con i provider cloud che hanno ampliato le implementazioni di EPYC.
Per quanto riguarda il business Data Center AI, i ricavi sono aumentati di una percentuale significativa a due cifre su base annua, con le spedizioni di MI325X che hanno accelerato per supportare nuove implementazioni aziendali e cloud. Diversi hyperscaler hanno ampliato l’uso degli acceleratori Instinct per coprire un range crescente di ricerche AI generative. AMD ha anche aggiunto numerosi clienti Tier 1, sia cloud che aziendali, nel primo trimestre.
AMD ha iniziato a campionare la sua serie di prossima generazione MI350 con diversi clienti ed è sulla buona strada per avviare una produzione accelerata entro la metà del 2025. Guardando ancora più avanti, AMD è entusiasta della serie Instinct MI400, una nuova linea di acceleratori AI prevista per il rilascio nel 2026, progettata per migliorare le prestazioni e l’efficienza per attività di addestramento e inferenza AI. AMD riferisce che i suoi team sono pienamente coinvolti e stanno già collaborando con clienti chiave nella progettazione a livello di rack. I primi feedback dei clienti sono stati molto positivi. AMD prevede che la serie MI400 espanderà significativamente il mercato indirizzabile (TAM) dei suoi acceleratori AI, con i clienti che pianificano implementazioni più ampie di Instinct.
Come promemoria, ad aprile è stato introdotto un nuovo requisito di licenza per l’esportazione delle spedizioni di MI308 verso la Cina. AMD ha stimato una riduzione dei ricavi di 700 milioni di dollari nel secondo trimestre e di 1,5 miliardi di dollari per l’intero 2025.
I ricavi del segmento Client e Gaming sono cresciuti del 28% su base annua a 2,9 miliardi di dollari. Il principale motore è stato il segmento Client, con ricavi in aumento del 68% su base annua a 2,3 miliardi di dollari, trainati dalla forte domanda per i più recenti processori AMD Ryzen “Zen 5” e da un mix di prodotti più ricco. I ricavi del segmento Gaming sono diminuiti del 30% su base annua a 647 milioni di dollari a causa di una riduzione dei ricavi da semiconduttori personalizzati. Infine, i ricavi del segmento Embedded sono scesi del 3% su base annua a 823 milioni di dollari, con una domanda nei mercati finali che è rimasta mista.
Nel complesso, riteniamo che questo sia stato un rapporto discreto per AMD, con la guidance per il secondo trimestre come punto saliente. La guidance ha calmato alcune preoccupazioni. Il segmento Data Center ha performato piuttosto bene. È stato positivo sentire AMD riaffermare le tempistiche per le serie MI350 e MI400. Avevamo alcune preoccupazioni su come il nuovo requisito di licenza per l’esportazione potesse influire sulla guidance del secondo trimestre e dell’intero 2025. Sebbene significativo, almeno ora abbiamo una certa chiarezza. Tuttavia, pensiamo che un’ombra rimanga su AMD finché le questioni relative alla Cina non saranno risolte.
28/04/25 Barron’s: Le azioni di Wolfspeed salgono del 21%. Perché il produttore di semiconduttori sta guadagnando terreno.
Di Mackenzie Tatananni
Le azioni di Wolfspeed (WOLF +27,25%) sono balzate lunedì, a pochi giorni dalla pubblicazione dei risultati del terzo trimestre fiscale.
Le azioni sono salite del 27% senza notizie significative che potessero giustificare il rialzo. Wolfspeed era in procinto di chiudere la quinta giornata consecutiva di guadagni, il miglior periodo dall’ottobre scorso, quando registrò un aumento del 71% in cinque giorni, secondo i dati di Dow Jones Market Data.
Il rialzo potrebbe essere dovuto agli sforzi dei venditori allo scoperto—operatori che scommettono sul calo del prezzo di un’azione—per chiudere le loro posizioni. I venditori allo scoperto prendono in prestito azioni e le vendono, sperando di riacquistarle a un prezzo più basso per restituirle al prestatore, intascando la differenza come profitto.
Questa strategia può incontrare difficoltà se molte azioni vengono prese in prestito e vendute allo scoperto. Un improvviso aumento del prezzo può scatenare una corsa all’uscita, facendo salire ulteriormente il prezzo e mettendo ancora più pressione sui venditori allo scoperto per chiudere le loro posizioni.
Gli analisti di Raymond James hanno notato nel loro ultimo rapporto sull’industria dei semiconduttori che l’attività aggregata di vendite allo scoperto è aumentata del 5% all’inizio di aprile rispetto alla fine di marzo. Wolfspeed era in cima alla lista delle azioni con il più alto rapporto di interesse allo scoperto, pari al 41%. Questo valore è calcolato dividendo la quantità di azioni vendute allo scoperto per il volume medio giornaliero di scambi.
L’azienda, che pubblicherà i suoi risultati l’8 maggio, progetta e produce semiconduttori a banda larga (wide bandgap), che consentono ai dispositivi di operare a temperature e voltaggi più elevati.
Il rapporto sugli utili del secondo trimestre, pubblicato a fine gennaio, ha indicato una perdita netta cresciuta a 372,2 milioni di dollari, rispetto ai 125,9 milioni di dollari dell’anno precedente.
Wolfspeed ha comunicato agli investitori di aspettarsi per il terzo trimestre ricavi da operazioni continuative tra 170 e 200 milioni di dollari, con una perdita netta rettificata compresa tra 138 e 119 milioni di dollari. Gli investitori saranno attenti a verificare se queste previsioni saranno confermate.
L’azienda ha dichiarato il mese scorso di aver adottato misure per rafforzare la sua struttura patrimoniale. Wolfspeed ha ricevuto 192,1 milioni di dollari in rimborsi fiscali in contanti grazie a un credito d’imposta per la produzione avanzata, istituito con il Chips Act del 2022.
Scritto da Mackenzie Tatananni all’indirizzo mackenzie.tatananni@barrons.com
21/04/25 Briefing.com: NVIDIA scende sotto i 100 dollari mentre la rivale cinese Huawei si prepara a distribuire in massa un nuovo chip AI (NVDA)
NVIDIA (NVDA -5%) compie oggi un altro passo indietro, scendendo nuovamente sotto la soglia dei 100 dollari dopo un report di Reuters secondo cui una delle sue principali concorrenti cinesi, Huawei, si sta preparando a lanciare in massa un chip AI aggiornato, mettendo direttamente nel mirino NVDA. La notizia arriva mentre la Cina cerca rapidamente un’alternativa valida ai chip NVDA, a seguito delle prolungate restrizioni all’export imposte dagli Stati Uniti sui chip AI avanzati destinati alla regione.
La scorsa settimana, NVDA ha registrato un forte calo in Borsa dopo aver svalutato il proprio inventario per circa 5,5 miliardi di dollari, segnalando difficoltà nell’ottenere le licenze necessarie per esportare in Cina i suoi chip AI riconfigurati, gli H20. Questi chip depotenziati stavano già posizionando NVDA su un percorso di ostacoli competitivi, dato che l’H20 era utile principalmente per modelli AI semplici, aprendo la strada ai concorrenti per conquistare una posizione dominante in Cina nel segmento del training di modelli AI complessi.
- Non c’è voluto molto prima che un concorrente trovasse il modo di ottenere prestazioni simili a quelle dei chip più avanzati di NVDA. A febbraio, Huawei ha ottenuto rese significativamente più elevate per il suo chip AI Ascend 910C, che vanta prestazioni simili a quelle dell’H100 di NVDA, utilizzando un processo produttivo di SMIC, produttore cinese di semiconduttori, che ha permesso a Huawei di aggirare le restrizioni sull’uso della litografia EUV. Grazie a questo processo, Reuters riporta che Huawei potrà iniziare le spedizioni in massa ai clienti cinesi già dal prossimo mese.
- Sebbene non sia allo stesso livello della piattaforma di punta B200 (o Blackwell) di NVDA, il 910C colma un vuoto nel mercato cinese. Per fare un confronto, l’H20 di NVDA, una versione ridotta dell’H100, ha comunque mantenuto una crescita sequenziale negli ultimi trimestri, segnalando una solida domanda per il chip “annacquato”. Con il 910C di Huawei che promette prestazioni migliori rispetto all’H20, potrebbe rapidamente diventare la scelta principale per molte aziende cinesi.
- Lo sviluppo di Huawei arriva in un momento ideale per il colosso tecnologico cinese. Tuttavia, per i concorrenti statunitensi e i loro fornitori, come Taiwan Semi (TSMC), coincide con una fase di forte incertezza sul futuro economico a breve termine e sulle implicazioni delle politiche commerciali dinamiche, spingendo oggi al ribasso i titoli di NVDA e di molti altri produttori di semiconduttori.
- A margine, TSMC ha ribadito la scorsa settimana le proprie previsioni di crescita dei ricavi per l’anno fiscale 2025, ma ha osservato che lo scenario sulle tariffe resta poco chiaro. Le novità su Huawei potrebbero colpire in modo significativo i ricavi di NVDA provenienti dalla Cina, offuscando di conseguenza anche le possibilità di TSMC di raggiungere i suoi obiettivi annuali.
L’articolo odierno di Reuters ha ulteriormente evidenziato i forti ostacoli di NVDA in Cina. Le restrizioni alle esportazioni imposte dall’amministrazione precedente stavano già fungendo da freno, con le spedizioni verso la Cina dimezzate nel Q4 (gennaio) rispetto ai livelli precedenti alle limitazioni. La scorsa settimana avevamo segnalato, dopo la svalutazione da 5,5 miliardi di dollari, che il business di NVDA in Cina (che rappresenta circa il 13% dei ricavi totali) stava affrontando una fase di forte criticità, e che la volatilità potrebbe aumentare nei prossimi mesi mentre si dispiegano gli effetti delle tariffe. Questa tendenza potrebbe continuare, man mano che gli investitori valutano il possibile impatto sugli utili derivante dalle continue battute d’arresto in Cina e dagli effetti materiali delle tariffe.
03/04/25 Financial Time: I profitti di Raspberry Pi calano nei primi risultati dopo l’IPO
Il produttore di computer a basso costo afferma che i problemi di inventario legati alla pandemia sono stati “normalizzati”
I profitti ante imposte di Raspberry Pi sono diminuiti di oltre il 50% nel 2024, mentre il progettista di semiconduttori e produttore di piccoli computer a basso costo ha affrontato problemi di inventario, nei suoi primi risultati annuali completi da quando è diventata pubblica alla Borsa di Londra lo scorso giugno.
L’azienda ha dichiarato che i problemi di inventario legati alla pandemia hanno portato a un calo del 57% dei profitti ante imposte, scesi a 16,3 milioni di dollari. Tuttavia, ha affermato che questi problemi sono stati “normalizzati” e che ora si aspetta “un costante aumento della domanda nel corso dell’anno, posizionandoci fortemente nonostante le persistenti incertezze macroeconomiche e geopolitiche”.
L’azienda con sede a Cambridge ha riportato utili rettificati prima di interessi, tasse, deprezzamento e ammortamento di 37,2 milioni di dollari per l’anno conclusosi a dicembre, superando le stime degli analisti di 36,6 milioni di dollari, ma inferiori del 15% rispetto al 2023. I ricavi sono diminuiti del 2%, attestandosi a 259,5 milioni di dollari.
Le azioni della società sono aumentate del 4% all’apertura di mercoledì. Gli analisti di Jefferies hanno aggiornato il rating del titolo da “mantenere” a “comprare” mercoledì mattina.
L’offerta pubblica iniziale di Raspberry Pi lo scorso anno, con una valutazione di 542 milioni di sterline, è stata vista come una rara vittoria per il mercato di Londra, che sta lottando per attrarre quotazioni, in particolare da aziende tecnologiche, che generalmente preferiscono quotarsi negli Stati Uniti.
L’amministratore delegato Eben Upton ha dichiarato che l’azienda ha rilasciato più prodotti nella seconda metà del 2024 rispetto a qualsiasi altro anno completo precedente, il che “ha aiutato a soddisfare le aspettative di mercato in un anno dominato dalla ben nota correzione dell’inventario”.
Raspberry Pi ha venduto 1,9 milioni di unità del suo computer Pi 5 da 120 dollari, lanciato nell’ottobre 2023. Ha dichiarato di aspettarsi che le “promettenti” discussioni con i produttori di apparecchiature originali contribuiscano sempre più alle vendite a partire dal prossimo anno.
Raspberry Pi ha iniziato a vendere i suoi prodotti al pubblico nel 2012. È stata fondata sotto la Raspberry Pi Foundation, un’organizzazione benefica britannica creata nel 2008 per promuovere l’informatica tra i giovani.
La sua IPO ha raccolto 178,9 milioni di sterline, di cui 31,4 milioni per l’azienda. Raspberry Pi ha dichiarato che i fondi saranno utilizzati per progetti di ingegneria e il lancio di nuovi prodotti.
31/03/25 Briefing.com: Arm Holdings plc in calo nonostante abbia visto la quota della CPU del suo data center triplicare quest’anno (ARM)
Arm Holdings (ARM -3%) scende nonostante la società abbia detto a Reuters oggi che la sua quota di mercato delle CPU per data center salmenterà da circa il 15% nel 2024 al 50% entro la fine di quest’anno. Il rapporto arriva in un momento in cui The Information ha notato oggi che i principali fornitori di cloud, ad esempio Amazon AWS (AMZN), Microsoft Azure (MSFT) e Google Cloud (GOOG), stanno iniziando a mostrare moderazione nella spesa relativa all’IA. Il rapporto arriva pochi mesi dopo che questi iperscalatori hanno annunciato o riaffermato i piani per aumentare la loro spesa per l’IA nel 2025, con la cifra totale che dovrebbe raggiungere i 320 miliardi di dollari, con un aumento stimato del 40% annuo.
Tuttavia, il paesaggio sta cambiando. L’informazione ha affermato che alcune di queste aziende Big Tech che sono state veloci a versare fondi nelle implementazioni di intelligenza artificiale due anni fa stanno iniziando a fare un passo indietro e a valutare i loro ritorni sugli investimenti prima di sborsare capitale aggiuntivo. Nel frattempo, rimane la ricaduta persistente dell’annuncio di DeepSeek a gennaio. La startup cinese ha scosso l’industria dell’intelligenza artificiale quando si è comportata in modo simile ai modelli di intelligenza artificiale di punta con sede negli Stati Uniti nonostante abbia speso solo pochi milioni di dollari per la formazione. DeepSeek è open source, come Meta AI, che può ridurre i prezzi sui modelli di OpenAI e altre alternative closed-source. Le aziende stanno iniziando a guardarli più seriamente come un modo per ridurre i costi complessivi dell’IA.
Tuttavia, solo perché le imprese stanno potenzialmente cercando di spendere meno per l’IA non significa che non siano ferme nel loro impegno a garantire le rispettive posizioni di leadership nel settore. In effetti, inclinarsi verso l’efficienza dei costi potrebbe essere un positivo netto per ARM.
- Ciò che separa l’architettura della CPU di ARM dalle alternative x86 sviluppate da Advanced Micro (AMD) e Intel (INTC) è la sua efficienza. L’IA è incredibilmente affamata di energia, il che mette pressione sull’industria per sviluppare prodotti che possono fare di più ma utilizzare meno energia. A febbraio, ARM ha toccato la svolta di DeepSeek, osservando che sarà un vantaggio netto per AI e ARM principalmente perché guida l’efficienza, rendendo più facile eseguire applicazioni di intelligenza artificiale dove l’alimentazione è limitata.
- ARM non fa chip, ma concede in licenza la sua architettura a progettisti di chip come NVIDIA (NVDA) e Apple (AAPL), quindi prende una royalty sulle vendite unitarie. In quanto tale, non deve aumentare la produzione per raggiungere il suo ambizioso obiettivo di quota di mercato dei data center. Invece, ha solo bisogno che i suoi clienti guardino a progettare più efficienti dal punto di vista energetico utilizzando la sua architettura.
- Tuttavia, ARM ha cercato di creare i propri chip. Il mese scorso, FT.com ha riferito che ARM stava cercando di lanciare chip quest’anno dopo aver assicurato Meta Platforms (META) come uno dei suoi primi clienti. I piani di ARM includono competere con Qualcomm (QCOM), uno dei suoi maggiori clienti, per vendere CPU per data center a META. A parte eventuali battute d’arresto, appoggiandosi alle licenze mentre vende i propri chip a META, ARM ha il potenziale per strasciare lo spazio dell’intelligenza artificiale e alla fine raggiungere il suo obiettivo di quota di mercato del 50%.
Un ambiente economico incerto potrebbe smorzare l’umore intorno all’appetito degli iperscalatori per la spesa per l’IA. Tuttavia, ARM si trova in una posizione attraente, pubblicizzando notevoli vantaggi di efficienza rispetto all’architettura alternativa della CPU per supportare una potenziale corsa verso la cementazione della sua quota di mercato del 50% nello spazio CPU del data center.
26/03/25 Barron’s: Il Titolo di Nvidia Crolla. Tutto Va Male Ovunque, Tutto in Una Volta.
Di Ben Levisohn e Adam Clark
In questo articolo: NVDA SPX AVGO INTC
Il titolo di Nvidia (NVDA, -5,74%) era diretto verso il suo secondo calo più significativo a marzo, mentre la possibilità di normative più severe sui suoi chip in Cina spinge le azioni al ribasso, un rapporto negativo sulla spesa nei data center e altri fattori inducono gli investitori a fuggire dai titoli tecnologici.
Le azioni di Nvidia sono diminuite del 6,5% a 112,88 dollari durante gli scambi del pomeriggio, mentre l’indice di riferimento S&P 500 (SPX, -1,12%) è sceso dell’1,3%. Anche altri titoli di semiconduttori sono in calo: Advanced Micro Devices ha perso il 4,6%, Broadcom (AVGO, -4,78%) è scesa del 4,7% e Intel ha registrato un calo del 3,4%. L’ETF Technology Select Sector SPDR è diminuito del 2,2%.
Il calo arriva mentre crescono i dubbi sul futuro dei chip di Nvidia in Cina. Joe Tsai, presidente di Alibaba, ha dichiarato di essere “sbalordito” dalla spesa delle aziende tecnologiche statunitensi in infrastrutture di intelligenza artificiale durante l’HSBC Global Investment Summit a Hong Kong martedì, mettendo in discussione la necessità di investire centinaia di miliardi in data center per l’IA.
Nel frattempo, gli Stati Uniti hanno aggiunto martedì dozzine di aziende cinesi a una lista nera commerciale per motivi di sicurezza nazionale, richiedendo l’approvazione del governo prima che possano acquistare tecnologia americana. Tra queste figurano filiali del Gruppo Inspur, il più grande produttore cinese di server e un importante cliente di Nvidia, Intel (INTC, -3,22%) e Advanced Micro Devices.
Sussistono anche preoccupazioni potenziali riguardo alle pressioni da parte di Pechino. Secondo il Financial Times, citando fonti informate, i regolatori cinesi stanno scoraggiando le grandi aziende tecnologiche del paese dall’acquistare il chip H20 di Nvidia—progettato specificamente per soddisfare le sanzioni statunitensi sulle esportazioni—poiché viola le norme sull’efficienza energetica.
Le regole non sono state ancora applicate rigorosamente e non stanno attualmente influenzando le vendite dell’H20, ma la società sta cercando di organizzare un incontro con i regolatori cinesi e si prepara a modificare i chip, il che potrebbe renderli meno competitivi, riporta il FT.
“I nostri prodotti offrono un’eccellente efficienza energetica e valore in ogni mercato che serviamo. Mentre la tecnologia avanza rapidamente, la politica di controllo delle esportazioni dovrebbe essere adeguata per consentire alle aziende statunitensi di offrire i prodotti più efficienti dal punto di vista energetico possibile, pur raggiungendo gli obiettivi di sicurezza nazionale dell’Amministrazione”, ha dichiarato un portavoce di Nvidia in una nota via email.
Niente di fondamentale, noterete, sta andando storto, ma tutto ciò che riguarda il sentiment sembra esserlo. L’analista di Mizuho, Daniel O’Regan, ha aggiunto altri elementi, tra cui una nota di TD Cowen che segnala un rallentamento nella spesa per i data center e i dazi automobilistici. Ma in realtà, è solo il desiderio di liberarsi dei titoli tecnologici e acquistare asset più sicuri. “Continuiamo a vedere denaro uscire da tutto ciò che è legato all’IA e dirigersi verso temi più difensivi/basso valore come Telecom e Media”, scrive O’Regan. “La gente spara prima e fa domande dopo.”
Svegliatemi quando inizieranno le domande.
Scritto da Adam Clark all’indirizzo adam.clark@barrons.com
24/03/25 CNBC: Lisa Su della AMD ha già sconfitto Intel. Ora punta a Nvidia
PUBBLICATO GIO, 20 MAR 2025 08:00 EDT
Di Kif Leswing
PUNTI CHIAVE
- Lisa Su, CEO di AMD, è stata la CEO donna più pagata per cinque anni consecutivi, secondo un sondaggio AP.
- Sotto la sua guida, la capitalizzazione di mercato di AMD è passata da 2 miliardi di dollari a 175 miliardi di dollari in un decennio, superando nel frattempo il rivale Intel.
- Ora sta affrontando Nvidia, cercando di conquistare una fetta più grande del mercato dell’intelligenza artificiale.

Quando Lisa Su è diventata CEO di Advanced Micro Devices (AMD) alla fine del 2014, l’azienda era in gravi difficoltà e vicina al fallimento. Nel mercato dei processori per computer, AMD non era competitiva rispetto a Intel. L’azienda aveva miliardi di dollari di debiti e si era impegnata a produrre chip per clienti che potevano non esistere. Alla fine dell’anno, AMD valeva appena 2 miliardi di dollari, mentre Intel era valutata circa 180 miliardi.
“Ho avuto mentori nella mia carriera che mi dicevano: ‘Non penso che sia una buona mossa'”, ha raccontato Su, 55 anni, in un discorso alla Stanford University a marzo, riflettendo sulla decisione di accettare il ruolo oltre un decennio fa.
Oggi, Su si trova in una posizione molto diversa.
AMD ha superato Intel in termini di capitalizzazione di mercato nel 2022 e ora vale 172 miliardi di dollari, con un aumento di circa 85 volte durante il mandato di Su. Milioni di giocatori si affidano ogni giorno ai processori AMD per le console Microsoft Xbox e Sony PlayStation. I chip AMD sono così importanti che il governo degli Stati Uniti li considera critici per la sicurezza nazionale.
Tuttavia, AMD si considera ancora un underdog. Questo perché è un lontano secondo nel campo dell’intelligenza artificiale, dietro a Nvidia, il colosso da quasi 3 trilioni di dollari che domina il mercato delle unità di elaborazione grafica (GPU). Per avere un ruolo serio nel futuro della tecnologia, AMD sa di dover conquistare una fetta più grande del mercato delle GPU per l’AI, dove le più grandi aziende tecnologiche del mondo spendono miliardi di dollari all’anno per infrastrutture avanzate.
Alla base della strategia di AMD c’è la convinzione di Su, radicata nel suo background ingegneristico, che il successo in questo settore sia guidato da decisioni tecniche corrette che portano ai chip dalle prestazioni più elevate. Possono volerci anni prima di vedere i risultati nei prodotti.
“Una delle cose che mi piace dire sull’industria dei semiconduttori, o sulla tecnologia in generale, è che le decisioni che prendiamo oggi avranno un impatto reale tra tre o cinque anni”, ha detto Su a Stanford. “Si tratta di fare le scommesse giuste.”
Su si distingue nella Silicon Valley, soprattutto durante il Mese della Storia delle Donne, perché è l’unica CEO donna tra le prime 10 aziende di semiconduttori per capitalizzazione di mercato. I chip rimangono un campo dominato dagli uomini, con le donne che rappresentano solo il 30% della forza lavoro del settore, secondo Accenture.
È stata anche la CEO donna più pagata per cinque anni consecutivi, secondo un sondaggio dell’Associated Press.
Le statistiche non sono favorevoli in tutto il mondo aziendale. Circa il 10% dei CEO delle Fortune 500 sono donne, con 52 nel gruppo nel 2024, rispetto alle 41 del 2021, secondo il Women Business Collaborative.
“Sa cosa fanno”
Su, nota per fare scommesse nella sua vita personale (è una fan del Texas Hold’em ed è stata vista giocare a poker con il suo staff di vendita), sta facendo una scommessa professionale a lungo termine sull’AI.
AMD si è impegnata a presentare nuovi chip per l’AI su base annuale e a costruire una divisione software con migliaia di dipendenti per creare strumenti open-source per i suoi chip che possano competere con il linguaggio CUDA dominante di Nvidia.
Su è profondamente coinvolta nella roadmap tecnologica dell’azienda, visitando frequentemente i laboratori di chip, ha detto Mark Papermaster, chief technology officer di AMD.
“Lisa è molto ammirata dal team di ingegneria perché sa cosa fanno, e loro sanno che lei lo sa”, ha detto Papermaster.
AMD ha declinato di rendere Su disponibile per un’intervista.
Su è nata a Taiwan nel 1969 ed è arrivata negli Stati Uniti da bambina perché suo padre era venuto per studiare. Ha descritto la sua infanzia come una “tipica educazione asiatica” incentrata sulla scuola. Ha frequentato la Bronx High School of Science di New York.
Ha incontrato l’industria dei semiconduttori da matricola al Massachusetts Institute of Technology (MIT), dove ha completato gli studi universitari prima di conseguire un dottorato in ingegneria elettrica. La sua ricerca si è concentrata sulla produzione di chip.
Come studentessa laureata nel 1992, ha scritto un articolo premiato sul testing della tecnologia silicon-on-insulator, che è diventato uno dei metodi di produzione principali per migliorare i chip negli anni ’90 e 2000.
Su ha lavorato in Texas Instruments dopo la laurea e poi in IBM, supervisionando team di ricerca e sviluppo focalizzati sulla produzione di chip. Lì, è stata scelta come assistente tecnica di Lou Gerstner, allora presidente e CEO di IBM.
Dopo IBM, Su è entrata in Freescale Semiconductor come CTO, un traguardo particolarmente raro, dato che ancora oggi solo l’8% delle aziende tecnologiche ha donne in quel ruolo.
Nel 2012, è stata assunta da Rory Read, allora CEO di AMD, per gestire le unità aziendali.
L’ascesa di Su al vertice nel 2014 ha segnato uno dei più grandi riscatti nella storia dell’industria tecnologica. Quando è entrata in AMD, l’azienda era in un momento di crisi e molti credevano che non sarebbe sopravvissuta a lungo.
“AMD aveva seri problemi di liquidità”, ha detto Patrick Moorhead, fondatore di Moor Insights e ex dirigente AMD che ha lasciato l’azienda un anno prima dell’arrivo di Su. “AMD ha dovuto premere completamente il pulsante di reset.”
Il primo giorno di Su come CEO, le azioni AMD erano scambiate a poco più di 3 dollari per azione. Ora sono a oltre 106 dollari per azione. AMD è la quarta azienda di chip più preziosa negli Stati Uniti, davanti a Intel e dietro a Nvidia, Broadcom e Qualcomm.
La ripresa è iniziata con decisioni difficili quasi subito dopo l’arrivo di Su. Ciò ha incluso il taglio del 7% del personale di AMD.
Si è anche rivolta a Sony e Microsoft per costruire i chip per le console di gioco, una mossa progettata per aiutare il flusso di cassa dell’azienda e riempire le fabbriche di chip che aveva già impegnato.
Ma Su ha detto durante il suo discorso a Stanford che non sono stati i tagli a salvare AMD. Piuttosto, è stata la scommessa sullo sviluppo di nuove tecnologie.
“È abbastanza chiaro nella tecnologia: non puoi tagliare i costi per diventare un vincitore”, ha detto.
Su ha rivolto l’attenzione di AMD ai prodotti e ha incoraggiato il personale a dare priorità alla costruzione di chip dalle prestazioni più elevate. Ha anche deciso di smettere di vendere chip per server redditizi fino a quando AMD non avesse prodotti in grado di competere con Intel in termini di prestazioni, ha detto Papermaster.
Riprogettare da zero
Uno dei grandi problemi di AMD era che il design dei suoi processori stava invecchiando rapidamente.
Su ha approcciato un approccio “a foglio bianco” che enfatizzava una riprogettazione del core di calcolo, la proprietà intellettuale più preziosa di AMD, da zero. Ci sono voluti anni, e AMD ha iniziato a vendere prodotti basati sul core “Zen” solo nel 2017. La tecnologia è ora alla sua quinta generazione di miglioramenti.
Sotto la guida di Su, AMD è stata la prima grande azienda ad abbracciare una tecnologia chiamata “chiplets”. Invece di produrre un unico grande chip con tutti gli elementi necessari, AMD poteva produrre chip più piccoli e assemblarli insieme.
I chiplets hanno permesso ad AMD di essere più flessibile ed efficiente nella produzione. Il cambiamento ha anche permesso ad AMD di utilizzare diverse fonderie per diverse parti del chip e ridurre il rischio associato alla produzione, una considerazione critica data la situazione finanziaria dell’azienda. È stata una scelta vincente per AMD, specialmente quando è passata nel 2019 a utilizzare Taiwan Semiconductor Manufacturing per costruire i suoi chip.
Il focus sui chiplets ha permesso ad AMD di crescere mentre Intel soffriva per investimenti sbagliati nelle tecnologie di produzione, ha detto Scott Thompson, professore di ingegneria elettrica all’Università della Florida, che ha seguito la carriera di Su dal suo dottorato.
“Lisa Sa capisce fondamentalmente come sono fatti i chip”, ha detto Thompson. “Comprende i rischi delle diverse opzioni tecnologiche e può valutare quei rischi per fare la scelta giusta.”
Intel ha declinato di commentare.
I chiplets sono ora utilizzati da quasi tutte le principali aziende di processori, e la tecnologia è stata una parte centrale della prima “grande GPU” di AMD.
L’esperienza di AMD nei chiplets le ha permesso di prendere una GPU annunciata per i data center, originariamente progettata per il supercalcolo, e semplicemente sostituire i chiplets della CPU per renderla una GPU più grande adatta all’AI. La prima grande GPU di AMD, l’Instinct MI300X, è stata lanciata nel 2023, poco più di un anno dopo il lancio di ChatGPT da parte di OpenAI, che ha dato il via al boom dell’AI generativa.
Il prossimo passo
Le entrate di AMD nel 2024 sono aumentate del 14%, raggiungendo circa 26 miliardi di dollari, quasi cinque volte di più rispetto a quando Su è diventata CEO. L’azienda ha speso 6,5 miliardi di dollari in ricerca l’anno scorso, oltre sei volte rispetto al 2014.
Ma il suo attuale rapporto con il leader del mercato delle GPU, Nvidia, ricorda la sua posizione rispetto a Intel nei CPU un decennio fa.
AMD ha acceleratori AI sul mercato, ha comunicato a clienti e investitori quando aspettarsi i prossimi chip e ha registrato 5 miliardi di dollari di vendite di chip AI nel 2024, rispetto ai 100 milioni del 2023, secondo Papermaster.
Tuttavia, è ancora molto indietro rispetto a Nvidia, che ha riportato 115 miliardi di dollari di vendite di chip per data center e networking nel suo ultimo anno fiscale.
Le azioni AMD sono scese di oltre il 10% quest’anno dopo un calo del 18% nel 2024. Questo seguito a un aumento del 128% l’anno precedente.
La sfida più grande per Su potrebbe risiedere nel software.
L’hardware di AMD è comparabile ai chip di Nvidia e può persino vincere in alcuni benchmark. I chip AI di AMD sono validi, e Su sta costruendo la loro credibilità.
Tuttavia, mentre AMD è l’unica vera alternativa a Nvidia, la maggior parte degli sviluppatori AI sa già come utilizzare il software proprietario CUDA di Nvidia, che consente ai programmatori di accedere alle parti hardware di una GPU per lo sviluppo di AI.
Per Su, la risposta è ROCm.
Questa è la versione di AMD di CUDA, ed è gratuita. Su conta su ROCm per aiutare AMD a conquistare sviluppatori che vogliono più di quanto offre Nvidia.
Nvidia non ha risposto a una richiesta di commento.
L’anno scorso, AMD ha riorganizzato alcuni dei suoi gruppi software, inclusi i team che lavorano su ROCm, in una nuova divisione software per l’AI. AMD ha anche iniziato a rendere open-source molti dei suoi componenti importanti e dettagli hardware, consentendo ai programmatori di accedere più facilmente alla potenza grezza dei chip AI dell’azienda.
Per ottenere un’adozione diffusa di ROCm, Su dovrà far sì che il suo team contatti gli sviluppatori AI e si impegni a liberarsi della reputazione di AMD come azienda solo hardware.
A dicembre, Su ha personalmente contattato un critico pubblico del software di AMD, scrivendo sui social media dopo l’incontro: “Abbiamo lavorato molto sull’ottimizzazione per i clienti e i carichi di lavoro, ma c’è ancora molto da fare.”
Su tende a minimizzare la rivalità con Nvidia in termini di quota di mercato. Vede il mercato dei chip AI crescere fino a 500 miliardi di dollari all’anno entro il 2028, le stesse dimensioni dell’intero mercato dei semiconduttori prima del boom dell’AI.
E conta su AMD per conquistarne una grande fetta.
21/03/25 Barron’s: Il Disallineamento di Nvidia: Un Business in Miglioramento con un Titolo Più Economico
Di Tae Kim
Aziende menzionate nell’articolo:
NVDA (Nvidia) AVGO (Broadcom)

Il CEO di Nvidia (NVDA, -0,70%), Jensen Huang, è stato risoluto. Durante la conferenza annuale per gli sviluppatori GTC della scorsa settimana a San Jose, California, ha delineato una visione convincente per il settore dell’intelligenza artificiale (AI), presentando una roadmap aggressiva per i futuri prodotti della sua azienda. Questi annunci potrebbero lasciare i rivali nel settore dei chip in difficoltà per anni a venire.
Mentre camminavo per l’area espositiva del GTC, c’era un palpabile senso di eccitazione, con centinaia di persone in fila per partecipare a sessioni e panel per scoprire gli ultimi progressi dell’AI in tutto, dalla robotica alla sanità, fino ai design avanzati di server raffreddati ad acqua.
Eppure, c’è un disallineamento. Nonostante l’entusiasmo per il futuro dell’AI e il ruolo centrale dei semiconduttori di Nvidia, le azioni di Nvidia sono rimaste stabili, scambiandosi a soli 26 volte il rapporto prezzo/utili forward. Una valutazione modesta per un’azienda che dovrebbe aumentare i ricavi del 57% quest’anno.
Questo disallineamento è guidato da tre preoccupazioni:
- La domanda di chip per AI potrebbe ridursi dopo il rilascio dei modelli efficienti della startup cinese DeepSeek;
- La crescente concorrenza nel settore dei chip da parte di Broadcom (AVGO, +0,59%);
- L’incertezza sulle minacce del presidente Donald Trump di imporre dazi sulle importazioni di chip.
Al GTC, Huang ha affrontato con sicurezza tutti e tre i problemi, sostenendo che nessuno di essi ostacolerà le brillanti prospettive di Nvidia.
Riguardo a DeepSeek, Huang è stato particolarmente combattivo, respingendo l’idea che DeepSeek possa ridurre la domanda di unità di elaborazione grafica (GPU). Durante il suo discorso al GTC di martedì, ha affermato che la capacità di ragionamento del modello AI di DeepSeek, che richiede più tempo per riflettere prima di fornire una risposta di alta qualità, sta guidando un aumento significativo della domanda di risorse di calcolo. Questo tipo di ragionamento è sempre più utilizzato nella maggior parte dei migliori modelli AI.
“Quasi tutto il mondo si sbagliava”, ha detto Huang. “La quantità di calcolo di cui abbiamo bisogno a questo punto, a causa dell’AI agentica e del ragionamento, è facilmente 100 volte superiore a quanto pensavamo necessario un anno fa.”
Un punto sorprendente: 100 volte più potenza di calcolo rispetto a quanto Nvidia si aspettava solo 12 mesi fa dovrebbe mettere a tacere le domande sulla domanda a breve termine.
Il rumore è aumentato anche riguardo alla concorrenza nel settore dei chip per AI, poiché il CEO di Broadcom, Hock Tan, ha spesso dichiarato a Wall Street che la sua azienda otterrà una “quota equa” del mercato dei chip per AI entro il 2027, aiutando le grandi aziende tecnologiche a progettare i propri semiconduttori AI, chiamati circuiti integrati specifici per applicazione (ASIC).
Al GTC, Huang ha respinto queste affermazioni. “Molti ASIC vengono cancellati”, ha risposto quando gli ho chiesto di Broadcom dopo il suo discorso al GTC di martedì. “L’ASIC deve comunque essere migliore del migliore. Come fanno a sapere che sarà il migliore, in modo da essere distribuito in grandi volumi?”
Il sottotesto è chiaro: le offerte di Broadcom non saranno competitive rispetto a Nvidia.
Broadcom non ha risposto a una richiesta di commento sulle dichiarazioni di Huang.
Sulla questione dei dazi, Huang ha dichiarato durante un evento stampa di mercoledì che non si aspetta un impatto significativo sulle finanze o sulle prospettive dell’azienda. Ha affermato che Nvidia ha una rete agile di fornitori e può spostare gli ordini verso paesi con dazi più bassi se necessario, aggiungendo che Nvidia prevede di portare più produzione negli Stati Uniti nel tempo.
In generale, Nvidia ha sostenuto che le opportunità di mercato complessive per l’AI e l’infrastruttura dei data center AI si stanno espandendo rapidamente. Huang si aspetta che il settore spenderà circa 500 miliardi di dollari in spese in conto capitale per i data center quest’anno, salendo a oltre 1 trilione di dollari entro il 2028, con il business dei chip GPU di Nvidia che guadagnerà una quota maggiore di questa spesa nei prossimi anni.
Parte di questo aumento deriverà dal crescente numero di GPU Nvidia all’interno dei data center. Questi cosiddetti supercluster sono passati da 16.000 GPU a oltre 100.000 GPU nell’ultimo anno. Huang mi ha detto che è fiducioso che entro il 2027 saranno costruiti diversi cluster da un milione di GPU.
Poi c’è la robotica. Rev Lebaredian, dirigente di Nvidia, mi ha detto che siamo solo all’inizio di una crescita esponenziale nello sviluppo della robotica AI. La combinazione di una maggiore potenza di calcolo e modelli AI più intelligenti sta rendendo possibili grandi progressi nella robotica. Crede che ci saranno milioni di robot umanoidi in uso, specialmente nelle aziende industriali, entro cinque anni. Non ho particolari informazioni sul fatto che i robot siano davvero imminenti, ma se ciò accadesse, rappresenterebbe un ulteriore vantaggio per Nvidia, che produce l’hardware “cervello” per i robot.
Alla fine, il più grande sviluppo del GTC è stata la roadmap aggressiva dei prodotti di Nvidia. Durante il suo discorso, Huang ha annunciato che il server AI Blackwell Ultra, disponibile entro la fine dell’anno, supererà del 50% il modello attuale. Poi ha detto che il server AI Vera Rubin, previsto per la seconda metà del 2026, sarà 3,3 volte più veloce del Blackwell Ultra. Il colpo di scena è stato il lancio del server AI Rubin Ultra, previsto per la fine del 2027, con una performance 14 volte superiore al Blackwell Ultra. Questa cifra ha lasciato il pubblico a bocca aperta.
Eppure, le azioni di Nvidia sono rimaste praticamente immobili alla notizia e hanno chiuso in ribasso martedì, in un contesto di calo generale del mercato. Come osservatore di lunga data di Nvidia, sono perplesso per la mancanza di entusiasmo da parte di Wall Street. La folla tech ha capito l’importanza; alla fine, lo capiranno anche gli investitori.
21/03/25 Briefing.com: Micron venduta dopo che la guidance del Q3 non è riuscita a segnalare una significativa ripresa a breve termine (MU)
Dopo essere inizialmente balzate al rialzo grazie a utili decenti e rialzo dei ricavi nel Q2 (febbraio), le azioni di Micron (MU -7%) hanno rapidamente invertito la rotta e sono state vendute. La guida del produttore di chip di memoria sta guidando la reazione negativa di oggi. MU ha guidato l’EPS rettificato del Q3 (maggio) di 1,47-1,67 dollari, in linea con il consenso, e un rev di 8,6-9,0 miliardi di dollari, superiore al consenso. Sebbene la guidance fosse decente, di gran lunga migliore rispetto alle prospettive deboli fornite da MU a dicembre, alla fine non ha significato un cambiamento significativo di tendenza.
Ricordiamo che lo scorso trimestre, MU ha commentato che i mercati orientati ai consumi erano deboli, probabilmente rimanendo così fino al secondo trimestre. Tuttavia, il management ha previsto un ritorno alla crescita durante la seconda metà del FY25 (agosto). Pertanto, il mercato era alla ricerca di segnali di questa tendenza. A metà della sua guidance sui ricavi del Q3, MU punta a un aumento del 29% su base annua, un’ulteriore decelerazione rispetto al balzo del 38% registrato nel Q2, non un rimbalzo significativo. Data la crescente incertezza macroeconomica, che può offuscare i tempi di una ripresa in tutto il mercato dell’elettronica di consumo, questa guidance non fornisce alcun sollievo oggi.
- Ci sono stati diversi lati positivi del Q2 che vale la pena menzionare. I giri DRAM dei data center hanno raggiunto un nuovo record. La memoria ad alta larghezza di banda, o HBM (vitale nei carichi di lavoro AI), è aumentata di oltre il 50% sequenzialmente fino a raggiungere un nuovo traguardo di oltre 1,0 miliardi di dollari di giri. MU ha commentato che le sue spedizioni HBM erano in anticipo rispetto al programma. Di conseguenza, i rev di 8,05 miliardi di dollari sono atterrati vicino alla fascia alta della guidance di 7,7-8,1 miliardi di dollari di MU nel secondo trimestre.
- L’intelligenza artificiale rimane un potente motore della domanda complessiva di MU. I principali hyperscaler (Amazon, Microsoft, Google, ecc.) hanno ribadito una sostanziale crescita degli investimenti di capitale anno su anno all’inizio di quest’anno per il 2025, creando una solida base per MU. L’azienda prevede una crescita delle unità server a una cifra media nel 2025, supportata da server tradizionali e AI. A questo proposito, MU ha aumentato la sua stima di TAM HBM di 5 miliardi di dollari rispetto allo scorso trimestre, superando ora i 35 miliardi di dollari.
- Tuttavia, parlando di HBM, una possibile minaccia si profila in lontananza. MU compete con due principali fornitori di DRAM, uno dei quali è Samsung (SSNLF). Attualmente, MU è qualificata come fornitore di HBM, insieme all’altro suo concorrente SK Hynix, per il GB300 di NVIDIA (NVDA), il suo sistema di intelligenza artificiale più performante per le imprese. Se Samsung è qualificata, potrebbe sconvolgere in modo significativo la posizione di MU in questo mercato.
- Nel frattempo, gli altri segmenti di MU stanno affrontando un’economia debole. Nel PC, MU è ancora fiduciosa che il mercato crescerà a una cifra media nel 2025, con una crescita ponderata per la seconda metà del CY25 a causa della fine del ciclo di vita di Windows 10 a ottobre. Nel settore mobile, le proiezioni di MU per la crescita dei volumi nel 2025 sono rimaste a una percentuale bassa a una cifra, ma si è detta ottimista sul fatto che l’adozione dell’intelligenza artificiale in corso alimenterà l’aumento della domanda di DRAM. Infine, nell’industria e nell’automotive, i clienti si trovano nelle fasi successive degli adeguamenti delle scorte.
Gli operatori di mercato non approvano la ripresa più debole del previsto di MU. Anche se la domanda di intelligenza artificiale rimane robusta, i segmenti orientati al consumatore sono in difficoltà. Ci sono ancora possibili venti favorevoli all’orizzonte, come la fine di Windows 10. Tuttavia, gli investitori stanno cercando la conferma di un’inversione di tendenza prima di aiutare MU a superare la forte resistenza intorno alla soglia dei 110$.
13/03/25 Briefing.com La nomina del CEO di Intel rinnova le speranze di inversione di tendenza, scatenando un enorme rally per le azioni (INTC)
Per l’assediato produttore di chip Intel (INTC), la speranza e l’ottimismo sono stati difficili da trovare poiché NVIDIA (NVDA) e Advanced Micro Devices (AMD) lo hanno lasciato nella polvere nella corsa all’IA, ma c’è finalmente una buona ragione per gli azionisti di INTC di sentirsi più ottimisti sul futuro dell’azienda. Dopo la chiusura di ieri, INTC ha annunciato che Lip-Bu Tan, l’ex CEO di Cadence Design Systems (CDNS), è stato nominato nuovo CEO, a partire dal 18 marzo. Il signor Tan succede a David Zinsner e Michelle Johnston Holthhaus, entrambi i quali sono entrati nei ruoli di co-CEO dopo che la società ha spodestato l’ex CEO Pat Gelsinger lo scorso dicembre.
Il signor Tan ha certamente il suo lavoro tagliato per lui. In cima alla lista ci sarà un nuovo percorso per il business di Foundry che genera perdite che era al centro della strategia IDM 2.0 di Gelsinger. Lo scorso settembre, INTC ha annunciato piani per scorporare il segmento Foundry in una filiale indipendente. Tuttavia, il signor Tan, che ha fatto parte del consiglio di amministrazione di INTC nel 2022-2024, ha precedentemente discusso l’importanza di rafforzare le capacità produttive dell’azienda, suggerendo che potrebbe impegnarsi a costruire Foundry proprio come lo era Gelsinger.
- La buona notizia è che Tan ha una solida esperienza nell’utilizzo dell’innovazione e delle nuove tecnologie per creare vantaggi competitivi e guidare una forte crescita, costruendo un sostanziale valore per gli azionisti nel processo. Alla CDNS, ha spinto per l’integrazione delle tecnologie AI/ML in tutta la linea di prodotti, posizionando l’azienda come leader nell’applicazione delle tecnologie di nuova generazione per la progettazione di chip. Sotto la guida di Tan, CDNS è anche passata a un portafoglio di prodotti ad alte prestazioni, si rivolgendosi a progetti avanzati di semiconduttori a nodo.
- Queste strategie hanno portato a una crescita robusta e a un miglioramento dei margini per CDNS. Durante il mandato di Tan di 12 anni come CEO lì, le entrate sono quasi raddoppiate a 2,8 miliardi di dollari e il margine operativo di CDNS è migliorato da approssimativamente piatto a costantemente al di sopra del 20%.
- Tan ha anche esperienza nell’implementazione e nell’esecuzione di iniziative di semplificazione, che continueranno a svolgere un ruolo importante nell’inversione di tendenza di INTC. Nel 2012, ha implementato un’importante ristrutturazione organizzativa presso CDNS, portando a un migliore allineamento delle risorse e a una maggiore efficienza operativa.
- Forse il successo di Tan al CDNS è meglio illustrato dalle prestazioni del titolo. Quando ha preso il timone di CDNS nel 2009, il titolo era scambiato a circa $10-$12. Quando si è dimesso nel 2021, le azioni di CDNS erano scambiate a circa 150-170 dollari, riflettendo un aumento di circa 15 volte.
Non c’è alcuna garanzia che Tan godrà dello stesso livello di successo come CEO di INTC come CEO di CDNS. Tuttavia, date le sue impressionanti prestazioni al CDNS, è facile capire perché il mercato stia guardando la sua nomina in modo così rialzista.
13/03/25 Barron’s: Le azioni di Nvidia potrebbero essere un affare. Sono più economiche di quelle di Starbucks.

Nvidia, il favorito del mercato azionario nel campo dell’IA, non solo è economica in termini storici, ma è anche notevolmente meno costosa rispetto ad altre azioni che potrebbero sorprendere.
Le azioni di Nvidia sono tra le più discusse, se non la più discussa, operazione legata all’intelligenza artificiale a Wall Street. I suoi chip per l’IA sono i più popolari, il che ha portato a un aumento delle vendite del 114%, raggiungendo 130,5 miliardi di dollari nel 2025 rispetto all’anno precedente. La speranza in una crescita così rapida ha spinto il prezzo a 62,65 volte gli utili futuri il 18 maggio 2023, anche se questo era comunque lontano dal record di 125,91 raggiunto nel maggio 2009.
Ora, le opinioni sembrano essere cambiate. Le azioni sono scese del 14% quest’anno, in parte a causa delle politiche commerciali del presidente Donald Trump e dei tagli all’occupazione pubblica, che hanno alimentato il timore di una recessione. Ciò ha allontanato gli investitori da investimenti più rischiosi, comprese le azioni tecnologiche che in precedenza avevano performato bene.
Il Nasdaq Composite è sceso dell’8,7% nel 2025. Gli investitori di Nvidia sono anche nervosi per i potenziali controlli più severi sulle esportazioni di chip.
Con il calo del prezzo delle azioni, la valutazione di Nvidia si è ridotta. Le azioni sono attualmente scambiate a 23,3 volte gli utili per azione attesi nei prossimi 12 mesi, al di sotto della media storica quinquennale di 40 volte e in calo rispetto ai 31,2 volte di inizio anno, secondo i dati di Dow Jones Market Data.
Ora, le azioni del produttore di chip sono più economiche rispetto a quelle di una sorprendente varietà di altre aziende. Per cominciare, Nvidia è il secondo membro meno costoso delle “Magnificent Seven”, le azioni tecnologiche che hanno trainato il rally dell’IA alla fine del 2022, nel 2023 e nel 2024. Solo Alphabet è più economica, scambiata a 17,9 volte gli utili futuri.
Molte altre azioni tecnologiche sono più costose. Tra queste figurano Accenture, scambiata a 24,5 volte; Broadcom, a 27 volte; Intel, a 31 volte; Texas Instruments, a 31,2 volte; Netflix a 34,6 volte; Palo Alto Networks a 51,2 volte; e CrowdStrike Holdings, a 90,7 volte.
Nvidia è anche più economica rispetto a diverse aziende di beni di consumo, tra cui Estée Lauder a 33,5 volte; Walmart, a 32,8 volte; Monster Beverage, a 29,6 volte; Airbnb a 27,9 volte; McCormick, a 26,5 volte; e Procter & Gamble, a 23,9 volte.
Nel settore dei beni voluttuari, Nvidia è meno costosa di Chipotle Mexican Grill, a 37,2 volte; Starbucks, a 30,5 volte; Yum! Brands, a 25,4 volte; e Tractor Supply, a 24,4 volte.
La valutazione più bassa di Nvidia significa che alcuni a Wall Street sono preoccupati per la crescita futura degli utili dell’azienda. Il produttore di chip ha riportato utili rettificati di 2,99 dollari per azione per il 2025 il 26 febbraio.
Si tratta di un aumento del 130% rispetto all’anno precedente. Questa crescita spettacolare degli utili potrebbe essere a rischio se aziende come Advanced Micro Devices conquistano una quota maggiore del mercato, o se la crescita della spesa per i data center che rendono possibile l’IA rallenta.
Ma nulla è scritto nella pietra. Alcuni esperti ritengono che ora sia il momento di acquistare un’azione che potrebbe continuare a beneficiare degli ingenti investimenti delle aziende nell’IA.
“L’operazione sull’IA non è finita, e Nvidia continua a essere il leader”, ha scritto mercoledì Nancy Tengler, CIO e CEO di Laffer Tengler Investments. “NVDA sembra economica rispetto alla sua storia. Questo è storicamente un buon punto di ingresso.”
Scrivere a Angela Palumbo all’indirizzo angela.palumbo@dowjones.com
03/03/25 Barron’s: Le azioni dei semiconduttori sono ancora sotto pressione. Ecco perché questo analista è ottimista.
Di Angela Palumbo
Le azioni del settore dei semiconduttori hanno subito un colpo quest’anno, ma un analista di BofA Securities rimane ottimista riguardo al futuro del settore.
I rischi, tra cui l’implementazione di dazi e restrizioni sulle esportazioni dei chip per l’intelligenza artificiale più avanzati, stanno mettendo sotto pressione il settore. L’indice PHLX Semiconductor (SOX) è sceso del 6% quest’anno.
Tuttavia, Vivek Arya, analista di BofA Securities, ha scritto in una nota lunedì che è comune per l’indice SOX essere volatile, e l’attuale calo non indica necessariamente una tendenza di lungo periodo.
La scorsa settimana, l’indice è sceso del 7,2%. Dall’inizio del 2021 alla fine della scorsa settimana, il SOX ha registrato 21 cali settimanali del 5% o più, secondo i dati di Dow Jones Market Data, mentre l’S&P 500 ha avuto solo tre casi di cali settimanali del 5% o più nello stesso periodo. Tuttavia, dal 31 dicembre 2020 al 28 febbraio 2025, il SOX è cresciuto del 71%, mentre l’S&P 500 è salito del 59%.
Anche Nvidia, il favorito nel campo dei chip per l’IA e membro del SOX, è scesa nonostante i risultati trimestrali migliori delle attese. Nonostante questo e il più ampio sell-off, Arya è convinto che i prossimi risultati di Marvell Technology e Broadcom possano invertire la tendenza per il settore.
“Aspettiamo risultati migliori del previsto da AVGO e MRVL… per ravvivare l’interesse nei semiconduttori per l’IA, poiché le spese in conto capitale dei clienti cloud statunitensi e gli investimenti sovrani nell’IA rimangono l’unico punto luminoso affidabile nell’economia globale”, ha scritto Arya in una nota lunedì.
Marvell pubblicherà i suoi risultati il 5 marzo, mentre Broadcom il 6 marzo.
Arya non è l’unico a essere ottimista. Harlan Sur di J.P. Morgan ha scritto domenica di credere che le fondamenta siano solide per Marvell e Broadcom, con entrambe le aziende che beneficiano di “forti spese in conto capitale da parte degli hyperscaler”.
Gli hyperscaler sono grandi fornitori di servizi cloud come Alphabet, Microsoft e Amazon.com. Tutte queste aziende hanno dichiarato di pianificare di spendere decine di miliardi di dollari in IA quest’anno, inclusi investimenti in data center e altre iniziative legate all’IA. Parte di queste spese andrà all’hardware, a vantaggio di aziende come Marvell e Broadcom.
Marvell vende una gamma di chip e prodotti hardware per data center e infrastrutture IA e aiuta le grandi aziende tecnologiche a progettare i propri semiconduttori per l’IA. Broadcom, invece, aiuta a progettare processori interni per le grandi aziende tech.
Arya è anche fiducioso nel potenziale impatto positivo a lungo termine che i chatbot IA potrebbero avere sui chip. Alcuni di questi chatbot includono ChatGPT di OpenAI, Gemini di Alphabet, DeepSeek e Meta AI.
“L’ascesa dei chatbot, a nostro avviso, è un importante fattore positivo per i semiconduttori IA, poiché può guidare una forte domanda continua di chip per il training e l’inferenza, favorire nuovi modelli di business e applicazioni e rassicurare gli investitori sul ritorno sull’investimento nell’IA”, ha scritto Arya.
Scrivete a Angela Palumbo all’indirizzo angela.palumbo@dowjones.com.
26/02/25 Barron’s: Gli utili di Nvidia: cosa abbiamo imparato
Nvidia ha riportato solidi guadagni del quarto trimestre fiscale alla fine di mercoledì e ha fornito una previsione delle entrate per il trimestre di aprile che era in anticipo sulle aspettative.
Ecco cosa abbiamo imparato dall’attesissimo rapporto:
Forti guadagni. Per il suo trimestre di gennaio, la società di semiconduttori ha riportato utili rettificati per azione di 89 centesimi, rispetto alla stima di consenso di Wall Street di 85 centesimi, secondo FactSet. Le entrate sono state di 39,3 miliardi di dollari, davanti alle aspettative degli analisti per 38,1 miliardi di dollari.
Guida solida. Le prospettive erano al di sopra delle stime. Per il trimestre in corso, Nvidia ha fornito un intervallo di previsioni di entrate con un punto medio di 43,0 miliardi di dollari. Questo è superiore al consenso di 42,1 miliardi di dollari.
Le entrate del data center sono quasi raddoppiate. Il produttore di chip ha riportato ricavi del data center di 35,6 miliardi di dollari per il trimestre di gennaio, con un aumento del 93% anno su anno. Nvidia ha detto che i grandi fornitori di cloud computing hanno rappresentato circa il 50% delle entrate del suo data center nel trimestre.
La domanda di Blackwell è robusta. Il CEO di Nvidia Jensen Huang sta diventando più ottimista sulle prospettive per il sistema server Blackwell AI di fascia alta dell’azienda, il GB200 NVL72. “Sono più entusiasta oggi di quanto non lo fossi al CES”, ha detto Huang quando un analista ha chiesto informazioni sull’NVL72 durante la teleconferenza sugli utili. “Niente è facile di quello che stiamo facendo, ma stiamo andando alla grande”.
Tariffe di Trump. La CFO di Nvidia Colette Kress ha detto che l’eventuale politica è ancora “un’incognita” in termini di tempistica o grandezza.
Le azioni Nvidia sono scese dello 0,4% nel trading after-hour alla fine della chiamata sugli utili della società.
19/02/25 Barron’s: Il Futuro di Intel è ancora oscuro. Non inseguire le azioni.
DiTae Kim
Visione in chiaroscuro. Ciao a tutti. Le azioni Intel sono aumentate nell’ultima settimana sulla promessa dell’amministrazione Trump di sostenere la produzione nazionale di chip e su voci che società di semiconduttori stanno valutando le opzioni per acquistare parti di Intel.
Dopo un esame più attento degli sviluppi, gli investitori dovrebbero essere cauti. La probabilità di eventuali accordi di trasformazione a breve termine è bassa e non è cambiato molto per quanto riguarda le sfide di Intel. Potrebbe essere saggio per gli investitori non inseguire il titolo.
Il rally è iniziato all’inizio della scorsa settimana dopo che il vicepresidente JD Vance ha promesso che sarebbero state fatti più chip negli Stati Uniti durante il suo discorso a una conferenza sull’IA in Francia.
Le azioni di Intel hanno guadagnato ulteriore slancio sui rapporti di Bloomberg e The Wall Street Journal che Taiwan Semiconductor Manufacturing stava considerando di prendere una partecipazione nelle fabbriche di chip di Intel, mentre Broadcom stava cercando di acquistare l’attività di prodotti di Intel. Tutto sommato, le azioni Intel sono aumentate di quasi il 40% in cinque sessioni di trading fino a martedì.
Ma la raffica di notizie a volte si contraddiceva a vicenda, con uno che diceva che l’amministrazione Trump ha sollevato l’idea che TSMC prendesse una partecipazione di controllo nelle fabbriche di chip di Intel, mentre un altro che citava un funzionario della Casa Bianca che diceva che Trump probabilmente non avrebbe sostenuto un tale accordo. La cosa più importante è che il filo conduttore di tutti i rapporti includeva frasi come “fasi molto iniziali”, “discusso informalmente” e nessuna struttura formalizzata. È chiaro che le discussioni non sono avanzate. Intel e TSMC hanno rifiutato di commentare i rapporti. La Casa Bianca e Broadcom non hanno risposto a una richiesta di commento.
La speculazione su un importante accordo Intel non è una novità. Lo scorso autunno, ci sono stati rapporti su un avvicinamento di Qualcomm a Intel su un’acquisizione. Da allora non è successo nulla.
Il fatto è che le prospettive di un accordo Intel trasformativo devono ancora affrontare due sfide primarie che saranno difficili da superare.
In primo luogo, qualsiasi transazione importante per l’acquisto del gruppo di prodotti Intel avrebbe bisogno dell’approvazione delle autorità di regolamentazione globali. La Cina ha bloccato un’acquisizione molto più piccola di 5 miliardi di dollari di Tower Semiconductor di Israele nel 2023, suggerendo che il paese asiatico non è entusiasta di alcuna acquisizione che aiuterebbe l’industria di chip degli Stati Uniti. Non è chiaro come la Cina sarebbe quindi in grado di acquistare Broadcom dal business dei prodotti Intel.
In secondo luogo, non c’è un modo semplice per separare le operazioni di produzione di chip di Intel. Nel 2024, Intel Foundry ha generato 17,5 miliardi di dollari di entrate, in calo del 7% rispetto all’anno precedente, mentre ha perso 13,4 miliardi di dollari. Finanziariamente, ha poco senso per un acquirente esterno acquistare un buco nero finanziario con enormi perdite che non è fattibile su base autonoma. Inoltre, non aiuta il sentimento sulla tabella di marcia della fonderia di Intel quando Michelle Johnston Holthaus, co-CEO ad interim di Intel e CEO di Intel Products, ribadisce ripetutamente che potenzialmente userebbe TSMC per le CPU dei data center in futuro se “avesse senso”.
Tutto questo arriva perché Intel non ha ancora un CEO permanente dopo che Pat Gelsinger si è ritirato lo scorso dicembre. Intel sarebbe meglio servita da un leader competente con competenze tecniche per capire una strategia di turnaround e stabilizzare l’attività. Il produttore di chip non dovrebbe discutere di vendere se stesso per parti mentre cerca di trovare un CEO di qualità, specialmente quando un accordo potrebbe anche non essere possibile.
Per gli investitori, potrebbe essere prudente prendere alcuni guadagni. Aspettare qualcosa che potrebbe non accadere potrebbe rivelarsi deludente.
19/02/25 I produttori di chip di fascia bassa stanno dando rendimenti elevati
Le azioni delle società che producono semiconduttori di qualità commodity sono in aumento dall’inizio della scorsa settimana mentre Wall Street inizia a chiedersi se una recessione prolungata per l’azienda stia finendo.
I guadagni favorevoli di Analog Devices mercoledì mattina e un aggiornamento degli analisti per STMicroelectronics martedì sono solo gli ultimi punti dati positivi.
I produttori di chip fanno parte di un gruppo che produce chip meno avanzati che si innotano in quasi tutta l’elettronica, dagli smartphone ai veicoli, dalle attrezzature industriali ai missili da crociera. Sono in contrasto con i progettisti di chip come Nvidia e Apple, che utilizzano i processi di produzione di chip tecnologicamente più avanzati.
Entrate per le aziende del gruppo: includono anche Texas Instruments, Microchip Technologies , ON Semiconductor, Semiconduttori NXP,Aptiv e InfineonI —è caduto anno su anno per una media di cinque trimestri consecutivi. Il gruppo ha sottoperformato l’indice dei semiconduttori PHLXSOX di una media di 122 punti percentuali negli ultimi due anni.
La recessione, che ha seguito un’ondata di domanda legata alla pandemia, è stata uno dei cicli più lunghi e profondi che queste aziende abbiano sperimentato. Ma potrebbe esserci un’inversione di tendenza.
Le azioni erano aumentate in media di circa l’11% dalla chiusura del 10 febbraio fino a mercoledì pomeriggio.
“Molti di questi nomi sono stati eccessivamente puniti per la grave recessione ciclica che hanno incontrato all’interno dei loro mercati finali industriali e automobilistici”, ha detto l’analista di Morningstar Brian Colello a Barron. “Stiamo iniziando a vedere l’ottimismo sul fatto che il peggio della recessione sia finito. Anche se non siamo completamente in fondo, penso che siamo abbastanza vicini al fondo che gli investitori possano vedere la ripresa all’orizzonte.”
L’analista Mark Lipacis di Evercore ISI ha detto di vedere segni che una sovrabbondanza di chip potrebbe trasformarsi in carenze nel 2025. “Penso che gli investitori abbiano iniziato a decifrare che siamo in fondo alla correzione dell’inventario”, ha detto a Barron. “Queste aziende hanno abbassato le aspettative per sei trimestri e, secondo la nostra analisi, sono in realtà in una parte di correzione eccessiva del ciclo”.
Secondo l’analista di Jefferies Janardan Menon, gli investitori potrebbero aver aspettato di acquistare fino a quando le società non avessero rilasciato quelle che avrebbero dovuto essere previsioni finanziarie downbeat per il trimestre in corso.
“Ora che la debole guida di tutti loro è finita, il mercato sta ritenendo che le prospettive del gruppo siano ora a rischio”, ha detto a Barron. “In una situazione del genere, i prezzi delle azioni in genere non aspettano segni di una ripresa della domanda finale e degli aggiornamenti. Vanno in rally preventivamente.”
Lipacis ha aggiunto: “Sai, guadagni la maggior parte dei tuoi soldi in semifinale quando le cose vanno da davvero brutte a solo brutte”.
Scrivi ad Adam Levine all’indirizzo adam.levine@barrons.com
17/02/25 Barron’s: Broadcom e Marvell potrebbero essere i grandi perdenti se Arm si muove nella produzione di chip. Ecco perché.
Le azioni di Arm sono aumentate sulla mossa riportata della società di progettazione di chip nella produzione di semiconduttori propri. I perdenti del turno potrebbero essere Broadcom e Marvell.
Un passaggio alla produzione di chip segnerebbe un enorme cambiamento per Arm, che ha costruito la sua attività sulla concessione di licenze per progetti di chip. Il rischio è che Arm possa essere vista come un concorrente per alcuni dei suoi maggiori clienti come Qualcomm e Nvidia.
Tuttavia, i chip prodotti da Arm potrebbero invece finire per togliere un po’ di valore a Broadcom e Marvell che aiutano a progettare processori interni per le principali aziende tecnologiche.
Arm fa la maggior parte della sua attività di licenza i suoi progetti per telefoni, ma ha anche una posizione crescente nei processori per server cloud di fascia alta. Il suo primo chip è impostato per essere un’unità di elaborazione centrale per grandi data center, per eseguire applicazioni di intelligenza artificiale con Meta Platforms come cliente iniziale, secondo un rapporto del Financial Times.
Piuttosto che fornire un intero chip a Meta, madre di Facebook, è più probabile che Arm fornisca solo un “chiplet” modulare, che Meta o qualsiasi altro cliente potrebbe integrare nel proprio design complessivo del chip, secondo lo specialista delle vendite azionarie di Jefferies William Beavington, che scrive in una nota di ricerca lunedì.
“Non cambia in modo significativo il modello di business e non rende Arm un concorrente nel mercato dei chip”, ha scritto Beavington.
Arm ha rifiutato di commentare, mentre Meta non ha risposto a una richiesta di commento. La quota di Arm è aumentata di circa il 6% immediatamente dopo il rapporto FT.
“Consideriamo la mossa significativamente positiva per le prospettive di entrate e guadagni di Arm, anche se potrebbe avere un impatto negativo sui suoi multipli di valutazione, poiché i margini lordi scenderebbero”, ha scritto Beavington in una nota di ricerca lunedì.
Tuttavia, una questione aperta sono le ambizioni del proprietario di maggioranza di Arm, il gruppo giapponese SoftBank, che ha Ambizioni di chipmakingdi produzione di chip proprie. SoftBank ha recentemente acquistato la società britannica di chip AI Graphcore ed era stata precedentemente segnalata come interessata a unirsi a Intel in un accordo per produrre chip per rivaleggiare con Nvidia, in una partnership che successivamente è fallita.
È stato riferito da Bloomberg che SoftBank si sta avvicinando a un accordo per acquisire Ampere Computing in un accordo che potrebbe valutare il produttore di chip per data center a circa 6,5 miliardi di dollari.
“La concorrenza con i clienti potrebbe intensificarsi ulteriormente se SoftBank acquisisce Ampere, il che potrebbe accelerare notevolmente la migrazione di Arm per diventare un produttore di chip”, ha scritto l’analista indipendente Richard Windsor, che ha pubblicato Radio Free Mobile.
Scrivi ad Adam Clark a adam.clark@barrons.com
13/02/25 Barron’s: L’analista di AMD è “nervoso” per il produttore di chip. Ecco perché.
DiTae Kim
Il produttore di chip Advanced Micro Device AMD potrebbe presto soffrire di livelli di inventario di chip gonfiati presso rivenditori e distributori, avverte Bernstein.
Le spedizioni industriali di unità di elaborazione centrale, o CPU, sono state del 13% superiori alle spedizioni di PC durante il trimestre di dicembre, ha scritto l’analista Stacy Ragson, citando l’analisi della sua azienda di varie fonti di dati del settore, tra cui IDC e Mercury Research. Storicamente, questo è stato un segno di troppo inventario.
Rasgon ha riaffermato il suo rating delle prestazioni di mercato per le azioni AMD giovedì e il suo obiettivo di prezzo di 125 dollari. All’inizio del giovedì, il titolo è aumentato dell’1,2% a 113,09 dollari.
In passato, l’industria ha inviato troppo inventario nei negozi e nei distributori durante il boom delle vendite di computer guidato dal Covid, che ha portato a un grande calo delle vendite in seguito.
“Ancora una volta, stiamo iniziando a vedere un sovraspedizione materiale nel canale CPU”, ha scritto. “Il fatto che sembri che ci stiamo dirigendo verso un altro ciclo [di spedizione in eccesso] (dopo tutto quello che è successo) ci rende nervosi, soprattutto per AMD”.
Mentre è possibile che AMD stia guadagnando molta quota di mercato dal suo principale concorrente, Intel, per spiegare alcune delle tendenze generali dei dati del settore, probabilmente non è sufficiente, secondo l’analista.
“Anche con la storia di guadagno di azioni AMD, sembra aggressivo presumere che la recente disparità sia tutta dovuta alla leadership del prodotto”, ha scritto.
Un portavoce di AMD ha indicato le recenti osservazioni della chiamata sugli utili del CEO Lisa Su, dicendo che AMD si concentra sulle entrate totali e non sul numero di spedizioni di unità CPU. Ha anche detto durante la chiamata del quarto trimestre che AMD aveva vendite record di CPU e le CPU dell’azienda dominavano le classifiche più vendute presso molti rivenditori globali.
Le azioni AMD sono diminuite di circa il 34% negli ultimi 12 mesi, rispetto all’aumento dell’8% del fondo scambiato in borsa iShares Semiconductor
Scrivi a Tae Kim a tae.kim@barrons.com
05/02/25 Barron’s: ARM batte gli utili ma le azioni sono comunque in calo
Le azioni di Arm Holdings sono scese dopo che il progettista di chip ha riportato risultati degli utili del trimestre di dicembre migliori del previsto mercoledì pomeriggio. Gli investitori potrebbero prendere alcuni profitti dopo il grande rally delle azioni nell’ultimo anno.
La società ha riportato utili rettificati per azione del terzo trimestre fiscale di 39 centesimi, rispetto alla stima di consenso di Wall Street di 34 centesimi, secondo FactSet. Le entrate sono arrivate a 983 milioni di dollari, che era al di sopra delle aspettative degli analisti di 949 milioni di dollari.
Arm ha anche guidato le vendite del trimestre in corso a un intervallo da 1,175 miliardi di dollari a 1,275 miliardi di dollari rispetto alla stima degli analisti da 1,22 miliardi di dollari.
“Con la nostra tecnologia ad alte prestazioni, efficiente dal punto di vista energetico e flessibile, Arm è un fattore chiave per promuovere l’innovazione dell’IA e trasformare l’esperienza dell’utente, dall’edge al cloud”, ha scritto il CEO Rene Haas in una lettera agli investitori.
Le azioni di Arm sono inizialmente diminuite fino al 5% nel tardo trading dopo il rilascio. Il titolo è aumentato del 6,8% nella sessione di negoziazione regolare di mercoledì.
Arm guadagna concedendo in licenza i suoi progetti di chip alle aziende di semiconduttori e ai produttori di smartphone. L’ultima tecnologia di chip avanzata di Arm, chiamata Armv9, genera tassi di royalty significativamente più elevati rispetto al suo precedente Armv8. Sta anche facendo progressi nei processori di server cloud di fascia alta. Clienti come Microsoft e Nvidia stanno facendo chip con più di 100 “core” usando i disegni di Arm.
Le azioni Arm sono aumentate del 137% negli ultimi 12 mesi, rispetto al guadagno del 10% per l’ETF iShares Semiconductor
05/02/25 Barron’s: Le azioni AMD precipitano sull’IA, per la mancanza di entrate del data center
AMD ha riportato risultati di guadagno migliori del previsto, ma le entrate soft nei data center hanno scatenato una svendita del titolo.
La società di semiconduttori ha riportato guadagni rettificati per azione del quarto trimestre di 1,09 dollari martedì, rispetto alla stima di consenso di Wall Street di 1,08 dollari, secondo FactSet. Le entrate sono arrivate a 7,7 miliardi di dollari, che era al di sopra delle aspettative degli analisti di 7,5 miliardi di dollari. Nel trimestre di dicembre, l’unità data center del produttore di chip ha generato 3,86 miliardi di dollari di entrate, che era inferiore alla stima di 4,14 miliardi di dollari.
Le azioni AMD sono crollate del 9,8% a 107,81 dollari all’inizio delle negoziazioni di mercoledì.
La decelerazione nel business dell’intelligenza artificiale di AMD ha tolto la lucentezza dei guadagni azionari nel mercato del personal computing, hanno detto gli analisti di Jefferies guidati da Blayne Curtis. Anche se le entrate dell’IA sono mancate nel quarto trimestre, Curtis prevede una rampa nella seconda metà del 2025 guidata dal lancio del suo acceleratore MI350x.
Tuttavia, i guadagni di quota di mercato nel core business non sono sufficienti per compensare la mancanza di IA, ha scritto Curtis mentre abbassava il suo obiettivo di prezzo a 135 dollari da 190 dollari, mantenendo un rating di acquisto sul titolo.
AMD prevede le vendite nel trimestre in corso a un intervallo di 7,1 miliardi di dollari a metà rispetto alla stima di 7 miliardi di dollari degli analisti.
“Il 2024 è stato un anno trasformativo per AMD in quanto abbiamo consegnato entrate annuali record e una forte crescita degli utili”, ha detto il CEO di AMD Lisa Su nel comunicato stampa. “Guardando al 2025, vediamo chiare opportunità per una crescita continua basata sulla forza del nostro portafoglio di prodotti e sulla crescente domanda di calcolo ad alte prestazioni e adattivo”.
In una teleconferenza con analisti e investitori, Su ha detto che i modelli di intelligenza artificiale come gli annunci di costruzione dell’infrastruttura DeepSeek e AI come Stargate sono punti salienti che mostrano il “rapido ritmo dell’innovazione dell’IA su ogni livello dello stack, dal silicio agli algoritmi”. Tutti questi sviluppi guideranno una maggiore domanda di calcolo dell’IA, fornendo ad AMD opportunità di crescita, ha detto.
Non tutti sembravano convinti. L’analista di Citi Christopher Danely ha declassato il titolo a Neutral da Buy a seguito del rapporto. Ha abbassato il suo obiettivo di prezzo sulle azioni a 110 dollari da 175 dollari, citando il rallentamento della crescita dell’IA, la scarsa leva finanziaria e il rischio di una correzione dell’inventario.
A partire dalla chiusura di martedì, le azioni AMD sono diminuite del 33% negli ultimi 12 mesi, rispetto al guadagno del 9% per l’ETF iShares Semiconductor
Scrivi a Tae Kim a tae.kim@barrons.com e Elsa Ohlen atelsa.ohlen@barrons.com
01/02/25 Cerebras l’ammazza Nvidia

Se Buffy ammazzava i vampiri mi sa che Cerebras potrebbe diventare l’ammazza Nvidia…
Avevo già pubblicato qualcosa su Cerebras nella pagina delle prossime IPO dicendo che per me era da comperare e questo mi rafforza nelle mie convinzioni. Appena la collocano io la prendo a qualsiasi prezzo. Vedere anche l’articolo sotto.

01/02/25 Forbes: Perché queste startup di chip di intelligenza artificiale si stanno rallegrando per il DeepSeek Freakout
Il giorno dopo che l’upstartart cinese DeepSeek ha spazzato via più di 800 miliardi di dollari dalle capitalizzazioni di mercato dei colossi americani dei chip AI, penseresti che Andrew Feldman, CEO della società di chip di nuova generazione Cerebras, sarebbe rinchiuso in una stanza di guerra umida a tramare come salvare la sua azienda. Invece, sta festeggiando.
“Siamo un po’ euforici”, ha detto a Forbes. “Questi sono giorni grandi. Non possiamo rispondere ai telefoni abbastanza velocemente in questo momento.”
Sembra controintuitivo per una startup di chip di intelligenza artificiale, ma Feldman dice che la sua azienda, che dovrebbe diventare pubblica entro la fine dell’anno, ha sperimentato una scossa di interesse da quando DeepSeek ha capovolto la convenzione generale nella Silicon Valley secondo cui più chip e budget più grandi equivalgono a una migliore intelligenza artificiale. Dopo che DeepSeek ha rilasciato due modelli open source nelle ultime settimane che erano quasi buoni quanto la migliore tecnologia americana – ma erano molto meno costosi da addestrare ed eseguire, causando un panico diffuso per la supremazia dell’IA americana – sta scommettendo che l’uso dell’IA esploderà.
“Ogni volta che abbiamo reso il calcolo più performante e lo abbiamo reso più economico, il mercato è diventato più grande, non più piccolo”, ha detto Feldman. “Ogni singola volta.”
È così ottimista perché Cerebras, attualmente valutata 4 miliardi di dollari, costruisce chip progettati specificamente per rendere più efficiente l’uso dell’IA. Questo processo è chiamato “inferenza” – fondamentalmente, l’atto di eseguire un modello di intelligenza artificiale e permettergli di “pensare” e ragionare come un essere umano, al contrario del lavoro di alimentare i dati nel modello per insegnargli come fare quel pensiero per cominciare. L’inferenza è ciò che accade ogni volta che chiedi a ChatGPT di scrivere un’e-mail o di lavorare su un problema di codifica.
E quando si tratta di inferenza, la strangolamento di Nvidia è meno grave, il che ha permesso a un certo numero di startup più piccole di germogliare. I colleghi di Cerebras in tutta l’industria dei chip di avvio hanno detto a Forbes di essere ugualmente entusiasti per il cambiamento che DeepSeek ha scatenato. “DeepSeek ha capovolto lo script di intelligenza artificiale per l’open source e l’inferenza”, ha detto Rodrigo Liang, CEO di SambaNova da 5,1 miliardi di dollari. Sunny Madra, COO di Groq da 2,8 miliardi di dollari, ha detto a Forbes di aver visto un picco nelle iscrizioni e nell’utilizzo dei suoi chip dopo aver aggiunto il modello R1 di DeepSeek alla sua piattaforma GroqCloud, dove affitta l’accesso alla sua potenza di calcolo. “È davvero buono per le persone che si concentrano sull’inferenza”, ha detto. “È una reazione di lunga data all’inferenza che diventa molto più importante della formazione”, ha detto Robert Wachen, cofondatore di Etched, una società di fase precedente che ha raccolto una Serie A di 120 milioni di dollari a giugno.
Le affermazioni di DeepSeek – che ha addestrato V3, un modello di linguaggio di parametri da 671 miliardi rilasciato alla fine di dicembre, in due mesi per soli 5,58 milioni di dollari, ordini di grandezza inferiori ai 100 milioni di dollari OpenAI spesi per il suo modello GPT-4 (anche se più grande) – sono state aspramente contestate. Molti nel settore ritengono che DeepSeek abbia utilizzato più denaro e potenza di calcolo di quanto l’azienda abbia lasciato intendere, con il CEO di Scale Alexandr Wang che afferma che l’azienda possedeva circa 50.000 H100, chip Nvidia all’avanguardia vietati in Cina. Ma lo shock dell’adesivo inverso ha impressionato i rivali americani a prescindere. “Non sappiamo se fossero 6 milioni di dollari o 60 milioni di dollari, ma non erano 600 milioni di dollari”, ha detto Liang di SambaNova.
DeepSeek ha dimostrato non solo che si poteva addestrare un modello più a buon mercato, ma che investire di più nell’inferenza produrrebbe risultati migliori. La scorsa settimana, DeepSeek ha open source R1, un modello di ragionamento simile al modello o1 di OpenAI ma che è gratuito (mentre OpenAI addebita 200 dollari al mese). E R1, come tutti i modelli di ragionamento, utilizza più potere di inferenza mentre “pensa” attraverso i molteplici passaggi delle query. Modelli più inferenziali, combinati con più persone che usano l’IA perché è più economica, è una buona notizia per Cerebras e i suoi simili.
La reazione è egoistica per questo gruppo di aziende in lizza per detronizzare Nvidia, che ora vale 2,93 trilioni di dollari anche dopo un calo del mercato del 17% lunedì che ha spazzato via quasi 600 miliardi di dollari di valore. L’immersione è stata “un giudizio sul fatto che la maggior parte dell’attività di Nvidia era legata a queste grandi aziende che acquistavano molti rack di GPU per la pre-formazione” – non per l’inferenza, ha detto Liang.
Ma il CEO Jensen Huang è un concorrente formidabile. Ha suronato l’abilità di inferenza dell’azienda per mesi e tutte le startup di chip hanno detto a Forbes che il crollo delle azioni di Nvidia è stata una reazione eccessiva. Dopo il calo delle azioni, la società ha risposto con una dichiarazione che pubblicizzava le proprie capacità di inferenza. “L’inferenza richiede un numero significativo di GPU Nvidia e reti ad alte prestazioni”, ha detto la società in una dichiarazione a Forbes.
Nel frattempo, i grandi laboratori di frontiera dell’IA, come OpenAI, Anthropic o Google DeepMind, che hanno speso miliardi sulle GPU di Nvidia, non hanno sprecato i loro soldi. DeepSeek ha mostrato all’industria come ottimizzare oltre ciò che era stato fatto prima, e questo significa solo un’intelligenza artificiale più grande e migliore per tutti. “Se hai un processo di formazione più efficiente, allora prendi lo stesso calcolo e addestri un modello più grande”, ha detto Evan Conrad, cofondatore del mercato GPU San Francisco Compute Company, a Forbes.
A parte le imprese tecniche che la Silicon Valley sicuramente emulerà, il successo di DeepSeek ha avuto un’altra risonanza per le aziende di chip più piccole all’ombra di Nvidia. “Per quelli di noi che sono perdenti, dovrebbero darsi una mossa”, ha detto Feldman.
29/01/25 Barron’s: Le azioni ASML cancellano il selloff di DeepSeek dopo la trimestrale. L’intelligenza artificiale guida ancora la crescita.
Le azioni di ASML salgono dopo la pubblicazione degli guadagni trimestrali che hanno superato le aspettative degli analisti all’inizio di mercoledì, cancellando le perdite dopo che il il mercato era andato in tilt sul modello di intelligenza artificiale a basso costo di DeepSeek all’inizio di questa settimana.
Le azioni quotate ad Amsterdam del produttore olandese di apparecchiature per semiconduttori sono aumentate del 9,5% a 708,00 euro (736,44 dollari).
ASML ha riportato guadagni nel quarto trimestre di 6,85 euro per azione su vendite di 9,3 miliardi di euro, superando le aspettative di di 6,72 euro su vendite di 9,1 miliardi di euro, secondo FactSet.
Le prenotazioni netta per il trimestre sono arrivate a 7,1 miliardi di euro, mentre gli analisti si aspettavano solo 5,7 miliardi di euro
“I risultati del quarto trimestre di ASML dovrebbero fornire un’isola di calma in mezzo a un mare di panico per gli investitori nel settore dei semiconduttori”, ha detto l’analista di Hargreaves Lansdown Derren Nathan.
All’inizio di questa settimana, gli investitori in titoli tecnologici statunitensi hanno ricevuto un campanello d’allarme mentre si diffondevano notizie sul modello di intelligenza artificiale e sul chatbot dell’azienda cinese DeepSeek che sembrava rivaleggiare con i modelli leader occidentali. DeepSeek ha detto che è stato addestrato per una frazione del prezzo e con chip inferiori. Gli esperti hanno messo in dubbio il costo totale effettivo del modello.
“La crescita dell’intelligenza artificiale è il fattore chiave per la crescita del nostro settore”, ha affermato il CEO Christophe Fouquet. “Ha creato un cambiamento nelle dinamiche di mercato che non sta beneficiando tutti i nostri clienti allo stesso modo, il che crea sia opportunità che rischi come si riflettono nella nostra gamma di entrate del 2025”, ha aggiunto.
Il produttore di apparecchiature per chip ha ribadito le sue prospettive per il 2025 e vede vendite comprese tra 30 e 35 miliardi di euro.
Questa è la notizia dell’ultima ora. Torna presto per ulteriori analisi.
Scrivi a Elsa Ohlen a elsa.ohlen@barrons.com
28/01/25 Barron’s: Le azioni Nvidia aumentano. Perché le preoccupazioni per l’AI di DeepSeek sono esagerate.
Le azioni di Nvidia sembravano impostate per parare alcune delle sue perdite all’inizio di martedì.
Il produttore di chip si sta parzialmente riprendendo dalla sua storica caduta del giorno precedente mentre il mercato digerisce le affermazioni di una startup cinese di sviluppare un modello leader di intelligenza artificiale a un costo senza precedenti.
Le azioni sono in salita salita del 4,5% a 123,96 dollari nel trading pre-mercato martedì, mentre i futures che tracciano il Nasdaq sono in rialzo dello 0,4%.
Lunedì, le azioni hanno chiuso in calo del 17% nel loro più grande calo percentuale giornaliero da marzo 2020. Il catalizzatore sono stati i modelli di intelligenza artificiale della startup cinese DeepSeek che sembrano rivaleggiare con le loro principali controparti occidentali a una frazione del costo di formazione.
Nvidia ha visto il suo valore di mercato diminuire di 593 miliardi di dollari, il più grande calo di un giorno per qualsiasi società quotata registrata.
“DeepSeek è un eccellente progresso dell’IA e un perfetto esempio di Test Time Scaling”, ha detto un portavoce di Nvidia in una dichiarazione inviata via e-mail. “Il lavoro di DeepSeek illustra come nuovi modelli possono essere creati utilizzando quella tecnica, sfruttando modelli ampiamente disponibili e calcoli che sono pienamente conformi al controllo delle esportazioni”.
Il ridimensionamento in fase di test si riferisce alla capacità dei nuovi modelli di intelligenza artificiale di pensare a query per periodi di tempo più lunghi per trovare risposte migliori.
I progressi di DeepSeek hanno portato molti investitori a chiedersi se questo sia l’inizio di una fine del rapido aumento della spesa per intelligenza artificiale, ma alcuni analisti dicono che questa preoccupazione è esagerata.
“Dato che DeepSeek si basa sulla tecnica di distillazione che sfrutta altri modelli di intelligenza artificiale, noteremmo che i fornitori di servizi cloud sono ancora necessari, il che è la prova di una continua forte crescita della spesa per l’IA”, hanno detto gli analisti di Citi guidati da Christopher Danely in una nota di martedì.
Mentre Nvidia ha avuto una corsa incredibile negli ultimi anni, più che raddoppiando di valore sia nel 2023 che nel 2024, ha anche subito alcuni massicci cali. Dei 10 più grandi cali di un giorno di capitalizzazione di mercato nella storia, Nvidia ne ha rappresentati otto. Meta e Amazon hanno anche visto il loro valore di mercato scendere di oltre 200 miliardi di dollari in un giorno, entrambi nel 2022.
“Crediamo che la domanda di unità di elaborazione grafica AI superi ancora l’offerta, quindi mentre i modelli più sottili possono consentire un maggiore sviluppo per lo stesso numero di chip, pensiamo ancora che le aziende tecnologiche continueranno ad acquistare tutte le GPU che possono come parte di questa “corsa all’oro” dell’IA, ha scritto lo stratega di Morningstar Brian Colello.
Colello ha mantenuto una stima del valore equo di 130 dollari per le azioni Nvidia.
Scrivi a Elsa Ohlen a elsa.ohlen@barrons.com e Adam Clark all’indirizzo adam.clark@barrons.com
17/01/24 Barron’s: Le azioni Advance Micro Devices ottengono un declassamento. Perché questo analista è preoccupato.
AMD potrebbe perdere il suo vantaggio competitivo, ha sostenuto l’analista di Wolfe Research Chris Caso mentre declassava le azioni del produttore di chip da Buy to Peer Perform.
Le azioni di Lam Research, KLA Corporation e Applied Materials – tutte le società di apparecchiature per la fabbricazione di wafer che producono i macchinari utilizzati nella produzione di semiconduttori – hanno ottenuto un aumento quando Taiwan Semiconductor Manufacturing ha riportato i guadagni giovedì. AMD, che utilizza TSMC per produrre i suoi chip, non ha visto la stessa spinta. Il titolo è sceso dell’1,3% a 118,44 dollari giovedì.
Sempre giovedì, Caso ha tagliato il suo rating sulle azioni AMD e ha rimosso il suo obiettivo di prezzo di 210 dollari. L’analista ha detto che la decisione derivava da aspettative inferiori per le entrate della GPU del data center rispetto a quanto precedentemente anticipato.
Le unità di elaborazione grafica, o GPU, sono i chip che alimentano l’intelligenza artificiale. Questi circuiti elettronici accelerano i calcoli necessari per addestrare i modelli di apprendimento automatico.
Gli acceleratori di intelligenza artificiale sono un punto fermo della linea di prodotti AMD, ma Caso sostiene che il business GPU del data center dell’azienda sta “eseguendo al di sotto delle aspettative”.
Wolfe Research ha tagliato le sue stime di entrate e guadagni del primo trimestre rispettivamente a 6,6 miliardi di dollari e 80 centesimi per azione, in calo rispetto alle precedenti proiezioni di 7,04 miliardi di dollari di entrate e 93 centesimi per azione di utili. Le cifre rettificate sono inferiori alle aspettative di Wall Street per 7,04 miliardi di dollari e 95 centesimi per azione.
L’azienda ha anche abbassato le sue stime per l’intero anno a 29,9 miliardi di dollari e 4,19 dollari per azione rispetto ai precedenti 33,6 miliardi di dollari e 5,33 dollari per azione e stime di consenso di 32,3 miliardi di dollari e 5,02 dollari per azione.
Altre sfide includono la lenta stagionalità del personal computer proveniente da un forte quarto trimestre e la continua debolezza delle entrate di gioco, ha detto Caso.
C’è un lato positivo, tuttavia. Caso ha notato che la prossima serie di chip MI350 di AMD dovrebbe fungere da “catalizzatore” quando verrà lanciata nella seconda metà dell’anno.
L’MI350 dovrebbe essere una riprogettazione e un aggiornamento “più significativi” rispetto all’ultimo MI325, che per lo più ha aumentato il caricamento della memoria, ha detto Caso.
+0,81%ha recentemente annunciato che avrebbe utilizzato processori AMD nei computer rivolti ai clienti aziendali per la prima volta, “che potrebbero rappresentare futuri guadagni di azioni nel mercato dei clienti”, ha aggiunto Caso. Dell in precedenza ha limitato l’uso dei chip AMD ai PC consumer.
AMD ha rilevato i declassamenti da Goldman Sachs e HSBC all’inizio di questo mese. Gli analisti di Goldman hanno ridotto il loro rating a Neutral from Buy, citando una modesta crescita per le GPU del data center in mezzo a una forte concorrenza, mentre il team di HSBC ha declassato AMD to Reduce from Buy per i timori che il titolo potesse scendere ulteriormente dopo un calo di tre mesi.
Scrivi a Mackenzie Tatananni all’indirizzomackenzie.tatananni@barrons.com
08/01/25 Barron’s: 8 titoli tecnologici per un altro anno guidato dall’intelligenza artificiale
Presso Teresa Rivas
Dopo pochi giorni di negoziazione, sembra già un altro anno guidato dalla tecnologia, con l’intelligenza artificiale ancora una volta in prima linea. New Street Research ha otto scelte tecnologiche per iniziare il 2025.
Alla chiusura di martedì, l’S&P 500 era in rialzo dello 0,5% dall’inizio dell’anno, mentre il Nasdaq Composite è salito dello 0,9%. Ciò riecheggia anche lo schema del 2024 e del 2023, quando la tecnologia e i Magnifici Sette – Alphabet, Amazon.com, Apple, Meta, Facebook, Microsoft Nvidia e Tesla, hanno sovrapperformato facilmente.
Tuttavia, solo uno dei titoli Mag 7 entra nella lista di Pierre Ferragu di New Street: Nvidia. Le sue prime quattro scelte per il 2025 sono Micron, Infineon, Nvidia e Taiwan Semi con i suoi attuali obiettivi di prezzo che implicano un rialzo rispettivamente del 42%, 47%, 43% e 31%.
Micron si aggiudica il primo posto in quanto la memoria ad alta larghezza di banda (HMB) è il componente dell’intelligenza artificiale in più rapida crescita, con una velocità di crescita più che doppia rispetto alle unità di elaborazione dell’acceleratore (XPU). Come scrive Ferragu, i fornitori stanno più che raddoppiando la capacità e sono già esauriti per il 2025. Allo stesso modo, la memoria dinamica ad accesso casuale (DRAM) è un componente sempre più chiave, che si aspetta sorprenderà al rialzo quest’anno.
Con l’esposizione a entrambe le tendenze, pensa che Micron sarà una delle aziende che potrà facilmente superare le aspettative quest’anno, poiché una capacità più stretta porta a margini più elevati.
Infineon è il prossimo della lista perché Ferragu ritiene che le correzioni delle scorte nei suoi mercati finali automobilistici e industriali dovrebbero raggiungere il picco nel primo trimestre, portando a un forte slancio sequenziale per il resto dell’anno. “Le azioni in genere si comportano bene quando è chiaro che le stime hanno un minimo e rendimenti di crescita sequenziali”, scrive. “Infineon si presenta come il modo più interessante per investire nella ripresa nel 2025”.
Nvidia, di gran lunga il miglior performer del Mag 7 nel 2024, sembra pronta a continuare a beneficiare della sua posizione di fornitore di “picconi e pale” per l’IA. Stima che entro la fine del 2027 saranno implementati fino a otto cluster di intelligenza artificiale iperscalati con un milione di XPU e la metà di essi sarà basata sulle unità di elaborazione grafica (GPU) di Nvidia. Con gli enormi investimenti che continuano ad arrivare, ciò lascia molto spazio a Nvidia per continuare a battere le aspettative e le stime di consenso per salire al rialzo.
Taiwan Semi completa le prime quattro posizioni di Ferragu, in quanto l’azienda guadagna quote di mercato nelle aziende chiave e dovrebbe essere in grado di ottenere margini lordi e utili per azione più forti del previsto quest’anno, con spazio per una crescita più impressionante nel 2026.
Ha anche altre quattro idee contrarian e più rischiose per il 2025: Advanced Micro Devices, Mobileye , Soitec e Uber Technologies, che potrebbero generare un rialzo rispettivamente del 65%, 33%, 43% e 51%, in base ai suoi obiettivi.
Ammette che il 2025 potrebbe essere un anno “bitorzoluto” per AMD, ma sostiene che gli investitori non dovrebbero perdere di vista il fatto che si tratta di una GPU sostenibile che sta sfidando Nvidia, con una valutazione ragionevole. Allo stesso modo, Mobileye fornisce l’alternativa più tangibile al software di guida autonoma di Tesla, rendendolo il secondo migliore posizionato in termini di sistemi avanzati di assistenza alla guida (ADAS).
Il produttore francese di chip Soitec è stato frenato dalle correzioni delle scorte e dalla domanda lenta e, sebbene Ferragu ammetta che le deboli vendite di iPhone potrebbero ritardare la sua ripresa, sostiene che a lungo termine offre prospettive di crescita diversificate e valutazioni interessanti. Uber è altrettanto economico, sostiene, nonostante la crescente crescita degli utenti. Mentre gli investitori sono preoccupati per l’implementazione dei robotaxi, quel giorno è ancora lontano, osserva, e sembra più un’opportunità che una minaccia.
New Street non è l’unica azienda rialzista sulla tecnologia per il 2025, anche con due anni di grandi guadagni nel settore.
La scorsa settimana Citigroup ha sostenuto Azioni Internet , in particolare Wix.com, GoDaddy e VeriSign, dovrebbero ancora una volta sovraperformare quest’anno. Dan Ives di Wedbush, un toro tecnologico di lunga data, prevede i titoli tecnologici salirà di un altro 25% nel 2025. Allo stesso modo, anche se l’IA rimane agli inizi, Informatica quantistica è anche generare entusiasmo tra gli investitori.
08/01/25 Barron’s: Le azioni AMD crollano dopo il downgrade. Perché è in svantaggio nella gara delle chip AI.
le azioni di AMD sono scese mercoledì dopo aver preso un downgrade.
Il produttore di semiconduttori che compete con Nvidia e Intel , non sta tenendo il passo nella corsa per produrre chip per l’intelligenza artificiale.
Gli strateghi di HSBC guidati da Frank Lee hanno abbassato il loro obiettivo di prezzo sulle azioni a 110 dollari da 200 dollari e hanno ridotto il rating a Reduce from Buy. Dopo aver notato il declino del titolo negli ultimi tre mesi, Lee ha detto che potrebbe scendere ulteriormente.
La tabella di marcia dell’azienda per la produzione di processori grafici AI “è meno competitiva di quanto pensassimo in precedenza”, hanno detto gli analisti in una nota mercoledì.
Mentre Nvidia è ancora chiaramente il leader tra i produttori di chip AI, AMD, Broadcom, e Marvell Technology stanno anche competendo per la quota di mercato poiché le aziende Big Tech come Alphabet, società madre di Google, e Meta Platforms, proprietaria di Facebook, aumentano gli investimenti.
Le azioni AMD sono scivolate del 4,3% a 121,76 dollari quando il mercato si è aperto. Le azioni sono scese del 29% negli ultimi tre mesi.
Separatamente, AMD ha investito in una società che lavora alla scoperta di farmaci sostenuti dall’intelligenza artificiale. Le azioni Absci sono aumentate del 22% dopo che la società ha detto di aver ottenuto un investimento di 20 milioni di dollari dal produttore di chip.
30/12/24 Briefing.com: NVIDIA avanza più in alto oggi; la robotica potrebbe potenzialmente fungere da prossima leva di crescita (NVDA)
NVIDIA (NVDA +1%) è una scheggia di luce su una sessione di trading relativamente devastata oggi, aumentando mentre la maggior parte dei suoi colleghi incontra una significativa pressione di vendita. Due titoli incrociati questa mattina che probabilmente stanno contribuendo alla forza relativa di oggi. FT ha riferito che il progettista di GPU vuole entrare nel settore della robotica, appoggiandosi al suo dominio consolidato nell’IA. Nel frattempo, The Information ha dichiarato che ByteDance, la società dietro la popolare piattaforma di social media TikTok, sta cercando di stanziare 7,0 miliardi di dollari per i chip di NVDA l’anno prossimo.
L’appetito di ByteDance per i chip AI più avanzati non è eccessivamente sorprendente. Come sito di social networking video, TikTok può beneficiare di funzionalità generate dall’intelligenza artificiale come filtri, editing e video puramente generati dall’intelligenza artificiale. In effetti, TikTok vanta già molti strumenti basati sull’intelligenza artificiale, dai suggerimenti musicali automatici agli effetti e alla sintesi vocale. Tuttavia, ByteDance spendendo 7,0 miliardi di dollari sui chip di NVDA mette in mostra la costante posizione di leadership del titano dell’IA nello spazio dell’IA, una caratteristica che non sembra destinata a cambiare nel 2025.
Anche il desiderio di NVDA di muoversi in modo più aggressivo nella robotica non è uno shock. Tuttavia, potrebbe essere la prossima grande leva di crescita dell’azienda.
- Un commento che si è distinto durante la chiamata sugli utili del terzo trimestre (ottobre) di NVDA il mese scorso è stato che le industrie industriali dell’intelligenza artificiale e della robotica stavano accelerando, supportate da scoperte nei modelli di intelligenza artificiale che comprendono il mondo fisico. Meta Platforms (META) ha dimostrato come l’IA abbia plasmato il suo “metaverso” con i suoi occhiali intelligenti Ray-Ban, che interagiscono con il mondo fisico, etichettando gli oggetti in tempo reale; questa tecnologia può essere applicata alla robotica.
- La direzione ha aggiunto che alcuni dei più importanti produttori industriali globali stanno adottando NVIDIA Omniverse – la sua piattaforma grafica 3D in tempo reale – per automatizzare i flussi di lavoro. Ad esempio, Foxconn, che produce elettronica, utilizza gemelli digitali (modelli virtuali di un oggetto fisico) costruiti su NVIDIA Omniverse per aumentare l’efficienza nelle sue fabbriche Blackwell. Nel frattempo, aziende con sede negli Stati Uniti come Amazon (AMZN) hanno già sfruttato la tecnologia di simulazione robotica di NVIDIA in alcuni dei suoi magazzini negli Stati Uniti.
- NVDA si riferiva all’aspetto robotico dell’IA come intelligenza artificiale fisica, dove la tecnologia comprende e interagisce con il mondo fisico. L’azienda ha aggiunto che l’IA fisica può prevedere il futuro immediato, anticipando il prossimo evento in una serie.
Mentre la sua concorrenza guadagna terreno nella corsa ai chip AI, come Advanced Micro (AMD), NVDA si sta potenzialmente rivolgendo alla robotica per alimentare la sua prossima ondata di crescita. Di conseguenza, se la crescita dei data center inizia a rallentare in modo significativo nel 2025, specialmente se le tariffe e le restrizioni all’esportazione occolano le entrate relative alla Cina, NVDA potrebbe essere in grado di compare al deficit attraverso l’IA industriale e la sua offerta Omniverse. Questa sarà un’area interessante da tenere d’occhio nei prossimi mesi.
26/12/24 Briefing.com: SkyWater Tech è una scommessa sulla tendenza a spostare la produzione di chip negli Stati Uniti (SKYT)
SkyWater Technology (SKYT) ha fatto scalpore nelle ultime settimane, incluso un grande salto la scorsa settimana. Dal momento che non è molto conosciuto ed è un giorno di notizie lente, volevamo immergerci un po’ con SkyWater oggi. È una fonderia tecnologica che offre sia lo sviluppo avanzato della tecnologia di processo dei semiconduttori che i servizi di produzione di wafer. SkyWater è un produttore a contratto di semiconduttori a puro gioco, altrimenti noto come fonderia.
- Ciò che è insolito è che SkyWater ha sede negli Stati Uniti, mentre la maggior parte delle fonderie opera in Asia. Dati tutti i problemi della catena di approvvigionamento durante la pandemia, c’è stata una grande spinta per aumentare la produzione di chip negli Stati Uniti. L’obiettivo è quello di essere meno dipendenti dalle fonderie asiatiche, non solo dalle preoccupazioni di un’altra pandemia, ma anche data la minaccia delle tariffe, ha senso riportare la produzione negli Stati Uniti.
- Un grande sviluppo in questo settore è stato il passaggio nel 2022 del CHIPS and Science Act, una legge federale che autorizza circa 280 miliardi di dollari per aumentare la produzione statunitense. Include anche crediti d’imposta per gli investimenti del 25% per le attrezzature di produzione. Ciò che rende SkyWater interessante è che è stato creato nel 2017 quando è stato creato da Cypress Semi. Questo era prima del CHIPS Act, e prima che fosse bello fare chip negli Stati Uniti.
- SKYT ha costruito un’attività di servizi tecnologici avanzati molto forte. Pensa a questo come a una capacità di ricerca e sviluppo monetizzata che consente a SKYT di lavorare con i clienti molto presto nella fase di sviluppo del prodotto con la certezza che una volta che i loro prodotti passano alla produzione, SKYT può anche realizzarli in volume. SKYT fa sia R&S integrata che produzione ad alto volume nello stesso impianto di produzione. SkyWater serve i mercati in crescita dell’aerospaziale e della difesa (A&D), automobilistico, biomedico, industriale e quantistico.
- Il titolo ha fatto una mossa forte da quando ha annunciato all’inizio di dicembre di aver firmato un memorandum preliminare dei termini (PMT) del valore fino a 16 milioni di dollari con il programma CHIPS for America. Questo finanziamento proposto fornirebbe incentivi federali per migliorare le capacità di produzione presso la struttura di SkyWater in Minnesota. Questi incentivi completeranno i piani esistenti di SkyWater per i co-investimenti CapEx finanziati dai clienti per un totale di 320 milioni di dollari fino al 2026.
Guardando al 2025, SKYT è incoraggiata da una solida pipeline di domanda di sicurezza aerospaziale e difesa (A&D), dal crescente slancio in più programmi commerciali e dalla rampa iniziale della sua attività di imballaggio avanzato. La crescita nel suo segmento ATS dovrebbe essere guidata da un forte slancio continuo in vari programmi A&D e da nuove iniziative commerciali ben finanziate. SKYT si aspetta che questi progressi siano rafforzati da sostanziali nuove capacità di utensili finanziate dai clienti. Inoltre, SKYT prevede di accelerare il suo sviluppo avanzato di imballaggi ATS mentre intensifica la sua nuova piattaforma fan-out.
23/12/24 Briefing.com: Qualcomm si assicura una sentenza favorevole nel caso contro la società Arm Holdings (ARM)
Qualcomm (QCOM) ha ottenuto una grande vittoria in aula venerdì scorso dopo che una giuria ha stabilito che la licenza della società per utilizzare l’architettura dei chip di Arm Holdings (ARM) per laptop e PC è valida, consentendole di continuare a vendere chip in quel mercato. Al centro della questione c’era se QCOM fosse coperto da un accordo di licenza meno costoso che ARM ha elaborato con Nuvia – una società di progettazione di CPU che QCOM ha acquisito nel 2021 – o se QCOM fosse obbligata a rielaborare quell’accordo, con conseguenti commissioni di royalty più elevate per ARM.
La giuria ha ritenuto che QCOM non abbia violato il suo contratto attenendo all’accordo che Nuvia ha forgiato con ARM, riducendo il rischio che i margini e i profitti della sua fiorente attività di PC subano un colpo sostanziale a causa di tassi di royalty più costosi. Tuttavia, quel rischio non è stato ancora completamente eliminato.
- Sulla questione se Nuvia abbia violato i termini del suo accordo di licenza con ARM all’acquisizione di QCOM, i giurati non sono riusciti a raggiungere un consenso, con il risultato di una giuria appesa. Pertanto, questa parte del contenzioso può essere ripresentata, il che sembra una quasi certezza. In effetti, gli avvocati di ARM hanno promesso di continuare a combattere, ponendo le basi per un altro processo nel 2025.
- Mentre il mercato dei PC/laptop è attualmente una parte relativamente piccola dell’attività di QCOM – i telefoni rappresentano ancora circa il 60% delle entrate totali – è una componente chiave della strategia di diversificazione delle entrate dell’azienda. Poiché le nuove tecnologie di intelligenza artificiale, come i chatbot GenAI, vengono sempre più infuse in nuovi modelli di laptop, QCOM si aspetta che la crescita del suo chipset Snapdragon X acceleri nei prossimi trimestri.
- Su questa nota, nel 4Q24, le entrate dell’IoT sono aumentate del 22% anno/anno a 1,68 miliardi di dollari, dopo che il mercato finale ha registrato cali in ciascuno dei tre trimestri precedenti mentre l’ostinato eccesso di inventario nella base di clienti OEM dell’azienda si è finalmente attenuato. PC e laptop, che fanno parte del business IoT, hanno svolto un ruolo nella svolta poiché il chip Snapdragon X si è fatto strada in 58 piattaforme.
- Inoltre, durante un evento di analisi a metà novembre, QCOM ha detto che le sue entrate PC proiettate di 4,0 miliardi di dollari entro l’anno fiscale 29. Questa stima potrebbe rivelarsi conservatrice se l’azienda raggiungesse il suo obiettivo di raggiungere 100 vittorie di design entro il 2026, fornendole l’accesso a circa il 70% del mercato dei PC.
Nel complesso, il verdetto è uno sviluppo positivo per QCOM, eliminando alcuni rischi per il suo business PC emergente. Tuttavia, l’azienda non è ancora fuori dal bosco poiché ARM cercherà di appellarsi alla decisione e mentre incombe la prospettiva di Apple (AAPL) di lanciare i propri chip modem nei prossimi due anni.
22/12/24 Sole 24 Ore: analisi di ASML

19/12/24 Barron’s: Cosa c’è dietro il tonfo di Micron e cosa viene dopo
le azioni di Micron Mu hanno chiuso in calo del 16,2% dopo aver registrato entrate e guadagni trimestrali in linea con le stime degli analisti, ma hanno spaventato gli investitori con la sua guida a lungo termine.
I guadagni di Micron ottengono sempre molta attenzione. Riferisce la cadenza ad altri produttori di chip, quindi ha il palcoscenico per sé. È uno dei tre grandi produttori di memoria non cinesi e l’unico domiciliato negli Stati Uniti. Le vendite di memoria possono anche rivelare indizi sull’ecosistema più ampio.
C’è un’attività di hardware in crescita nel 2024: le apparecchiature per data center per la costruzione dell’infrastruttura di intelligenza artificiale. Ciò ha guidato l’espansione delle entrate di Micron per il suo primo trimestre fiscale, in aumento dell’84% rispetto all’anno scorso e del 12% rispetto all’ultimo trimestre. Le entrate del data center sono aumenta del 400% rispetto all’anno e del 40% rispetto allo scorso trimestre, rappresentando ora oltre la metà delle entrate di Micron.
Gli investitori si sono concentrati sulla crescita a razzo del business dei data center di Micron, ma ora la morbidezza nei mercati di consumo sta creando preoccupazioni. I mercati finali del mobile e dell’internet delle cose sono diminuiti di un totale del 15% rispetto allo scorso trimestre, anche se sono ancora in aumento dell’11% rispetto all’anno. La crescita nella sua attività di stoccaggio si è appiattita.
Ma ciò che ha davvero scosso gli investitori sono state le previsioni di Micron per il secondo trimestre, con entrate che dovrebbero scendere del 9% in sequenza. In passato, questo ha spesso significato problemi per le azioni.
“Le ragioni che entusiasmano gli investitori nel possedere Micron, centri dati AI, sono più laiche che cicliche”, ha detto l’analista di Cantor Fitzgerald CJ Muse a Barron. “La delusione è stata molto peggiore delle prospettive del previsto per il lato più ciclico del business: smartphone, PC, auto, ecc.”
Il settore dei semiconduttori è un’attività ciclica, e da nessuna parte questo è più evidente che nella memoria. I produttori vedono cicli regolari di inventario su e giù, e questo porta a grandi tassi di crescita delle vendite e di contrazione man mano che i prezzi fluttuano.
Nel suo rapporto annuale, Micron avverte che “Abbiamo sperimentato una volatilità significativa nei nostri prezzi medi di vendita e potremmo continuare a sperimentare tale volatilità in futuro. Negli ultimi cinque anni, le variazioni percentuali annuali nei prezzi medi di vendita della DRAM sono variate da una gamma percentuale più bassa a un intervallo di meno 40%”
Nel terzo trimestre fiscale del 2024, le entrate di Micron sono state in aumento dell’82% rispetto all’anno precedente, mentre nello stesso trimestre del 2023 sono diminuite del 57%. Come gli investitori hanno appreso nel 2023, l’utile lordo di Micron può anche essere negativo in una recessione

Gli investitori guardano a queste oscillazioni di vendita e stanno sempre aspettando che inizi il prossimo ciclo. Durante un ciclo verso l’alto come ora, l’attesa è che finirà ad un certo punto, e forse bruscamente. Molti investitori sono stati spazzati via da un improvviso cambiamento nel vento e non vogliono essere spazzati via di nuovo.
Così tanti investitori hanno visto la deludente guida del secondo trimestre di Micron e hanno cercato l’uscita. Potrebbe essere questa la fine del grande upcycle di Micron? In questo momento ci sono impulsi di duello.
La spesa per il data center è ai massimi storici, e gli iperscaler come Amazon, Microsoft e Google stanno dicendo agli investitori che non ridurranno presto gli investimenti, ma che i tassi di crescita delle loro spese in conto capitale si modereranno. Allo stesso tempo, i mercati dei consumatori sono stati deboli dal 2022 e non sembrano prendere piede verso il 2025. Anche l’attività di stoccaggio di Micron sta mostrando segni di potenziale debolezza futura.
Gli investitori si stanno chiedendo: la guida del secondo trimestre è un blip o un segnale di allarme?
Penso che sia un blip”, ha detto John Vinh di KeyBanc Capital Markets a Barron’s. “Penso che abbiamo un paio di quarti di attrito qui, e una volta superato, le cose dovrebbero ricominciare a riprendersi nella seconda metà del 2025”.
Scrivi ad Adam Levine all’indirizzo adam.levine@barrons.com
16/12/24 The Verge: Il CEO di Arm Rene Haas sulla corsa ai chip AI, Intel e cosa significa Trump per la tecnologia
Il capo dell’onnipresente aziend
Di Alex Heath, vicedirettore e autore della newsletter Command Line. Ha oltre un decennio di esperienza nel settore tecnologico
:format(webp)/cdn.vox-cdn.com/uploads/chorus_asset/file/25788989/DCD_1215.jpg)
All’inizio di questo mese, ho anticipato una prossima intervista con Rene Haas, CEO della società di progettazione di chip Arm. Mi sono seduto dal vivo nella Silicon Valley con Rene a un evento ospitato da AlixPartners, la cui versione completa è ora disponibile.
Rene è un personaggio affascinante nel settore tecnologico. Ha lavorato in due delle più importanti aziende di chip al mondo: prima Nvidia e ora Arm. Ciò significa che ha avuto un posto in prima fila su come l’industria è cambiata nel passaggio dal desktop al mobile e su come l’IA sta ora cambiando tutto da capo.
Arm è stata centrale per questi cambiamenti, come l’azienda che progetta, anche se non costruisce, alcuni dei chip per computer più importanti al mondo. Le architetture di Arm sono dietro i chip personalizzati per iPhone e Mac di Apple, sono in auto elettriche e stanno alimentando i server AWS che ospitano enormi pezzi di Internet.
Quando è stato l’ultima volta su Decodera un paio di anni fa, Rene ha definito Arm la “Svizzera dell’industria elettronica”, grazie a quanto siano prevalenti i suoi progetti. Ma la sua attività sta diventando più complessa nell’era dell’IA, come ci sentirai discutere. Ci sono state voci secondo cui Arm sta progettando non solo di progettare, ma anche di costruire i propri chip AI, il che lo metterebbe in competizione con alcuni dei suoi clienti chiave. Ho insistito un po’ su Rene su quelle voci, e penso che sia sicuro dire che sta pianificando qualcosa.
Rene aveva circa sei mesi nel ruolo di CEO quando è stato l’ultima volta su Decoder, dopo l’offerta fallita di Nvidia di acquistare Arm per 40 miliardi di dollari. Dopo che la pressione normativa ha ucciso quell’accordo, Rene ha guidato Arm attraverso un’IPO, che ha avuto un enorme successo per Arm e il suo investitore di maggioranza, il gigante tecnologico giapponese SoftBank.
Ho chiesto a Rene di quella relazione con SoftBank e com’è lavorare con il suo eccentrico CEO, Masayoshi Son. Mi sono anche assicurato di chiedere a Rene dei problemi di Intel. Ci sono state segnalazioni che Rene ha cercato di acquistare parte di Intel di recente, e volevo sapere cosa pensa che dovrebbe accadere all’azienda in difficoltà.
Naturalmente, ho anche chiesto informazioni sull’amministrazione Trump in arrivo, sul dibattito tra Stati Uniti e Cina, sulla minaccia delle tariffe e tutto il resto. Rene è ora amministratore delegato di una società pubblica, quindi deve stare più attento quando risponde a domande come queste. Ma penso che troverai ancora molte delle sue risposte abbastanza illuminanti. So di averlo fatto.
Ok, il CEO di Arm Rene Haas. Ci siamo.
Rene Haas, tu sei il CEO di Arm. Benvenuto su Decoder.
Grazie.
Questa è in realtà la tua seconda volta nello show. L’ultima volta che sei stato nel 2022. Non eri stato l’amministratore delegato per così tanto tempo. L’azienda non era ancora diventata pubblica, quindi molto è cambiato. Ci stiamo ad entrare in tutto questo. Ora sei anche un podcaster, quindi la pressione è su di me per farlo bene. Rene ha uno spettacolo in cui ha intervistato [Nvidia CEO] Jensen [Huang] abbastanza di recente che tutti voi dovreste dare un’occhiata.
Questa conversazione toccherà diverse cose. Molte cose sono cambiate nel mondo dell’IA e della politica negli ultimi due anni. Entreremo in tutto questo, insieme alle classiche domande del Decoder su come stai eseguendo Arm. Ma prima, volevo parlare di una cosa di cui scommetto che molte persone in questa stanza hanno parlato questa settimana, che è Intel. Inizieremo con qualcosa di facile.
Ottimo.
Cosa pensi che dovrebbe succedere a Intel?
Oh mio Dio.
Immagino che al più alto livello, come qualcuno che è stato nel settore per tutta la mia carriera, è un po’ triste vedere cosa sta succedendo dal punto di vista di Intel come icona. Intel è una potenza dell’innovazione, che si tratti di architettura informatica, tecnologia di fabbricazione, piattaforme per PC o server. Quindi vedere i problemi che sta attraversando è un po’ triste. Ma allo stesso tempo, devi innovare nel nostro settore. Ci sono molte lapidi di grandi aziende tecnologiche che non si sono reinventate. Penso che il più grande dilemma di Intel sia come dissociarsi dall’essere un’azienda verticale o un’azienda favolosa, per semplificarlo eccessivamente. Penso che sia il bivio che ha affrontato nell’ultimo decennio, ad essere onesti con te. E [l’ex CEO di Intel] Pat [Gelsinger] aveva una strategia che era molto chiara che il verticale era il modo per vincere.
A mio parere, quando ha intrapreso quella strategia nel 2021, non era una strategia triennale. Questa è una strategia di 5-10 anni. Quindi ora che se n’è andato e verrà portato un nuovo CEO, questa è la decisione che deve essere presa. Il mio pregiudizio personale è che l’integrazione verticale può essere una cosa piuttosto potente, e se possono farlo bene, sarebbero in una posizione straordinaria. Ma il costo ad esso associato è così alto che potrebbe essere una collina troppo grande da scalare.
Parleremo di integrazione verticale in relazione ad Arm più tardi, ma volevo fare riferimento a qualcosa che hai detto a Ben Thompson all’inizio di quest’anno. Hai detto: “Penso che ci siano molti potenziali benefici lungo la strada tra Intel e Arm che lavorano insieme”. E poi ci sono stati rapporti più recentemente che tutti voi vi siete effettivamente avvicinati a Intel per acquistare potenzialmente la loro divisione di prodotti. Vuoi lavorare più da vicino con Intel ora considerando quello che è stato fatto nelle ultime due settimane?
Beh, un paio di cose con Intel. Non commenterò le voci secondo cui lo compreremo. Ancora una volta, se sei un’azienda integrata verticalmente e la potenza della tua strategia è che hai un prodotto e favolose, hai un vantaggio potenzialmente enorme in termini di costi rispetto alla concorrenza. Quando Pat era l’amministratore delegato, gli ho detto più di una volta: “Dovresti concedere la licenza di Arm. Se hai le tue fab, le fab sono tutte intese al volume e possiamo fornire volume.” Non sono riuscito a convincerlo a farlo, ma penso che non sarebbe una brutta mossa per Intel.
D’altra parte, in termini di lavoro di Arm con Intel, lavoriamo a stretto contatto con TSMC e Samsung. IFS è uno sforzo molto, molto grande per Intel in termini di clienti esterni, quindi lavoriamo con loro a stretto contatto per garantire che abbiano accesso alla tecnologia più recente. Abbiamo anche accesso ai loro kit di progettazione. Vogliamo che i partner esterni che vogliono costruire un Intel siano in grado di utilizzare la più recente e migliore tecnologia Arm. Quindi, in questo contesto, lavoriamo a stretto contatto con loro.
Passando alla politica, ci sono alcune cose in cui voglio entrare, a partire dalle notizie di ieri. Hai qualche reazione al fatto che David Sacks sia lo “zar” dell’IA di Trump? Non so se lo conosci, ma hai qualche reazione a questo?
Lo conosco un po’. Complimenti a lui. Penso che sia una cosa piuttosto buona. È piuttosto affascinante che se torni indietro di otto anni a dicembre prima di Trump 1.0 mentre stava iniziando a riempire le sue scelte di gabinetto e i suoi nominati, è stato un po’ caotico. All’epoca non c’era molta rappresentanza dal mondo della tecnologia. Questa volta, che si tratti di Elon [Musk], David [Sacks], Vivek [Ramaswamy] – so che Larry Ellison è stato anche molto coinvolto nelle discussioni con l’amministrazione – penso che sia una buona cosa, ad essere onesto con te. Avere un posto al tavolo e avere accesso alla politica è davvero bello.
Direi che poche aziende affrontano tante domande di politica geopolitica come voi ragazzi dati tutti i vostri clienti. Come hai o consiglieresti l’amministrazione in entrata sulla tua attività?
Direi che non è solo per i nostri affari. Parliamo della Cina per un momento. Le economie dei due paesi sono così indissolubilmente legate insieme che una separazione tra catena di approvvigionamento e tecnologia è una cosa davvero difficile da progettare. Quindi direi solo che mentre questa amministrazione o qualsiasi amministrazione entra in gioco e guarda alla politica su cose come il controllo delle esportazioni, dovrebbero essere consapevoli che una rottura dura non è così facile come potrebbe sembrare sulla carta. E ci sono solo molte leve da considerare avanti e indietro.
Siamo un attributo nella catena di approvvigionamento. Se pensi a cosa serve per costruire un chip semiconduttore, ci sono strumenti EDA, l’IP di Arm, la fabbricazione, aziende come Nvidia e MediaTek che costruiscono chip, ma poi ci sono materie prime che vanno a costruire i wafer, i lingotti e i substrati. E vengono da ogni parte. È solo un problema così complesso che è così indissolubribilmente legato che non credo che ci sia una politica unica. Penso che le amministrazioni dovrebbero essere aperte a capire che ci deve essere molto equilibrio in termini di qualsiasi soluzione che viene proposta.
Qual è la tua strategia per la Cina in questo momento? Stavo leggendo che forse stai lavorando per offrire direttamente le tue licenze IP in Cina. Hai anche una filiale lì. La tua strategia in Cina è cambiata quest’anno?
No. L’unica cosa che probabilmente è cambiata per noi – e direi probabilmente per molto del mondo – è che la Cina era un mercato molto, molto ricco per le startup, e il capitale di rischio volava in giro molto liberamente. C’era molta innovazione e cose di quella natura. Questo ha assolutamente rallentato. Che questa sia l’uscita per queste aziende dal punto di vista del mercato azionario o per ottenere l’accesso alla tecnologia chiave non è così ben compreso. Abbiamo sicuramente visto un rallentamento.
D’altra parte, abbiamo visto una crescita incredibile in segmenti come quello automobilistico. Se guardi aziende come BYD o anche Xiaomi che stanno costruendo veicoli elettrici, la tecnologia di quei veicoli in termini di capacità è semplicemente incredibile. Egosticamente per noi, corrono tutti su Arm. La Cina è molto pragmatica in termini di come costruisce i suoi sistemi e prodotti, e si basa molto sull’ecosistema globale open source per il software e su tutte le librerie software che sono state sintonizzate per Arm. Che si tratti di ADAS, del propulsore o di [In-Vehicle Infotainment], è tutto basato sul braccio. Quindi la nostra attività automobilistica in Cina è davvero forte.
La retorica del presidente eletto Trump sulla Cina e sulle tariffe ti preoccupa specificamente per quanto riguarda Arm?
Non proprio. La mia opinione personale su questo è che le minacce delle tariffe sono uno strumento per arrivare al tavolo dei negoziati. Penso che il presidente Trump abbia dimostrato nel tempo di essere un uomo d’affari e le tariffe sono una leva per avviare una trattativa. Vedremo dove andrà a finire, ma non sono troppo preoccupato per questo.
Cosa ne pensi degli sforzi dell’amministrazione Biden con il CHIPS Act per portare più produzione nazionale qui? Pensi che abbiamo bisogno di un progetto Manhattan per l’intelligenza artificiale, come quello che OpenAI ha lanciato?
Non credo che abbiamo bisogno di un governo, OpenAI, progetto tipo Manhattan. Penso che il lavoro che viene svolto da OpenAI, Anthropic, o anche il lavoro in open source che viene guidato da Meta con Llama, stiamo vedendo una fantastica innovazione su questo. Puoi dire che gli Stati Uniti sono leader in termini di modelli di fondazione e di frontiera? Assolutamente. E questo viene fatto senza l’intervento del governo. Quindi, personalmente non penso che sia necessario con l’IA.
Sul tema dei fab, tornerò alla domanda su cui mi hai iniziato con Intel che spende 30-40 miliardi di dollari all’anno in CapEx per questi nodi all’avanguardia. Questa è una pillola difficile da ingoiare per qualsiasi azienda, ed è per questo che penso che il CHIPS Act sia stato una cosa buona e necessaria. Costruire semiconduttori è fondamentale per il nostro motore economico. Abbiamo imparato che durante il COVID quando ci sono volute 52 settimane per sostituire un portachiavi grazie a tutto ciò che sta accadendo con la catena di approvvigionamento. Penso che avere la resilienza della catena di approvvigionamento sia super importante. È super importante a livello globale, ed è sicuramente importante a livello nazionale. Ero e sono a favore del CHIPS Act.
Quindi, anche se abbiamo potenzialmente il capitale per investire di più nella produzione interna, abbiamo il talento? Questa è una domanda a cui penso e di cui ti ho sentito parlare. Trascorri molto tempo cercando di trovare talento ed è scarso. Anche se spendiamo tutti questi soldi, abbiamo le persone di cui abbiamo bisogno in questo paese per vincere davvero e fare progressi?
Una delle cose che sta accadendo è un vero aumento della visibilità di questo problema di talento, e penso che mettere più soldi nei programmi universitari di semiconduttori e nella ricerca sui semiconduttori stia aiutando. Per un certo numero di anni, i diplomi di semiconduttore, in particolare nella produzione, non sono stati visti come i più attraenti per andare e ottenere. Molte persone stavano guardando al software come servizio e ad altre aree. Penso che dobbiamo tornare a questo a livello universitario. Ora, si potrebbe sostenere che forse aiuterà se i bot e gli agenti di intelligenza artificiale possono entrare e fare un lavoro significativo, ma costruire chip e processi a semiconduttore è molto un’arte oltre che una scienza, in particolare sul miglioramento delle rese manifatturiere. Non so se abbiamo abbastanza talento, ma so che ora c’è molto sforzo per cercare di rafforzarlo.
Andiamo agli affari di Arm. Hai molti clienti – tutte le grandi aziende tecnologiche – quindi sei esposto all’IA in molti modi. Non ti viene in realtà, per quanto ne so, esattamente come l’IA contribuisce al business, ma puoi darci un’idea di dove sia la crescita che stai vedendo nell’IA e per Arm?
Una delle cose di cui stavamo parlando prima era come ora siamo una società pubblica. Non eravamo una società pubblica nel 2022. Una delle cose che ho imparato come società pubblica è quella di rompere il meno possibile in modo che nessuno possa farti domande in termini di dove stanno andando le cose.
Sto chiedendo adesso.
[Ride] Sì, lo so che lo sei. Quindi direi di no, non rompiamo nessuna di quelle cose. Quello che stiamo osservando – e penso che questo non farà che accelerare – è che se stai parlando di un data center AI o di un AirPod o di un indossabile nell’orecchio, c’è un carico di lavoro di intelligenza artificiale che ora è in esecuzione e questo è molto chiaro. Questo non deve necessariamente essere ChatGPT-5 che esegue sei mesi di formazione per capire il prossimo livello di sofisticazione, ma questo potrebbe essere solo l’esecuzione di un piccolo livello di inferenza che sta aiutando il modello di intelligenza artificiale a funzionare ovunque si trovi. Stiamo vedendo carichi di lavoro di intelligenza artificiale, come ho detto, che funzionano assolutamente ovunque. Allora, cosa significa questo per Arm?
Il nostro core business è le CPU, ma facciamo anche GPU, NPU e motori di elaborazione neurale. Quello che stiamo vedendo è la necessità di aggiungere sempre più capacità di calcolo per accelerare questi carichi di lavoro di intelligenza artificiale. Lo stiamo vedendo come pali da tavolo. O metti un motore neurale all’interno della GPU che può eseguire l’accelerazione o rendere la CPU più in grado di eseguire estensioni che possono accelerare la tua intelligenza artificiale. Lo vediamo ovunque. Non direi nemmeno che accelererà; quello sarà il valore predefinito.
Quello che avrai è un carico di lavoro di intelligenza artificiale in esecuzione su tutto il resto che devi fare, dal più piccolo dei dispositivi all’edge ai data center più sofisticati. Quindi, se guardi un telefono cellulare o un PC, deve eseguire grafica, un gioco, il sistema operativo e le app – a proposito, ora deve eseguire un certo livello di Copilot o un agente. Ciò significa che ho bisogno di sempre più capacità di calcolo all’interno di un sistema che è già un po’ limitato sul costo, sulle dimensioni e sull’area. È fantastico per noi perché ci dà un sacco di problemi difficili da risolvere, ma è chiaro quello che stiamo vedendo. Quindi, direi che l’IA è ovunque.
C’erano molte chiacchiere nell’ultima versione di Apple per iPhone su questo super ciclo di intelligenza artificiale con l’intelligenza di Apple, questa idea che l’intelligenza di Apple avrebbe rinvigorito le vendite di iPhone e che il mercato dei telefoni cellulari in generale si è stabilizzato. Quando pensi che l’IA – l’intelligenza artificiale sul dispositivo – inizi davvero a riaccendere la crescita dei telefoni cellulari? Perché in questo momento non sembra che stia accadendo.
E penso che ci siano due ragioni per questo. Uno è che i modelli e le loro capacità stanno avanzando molto velocemente, il che sta facendo avanzare il modo in cui gestisci l’equilibrio tra ciò che viene eseguito localmente, ciò che viene eseguito nel cloud e le cose relative alla latenza e alla sicurezza. Si sta muovendo a un ritmo incredibile. Ero solo in una discussione con i ragazzi di OpenAI la scorsa settimana. Stanno facendo i 12 giorni di Natale —
12 giorni di ship-mas, e stanno facendo qualcosa ogni giorno. Ci vogliono due o tre anni per sviluppare un chip. Pensa ai chip che si trovano in quel nuovo iPhone quando sono stati concepiti, quando sono stati progettati e quando le funzionalità a cui abbiamo pensato dovevano andare all’interno di quel telefono. ChatGPT non esisteva nemmeno in quel momento. Quindi, questo sarà qualcosa che accadrà gradualmente e poi all’improvviso. Vedrai un momento di ginocchio nella curva in cui l’hardware è ora abbastanza sofisticato, e poi le app si precipitano.
Cos’è questo cambiamento? È un nuovo prodotto? È una svolta hardware, una combinazione di entrambi? Una sorta di indossabile?
Beh, come ho detto, che si tratti di un dispositivo indossabile, di un PC, di un telefono o di un’auto, i chip che vengono progettati vengono semplicemente riempiti con quanta più capacità di calcolo possibile per sfruttare ciò che potrebbe esserci. Quindi è un po’ di pollo e uova. Carichi l’hardware con tanta capacità sperando che il software atterri su di esso, e il software sta innovando a un ritmo molto, molto rapido. Quell’intersezione arriverà dove improvvisamente, “Oh mio Dio, ho ridotto il grande modello linguistico a una certa dimensione. Il chip che va in questo piccolo indossabile ora ha abbastanza memoria per sfruttare quel modello. Di conseguenza, la magia prende il sopravvento.” Succederà. Sarà graduale e poi improvviso.
Sei ottimista su tutti questi dispositivi indossabili di intelligenza artificiale su cui le persone stanno lavorando? So che Arm è nei Meta Ray-Ban, per esempio, di cui in realtà sono un grande fan. Penso che quel fattore di forma sia interessante. Occhiali AR, cuffie: pensi che sia un grande mercato?
Sì, lo faccio. È interessante perché in molti dei mercati in cui siamo stati coinvolti, che si tratti di mainframe, PC, cellulari, dispositivi indossabili o orologi, alcuni nuovi fattori di forma guidano un nuovo livello di innovazione. È difficile dire come sarà quel prossimo fattore di forma. Penso che sarà più una situazione ibrida, che si tratti di occhiali o di dispositivi a casa tua che sono più un dispositivo di spinta che di un dispositivo di trazione. Invece di chiedere ad Alexa o all’Assistente Google cosa fare, potresti avere quelle informazioni inviate a te. Potresti non volerlo spingere verso di te, ma potrebbe essere spinto verso di te in modo tale che ti stia guardando dietro gli angoli. Penso che il fattore di forma che arriva sarà in qualche modo simile a quello che stiamo vedendo oggi, ma potresti vedere alcuni di questi dispositivi diventare molto più intelligenti in termini di livello di spinta.
Ci sono state segnalazioni che Masayoshi Son, il tuo capo di SoftBank, ha lavorato con Jony Ive e OpenAI, o una combinazione dei tre, per fare hardware. Ho sentito voci che potrebbe esserci qualcosa per la casa. C’è qualcosa con cui stai lavorando di cui puoi parlare?
Ho letto le stesse voci.
Sì. Ok, bene.
Amazon ha appena annunciato che sta lavorando sul più grande data center per l’intelligenza artificiale con Anthropic, e Arm sta davvero entrando nel business dei data center. Cosa stai vedendo lì con gli iperscalatori e i loro investimenti nell’IA?
La quantità di investimento è alle stelle. Devi solo guardare i numeri di alcune delle persone che sono in questo settore. È un momento molto interessante perché stiamo ancora assistendo a un investimento insaziabile nella formazione in questo momento. La formazione è estremamente alta di calcolo e ad alta intensità energetica, e questo sta guidando gran parte della crescita. Ma il livello di calcolo che sarà richiesto per l’inferenza sarà in realtà molto più grande. Penso che sarà meglio della metà, forse l’80% nel tempo sarebbe un’inferenza. Ma la quantità di casi di inferenza che dovranno essere eseguiti è molto più grande di quella che abbiamo oggi.
Ecco perché stai vedendo aziende come CoreWeave, Oracle e persone che non sono tradizionalmente in questo spazio che ora eseguono il cloud AI. Beh, perché è così? Perché non c’è abbastanza capacità con i tradizionali grandi hyperscaler: le Amazon, i Meta, i Google, i Microsoft. Penso che continueremo a vedere un cambiamento del panorama, forse non tanto un cambiamento, ma certamente opportunità per altri attori in termini di abilitazione e accesso a questa crescita.
È molto, molto buono per Arm perché abbiamo visto un grande aumento della crescita della quota di mercato per noi nel data center. AWS, che costruisce i suoi dispositivi generici Graviton basati su Arm, era a re:Invent questa settimana. Ha detto che il 50 per cento di tutte le nuove implementazioni sono Graviton. Quindi il 50 per cento di tutto ciò che è nuovo in AWS è Arm, e questo non diminuirà. Quel numero sta per aumentare.
Una delle cose che stiamo vedendo è con dispositivi come le CPU Grace Blackwell di Nvidia. Questo è Arm che usa una GPU Nvidia. Questo è un grande vantaggio per noi perché quello che succede è che il cloud AI sta ora eseguendo un nodo host basato su Arm. Se il data center ora ha un cluster di intelligenza artificiale in cui il calcolo generico è Arm, vogliono naturalmente avere il più del calcolo generico che non è AI in esecuzione su Arm. Quindi quello che stiamo vedendo è solo un’accelerazione per noi nel data center, che si tratti di intelligenza artificiale, inferenza o calcolo generico.
Sei preoccupato per una bolla con il livello di spesa che sta andando nell’iper-scaling e nei modelli stessi? È una quantità incredibile di capitale e il ROI non è ancora lì. Potresti sostenere che lo sia in alcuni punti, ma attribuisci la paura alla bolla?
Da un lato, sarebbe folle dire che la crescita continua senza sosta, giusto? Abbiamo visto che non è mai veramente il caso. Penso che ciò che diventerà molto interessante, in questa particolare fase di crescita, è vedere a quale livello il vero beneficio proviene dall’IA che può aumentare e/o sostituire determinati livelli di posti di lavoro. Alcuni dei modelli di intelligenza artificiale e dei chatbot oggi sono decenti ma non grandiosi. Integrano il lavoro, ma non necessariamente sostituiscono il lavoro.
Ma se inizi ad entrare in agenti che possono fare un vero livello di lavoro e che possono sostituire ciò che le persone potrebbero aver bisogno di fare in termini di pensiero e ragionamento? Poi diventa abbastanza interessante. E poi dici: “Beh, come succederà?” Beh, non ci siamo ancora, quindi dobbiamo addestrare più modelli. I modelli devono diventare più sofisticati, ecc. Quindi penso che la cosa dell’addestramento continui per un po’, ma quando gli agenti di intelligenza artificiale arrivano a un livello in cui ragionano vicino al modo in cui fa un essere umano, allora penso che si asintoti a un certo livello. Non credo che la formazione possa essere inattenuta perché a un certo punto nel tempo, otterrai modelli di formazione specializzati al contrario di modelli generici, e questo richiede meno risorse.
Ero solo a una conferenza in cui ha parlato Sam Altman, e stava davvero abbassando l’asticella su ciò che l’AGI sarà piuttosto intenzionalmente, e ha parlato di dichiararlo l’anno prossimo. Leggo cinicamente come OpenAI che cerca di riorganizzare il suo accordo di partecipazione agli utili con Microsoft. Ma mettendolo a parte, cosa ne pensi di AGI? Quando lo avremo, cosa significherà? Sarà un momento tutto in una volta, Big Bang, o sarà come Altman sta parlando ora, più come un lamento?
So che ha le sue definizioni per AGI, e ha ragioni per quelle definizioni. Non sottoscrivo così tanto il dibattito “cos’è AGI contro ASI” (super intelligenza artificiale). Penso di più a quando questi agenti di intelligenza artificiale iniziano a pensare, ragionare e inventare. Per me, è un po’ un momento di passaggio del Rubicone, giusto? Ad esempio, ChatGPT può fare un lavoro decente nel superare l’esame di avvocato, ma in una certa misura, carichi abbastanza logica e informazioni nel modello e le risposte sono lì da qualche parte. Fino a che livello il modello di intelligenza artificiale è un pappagallo stocastico e ripete semplicemente tutto ciò che si trova su Internet? Alla fine della giornata, sei bravo solo quanto il modello su cui ti sei allenato, che è buono solo quanto i dati.
Ma quando il modello arriva a un punto in cui può pensare e ragionare e inventare, creare nuovi concetti, nuovi prodotti, nuove idee? È una specie di AGI per me. Non so se siamo a un anno di distanza, ma direi che siamo molto più vicini. Se mi avessi fatto questa domanda un anno fa, avrei detto che è abbastanza lontano. Mi hai fatto quella domanda ora, dico che è molto più vicino.
Cosa c’è di più vicino? Due anni? Tre anni?
Probabilmente. E probabilmente mi sbaglierò su quel fronte. Ogni volta che interagisco con i partner che stanno lavorando sui loro modelli, sia su Google che su OpenAI, e ci mostrano le demo, è mozzafiato in termini di tipo di progressi che stanno facendo. Quindi sì, penso che non siamo così lontani dall’arrivare a un modello che può pensare, ragionare e inventare.
Quando sei stato l’ultima volta su Decoder, hai detto che Arm è conosciuta come la Svizzera dell’industria elettronica, ma ora ci sono stati molti rapporti quest’anno che stavi cercando di salire davvero sullo stack e progettare i tuoi chip. Ho sentito che non rispondi a questa domanda molte volte, e mi aspetto una non risposta simile, ma ci proverò. Perché Arm dovrebbe volerlo fare? Perché Arm vorrebbe salire nella catena del valore?
Questo suonerà come uno di quelli, “Se l’ho fatto, risponde”, giusto? Perché Arm dovrebbe prendere in considerazione di fare qualcosa di diverso da quello che fa attualmente? Tornerò alla prima discussione che stavamo avendo relativa ai carichi di lavoro dell’IA. Quello che stiamo vedendo costantemente è che i carichi di lavoro di intelligenza artificiale si stanno intrecciando con tutto ciò che sta avvenendo dal punto di vista del software. Al centro, siamo l’architettura del computer. Questo è quello che facciamo. Abbiamo ottimi prodotti. Le nostre CPU sono meravigliose, le nostre GPU sono meravigliose, ma i nostri prodotti non sono niente senza software. Il software è ciò che fa andare il nostro motore.
Se stai definendo un’architettura informatica e stai costruendo il futuro dell’informatica, una delle cose di cui devi essere molto consapevole è quel legame tra hardware e software. Devi capire dove vengono fatti i compromessi, dove vengono fatte le ottimizzazioni e quali sono i vantaggi finali per i consumatori da un chip che ha quel tipo di integrazione. È più facile farlo se stai costruendo qualcosa che se stai concedendo in licenza IP. Questo è dal punto di vista in cui se stai costruendo qualcosa, sei molto più vicino a quell’interblocco e hai una prospettiva molto migliore in termini di compromessi di design da fare. Quindi, se dovessimo fare qualcosa, questo sarebbe uno dei motivi per cui potremmo.
Sei preoccupato di competere con i tuoi clienti?
Voglio dire, i miei clienti sono Apple. Non ho intenzione di costruire un telefono. La Tesla del mio cliente. Non costruirò un’auto. Il mio cliente è Amazon. Non costruirò un data center.
E Nvidia? Lavoravi per Jensen.
Beh, costruisce scatole, giusto? Costruisce scatole DGX e costruisce tutti i tipi di cose.
Parlando di Jensen – ne stavamo parlando prima di arrivare – quando eri in Nvidia, CUDA stava davvero entrando in salto. Stavi solo parlando del collegamento software. Cosa ne pensi del software in relazione ad Arm? Mentre stai pensando di salire nella pila in questo modo, è lock-in? Cosa significa avere qualcosa come un CUDA?
Si può vedere il lock-in come una manovra offensiva che si prende dove, “farò queste cose in modo da poter bloccare le persone” e/o si fornisce un ambiente in cui è così facile usare il proprio hardware che per impostazione predefinita, si è “bloccati”. Torniamo al commento sul carico di lavoro dell’IA. Quindi oggi, se stai facendo calcoli generici, stai scrivendo i tuoi algoritmi in C, JAX o qualcosa di simile.
Ora, diciamo che vuoi scrivere qualcosa in TensorFlow o Python. In un mondo ideale, cosa vuole lo sviluppatore di software? Lo sviluppatore di software vuole essere in grado di scrivere la propria applicazione a un livello molto alto, che si tratti di un carico di lavoro generico o di un carico di lavoro di intelligenza artificiale, e semplicemente farlo funzionare sull’hardware sottostante senza dover davvero sapere quali sono gli attributi di quell’hardware. Le persone del software sono meravigliose. Sono intrinsecamente pigri e vogliono essere in grado di eseguire la loro applicazione e farla funzionare.
Quindi, come piattaforma di architettura informatica, spetta a noi renderlo facile. È una grande iniziativa per noi pensare di fornire una piattaforma eterogenea che sia omogenea in tutto il software. Lo facciamo oggi. Abbiamo una tecnologia chiamata Kleidi e ci sono librerie Kleidi per l’intelligenza artificiale e per la CPU. Tutta la bontà che mettiamo all’interno dei nostri prodotti CPU che consente l’accelerazione utilizza queste librerie e rendiamo aperte quelle disponibili. Non ci sono costi. Sviluppatori, funziona e basta. Andando avanti, poiché la stragrande maggioranza delle piattaforme oggi è basata su Arm e la stragrande maggioranza eseguirà carichi di lavoro di intelligenza artificiale, vogliamo solo renderlo davvero facile per le persone.
Ti chiederò un’altra cosa di cui non puoi davvero parlare prima di entrare nelle divertenti domande del decodificatore. So che hai questa prova con Qualcomm in arrivo. Non puoi davvero parlarne. Allo stesso tempo, sono sicuro che senti la preoccupazione degli investitori e dei partner per ciò che accadrà. Affronta questa preoccupazione. Non devi parlare del processo stesso, ma affronta la preoccupazione che gli investitori e i partner hanno riguardo a questa lotta che hai.
Quindi l’aggiornamento attuale è che prevede di andare a processo il 16 dicembre, che non è molto lontano. Posso capire, perché abbiamo parlato con investitori e partner, che ciò che odiano di più è l’incertezza. Ma d’altra parte, direi che i principi sul motivo per cui abbiamo presentato il reclamo sono invariati, e questo è tutto ciò che posso dire.
Va bene, ce ne sono altri. Quindi domande del decodificatore. L’ultima volta che sei stato qui nel podcast, Arm non era ancora diventato pubblico. Sono curioso di sapere ora che sei un paio d’anni, cosa ti ha sorpreso dell’essere una società pubblica?
Penso che ciò che mi ha sorpreso a livello personale sia la quantità di larghezza di banda che toglie dalla mia giornata perché finisco per dover pensare a cose a cui non pensavamo prima. Ma al livello più alto, in realtà non è un grande cambiamento. Il braccio era pubblico prima. Ci siamo consolidati attraverso SoftBank quando ci ha comprato. Quindi, i muscoli in termini di essere in grado di riportare i guadagni trimestrali e farli riconciliare entro un lasso di tempo, avevamo una buona memoria muscolare su tutto ciò. Operativamente per l’azienda, abbiamo grandi squadre. Ho un grande team finanziario che è davvero bravo a farlo. Per me personalmente, è stato solo l’apprezzamento che ora c’è una parte della mia settimana che è dedicata ad attività su cui non stavo davvero lavorando prima.
La struttura di Arm è cambiata dal punto di vista organizzativo da quando sei diventato pubblico?
No. Credo fermamente nel non fare molti cambiamenti organizzativi. Per me, il design organizzativo segue la tua strategia e la strategia segue la tua visione. Se pensi al modo in cui mi hai sentito parlare di Arm pubblicamente negli ultimi due anni, è abbastanza invariato. Di conseguenza, non abbiamo fatto molto in termini di cambiamento dell’organizzazione. Penso che i cambiamenti organizzativi siano orribilmente dirompenti. Siamo un’azienda di 8.000 persone, quindi non siamo giganteschi, ma se fai un gigantesco cambiamento organizzativo, è meglio che abbia seguito un grande cambiamento di strategia. Altrimenti, hai off-site, riunioni di squadra e chiamate Zoom che parlano dei miei nuovi leader. Se non è a sostegno di un cambiamento di strategia, è una grande perdita di tempo. Quindi mi sforzo davvero di non fare molto di questo.
Quello di cui abbiamo parlato prima con potenzialmente guardare ad andare più verticale o il valore lì, che sembra un grande cambiamento che potrebbe influenzare la struttura.
Se dovessimo farlo. Esatto.
C’è un compromesso che hai dovuto fare quest’anno nel tuo processo decisionale che è stato particolarmente difficile di cui puoi parlare, qualcosa con cui hai dovuto lottare? Come hai valutato quei compromessi?
Non so se ci sia stato un compromesso specifico. In questo lavoro come amministratore delegato – accidenti, saranno tre anni a febbraio – stai costantemente facendo il compromesso mentale di ciò che deve accadere giorno per giorno rispetto a ciò che deve accadere tra cinque anni. La mia propensione tende a pensare a cinque anni avanti rispetto a un quarto avanti. Non so se c’è qualche grande compromesso che direi di fare, ma quello con cui sto costantemente lottando è quell’equilibrio tra ciò che è necessario giorno per giorno rispetto a ciò che deve accadere nei prossimi cinque anni.
Ho delle grandi squadre. Il team di ingegneri è fantastico. Il team finanziario è fantastico. I team di vendita e marketing sono fantastici. Nella vita di tutti i giorni, non c’è molto che posso fare per influenzare quali sono quei lavori, ma i lavori su cui posso avere un impatto sono nei prossimi cinque anni. Quello che cerco di fare è passare aree di tempo sul lavoro che solo io posso fare, e se c’è lavoro che il team può fare dove non aggiungerò molto, cerco di stare lontano da esso. Ma questo è il più grande compromesso con cui sono alle prese è il giorno per giorno rispetto al futuro.
Quanto è diverso Arm in cinque anni?
Non sappiamo che sembreremo molto diversi come azienda, ma speriamo di continuare ad essere un’azienda di grande impatto nel settore. Ho grandi ambizioni per dove possiamo essere.
Mi piacerebbe sapere com’è lavorare con [Masayoshi Son]. È il tuo maggiore azionista e il tuo presidente del consiglio di amministrazione. Sono sicuro che parli sempre. È divertente nella sala riunioni come lo è in ambienti pubblici?
Sì. È un ragazzo affascinante. Una delle cose che ammiro molto di Masa, e non credo che ottenga abbastanza credito per questo, è che è l’amministratore delegato e fondatore di un’azienda di 40 anni. E si è reinventato molte volte. Voglio dire, SoftBank ha iniziato come distributore di software e si è reinventato dall’essere un operatore con SoftBank mobile a un investitore. È una gioia lavorare con lei, ad essere onesto con te. Imparo molto da lui. È molto ambizioso, ovviamente, ama correre dei rischi, ma allo stesso tempo ha una buona presa sulle cose che contano. Penso che tutto ciò che vedi di lui sia accurato. È un ragazzo molto divertente.
Quanto è coinvolto nel fissare il futuro a lungo termine di Arm con te?
Beh, è il presidente dell’azienda e il presidente del consiglio di amministrazione. Da questo punto di vista, il compito del consiglio è valutare la strategia a lungo termine dell’azienda, e con la mia propensione a pensare anche a lungo termine, io e lui parliamo sempre di questo genere di cose.
Hai lavorato con due leader tecnologici molto influenti: Masa e Jensen di Nvidia. Quali sono i tratti unici che li rendono unici?
È una domanda meravigliosa. Penso che le persone che costruiscono un’azienda e la gestiscono 20, 30 anni dopo e la guidano con lo stesso livello di passione e innovazione – Jensen, Masa, Ellison, Jeff Bezos, sono sicuro che sto tralasciando i nomi – portino molti degli stessi tratti. Sono molto intelligenti, ovviamente brillanti, si guardano dietro gli angoli e lavorano incredibilmente duramente ma hanno un’incredibile quantità di coraggio. Quegli ingredienti sono necessari per le persone che rimangono al top così a lungo.
Sono un grande fan del basket, e ho sempre fatto analogie tra, se pensi a un Michael Jordan o a un Kobe Bryant, quando le persone parlano di ciò che li ha resi grandi, ovviamente il loro talento era alle stelle e avevano un grande atletismo, ma era qualcosa nel loro carattere e nella loro spinta che li tagliava in un livello diverso. E penso che Jensen, Son, Ellison, gli altri nomi che ho menzionato, rientrano tutti nello stesso gruppo. Anche Elon Musk, ovviamente.
Va bene, lo lasceremo lì. Rene, grazie mille per esserti unito a noi.
10/12/24 WSJ: Incontra il piccolo produttore di chip AI ora più prezioso di Intel
Il ruolo di Marvell nell’aiutare i titani della tecnologia a creare i propri chip per data center ha aumentato le sue entrate e la sua valutazione

Matt Murphy non ha alcun interesse a gestire un’azienda di chip 10 volte più grande della sua attuale. È la mossa più intelligente, e in realtà quella più ambiziosa.
Murphy, che è amministratore delegato di Marvell MRVL dal 2016 è stato tra i pochi nomi usciti come potenziali sostituti per il Pat Gelsinger recentemente estromesso da CEO di Intel. Ciò ha portato alla rara vista di un amministratore delegato che utilizza la propria chiamata agli utili per negare di essere sul mercato.
“Sono tutto dentro”, ha detto sulla chiamata di Marvell del 3 dicembre, il giorno dopo che Intel ha annunciato l’uscita di Gelsinger e vari media hanno riportato Murphy come candidato. “L’azienda è eccezionale. La tecnologia è la migliore della categoria. Non riesco a pensare a un posto migliore per lavorare di Marvell.”
Il suo tempismo era buono. Un forte rapporto sugli utili e la notizia di una relazione ampliata con Amazon hanno illuminato le azioni di Marvell, che erano già aumentate del 60% per l’anno all’inizio della settimana. Le azioni sono aumentate di un altro 18% dal rapporto di martedì, mettendo brevemente la capitalizzazione di mercato di Marvell sopra i 100 miliardi di dollari per la prima volta in assoluto (era di circa 5 miliardi di dollari quando Murphy ha accettato il lavoro).

Gli ultimi guadagni hanno persino messo la capitalizzazione di mercato di Marvell davanti alla tanto assediata Intel, che genera ancora 10 volte più entrate annuali.
La recente traiettoria di Marvell suggerisce che il divario di entrate continuerà a ridursi. La crescita esplosiva della sua attività di data center ha finalmente raggiunto un punto in cui può compensare più completamente la debolezza nei segmenti più legacy dell’azienda, che vendono chip utilizzati in beni come apparecchiature di telecomunicazione, scatole TV via cavo e automobili.
Le vendite di data center sono quasi raddoppiate anno su anno a 1,1 miliardi di dollari nel trimestre appena concluso, e la proiezione di Marvell per il periodo corrente indica che la società concluderà il suo anno fiscale a gennaio con l’unità data center che comprende circa il 72% delle sue entrate totali, rispetto al 40% dell’anno precedente.
Anche l’anno prossimo sembra luminoso. L’ultimo accordo di Marvell con Amazon è un accordo “multigenerazionale” quinquennale che fa aiutare Marvell a progettare i propri chip di intelligenza artificiale. Amazon, che gestisce il più grande servizio di cloud computing al mondo, ha ampliato in modo significativo i suoi sforzi di chip interni, in parte per ridurre la sua dipendenza da Nvidia per componenti cruciali dell’IA. Amazon ha annunciato la prossima generazione del suo più grande chip AI, chiamato Trainium, alla sua conferenza annuale degli sviluppatori questa settimana. Gli analisti ritengono che Trainium giocherà un ruolo più che raddoppiando le entrate personalizzate AI di Marvell nel prossimo anno fiscale che termina gennaio 2026.

Ciò dovrebbe contribuire a spingere le entrate annuali di Marvell a oltre 8 miliardi di dollari nell’anno fiscale 2026, in aumento del 40% rispetto alle aspettative per quest’anno, secondo le stime di consenso di Visible Alpha. Inoltre, è prevista una crescita del 20% per l’anno successivo, quando Marvell prevede di essere nella produzione di chip AI personalizzati per un altro grande cliente tecnologico senza nome che gli analisti ritengono sia Microsoft. L’analista Mark Lipacis di Evercore ISI prevede che l’industria dei chip AI personalizzati raggiungerà da 30 a 50 miliardi di dollari di vendite entro il 2030. In una nota ai clienti la scorsa settimana, ha detto che Marvell “ha il potenziale per catturare un terzo di quel mercato”.
Cosa potrebbe rovinare la festa? Come Nvidia Marvell ha un’esposizione significativa a investimenti in forte espansione nell’IA che rendono l’azienda vulnerabile a qualsiasi recessione in quella spesa. Ciò potrebbe accadere se i servizi di intelligenza artificiale propagati dai giganti della tecnologia e dai loro clienti aziendali non riescono a raggiungere gli utenti. Gli stessi grandi acquirenti di tecnologia potrebbero persino mettere una pausa temporanea sulla spesa per assorbire le attrezzature già acquistate. Tali periodi di “digestione” sono stati a lungo comuni nel mercato dei data center. Ma con le sue azioni ora scambiate quasi 45 volte i guadagni a termine, un premio del 21% al multiplo di Nvidia, Marvell non ha un prezzo per il minimo di dossi.
Murphy non è preoccupato. “Vedremo la digestione ad un certo punto”, ha detto in un’intervista, aggiungendo che l’IA è solo una parte di ciò che sta guidando gli investimenti nei cosiddetti sistemi informatici accelerati. I suoi 30 anni nel settore dei chip lo hanno anche fatto conoscere bene i cicli brutali del settore. “Sappiamo che non sarà una linea retta nei prossimi 10 anni”, ha detto.
I prossimi due da soli dovrebbero tenerlo abbastanza occupato.
05/12/24 Briefing.com: Synopsys venduta sulla debole guida FY25; la Cina rimane un vento contrario (SNPS)
Le azioni del fornitore di software di automazione della progettazione elettronica Synopsys (SNPS -12%) scivolano oggi nonostante un ritmo di guadagni di dimensioni decenti nel quarto trimestre (ottobre) e un panorama legato all’intelligenza artificiale continuamente robusto. La battuta d’arresto di oggi deriva dalla guida ribassista del primo trimestre (gennaio) di SNPS e dalle miti prospettive FY25. L’azienda ha guidato l’anno in modo pragmatico a causa della disuguanza nel mercato finale e nella domanda geografica.
La direzione ha caratterizzato il suo contesto attuale come una storia di due mercati. I clienti che servono l’infrastruttura AI hanno fatto incredibilmente bene, avvantaggiando in modo significativo SNPS. Tuttavia, il resto del mercato dei semiconduttori, compresi i clienti che servono dispositivi mobili, PC, automobilistici e industriali, è ancora nel bel mezzo di un ciclo di aggiornamento. Poiché SNPS è ancora legato alla ricerca e sviluppo di questi clienti, sta sopravvivendo ma non registrando livelli di crescita simili a quelli dell’altra coorte di clienti incentrata sull’intelligenza artificiale. Nel frattempo, la Cina rimane un vento contrario mentre SNPS si occupa di espandere le restrizioni commerciali mentre l’economia decelera.
Questi fattori hanno contribuito a una visione equilibrata dell’anno fiscale 25. SNPS ha mirato EPS rettificati di 14,88-14,96 dollari, il punto medio che supera il consenso, e una crescita dei ricavi del +10,1-11,1% anno/anno o 6,745-6,805 miliardi di dollari, non raggiungendo il consenso. Vale la pena sottolineare che se non fosse per l’impatto di una settimana in più e di un cambiamento di un anno solare, SNPS ha proiettato una crescita dei ricavi di +11,5-12,5% annuo per l’anno fiscale 25, le aspettative degli analisti di riunione di fascia alta.
- La disomogeneità della domanda era prevalente nel quarto trimestre. SNPS ha superato le aspettative di utili per i trimestri back-to-back, ma ha visto la crescita dei ricavi continuare a rallentare, espandendosi di appena il 2,3% anno/anno a 1,64 miliardi di dollari rispetto a salti di +12,7%, +15,2% e +21,1% nei tre trimestri precedenti.
- La crescita principale nel quarto trimestre è stata l’attività di automazione della progettazione di SNPS, con un aumento del 17% anno/anno, mostrando il forte appetito per l’IA. SNPS ha costantemente aggiunto motori di ottimizzazione dell’intelligenza artificiale ai suoi prodotti, aiutando i clienti a estrarre miglioramenti nell’utilizzo dell’hardware e nei tempi di consegna. Nel frattempo, i progetti multi-die stanno aprendo una nuova frontiera nell’architettura dei chip. SNPS ha dichiarato che il 90% dei progetti di elaborazione ad alte prestazioni e il 70% dei progetti di PC saranno multi-die entro due anni.
- Inoltre, su multi-die, SNPS ha dichiarato che un ambiente di progettazione che combina automazione del design e simulazione multi-fisica sarà il vero punto di svolta e un componente chiave della proposta di valore per la sua acquisizione in sospeso di Ansys (ANSS), che dovrebbe chiudere durante 1H25.
- L’attività Design IP di SNPS ha abbassato le entrate complessive, offrendo una crescita approssimativamente piatta anno/anno nel trimestre. La maggior parte del business IP dell’azienda deriva da clienti che progettano su chip prodotti da Taiwan Semi (TSM), che comprende numerosi verticali, dalla produzione all’automotive agli smartphone. Questi mercati finali sono ancora in modalità di recupero, mantenendo le entrate soppresse. L’IP rimarrà grumo verso il primo trimestre, facendo sì che le prospettive di SNPS per il trimestre, compreso l’EPS rettificato di 2,77-2,82 dollari e i giri di 1,435-1,465 miliardi di dollari, non siano all’altezza delle aspettative degli analisti.
La guida deludente FY25 deriva da una combinazione di graduale ripresa dei mercati finali e incertezza che circonda la Cina ha scatenato una notevole pressione di vendita oggi. Mentre queste variabili possono continuare a gettare una nuvola sui risultati futuri, SNPS rimane ottimista sull’IA, osservando che la tecnologia è solo nella sua fase iniziale e diventerà una componente essenziale di tutto ciò che l’azienda fa.
03/12/24 Financial Time: “Non avevamo un addetto alle vendite” il CEO di Raspberry Pi parla della creazione di una start-up tecnologica-
Raspberry Pi ha operato per sette anni prima di pensare di creare un reparto vendite per commercializzare i microcomputer che produce.
I suoi dispositivi piccoli e a basso costo, delle dimensioni di una carta di credito, sono stati lanciati attraverso un ente di beneficenza educativo del Regno Unito per promuovere l’informatica tra i giovani. È stato solo dopo che i prodotti hanno attirato l’interesse dei primi clienti aziendali, spesso attraverso i genitori che ne avevano acquistato uno per insegnare ai loro figli la programmazione e poi ne avevano visto il potenziale per un uso commerciale, che l’azienda ha iniziato ad assumere persone per venderli a nuovi clienti.
L’azienda, nata dalla Raspberry Pi Foundation, si era concentrata sulla creazione del miglior prodotto per il prezzo piuttosto che “essere avida”, afferma il suo co-fondatore e amministratore delegato, Eben Upton. “Fino al 2019 non c’era una sola persona che si potesse riconoscere come addetto alle vendite. Poi abbiamo iniziato a vedere che c’erano dei limiti con quella posizione”.
Raspberry Pi impiega ora 134 persone, di cui circa 25 nelle vendite, e vende circa 200.000 microcomputer e accessori a settimana. A giugno si è quotata alla Borsa di Londra con una valutazione di 542 milioni di sterline. Nel giro di tre mesi è stato elevato all’indice FTSE 250 delle società blue-chip quotate nel Regno Unito.
Le sue schede tascabili, essenzialmente mini piattaforme operative che si collegano a monitor e tastiere e costano circa £ 50 per il modello base, sono ora ampiamente utilizzate. Forniscono la potenza di calcolo all’interno dei tabelloni delle partenze e degli arrivi dell’aeroporto di Heathrow e della segnaletica digitale del gruppo elettronico NEC. Alimentano caricabatterie per veicoli elettrici e flipper, controllano le telecamere di osservazione del Kenya Wildlife Service e la linea di produzione del produttore di biciclette pieghevoli Brompton. I clienti aziendali rappresentano il 70% del fatturato.
“Siamo stati insolitamente visibili a causa della portata del nostro prodotto”, afferma Upton. “C’era anche molta domanda latente per quello che facciamo, costruire un PC a basso costo che fosse abbastanza piccolo da stare all’interno di tabelloni con la potenza di elaborazione necessaria per eseguire operazioni come l’esecuzione di linee di produzione”.
La crescita delle operazioni non è sempre stata semplice. Inizialmente, Raspberry Pi non è stato in grado di raccogliere il capitale necessario per produrre un numero sufficiente di dispositivi per soddisfare la prima ondata di domanda. Upton ha dovuto adottare un modello di royalties, concedendo in licenza i progetti dell’azienda al produttore, un’idea che si era già dimostrata vincente per il suo collega tecnologico di Cambridge, il produttore di chip Arm.
Poi, quando il Covid ha interrotto il primo anno del team di vendita, Raspberry Pi è stato colpito da vincoli della catena di approvvigionamento. Il nuovo dipartimento ha dedicato più tempo alla gestione della domanda in calo, afferma Upton. “Si trattava quasi di usare le competenze anti-vendite”.
Più recentemente, l’azienda ha dovuto lavorare per bloccare la distribuzione dei suoi dispositivi che stavano trovando la loro strada in Russia. Upton afferma di essere rimasto scioccato dai dati prodotti dalla Kyiv School of Economics che identificano l’attività di violazione delle sanzioni, comprese “prove limitate del loro uso in applicazioni militari”. Dice che Raspberry Pi sta lavorando con licenziatari e partner rivenditori approvati per chiudere questo commercio. “Abbiamo in programma di aggiungere una maggiore tracciabilità ad alcuni dei nostri prodotti per consentirci di lavorare a ritroso dall’hardware recuperato al rivenditore a cui è stato venduto per la prima volta”, aggiunge Upton.
Il produttore di computer ha superato molti dei suoi primi problemi iniziali. L’annuncio dei primi risultati come azienda quotata in borsa ha mostrato un aumento del 47% dell’utile semestrale per l’inizio del 2024, a un valore superiore alle attese di 34,2 milioni di dollari; e un aumento del 61% dei ricavi nello stesso periodo a 144 milioni di dollari.
Accelerare questa crescita in modo sostenibile è ciò che ora preoccupa l’amministratore delegato. Ammette che una delle sue maggiori preoccupazioni riguardo a un’ulteriore espansione è la gestione della crescita dell’organico e il suo timore che l’azienda ora quotata in borsa perda la sua dinamica imprenditoriale.
“Non siamo un’organizzazione orientata ai processi. Non siamo una grande organizzazione di meeting. Non siamo una grande organizzazione di PowerPoint”, afferma.
La britannicità rimane un aspetto fondamentale del marchio Raspberry Pi. Upton ha stretti legami con Cambridge, dove l’azienda è stata fondata e ha ancora sede. Ha conseguito la laurea in fisica e ingegneria, oltre a un diploma e un dottorato di ricerca in informatica. Ha poi avviato due attività di giochi per telefoni cellulari, prima di guidare Raspberry Pi.
Quasi tutti i dispositivi a scheda singola dell’azienda sono assemblati nello stabilimento di Sony nel sud del Galles, a sole quattro ore di auto dalla sua sede centrale. Ciò significa che se è necessario controllare la produzione, l’azienda può muoversi rapidamente. Upton descrive come si è tirato indietro da un’incursione iniziale nell’utilizzo di fabbriche a Shenzhen, in Cina, a causa di problemi nel mantenere il controllo della produzione.
“Potremmo farlo nella Silicon Valley. . . probabilmente potremmo farlo a Shenzhen, ma quando inizi a farlo in un posto devi continuare a farlo lì a causa dell’intensità della comunicazione dell’innovazione”.
Avere tutto insieme è importante anche perché Raspberry Pi sviluppa sia l’hardware che il software per l’esecuzione su di esso, afferma Upton.
“Abbiamo ancora tutta la nostra ingegneria su un unico piano. Metti insieme gli ingegneri del software e dell’hardware e loro parlano tra loro. Quindi è improbabile che ci sia un ufficio di ingegneria satellitare della Silicon Valley per Raspberry Pi”.
Tuttavia, di fronte alla recente decisione su dove quotare l’azienda, Upton ha quasi optato per gli Stati Uniti. Il mercato londinese ha faticato ad attrarre imprese tecnologiche ad alta crescita, mentre altre società britanniche, tra cui Arm, hanno spostato le loro quotazioni a New York.
“Data la scarsità di società deep tech quotate in borsa nel Regno Unito, in particolare all’indomani della partenza di Arm. . . c’era la preoccupazione che forse ci sarebbe stata una mancanza di conoscenze di dominio necessarie nella comunità degli analisti del Regno Unito”, afferma. “Fortunatamente non è stato così, e siamo stati molto fortunati con la qualità della copertura”.
Upton e il suo direttore finanziario, Richard Boult, hanno deciso di quotarsi a Londra piuttosto che a New York dopo che gli investitori incontrati durante un roadshow negli Stati Uniti hanno detto loro che non c’era “alcun divario multiplo significativo” nel modo in cui i gestori di fondi del Regno Unito e degli Stati Uniti avrebbero valutato la società. Erano anche preoccupati che la loro attività potesse cadere sotto il radar di analisti e investitori.
Quando Upton e Boult si sono separati all’aeroporto Logan di Boston “abbiamo concordato che il piano era cambiato a Londra”, dice l’amministratore delegato, osservando che è stata una decisione puramente commerciale, non guidata dal patriottismo o dall’attaccamento emotivo alla città in cui ha studiato. “La Gran Bretagna rimane un posto fantastico per farlo”.
Upton descrive la cultura dell’azienda come una cultura di “trasparenza”, con i dipendenti “estremamente responsabilizzati” per fare ciò che ritengono necessario.
Cita casi di studio dei suoi giorni come studente di Executive MBA presso la Cambridge Judge Business School su aziende che non sono riuscite a crescere perché non hanno dato abbastanza responsabilità al personale.
Attribuisce il merito al direttore non esecutivo, Sherry Coutu, fondatrice dello ScaleUp Institute, che è stata con Raspberry Pi da quando è scoppiata dalla fondazione nel 2012, di averlo incoraggiato a espandere il business più velocemente, sostenendo che ciò avrebbe portato benefici esponenzialmente maggiori.
“So che la crescita ha rendimenti non lineari. Potremmo arrivare a 250 persone e, a mio avviso, ciò porterebbe a quattro volte la quantità di affari che facciamo attualmente. Ma se parli con Sherry, sarà 10 volte”.
Upton ha anche utilizzato partnership con altre aziende tecnologiche, come la società di consulenza software spagnola Igalia, per far crescere le operazioni senza espandere il suo libro paga. Ma per farli funzionare dipende dall’assicurarsi le persone giuste. “Il rischio . . . è che il fornitore nel primo incontro propone dei bravi ragazzi che non si vedono mai più, quindi ci siamo concentrati sulla firma di accordi in cui manteniamo quei ragazzi come persone che lavorano per noi”.
Upton dice che non ha intenzione di rinunciare al proprio ruolo nell’azienda, anche se man mano che l’attività è cresciuta ha affidato più decisioni al suo direttore operativo. Crede che questo sia un segno che è cresciuto come leader. “Non sto guardando la porta, ma lo farei se non mi stessi cambiando”, dice Upton.