creo un nuovo gruppo dove concentrare i miei post sui semiconduttori fino ad ora divisi in diversi settori
05/02/26 Briefing.com: Arm Holdings plc rimbalza dopo un solido terzo trimestre: lo slancio nei Data Center limita l’incertezza del settore mobile
Arm Holdings (ARM) ha registrato un buon rimbalzo dopo aver riportato ieri sera i risultati del 3° trimestre (dicembre). L’azienda ha superato le aspettative sia per quanto riguarda l’utile che il fatturato, con ricavi in crescita del 26,3% su base annua a 1,24 miliardi di dollari. La guidance per il 4° trimestre è risultata in linea con le attese, prevedendo un EPS (utile per azione) tra $0,54 e $0,62 e ricavi tra 1,42 e 1,52 miliardi di dollari.
- Driver della crescita: Lo sviluppo continua a essere sostenuto dalla forza del settore mobile e dallo slancio dell’IA Cloud, poiché i carichi di lavoro legati all’inferenza e ai processi sempre attivi spingono gli hyperscaler verso CPU Arm ad alto numero di core ed efficienza energetica.
- Royalty da record: I ricavi da royalty sono aumentati del 27% su base annua raggiungendo il record di 737 milioni di dollari. I maggiori contributi sono arrivati dagli smartphone (grazie a tassi di royalty più elevati per chip) e dai data center.
- Data Center in raddoppio: I ricavi da royalty in questo segmento continuano a raddoppiare anno su anno, con un ulteriore vento favorevole derivante dalla costruzione di infrastrutture per l’IA che richiedono silicio per il networking (come DPU e SmartNIC), dove Arm detiene una quota elevata.
- Licenze: I ricavi da licenze sono stati di 505 milioni di dollari (+25%), trainati dalla domanda di architetture di prossima generazione. L’ACV (valore annuale dei contratti) è salito del 28%.
- Margini e Investimenti: Il margine operativo non-GAAP è sceso di 430 punti base, riflettendo spese aggressive in ingegneria e architetture di nuova generazione.
- Resilienza contro la crisi degli smartphone: Nonostante l’aumento dei costi delle memorie e i vincoli di fornitura, Arm ha dichiarato che i produttori stanno dando priorità alla fascia alta del mercato (dove le tecnologie Armv9 e CSS garantiscono royalty più alte). Di conseguenza, anche un calo del 20% nelle unità vendute avrebbe un impatto limitato (solo l’1-2%) sulle royalty totali.
Analisi dell’esperto di Briefing.com: ARM ha recuperato bene dalle perdite iniziali. Il segmento dei data center si è distinto, con royalty che crescono a un ritmo a tre cifre; Arm prevede che questo settore possa eguagliare o superare il mobile come attività principale nei prossimi due o tre anni. Tuttavia, l’asticella delle aspettative era alta e una guidance solo “in linea”, unita a maggiori investimenti in R&S, ha frenato la reazione iniziale. Gli investitori restano sensibili ai rischi del settore smartphone, in linea con i commenti di Qualcomm (QCOM) sulla scarsità di forniture dovuta alla domanda di memorie per l’IA. Nel complesso, il trimestre è solido e Arm appare ben posizionata per la scalata dei data center.
Cosa significa per te: A differenza di AMD, che è stata punita per le aspettative troppo alte sull’IA, Arm sta dimostrando che la sua strategia di aumentare il valore di ogni singolo chip (più royalty per chip venduto) funziona anche se si vendono meno telefoni.
05/02/26 Bloomberg: Qualcomm, ARM colpiti dalla preoccupazione che la carenza di memoria si stia diffondendo
By Ian King
Takeaways by Bloomberg AIHide
- Shares of Qualcomm Inc. and Arm Holdings Plc fell after the companies delivered quarterly reports, hurt by concern that a shortage of memory chips will crimp growth in the electronics industry.
- The shortage of memory chips is driven by the historic build-out of artificial intelligence infrastructure, with manufacturers concentrating on supplying AI data centers and leaving less production for phone components.
- The memory shortages are likely to persist, with Intel Corp. CEO Lip-Bu Tan saying that suppliers have told him that things won’t improve until 2028.
Machine translated from English to Italian.
Le Azioni di Qualcomm Inc. E Arm Holdings Plc sono crollate dopo che le aziende di semiconduttori hanno pubblicato i loro resoconti trimestrali, penalizzate dal timore che una carenza di chip di memoria possa frenare la crescita nel settore dell’elettronica.
Entrambi i titoli hanno perso oltre l’8% nelle contrattazioni estese di mercoledì sera, dopo che il management ha segnalato che i limiti di memoria limiteranno la produzione di telefoni. Qualcomm è il principale produttore di processori per smartphone e Arm ricava gran parte dei suoi ricavi dalle royalty sulla tecnologia utilizzata in quel settore.

Lo sviluppo storico delle infrastrutture di intelligenza artificiale sta determinando la carenza di chip di memoria, che aiutano i computer a gestire i dati. I produttori di componenti si sono concentrati sulla fornitura di data center per l’intelligenza artificiale, riducendo la produzione di componenti per telefoni.Ciò significa che alla fine i consumatori riceveranno meno prodotti, che dovranno pagare prezzi più alti.
“In tutto il settore, la carenza di memoria e gli aumenti dei prezzi definiranno probabilmente la portata complessiva del settore degli apparecchi telefonici”, ha affermato l’amministratore delegato di Qualcomm. Cristiano Amon ha dichiarato agli analisti durante una conference call. Amon ha aggiunto che i clienti cinesi, in particolare, hanno dichiarato che produrranno meno telefoni del previsto perché non riescono a reperire chip di memoria sufficienti.
Per saperne di più: Qualcomm fornisce previsioni tiepide in segno di un mercato della telefonia instabile
D’altro canto, sia Qualcomm che Arm sono pronte a trarre vantaggio dal boom dell’intelligenza artificiale. Le aziende si stanno posizionando per ottenere maggiori ricavi dagli operatori di data center, un cambiamento che dovrebbe favorirle nel lungo termine. Ma sono ancora vulnerabili alle oscillazioni del mercato degli smartphone.
Un aspetto positivo è che i produttori di telefoni stanno dando priorità ai telefoni più costosi. Questo contribuisce a sostenere le vendite di chip di fascia alta di Qualcomm e a sostenere i ricavi derivanti dalle royalty di Arm.
Per saperne di più: Arm scivola dopo che il nervosismo telefonico ha messo in ombra la crescita dei data center
Anche altre aziende hanno lanciato l’allarme sulla carenza di memoria. MediaTek Inc., un produttore di chip con sede a Taiwan, ha citato la questione durante una conference call questa settimana, definendola una situazione “in evoluzione”. Intel Corp. AMMINISTRATORE DELEGATO Lip-Bu Tan, nel frattempo, ha affermato che è probabile che la carenza persista per anni.
“Per quanto ne so, non c’è alcun sollievo”, ha detto durante un evento martedì. I fornitori gli hanno detto che la situazione non migliorerà fino al 2028, ha detto Tan.
Per saperne di più: Il CEO di Intel afferma che non ci sarà “alcun sollievo” per la carenza di memoria fino al 2028
Samsung Electronics Co., SK Hynix Inc. E Micron Technology Inc.sono i tre maggiori produttori di chip di memoria. La loro tecnologia viene utilizzata per archiviare informazioni in ogni tipo di dispositivo, dalle automobili agli smartphone, ma al momento un obiettivo chiave è soddisfare la domanda di intelligenza artificiale.
I data center si affidano a un chip avanzato chiamato memoria ad alta larghezza di banda, o HBM, per eseguire software e servizi di intelligenza artificiale. Le aziende produttrici di memorie hanno investito molto nell’espansione della produzione di questi componenti, a scapito di altri fornitori.
L’industria sta ora cercando di aumentare la sua capacità produttiva totale. Ma ciò richiederà tempo: costruire e attrezzare gli stabilimenti può richiedere più di un anno.
04/02/26 Bloomberg: Cerebras raccoglie 1 miliardo di dollari di finanziamenti per un valore di 23 miliardi di dollari
By Ian King
Machine translated from English to Italian.
Il Fornitore di chip AI Cerebras Systems Inc. ha raccolto circa 1 miliardo di dollari in un nuovo round di finanziamento, rafforzando gli sforzi dell’azienda per competere con Nvidia Corp.
Il finanziamento valuta l’azienda a 23 miliardi di dollari, inclusi i fondi raccolti, consolidandola come una delle società a capitale ristretto più preziose in vista di una prevista IPO. Il finanziamento è stato guidato da Tiger Global Management, con la partecipazione di altri investitori, tra cui Benchmark, Fidelity Management & Research Co. e Advanced Micro Devices Inc.
Cerebras fa parte di un gruppo crescente di aziende che competono per sfidare il dominio di Nvidia nel mercato dei chip per l’intelligenza artificiale. Amministratore delegato Andrew FeldmanSostiene che il suo hardware esegue modelli di intelligenza artificiale molto più velocemente dei sistemi Nvidia. Offre anche servizi di elaborazione remota a clienti come Meta Platforms Inc., International Business Machines Corp. e Mistral AI.
Il mese scorso, OpenAI ha siglato un accordo pluriennale per l’utilizzo di hardware Cerebras per una potenza di calcolo di 750 megawatt, al fine di ottenere tempi di risposta più rapidi nell’esecuzione di modelli di intelligenza artificiale. L’infrastruttura sarà realizzata in più fasi “entro il 2028” e ospitata da Cerebras. L’accordo è… per un valore di oltre 10 miliardi di dollari, hanno affermato all’epoca persone a conoscenza della questione.
L’ultima valutazione rappresenta un aumento significativo rispetto all’investimento di settembre girare, quando Cerebras era valutata 8,1 miliardi di dollari. Da allora, Nvidia ha firmato un accordo di licenza con la startup Groq e ha acquisito gran parte dei talenti di quell’azienda nel settore dei chip, alimentando l’entusiasmo per le iniziative nel campo dei chip di intelligenza artificiale.
Bloomberg precedentemente segnalato Cerebras era in trattative per raccogliere fondi.
04/02/26 CNBC: Lisa Su (AMD) afferma che la domanda di chip avanzati è ancora in accelerazione, mentre il titolo crolla del 15%
La CEO di AMD, Lisa Su, ha difeso i risultati finanziari e le previsioni della società, affermando che “l’intelligenza artificiale sta accelerando a un ritmo che non avrei mai immaginato”. Su ha dichiarato che il produttore di chip ha visto un aumento della domanda e delle attività nel settore dei data center negli ultimi due o tre mesi. Nonostante AMD abbia superato le stime di Wall Street per il quarto trimestre, ha emesso una guidance (previsione) che alcuni analisti hanno considerato debole, data la recente ondata di spese nell’IA.
- Reazione del mercato: Le azioni sono crollate del 13% mercoledì (scendendo poi fino al -15% durante la giornata).
- Accelerazione dell’IA: “Quello che posso dirvi da insider è che l’IA sta accelerando a un ritmo inimmaginabile”, ha dichiarato Su a CNBC, aggiungendo che la domanda continua a superare le necessità di calcolo.
- Settore Data Center: L’attività è accelerata dal quarto al primo trimestre e la domanda per le CPU sta andando “a gonfie vele” (gangbusters), mentre le aziende aumentano rapidamente la potenza di calcolo per i carichi di lavoro aziendali legati all’IA.
- Previsioni sui ricavi: AMD ha previsto 9,8 miliardi di dollari di ricavi per il primo trimestre (con un margine di +/- 300 milioni), superando comunque le aspettative medie di 9,38 miliardi, ma non raggiungendo i picchi sperati dagli analisti più ottimisti.
- Il punto di svolta (H2 2026): Su ha ribadito che AMD vedrà un “punto di flesso” nella seconda metà dell’anno, quando inizierà la distribuzione di Helios, il nuovo sistema integrato di IA su scala server.
Che cos’è il sistema “Helios”? (Analisi Tecnica)
Poiché l’articolo lo cita come il “punto di svolta” per la seconda metà del 2026, ecco i dettagli tecnici emersi:
- Architettura Rack-Scale: Helios non è solo un chip, ma un intero rack (armadio server) pre-assemblato. È la risposta di AMD al sistema GB200 NVL72 di Nvidia.
- Componenti: Integra 72 GPU Instinct MI455X, le nuove CPU EPYC “Venice” e schede di rete Pensando.
- Potenza: Promette fino a 3 exaflops di prestazioni IA in un singolo rack, ottimizzato per modelli con trilioni di parametri (come le versioni future di GPT).
In sintesi: Lisa Su sta cercando di rassicurare gli investitori sul fatto che il “buco” di entrate attuale è solo temporaneo e dovuto ai tempi tecnici necessari per lanciare la corazzata Helios a fine anno.
04/02/26 Briefing.com: Advanced Micro Devices scivola nonostante un quarto trimestre da record: le alte aspettative si concentrano su MI450 e sul payoff di Helios
Advanced Micro Devices (AMD) è in netto ribasso nonostante abbia superato le aspettative del 4° trimestre e fornito una guidance per il 1° trimestre superiore alle attese ieri sera. La società ha battuto le stime sull’EPS con il margine più ampio degli ultimi tre anni, mentre i ricavi sono aumentati del 34,1% su base annua, raggiungendo il record di 10,27 miliardi di dollari. AMD prevede per il 1° trimestre ricavi compresi tra 9,50 e 10,10 miliardi di dollari, inclusi circa 100 milioni di dollari di vendite di prodotti Instinct in Cina.
- Crescita ad ampio raggio: La domanda ha accelerato verso fine anno nei settori data center, PC, gaming ed embedded, supportando continui guadagni di quota di mercato nei processori per server e PC.
- Data Center da record: I ricavi del settore sono aumentati del 39% su base annua, raggiungendo i 5,4 miliardi di dollari, spinti dalla diffusione dell’MI350 e dalla forte domanda di EPYC. L’adozione dei processori EPYC Turindi quinta generazione ha rappresentato oltre la metà dei ricavi totali dei server.
- Client e Gaming: I ricavi sono saliti del 37% a 3,9 miliardi di dollari. Il settore Gaming è cresciuto del 50% a 843 milioni di dollari, ma è calato rispetto al trimestre precedente a causa della flessione stagionale delle vendite di console. AMD prevede che i ricavi dei SoC semi-custom scenderanno di una percentuale significativa a doppia cifra nel FY26 con la maturazione del ciclo delle console.
- Margini in crescita: Il margine lordo non-GAAP è salito al 57%. Escludendo il rilascio di riserve di inventario e i ricavi dalla Cina, il margine è stato del 55%, livello che AMD prevede di mantenere nel 1° trimestre.
- Prospettive MI450 e Helios: Il lancio rimane programmato per la seconda metà del 2026, con i ricavi dell’MI450che inizieranno nel 3° trimestre per raggiungere volumi significativi nel 4° trimestre e nel 2027. Il management ha confermato che la collaborazione con OpenAI procede come previsto.
Analisi dell’esperto di Briefing.com: AMD ha consegnato un altro trimestre record, eppure il titolo viene punito. I fondamentali restano solidi, ma alcuni investitori vedono il successo del 4° trimestre come “meno pulito” poiché include ricavi da Instinct in Cina non ampiamente previsti. Inoltre, molta dell’ottimizzazione è già incorporata nel prezzo del titolo riguardo alle opportunità di MI450 e Helios. Poiché il potenziale di crescita maggiore è legato a un lancio concentrato nella seconda metà dell’anno e dipendente da implementazioni di sistema complesse e su larga scala, il mercato sembra cercare prove più tangibili sull’esecuzione piuttosto che un semplice superamento delle stime. Questo mix sta guidando una reazione di tipo “sell-the-news” (vendi sulla notizia).
In sintesi per il tuo portafoglio: Il mercato sta trattando AMD con estrema severità: nonostante i record, il calo di oltre 36 dollari indica che gli investitori non si accontentano più delle promesse, ma vogliono vedere i chip MI450 (la risposta di AMD alla prossima generazione di Nvidia) già fatturati.
23/01/26 Briefing.com: Intel crolla: vincoli di fornitura e costi di produzione colpiscono l’outlook del Q1, oscurando un solido Q4
Intel (INTC) ha superato le aspettative di ricavi e utili per il quarto trimestre, riportando un fatturato di 13,7 miliardi di dollari e un EPS non-GAAP di 0,15 dollari. Tuttavia, il titolo sta precipitando dopo la pubblicazione dei dati poiché la guidance per il primo trimestre (Q1) ha mancato tutti gli obiettivi, prevedendo ricavi, utili e margini lordi inferiori alle attese. Con il titolo che scambiava ai massimi di diversi anni (in rialzo del 120% da metà settembre), Intel si trovava in una posizione di “prezzo perfetto” che non ammetteva errori.
I punti critici della trimestrale
- Guidance Q1 debole: I ricavi previsti tra 11,7 e 12,7 miliardi di dollari riflettono un calo superiore alla stagionalità, dovuto principalmente a gravi vincoli di fornitura che dovrebbero toccare il punto più basso proprio nel primo trimestre.
- Margini in calo: Il margine lordo non-GAAP del Q4 è sceso al 37,9% (-4,2 punti percentuali su base annua). Intel sconta l’aumento dei prodotti in outsourcing e i costi iniziali per l’avvio del nodo di produzione 18A.
- Client Computing Group (CCG): Ricavi a 8,2 miliardi di dollari (-4% rispetto al trimestre precedente), nonostante le unità PC AI siano cresciute del 16%. Il fatturato è stato frenato dalla scelta di puntare su prodotti di fascia alta per gestire la scarsità di scorte interne.
- Data Center e AI (DCAI): Crescita del 15% (4,7 miliardi di dollari) grazie alla forte domanda di server tradizionali. I ricavi sarebbero stati “significativamente più alti” senza i limiti produttivi sulle CPU basate su intelligenza artificiale.
La scommessa tecnologica: Panther Lake e Intel 18A
Panther Lake, il primo processore costruito sul nodo Intel 18A, è stato lanciato in anticipo rispetto ai piani nel Q4. Sebbene l’avvio della produzione stia diluendo i margini lordi, i rendimenti (yields) migliorano del 7-8% ogni mese. Sul fronte strategico, l’azienda ha confermato un investimento da 5 miliardi di dollari da parte di NVIDIA (NVDA) e contatti attivi per il futuro nodo 14A.
L’analisi dell’esperto (Briefing.com)
Il superamento delle stime nel Q4 è passato in secondo piano rispetto a un outlook che conferma una transizione produttiva costosa. Il problema non sembra strutturale ma ciclico: la rete produttiva è al massimo sforzo mentre si dà priorità ai chip per server ad alta richiesta.
“La crescita del 15% nel segmento DCAI dimostra che Intel sta difendendo bene il suo territorio nei server durante la svolta AI. Con l’offerta che dovrebbe toccare il fondo nel Q1, questo passo falso appare temporaneo. A lungo termine, l’attenzione si sposta verso la fine del 2026, quando la produzione ad alto volume del nodo 18A e i potenziali contratti di fonderia con colossi come NVIDIA o Apple potrebbero cambiare radicalmente la valutazione della società.”
22/01/26 Barron’s: La serie vincente di Advanced Micro Devices continua. Fino a dove può arrivare il titolo dei chip?
By Nate WolfPunti Salienti:
• Le azioni di Advanced Micro Devices (AMD) hanno esteso la serie positiva più lunga dal febbraio 2020, arrivando a otto sedute consecutive di rialzo.
• Gli analisti prevedono per il 2026 una crescita del 16,5% delle spedizioni di server e del 50% dei server AI, a beneficio dei produttori di chip come Advanced Micro Devices (AMD).
• KeyBanc stima che la quota di mercato di Advanced Micro Devices (AMD) nei chip per personal computer salga al 26% nel 2026 dal 21% dello scorso anno.
Le azioni di Advanced Micro Devices (AMD) hanno continuato a salire giovedì e, secondo gli analisti, la loro impressionante corsa potrebbe non essere finita.
Il titolo dei chip è salito del 2,1% a 255,04 dollari, estendendo la serie positiva a otto sedute consecutive. Si tratta della sequenza di rialzi più lunga dal febbraio 2020, secondo Dow Jones Market Data.
Le azioni Advanced Micro Devices (AMD) sono in rialzo del 25% nell’arco di queste otto sedute e sono più che raddoppiate nell’ultimo anno. Nello stesso periodo, l’ETF iShares Semiconductor è salito del 51%, sostenuto nelle ultime settimane dal forte rimbalzo di Intel.
Intel sta beneficiando dell’interesse per i suoi nuovi processori e di commenti positivi del presidente Donald Trump, mentre Advanced Micro Devices (AMD), al confronto, è rimasta più in sordina all’inizio del 2026. Tuttavia, entrambi i titoli condividono lo stesso motore di fondo: la domanda legata all’intelligenza artificiale.
Secondo Ryuta Makino, analista di ricerca presso Gabelli Funds, dalla fine dello scorso anno gli investitori stanno valutando la possibilità di una carenza di unità di elaborazione centrale, o CPU. Queste preoccupazioni si sono recentemente intensificate.
“Questo è davvero il fulcro della tesi rialzista. Anche un aumento a doppia cifra dei prezzi delle CPU per server nel 2026 favorirebbe sia AMD sia Intel,” ha scritto Makino. “I server tradizionali sono ancora in una fase di rinnovo e restano fondamentali per l’AI, in particolare per i data center dedicati all’intelligenza artificiale.”
I data center continuano inoltre ad avere un forte appetito per acceleratori AI specializzati e unità di elaborazione grafica, o GPU. Gli analisti di KeyBanc Capital Markets prevedono per il 2026 una crescita del 16,5% delle spedizioni di server e del 50% dei server AI. Insieme a produttori di chip come Nvidia (NVDA) e Broadcom (AVGO), Advanced Micro Devices (AMD) è tra i nomi meglio posizionati per beneficiare di questa domanda, secondo una nota di ricerca di KeyBanc.
Secondo KeyBanc, Advanced Micro Devices (AMD) guadagnerà anche quote di mercato nei chip per personal computer, grazie all’integrazione di acceleratori AI nelle piattaforme consumer. La banca prevede che la quota di mercato di AMD nei PC salga al 26% nel 2026 dal 21% dello scorso anno, a scapito di Intel.
KeyBanc ha ribadito una raccomandazione Overweight sulle azioni Advanced Micro Devices (AMD) e un prezzo obiettivo di 270 dollari.
Questa posizione è in linea con il consenso di Wall Street. Dei 58 analisti interpellati da FactSet, 46 attribuiscono ad Advanced Micro Devices (AMD) un giudizio Buy o equivalente. Il prezzo obiettivo medio è intorno ai 288 dollari.
23/01/26 Briefing.com: Intel crolla: vincoli di fornitura e costi di produzione colpiscono l’outlook del Q1, oscurando un solido Q4
Intel (INTC) ha superato le aspettative di ricavi e utili per il quarto trimestre, riportando un fatturato di 13,7 miliardi di dollari e un EPS non-GAAP di 0,15 dollari. Tuttavia, il titolo sta precipitando dopo la pubblicazione dei dati poiché la guidance per il primo trimestre (Q1) ha mancato tutti gli obiettivi, prevedendo ricavi, utili e margini lordi inferiori alle attese. Con il titolo che scambiava ai massimi di diversi anni (in rialzo del 120% da metà settembre), Intel si trovava in una posizione di “prezzo perfetto” che non ammetteva errori.
I punti critici della trimestrale
- Guidance Q1 debole: I ricavi previsti tra 11,7 e 12,7 miliardi di dollari riflettono un calo superiore alla stagionalità, dovuto principalmente a gravi vincoli di fornitura che dovrebbero toccare il punto più basso proprio nel primo trimestre.
- Margini in calo: Il margine lordo non-GAAP del Q4 è sceso al 37,9% (-4,2 punti percentuali su base annua). Intel sconta l’aumento dei prodotti in outsourcing e i costi iniziali per l’avvio del nodo di produzione 18A.
- Client Computing Group (CCG): Ricavi a 8,2 miliardi di dollari (-4% rispetto al trimestre precedente), nonostante le unità PC AI siano cresciute del 16%. Il fatturato è stato frenato dalla scelta di puntare su prodotti di fascia alta per gestire la scarsità di scorte interne.
- Data Center e AI (DCAI): Crescita del 15% (4,7 miliardi di dollari) grazie alla forte domanda di server tradizionali. I ricavi sarebbero stati “significativamente più alti” senza i limiti produttivi sulle CPU basate su intelligenza artificiale.
La scommessa tecnologica: Panther Lake e Intel 18A
Panther Lake, il primo processore costruito sul nodo Intel 18A, è stato lanciato in anticipo rispetto ai piani nel Q4. Sebbene l’avvio della produzione stia diluendo i margini lordi, i rendimenti (yields) migliorano del 7-8% ogni mese. Sul fronte strategico, l’azienda ha confermato un investimento da 5 miliardi di dollari da parte di NVIDIA (NVDA) e contatti attivi per il futuro nodo 14A.
L’analisi dell’esperto (Briefing.com)
Il superamento delle stime nel Q4 è passato in secondo piano rispetto a un outlook che conferma una transizione produttiva costosa. Il problema non sembra strutturale ma ciclico: la rete produttiva è al massimo sforzo mentre si dà priorità ai chip per server ad alta richiesta.
“La crescita del 15% nel segmento DCAI dimostra che Intel sta difendendo bene il suo territorio nei server durante la svolta AI. Con l’offerta che dovrebbe toccare il fondo nel Q1, questo passo falso appare temporaneo. A lungo termine, l’attenzione si sposta verso la fine del 2026, quando la produzione ad alto volume del nodo 18A e i potenziali contratti di fonderia con colossi come NVIDIA o Apple potrebbero cambiare radicalmente la valutazione della società.”
19/01/26 Bloomberg: La startup di chip AI FuriosaAI pianifica un round da 500 milioni di dollari prima dell’IPO

By Yoolim Lee
Takeaways by Bloomberg AIHide
- FuriosaAI is seeking to raise $300 million to $500 million in a funding round before an initial public offering to challenge Nvidia Corp.
- The proceeds will fund FuriosaAI’s mass production of its second-generation RNGD chip, global business expansion and the development of a third-generation chip.
- FuriosaAI is eyeing a potential public listing as early as 2027 and is set to receive its first mass-produced shipment of RNGD AI chips from Taiwan Semiconductor Manufacturing Co. later this month.
Machine translated from English to Italian.
Il Progettista di chip per l’intelligenza artificiale FuriosaAI sta cercando di raccogliere fino a 500 milioni di dollari in un round di finanziamento prima di un’offerta pubblica iniziale, mentre si prepara a sfidare il titano del settore Nvidia Corp., secondo le persone competenti in materia.
La startup con sede a Seul ha nominato Morgan Stanley E Mirae Asset Securities Co. come co-consulenti per il round di serie D e punta a raccogliere dai 300 ai 500 milioni di dollari nel round, hanno detto le fonti, chiedendo di non essere identificate perché i dettagli non sono pubblici.
I proventi finanzieranno la produzione in serie del chip RNGD di seconda generazione di FuriosaAI, l’espansione del business a livello globale e lo sviluppo di un chip di terza generazione, hanno affermato le fonti. La startup sta valutando una potenziale quotazione in borsa già nel 2027, hanno aggiunto. FuriosaAI è pronta a ricevere la sua prima spedizione di chip AI RNGD prodotti in serie da Taiwan Semiconductor Manufacturing Co. entro la fine del mese, ha detto una delle persone.
I rappresentanti di FuriosaAI e Morgan Stanley hanno rifiutato di commentare. I funzionari di Mirae Asset non sono stati immediatamente raggiungibili per un commento.
Fondata nel 2017 da June Paik, una veterana di Samsung Electronics Co. E Advanced Micro Devices Inc. — FuriosaAI è specializzata in chip di inferenza AI ad alta efficienza. Secondo l’azienda, l’RNGD, pronunciato “renegade”, offre prestazioni di inferenza per watt 2,25 volte superiori rispetto alle unità di elaborazione grafica tradizionali.
Per saperne di più: FuriosaAI, sfidante dei chip Nvidia, conquista il primo grande cliente LG
Questo traguardo arriva in un momento di forte espansione degli investimenti in hardware per l’intelligenza artificiale. Groq Inc., ha raccolto 750 milioni di dollari in un girare l’anno scorso in vista di una partnership strategica con Nvidia. Altri accordi recenti includono Cerebras Systems Inc.‘S inseguimento di 1 miliardo di dollari in nuovo capitale a una valutazione di 22 miliardi di dollari e Inciso‘S 500 milioni di dollari round di finanziamento.
19/01/26 Barron’s: Micron acquisterà un impianto di chip per 1,8 miliardi di dollari. Perché questo solleva preoccupazioni nel mercato.
Punti Chiave:
- Micron Technology pianifica di acquisire un impianto di produzione in Taiwan per 1,8 miliardi di dollari per potenziare la capacità produttiva.
- I prezzi dei chip di memoria sono balzati del 40-50% nell’ultimo trimestre del 2025 e si prevede un aumento simile per questo trimestre.
- La carenza di chip di memoria è considerata “senza precedenti”, con una domanda destinata a superare l’offerta fino al 2026.
Micron Technology vuole acquistare un impianto di produzione di chip in Taiwan per 1,8 miliardi di dollari. L’azienda statunitense di chip di memoria sta correndo contro i suoi rivali per aumentare la capacità produttiva nel mezzo di un enorme picco della domanda, ma questo potrebbe innescare un eccesso di offerta (glut) nel lungo termine.
I chip di memoria sono una componente vitale degli acceleratori di intelligenza artificiale. In particolare, una tipologia di chip chiamata “memoria ad alta larghezza di banda” (HBM) è necessaria per i processori di aziende come Nvidia.
Il bisogno di componenti di memoria nell’hardware per l’IA sta facendo salire i costi rapidamente. I prezzi delle memorie sono aumentati tra il 40% e il 50% nell’ultimo trimestre del 2025 e si prevede che crescano a un ritmo simile nel trimestre in corso, secondo Counterpoint Research.
Micron è il principale rivale delle società sudcoreane Samsung Electronics e SK Hynix nella produzione di chip HBM. È anche leader nei mercati della DRAM (memoria dinamica a accesso casuale), utilizzata in computer desktop e server, e della memoria flash presente in smartphone e dischi a stato solido (SSD).
Micron ha dichiarato sabato di aver firmato una lettera di intenti per acquisire un sito di fabbricazione di semiconduttori avanzati da Powerchip Semiconductor Manufacturing Corp., una delle principali fonderie di Taiwan.
“Questa acquisizione strategica di una camera bianca (cleanroom) esistente completa le nostre attuali operazioni in Taiwan e permetterà a Micron di aumentare la produzione e servire meglio i nostri clienti in un mercato in cui la domanda continua a superare l’offerta”, ha affermato Manish Bhatia, vicepresidente esecutivo delle operazioni globali di Micron, in una nota.
Le azioni Micron sono in rialzo del 27% dall’inizio dell’anno e hanno più che triplicato il loro valore negli ultimi 12 mesi. Il mercato azionario statunitense è chiuso oggi, lunedì, per il Martin Luther King Jr. Day.
Come ha avvertito Barron’s, in passato i fornitori di chip di memoria hanno costruito troppa capacità produttiva durante la fase ascendente del ciclo dei semiconduttori, causando successivi crolli. SK Hynix ha dichiarato recentemente che investirà 13 miliardi di dollari per costruire un impianto di confezionamento di processori in Corea del Sud. Nel frattempo, venerdì, Micron ha posato la prima pietra di quello che, secondo l’azienda, diventerà un complesso di produzione di chip da 100 miliardi di dollari nella contea di Onondaga, New York.
Tuttavia, è improbabile che le preoccupazioni per l’eccesso di offerta diventino rilevanti quest’anno. SK Hynix ha dichiarato a fine ottobre di aver già esaurito l’intero inventario per tutto il 2026. Bhatia di Micron ha definito la carenza di chip di memoria “senza precedenti” e, in un’intervista a Bloomberg, ha aggiunto che i produttori di smartphone e PC sono già in fila per assicurarsi forniture oltre il 2026.
“Con la capacità produttiva che rimane limitata, si prevede che questo superciclo delle memorie si estenda fino al 2026”, hanno scritto gli analisti della società di ricerca TrendForce in una nota recente. “Il mercato è già diventato un mercato dei venditori (seller’s market), con i produttori che continuano ad aumentare i prezzi contrattuali, gestire l’espansione della capacità e mantenere livelli di prezzo elevati”.
02/01/26 Barron’s: Nvidia, AMD e Broadcom si stanno affrontando. Come si sta plasmando la battaglia dei chip AI del 2026.
DaAdamo ClarkSegui
I
Punti chiave
A proposito di questo riepilogo
- Nvidia prevede di lanciare il suo hardware Vera Rubin nella seconda metà del 2026, con un server che dovrebbe essere 3,3 volte più veloce del Blackwell Ultra.
- Advanced Micro Devices rilascerà i suoi rack per server Helios nella seconda metà del 2026, con Oracle e OpenAI come clienti iniziali.
- Il lavoro di chip AI personalizzato di Broadcom per le Tensor Processing Units di Google potrebbe espandersi a clienti esterni, con Anthropic che effettua ordini significativi.
L’intelligenza artificiale è stata la tendenza di investimento più calda degli ultimi anni e i semiconduttori che alimentano la tecnologia sono stati una delle aree più redditizie.
Ogni anno porta sul mercato una gamma crescente di chip di intelligenza artificiale, quindi gli investitori devono essere al ponto delle innovazioni.
Questi sono i più grandi sviluppi da tenere d’occhio nel settore dei chip AI nel 2026:
Nvidia
L’unico punto per iniziare è con l’attuale leader del settore. I miglioramenti annuali dell’azienda ai suoi processori stabilirono il ritmo per il settore dei chip AI. È improbabile che quest’anno sia diverso poiché l’azienda lancia il suo hardware Vera Rubin.
Il CEO di Nvidia Jensen Huang ha detto che un server Vera Rubin AI, previsto per il lancio nella seconda metà del 2026, è destinato ad essere 3,3 volte più veloce dell’attuale equivalente top di gamma Blackwell Ultra. Sarà alimentato da unità di elaborazione grafica Rubin e unità di elaborazione centrale Vera.
Uno sviluppo a cui fare attenzione è il rilascio di Nvidia di una nuova classe di GPU chiamata Rubin CPX, che la società ha detto essere costruita per “elaborazione a contesti massicci”, che le consente di gestire rapidamente la codifica del software e la generazione di video. È progettato per essere più economico delle altre GPU di Nvidia, il che potrebbe aiutarlo a rintuzzare la sfida dei produttori di chip rivali.
Prima del lancio di Vera Rubin, fai attenzione al rilascio di modelli di intelligenza artificiale addestrati sull’hardware Blackwell di ultima generazione di Nvidia. Un altro fattore positivo per il titolo potrebbe essere l’evento GTC di marzo, la conferenza annuale in cui Nvidia aggiorna il suo programma di prodotti.
Un’altra cosa da monitorare è l’integrazione nella tecnologia di Nvidia della startup di chip Groq. Nvidia sta pagando 20 miliardi di dollari per una licenza non esclusiva per la tecnologia di Groq, insieme a pacchetti di compensazione per molti dei dipendenti dell’azienda che si uniranno a Nvidia, ha riferito il Wall Street Journal. L’accordo dovrebbe rafforzare la posizione di Nvidia nel mercato dei chip per supportare l’inferenza o l’esecuzione di modelli di intelligenza artificiale, che è la specialità di Groq.
Le azioni Nvidia sono aumentate del 3,1% nelle prime negoziazioni di venerdì. Il titolo è aumentato del 35% negli ultimi 12 mesi.
Advanced Micro Devices
Ha faticato a fare serie incursioni nella quota di mercato di Nvidia, ma il 2026 potrebbe dare Advanced Micro Devices il suo miglior colpo di sempre con il lancio dei suoi rack per server Helios.
Progettati per contenere 72 GPU della serie MI450 di AMD, i rack Helios sono programmati per arrivare sul mercato nella seconda metà del 2026. AMD ha schierato Oracle e OpenAI come clienti e ne ha costruito alcuni rack secondo le specifiche di Meta Platforms, che potrebbero anche portare la società di social media a diventare un futuro cliente.
Il fattore da monitorare sarà quanto siano fluide le prime distribuzioni su larga scala dei rack dei server AMD. Oracle ha dichiarato che prevede di utilizzare 50.000 chip AMD a partire dal terzo trimestre del 2026 e che prevede di espandere la partnership nel 2027. La dimensione di qualsiasi ordine di follow-on dipenderà probabilmente dalla distribuzione del prossimo anno.
Le azioni AMD sono aumentate del 5,6% nelle negoziazioni del venerdì, essendo aumentate del 78% negli ultimi 12 mesi.
Broadcom
è più difficile da prevedere rispetto ai suoi colleghi perché progetta chip AI personalizzati per altre aziende, il che significa che dipende dai loro programmi di sviluppo. Ma il suo lavoro più importante continuerà ad essere con Google di Alphabet, lavorando sulle unità di elaborazione Tensor della società di ricerca.
Il cambiamento principale è il potenziale aumento delle vendite di TPU a clienti esterni. La start-up di intelligenza artificiale Anthropic ha effettuato due grandi ordini per TPU, per un totale di 21 miliardi di dollari, e Meta è anche in trattative per utilizzare i processori, secondo il Wall Street Journal.
La conferma dell’impegno di Meta e ulteriori dettagli sul fatto che Anthropic stia ottenendo prestazioni paragonabili all’hardware Nvidia dai suoi TPU sarebbero importanti spinte per Broadcom. Al contrario, fai attenzione a qualsiasi indicazione che Google stia portando più del suo lavoro di progettazione in casa o lo stia dando a designer di chip rivali come MediaTek di Taiwan per minacce a Broadcom.
A parte i TPU, Broadcom è stata anche ansiosa di sottolineare che sta continuando a vincere altri lavori di chip personalizzati con i principali clienti come Meta e ByteDance, il genitore di TikTok. Una domanda continua è il suo previsto accordo da 10 gigawatt con OpenAI. I dirigenti di Broadcom hanno avvertito nei recenti guadagni che non si aspettano molte entrate dall’accordo nel 2026, ma il mercato apprezzerebbe la conferma di un contratto fermo.
Le azioni Broadcom sono aumentate del 4% venerdì e sono aumentate del 49% negli ultimi 12 mesi.
Intel
Attualmente outsider nella posta in gioco del chip AI attualmente, Intel spera di cambiarlo quest’anno sotto la guida del CEO Lip-Bu Tan.
Intel ha detto che prevede di introdurre una nuova GPU per data center denominata Crescent Lake ai clienti nel 2026, anche se un lancio più ampio potrebbe dover aspettare fino al 2027. Le prime indicazioni sono che è progettato per essere all’estremità più economica del mercato, progettato per l’inferenza dell’IA – il processo di produzione di risposte dai modelli piuttosto che dalle attività di formazione più intensive – e ottimizzato per server raffreddati ad aria piuttosto che per l’infrastruttura raffreddata a liquido.
La più grande domanda che incombe su Intel è se può convincere qualsiasi produttore di chip AI significativo a produrre i suoi processori con Intel piuttosto che con Taiwan Semiconductor Manufacturing.
Un investimento di 5 miliardi di dollari da parte di Nvidia ha suscitato speranze, ma finora non c’è stata alcuna indicazione che il leader del chip AI si impegnerà a utilizzare la fonderia di Intel. Nvidia ha testato la produzione dei suoi chip utilizzando il processo di produzione di Intel, ma ha smesso di andare avanti con i piani, ha riferito Reuters di recente, citando persone che non ha identificato. Nvidia e Intel non hanno risposto alle richieste di commenti.
Le azioni Intel sono aumentate del 6,3% nel trading mattutino e sono aumentate dell’82% negli ultimi 12 mesi.
Scrivi ad Adam Clark all’indirizzo adam.clark@barrons.com
18/12/25 Reuter: Esclusivo: come la Cina ha costruito il suo “Progetto Manhattan” per rivaleggiare con l’Occidente nei chip AI
Di Fanny Potkin
18 dicembre 20255:11 GMT+1Aggiornato13 ore fa

- Riepilogo
- Il team di Shenzhen ha completato un prototipo funzionante di una macchina EUV all’inizio del 2025, dicono le fonti
- La macchina litografica, costruita da ex ingegneri ASML, riempie il pavimento di una fabbrica, dicono le fonti
- La macchina EUV cinese è in fase di test e non ha prodotto chip funzionanti, dicono le fonti
- Il governo punta al 2028 per i chip funzionanti, ma le fonti dicono che il 2030 è più probabile
SINGAPORE, 17 dicembre (Reuters) – In un laboratorio di alta sicurezza di Shenzhen, gli scienziati cinesi hanno costruito ciò che Washington ha passato anni a cercare di prevenire: un prototipo di una macchina in grado di produrre i chip semiconduttori all’avanguardia che alimentano l’intelligenza artificiale, gli smartphone e le armi centrali per il dominio militare occidentale, ha appreso Reuters.
Completato all’inizio del 2025 e ora in fase di test, il prototipo riempie quasi un intero piano di fabbrica. È stato costruito da un team di ex ingegneri del gigante olandese dei semiconduttori ASML(ASML.AS), apre una nuova scheda che ha decodificato le macchine per litografia ultravioletta estrema o gli EUV dell’azienda, secondo due persone con conoscenza del progetto.
Le macchine EUV sono al centro di una Guerra Fredda tecnologica. Usano fasci di luce ultravioletta estrema per incidere circuiti migliaia di volte più sottili di un capello umano su wafer di silicio, attualmente una capacità monopolizzata dall’Occidente. Più piccoli sono i circuiti, più potenti sono i chip.
La macchina cinese è operativa e genera con successo luce ultravioletta estrema, ma non ha ancora prodotto chip funzionanti, hanno detto le persone.
Ad aprile, il CEO di ASML Christophe Fouquet ha detto che la Cina avrebbe bisogno di “molti, molti anni” per sviluppare tale tecnologia. Ma l’esistenza di questo prototipo, riportato da Reuters per la prima volta, suggerisce che la Cina potrebbe essere anni più vicina a raggiungere l’indipendenza dei semiconduttori di quanto previsto dagli analisti.
Pubblicità · Scorri per continuare
Tuttavia, la Cina deve ancora affrontare importanti sfide tecniche, in particolare nella replica dei sistemi ottici di precisione prodotti dai fornitori occidentali.
La disponibilità di parti di vecchie macchine ASML sui mercati secondari ha permesso alla Cina di costruire un prototipo nazionale, con il governo che ha l’obiettivo di produrre chip funzionanti sul prototipo entro il 2028, secondo le due persone.
Ma quelli vicini al progetto dicono che un obiettivo più realistico è il 2030, che è ancora anni prima del decennio in cui gli analisti credevano che ci sarebbe vola Cina per eguagliare l’Occidente sui chip.
Le autorità cinesi non hanno risposto alle richieste di commento.
La svolta segna il culmine di un’iniziativa governativa di sei anni per raggiungere l’autosufficienza dei semiconduttori, una delle massime priorità del presidente Xi Jinping. Mentre gli obiettivi dei semiconduttori della Cina sono stati pubblici, il progetto Shenzhen EUV è stato condotto in segreto, secondo la gente.
Il progetto rientra nella strategia dei semiconduttori del paese, che i media statali hanno identificato come gestita dal confidente di Xi Jinping Ding Xuexiang, che dirige la Commissione centrale per la scienza e la tecnologia del Partito comunista.
Il gigante cinese dell’elettronica Huawei svolge un ruolo chiave nel coordinare una rete di aziende e istituti di ricerca statali in tutto il paese che coinvolgono migliaia di ingegneri, secondo le due persone e una terza fonte.
La gente lo ha descritto come la versione cinese del Progetto Manhattan, lo sforzo di guerra degli Stati Uniti per sviluppare la bomba atomica.
“L’obiettivo è che la Cina alla fine sia in grado di realizzare chip avanzati su macchine interamente prodotte in Cina”, ha detto una delle persone. “La Cina vuole che gli Stati Uniti espulsi al 100% dalle loro catene di approvvigionamento”.
Huawei, il Consiglio di Stato cinese, l’ambasciata cinese a Washington e il Ministero cinese dell’industria e della tecnologia dell’informazione non hanno risposto alle richieste di commento.
Finora, solo una società ha imparato la tecnologia EUV: ASML, con sede a Veldhoven, Paesi Bassi. Le sue macchine, che costano circa 250 milioni di dollari, sono indispensabili per la produzione dei chip più avanzati progettati da aziende come Nvidia e AMD e prodotti da produttori di chip come TSMC, Intel e Samsung.
ASML ha costruito il suo primo prototipo funzionante della tecnologia EUV nel 2001 e ha detto a Reuters che ci sono voluti quasi due decenni e miliardi di euro di spesa in ricerca e sviluppo prima di produrre i suoi primi chip disponibili in commercio nel 2019.
“Ha senso che le aziende vogliano replicare la nostra tecnologia, ma farlo non è un’impresa da poco”, ha detto ASML a Reuters in una dichiarazione.
I sistemi EUV di ASML sono attualmente disponibili per gli alleati degli Stati Uniti, tra cui Taiwan, Corea del Sud e Giappone.
A partire dal 2018, gli Stati Uniti hanno iniziato a fare pressione sui Paesi Bassi per impedire ad ASML di vendere sistemi EUV alla Cina. Le restrizioni si sono ampliate nel 2022, quando l’amministrazione Biden ha imposto ampi controlli sulle esportazioni progettati per tagliare l’accesso della Cina alla tecnologia avanzata dei semiconduttori. Nessun sistema EUV è mai stato venduto a un cliente in Cina, ha detto ASML a Reuters.
I controlli hanno preso di mira non solo i sistemi EUV, ma anche le vecchie macchine litografiche ultraviolette profonde (DUV) che producono chip meno avanzati come quello di Huawei, con l’obiettivo di mantenere la Cina almeno una generazione indietro nelle capacità di produzione di chip.
Gli Stati Uniti Il Dipartimento di Stato ha detto che l’amministrazione Trump ha rafforzato l’applicazione dei controlli sulle esportazioni sulle apparecchiature avanzate di produzione di semiconduttori e sta lavorando con i partner “per colmare le scappatoie man mano che la tecnologia avanza”.
Il Ministero della Difesa olandese ha affermato che i Paesi Bassi stanno sviluppando politiche che richiedono “istituzioni della conoscenza” di eseguire screening del personale per impedire l’accesso a tecnologie sensibili “da parte di individui che hanno cattive intenzioni o che sono a rischio di essere pressati”.
Le restrizioni all’esportazione hanno rallentato i progressi della Cina verso l’autosufficienza dei semiconduttori per anni e limitato la produzione avanzata di chip a Huawei, hanno detto le due persone e una terza persona.
Le fonti hanno parlato a condizione che non fossero identificate a causa della riservatezza del progetto.
IL PROGETTO CINESE DI MANHATTAN
Un ingegnere cinese veterano dell’ASML reclutato per il progetto è rimasto sorpreso di scoprire che il suo generoso bonus di firma è arrivato con una carta d’identità rilasciata con un falso nome, secondo una delle persone, che aveva familiarità con il suo reclutamento.
Una volta dentro, ha riconosciuto altri ex colleghi ASML che lavoravano anche sotto pseudonimi e gli è stato detto di usare i loro nomi falsi al lavoro per mantenere la segretezza, ha detto la persona. Un’altra persona ha confermato in modo indipendente che alle reclute sono stati dati documenti d’identità falsi per nascondere la loro identità agli altri lavoratori all’interno della struttura sicura.
La guida era chiara, hanno detto le due persone: classificato sotto la sicurezza nazionale, nessuno al di fuori del complesso poteva sapere cosa stavano costruendo – o che erano lì.
Il team comprende ex ingegneri e scienziati ASML recentemente in pensione, nati in Cina, obiettivi di reclutamento principali perché possiedono conoscenze tecniche sensibili ma affrontano meno vincoli professionali dopo aver lasciato l’azienda, hanno detto le persone.
Due attuali dipendenti ASML di nazionalità cinese nei Paesi Bassi hanno detto a Reuters di essere stati contattati dai reclutatori di Huawei almeno dal 2020.
Huawei non ha risposto alle richieste di commento.
Le leggi europee sulla privacy limitano la capacità di ASML di tracciare gli ex dipendenti. Sebbene i dipendenti firmino accordi di non divulgazione, applicarli oltre confine si è dimostrato difficile.
ASML ha vinto una sentenza di 845 milioni di dollari nel 2019 contro un ex ingegnere cinese accusato di aver rubato segreti commerciali, ma l’imputato ha presentato istanza di fallimento e continua a operare a Pechino con il sostegno del governo cinese, secondo i documenti del tribunale.
ASML ha detto a Reuters che “protege vigilemente” segreti commerciali e informazioni riservate.
“Mentre ASML non può controllare o limitare dove lavorano gli ex dipendenti, tutti i dipendenti sono vincolati dalle clausole di riservatezza nei loro contratti”, ha detto la società, e ha “perseguito con successo un’azione legale in risposta al furto di segreti commerciali”.
Reuters non è stata in grado di determinare se siano state intraprese azioni legali contro gli ex dipendenti ASML coinvolti nel programma di litografia cinese.
L’azienda ha detto di salvaguardare la conoscenza EUV garantendo che solo i dipendenti selezionati possano accedere alle informazioni anche all’interno dell’azienda.
L’intelligence olandese ha avvertito in un rapporto di aprile che la Cina “ha utilizzato ampi programmi di spionaggio nei suoi tentativi di ottenere tecnologia e conoscenze avanzate dai paesi occidentali”, incluso il reclutamento di “scienziati occidentali e dipendenti di aziende high-tech”.
I veterani dell’ASML hanno reso possibile la svolta a Shenzhen, ha detto la gente. Senza la loro intima conoscenza della tecnologia, il reverse engineering delle macchine sarebbe stato quasi impossibile.
Il loro reclutamento è stato parte di una spinta aggressiva che la Cina ha lanciato nel 2019 per gli esperti di semiconduttori che lavorano all’estero, offrendo bonus di firma che sono iniziati da 3 a 5 milioni di yuan (da 420.000 a 700.000 dollari) e sussidi per l’acquisto di case, secondo una revisione Reuters dei documenti politici governativi.
Le reclute includevano Lin Nan, ex capo della tecnologia delle sorgenti luminose dell’ASML, il cui team presso l’Istituto di Ottica di Shanghai dell’Accademia cinese delle Scienze ha depositato otto brevetti sulle sorgenti luminose EUV in 18 mesi, secondo i depositi di brevetti.
Lo Shanghai Institute of Optics and Fine Mechanics non ha risposto alle richieste di commento. Lin non è stato raggiunto per un commento.
Altre due persone che hanno familiarità con gli sforzi di reclutamento della Cina hanno detto che ad alcuni cittadini naturalizzati di altri paesi sono stati dati passaporti cinesi e gli è stato permesso di mantenere la doppia cittadinanza.
La Cina vieta ufficialmente la doppia cittadinanza e non ha risposto alle domande sul rilascio dei passaporti.
Le autorità cinesi non hanno risposto alle richieste di commento.
ALL’INTERNO DELL’EUV FAB DELLA CINA
I sistemi EUV più avanzati di ASML hanno all’incirca le dimensioni di uno scuolabus e pesano 180 tonnellate. Dopo tentativi falliti di replicare le sue dimensioni, il prototipo all’interno del laboratorio di Shenzhen è diventato molte volte più grande per migliorare la sua potenza, secondo le due persone.
Il prototipo cinese è grezzo rispetto alle macchine di ASML, ma abbastanza operativo per i test, hanno detto le persone.
Il prototipo cinese è in ritardo rispetto alle macchine di ASML in gran parte perché i ricercatori hanno faticato a ottenere sistemi ottici come quelli della tedesca Carl Zeiss AG, uno dei principali fornitori di ASML, hanno detto le due persone.
Zeiss ha rifiutato di commentare.
Le macchine sparano laser a stagno fuso 50.000 volte al secondo, generando plasma a 200.000 gradi Celsius. La luce è focalizzata utilizzando specchi che impiegano mesi per essere prodotti, secondo il sito web di Zeiss.
I migliori istituti di ricerca cinesi hanno svolto un ruolo chiave nello sviluppo di alternative coltivate in casa, secondo le due persone.
Il Changchun Institute of Optics, Fine Mechanics and Physics dell’Accademia Cinese delle Scienze (CIOMP) ha raggiunto una svolta nell’integrazione della luce ultravioletta estrema nel sistema ottico del prototipo, consentendogli di diventare operativo all’inizio del 2025, ha detto una delle persone, anche se l’ottica richiede ancora una raffinazione significativa.
CIOMP non ha risposto alle richieste di commento.
In una chiamata di reclutamento online di marzo sul suo sito web, l’istituto ha detto che stava offrendo stipendi “illeci” ai ricercatori di dottorato di litografia e borse di ricerca del valore fino a 4 milioni di yuan (560.000 dollari) più 1 milione di yuan (140.000 dollari) in sussidi personali.
Jeff Koch, analista presso la società di ricerca SemiAnalysis ed ex ingegnere ASML, ha detto che la Cina avrà raggiunto “progressi significati” se la “fonte di luce ha abbastanza energia, è affidabile e non genera troppa contaminazione”.
“Senza dubbio questo è tecnicamente fattibile, è solo una questione di cronologia”, ha detto. “La Cina ha il vantaggio che ora esiste l’EUV commerciale, quindi non stanno partendo da zero”.
Per ottenere le parti richieste, la Cina sta recuperando componenti dalle vecchie macchine ASML e acquistando parti dai fornitori ASML attraverso mercati dell’usato, hanno detto le due persone.
Le reti di società intermediarie a volte vengono utilizzate per mascherare l’acquirente finale, hanno detto le persone.
I componenti soggetti all’esportazione della Nikon e Canon giapponesi vengono utilizzati per il prototipo, ha detto una delle persone e un’altra fonte.
Nikon ha rifiutato di commentare. Canon ha detto di non essere a conoscenza di tali rapporti. L’ambasciata giapponese a Washington non ha risposto a una richiesta di commento.
Le banche internazionali all’asta regolarmente attrezzature per la produzione di semiconduttori più vecchie, hanno detto le fonti. Le aste in Cina hanno venduto vecchie apparecchiature di litografia ASML di recente nell’ottobre 2025, secondo una recensione delle inserzioni su Alibaba Auction, una piattaforma di proprietà di Alibaba.
Un team di circa 100 neolaureati è concentrato su componenti di reverse engineering di macchine litografiche sia EUV che DUV, secondo le persone.
La scrivania di ogni lavoratore è filmata da una singola telecamera per documentare i loro sforzi per smontare e riassemblare le parti, il lavoro che le persone descritte come chiave per gli sforzi di litografia della Cina.
Il personale che riassembla con successo un componente riceve bonus, ha detto le persone.
GLI SCIENZIATI DI HUAWEI DORMONO SUL POSTO
Mentre il progetto EUV è gestito dal governo cinese, Huawei è coinvolta in ogni fase della catena di approvvigionamento, dalla progettazione di chip e fabbricazione delle apparecchiature alla produzione e all’integrazione finale in prodotti come gli smartphone, secondo quattro persone che hanno familiarità con le operazioni di Huawei.
Il CEO Ren Zhengfei informa gli alti leader cinesi sui progressi, secondo una delle persone.
Gli Stati Uniti hanno inserito Huawei in un elenco di entità nel 2019, vietando alle aziende americane di fare affari con loro senza una licenza.
Huawei ha schierato i dipendenti in uffici, impianti di produzione e centri di ricerca in tutto il paese per lo sforzo. I dipendenti assegnati ai team di semiconduttori spesso dormono in loco e gli viene impedito di tornare a casa durante la settimana lavorativa, con l’accesso telefonico limitato ai team che gestiscono compiti più sensibili, secondo le persone.
All’interno di Huawei, pochi dipendenti conoscono la portata di questo lavoro. “Le squadre sono tenute isolate l’una dall’altra per proteggere la riservatezza del progetto”, ha detto una delle persone. “Non sanno su cosa lavorano gli altri team”.
(Questa storia è stata ri-apilota per aggiungere Reuters nella data)
Reportage di Fanny Potkin a Singapore, reportage aggiuntivo di Alexandra Alper a Washington, montaggio di Ken Li e Michael Learmonth
17/12/25 Bloombeerg: I disastri di Broadcom e Oracle mettono sotto esame gli utili di Micron

Micron Technology Inc., uno dei titoli azionari più interessanti sul mercato quest’anno, pubblicherà i guadagni dopo la chiusura di mercoledì, e la pressione è alta, con gli investitori sempre più scettici nei confronti del settore dell’intelligenza artificiale.
“Deve continuare a dimostrare di avere uno slancio in accelerazione”, ha affermato Luigi Navellier, amministratore delegato di Navellier & Associates. “Se dovessimo assistere a una decelerazione, potrebbe essere devastante per il titolo.”
Le azioni Micron sono aumentate del 176% nel 2025, quinto miglior performer nel Indice S&P 500 e ben al di sopra del guadagno del 40% dell’indice dei semiconduttori della Borsa di Philadelphia, mentre si avvia verso il suo anno migliore dal 2013. Tuttavia, il titolo è in calo da quando ha toccato il massimo il 10 dicembre, con un calo del 12% negli ultimi quattro giorni. Il rapporto sugli utili del produttore di chip dopo la chiusura del mercato potrebbe rilanciare lo slancio, o addirittura aggravare il calo.

Si prevede che l’azienda registrerà una forte crescita, poiché la spesa costantemente elevata nei data center di intelligenza artificiale aumenta la domanda per i suoi chip di memoria ad alta larghezza di banda, o HBM. La domanda è se investitori e analisti lo considerino sufficiente.
La settimana scorsa doppie delusioni da Oracle Corp. E Broadcom Inc., che ha fatto crollare entrambi i titoli dell’11% in una sola seduta, dimostrano quanto rapidamente il sentiment possa deteriorarsi nei confronti dei vincitori percepiti dell’IA. Nel frattempo, gli investitori sono sempre più guardare oltre tecnologia per le loro prossime scommesse.
“Oracle e Broadcom dimostrano che in questo momento il mercato si sta allontanando dall’intelligenza artificiale e dalla tecnologia”, ha affermato Wayne Kaufman, analista capo di mercato presso Phoenix Financial Services. “Le persone potrebbero pensare in modo un po’ più conservativo finché non capiremo la vera crescita dei data center e cosa è sostenibile.”
Ciò che distingue Micron da molti altri titoli del settore dell’intelligenza artificiale è la sua valutazione relativamente bassa. Nonostante l’aumento di prezzo di quest’anno, il prezzo delle azioni è di quasi 11 volte superiore agli utili stimati per i prossimi 12 mesi. Si tratta del multiplo più basso nell’indice dei 30 titoli del settore dei semiconduttori, che viene scambiato a 25 volte gli utili futuri.
‘Davvero economico’
“Micron sembra avere un valore ragionevole, se non addirittura basso”, ha affermato Kaufman.
Mentre la natura ciclica della domanda di memoria tende a limitare la valutazione delle azioni, lo sconto di Micron si distingue. Ad esempio, Nvidia Corp.Il multiplo di è 24, mentre quello di Broadcom e Advanced Micro Devices Inc.si aggira intorno ai 33.
“I veterani come me iniziano a sentirsi a disagio quando Micron sale a oltre 11 punti, ma se continua a mantenere i suoi numeri per i prossimi trimestri, allora sembra davvero conveniente in base alle stime per il 2027”, ha affermato Kaufman. “Penso che le azioni occupino una ragionevole via di mezzo tra ciò che il titolo ha storicamente fatto e il fatto che la crescita nei prossimi 12-18 mesi sembra fenomenale”.
Detto questo, il rialzo del titolo quest’anno suggerisce che le aspettative per questo rapporto sugli utili potrebbero essere superiori alle aspettative ragionevoli. E questo lascia spazio alla delusione.
Il dibattito sulla valutazione è significativo perché gran parte dello scetticismo degli investitori nei confronti dei titoli azionari legati all’intelligenza artificiale è dovuto ai loro prezzi alle stelle. Gli strateghi di Ned Davis Research hanno recentemente concluso che diversi produttori di chip, tra cui Micron, soddisfano i criteri di valutazione della Harvard Business School. definizione di una bolla.
Tuttavia, tale criterio si basa in larga parte sull’andamento delle azioni, soprattutto in relazione all’indice S&P 500. In base ai tradizionali parametri di valutazione azionaria, Micron difficilmente può essere considerata costosa.
Nel frattempo, Wall Street è diventata sempre più ottimista sulle prospettive future di Micron. Le aspettative di consenso sugli utili netti per l’anno fiscale 2026 dell’azienda, che si concluderà a fine agosto, sono aumentate del 16% nell’ultimo mese e di oltre il 50% nell’ultimo trimestre, secondo dati compilati di Bloomberg. Le previsioni per i ricavi sono in aumento di oltre il 20% negli ultimi tre mesi.
“I titoli del settore delle memorie come Micron tendono ad essere altamente ciclici, ma poiché i data center saranno molto richiesti per un altro anno, non mi preoccuperei della ciclicità fino a settembre circa, quando potremmo vedere se ci sarà un calo”, ha affermato Navellier, che attualmente non possiede le azioni ma potrebbe sfruttare una correzione come opportunità di acquisto. “Dipende molto dalla domanda di intelligenza artificiale”.
08/12/25 Bloomberg: L’ex manager di Nvidia ha un patrimonio di 4,3 miliardi di dollari dopo la grande IPO cinese

By Diana Li, Pui Gwen Yeung, and Filipe Pacheco
Takeaways by Bloomberg
- • L’azienda di Zhang Jianzhong, Moore Threads Technology Co., è stata inserita nella lista nera commerciale del governo degli Stati Uniti alla fine del 2023, ma lui è rimasto determinato e impegnato a sviluppare i migliori chip “tuttofare” in Cina.
- • Due anni dopo, Moore Threads Technology Co. ha raccolto 8 miliardi di yuan con un’offerta pubblica iniziale e il suo titolo è balzato del 425% al debutto, portando la società a una capitalizzazione di mercato di quasi 40 miliardi di dollari.
- • L’IPO ha trasformato Zhang Jianzhong in uno dei più recenti miliardari dell’IA in Cina, con una partecipazione nella società dal valore di oltre 4,3 miliardi di dollari, e ha anche creato altri miliardari, tra cui i cofondatori Zhang Yubo, Zhou Yuan e Wang Dong.
Machine translated from English to Italian.
Alla fine del 2023, Zhang Jianzhong ha affrontato uno dei momenti più bui della sua carriera. La sua startup cinese, Moore Threads Technology Co., è stata costretta a tagliare posti di lavoro dopo che il governo degli Stati Uniti ha aggiunto il produttore di chip alla sua lista nera commerciale.
La mossa minacciava di strangolare l’azienda di tre anni impedendole di accedere a tecnologie straniere essenziali, eppure Zhang è rimasto provocatorio: “Nulla avrà alcun impatto sulla nostra determinazione a sviluppare i migliori chip multiuso” in Cina, ha affermato in un dichiarazione in quel momento. “Continueremo questo compito fino alla fine.”
Due anni dopo, Zhang ha mantenuto quella promessa. La sua azienda ha raccolto 8 miliardi di yuan (1,1 miliardi di dollari) nella seconda più grande offerta pubblica iniziale dell’anno nella Cina continentale, con il titolo in rialzo del 425% al suo debutto in borsa a Shanghai venerdì.
Questa impennata ha dato a Moore Threads un valore di mercato di quasi 40 miliardi di dollari e ha trasformato l’ex Nvidia Corp.dirigente di uno degli ultimi miliardari cinesi dell’intelligenza artificiale. La partecipazione di Zhang nella società vale più di 4,3 miliardi di dollari, secondo Indice dei miliardari Bloomberg, che lo sta valorizzando per la prima volta.
L’IPO ha inoltre prodotto altri miliardari, tra cui co-fondatori come il vicepresidente Zhang Yubo (1,7 miliardi di dollari), il direttore Zhou Yuan (1,4 miliardi di dollari) e il vicepresidente Wang Dong (1,4 miliardi di dollari).
La domanda evidenzia l’immenso ottimismo che alimenta la spinta della Cina verso l’autosufficienza tecnologica, mentre le tensioni commerciali con gli Stati Uniti si intensificano. Sottolinea inoltre una più ampia frenesia per i produttori di chip nazionali, che stanno colmando il vuoto di mercato lasciato dall’uscita forzata di Nvidia a causa di controlli sulle esportazioni. L’indice Star 50, un indicatore delle aziende tecnologiche cinesi, è balzato 34% quest’anno, mentreCambricon Technologies Corp. ha raddoppiato il suo valore.
Tuttavia, secondo alcuni analisti, il rialzo delle azioni in Cina potrebbe riflettere tanto il sostegno interno quanto solide prospettive commerciali.
Nel contesto della guerra tecnologica tra Stati Uniti e Cina, le valutazioni nel mercato azionario di classe A si sono allontanate dalla realtà, guidate dalla politica piuttosto che dalla logica”, ha affermato Shen Meng, direttore della banca d’investimento Chanson & Co. con sede a Pechino, riferendosi al mercato azionario nazionale. “Queste aziende di ‘nuova generazione’ fungono da potenti simboli politici, eppure il loro contributo tangibile allo sviluppo tecnologico rimane minimo”.
Moore Threads Marked the Biggest 1-day Gain in Mainland China
Top five mainland-listed IPOs 1-day gains since 2019 IPO reforms

Screenshot
Moore Threads e Zhang non hanno risposto alla richiesta di commento.
Zhang non è estraneo all’élite dei semiconduttori. Nato in una generazione di leader tecnologici che si sono fatti le ossa nei giganti occidentali, il suo curriculum è un modello del settore. Ha iniziato nel 1990 come ricercatore senior presso il Metallurgy Automation Research & Design Institute. Ha poi trascorso anni scalando i vertici aziendali di aziende statunitensi in Cina, prima come Product General Manager per Hewlett-Packard e poi come manager presso Dell Technologies Inc.
Ha poi trascorso 15 anni come direttore generale di Nvidia in Cina, costruendo proprio l’ecosistema che ora sta cercando di sostituire.
Zhang ha fondato Moore Threads nel 2020, sfruttando la sua vasta esperienza presso Nvidia per attrarre miliardi di yuan in finanziamento appena un anno dopo la sua fondazione.
Capitale fresco
Per Zhang, l’ultima iniezione di capitale è fondamentale. Secondo il prospetto, i proventi dell’IPO finanzieranno progetti di chip grafici e di intelligenza artificiale di nuova generazione, essenziali per la sopravvivenza in un mercato isolato dalla tecnologia occidentale.
“Il sostegno politico è il ‘motore’ per le scoperte strategiche ad alta tecnologia”, ha affermato Zhang in un colloquio con i media locali a dicembre, riconoscendo la natura ad alta intensità di capitale dell’attività. Il prospetto informativo della società stima che l’azienda realizzerà un utile entro il 2027.
Mentre il fatturato è in forte crescita – raggiungendo i 785 milioni di yuan nei primi tre trimestri del 2025, con un aumento del 181% su base annua – l’azienda sta bruciando liquidità a un ritmo allarmante. Dal 2022 alla fine del 2025, Moore Threads ha accumulato perdite per quasi 6 miliardi di yuan.
Per saperne di più: Nvidia Challenger Moore Threads balza del 425% al debutto in Cina
A differenza di molti concorrenti nazionali che si concentrano esclusivamente sugli acceleratori di intelligenza artificiale, Zhang punta alle unità di elaborazione grafica (GPU) a pieno regime. Moore Threads progetta chip che gestiscono simultaneamente l’addestramento dell’intelligenza artificiale, il rendering grafico 3D e la simulazione fisica, rispecchiando la versatilità che ha reso Nvidia dominante.
Tuttavia, sarà difficile per l’azienda raggiungere il colosso statunitense.
“La tecnologia di aziende come Nvidia si è formata in decenni di continua evoluzione”, ha affermato Shen. “La possibilità che le aziende cinesi possano improvvisamente competere con loro è molto remota”.
02/12/25 Barron’s: Amazon Launches New AI Chip. It’s Taking On Nvidia and Google.
By Adam ClarkFollow
Amazon said it is already working on the next generation of Trainium chips. (INA FASSBENDER/AFP VIA GETTY IMAGES)
Key Points
About This Summary
- Amazon’s new Trainium 3 AI chips are now available, offering over four times the computing performance of previous generations.
- Amazon is developing its own chips to reduce reliance on Nvidia and compete with Google’s Tensor Processing Units.
- Anthropic, an AI startup, will use over one million Trainium 2 chips by year-end, despite also using Google’s TPUs.
AMZN+1.64% said Tuesday that its newest artificial-intelligence chips are now available for customers, offering a challenge to industry leader NvidiaNVDA+1.40% and custom chips from Google.
Amazon said “UltraServers” powered by up to 144 of its in-house Trainium 3 chips are now available, offering more than four times the computing performance and a similar level of improved energy efficiency from its previous generation. The announcement came amid Amazon’s AWS re: Invent event taking place in Las Vegas this week.
“Trainium 3 UltraServers enable organizations of all sizes to train larger AI models faster and serve more users at lower cost—democratizing access to the compute power needed for tomorrow’s most ambitious AI projects,” Amazon said in a statement.
In-house chips have been an important project at Amazon as it seeks to make sure it doesn’t become too dependent on costly hardware from Nvidia. The big question for Trainium 3 is how many major external clients will adopt the hardware, especially with Alphabet’s Googlemaking inroads into the AI processor market with its Tensor Processing Units.
Advertisement – Scroll to Continue
“Trainium is used by a limited cohort of large AWS [Amazon Web Services] customers, but we expect AWS to expand access to a broader base of customers,” wrote J.P. Morgan analyst Doug Anmuth in a research note written before Tuesday’s announcement.
One important question is the balance of chips that will be used by AI startup Anthropic, which said in October that it had struck a deal to use up to a million of Google’s TPU chips, diversifying its supply beyond Amazon and Nvidia.
Amazon has committed up to $8 billion of investment to Anthropic, founded by former OpenAI engineers in 2021. Google has invested about $3 billion in Anthropic, according to Bloomberg.
Advertisement – Scroll to Continue
Anthropic has said that Amazon remains its “primary training partner and cloud provider.” It has said it expects to be using more than one million Trainium 2 chips by the end of the year, including its use of the Project Rainier supercomputer with nearly 500,000 Trainium processors.
Amazon said thousands of its UltraServers can be connected together, to form clusters containing up to one million Trainium chips.
“Project Rainier was built exclusively for Anthropic, but we believe AWS could replicate the architecture for Trn3 to serve other large customers if it can gain adequate access to power,” J.P. Morgan’s Anmuth wrote.
Amazon declined to provide direct benchmark comparisons for the Trainium 3 servers against the latest hardware from Nvidia and Google, or their power requirements. Each chip integrates 144 gigabytes of high-bandwidth memory, compared with 192 GB for Google’s latest Ironwood TPU and up to 288 GB for Nvidia’s latest Blackwell GB300 chips.
The Trainium 3 chips will be manufactured by Taiwan Semiconductor Manufacturing, but Amazon didn’t disclose any additional partners. Chip designer Marvell Technology
MRVL+1.75% has worked on previous generations of Trainium but the stock has been dogged by worries that it might lose out on future versions.
Amazon said Tuesday it is already working on Trainium 4.
01/12/25 Briefing.com: Synopsys Strengthens Its Shift Toward AI-Centric Growth with Expanded NVIDIA Engineering Partnership
Synopsys (SNPS) is trading sharply higher after announcing a strategic partnership with NVIDIA (NVDA) in which the companies will advance agentic AI engineering using GPUs, accelerated computing, and digital-twin technologies. The deal embeds NVIDIA deeper into next-gen semiconductor and system-level design flows, while a separate $2 bln NVDA investment in SNPS stock underscores confidence in Synopsys’ AI-enabled EDA roadmap and provides a meaningful commercial and go-to-market tailwind.
- The companies will shift many of SNPS’s traditionally CPU-bound engineering workloads onto NVIDIA GPUs using CUDA-X and AI-Physics technologies, accelerating tools across chip design, physical verification, multi-die analysis, and advanced optical/electromagnetic simulation.
- SNPS’s AgentEngineer will be paired with NVDA’s NeMo and NIM tech to automate more of the design process, moving engineering tasks from AI “assist” toward more autonomous, end-to-end workflows.
- NVDA’s Omniverse and AI-physics tools will play a larger role in building higher-fidelity digital twins, improving virtual testing and system-level modeling across industries such as semis, autos, aerospace, and industrial.
- Additionally, a coordinated go-to-market push and the non-exclusive nature of the partnership should help broaden adoption across a wider range of engineering and industrial customers.
- The partnership also strengthens SNPS’s combined platform with Ansys by bringing together its timing/power tools with more advanced thermal, physics, and simulation capabilities.
Briefing.com Analyst Insight
This announcement lands at an important moment for SNPS. Shares sold off sharply in September followings its Q3 (Jul) results, which were weighed down by IP-segment weakness, delayed China deals, and foundry softness from complications with a major customer. This NVDA partnership reinforces the growth vectors SNPS highlighted recently, including reallocating resources toward higher-value AI-driven IP, moving more engineering workloads onto GPUs, and leaning further into system-level simulation and the Ansys platform as key drivers of long-term growth. While near-term headwinds remain, as management cautioned that FY25 will be a “transitional and muted” year for IP with ongoing China uncertainty and slower recovery at key customers, this collaboration strengthens the long-term investment case by validating SNPS’s pivot toward higher-value, AI-centric engineering workflows and providing meaningful commercial leverage through NVDA’s ecosystem.
27/11/25 Barron’s: Nvidia Stock Could Be a Black Friday Bargain Amid Google AI Threat. Here’s Why.
By George GloverFollow
Nvidia CEO Jensen Huang is targeting half-a-trillion dollars in revenue in 2026. (I-HWA CHENG/AFP VIA GETTY IMAGES)
Key Points
About This Summary
- Nvidia shares dropped 13% over the past month due to concerns about AI valuations and competition from Alphabet.
- Despite recent declines, 61 of 66 analysts rate Nvidia as a Buy, with a consensus price target of $254.
- Mizuho analyst Vijay Rakesh notes strong demand for Nvidia’s GPUs, with the Blackwell chip sold out.
NVDA+1.37% stock has had a tricky November—but that might mean it’s now a Black Friday bargain, as analysts think there is room for the stock to rally.
Shares have dropped 13% over the past month amid worries about lofty artificial-intelligence valuations and the threat posed by Google parent Alphabet
GOOGL-1.08%, which investors think could challenge Nvidia’s AI chip dominance.
Nvidia stock climbed 1.3% on Wednesday, but slipped 0.4% in after-hours trading—suggesting it could give up some of the gains when the U.S. market reopens on Black Friday.
The shares’ rough run hasn’t spooked Wall Street. It could be a buying opportunity—according to FactSet, 61 of the 66 analysts covering Nvidia rate it Buy, with a consensus price target of $254. That implies the stock can climb 41% from its level as of Wednesday’s close.
Mizuho analyst Vijay Rakesh noted on Wednesday that demand for Nvidia’s graphics processing units still looks rock solid, with the Blackwell chip sold out and CEO Jensen Huang targeting half-a-trillion dollars in revenue in 2026. Rakesh rates the stock Outperform, with a $245 price target.
Write to George Glover at george.glover@dowjones.com
26/11/25 CNBC: Nvidia says its GPUs are a ‘generation ahead’ of Google’s AI chips
PUBLISHED TUE, NOV 25 20251:29 PM ESTUPDATED TUE, NOV 25 20256:19 PM EST

SHAREShare Article via FacebookShare Article via TwitterShare Article via LinkedInShare Article via Email
KEY POINTS
- Shares of Nvidia fell 3% after a report that Meta, one of Nvidia’s key customers, could strike a deal with Google to use its tensor processing units for its data centers.
- Nvidia responded in a statement on Tuesday, saying it “is a generation ahead of the industry.”
- Nvidia has more than 90% of the market for AI chips with its graphics processors, analysts say, but Google’s in-house chips have gotten increased attention in recent weeks as a viable alternative.
In this article
Follow your favorite stocksCREATE FREE ACCOUNT

Nvidia founder and CEO Jensen Huang looks on as US President Donald Trump speaks at the US-Saudi Investment Forum at the John F. Kennedy Center for the Performing Arts in Washington, DC on November 19, 2025.
Brendan Smialowski | Afp | Getty Images
Nvidia on Tuesday said its tech remains a generation ahead of the industry, in response to Wall Street’s concerns that the company’s dominance of AI infrastructure could be threatened by Google’s AI chips.
“We’re delighted by Google’s success — they’ve made great advances in AI and we continue to supply to Google,” Nvidia said in a post on X. “NVIDIA is a generation ahead of the industry — it’s the only platform that runs every AI model and does it everywhere computing is done.”
The post came after Nvidia saw its shares fall 3% on Tuesday after a report that Meta, one of its key customers, could strike a deal with Google to use its tensor processing units for its data centers.
In its post, Nvidia said its chips are more flexible and powerful compared with so-called ASIC chips — such as Google’s TPUs — which are designed for a single company or function. Nvidia’s latest generation of chips are known as Blackwell.
“NVIDIA offers greater performance, versatility, and fungibility than ASICs,” Nvidia said in its post.
Nvidia has more than 90% of the market for artificial intelligence chips with its graphics processors, analysts say, but Google’s in-house chips have gotten increased attention in recent weeks as a viable alternative to the Blackwell chips, which are expensive but powerful.
Unlike Nvidia, Google doesn’t sell its TPU chips to other companies, but it uses them for internal tasks and allows companies to rent them through Google Cloud.
Earlier this month, Google released Gemini 3, a well-reviewed state-of-the-art AI model that was trained on the company’s TPUs, not Nvidia GPUs.
“We are experiencing accelerating demand for both our custom TPUs and Nvidia GPUs,” a Google spokesperson said in a statement. “We are committed to supporting both, as we have for years.”
Nvidia CEO Jensen Huang addressed rising TPU competition on an earnings call earlier this month, noting that Google was a customer for his company’s GPU chips and that Gemini can run on Nvidia’s technology.
He also mentioned that he was in touch with Demis Hassabis, the CEO of Google DeepMind.
Huang said that Hassabis texted him to say that the tech industry theory that using more chips and data will create more powerful AI models — often called “scaling laws” by AI developers — is “intact.” Nvidia says that scaling laws will lead to even more demand for the company’s chips and systems.
25/11/25 Bloomberg: Nvidia Shares Drop on Report of Google Challenge in AI Chips

By Nick Turner
Nvidia Corp. shares fell on a report that Meta Platforms Inc. is in talks to spend billions on Google’s AI chips, suggesting the internet search leader is making headway in efforts to rival the industry’s bestselling AI accelerator.
Meta is in discussions to use the Google chips — known as tensor processing units, or TPUs — in data centers in 2027, The Information reported, citing an unidentified person familiar with the talks. Meta also may rent chips from Google’s cloud division next year, the news outlet said.
An agreement would help establish TPUs as an alternative to Nvidia’s chips, the gold standard for big tech firms and startups from Meta to OpenAI that need computing power to develop and run artificial intelligence platforms.
Shares of Nvidia slumped as much as 3% in premarket trading on Tuesday. Google’s owner Alphabet Inc. gained 2.4%, adding to a recent surge in optimism over the latest version of its Gemini AI model.

Google previously sealed a deal to supply up to 1 million of its chips to Anthropic PBC, drawing attention to the potential for long-term challenges to Nvidia’s dominant market position.
After the Anthropic deal was announced, Seaport analyst Jay Goldberg called it a “really powerful validation” for TPUs. “A lot of people were already thinking about it, and a lot more people are probably thinking about it now,” he said.
Representatives for Meta declined to comment, while Google didn’t immediately respond to requests.
What Bloomberg Intelligence Says
Meta’s likely use of Google’s TPUs, which are already used by Anthropic, shows third-party providers of large language models are likely to leverage Google as a secondary supplier of accelerator chips for inferencing in the near term. Meta’s capex of at least $100 billion for 2026 suggests it will spend at least $40-$50 billion on inferencing-chip capacity next year, we calculate. Consumption and backlog growth for Google Cloud might accelerate vs. other hyperscalers and neo-cloud peers due to demand from enterprise customers that want to consume TPUs and Gemini LLMs on Google Cloud.
– Mandeep Singh and Robert Biggar, analysts
Click here for the research.
Read More: Google’s TPU Chips Find an AI Sweet Spot Decade After Debut
Asian stocks related to Alphabet surged in early Tuesday trading in Asia. In South Korea, IsuPetasys Co., which supplies multilayered boards to Alphabet, jumped 18% to a new intraday record. In Taiwan, MediaTek Inc. shares rose almost 5%.
A deal with Meta — one of the biggest spenders globally on data centers and AI development — would mark a win for Google. But much depends on whether the tensor chips can demonstrate the power efficiency and computing muscle necessary to become a viable option in the long run.
The tensor chip — first developed more than 10 years ago especially for artificial intelligence tasks — is gaining momentum outside its home company as a way to train and run complex AI models. Its allure as an alternative has grown at a time companies around the world worry about an overreliance on Nvidia, in a market where even Advanced Micro Devices Inc. is a distant runner-up.
Graphics processing units, or GPUs, the part of the chip market dominated by Nvidia, were created to speed the rendering of graphics — mainly in video games and other visual-effects applications — but turned out to be well-suited to training AI models because they can handle large amounts of data and computations. TPUs, on the other hand, are a type of specialized product known as application-specific integrated circuits, or microchips that were designed for a discrete purpose.
The tensor chips were also adapted as an accelerator for AI and machine learning tasks in Google’s own applications. Because Google and its DeepMind unit develop cutting-edge AI models like Gemini, the company has been able to take lessons from those teams back to the chip designers. At the same time, the ability to customize the chips has benefited the AI teams.
— With assistance from Riley Griffin and Carmen Arroyo
24/11/25 Barron’s: Nvidia Says It’s Not Enron in Private Memo Refuting Accounting Questions
By Tae KimFollow
A private memo from Nvidia addresses recent questions about AI valuations. (SEONGJOON CHO/BLOOMBERG)
A series of prominent stock sales and allegations of accounting irregularities have putNvidia
NVDA+2.05% in the middle of a debate about the value of artificial intelligence and its related stocks.
Now Nvidia is pushing back. In a private seven-page memo sent by Nvidia’s investor relations team to Wall Street analysts over the weekend, the chip maker directly addressed a dozen claims made by skeptical investors.
Nvidia’s memo, which includes fonts in the company’s trademark green color, begins by addressing a social media post from Michael Burry last week, which criticized the company for stock-based compensation dilution and stock buybacks. Burry’s prescient bet against subprime mortgages before the 2008-2009 financial crisis was depicted in the movie The Big Short.
“NVIDIA repurchased $91B shares since 2018, not $112.5B; Mr. Burry appears to have incorrectly included RSU [restricted stock unit] taxes. Employee equity grants should not be conflated with the performance of the repurchase program,” Nvidia said in the memo. “Employees benefiting from a rising share price does not indicate the original equity grants were excessive at the time of issuance.”
Barron’s reviewed the memo, which initially appeared in social media posts over the weekend, and confirmed its authenticity with multiple Wall Street sources.
Nvidia and Michael Burry didn’t immediately respond to requests for comment about the memo.
Nvidia also responds to claims that the “current situation is analogous to historical accounting frauds (Enron, WorldCom, Lucent) that featured vendor financing and SPVs [special purpose vehicles.)”
“NVIDIA does not resemble historical accounting frauds because NVIDIA’s underlying business is economically sound, our reporting is complete and transparent, and we care about our reputation for integrity,” the memo said. “Unlike Enron, NVIDIA does not use Special Purpose Entities to hide debt and inflate revenue.”
Write to Tae Kim at tae.kim@barrons.com
22/11/25 WSj: The AMD Chip CEO Staring Down Nvidia and Talk of an AI Bubble
AMD’s Lisa Su has a new chip and a new goal: to grab a big chunk of an AI business that could reach $1 trillion a year
AMD Chief Executive Lisa Su
By Robbie WhelanFollow
and Amrith RamkumarFollow
| Photographs by Jordan Vonderhaar for WSJ
Updated Nov. 21, 2025 at 6:39 am ET
AUSTIN, Texas—At a board meeting in late 2022, Lisa Su, chief executive of chip designer Advanced Micro Devices AMD -1.09%decrease; red down pointing triangle, announced that she was radically changing course.
“I’m going to pivot the entire company,” she told the directors gathered around a boardroom table at the company’s Austin campus. The rise of artificial intelligence was a “once-in-a-lifetime opportunity,” she said, and the company had to put AI at the center of its entire product line.
Three years later, the Santa Clara, Calif.-based company has nearly quadrupled in size, its market value rising from $90 billion to more than $335 billion despite a recent pullback. AMD’s strategy of positioning itself at the center of the global AI race has paid off handsomely, making Su into a billionaire and her company into one of the only viable designers of the powerful chips needed to power advanced AI models.
In a market that has in recent years been completely dominated by NvidiaNVDA -0.97%decrease; red down pointing triangle, Su is showing that there may be a place for a strong No. 2 that can compete on price and keep AI developers from having to rely on a single chip company.
Su, 56 years old, has a Ph.D. in electrical engineering from the Massachusetts Institute of Technology and a deep understanding of the physics behind her company’s products. She developed a reputation as a giant slayer by outcompeting market-leader Intel a decade ago to take the lead in producing central processing units, or CPUs, for personal computers and data centers.
An AMD chip; server equipment and wiring at an AMD testing lab in Austin.
Now Su is staring down the ultimate goliath in Nvidia, the world’s most valuable company and the foremost maker of the chips that power AI data centers. AMD will have to deliver on its promise to produce chips that are comparable to Nvidia’s—some of the most sophisticated precision electronics ever designed. And Su will need to prove her mettle in a less familiar set of roles: as a saleswoman, dealmaker and lobbyist.
Investors bid up AMD’s stock price in October after the company announced marquee deals with Oracle and OpenAI—both of which have agreed to buy tens of thousands of AMD’s newest generation of AI chips, known as the MI450.
The OpenAI deal “turbocharges our road map,” Su said, and represents a huge vote of confidence in the MI450, which is set to launch next year. The growing AI market is “a huge opportunity, and we want to make sure that we have deep partnerships that enable us to get a big piece of that, and, you know, the rest will handle itself,” the CEO said in an interview in Austin, the city where she’s lived for decades.
Advertisement
Su’s dealmaking was on display again this week, when the company said it would work with Cisco Systems and a Saudi Arabian AI venture to build a large cluster of data centers in the kingdom. Su attended a black-tie dinner for Saudi Crown Prince Mohammed bin Salman alongside other executives at the White House Tuesday, and AMD sent a representative to a U.S.-Saudi Arabia investment forum Wednesday.
“Up until now, data centers have been almost entirely Nvidia’s market,” said Gil Luria, a tech analyst with D.A. Davidson. “AMD is in a position to take a more meaningful piece of that.”
$1 trillion a year
At the heart of Su’s strategy is her belief that there is “insatiable demand” for computing power, and that as the market for AI grows, the companies offering the best and most reliable AI infrastructure will thrive. She has said she believes AI is “not a zero-sum game” and that recent concerns about an overheated market for chips and data centers are exaggerated.Advanced Micro Devices stock priceSource: FactSetAs of Nov. 20OpenAI dealSecond-quarter
earnings$10 billiondeal withSaudi AI firmApril 2025Nov.75150225$300a share
In recent weeks, the massive spending on data centers has intensified concerns that an AI bubble is building. AMD’s stock, which had jumped nearly 60% in October, has fallen about 20% this month.
“I am not concerned about an AI bubble,” Su said in the interview. “I do think that those who are thinking that way are a bit too shortsighted. They don’t really see the power of the technology.”
Su said people who are willing to take “big, bold bets” are reaping the rewards—including skyrocketing share prices and increased market share—and believes that tech companies have barely scratched the surface of how AI can be used.
Advertisement
For many of the largest tech firms, including AMD, taking big, bold bets has meant entering into circular funding arrangements. To secure its deal to sell chips to OpenAI, for example, Su promised the ChatGPT maker warrants that would allow it to buy up to 10% of AMD at a deep discount. Such deals have added to concerns that the AI boom is being propped up by unsustainable financing.
“This is not the time to stay on the sidelines and worry, ‘Hey, am I over-investing?’” she said. “It’s much more dangerous if you underinvest than if you over-invest, in my opinion.”
An employee works on server equipment in an AMD testing facility in Austin in October.
A year ago, Su predicted that the market for AI chips would hit $500 billion in sales annually by 2028. At an investor day presentation last week in New York, she was even more optimistic: The market for AI and data-center computing, she said, will reach $1 trillion a year by 2030.
AMD’s revenue in that segment will grow by 80% a year and the company will achieve double-digit percentage market share in AI chips over the next three to five years, Su predicted. Most analysts peg the company’s AI share at just 3% to 5% today.
The CEO said that the company is currently in talks with multiple customers about doing deals similar in scale to the OpenAI agreement, under which AMD is providing enough MI450 chips for OpenAI to deploy 6 gigawatts of data-center capacity—meaning the facilities would use enough electricity to power 4.5 million homes for a year.
Advertisement
Stealing significant market share from Nvidia is far from a foregone conclusion, investors and analysts say. AMD first has to execute smoothly on next year’s launch of the MI450 and demonstrate to the market that it can deliver OpenAI all the computing power it needs on a tight schedule.
Su is also hoping to capitalize on an inflection point in AI—many executives in the chips industry, including Nvidia chief Jensen Huang, expect demand to shift from clusters designed to assist in training large language models to what’s known as inferencing, or the billions of computations required to run those models and allow them to respond to user queries. Inferencing doesn’t require chips with as much computing muscle as training does.
As AI models like ChatGPT and Gemini become increasingly integrated into daily life, and as companies design thousands of enterprise-software tools that rely on AI models, demand for inference functions is “about to go up by a billion times,” Huang said last month. (Su and Huang are distant cousins, but they didn’t meet until both were established executives.)
AMD has a strong line of inference computing chips but has struggled to design chips powerful enough to compete with Nvidia in training.
Employees run tests at the AMD campus in Austin.
After the investor-day presentation in New York, Su gathered with investors in a reception area on the 10th floor of Nasdaq’s headquarters, overlooking Times Square. As guests sipped wine and nibbled mini crabcakes, she admitted to a small group of investors and analysts that it’s been difficult to compete with Nvidia on training, but said she was optimistic that MI450 would help with both training and inference, said Hendi Susanto, a portfolio manager at Gabelli Funds, which owns more than $11 million worth of AMD shares.
“I have a high level of confidence that they’ll be able to win deals in inferencing and boost their market share meaningfully,” said Susanto. “What’s important now is strategic partnerships.”
Taking down Intel
Early in her career, the Taiwan-born, Queens, N.Y.-raised Su worked for International Business Machines, where she focused on designing products according to the needs of big customers. When she took over as CEO of AMD in 2014, the company had a market value of less than $3 billion.
Advertisement
Su did deals with Chinese partners that helped stabilize the company’s finances and moved the chip designer deeper into the processors that powered PCs and data centers, capitalizing on Intel’s weaknesses. Today AMD sells an estimated 41% of data-center CPUs, up from essentially zero about five years ago.
Lisa Su in 2015, one year after taking the top job at AMD. LIZ HAFALIA/SAN FRANCISCO CHRONICLE/GETTY IMAGES
It was that success that allowed AMD’s board of directors to trust Su when she proposed, in that fateful board meeting in 2022, to pivot the company to go head-to-head with Nvidia, said Abhi Talwalkar, one of the board members who attended the meeting.
“She had vision around our ability to be AI from end point to data center and everything in between,” Talwalkar, a veteran chip executive, said. “She had the conviction of the need, and the need to move fast.”
With the directors backing her, Su embarked on an ambitious plan to ramp up design work on several generations of AMD’s Instinct line of data-center chips, culminating with its most powerful AI processor yet, the MI450.
Advertisement
Su was able to dispense with Intel as a competitor because Intel had “self-inflicted wounds,” said Daniel Newman, CEO of research and advisory firm Futurum Group. That’s in sharp contrast to Nvidia, a company that’s expected to generate more than $200 billion in revenue next year and that has gotten thousands of AI developers hooked on the proprietary software that Nvidia chips rely on, Newman said.
But Nvidia can’t make enough chips to keep up with demand, and the OpenAI deal proved that large AI companies are eager to diversify their supplier base, said Newman.
Darrick Horton, founder and CEO of TensorWave, a Las Vegas-based cloud services company that is backed by AMD and uses only AMD’s hardware for its data-center clusters, said AMD has another factor working in its favor: Its chips and related products are less expensive than Nvidia’s, with prices for comparable hardware sometimes as much as 20% lower.
Global dealmaker
As AMD has become a bigger player in AI, Su has begun to embrace the spotlight. Earlier this year at an industry summit in Paris, Su was treated like a celebrity, with many young women asking her to take selfies and sign autographs.
Su is also spending more time in Washington and on the global stage, recognizing that decisions by the Trump administration and governments globally could make or break her plans to attract more customers. The Trump administration approved chip exports directly to state-backed companies in Saudi Arabia and the United Arab Emirates this week, a boon for AMD and Nvidia.
Advertisement
While Huang has gotten most of the attention for lobbying the administration to allow chip exports to China and other countries, Su has also been relentless in pushing for AMD-friendly policies in discussions with senior administration officials such as Commerce Secretary Howard Lutnick and White House AI Czar David Sacks, people familiar with the matter said.
Su at a White House event earlier this year. CHIP SOMODEVILLA/GETTY IMAGES
Like Huang, Su has argued that restricting exports of American chips would boost Chinese competitors like Huawei Technologies, an argument that administration officials have found compelling. Su has also said that strict export controls could disproportionately hurt AMD while it tries to get a foothold in overseas markets and chip away at Nvidia’s lead. Those in favor of such controls argue that allowing the sale of the most advanced chips would boost China’s AI data-center capabilities and threaten national security.
In July, Su attended an AI summitwhere Trump rolled out his AI strategy. When she addressed the audience, Su pulled one of the company’s chips out of her pocket and said it had 185 billion transistors and took nine months to make. Such chips can cost tens of thousands of dollars. Trump later mentioned her in his speech as one of the notable executives in attendance.
She was still in the shadow of Huang, however, who Trump asked to stand while the crowd applauded. “What a job you’ve done,” the president said to the Nvidia CEO. Huang said at the event that Trump was the biggest advantage the U.S. has in the AI race.
On Thursday night in a hotel ballroom in San Jose, Calif., a who’s-who of chips-industry leaders gathered to honor C.C. Wei and Mark Liu—the current and former chairmen of chip fabrication giant Taiwan Semiconductor Manufacturing—who were being jointly honored with the Robert Noyce medal, a prestigious prize in microelectronics presented each year by the Semiconductor Industry Association. (Su won the award in 2021.)
Advertisement
As the lobbying group’s new chair, Su gave the keynote speech. Addressing a crowd that included Intel CEO Lip-Bu Tan, Broadcom CEO Hock Tan and former Commerce Secretary Wilbur Ross, Su sounded a rallying cry. The chips industry, she said, could overcome just about any limitation, from physics to manufacturing to the economics of the AI business, as long as its leaders worked together.
“Over the next decade, AI will transform every industry, every business, every product and every interaction,” she said. “Our chips are enabling this massive new technology revolution.”
Nvidia’s Huang, though invited, did not attend—he recorded a video message congratulating Liu and Wei instead. He was at a nearby opera performance with friends, according to people familiar with the matter.
Write to Robbie Whelan at robbie.whelan@wsj.com and Amrith Ramkumar at amrith.ramkumar@wsj.com
20/11/2025 Briefing.com: NVIDIA Shocks the System – I risultati Q3 dimostrano che la domanda AI continua a “compute-ing higher” (193,66 +7,14)
Briefing.com
NVIDIA (NVDA) sale forte oggi dopo aver pubblicato un robusto terzo trimestre fiscale (ottobre) con beat-and-raise, allontanando i timori di un rallentamento della spesa in infrastrutture AI. Da sottolineare che il trimestre è stato eccellente nonostante vendite H20 praticamente irrilevanti e che la guidance sui ricavi del quarto trimestre (gennaio) esclude completamente i ricavi compute Data Center dalla Cina, risultando comunque molto superiore alle aspettative.
Il fondatore e CEO Jensen Huang si è mostrato particolarmente ottimista nella call, dichiarando che le vendite Blackwell sono «off the charts e le GPU cloud sono sold out». Ha enfatizzato che la domanda di compute, sia per training che per inference, continua ad accelerare in modo esponenziale e che siamo entrati in un «virtuous cycle of AI». L’ecosistema si sta espandendo rapidamente, con sempre più sviluppatori di modelli fondazionali, più startup AI e un’adozione globale più ampia.
Punti salienti
• Data Center: record assoluto a 51,2 miliardi di dollari, +25% seq. (rispetto al +5% del Q2) e +66% a/a, leggermente sopra il consenso. Compute +56% a/a grazie alla rampa GB300; networking più che raddoppiato.
• Momentum Blackwell: il GB300 ha superato il GB200 e rappresenta circa i due terzi dei ricavi totali Blackwell. Transizione fluida, spedizioni di produzione già avviate verso i principali cloud provider e hyperscaler.
• Cina: vendite H20 minime (~50 milioni) per questioni geopolitiche e concorrenza; guidance Q4 esclude totalmente i ricavi compute dalla Cina, ma resta comunque molto forte.
• Gaming & AI PC: 4,3 miliardi di dollari (+30% a/a, +1% seq.) grazie alla forte domanda Blackwell; scorte canale in salute per le festività. Professional Visualization +56% a/a a 760 milioni; Automotive +32% a/a a 592 milioni, anche grazie alla nuova partnership con Uber per la più grande flotta autonoma Level-4 ready al mondo.
Commento degli analisti Briefing.com
Dopo la recente correzione dei titoli infrastructure AI per timori di valutazione, i risultati Q3 di NVIDIA e la guidance bullish per il Q4 portano un sollievo significativo. Le prospettive restano solide anche assumendo ricavi compute dalla Cina pari a zero, a dimostrazione della profondità della domanda globale per Blackwell e GB300.
Il tono entusiasta di Jensen Huang rafforza la narrazione di lungo periodo: la costruzione dell’infrastruttura AI è ancora nelle fasi iniziali e la domanda continua a crescere in modo composto in praticamente tutti i settori verticali. Detto questo, la valutazione premium di NVDA resta oggetto di dibattito, soprattutto pensando alla sostenibilità oltre l’attuale ciclo di upgrade.
Conclusione: i risultati e i commenti di NVIDIA riaffermano la sua leadership nell’ecosistema AI; la guidance Q4 allontana in modo significativo i timori di decelerazione della spesa. La visibilità di lungo termine rimane eccezionalmente forte.
20/11/25 Bloomberg: La previsione ottimista di Nvidia calma le paure della bolla di spesa per l’IA
Di Ian King
19 novembre 2025 alle 22:23 GMT+1
Aggiornato il
Punti Principali
- Nvidia Corp. ha fornito una forte previsione di entrate, prevedendo vendite di circa 65 miliardi di dollari nel trimestre di gennaio, e ha respinto l’idea che l’industria dell’IA sia in una bolla.
- Il CEO della società, Jensen Huang, ha detto che la domanda rimane solida per gli acceleratori di intelligenza artificiale di Nvidia e le prospettive segnalano che una bonanza delle entrate di mezzo trilione di dollari potrebbe essere ancora maggiore del previsto.
- I risultati di Nvidia hanno superato le stime degli analisti, con entrate in aumento del 62% a 57 miliardi di dollari nel terzo trimestre, e il valore di mercato della società è di 4,5 trilioni di dollari, con azioni che hanno guadagnato il 39% quest’anno fino alla chiusura.
Nvidia Corp. ha fornito una previsione di entrate sorprendentemente forte e ha respinto l’idea che l’industria dell’IA sia in una bolla, alleviando le preoccupazioni che si erano diffuse in tutto il settore tecnologico.
L’azienda più preziosa del mondo si aspetta vendite di circa 65 miliardi di dollari nel trimestre di gennaio – circa 3 miliardi di dollari in più di quanto previsto dagli analisti. Nvidia ha anche detto che una bonanza di entrate di mezzo trilione di dollari dovuta nei prossimi trimestri potrebbe essere ancora più grande del previsto.
Le prospettive segnalano che la domanda rimane robusta per gli acceleratori di intelligenza artificiale di Nvidia, i chip costosi e potenti utilizzati per sviluppare modelli di intelligenza artificiale. Nvidia aveva affrontato crescenti timori nelle ultime settimane che la spesa in fuga per tali attrezzature non fosse sostenibile.
Il CEO di Nvidia Jensen Huang discute le vendite “fuori scala” dell’unità di elaborazione grafica avanzata di Blackwell con Ed Ludlow su “The Asia Trade”.
“Si è parlato molto di una bolla di intelligenza artificiale”, ha detto l’amministratore delegato Jensen Huang in una teleconferenza con gli analisti. “Dal nostro punto di vista, vediamo qualcosa di molto diverso”.
Il commento ottimista ha fatto salire le azioni di circa il 5% in ritardo nel trading. Avevano guadagnato il 39% quest’anno attraverso la chiusura, lasciando il valore di mercato dell’azienda a 4,5 trilioni di dollari.
Per saperne di più: i guadagni di Nvidia si sno snodotati in un mercato improvvisamente spaventato dalla spesa per l’IA
I risultati di Nvidia sono diventati un barometro per la salute dell’industria dell’intelligenza artificiale e le notizie hanno sollevato una varietà di azioni correlate. CoreWeave Inc., un fornitore di AI computing, ha guadagnato più del 9% nel trading esteso. Il suo pari Nebius Group NV è salito di oltre l’8%.
“I mercati stanno reagendo molto positivamente alla notizia che non c’è allentamento nello slancio dell’IA”, ha detto Brian Mulberry, senior customer portfolio manager presso Zacks Investment Management, in una nota. La sua azienda possiede azioni Nvidia. “La domanda di soluzioni hardware Nvidia rimane forte”, ha detto.
Il CEO di Nvidia aveva detto il mese scorso che la società ha più di 500 miliardi di dollari di entrate nei prossimi trimestri. I proprietari di grandi data center continueranno a spendere per nuove attrezzature perché gli investimenti nell’IA hanno iniziato a ripagare, ha detto.

Il direttore finanziario Colette Kress è andato oltre mercoledì, indicando che Nvidia avrebbe probabilmente eclissato l’obiettivo di 500 miliardi di dollari.
“C’è sicuramente un’opportunità per noi di avere di più in aggiunta ai 500 miliardi di dollari che abbiamo annunciato”, ha detto in conferenza. “Il numero crescerà”.
Leggi di più: Huang di Nvidia dice che l’azienda ha molti nuovi chip da vendere
Il ruolo crescente dell’IA aiuterà a mantenere la domanda per i prodotti Nvidia, ha detto Huang. La tecnologia sta aiutando ad accelerare il lavoro informatico esistente, come la ricerca. E sta per arrivare nel mondo fisico sotto forma di robot e altri dispositivi.
Anche i risultati del terzo trimestre di Nvidia hanno superato le stime degli analisti. Le entrate sono aumentate del 62% a 57 miliardi di dollari nel periodo, che si è concluso a ottobre. 26. Il profitto era di 1,30 dollari per azione. Gli analisti avevano previsto vendite di 55,2 miliardi di dollari e guadagni di 1,26 dollari per azione.
L’unità principale del data center di Nvidia ha avuto un fatturato di 51,2 miliardi di dollari nel trimestre, rispetto a una stima media di 49,3 miliardi di dollari. I chip utilizzati nei PC da gioco – una volta la principale fonte di reddito dell’azienda – hanno prodotto vendite per 4,3 miliardi di dollari. Ciò si confronta con una stima media di 4,4 miliardi di dollari.
Le previsioni per l’ultimo trimestre riflettono una corsa sbalorditiva per l’azienda. Le vendite saranno più di 10 volte rispetto a dove erano nello stesso periodo di soli tre anni fa. E Nvidia è sulla strada per fornire più reddito netto annuo di due rivali di lunga data – Intel Corp. e Advanced Micro Devices Inc. – riporteranno nelle vendite.

Ma l’espansione di Nvidia ha affrontato delle sfide. Le restrizioni statunitensi sulla spedizione di chip avanzati in Cina hanno in gran parte bloccato Nvidia da un enorme mercato per i suoi prodotti.
Huang ha fatto pressioni su Washington per ribaltare quelle regole, sostenendo che sono controproducenti per le preoccupazioni di sicurezza nazionale che dovrebbero servire. Ma anche dopo un po’ di rollback degli elementi più difficili, Nvidia non sta attualmente proiettando alcuna vendita da acceleratori di intelligenza artificiale in Cina.
“La nostra previsione per la Cina è zero”, ha detto Huang in un’intervista a Bloomberg Television. “Ci piacerebbe avere l’opportunità di poter coinvolgere nuovamente il mercato cinese con prodotti eccellenti”.
Alcuni investitori hanno anche espresso preoccupazioni sulla struttura dei megadeal che Nvidia ha colpito con i clienti. Le transazioni coinvolgono investimenti in startup come OpenAI e Anthropic PBC, sollevando la questione se i patti stiano creando una domanda artificiale di computer.
All’inizio di questa settimana, Nvidia e il cliente Microsoft Corp. hanno dichiarato di sersi impegnati a investire fino a 15 miliardi di dollari in Anthropic. La startup si è anche impegnata ad acquistare 30 miliardi di dollari di capacità informatica dal servizio cloud Azure di Microsoft e lavorerà con gli ingegneri di Nvidia su chip di messa a punto e modelli di intelligenza artificiale.
Leggi di più: Microsoft, Nvidia investiranno fino a 15 miliardi di dollari in Anthropic
Nella teleconferenza, Huang è stato interrogato sugli accordi con OpenAI e Anthropic. Huang ha detto che l’investimento di Nvidia in OpenAI, che non è ancora stato finalizzato, fornirà un buon ritorno, ha detto. Sostenere Anthropic, nel frattempo, aiuterà a stabilire legami con un’azienda che non è stata un grande utente della tecnologia Nvidia, ha detto.
Alcuni rivali di Nvidia sono diventati più ottimisti sul fatto che possano finalmente sfidare il dominio dell’azienda negli acceleratori di intelligenza artificiale. All’inizio di questo mese, AMD ha previsto un’accelerazione della crescita per il suo business dei chip AI e ha parlato delle prospettive per i prossimi prodotti.
AMD, Broadcom Inc. e Qualcomm Inc. hanno tutti annunciato legami con grandi utenti dei chip Nvidia. E gli operatori dei data center stanno sempre più cercando di utilizzare più progetti interni, uno sforzo che li renderebbe meno dipendenti dalla fornitura di Nvidia.
Huang ha detto mercoledì che la pressione competitiva rimane bassa. Più clienti stanno arrivando a Nvidia dopo aver provato alternative che mai, ha detto. La complessità dei sistemi informatici AI ha messo Nvidia in una posizione forte, ha detto Huang.
Il CEO sta anche spingendo per diffondere l’uso dell’IA in più dell’economia mondiale. L’amministratore delegato ha intrapreso un tour in giro per il mondo per convincere gli enti governativi e le società a implementare la sua tecnologia.
Nvidia, fondata nel 1993, ha aperto la strada al mercato dei chip grafici utilizzati per creare immagini realistiche per i giochi per computer. AMD è il suo unico principale rivale rimasto in quel settore.
Nvidia ha costruito il suo dominio dell’IA adattando la stessa architettura del chip per sgranocchiare enormi quantità di dati, aiutando i ricercatori a creare software che hanno iniziato a rivaleggiare e assomigliare alle capacità umane.
L’azienda con sede a Santa Clara, in California, ha ancora oltre il 90% del mercato per i chip di accelerazione AI. Ha aggiunto altri prodotti a quella gamma per aiutare a consolidare il suo vantaggio, tra cui rete, software e altri servizi.
“Il business è molto forte”, ha detto Huang nell’intervista. “Abbiamo fatto un buon lavoro di pianificazione per un anno molto forte”.
11/11/25 Bloomberg: AMD Prevede una Crescita Accelerata delle Vendite sulla Domanda dei Data Center
By Ian King
Punti Salienti:
- La crescita dei ricavi annuali mediamente supererà il 35% nei prossimi tre-cinque anni, ha detto la CEO Lisa Su.
- I ricavi AI data center di AMD aumenteranno in media dell’80% nello stesso periodo, ha detto Su.
- Il mercato totale dei chip AI raggiungerà 1.000 miliardi di dollari entro il 2030, ha detto Su.

Advanced Micro Devices Inc., il rivale più vicino di Nvidia Corp. nei chip AI, ha previsto una crescita accelerata delle vendite nei prossimi cinque anni, trainata da una forte domanda per i suoi prodotti data center.
La crescita dei ricavi annuali mediamente supererà il 35% nei prossimi tre-cinque anni, ha detto la Chief Executive Officer Lisa Su martedì a un evento aziendale a New York. I ricavi AI data center di AMD aumenteranno in media dell’80% nello stesso periodo, ha detto.
AMD sta aggiornando gli investitori sulle sue prospettive a lungo termine in mezzo a crescenti preoccupazioni che la massiccia spesa per nuovi sistemi informatici per lavori di intelligenza artificiale non possa continuare ai livelli elevati attuali. Le azioni del produttore di chip si sono circa raddoppiate quest’anno, aiutate da accordi firmati con aziende inclusa OpenAI e Oracle Corp. Quei deal hanno validato la qualità dei prodotti di AMD e indicato che la sua tecnologia può vincere una parte dei decine di miliardi di dollari impegnati in nuovi data center.
“Il tasso e il ritmo del cambiamento nell’AI è certamente oltre qualsiasi cosa che io abbia visto”, ha detto Su.
I più grandi proprietari di data center l’anno scorso prevedevano un rallentamento della costruzione, ma ora Su ha detto che le stanno dicendo che accelereranno il ritmo degli investimenti. “Non si stabilizzerà”, ha detto.
Il mercato totale dei chip AI, inclusi acceleratori, processori e prodotti di networking, raggiungerà 1.000 miliardi di dollari entro il 2030, ha detto Su.
Le azioni AMD, che erano calate fino al 3,8%, hanno cancellato la maggior parte di quelle perdite dopo le osservazioni di Su e erano poco cambiate a 244,07 dollari alle 13:53 a New York.
La scorsa settimana, AMD ha consegnato una forte previsione di ricavi per il trimestre corrente che ha superato ciò che gli analisti avevano previsto. Ma la sua outlook per una crescita delle vendite di oltre il 20% ha ricevuto una ricezione tiepida dagli azionisti perché gran parte di quell’aumento proviene da processori per PC e server computer.
Per la previsione a lungo raggio di AMD, gli analisti, in media, stimavano una crescita delle vendite del 32% nell’anno corrente seguita da espansioni del 31% nel 2026 e del 39% nel 2027, secondo dati compilati da Bloomberg. Gli analisti proiettavano che la crescita annuale dell’azienda rallenterebbe più tardi nel decennio al 20% nel 2028 e al 12% nell’anno successivo.
La outlook di AMD non ha impressionato gli investitori, raffreddando il rally alimentato dall’AI
AMD da tempo ha abbandonato la sua etichetta di perdente nell’industria e sta prendendo quote di mercato dal rivale più grande Intel Corp.. Ma la sua performance è ora tenuta a uno standard più alto. Mentre l’azienda ha generato miliardi di dollari di nuovi ricavi dal mercato degli acceleratori AI – dove Intel non ha ancora un prodotto viable – Nvidia ha prenotato decine di miliardi di vendite in ciò che è diventata la parte più lucrativa dell’industria dei chip.

La CEO di AMD ha detto agli analisti in una conference call la scorsa settimana che il business AI genererà “decine di miliardi” di dollari in ricavi annuali entro il 2027. Il business chip PC dell’azienda, intanto, dovrebbe crescere più velocemente del mercato complessivo, ha detto allora.
Gli accordi recenti del produttore di chip con OpenAI, Oracle e il Dipartimento dell’Energia USA riflettono un interesse aumentato per la sua serie MI di acceleratori AI. Quei prodotti, che vanno testa a testa con i chip di Nvidia, sono usati nei data center per creare e far girare servizi AI.
AMD ha siglato un accordo chip con OpenAI che ha scatenato un rally esplosivo
AMD è il secondo più grande fornitore di chip grafici, che formano la base per gli acceleratori AI che girano nei data center. I suoi microprocessori, intanto, competono direttamente con i prodotti Intel nei PC e server.
(Aggiornato con commenti aggiuntivi della CEO a partire dal quarto paragrafo.)
06/11/25 Barron’s: Arm Supera le Stime sugli Utili. Il Titolo Sale.
By Tae Kim
Punti Salienti:
• Arm Holdings ARM ha riportato risultati sugli utili migliori delle attese nel trimestre di settembre, con un utile per azione adjusted di 39 centesimi contro i 33 centesimi stimati da Wall Street, secondo FactSet. I ricavi sono arrivati a 1,135 miliardi di dollari, superando le aspettative degli analisti di 1,06 miliardi di dollari.
• Arm ha fornito una solida outlook: i ricavi per il trimestre corrente saranno di 1,225 miliardi di dollari al midpoint della sua range, contro la stima media degli analisti di 1,11 miliardi di dollari.
• Le azioni Arm ARM sono salite fino al 5% dopo la diffusione dei risultati nel trading after-hours.
• Il titolo Arm ARM è in rialzo del 30% quest’anno fino alla chiusura di mercoledì, rispetto al +42% dell’iShares Semiconductor ETF.
Arm Holdings ARM ha riportato risultati sugli utili migliori delle attese mercoledì sera. Le sue azioni sono in rialzo nel trading after-hours.
Per il trimestre di settembre, il progettista di chip ha riportato un utile per azione adjusted di 39 centesimi, rispetto alla stima consensus di Wall Street di 33 centesimi, secondo FactSet. I ricavi sono arrivati a 1,135 miliardi di dollari, superando le aspettative degli analisti di 1,06 miliardi di dollari.
Arm ha anche fornito una solida outlook. Ha detto che i ricavi per il trimestre corrente saranno di 1,225 miliardi di dollari al midpoint della sua range, contro la stima media degli analisti di 1,11 miliardi di dollari.
“Arm offre prestazioni ineguagliabili, efficienza e ampiezza software su tutto lo spettro dei carichi di lavoro AI”, ha detto l’azienda in una lettera agli azionisti.
Le azioni Arm ARM sono salite fino al 5% dopo la diffusione dei risultati.
Arm, con sede nel Regno Unito, guadagna licenziando i suoi design di chip a società di semiconduttori e produttori di smartphone come Apple AAPL e Qualcomm. L’ultima tecnologia di chip avanzata di Arm, chiamata Armv9, genera tassi di royalty più alti rispetto alla precedente Armv8. Sta anche facendo progressi nel mercato dei processori per server cloud di fascia alta vendendo tecnologia di chip a Microsoft MSFT e Nvidia NVDA.
La scorsa settimana, l’analista di KeyBanc Capital Markets John Vinh ha riconfermato il suo rating Overweight per il titolo e ha reiterato il suo obiettivo di prezzo di 190 dollari.
Vinh ha detto che i suoi controlli sull’uso di chip server basati su Arm sono solidi con le società di cloud computing.
Il titolo Arm ARM è in rialzo del 30% quest’anno fino alla chiusura di mercoledì, rispetto al +42% dell’iShares Semiconductor ETF.
Scrivi a Tae Kim all’indirizzo tae.kim@barrons.com
31/10/25 Forbes: Nvidia si espande nel computing quantistico e nell’energia da fusione
By Alex Knapp
Punti Salienti:
- Nvidia annuncia partnership con Oracle e il Dipartimento dell’Energia per costruire due supercomputer AI con oltre 100.000 GPU, da utilizzare al Argonne National Laboratory per accelerare la ricerca scientifica.
- Nuove collaborazioni per creare “digital twin” di fabbriche e reattori a fusione con partner come Caterpillar, Toyota, TSMC e General Atomics, per simulazioni iper-accurate che velocizzino lo sviluppo.
- Introduzione di “NVQLink”, un’architettura che integra supercomputer AI convenzionali con processori quantistici, hardware-agnostica e supportata da 17 partner quantistici e nove laboratori nazionali USA.
- I modelli AI faticano nel settore bancario d’investimento a causa della scarsità di dati di addestramento per flussi di lavoro reali specializzati, come IPO e fusioni, che sono prevalentemente privati.
Nvidia CEO Jensen Huang tiene il discorso chiave al loro evento GTC
Il presidente e CEO di Nvidia Jensen Huang pronuncia il discorso chiave durante il Nvidia GTC.
GETTY IMAGES
Il gigante dell’hardware Nvidia ha tenuto la sua conferenza annuale GTC questa settimana, dove l’azienda da 5 trilioni di dollari ha annunciato una serie di partnership relative a una varietà di tecnologie emergenti.
Una è con Oracle e il Dipartimento dell’Energia per costruire due supercomputer AI, interconnessi e alimentati da oltre 100.000 GPU. Saranno situati al Argonne National Laboratory, dove il DOE prevede di usarli per accelerare la ricerca con agenti AI che possono eseguire compiti scientifici.
Nvidia ha annunciato un’altra serie di partnership per costruire “digital twin”. Lavorerà con produttori industriali tra cui Caterpillar, Toyota, TSMC e altri per creare simulazioni iper-accurate di impianti manifatturieri, permettendo agli ingegneri di testare nuove idee – come spostare attrezzature in diverse aree – prima di provarle nel mondo reale. Nvidia ha anche costruito un digital twin per un reattore a fusione con il partner General Atomics. Il progetto utilizza il software e l’hardware di Nvidia per alimentare la simulazione, nella speranza di consentire a ingegneri e scienziati di accelerare lo sviluppo della fusione.
Infine, Nvidia ha introdotto “NVQLink”, un’architettura di computing che consente di integrare supercomputer AI convenzionali con processori quantistici. Significativamente, l’azienda ha detto che questa soluzione è hardware-agnostica, il che è importante perché ci sono molteplici approcci distinti alla tecnologia quantistica nell’industria. Nvidia sta lavorando con 17 diversi partner di computing quantistico su NVQLink, nonché con nove laboratori nazionali USA.
Perché i modelli AI fanno schifo nel investment banking
Finestra pop-up di un errore del computer che fluttua sopra uomini in abiti con valigette.
ILLUSTRAZIONE DI MACY SINREICH PER FORBES; IMMAGINI DI ADAM CROWLEY/GETTY IMAGES; NA/GETTY IMAGES, WERNERIMAGES/GETTY IMAGES, 4X6/GETTY IMAGES, FATCAMERA/GETTY IMAGES
La frenesia di spesa per l’AI continua a ritmo sostenuto senza fine in vista. Nelle chiamate agli utili di mercoledì, Meta, Google e Microsoft hanno tutte detto che aumenteranno le loro spese in conto capitale l’anno prossimo per costruire data center AI, oltre ai 400 miliardi di dollari già spesi quest’anno.
Ma finora, il ritorno sull’investimento per i casi d’uso dell’AI è stato debole. Uno studio recente del MIT ha rilevato che il 95% dei pilot di AI generativa nelle aziende non si è sviluppato oltre la fase di proof-of-concept. Laboratori AI leader come OpenAI stanno ancora avendo problemi nel far eseguire ai loro AI i compiti ‘da lavoro manuale’ di entry-level investment banker. L’AI generativa sembra diretta verso il suo momento di “trough of disillusionment”.
Chatbot come ChatGPT e Gemini possono redigere una sonnet perfetta in pochi secondi. Possono codificare e scrivere sceneggiature di film. Quindi perché l’AI è ancora così indietro nell’essere in grado di prendere il sopravvento sul lavoro white collar?
La risposta: dati di addestramento, specificamente flussi di lavoro reali specializzati. Risulta che mentre c’è un’abbondanza di dati pubblici disponibili su come generare linguaggio o codice, ce ne sono significativamente meno su come gestire un’IPO o una fusione. Quei dati sono in gran parte privati.
“I large language model performano bene quando raccogli un sacco di dati, e non abbiamo quasi altrettanti dati per compiti del mondo reale, il che significa che l’AI non ha visto gli esempi di cui ha bisogno per padroneggiare queste skillset specifiche”, ha detto Robert Nishihara, co-fondatore di Anyscale, un’azienda che fornisce infrastruttura software AI, ad esempio per aziende che addestrano i loro modelli su grandi dataset.
Leggi di più su Forbes.
25/10/25 Bloomberg: ‘Non è la mia prima bolla’: L’orso di Nvidia mantiene la sua posizione
By Ryan Vlastelica e Jeran Wittenstein
Punti Salienti:
• Jay Goldberg, analista senior di Seaport Global Securities, ha un rating di vendita su Nvidia (NVDA), rendendolo l’unico orso tra 80 analisti che coprono il produttore di chip.
• Goldberg crede che ci sia molto di più che possa andare storto con Nvidia (NVDA) rispetto a ciò che può andare bene, paragonando l’attuale boom dell’IA alla bolla dot-com della fine degli anni ’90 e inizio 2000.
• Nonostante l’enorme ottimismo su Nvidia (NVDA), la visione di Goldberg è che la tesi di investimento sull’IA sia sopravvalutata e si domanda da dove possa provenire un ulteriore rialzo, con un target price di 100 dollari, il più basso in assoluto tra gli analisti.
Molti a Wall Street amano definirsi contrarian, ma pochi nuotano controcorrente con tanta determinazione come Jay Goldberg, l’unico orso sull’altamente performante Nvidia Corp (NVDA).
Seduto nel suo disordinato ufficio domestico al piano terra della sua casa vittoriana a tre piani vicino al quartiere Haight-Ashbury di San Francisco, il buon umorista 54enne con gli occhiali, analista senior di Seaport Global Securities, non sembra né suona come un iconoclasta del mercato azionario. Con la sua collezione di antichi dispositivi tecnologici, tra cui un telefono cellulare a mattone degli anni ’80 che sembra potesse essere usato da Gordon Gekko nel film Wall Street, il padre di tre figli sposato appare come un geek dei gadget sobrio e discreto.
Dall’altro canto, il suo rating di vendita sul produttore di chip al centro di tutto ciò che riguarda l’intelligenza artificiale lo ha trasformato nella versione di Wall Street di un rocker punk.
“Ci sono molte più cose che possono andare storte con Nvidia (NVDA) rispetto a quelle che possono andare bene”, ha detto Goldberg.
Ci sono 80 analisti che coprono il produttore di chip, 73 dei quali hanno l’equivalente di un rating di acquisto sul titolo. Sei lo valutano hold. E poi c’è Goldberg.
L’unico orso di Nvidia
Jay Goldberg di Seaport ha l’unico rating equivalente a vendita

Fonte: Bloomberg
L’enorme ottimismo ha senso se si considera che chiunque abbia cercato di opporsi all’ascesa di Nvidia (NVDA) negli ultimi anni è stato travolto dalla domanda insaziabile per i chip di Nvidia (NVDA), chiamati unità di elaborazione grafica o GPU, essenziali per il calcolo dell’IA. Il suo titolo è salito di oltre il 3.000% dall’inizio del 2020, rendendolo di gran lunga il miglior performer nell’indice S&P 500 in quel periodo, quasi raddoppiando il rendimento del suo concorrente più vicino, Super Micro Computer (SMCI).
Con il boom dell’IA che sta guidando l’economia statunitense e spingendo il mercato azionario da record a record, pochi sono ansiosi di scommettere contro l’azienda chiave dietro il rally.
“L’IA è un ciclo generazionale di più anni, e noi siamo solo nelle prime fasi, non nemmeno a metà”, ha detto Jim Awad, managing director senior di Clearstead Advisors, che detiene azioni Nvidia (NVDA). “Nvidia (NVDA) è un attore significativo in questo, coinvolto in ogni aspetto del trade sull’IA. Sta alimentando l’economia e il mercato azionario. Io dico: lasciate cavalcare il cavallo”.
Controcorrente
Goldberg, tuttavia, non ha remore ad andare controcorrente.
“Sono probabilmente un po’ burbero per natura, quindi sono scettico su tutta l’hype intorno all’IA in questo momento”, ha detto. “Non è la mia prima bolla”.
Goldberg copre 12 aziende, e Nvidia (NVDA) è l’unico rating di vendita. Ha rating di acquisto su Apple (AAPL), Netgear (NTGR) e sui produttori di chip Broadcom (AVGO) e Arm Holdings (ARM), entrambi fortemente esposti al trade sull’IA.
Nella sua visione, la tesi di investimento sull’IA si riduce alla spesa di sei aziende: Microsoft (MSFT), Alphabet (GOOGL), Amazon.com (AMZN), Meta Platforms (META), Oracle (ORCL) e OpenAI. Il sestetto sta correndo per costruire l’infrastruttura per la tecnologia, e la loro domanda per i chip Nvidia (NVDA) ha reso quest’ultima la più grande azienda al mondo, con una capitalizzazione di 4,5 trilioni di dollari. Le cinque aziende pubbliche di quel gruppo dovrebbero devolvere quasi 400 miliardi di dollari alla spesa in conto capitale quest’anno, in aumento di oltre il 67% rispetto all’anno scorso. OpenAI, l’influente proprietaria privata di ChatGPT, si è impegnata a spendere oltre 1 trilione di dollari.
Ma con quattro di quelle aziende che riportano i risultati la prossima settimana, gli investitori stanno iniziando a concentrarsi su quanto poco queste imprese abbiano da mostrare per tutta quella spesa finora.
Goldberg paragona questo alla costruzione dell’infrastruttura delle telecomunicazioni durante la bolla dot-com della fine degli anni ’90 e inizio 2000, un periodo in cui stava conseguendo l’MBA all’Università di Chicago prima di ottenere lavori a Lazard e Deutsche Bank e successivamente presso i produttori di chip Peregrine Semiconductor e Qualcomm (QCOM), seguito da una startup software e una società di venture capital. Quando il traffico internet previsto non si materializzò immediatamente, aziende come Cisco Systems (CSCO), i cui titoli furono turbo-caricati dalla spesa, furono colpite duramente. Più di due decenni dopo, il prezzo delle azioni di Cisco (CSCO) non ha ancora toccato il picco del 2000.
“Questo mi sembra molto simile al pattern che stiamo vedendo ora”, ha detto Goldberg. “Stiamo costruendo tutta questa roba sull’IA per ragioni in gran parte psicologiche. A un certo punto la spesa si fermerà, e l’intera cosa crollerà e ci resettterà”.
La sua visione non si è ancora concretizzata. Goldberg ha iniziato la copertura di Nvidia (NVDA) il 30 aprile, e il titolo è salito di oltre il 70% da allora, superando l’indice Philadelphia Stock Exchange Semiconductor e alcune delle aziende su cui ha rating di acquisto, inclusa Arm Holdings (ARM). E le chiamate bullish continuano ad arrivare anche mentre il chiacchiericcio tra gli investitori su una bolla dell’IA si fa più forte. Il target price medio degli analisti è salito costantemente e ora si attesta a 220 dollari, implicando un upside dell’18% rispetto al prezzo di chiusura di Nvidia (NVDA) di venerdì a 186,26 dollari.
Il caso bullish
“È ancora presto nella fase di investimento”, ha detto Moon Surana, portfolio manager di Harding Loevner LP, che detiene azioni Nvidia (NVDA). “Non ci sono segni di sovracapacità. Non ci sono GPU ferme”.
Il più grande toro di Nvidia (NVDA) è Frank Lee di HSBC, l’analista che la scorsa settimana ha alzato il suo rating da hold ad acquisto con un target price di 320 dollari. Vede il mercato per gli acceleratori IA crescere significativamente mentre la domanda si sposta oltre i clienti più grandi di Nvidia (NVDA), una visione supportata da recenti accordi nel mercato privato.
Il target price di Nvidia di Seaport non si è mosso dall’aprile

Fonte: Bloomberg
Tuttavia, il livello di domanda che Lee vede significherebbe che Nvidia (NVDA) è sostanzialmente esaurita per i suoi chip di elaborazione IA. Questo ha portato Goldberg a interrogarsi su da dove possa provenire un ulteriore upside. Il suo target price rimane a 100 dollari, di gran lunga il più basso in assoluto.
Detto questo, Goldberg è rapido nell’esprimere la sua ammirazione per Nvidia (NVDA) e la leadership del CEO Jensen Huang. Nella sua visione, il rating di vendita significa che il titolo sottoperformerà i suoi peer come Broadcom (AVGO), Qualcomm (QCOM) e Advanced Micro Devices (AMD), non che gli investitori dovrebbero shortarlo.
Preoccupazioni elettriche
“Non ci sono molti fattori swing sull’upside”, ha detto.
Per prima cosa, non è ancora chiaro da dove proverrà tutta l’elettricità incrementale necessaria per alimentare i nuovi data center, secondo Goldberg. Inoltre, c’è molta leva che si sta accumulando intorno al loro sviluppo.
“Una volta che tracci dove vanno tutte queste GPU, entri nei dettagli dei neocloud e di tutti questi accordi su elettricità e proprietà che stanno avvenendo”, ha detto. “È facile vedere come un’azienda oscura possa fallire e questo si propaghi lungo il resto della catena di fornitura”.
Come promemoria di quanto velocemente l’industria evolve, l’ufficio di Goldberg presenta una pila di scaffali pieni di reliquie tech. Ci sono decine di telefoni cellulari che tracciano l’evoluzione del dispositivo dalla novità degli anni ’80 all’ubiquità dell’attuale decennio. C’è anche una videocamera e un vecchio server sviluppato da Qualcomm (QCOM) ma mai arrivato sul mercato.
Mentre non c’è uno spazio sullo scaffale riservato a uno dei chip Blackwell di Nvidia (NVDA) che stanno alimentando la generazione attuale di innovazione IA, è ragionevole assumere che un giorno anche esso sarà considerato un pezzo di storia.
L’ufficio di Goldberg presenta uno scaffale di reliquie tech.

Anche a Wall Street, tra i bullish, c’è una preoccupazione crescente che l’entusiasmo per l’IA abbia raggiunto un punto di rottura, con la natura circolare del finanziamento degli accordi sotto particolare scrutinio. Il CEO di Goldman Sachs David Solomon ha recentemente paragonato questo all’euforia dot-com. Alcuni money manager si stanno posizionando per un allontanamento dai big tech. E una quota record di gestori di fondi globali vede una bolla nelle azioni IA, secondo l’ultimo sondaggio di Bank of America. Anche il CEO di OpenAI Sam Altman ha detto “sì” quando gli è stato chiesto se c’è una bolla dell’IA.
Tutto ciò aiuta a dare a Goldberg il coraggio di attenersi alle sue convinzioni.
“Pensavo davvero che avrei dovuto combattere questo ogni singolo giorno”, ha detto Goldberg del suo rating di vendita. “Ma non ho avuto una sola persona che mi ha contraddetto sull’argomento. Ho persone che dicono che sono troppo in anticipo, che i tempi duri arriveranno dopo, o persino troppo tardi, dato che ha sottoperformato l’anno scorso. Ma nessuno ha detto che sono un matto, o che questa è la cosa più stupida che abbiano mai sentito. Penso che lo vediamo tutti, che c’è qualcosa di esuberante nell’IA, e che mentre Nvidia (NVDA) è un’ottima azienda, non è immortale”.
— Con l’assistenza di Ian King
19/10/25 CNBC: I cavi viola da 500 dollari collocano questa azienda poco conosciuta al centro del boom dell’IA
By Kif Leswing
Punti Salienti:
- Credo, che produce cavi e chip per collegare computer per l’IA, ha visto il prezzo delle sue azioni raddoppiare nel 2025, dopo un aumento del 245% nel 2024.
- I cavi viola di Credo, che costano tra 300 e 500 dollari, sono utilizzati in molti data center per l’IA, con una domanda in forte crescita.
- Il mercato dei cavi elettrici attivi (AEC) di Credo potrebbe raggiungere i 4 miliardi di dollari entro il 2028, secondo gli analisti di JPMorgan Chase.
- L’azienda beneficia dell’espansione delle infrastrutture per l’IA, ma un rallentamento della spesa da parte dei grandi cloud provider potrebbe rappresentare un rischio.
A luglio, Elon Musk ha pubblicato foto dell’interno di un data center di xAI chiamato Colossus 2, che la startup di intelligenza artificiale punta a trasformare in una gigantesca struttura di supercomputing a Memphis, Tennessee.

Le immagini di Musk, pubblicate sul suo feed X, non mostravano i costosi rack di Nvidia pieni di potenti unità di elaborazione grafica. Piuttosto, si concentravano sui cavi dietro i server, inclusa un’immagine con migliaia di cavi viola ordinatamente organizzati che collegavano i computer tra loro.
Quei cavi viola sono l’offerta distintiva di Credo, un’azienda di semiconduttori della Silicon Valley con 17 anni di storia, il cui nome raramente viene menzionato insieme ai leader del boom dell’IA.
Ma Wall Street ha preso nota.
Le azioni di Credo sono più che raddoppiate quest’anno, raggiungendo i 143,61 dollari dopo un aumento del 245% nel 2024. La capitalizzazione di mercato dell’azienda, che era di circa 1,4 miliardi di dollari al momento della sua IPO nel 2022, ora si avvicina ai 25 miliardi di dollari. Credo si sta posizionando come un fornitore chiave nell’espansione delle infrastrutture per l’IA da trilioni di dollari e sta beneficiando del flusso di denaro verso il basso.
Le azioni sono salite del 5% venerdì dopo che gli analisti di JPMorgan Chase hanno avviato la copertura con l’equivalente di un rating di acquisto e un prezzo obiettivo di 165 dollari. Hanno detto che il mercato dei cavi elettrici attivi (AEC), di cui Credo è pioniere, è sulla buona strada per raggiungere i 4 miliardi di dollari entro il 2028, mentre i principali hyperscaler investono nell’espansione dei data center.
“La prospettiva del settore è supportata da un aumento delle implementazioni da parte di grandi aziende come Amazon, Microsoft e xAI, oltre a un’adozione più ampia, inclusa Meta e altre,” hanno scritto gli analisti. Prevedono una crescita annuale dei ricavi per Credo di almeno il 50% fino al 2028.
I ricavi nell’anno fiscale 2025, terminato all’inizio di maggio, sono più che raddoppiati a 436,8 milioni di dollari. L’azienda è anche diventata redditizia, registrando un utile netto di 52,2 milioni di dollari dopo una perdita di 28,4 milioni di dollari l’anno precedente. Gli analisti si aspettano che le vendite raddoppino nuovamente nell’anno fiscale 2026, raggiungendo quasi 1 miliardo di dollari, secondo LSEG.
I cavi AEC viola di Credo costano tra 300 e 500 dollari ciascuno, a seconda degli sconti per volumi e altre negoziazioni, secondo una stima del 650 Group, un ricercatore del settore. Sono cavi in rame robusti, moderatamente spessi, avvolti in una copertura intrecciata con grandi connettori contenenti chip su entrambi i lati.
Molta dell’eccitazione intorno a Credo è guidata dal boom dell’IA, che finora è stato trainato da una manciata di hyperscaler che stanno rapidamente costruendo data center per carichi di lavoro futuri previsti. Gli analisti prevedono 1 trilione di dollari di spesa per i data center per l’IA entro il 2030, ma qualsiasi riduzione da parte dei principali fornitori di cloud o un ridimensionamento dei piani di OpenAI potrebbe danneggiare molti fornitori, inclusa Credo.
Per ora, le proiezioni sono fortemente al rialzo.
Opportunità in espansione
I server precedenti avevano tipicamente uno o due processori su una scheda madre. I server odierni possono averne fino a otto, e i modelli di IA più potenti richiedono potenzialmente milioni di GPU che lavorano insieme come un unico sistema.
Ogni GPU necessita di una propria connessione allo switch, il termine per un computer che instrada i dati all’interno del cluster, spesso montato in cima a un rack di server.
I prodotti più recenti di Nvidia combinano diverse schede per formare un sistema con 72 GPU. I rack più veloci dell’anno prossimo avranno il doppio delle GPU, e l’anno successivo, un rack Kyber avrà 572 GPU, secondo Nvidia.
“In passato, l’opportunità di Credo era un cavo per server, ma ora l’opportunità di Credo è di nove cavi per server,” ha detto Alan Weckel, analista del 650 Group. Estima che Credo abbia l’88% del mercato degli AEC, che sono prodotti anche da Astera Labs e Marvell.
Molte GPU sono collegate da cavi in fibra ottica alimentati da componenti realizzati da aziende come Broadcom e Coherent. Gli AEC offrono un’alternativa ai cavi in fibra ottica. Hanno chip chiamati processori di segnale digitale su entrambi i lati che utilizzano algoritmi sofisticati per estrarre dati dal cavo, consentendo lunghezze molto maggiori rispetto ai cavi in rame tradizionali. L’AEC più lungo di Credo è di sette metri.
Il CEO di Credo, Bill Brennan, che ha joined l’azienda nel 2013, ha detto a CNBC che gli hyperscaler scelgono i cavi della sua azienda perché sono più affidabili dei cavi in fibra ottica. Ha detto che i clienti cercano di evitare quello che viene chiamato un “link flap”, ovvero quando una parte di un cluster di IA va offline perché il cavo ottico che lo collega fallisce, costando ore di tempo prezioso delle GPU.
“Può letteralmente spegnere un intero data center,” ha detto Brennan.
Ha detto che Credo sta lavorando sempre più con gli hyperscaler nelle prime fasi di pianificazione di grandi cluster di IA, specialmente perché alcuni design diventano più densi, consentendo a più server di essere collegati con cavi più corti.
“Quando ti connetti con questi hyperscaler, i numeri sono molto grandi,” ha detto Brennan.
L’azienda non nomina i suoi clienti hyperscaler, ma gli analisti hanno citato Amazon e Microsoft come clienti. Il CEO di Amazon Web Services, Matt Garman, ha pubblicato un’immagine su LinkedIn dei rack di chip per l’IA Trainium dell’azienda venerdì, che sembrava mostrare i cavi viola di Credo.
Credo dice di aspettarsi che tre o quattro clienti rappresentino più del 10% dei ricavi ciascuno nei prossimi trimestri, inclusi due nuovi clienti hyperscale quest’anno.
Amazon e Microsoft hanno rifiutato di commentare. Meta e xAI non hanno risposto alle richieste di commento.
A una conferenza per professionisti dei data center a San Jose questa settimana, Credo ha presentato insieme a un rappresentante di Oracle Cloud. Un rack di esempio di GPU Nvidia progettato da Meta esposto alla fiera mostrava in modo prominente i cavi viola di Credo.
“Ogni volta che vedi un nuovo annuncio di un data center da un gigawatt, puoi stare certo che lo vediamo come un’opportunità,” ha detto Brennan agli investitori durante una chiamata sugli utili a settembre.
È un mercato che tutti nel networking per l’IA stanno puntando.
Gli analisti di TD Cowen hanno stimato all’inizio di questo mese che il mercato dei chip per il networking per l’IA potrebbe valere 75 miliardi di dollari all’anno entro il 2030. I principali attori includono Nvidia e Advanced Micro Devices, che hanno entrambe le loro attività di networking e il potere di dettare quali tecnologie fanno parte dei loro sistemi più ampi.
Domanda insaziabile
Credo è stata fondata nel 2008 da un gruppo di ex ingegneri di Marvell, che hanno sviluppato chip per una tecnologia relativamente oscura chiamata SerDes, utilizzata per connessioni ad alta velocità tra chip.
Il compito di Brennan, quando è entrato in azienda nel 2013, era commercializzare la tecnologia. L’azienda ha raccolto il suo primo round di finanziamenti di venture capital nel 2015 da investitori tra cui Walden International, gestita da Lip-Bu Tan, ora CEO di Intel.
Il business degli AEC non è decollato fino al boom dell’IA nei primi anni 2020, perché i data center non avevano ancora bisogno della sua tecnologia, ha detto Brennan.
Tuttavia, c’era un entusiasmo iniziale nell’aria quando l’azienda automobilistica di Musk, Tesla, ha bussato alla porta nel 2017. Tesla voleva aiuto con il suo supercomputer per l’IA Dojo e aveva bisogno di chip con più banda di quella disponibile all’epoca.
Ora, Credo spera di utilizzare la sua posizione con i cavi in rame attivi per espandersi in altre linee di prodotti, incluse connessioni intra-rack, o ciò che viene chiamato networking di “scale-up”. L’azienda ha annunciato nuovi ricetrasmettitori e software per cavi ottici questa settimana.
“Hai una trazione di mercato come non l’abbiamo mai avuta prima,” ha detto Brennan. “Se potessi consegnare la prossima generazione ora, verrebbe consumata. La generazione successiva, verrebbe consumata. Hai questa domanda insaziabile dal mondo dei cluster per l’IA.”
17/10/25 Bloomberg: Le vendite del produttore di chip per l’IA Cambricon aumentano di 14 volte con l’esclusione di Nvidia
By Rachel Yeo
Punti Salienti:
- Cambricon Technologies Corp. ha registrato un aumento di 14 volte dei ricavi trimestrali, evidenziando come i produttori di chip cinesi stiano beneficiando della spinta nazionale a sostituire le tecnologie di Nvidia Corp. soggette a restrizioni.
- L’azienda ha riportato un profitto netto di 567 milioni di yuan ($79,6 milioni) nel trimestre di settembre, rispetto a una perdita netta di 194 milioni di yuan l’anno precedente.
- Le azioni di Cambricon sono circa raddoppiate di valore da luglio, nonostante un calo di oltre il 20% dal picco di agosto a causa di timori su valutazioni tecnologiche elevate.
- Cambricon prevede ricavi annuali tra 5 e 7 miliardi di yuan, rispetto a 1,2 miliardi di yuan dell’anno scorso.
Cambricon Technologies Corp. ha riportato un aumento di 14 volte dei ricavi trimestrali, uno dei segnali più evidenti di come i produttori di chip cinesi stiano beneficiando della spinta nazionale a sostituire le attrezzature di Nvidia Corp. soggette a restrizioni durante il boom dello sviluppo dell’IA in Cina.
L’azienda, che compete con Nvidia e il leader cinese Huawei Technologies Co., è passata a un profitto netto di 567 milioni di yuan ($79,6 milioni) nel trimestre di settembre, rispetto a una perdita netta di 194 milioni di yuan l’anno precedente, secondo una comunicazione alla Borsa di Shanghai. Questo su un fatturato di 1,73 miliardi di yuan.

Soprannominata “la Nvidia della Cina” dagli investitori al dettaglio, Cambricon è una delle poche aziende tecnologiche cinesi che si sono distinte, in parte grazie alle sanzioni tecnologiche degli Stati Uniti. Da Alibaba Group Holding Ltd. a DeepSeek, gli sviluppatori di intelligenza artificiale del paese si affidano sempre più a alternative locali agli acceleratori di Nvidia, essenziali per l’addestramento dell’IA, molti dei quali rimangono inaccessibili. Ciò mentre Pechino scoraggia le aziende del paese dall’adottare opzioni disponibili come l’H20.
Le azioni di Cambricon sono circa raddoppiate di valore da luglio, anche dopo un sell-off di oltre il 20% dal picco di agosto, guidato da preoccupazioni per valutazioni tecnologiche elevate e un potenziale bubble dell’IA, rispecchiando la cautela nei mercati statunitensi.
L’azienda ad agosto ha previsto ricavi annuali compresi tra 5 miliardi e 7 miliardi di yuan, rispetto a 1,2 miliardi di yuan di vendite l’anno scorso.
— Con il contributo di Lianting Tu, Jessica Sui e Foster Wong
17/10/25 Briefing.com: Micron mantiene la stabilità mentre il produttore di chip pianifica l’uscita dal mercato dei server in Cina, concentrandosi sulla crescente domanda di memorie per l’IA
By Briefing.com
Le azioni di Micron (MU) tengono bene nonostante un rapporto di Reuters secondo cui l’azienda prevede di uscire dal business dei chip per server in Cina a seguito di un’accresciuta pressione regolatoria da parte di Pechino. Gli investitori sembrano fiduciosi che Micron possa compensare le vendite perse nel mercato dei data center in Cina grazie alla forte domanda da parte degli hyperscaler statunitensi e a una ripresa della domanda di memorie legate agli smartphone.
Micron continuerà a vendere a due clienti cinesi con importanti operazioni di data center al di fuori della Cina continentale, inclusa Lenovo. Manterrà inoltre le vendite ai clienti nei settori automobilistico e dei telefoni cellulari in Cina.
Nell’anno fiscale 2024, Micron ha generato circa $3,4 miliardi di ricavi dalla Cina continentale, pari a circa il 12% del fatturato totale.
L’annuncio dell’uscita arriva sulla scia degli eccellenti risultati del quarto trimestre 2025 di Micron, riportati il 24 settembre, che hanno incluso un significativo superamento delle aspettative sugli utili per azione e una guidance positiva per il primo trimestre 2026.
La crescita continua a essere alimentata dalla crescente domanda di chip HBM (memorie ad alta larghezza di banda), che hanno portato a un aumento del 214% dei ricavi dell’unità Cloud Memory nell’ultimo trimestre.
I prezzi delle DRAM rimangono elevati a causa di persistenti vincoli di offerta e una forte domanda, contribuendo a incrementare il margine lordo del quarto trimestre di 670 punti base, raggiungendo il 45,7%.
Analisi di Briefing.com:
Sebbene la decisione di uscire dal business dei chip per server in Cina sottolinei le sfide geopolitiche e regolatorie affrontate dai produttori di chip statunitensi, la posizione strategica di Micron nelle soluzioni di memoria legate all’IA le fornisce un potente motore di crescita compensativo. Le vendite in forte espansione di HBM e il crescente potere di determinazione dei prezzi su DRAM e NAND probabilmente ammortizzeranno qualsiasi perdita di ricavi a breve termine legata alla Cina. Questa mossa potrebbe persino razionalizzare le operazioni e ridurre l’esposizione al rischio di azioni politiche imprevedibili. Gli investitori stanno giustamente concentrandosi sul ruolo dominante di Micron nel ciclo della memoria guidato dall’IA, che sembra essere nelle sue fasi iniziali. Con margini in espansione e un contesto di domanda favorevole, la resilienza del titolo oggi appare ben giustificata.
15/10/25 Briefing.com: ASML in Rialzo sui Risultati del Terzo Trimestre, Visibilità Migliorata e Domanda Trainata dall’IA Segnalano un Outlook più Stabile
By Briefing.com
Punti Salienti:
- ASML registra un aumento dopo i risultati del terzo trimestre, con un utile per azione superiore alle attese, ma ricavi in crescita solo dello 0,7% su base annua a 7,52 miliardi di euro, sotto le aspettative.
- La guidance per i ricavi del quarto trimestre (9,2-9,8 miliardi di euro) supera il consenso, e l’azienda conferma un obiettivo di crescita dei ricavi per il 2025 di circa il 15%, pari a circa 32,5 miliardi di euro.
- La domanda trainata dall’IA e l’adozione di strati EUV continuano a sostenere la crescita, anche se le vendite ai clienti cinesi sono previste in forte calo nel 2026 rispetto al 2024 e 2025.
- Il margine lordo del 51,6% ha supportato l’utile per azione nonostante il mancato raggiungimento dei ricavi; ASML prevede margini del 51-53% nel quarto trimestre e circa il 52% per il 2025.
ASML è in rialzo dopo aver riportato i risultati del terzo trimestre questa mattina. Il gigante delle attrezzature per semiconduttori, un punto focale del boom degli investimenti in capitale trainato dall’IA, ha registrato un superamento degli utili per azione più modesto rispetto ai trimestri precedenti, mentre i ricavi sono aumentati solo dello 0,7% su base annua a 7,52 miliardi di euro, mancando le aspettative. Incoraggiantemente, il punto medio della guidance per i ricavi del quarto trimestre di ASML, compresa tra 9,2 e 9,8 miliardi di euro, si colloca ben al di sopra del consenso, e il management ha confermato il proprio obiettivo di crescita dei ricavi per il 2025 di circa il 15%, pari a circa 32,5 miliardi di euro.
Il management ha notato una visibilità migliorata questo trimestre rispetto al secondo, citando gli investimenti continui nelle infrastrutture per l’IA e un più ampio slancio dei clienti sia nel settore della logica che nella DRAM avanzata, insieme alla continua adozione di più strati EUV che aumentano l’intensità della litografia.
D’altra parte, prevede che la domanda e le vendite dei clienti cinesi diminuiranno significativamente nel 2026 rispetto al 2024 e al 2025.
Le vendite nette di sistemi sono state guidate dalla logica (65%) e dalla memoria (35%), con gli ordini di logica supportati dalle transizioni verso nodi all’avanguardia e la forza della memoria legata alla domanda di DRAM avanzata e HBM.
Gli ordini hanno totalizzato 5,4 miliardi di euro, suddivisi al 53% in logica e al 47% in memoria, inclusi 3,6 miliardi di euro in sistemi EUV, poiché i clienti continuano a passare dal multi-patterning all’esposizione EUV singola.
Il margine lordo del 51,6% è stato forte e ha contribuito a guidare il superamento degli utili per azione nonostante il mancato raggiungimento dei ricavi; ASML prevede margini del 51-53% nel quarto trimestre e circa il 52% per il 2025.
Ha spedito il suo primo strumento di litografia per il packaging 3D (XT:260) ed ha evidenziato progressi con la sua piattaforma EUV ad alta NA.
Analisi di Briefing.com
Questo è stato un buon trimestre per ASML e un bel recupero dal secondo trimestre dopo aver segnalato esitazioni e incertezze da parte dei clienti. Il tono è stato notevolmente più ottimista, con il management che ha indicato progressi costanti nelle costruzioni legate all’IA per la logica e la DRAM e un continuo spostamento verso una maggiore adozione di strati EUV. Il rischio rimane geopolitico, con le vendite in Cina previste significativamente più basse nel 2026, anche se la forte guidance per il quarto trimestre e l’outlook confermato per il 2025 suggeriscono una solida conclusione dell’anno. L’aspettativa che il 2026 non scenderà sotto il 2025 indica anche un ambiente di domanda più stabile verso il prossimo ciclo.
07/10/25 CNBC: Il CEO di Cerebras spiega il ritiro dell’IPO, dice che il produttore di chip AI intende ancora quotarsi
CONDIVIDERECondividi l’articolo tramite FacebookCondividi l’articolo tramite TwitterCondividi l’articolo tramite LinkedInCondividi l’articolo via email
PUNTI CHIAVE
- Cerebras ha ritirato il suo deposito per un’IPO perché vuole uscire con informazioni finanziarie e strategiche aggiornate, ha detto il CEO Andrew Feldman in un post su LinkedIn.
- Alcuni dei nuovi investitori della società non sono stati menzionati nel deposito dell’anno scorso, ha detto.

Il CEO di Cerebras Andrew Feldman parla ai media presso l’ufficio Colovore a Santa Clara, in California, il 12 marzo 2024.
Il Washington Post | Getty Images
Il CEO di Cerebras Andrew Feldman ha ammesso che il suo produttore di chip di intelligenza artificiale ha commesso un errore la scorsa settimana quando non ha spiegato immediatamente la sua decisione di ritirare la sua registrazione per un’offerta pubblica iniziale.
In un post su LinkedIn domenica tardi, Feldman ha scritto che la società vuole ancora diventare pubblica, ma è cambiata in modo significativo dal suo deposito iniziale un anno fa. Cerebras vuole rivedere parti del suo prospetto prima di vendere azioni al pubblico.
“Dato che l’attività è migliorata in modo significativo, abbiamo deciso di ritirarci in modo da poter presentare nuovamente i dati finanziari aggiornati, le informazioni strategiche, incluso il nostro approccio a questo [sic] panorama dell’IA in rapida evoluzione”, ha scritto Feldman.
Giorni prima di presentare il suo avviso di recesso venerdì, Cerebras ha annunciato un round di finanziamento di 1,1 miliardi di dollari con una valutazione di 8,1 miliardi di dollari. Alcuni degli investitori nel nuovo round, tra cui Tiger Global e 1789 Capital, di cui Donald Trump Jr. è un partner, non sono stati nominati nel deposito del 2024, ha aggiunto.
“Abbiamo fatto questa chiamata perché è nel migliore interesse dei nostri investitori, partner e team – e consentirà ai potenziali investitori di comprendere meglio il valore dell’attività quando entreremo nei mercati pubblici”, ha scritto Feldman, senza fornire una tempistica per un nuovo deposito.
Nel suo prospetto, Cerebras si è caratterizzata come un’azienda che produce chip su larga scala per la formazione e l’esecuzione di modelli di intelligenza artificiale. Quest’anno l’azienda ha aggiunto attività cloud in quanto gestisce data center in grado di gestire le richieste in arrivo dai modelli di intelligenza artificiale.
Ciò che è rimasto è l’insistenza di Cerebras sul fatto che il suo hardware supera le unità di elaborazione grafica, o GPU, un mercato cheNvidiadomina ma doveMicro dispositivi avanzatista cercando di recuperare il ritardo. AMD ha detto lunedì che OpenAI si è impegnata a distribuire fino a 6 gigawatt dei processori AI dell’azienda e potrebbe finire per possedere il 10% del produttore di chip.
06/10/25 Bloomberg: AMD firma un accordo storico con OpenAI che scatena un rally esplosivo.
By Ian King
Punti Salienti:
- Advanced Micro Devices (AMD) sigla un accordo multimiliardario con OpenAI per la costruzione di infrastrutture di intelligenza artificiale, sfidando Nvidia (NVDA) nel settore del calcolo AI.
- OpenAI utilizzerà 6 gigawatt di GPU AMD nel corso di più anni e potrà acquistare fino a 160 milioni di azioni AMD a un centesimo ciascuna, pari a circa il 10% del capitale.
- Il titolo AMD è salito fino al +38%, il maggiore rialzo in quasi un decennio, mentre Nvidia è scesa fino al 2,3%.
- L’accordo potrebbe generare decine di miliardi di dollari di ricavi per AMD e rafforzarne il ruolo come principale alternativa a Nvidia nel mercato AI.
Advanced Micro Devices Inc. (AMD) ha concluso un accordo di portata storica con OpenAI per la costruzione di infrastrutture di intelligenza artificiale, offrendo al produttore di chip l’opportunità di dimostrare di poter competere con Nvidia Corp. nel campo del calcolo AI.
Le azioni di AMD sono balzate fino al 38% dopo l’annuncio, segnando il maggiore rally intraday in quasi dieci anni.
In base all’accordo, OpenAI dispiegherà GPU AMD per un totale di 6 gigawatt nel corso di più anni, circa la metà rispetto al recente contratto siglato con Nvidia. L’intesa prevede inoltre la possibilità per OpenAI di acquisire una partecipazione significativa nel capitale di AMD.
Si tratta di una prova ad alto rischio per AMD, che potrebbe generare decine di miliardi di dollari di nuovi ricavi e consolidare la sua reputazione come concorrente credibile nella tecnologia AI. Tuttavia, l’accordo lega ancora di più la prosperità di AMD a un mercato dell’intelligenza artificiale che alcuni analisti ritengono in bolla.
“È sicuramente il più grande dispiegamento che abbiamo annunciato finora,” ha dichiarato la CEO Lisa Su in un’intervista a Bloomberg Television. “Ora iniziamo una fase di espansione massiccia. È un grande passo per noi, per i nostri azionisti e per i nostri team.”
Come parte dell’accordo, OpenAI potrà acquistare fino a 160 milioni di azioni AMD al prezzo simbolico di un centesimo ciascuna, subordinatamente al raggiungimento di specifici traguardi di progetto — pari a circa il 10% del capitale attuale. Gli obiettivi richiedono che il prezzo dell’azione AMD continui a crescere: il livello finale è fissato a 600 dollari per azione, rispetto ai 164,67 dollari della chiusura di venerdì.
“Volevamo essere certi che OpenAI avesse un incentivo diretto al successo di AMD,” ha aggiunto Su in una call con gli analisti. “Più OpenAI dispiega la nostra tecnologia, più aumentano i nostri ricavi, e loro partecipano ai benefici.”
Le azioni AMD hanno toccato i 226,71 dollari a New York, mentre Nvidia è scesa fino al 2,3%. L’accordo rappresenta l’ultimo di una serie di grandi contratti per data center siglati da OpenAI, che continua a espandere la propria capacità di calcolo in risposta alla crescente domanda di strumenti di intelligenza artificiale.
Nel settembre scorso, Nvidia aveva annunciato un investimento fino a 100 miliardi di dollari per costruire con OpenAI infrastrutture AI e nuovi data center con una capacità di almeno 10 gigawatt, equivalente al picco di consumo elettrico di New York City.
Resta incerto come OpenAI finanzierà i costi enormi legati a chip e data center per sistemi AI sempre più avanzati. Due mesi fa, il CEO Sam Altman aveva dichiarato di voler investire “trilioni” in infrastrutture, e che la società sta lavorando a una “nuova forma” di strumento finanziario per sostenerne i costi, senza fornire ulteriori dettagli.
Nel frattempo, cresce il timore che il settore AI possa ripercorrere la bolla dot-com degli anni ’90, conclusasi con un crollo e numerosi fallimenti. Le preoccupazioni aumentano man mano che i mega-accordi per chip e data center si moltiplicano a livello globale, finanziati da venture capital, debito e strumenti sempre più complessi che stanno attirando l’attenzione di Wall Street.
Per AMD, l’accordo mantiene le sue tecnologie nel cuore delle grandi espansioni AI, anche se resta ancora molto indietro rispetto a Nvidia nel mercato dei processori “acceleratori”. I ricavi di AMD in questo segmento sono stimati a 6,55 miliardi di dollari per quest’anno, ma la collaborazione con OpenAI dovrebbe farli crescere già dal prossimo anno e accelerare nel 2027, fino a superare i 100 miliardi di dollari, secondo i dirigenti dell’azienda.
Non è ancora chiaro quale sarà il ritmo dei dispiegamenti previsti da OpenAI. Su ha precisato che l’obiettivo è iniziare “il prima possibile” e che la struttura dei warrant azionari è impostata su cinque anni, fino al 5 ottobre 2030.
La collaborazione potrebbe aiutare OpenAI a ridurre la dipendenza dalla tecnologia di Nvidia, il cui business data center da solo genera più ricavi di qualsiasi altro produttore di chip nel complesso. Nell’ultimo anno fiscale, la divisione ha raddoppiato le vendite a 115 miliardi di dollari, con una crescita simile prevista anche per l’anno in corso.
Intervenendo a Bloomberg Television, il presidente di OpenAI Greg Brockman ha dichiarato che la società sta valutando diverse opzioni di finanziamento, tra cui debito e capitale proprio. “La quantità di potenza di calcolo necessaria per l’AI è largamente sottovalutata. Senza più infrastruttura, siamo limitati nelle nuove funzionalità che possiamo lanciare.”
“Stiamo valutando azioni, debito e tutti i modi possibili per finanziare questo piano. I ricavi arriveranno.”
Nel frattempo, la CFO Jean Hu ha dichiarato che l’accordo con OpenAI sarà “fortemente accrescitivo per l’utile per azione”, con potenziali ricavi per AMD nell’ordine delle decine di miliardi di dollari.
Sotto l’accordo, i warrant azionari di OpenAI matureranno al raggiungimento del primo gigawatt di capacità installata, il cui dispiegamento inizierà nella seconda metà del prossimo anno, utilizzando le GPU AMD Instinct MI450. Ulteriori tranche matureranno con l’espansione delle infrastrutture.
Nvidia, oggi la società quotata più grande al mondo, ha di fatto creato il mercato delle GPU per AI, aggiungendo software e apparecchiature di rete per consolidare la dipendenza del settore dalla propria piattaforma. AMD, dal canto suo, sta rapidamente ampliando le proprie capacità per offrire una gamma comparabile e conquistare una quota maggiore del “mega mercato” AI.
“Questo è un mercato enorme,” ha concluso Lisa Su su Bloomberg TV. “Adoriamo lavorare con OpenAI, ma collaboriamo anche con molti altri clienti.”
— Con il contributo di Shirin Ghaffary, Amy Thomson, Lynn Doan, Caroline Hyde e Edward Ludlow
06/10/25 Briefing.com: Il titolo AMD decolla grazie alla partnership con OpenAI e a un accordo da 6 GW in chip IA per sfidare Nvidia
By Briefing.com Staff
Punti Salienti:
- AMD (AMD) stringe una partnership strategica con OpenAI per lo sviluppo di infrastrutture IA di nuova generazione, alimentate da GPU AMD Instinct.
- L’accordo prevede un impegno complessivo di 6 gigawatt, con la prima fase da 1 GW basata sulla serie Instinct MI450 nel secondo semestre 2026.
- AMD emette un warrant per 160 milioni di azioni ordinarie a favore di OpenAI, che maturerà progressivamente al raggiungimento delle varie tappe operative.
- Il titolo AMD vola (+44,06 a 208,73), mentre Nvidia (NVDA) registra un leggero calo per i timori di maggiore concorrenza e pressione sui prezzi nel mercato IA.
AMD sta registrando un forte rialzo dopo aver annunciato una partnership di ampia portata con OpenAI per la costruzione di infrastrutture di intelligenza artificiale. L’accordo comprende un impegno di 6 gigawatt di potenza per alimentare i sistemi IA di prossima generazione di OpenAI, utilizzando più generazioni di GPU AMD Instinct, a partire dalla serie MI450.
La prima distribuzione da 1 gigawatt di GPU Instinct MI450 inizierà nella seconda metà del 2026. AMD prevede che l’accordo sarà fortemente accrescitivo per l’utile per azione rettificato.
È previsto anche un importante componente azionario: AMD ha emesso a favore di OpenAI un warrant per un massimo di 160 milioni di azioni ordinarie AMD. Il warrant maturerà per tranche in base al raggiungimento dei traguardi di implementazione, a partire dal rollout da 1 GW.
Perché è importante: Si tratta di un momento di svolta per AMD. Sebbene Nvidia rimanga il leader nel settore dei chip per l’intelligenza artificiale, questo accordo rappresenta un forte riconoscimento delle capacità di AMD nel calcolo ad alte prestazioni. L’intesa posiziona AMD come un’alternativa credibile per hyperscaler e aziende che desiderano diversificare la catena di fornitura oltre Nvidia — potenzialmente ridefinendo le strategie di approvvigionamento di infrastrutture IA.
Le azioni Nvidia sono in lieve calo alla notizia, riflettendo preoccupazioni per una maggiore concorrenza e possibili pressioni sui prezzi nel comparto IA.
Analisi di Briefing.com: Questo è il tipo di vittoria strategica che gli investitori rialzisti su AMD attendevano da tempo. La partnership con OpenAI non solo convalida la roadmap delle GPU AMD, ma eleva l’azienda al livello più alto tra i player dell’infrastruttura IA. Di particolare rilievo, la struttura del warrant allinea gli incentivi di OpenAI al successo di lungo periodo di AMD, e la portata dell’accordo — 6 gigawatt — è enorme.
Detto ciò, i rischi di esecuzione restano elevati, soprattutto considerando che la serie MI450 non entrerà in distribuzione fino alla seconda metà del 2026. Il movimento odierno del titolo è giustificato dal potenziale, ma la vera prova sarà la capacità di AMD di offrire prestazioni competitive, forniture adeguate e un ecosistema di supporto su larga scala. Per ora, questo accordo sposta la narrativa sull’IA da “Nvidia contro tutti” a qualcosa di molto più competitivo.
04/10/25 Wall Street Journal: L’unicorno AI Groq pianifica l’espansione dei data center
By Kimberley Kao
Punti Salienti:
- Groq, valutata 6,9 miliardi $, intende aprire oltre una dozzina di nuovi data center nel 2026.
- Attualmente ha 12 data center in USA, Canada, Medio Oriente ed Europa; il primo in Asia sarà inaugurato quest’anno.
- I chip di Groq, ottimizzati per l’“inference” AI, consumano meno energia rispetto alle GPU e si producono più rapidamente.
- La domanda, soprattutto in Arabia Saudita e India, supera già l’offerta, spingendo la società ad accelerare la produzione.
Corpo dell’articolo
L’unicorno AI Groq punta a stabilire più di una dozzina di data center il prossimo anno, ha dichiarato l’amministratore delegato Jonathan Ross, delineando i piani di espansione globale della startup.
Groq, con sede negli Stati Uniti, produce chip e software per l’esecuzione di modelli di intelligenza artificiale ed è stata recentemente valutata 6,9 miliardi di dollari.
Quest’anno la società ha già aperto 12 data center e l’obiettivo è superare questa cifra nel 2026, ha detto Ross, fondatore dell’azienda ed ex responsabile del programma di sviluppo chip AI di Google. *“Aspettatevi che [il numero] cresca rapidamente”*, ha aggiunto.
Groq dispone di centri in USA, Canada, Medio Oriente ed Europa e prevede di aprire il primo in Asia entro la fine dell’anno. Il continente è considerato cruciale: quasi la metà degli sviluppatori che utilizzano la tecnologia Groq proviene dall’Asia. *“Uno dei motivi del nostro successo nella regione, in particolare in India, è che è un mercato molto sensibile al prezzo”*, ha spiegato Ross.
Secondo l’azienda, il design dei suoi chip — con memoria integrata — consente una produzione e un deployment più rapidi e con minore consumo energetico rispetto alle GPU tradizionali. I chip di Groq sono dedicati esclusivamente all’“inference”, cioè l’esecuzione di modelli già addestrati per fare previsioni o analizzare nuovi dati, non alla fase di training.
Groq fa parte del gruppo di startup che stanno riprogettando i chip per rispondere all’aumento della domanda di inference e affrontare il problema energetico dell’AI. Le GPU consumano infatti molta energia, pur restando essenziali per l’addestramento dei modelli.
Un’altra sfida cruciale per Groq, come per i concorrenti, è produrre chip abbastanza velocemente per soddisfare la domanda. L’azienda ha già distribuito i suoi chip in Arabia Saudita, dove a inizio anno ha chiuso un accordo da 1,5 miliardi di dollari per l’espansione delle sue infrastrutture. Lì la richiesta sta già superando l’offerta, ha detto Ross. *“Ogni volta che cerchiamo di produrre di più, i clienti ci sorprendono richiedendo ancora più di quanto abbiamo costruito”*, ha aggiunto.
Con l’aumentare dell’interesse delle aziende per l’autosufficienza nell’AI, Ross prevede che molte proveranno a sviluppare chip proprietari, ma ritiene che le probabilità di successo siano basse. *“Il tasso di fallimento è probabilmente 9 su 10 o più, nonostante queste società spendano miliardi e miliardi di dollari”*, ha dichiarato.
Alla domanda se Groq abbia ricevuto offerte di acquisizione, Ross ha detto di non avere intenzione di vendere la società al momento e di non aver ceduto alcuna quota della propria partecipazione. *“Penso che sarebbe un po’ sciocco vendere adesso”*, ha concluso.
03/10/25 Bloomberg: La startup di chip AI Cerebras ritira la registrazione IPO
By Bailey Lipschultz
Punti Salienti:
- Cerebras Systems ha ritirato la documentazione per la sua IPO, più di un anno dopo aver annunciato pubblicamente i piani di quotazione.
- La società ha appena chiuso un round di finanziamento da 1,1 miliardi $, che la valuta 8,1 miliardi $, guidato da Fidelity e Atreides.
- Il ritiro avviene nonostante il mercato USA delle IPO tech stia vivendo un momento positivo, con diverse nuove quotate in rialzo oltre il 20%.
- Cerebras aveva già affrontato una revisione del CFIUS per i rapporti con la società emiratina G42, questioni dichiarate risolte a marzo 2025.
Cerebras Systems Inc. ha depositato il ritiro della documentazione per un’offerta pubblica iniziale, più di un anno dopo aver annunciato i piani di quotazione. La società, che gestisce data center e produce chip per l’intelligenza artificiale, ha dichiarato venerdì sera che non intende procedere con l’IPO descritta nelle pratiche, che non erano state ancora rese effettive.
Solo pochi giorni fa, Cerebras aveva chiuso un round di finanziamento da 1,1 miliardi di dollari, che la valuta complessivamente 8,1 miliardi $ inclusi i capitali raccolti. L’amministratore delegato Andrew Feldman aveva detto in quell’occasione che la raccolta non avrebbe avuto impatto sui piani di quotazione.
L’investimento rappresenta l’ultimo di una lunga serie di finanziamenti miliardari in infrastrutture AI, settore che l’industria tecnologica ritiene possa trasformare l’economia mondiale. Il round è arrivato in un momento in cui il mercato statunitense delle IPO è particolarmente attivo: società come Netskope Inc. e Figure Technology Solutions Inc. sono salite di oltre il 20% dal debutto.
Cerebras aveva già presentato domanda di quotazione nel settembre 2024, ma l’operazione non si era concretizzata. All’epoca la società aveva rivelato una revisione del CFIUS (Committee on Foreign Investment in the US) per i suoi rapporti con la società emiratina di AI G42. A marzo 2025, Cerebras aveva annunciato di aver risolto tutte le questioni aperte con il comitato.
L’ultimo round di finanziamento è stato guidato da Fidelity Management & Research Co. e Atreides Management LP. Tra gli altri investitori figurano Tiger Global, Valor Equity Partners e 1789 Capital — la società di venture capital dove Donald Trump Jr. è partner — oltre agli investitori già presenti Altimeter Capital Management e Benchmark.
— Con il contributo di Ian King
02/10/25 Financial Times: Per quanto tempo Nvidia potrà mantenere il vantaggio sulla concorrenza cinese?
By Eleanor Olcott e Zijing Wu
Punti Salienti:
- Nvidia affronta crescenti sfide in Cina a causa delle tensioni geopolitiche e delle restrizioni USA sull’esportazione dei suoi chip per l’IA.
- La Cina sta spingendo per alternative locali, con Huawei che guida lo sviluppo di chip IA e software per ridurre la dipendenza da Nvidia.
- Jensen Huang, CEO di Nvidia, sta cercando di preservare il mercato cinese, che rappresenta miliardi di dollari, attraverso un’intensa attività diplomatica.
- Nonostante le difficoltà, la Cina potrebbe presto sviluppare un ecosistema IA competitivo, minacciando la leadership globale di Nvidia.
Nel dicembre 2011, Jensen Huang salì sul palco di una conferenza per sviluppatori a Pechino con un annuncio il cui significato era allora poco compreso. Vestito con jeans e giacca nera, il co-fondatore di Nvidia dichiarò che la piattaforma di programmazione proprietaria dell’azienda, Cuda, sarebbe stata aggiornata, rendendo alcune parti open source e più accessibili agli sviluppatori. Per Huang, era una mossa strategica: conquistare gli ingegneri cinesi significava assicurarsi la loro fedeltà per decenni.
All’epoca, il business di Nvidia in Cina era in forte espansione. Il paese rappresentava il suo mercato più grande per fatturato, con un terzo delle vendite, grazie alla vasta comunità di gamer online e ai produttori di elettronica per l’export. Nello stesso anno, Nvidia aveva aperto un laboratorio di ricerca e sviluppo a Tianjin, una città nel nord-est, dopo aver installato un supercomputer in un laboratorio di ricerca sostenuto dal governo nella stessa città.
“Nel corso degli anni, la Cina è stata un mercato cruciale per Nvidia da padroneggiare, dominare, influenzare e con cui collaborare,” afferma Paul Triolo, partner di DGA-Albright Stonebridge Group. “Nvidia si è integrata in parti chiave dell’ecosistema software-hardware in Cina in modi che altre aziende occidentali non hanno fatto.”

Oggi, questa simbiosi è a rischio. Con i sistemi di intelligenza artificiale implementati su larga scala, che stanno rimodellando comunicazione, lavoro e persino i conflitti bellici, i chip di Nvidia sono diventati strumenti di negoziazione nella politica delle superpotenze. La loro importanza è tale che i processori di Nvidia sono ora all’ordine del giorno nei colloqui commerciali USA-Cina, insieme a dazi e accesso al mercato.
Di conseguenza, l’azienda è sotto intenso scrutinio. Washington vede lo sviluppo dell’IA cinese come una minaccia alla sicurezza nazionale e ha vietato l’esportazione dell’hardware più avanzato di Nvidia. Nel frattempo, Pechino ha ordinato alle sue aziende di smettere di acquistare i chip IA di Nvidia e di accelerare la transizione verso alternative locali.
Huang, nato a Taiwan e diventato una sorta di diplomatico globale dell’IA grazie alla portata di Nvidia, è in missione per salvare il suo business in Cina. Quest’anno ha visitato Pechino tre volte e Washington ancora di più, per fare pressione sui decisori politici. “La leadership tecnologica richiede grandi mercati,” ha detto ai giornalisti a Pechino a luglio, sostenendo che se Nvidia fosse esclusa dal mercato cinese, ciò accelererebbe lo sviluppo di rivali locali e farebbe “perdere” la leadership statunitense nell’IA.

Per la Cina, ridurre la dipendenza dai processori grafici (GPU) di Nvidia è un processo complesso. Tuttavia, analisti e insider del settore ritengono che, nonostante le difficoltà iniziali, l’industria IA cinese, con Huawei al centro, riuscirà a liberarsi dalla morsa di Nvidia. “È solo questione di tempo,” ha detto Huang. “Chiunque sottovaluti Huawei e le capacità manifatturiere cinesi è profondamente ingenuo.”
Huang ama sostenere che la Cina ospiti metà dei ricercatori IA del mondo. Mentre i ricercatori occidentali sono stati i primi a utilizzare le GPU di Nvidia per carichi di lavoro IA, è stata la Cina a impiegarle per prima nella commercializzazione di massa di sistemi IA avanzati. Huang ha dedicato decenni a costruire la presenza di Nvidia in Cina, perseverando dove molti altri leader tecnologici occidentali hanno vacillato. Per lui, perdere il mercato cinese e il suo pool di specialisti IA significherebbe molto più di miliardi di dollari in vendite perse: metterebbe a rischio l’ambizione di Nvidia di rimanere il campione indiscusso dei chip IA per decenni.
“Man mano che le aziende cinesi passeranno ai chip IA di Huawei, si creerà un intero ecosistema rivale supportato dal software e dall’hardware dell’azienda,” dice George Chen, partner di The Asia Group. “Questo potrebbe minacciare la posizione di Nvidia non solo in Cina, ma anche a livello globale se Huawei e altre aziende cinesi inizieranno a esportare la loro IA all’estero.”
La Cina è stata all’avanguardia in ogni ondata tecnologica abilitata dalle GPU di Nvidia. La sua scala ha amplificato le opportunità dell’azienda. Con la più grande popolazione di gamer al mondo, un vasto mercato automobilistico che abbraccia la guida autonoma e un crescente pool di ricercatori e sviluppatori IA, la Cina ha offerto a Nvidia un terreno fertile. Prima della repressione di Pechino iniziata nel 2017, il paese aveva la più grande base di minatori di criptovalute, tutti dipendenti dalle GPU per carichi di lavoro computazionalmente intensi.
Nvidia ha investito pesantemente in Cina, costruendo capacità ingegneristiche per soddisfare le richieste di accesso al mercato del governo, finanziando startup locali e coltivando la fedeltà degli sviluppatori attraverso hackathon e tornei di esports sponsorizzati. Ha aperto strutture di ricerca e sviluppo e venduto supercomputer alle università.
Rendendo una piccola parte di Cuda open source, Nvidia ha permesso agli sviluppatori, molti dei quali cinesi, di contribuire al suo sviluppo software, favorendo feedback e iterazioni che hanno reso l’hardware più facile da usare per l’addestramento e l’esecuzione di modelli linguistici di grandi dimensioni (LLM). Oggi, lo stack software proprietario Cuda è visto come uno strumento chiave per vincolare gli sviluppatori IA ai chip di Nvidia.
Le vendite delle GPU di Nvidia, originariamente progettate per la grafica dei videogiochi, iniziarono a crescere vertiginosamente. “L’industria del gaming in Cina è decollata alla fine degli anni 2000, con l’ascesa del gaming su PC, degli internet café e degli esports, creando una domanda esplosiva per le GPU di Nvidia,” afferma Chenyu Cui, analista senior di Omdia. Tra il 2009 e il 2010, i ricavi di Nvidia in Cina crebbero del 20%.
Successivamente, l’industria nascente delle criptovalute alimentò ulteriormente la domanda. All’inizio degli anni 2010, i minatori si riversarono sulle GPU di Nvidia per accelerare i calcoli necessari a generare token. Anche se i minatori di bitcoin iniziarono a sostituire le GPU con chip specializzati (Asic), la domanda continuò a crescere con Ethereum, lanciato nel 2015, che utilizzava algoritmi più complessi.
Per Nvidia, l’ondata delle criptovalute in Cina fu sia un’opportunità che un dilemma. Le vendite aumentarono, ma la volatilità dei prezzi delle monete creò problemi cronici di inventario. “La Cina era il mercato più grande di Nvidia allora a causa del mining,” ricorda un dirigente senior di un’azienda rivale in Cina. “Ma il mining è ciclico, quindi Nvidia ha avuto molti problemi di inventario. Il prezzo delle sue azioni era volatile.”
Nvidia cercò di limitare l’acquisto di GPU da parte dei minatori, chiedendo ai rivenditori di dare priorità ai gamer, ma emerse un fiorente mercato grigio. Nel vasto emporio elettronico di Huaqiangbei a Shenzhen, i rivenditori modificavano le GPU da gaming per aumentarne la memoria e le vendevano ai minatori. Queste competenze si rivelarono utili in seguito, quando le aziende tecnologiche cinesi cercarono di aggirare i divieti di esportazione americani.
Alla fine, un crollo delle criptovalute nel 2018, combinato con le restrizioni di Pechino sulle monete digitali, portò a una diminuzione della domanda da parte dei minatori. Tuttavia, le aziende IA colmarono presto il vuoto. Nel 2017, Pechino emise un piano d’azione per diventare una “superpotenza IA” entro il 2030. Seguì un’ondata di investimenti, accelerando la crescita di startup cinesi di sorveglianza IA, come SenseTime, iFlytek e Megvii, che commercializzavano la visione computerizzata su scala industriale, tutte basate su GPU di Nvidia.
Fin dall’inizio, Nvidia fu estremamente attenta al livello di competenze da collocare nelle sue operazioni locali. Impiega circa 4.000 dipendenti in Cina, oltre il 10% del suo organico globale, inclusi team di ingegneri, la maggior parte dei quali svolge lavori di routine per aiutare i clienti ad adottare le sue tecnologie. Tuttavia, in passato, ha impiegato un piccolo numero di ingegneri GPU che lavoravano su aspetti del design front-end dei chip, riguardanti il layout di transistor e circuiti. Il team cinese ha lavorato su progetti legati alle prestazioni e all’efficienza energetica dei chip, con i blocchi fondamentali delle GPU determinati dal team statunitense, secondo persone informate.
“Nvidia aveva un team di ingegneria di base in Cina fin dai primi giorni. Il governo chiese a Nvidia di assumere ingegneri locali in cambio dell’accesso al mercato,” dice un ex dipendente di Nvidia in Cina. Pechino ha a lungo richiesto alle aziende straniere di stabilire strutture di ricerca e sviluppo o joint venture per accedere al mercato. Tuttavia, Nvidia fu “prudente” nel costruire il suo team in Cina, consapevole che i dipendenti avrebbero potuto lasciare per fondare aziende rivali. “[Nvidia] ci è entrata con gli occhi ben aperti,” aggiunge l’ex dipendente.

Mentre Nvidia espandeva il suo business in Cina, l’atmosfera a Washington cambiò. Nel 2017, emersero rapporti su abusi dei diritti umani nella regione nord-occidentale dello Xinjiang. Il successo delle aziende cinesi di visione computerizzata, molte delle quali abilitavano la sorveglianza nello Xinjiang, attirò l’attenzione dei policymaker. Crebbero le preoccupazioni che la tecnologia statunitense fosse usata per la repressione della popolazione uigura minoritaria.
I policymaker erano anche sempre più preoccupati che gli Stati Uniti stessero rimanendo indietro rispetto alla Cina nell’IA, che era diventata la principale fonte di brevetti, startup e ricerche IA. Nel 2015, gli Stati Uniti inserirono nella lista nera la National University of Defense Technology e tre centri di supercomputing, incluso quello di Tianjin dove Nvidia aveva collaborato con orgoglio. Nel 2019, l’amministrazione Trump aggiunse Huawei alla lista, vietando la vendita di alcune tecnologie statunitensi, inclusi i chip IA. Nello stesso anno, SenseTime, iFlytek e Hikvision furono anch’esse inserite nella lista nera.
Successivamente, quando divenne chiaro che le aziende cinesi stavano aggirando queste restrizioni accedendo ai chip di Nvidia attraverso intermediari, Washington ampliò i controlli a tutta la Cina. Nel 2022, l’amministrazione Biden introdusse un divieto a livello nazionale sulla vendita dei chip IA più avanzati di Nvidia. Un anno dopo, estese le restrizioni alle versioni meno potenti progettate per conformarsi ai controlli sulle esportazioni. Nvidia rispose progettando il chip H20, specificamente per rispettare le nuove regole di esportazione, solo per vederlo vietato quest’anno prima di una parziale revoca.

Ora, anche Pechino sta limitando le vendite di Nvidia nel paese. Il mese scorso, il Financial Times ha riferito che la Cina ha ordinato alle principali aziende tecnologiche di interrompere tutti gli acquisti di chip IA di Nvidia. George Chen di The Asia Group afferma che Pechino “non cambierà idea sul fatto che, a lungo termine, deve fare affidamento sui campioni nazionali.”
La Cina ha iniziato a investire seriamente nei propri chip IA a metà degli anni 2010, con l’espansione dell’industria della sorveglianza. I principali produttori di chip IA cinesi, Huawei e Cambricon, hanno scelto di costruire Asic, ottimizzati per attività di visione computerizzata usate nei sistemi di sorveglianza, anziché GPU. Quella decisione, sensata all’epoca, si è poi rivelata un ostacolo.
Inizialmente, la Cina aveva un numero limitato di specialisti IA, e le aziende americane fornivano un terreno di formazione vitale. Molti dei principali leader dell’industria dei chip cinesi hanno iniziato le loro carriere presso Nvidia, AMD o Intel. Figure tecniche di spicco presso i produttori di chip cinesi Moore Threads, Biren e Cambricon hanno precedentemente lavorato per Nvidia.
Huawei ha puntato aggressivamente sugli ingegneri di Nvidia. “Huawei offre stipendi molto competitivi, proponendo di raddoppiare la paga degli ingegneri GPU di Nvidia in Cina. Per gli ingegneri cinesi, lavorare per Huawei offre maggiori responsabilità e opportunità,” dice un ex ingegnere di Nvidia. “Se restano a Nvidia, non saranno mai parte del team di ingegneria principale.”
Nel caso dei chip IA, assumere dipendenti di Nvidia non garantisce il successo. “Nvidia sa che è relativamente facile costruire un chip IA; la difficoltà sta nel costruire il software che lo supporta,” dice un altro ex ingegnere di Nvidia, passato a un’azienda cinese rivale. “Quindi, se condividi queste risorse, le persone possono portarle ad altre aziende, ma ciò non significa che possano costruire un prodotto rivale.”
I gruppi IA cinesi hanno avuto difficoltà a utilizzare i chip Ascend di Huawei di generazione attuale per l’addestramento di LLM a causa di software in ritardo e connettività instabile tra i chip quando combinati in un grande cluster di calcolo. Entrambi possono creare problemi durante le corse di pre-addestramento computazionalmente intense, il passaggio in cui il modello acquisisce una comprensione generale da un vasto e diversificato dataset di testi da internet e altre fonti.
Huawei è, secondo Huang, un “formidabile concorrente” destinato a soppiantare Nvidia in Cina un giorno. Tuttavia, non è chiaro quando quel giorno arriverà. Le principali aziende IA cinesi, come DeepSeek, Alibaba, Moonshot e altre, continuano a fare affidamento pesantemente sulle GPU di Nvidia per il pre-addestramento degli LLM. Sebbene molti gruppi cinesi stiano passando alle alternative locali per attività di inferenza, come generare risposte per chatbot, dipendono ancora dal silicio di Nvidia per addestrare i modelli.
I produttori di chip IA cinesi hanno affrontato due vincoli principali: capacità di produzione limitata e un ecosistema software inferiore. Entrambi i colli di bottiglia, tuttavia, stanno mostrando segni di allentamento. Sul fronte della produzione, la Cina sta espandendo la capacità costruendo strutture di fabbricazione avanzate. Pianifica di triplicare la produzione di chip IA il prossimo anno. Huawei e Cambricon producevano i loro chip con TSMC, partner di produzione di Nvidia, prima che le sanzioni USA le costringessero a passare al fornitore locale SMIC.
Huawei ha recentemente annunciato una roadmap triennale per nuovi chip IA con capacità di memoria migliorata e connettività tra chip ottimizzata. L’azienda sta anche progettando una nuova generazione di GPU più flessibili, in grado di gestire sia l’addestramento che l’inferenza, secondo diverse persone informate. Sul lato software, l’azienda sta investendo risorse per rendere i suoi chip più attraenti per gli sviluppatori. Il mese scorso, ha annunciato piani per rendere più parti del suo software Cann open source.
Huawei ha investito pesantemente nella tecnologia che collega decine di migliaia di suoi chip in un singolo cluster di calcolo, consentendo di superare le prestazioni comparativamente più deboli dei suoi chip individuali. Anche se le principali aziende IA cinesi usano ancora Nvidia per l’addestramento, molte di loro, incluse DeepSeek e Z.ai, stanno ottimizzando i loro modelli per funzionare sui chip Ascend. Questo rappresenta una minaccia per Nvidia a livello globale, data la presenza internazionale dei data center di Huawei, che gli sviluppatori potrebbero usare per eseguire modelli open source cinesi sempre più popolari.
Il track record di Huawei suggerisce che non può essere sottovalutata. Una volta considerata spacciata dalle sanzioni USA, l’azienda è riuscita a ricostruire i suoi business di smartphone e semiconduttori. Gli esperti ritengono che gli Stati Uniti possano fare poco per fermare l’ascesa di Huawei. “La velocità del passaggio alle alternative nazionali non sarà determinata da Jensen o dai funzionari del dipartimento del commercio a Washington,” dice Triolo di DGA-Albright Stonebridge Group.
Egli afferma che il progetto di creare un equivalente cinese di Cuda che sia “capace di raggiungere una percentuale accettabile di prestazioni e accettabile per una massa critica di sviluppatori” potrebbe richiedere almeno “altri due anni”.

Con lo slancio politico sia a Pechino che a Washington apparentemente contro il business cinese di Nvidia, molti si chiedono quale sia il futuro dell’azienda nel paese. Nvidia sta promuovendo le sue opportunità di crescita oltre i data center, nella produzione avanzata, nella robotica e nelle auto a guida autonoma, tutte aree in cui le aziende cinesi eccellono. Finora, queste rappresentano una frazione dell’opportunità offerta dai data center IA.
L’azienda continua a registrare vendite in forte crescita, anche senza il mercato cinese. Questo trimestre, il gruppo della Silicon Valley prevede di generare 54 miliardi di dollari in vendite, parte di un record di 206 miliardi di dollari attesi per l’anno fiscale. Rispetto a cifre così vertiginose, la potenziale perdita di 2-5 miliardi di dollari di entrate previste per questo trimestre dalle vendite dei chip H20 in Cina potrebbe sembrare un errore di arrotondamento. Nvidia ha smesso di includere i ricavi cinesi nelle sue previsioni finanziarie.
Mentre la forza lavoro di Nvidia al di fuori della Cina sta beneficiando della domanda in forte espansione, aprendo nuovi mercati e firmando accordi, l’atmosfera è meno entusiasta in Cina. “L’umore è decisamente cambiato quest’anno. Anche se il business va alla grande altrove, tutti si chiedono dove andremo a finire qui in Cina. Se non sarà più permesso vendere chip qui, cosa accadrà al team?” dice un dipendente di Nvidia in Cina.
“Anche se non è chiaro dove andremo a finire, è chiaro che la competizione USA-Cina non scomparirà,” aggiungono.
01/10/25 TechCrunch: Un anno dopo la richiesta di IPO, Cerebras Systems, ancora privata, raccoglie 1,1 miliardi di dollari
By Rebecca Szkutak
Punti Salienti:
- Cerebras Systems, rivale di Nvidia, ha raccolto 1,1 miliardi di dollari in un round di Serie G, con una valutazione di 8,1 miliardi di dollari, nonostante il piano di essere quotata entro il 2025.
- La crescita esplosiva dell’azienda nel 2024 è legata ai suoi servizi di inferenza AI, lanciati ad agosto 2024, con una domanda travolgente.
- I fondi saranno utilizzati per espandere i data center negli Stati Uniti e in Canada, oltre che per hub di produzione e avanzamenti tecnologici.
Cerebras Systems, rivale di Nvidia con sede nella Silicon Valley, ha annunciato martedì di aver raccolto un round di Serie G da 1,1 miliardi di dollari che ha valutato l’azienda di hardware AI a 8,1 miliardi di dollari. Il round è stato co-guidato da Fidelity e Atreides Management con la partecipazione di Tiger Global, Valor Equity Partners e 1789 Capital, tra gli altri.
Cerebras, fondata nel 2015 e specializzata in chip, sistemi hardware e servizi cloud progettati specificamente per l’IA, ha ora raccolto quasi 2 miliardi di dollari nella sua storia decennale. Il suo precedente round di finanziamento più recente è stato un round di Serie F da 250 milioni di dollari nel 2021, guidato da Alpha Wave Ventures, che aveva valutato l’azienda a oltre 4 miliardi di dollari.
Questo ultimo round di finanziamento segue un anno di crescita esplosiva, ha dichiarato a TechCrunch Andrew Feldman, co-fondatore e CEO di Cerebras. Feldman ha detto che questa crescita è legata ai servizi di inferenza AI dell’azienda, il processo di utilizzo di modelli AI per generare output, lanciati ad agosto 2024.
“Entro il [secondo trimestre] del 2024, abbiamo iniziato a credere di aver superato un punto di svolta in cui l’IA sviluppata stava diventando utile, il che significa che si sarebbe verificata un’esplosione della domanda di inferenza”, ha detto Feldman. “Abbiamo riallocato alcune risorse, assunto più persone e, ad agosto, abbiamo lanciato il nostro cloud di inferenza, e la domanda è stata travolgente”.
L’azienda ha aperto cinque nuovi data center nel 2025 per ospitare il suo hardware AI in località come Dallas, Texas; Oklahoma City, Oklahoma; e Santa Clara, California; tra altre, con ulteriori progetti in corso in aree come Montreal ed Europa.
L’espansione della sua impronta di data center e degli hub di produzione negli Stati Uniti è in gran parte dove verrà utilizzato questo recente round di finanziamento, oltre ad alcuni avanzamenti tecnologici su cui Feldman non ha approfondito.
Raccogliere questo ultimo finanziamento probabilmente non era il piano iniziale di Cerebras, poiché l’azienda aveva inizialmente presentato la documentazione per un’IPO esattamente un anno fa, il 30 settembre 2024. Poco dopo ha incontrato ritardi regolamentari.
L’IPO dell’azienda è stata inizialmente ritardata a causa di una revisione da parte del Comitato per gli Investimenti Esteri negli Stati Uniti a causa di un investimento di 335 milioni di dollari da parte di G42, un’azienda di cloud e IA con sede ad Abu Dhabi. L’IPO è stata ulteriormente ritardata all’inizio del 2025 a causa di posizioni non occupate nel CFIUS all’inizio del mandato del presidente Donald Trump.
Feldman ha detto che l’azienda prevede ancora di fare un’IPO, ma non ha condiviso dettagli specifici. Ha detto che l’azienda sta seguendo un percorso comune per le startup in fase avanzata, raccogliendo un grande round di finanziamento da investitori principalmente pubblici prima di quotarsi sul mercato pubblico.
“Abbiamo scelto un piccolo numero di leader che ci aiuteranno, non solo in questo round, ma in futuro”, ha detto Feldman. “Aziende che sono leader nel [finanziamento] privato in fase avanzata, ma che operano principalmente nel pubblico. E sai, è la nostra aspirazione essere un’azienda pubblica”.
30/09/25 Barron’s: Il titolo Wolfspeed balza dopo l’uscita dal Chapter 11. Cosa sapere.
By Elsa Ohlen
Punti Salienti:
- Wolfspeed ha completato la ristrutturazione finanziaria ed è uscita dal Chapter 11, con un aumento del 23% delle azioni in pre-apertura.
- L’azienda ha ridotto il debito totale di circa il 70% e le spese annuali per interessi in contanti di circa il 60%.
- Wolfspeed ha emesso nuove azioni, annullando le precedenti, diluendo gli azionisti esistenti con un rapporto di scambio di 0,008352.
- La società mantiene ampia liquidità per continuare a fornire chip in carburo di silicio per veicoli elettrici e sistemi industriali.
Wolfspeed WOLF ha completato la sua ristrutturazione finanziaria ed è uscita dal Chapter 11, ha annunciato il fornitore di chip in difficoltà lunedì sera.
Le azioni sono salite bruscamente in pre-apertura martedì, aumentando del 23% a 27,12 dollari.
Durante il processo di ristrutturazione, Wolfspeed WOLF ha ridotto il debito totale di circa il 70% e ha abbassato le spese annuali per interessi in contanti di circa il 60%, ha dichiarato.
L’azienda ha aggiunto di mantenere “un’ampia liquidità” per continuare a fornire ai clienti chip in carburo di silicio, un tipo di semiconduttore ad alta efficienza energetica utilizzato nei veicoli elettrici e nei sistemi di alimentazione industriale, tra le altre cose.
“Entrando in questa nuova era, lo facciamo con una stabilità finanziaria notevolmente migliorata, una struttura di impianti da 200 mm scalabile, ecologica e verticalmente integrata, e con il nostro grande investimento di capitale alle spalle”, ha dichiarato il CEO Robert Feurle.
Lunedì, Wolfspeed WOLF ha anche emesso nuove azioni, con lo stesso simbolo ticker, annullando le azioni precedentemente emesse. Gli azionisti esistenti hanno ricevuto la loro quota proporzionale di 1,3 milioni di azioni ordinarie con un rapporto di scambio di 0,008352, diluendo gli azionisti delle vecchie azioni.
Wolfspeed WOLF ha presentato istanza di protezione ai sensi del Chapter 11 a giugno presso il Tribunale Fallimentare degli Stati Uniti per il Distretto Meridionale del Texas.
Scrivere a Elsa Ohlen all’indirizzo elsa.ohlen@barrons.com
29/09/25 Barron’s: Wolfspeed annulla le vecchie azioni e emette nuove azioni come parte del piano di ristrutturazione
By Mackenzie Tatananni

Punti Salienti:
- Wolfspeed ha annullato le azioni precedentemente emesse e in circolazione come parte di un piano per ridurre il debito e uscire dalla bancarotta.
- La società ha emesso nuove azioni con lo stesso ticker WOLF, con un nuovo flottante di circa 25,84 milioni di azioni.
- Gli azionisti esistenti hanno ricevuto 1,3 milioni di nuove azioni ordinarie con un rapporto di scambio di 0,008352.
- Wolfspeed ha trasferito la sua incorporazione dal North Carolina al Delaware e ha ridotto il debito di circa 4,6 miliardi di dollari.
Wolfspeed ha annullato le sue azioni precedentemente emesse e in circolazione lunedì, come parte di un piano per ridurre il debito e uscire dalla bancarotta.
La società di semiconduttori ha indicato in un modulo 8-K depositato presso la Securities and Exchange Commission che gli azionisti esistenti hanno ricevuto la loro quota proporzionale di 1,3 milioni di azioni ordinarie con un rapporto di scambio di 0,008352.
La società ha emesso nuove azioni senza modificare il simbolo del ticker. A partire da lunedì, Wolfspeed aveva un nuovo flottante di circa 25,84 milioni di azioni. Questo si confronta con le precedenti 156,48 milioni di azioni della vecchia quotazione.
La Borsa di New York ha confermato il cambiamento in un avviso la settimana scorsa, scrivendo che le azioni ordinarie emesse da Wolfspeed facevano parte di una nuova offerta di titoli che avrebbe iniziato a essere negoziata con il ticker WOLF il 29 settembre.
Il trading è stato sospeso a metà giornata a causa della volatilità. A un certo punto, le azioni sono salite fino a 21,78 dollari, in aumento del 21% rispetto al prezzo di apertura.
La NYSE rimuoverà dalla quotazione le vecchie azioni ordinarie di Wolfspeed a partire dal 10 ottobre, secondo un deposito presso la SEC. Per ora, il trading delle vecchie azioni è stato sospeso.
Lo sviluppo è avvenuto mentre la società trasferiva la sua incorporazione dal North Carolina al Delaware come parte di un piano di ristrutturazione in corso.
Wolfspeed ha dichiarato a giugno di aver firmato un accordo con i creditori per ridurre circa 4,6 miliardi di dollari di debito e tagliare i pagamenti totali degli interessi in contanti del 60%. Pochi giorni dopo, la società ha ufficialmente presentato istanza di bancarotta ai sensi del Capitolo 11.
All’inizio di questo mese, la società ha annunciato che il suo piano di riorganizzazione ai sensi del Capitolo 11 era stato approvato in tribunale e che prevedeva di uscire dalla bancarotta nelle settimane successive.
Scritto da Mackenzie Tatananni a mackenzie.tatananni@barrons.com
29/09/25 Bloomberg: Huawei Raddoppierà la Produzione del Suo Miglior Chip AI mentre Nvidia Vacilla in Cina
By Yuan Gao
Punti Salienti:
- Huawei Technologies Co. pianifica di produrre 600.000 chip Ascend 910C nel 2026, raddoppiando la produzione del 2025, per conquistare il mercato cinese dei semiconduttori.
- La produzione della linea Ascend raggiungerà 1,6 milioni di die nel 2026, nonostante i chip di Huawei siano meno performanti di quelli di Nvidia (NVDA).
- Huawei, con SMIC, usa tecnologia a 7nm, due generazioni indietro rispetto ai 4nm di Nvidia, ma esplora un chip di nuova generazione per l’addestramento AI.
- Le restrizioni USA limitano Nvidia in Cina, favorendo Huawei e aziende come Alibaba (BABA) e Tencent (0700.HK).
Huawei Technologies Co. si prepara a incrementare резко la produzione dei suoi chip di intelligenza artificiale più avanzati nel prossimo anno, puntando a conquistare clienti nel più grande mercato di semiconduttori al mondo, mentre Nvidia Corp. (NVDA) affronta ostacoli geopolitici.
L’azienda cinese prevede di produrre circa 600.000 chip Ascend 910C l’anno prossimo, circa il doppio rispetto al livello di quest’anno, secondo fonti anonime. Huawei ha avuto difficoltà a distribuire questi prodotti nel 2025 a causa delle sanzioni USA. Nel complesso, l’azienda di Shenzhen aumenterà la produzione della linea Ascend a 1,6 milioni di die nel 2026, hanno detto le fonti, riferendosi ai componenti di silicio che ospitano i circuiti dei chip.
Se Huawei raggiungerà questi obiettivi, rappresenterà una svolta tecnologica per un’azienda considerata la migliore speranza della Cina per ridurre la dipendenza dai chip stranieri che alimentano la seconda economia mondiale. Ciò suggerisce che Huawei e il partner principale Semiconductor Manufacturing International Corp. (SMIC) abbiano trovato un modo per alleviare alcuni colli di bottiglia che hanno ostacolato non solo il business AI, ma anche gli obiettivi di autosufficienza di Pechino.
Aziende cinesi come Alibaba Group Holding Ltd. (BABA) e DeepSeek necessitano di milioni di chip AI per sviluppare e gestire servizi di intelligenza artificiale. Nvidia (NVDA) ha venduto circa un milione di chip H20 nel 2024.

A settembre, Huawei ha svelato pubblicamente la sua visione triennale per erodere il dominio di Nvidia (NVDA), rompendo con la tradizione di mantenere segreti i suoi piani. Il presidente rotante Eric Xu ha presentato una serie di chip Ascend — 950, 960 e 970 — previsti per il lancio in fasi fino al 2028. Sono l’evoluzione della serie 910, che rimane la principale fonte di entrate per ora.
Huawei guida un’ondata di aziende cinesi di chip che sviluppano acceleratori, mentre Nvidia (NVDA) è in gran parte esclusa dal mercato dai controlli governativi. Il co-fondatore di Nvidia, Jensen Huang, ha cercato di rassicurare i cinesi sulla sicurezza dei suoi prodotti, ma non è chiaro quando — o se — ciò avverrà.
I chip AI attuali di Huawei sono inferiori in prestazioni rispetto a quelli di Nvidia (NVDA). L’Ascend 950 offre solo il 6% delle prestazioni del superchip VR200 di prossima generazione di Nvidia, secondo Bernstein. Finora, i principali clienti di Huawei, tra cui Alibaba (BABA) e Tencent Holdings Ltd. (0700.HK), hanno usato i suoi migliori semiconduttori principalmente per l’inferenza, ossia l’esecuzione di modelli AI dopo l’addestramento.
Con l’aiuto di SMIC, Huawei produce die con tecnologia a 7 nanometri. I die della linea 910 sono realizzati con una versione migliorata della tecnica a 7nm di SMIC. In confronto, le GPU di Nvidia (NVDA) con architettura Blackwell sono prodotte a nodi di 4nm da Taiwan Semiconductor Manufacturing Co. (TSM) — circa due generazioni avanti.
Come variabile imprevedibile, Huawei sta esplorando un chip Ascend di prossima generazione oltre i modelli annunciati, previsto per una linea SMIC a 7nm ancora più avanzata. Il nuovo chip potrebbe essere abbastanza potente da addestrare algoritmi AI per grandi clienti, non solo eseguirli, secondo una fonte diretta. Tuttavia, le sfide tecniche nella produzione potrebbero spingere la commercializzazione di quel prodotto al 2027 o oltre.
29/09/25 Barron’s: ASML Costruisce Macchine per Chip AI. Perché Sta Perdendo il Boom
By Adam Clark

Punti Salienti:
- Le ADR di ASML (ASML) sono salite dell’11% nell’ultimo anno, ma sottoperformano altre aziende della filiera AI a causa di incertezze sulla crescita.
- TSMC (TSM), cliente dominante, esita ad adottare le nuove macchine High NA EUV di ASML, che costano oltre 400 milioni di dollari ciascuna.
- Intel (INTC), SK Hynix (000660) e Samsung (005930) stanno adottando la tecnologia High NA EUV, diversificando la base clienti di ASML.
- La dipendenza da pochi grandi clienti, come TSMC, limita il potenziale di crescita di ASML nonostante il boom dell’AI.
Poche aziende sembrano meglio posizionate di ASML Holding (ASML) per beneficiare del boom dell’intelligenza artificiale. L’azienda olandese ha un quasi-monopolio sulle macchine litografiche specializzate usate per produrre chip ad alte prestazioni per data center, un settore in forte espansione.
Le American Depository Receipts di ASML (ASML) sono salite dell’11% nell’ultimo anno. Tuttavia, il guadagno è molto inferiore rispetto ad altre aziende della filiera AI, penalizzato da un avvertimento sulla mancata garanzia di crescita nel 2026.
Il problema principale di ASML è il numero limitato di grandi clienti per le sue nuove macchine a litografia ultravioletta estrema (EUV), con Taiwan Semiconductor Manufacturing (TSM) che domina la produzione di chip avanzati. Questo è preoccupante perché ASML prospera quando i produttori di chip competono, aggiornando le loro attrezzature per restare leader.
ASML vende ora una nuova generazione di macchine EUV “High NA”, di cui è l’unico fornitore, che dovrebbero consentire la produzione di chip sempre più piccoli per il prossimo decennio. Tuttavia, ogni macchina può costare oltre 400 milioni di dollari.
TSMC (TSM) sembra opporsi al prezzo. Un dirigente ha dichiarato a maggio, durante una conferenza di settore, che il produttore di chip ritiene di poter prolungare la vita delle attuali macchine EUV. “TSMC adotterà High NA EUV quando sarà matura e pronta a offrire il massimo beneficio ai nostri clienti,” ha dichiarato l’azienda taiwanese a Barron’s via email.
Il problema si riduce a costi iniziali contro costi operativi. L’apertura numerica di un sistema litografico misura la sua capacità di raccogliere luce e risolvere dettagli fini. Un’alta NA consente la stampa di strutture complesse su un chip in una singola esposizione, chiamata single patterning. Una macchina a bassa NA può ottenere lo stesso risultato in più passaggi, chiamati multipatterning, ma con più tempo e maggiori rischi di difetti.
Finora, il multipatterning sembra prevalere. L’analista di Barclays Simon Coles prevede che ASML spedirà solo tre macchine High NA nel 2026, rispetto a cinque nel 2025, con un’adozione diffusa improbabile prima del 2028. Ha un rating equivalente a Hold sul titolo.
ASML ha rifiutato di commentare il numero di spedizioni High NA previste, ma ha detto che tutti i suoi clienti EUV si sono impegnati ad adottare la tecnologia. “High NA può sbloccare i benefici del single patterning in modo conveniente. Questi includono la riduzione della complessità del processo, del tempo di ciclo e il miglioramento della resa,” ha dichiarato un portavoce di ASML a Barron’s via email.
Intel (INTC) rappresenta una grande speranza per ASML. L’azienda americana di chip sta pagando il prezzo di un errore storico, essendo stata lenta nel passare alle macchine EUV di ASML, permettendo a TSMC di prendere il comando nei chip avanzati.
C’è un’opportunità per Intel (INTC) di correggere gli errori passati. L’ex CEO Pat Gelsinger ha detto l’anno scorso che Intel aveva acquisito due macchine High NA come parte della strategia per competere con TSMC nella produzione di chip AI e altri processori avanzati. Ma è anche un grande rischio finanziario in un momento in cui Intel è indebolita.
“L’adozione di High NA da sola non è l’unico fattore decisivo [per Intel (INTC)],” ha detto Ray Wang di Futurum Group. “Il successo dipende da molteplici fattori, tra cui la capacità di padroneggiare l’uso di EUV, le curve di apprendimento della resa, la prontezza dell’ecosistema, la capacità complessiva, la competitività dei costi e la capacità di assicurarsi una vasta base di clienti oltre i prodotti interni.”
Garantirsi grandi clienti esterni per i chip è un problema particolare per Intel (INTC). Gli azionisti speravano che il processo di produzione 18A, testato da Nvidia e Broadcom secondo i rapporti, permettesse di riprendere il comando tecnologico da TSMC. Tuttavia, Intel ha ridimensionato le speranze di ottenere grandi clienti esterni e ha detto che 18A sarà usato principalmente per prodotti interni, almeno inizialmente.
La recente notizia che Intel (INTC) riceverà un investimento di 5 miliardi di dollari da Nvidia ha entusiasmato il mercato sul futuro della produzione di chip. Le azioni di ASML (ASML) sono salite di oltre il 6% alla notizia. Tuttavia, il CEO di Nvidia Jensen Huang ha evitato di rispondere se la sua azienda userà le strutture di produzione di Intel in futuro, lodando le capacità di TSMC.
“TSMC (TSM) produce i chip più complessi al mondo, che sono le GPU di Nvidia. Se TSMC dice che non abbiamo bisogno [di High NA EUV], è difficile immaginare perché Intel (INTC) avrebbe bisogno di una macchina molto più complessa di TSMC per fare chip meno complessi,” ha detto Nicolas Baratte, analista tecnologico indipendente.
Intel (INTC) ha confermato a Barron’s di avere due macchine High NA nel suo principale sito di ricerca e sviluppo in Oregon, ma ha rifiutato di commentare quando intende usarle per la produzione di massa.
Se ASML (ASML) non può contare su Intel (INTC) per sfidare TSMC (TSM) nel business dei chip logici, un’area potenzialmente fruttuosa è quella dei chip di memoria.
Il business dei chip di memoria è rimasto indietro rispetto all’industria dei chip logici nell’adozione delle ultime tecniche litografiche, in parte per il focus sulla produzione a basso costo e la capacità di impilare strati di chip di memoria per migliorare densità e prestazioni, riducendo la necessità di macchine EUV.
Ci sono segnali di cambiamento. I chip di memoria a banda larga (HBM) sono un componente necessario per i più recenti processori AI di aziende come Nvidia, e c’è una corsa per produrre i prodotti HBM più avanzati. La sudcoreana SK Hynix (000660) è attualmente leader e ha dichiarato questo mese di aver assemblato un sistema High NA, il primo del settore per la produzione di massa, citando la necessità di prepararsi a requisiti di scalabilità estrema e alta densità.
Ciò potrebbe mettere pressione sui rivali dei chip di memoria Samsung Electronics (005930), anch’essa sudcoreana, e l’americana Micron Technology. Un portavoce di Samsung (005930) ha detto di aver adottato sistemi High NA a febbraio di quest’anno e di usarli sia per il business dei chip di memoria che per la produzione di chip per clienti esterni, in una dichiarazione via email a Barron’s. Micron non ha risposto a una richiesta di commento sui suoi piani.
ASML (ASML) è un promemoria che avere la migliore tecnologia non garantisce il successo, se un fornitore è alla mercé di un cliente dominante. Alla fine, le sue macchine High NA diventeranno una necessità, ma gli investitori potrebbero dover aspettare con frustrazione finché l’industria non sarà pronta a pagare per il futuro.
24/09/25 Briefing.com: Il trimestre esplosivo di Micron evidenzia lo slancio dell’HBM, ma quel boom era già prezzato (166.41)
Briefing.com
- L’EPS è salito del 157% a/a a 3,03 $, e i ricavi sono balzati del 46% a 11,32 mld $, superando le attese e la guidance rivista al rialzo dalla società.
- Le vendite di chip HBM sono esplose, trainando un incremento del 214% dei ricavi nell’unità Cloud Memory. L’HBM ora contribuisce al 16% dei ricavi totali, avvicinandosi ai 2 mld $.
- L’offerta HBM è completamente prenotata fino al 2025, con visibilità sulla domanda estesa al 2026.
- Il margine lordo è aumentato di 670 pb al 45,7%, battendo le stime. MU ha fornito una guidance per il 1Q26 di margine lordo al 51,5% (+/-1%), riflettendo la forte domanda e i prezzi HBM.
- La guidance per il 1Q26 è stata superiore al consensus sia per EPS sia per ricavi, indicando una forza continua nella domanda legata all’AI.
- I risultati offrono un segnale positivo per il settore AI, inclusi peer come NVIDIA (NVDA), Advanced Micro Devices (AMD), Broadcom (AVGO) e Taiwan Semiconductor Manufacturing (TSM).
- MU ha anche annunciato una partnership con TSM per produrre HBM4 base logic dies, ottenendo accesso al packaging avanzato e rafforzando la sua posizione nella memoria AI di nuova generazione.
Analisi dell’analista di Briefing.com:
MU ha consegnato un trimestre “beat-and-raise” che ha superato aspettative già elevate. Sebbene i venti favorevoli dell’AI – soprattutto nell’HBM – siano chiaramente forti, il recente +40% del titolo ha già prezzato gran parte di questo slancio. L’accordo con TSM è una vittoria strategica, ma esecuzione e sostenibilità dei margini saranno fattori chiave man mano che la concorrenza si intensifica. MU è ben posizionata, ma il rialzo di breve termine potrebbe essere limitato senza un’ulteriore gamba di crescita.
23/09/25 Bloomberg: Huawei pianifica una campagna triennale per superare Nvidia nei chip AI
Punti Salienti
- Huawei punta su forza bruta, networking e supporto politico per erodere il dominio di Nvidia nei chip AI.
- Ha presentato una visione triennale con nuove generazioni di chip Ascend e design “SuperPod” capaci di collegare fino a 15.488 unità.
- L’annuncio segnala fiducia nella futura fornitura locale di fonderie, con Huawei che sostiene di poter superare Nvidia grazie al numero di chip e a trasmissioni dati più veloci.
Huawei Technologies Co. ammette apertamente che i suoi chip non possono competere con quelli di Nvidia Corp. in termini di pura potenza e velocità. Per ottenere lo stesso impatto, il campione nazionale cinese si affida dunque alle sue forze tradizionali: forza bruta, capacità di networking e sostegno politico.
Giovedì Huawei ha compiuto il passo raro di rendere pubblica una visione triennale per erodere il dominio di Nvidia nel boom dell’intelligenza artificiale. Il presidente a rotazione Eric Xu ha illustrato nei minimi dettagli la tecnologia che l’azienda di Shenzhen immagina durante la conferenza annuale Huawei Connect, suscitando un’ampia copertura mediatica.
L’insolita enfasi — arrivata il giorno prima del secondo colloquio telefonico in quattro mesi tra il presidente USA Donald Trump e il leader cinese Xi Jinping — contrasta con l’approccio di solito più riservato di Huawei. L’azienda, nota per la segretezza, aveva introdotto generazioni successive di prodotti AI senza neppure un comunicato stampa dopo aver perso, nel 2020, l’accesso a Taiwan Semiconductor Manufacturing Co. a causa delle restrizioni statunitensi.
Huawei ha evitato anche di specificare la tecnologia dei processori mobili nei suoi ultimi smartphone, lasciando agli esperti il compito di smontarli per scoprire i dettagli interni.
Giovedì invece ha svelato con grande clamore il nuovo piano, in stile lancio di Nvidia. Xu è salito sul palco per presentare la prossima generazione di chip AI insieme ai design aggiornati dei “SuperPod” — piattaforme per data center che includono calcolo, storage, networking, software e gestione dell’infrastruttura.
In teoria, questa tecnica permette a Huawei di collegare fino a 15.488 chip AI a marchio Ascend grazie al protocollo proprietario UnifiedBusinterconnect, anch’esso presentato giovedì. È l’equivalente di sopraffare un nemico con la pura numerosità, rafforzata da trasmissioni dati molto più veloci: fino a 62 volte superiori alla tecnologia NVLink144 di prossima uscita da parte di Nvidia, secondo Huawei. Attualmente Nvidia con NVLink72 collega fino a 72 GPU Blackwell e 36 CPU Grace.
«La disponibilità di Huawei a presentare pubblicamente la sua roadmap AI rappresenta un forte segnale di fiducia nella resilienza della sua futura fornitura locale di fonderie», hanno scritto gli analisti di Bernstein guidati da Qingyuan Lin. «Questi sviluppi indicano che Huawei ha assicurato capacità produttive affidabili per supportare i suoi piani ambiziosi, segnando una tappa importante nella costruzione di un ecosistema locale di semiconduttori in grado di resistere alle interruzioni globali delle catene di approvvigionamento».

L’annuncio arriva in un contesto di notizie a raffica sul progresso nei chip AI da parte di aziende cinesi come Alibaba Group Holding Ltd. e Baidu Inc.. Questo ritmo incalzante è notevole, dato che per anni le aziende cinesi hanno tenuto segreta la tecnologia più avanzata per non attirare l’attenzione di Washington.
Gli Stati Uniti hanno cercato per anni di contenere la Cina per timore che la tecnologia americana ne accelerasse le ambizioni economiche e militari. In risposta, Pechino ha esortato le proprie aziende tecnologiche a scalare la catena del valore. Recentemente il governo cinese ha lanciato iniziative dirette a limitare l’uso di componenti Nvidia da parte delle aziende locali.
All’inizio del 2025, Xi Jinping ha mostrato la priorità data ai settori strategici incontrando imprenditori, incluso il fondatore di Huawei, Ren Zhengfei. Alti funzionari hanno ribadito l’impegno a mobilitare risorse nazionali per accelerare i progressi tecnologici domestici.
Ciononostante, i chip cinesi restano inferiori a quelli di Nvidia o Advanced Micro Devices Inc., che possono sfruttare i processi produttivi all’avanguardia di TSMC. Gli analisti di Bernstein hanno osservato che un singolo Ascend 950 di nuova generazione offre solo il 6% delle prestazioni del futuro superchip VR200 di Nvidia.
Negli ultimi anni però le aziende cinesi hanno trovato soluzioni innovative per aggirare i limiti di potenza e performance. Huawei ha parlato della possibilità di raggruppare fino a un milione di chip, creando un “super cluster” per colmare quel divario.
Per costruirlo, Huawei prevede di aumentare la velocità di connessione e di accesso alla memoria tra chip, con un’architettura di memoria ad alta banda passante progettata internamente, nonostante le restrizioni USA che le hanno tagliato l’accesso a produttori come SK Hynix Inc.. Xu ha dichiarato che l’Ascend 970, atteso nel 2028, avrà una velocità di interconnessione di 4 terabit al secondo, rispetto agli attuali 1,8 Tbps di Nvidia.

Resta da vedere se le affermazioni di Huawei si tradurranno in realtà e se i nuovi design saranno scalabili. L’azienda aveva sorpreso il mondo introducendo un chip a 7 nm per il Mate 60 Pro nel 2023, ma da allora non è andata oltre. Xu non ha spiegato come produrrà i nuovi chip, lasciando aperto un punto critico.
Il dominio di Nvidia nel settore è tale che perfino AMD e Intel Corp. restano indietro, mentre società come ASML Holding NV dominano le apparecchiature per chip di fascia alta e TSMC produce la maggior parte dei processori avanzati, essendo tecnicamente vietato collaborare con molte aziende cinesi, tra cui Huawei.
Gli analisti di Jefferies hanno osservato che i nuovi chip Huawei restano incerti, poiché il piano dello scorso anno di lanciare l’Ascend 910D a 5 nm non si è materializzato a causa di rese scarse. «La mancanza di macchinari avanzati rimane il principale ostacolo della Cina nel ridurre la dipendenza dai chip Nvidia», hanno detto.
Xu non ha mostrato preoccupazione, pur accennando a colli di bottiglia tecnologici prolungati. «Crediamo che solo con il ‘SuperPod’ e la tecnologia di clustering possiamo superare i vincoli del processo produttivo e fornire supporto informatico illimitato allo sviluppo dell’AI nel nostro Paese», ha dichiarato a Xinhua.
21/09/25 Sole 24 Ore: AMD

18/09/25 Briefing.com: Intel vola mentre NVIDIA investe 5 miliardi $ in una partnership rivoluzionaria su AI e chip per PC (INTC)
Intel (INTC) e NVIDIA (NVDA) hanno annunciato una collaborazione estesa e pluriennale per co-sviluppare prodotti personalizzati per data center e PC, con NVDA che si impegna a un investimento di 5 miliardi di dollari in INTC. La partnership rappresenta una svolta strategica rilevante per entrambe le società: il titolo INTC è balzato sulla notizia, mentre le azioni NVDA hanno registrato guadagni più contenuti.
Il fulcro dell’accordo è l’intesa di INTC a produrre CPU x86 personalizzate per NVIDIA, che NVDA integrerà nelle proprie piattaforme di infrastruttura AI. Questo conferisce a NVDA maggiore controllo sul design a livello di sistema e sull’ottimizzazione delle prestazioni per i carichi di lavoro AI.
Altri aspetti chiave dello sviluppo includono:
- INTC produrrà SoC x86 con chiplet GPU NVIDIA RTX integrati per PC di nuova generazione alimentati da AI.
- L’operazione segue la quota del 10% acquisita dal governo USA in INTC tramite il CHIPS Act, rafforzando la narrativa di rilancio di Intel.
- L’investimento da 5 miliardi $ di NVDA assicura capacità produttiva avanzata presso Intel Foundry, diversificando l’approvvigionamento oltre Taiwan Semiconductor Manufacturing (TSMC).
- L’impatto strategico è elevato, mentre le implicazioni finanziarie richiederanno diversi trimestri per manifestarsi. Tuttavia, la collaborazione rafforza la posizione di INTC nei mercati AI e PC e potrebbe segnare l’avvio di una rivalutazione pluritrimestrale della società.
- Per INTC, rappresenta il primo passo nel riconquistare rilevanza tecnologica e finanziaria in un mercato che in gran parte l’aveva esclusa.
Le implicazioni competitive risultano significative:
- Advanced Micro Devices (AMD) subisce pressioni su entrambi i fronti: server AI (EPYC) e PC client/gaming di fascia alta (Ryzen), con l’ingresso diretto di NVDA.
- Qualcomm (QCOM) affronta nuove sfide nel segmento dei PC Windows, poiché le piattaforme Intel-NVIDIA rafforzano la leadership di x86 in termini di software e prestazioni.
Analisi di Briefing.com:
L’accordo tra INTC e NVDA è con ogni probabilità la partnership più significativa per Intel da oltre un decennio. I benefici per INTC sono duplice: da un lato una validazione imponente della sua divisione Foundry in difficoltà, dall’altro un immediato sostegno finanziario derivante dall’investimento e dagli ordini di chip di NVDA. L’operazione riduce inoltre i rischi legati al piano di spesa in conto capitale di Intel da miliardi di dollari, finora sotto pressione a causa di ritardi e sforamenti di costi.
Per NVDA, i vantaggi sono più incrementali: la società ottiene maggiore controllo architetturale grazie all’integrazione verticale di CPU x86 nelle proprie piattaforme AI, riducendo potenzialmente la dipendenza da fornitori terzi come AMD.
Punti Salienti
Potenziale rivalutazione strutturale di Intel nei prossimi trimestri.
NVIDIA investe 5 miliardi $ in Intel per partnership su chip AI e PC.
Intel produrrà CPU x86 personalizzate e SoC con GPU RTX integrate.
L’accordo rafforza la Foundry di Intel e diversifica la supply chain di NVDA oltre TSMC.
AMD e Qualcomm risultano esposte a forti pressioni competitive.
16/09/25 Industry Dive: Cadence Design Systems spenderà 3,2 miliardi di dollari per la tecnologia di simulazione di Hexagon
Punti Salienti
- Cadence Design Systems acquisirà il business di design e ingegneria di Hexagon per circa 3,18 miliardi di dollari in contanti e azioni.
- L’acquisizione espanderà il portafoglio di Cadence includendo software di simulazione multifisica usato in settori come aerospazio e automotive.
- L’accordo dovrebbe chiudersi nel primo trimestre 2026 e rafforzerà la posizione di Cadence nel mercato dell’analisi strutturale, già sostenuta dall’acquisizione di Beta CAE.
- Hexagon trasferirà oltre 1.100 dipendenti a Cadence; i suoi strumenti MSC Nastran e Adams sono usati da Boeing, Lockheed Martin, BMW, Toyota e altri.
- Hexagon venderà la divisione per semplificare il portafoglio e intende destinare i proventi ad acquisizioni future o al rimborso del debito.
Cadence Design Systems, produttore di software per la progettazione di chip, ha concordato l’acquisizione della divisione design e ingegneria di Hexagon, azienda tecnologica industriale con sede a Stoccolma, per circa 3,18 miliardi di dollari (2,7 miliardi di euro) in contanti e azioni.
Se approvata dai regolatori, l’operazione amplierà il portafoglio di Cadence includendo software di simulazione multifisica ampiamente utilizzato nei settori aerospaziale e automobilistico. La chiusura è prevista per il primo trimestre 2026.
L’acquisizione rafforzerà la strategia di “intelligent system design” della società di San Jose, California, e si aggiunge all’acquisto di Beta CAE, consolidando la sua posizione nel mercato miliardario dell’analisi strutturale.
Gli strumenti della divisione D&E di Hexagon, tra cui MSC Nastran e Adams, sono ampiamente usati per la simulazione strutturale e dinamica multibody da aziende come Boeing, Lockheed Martin, BMW, Toyota. Più di 1.100 dipendenti passeranno a Cadence come parte dell’accordo.
Secondo Cadence, l’integrazione delle tecnologie di simulazione di Hexagon permetterà di coprire un più ampio spettro di comportamenti fisici, tra cui elettromagnetismo, fluidi, strutture e movimento, fornendo una piattaforma multifisica completa.
“Questo sarà un passo cruciale per consentire ai nostri clienti di progettare i complessi sistemi convergenti di domani”, ha dichiarato Anirudh Devgan, presidente e CEO di Cadence.
Hexagon ha accettato di vendere la divisione per semplificare il proprio portafoglio di prodotti tecnologici industriali. La D&E, parte di MSC Software acquisita nel 2017, aveva generato ricavi per 265 milioni di euro (circa 280 milioni di dollari) lo scorso anno. I proventi della vendita saranno destinati a nuove acquisizioni o alla riduzione del debito.
L’azienda attende inoltre l’approvazione regolatoria per scorporare le divisioni “asset lifecycle intelligence” e “safety, infrastructure and geospatial” in una nuova società chiamata Octave, prevista per il prossimo anno.
10/09/25 HotHardware: Arm svela Lumex Compute Subsystem per un’IA potente ed efficiente sui dispositivi
di Ben Funk
Man mano che il mercato degli smartphone è maturato, i carichi di lavoro che i consumatori si aspettano dai loro piccoli computer tascabili sono aumentati drasticamente. Fortunatamente, i progettisti di chip continuano a sviluppare processori più veloci che si comportano bene con carichi di lavoro vari, senza compromettere completamente la durata della batteria.
Questa sera, Arm ha presentato la sua piattaforma Lumex Compute Subsystem (CSS), che porta grandi miglioramenti non solo nei carichi di lavoro generali della CPU, ma anche nelle attività di intelligenza artificiale sui dispositivi e nel gaming.
Miglioramenti alla CPU Lumex di Arm
La grande novità è che ogni parte del Lumex CSS è stata costruita appositamente per rendere l’IA on-device più efficace. I core CPU Lumex implementano le istruzioni Scalable Matrix Extension v2 (SME2), progettate per le operazioni matriciali di cui i modelli di IA moderni hanno bisogno.
Sebbene si ritenga che i coprocessori neurali specifici per l’IA rimarranno una parte fondamentale di qualsiasi SoC mobile, l’aggiunta di queste istruzioni trasforma di fatto il blocco CPU in un coprocessore AI a sé stante. Arm afferma che queste nuove istruzioni accelerate permetteranno ai licenziatari Arm di portare sul mercato dispositivi AI più rapidamente, con prestazioni più vicine a quelle dei sistemi desktop.
Arm afferma che le architetture CPU basate su Lumex CSS dovrebbero essere disponibili su tutto lo stack di prodotti di un cliente, dai dispositivi di punta fino a quelli a basso consumo ed efficienti. I vari design possono alimentare qualsiasi cosa, da un PC ai dispositivi indossabili con i fattori di forma più piccoli. Per gestire tutto questo, i design Lumex CSS includono quattro diversi tipi di core.
In cima c’è C1-Ultra, che è il design di core con le prestazioni più elevate, con un aumento delle prestazioni single-thread del 25% rispetto alla generazione precedente di Neoverse anno su anno. Questi sono quelli che potresti considerare come core “prime” e “performance” con le frequenze di clock più elevate, le migliori prestazioni e il consumo energetico più alto. Sono adatti per l’inferenza di modelli di grandi dimensioni, funzionalità fotografiche alimentate dall’IA e contenuti di IA generativa.
Sotto c’è C1-Premium, che secondo Arm racchiude le prestazioni di C1-Ultra in un’area del 35% più piccola rispetto a C1-Ultra. Molto probabilmente questo avverrà a scapito dell’efficienza energetica, il che influenzerà le velocità di clock e quindi diminuirà leggermente le prestazioni. Questi core saranno i core CPU principali nei dispositivi mobili sotto-flagship, così come core multi-tasking per cose come assistenti vocali e attività in background sui flagship.
Il design del core per l’efficienza è C1-Pro. Questi hanno un aumento del 16% nelle prestazioni sostenute rispetto ai design della generazione precedente, il che significa che non si ritireranno dalle velocità di picco così rapidamente quando vengono potenziati. Sono i core che Arm dice che i produttori di dispositivi vorranno utilizzare per scaricare la riproduzione video e le attività di inferenza in streaming. Probabilmente si troveranno praticamente in qualsiasi design alimentato da Lumex.
Infine, C1-Nano è il design più efficiente dal punto di vista energetico. Questi riducono il consumo energetico fino al 26% e utilizzano meno area rispetto a C1-Pro. Nella maggior parte dei casi, i core C1-Nano si troveranno nei dispositivi indossabili come orologi, anelli intelligenti e così via.
KleidiAI Rende l’IA Più Adatta ai Dispositivi Mobili
Per accompagnare le nuove istruzioni SME2 discusse sopra, Arm ha anche annunciato l’integrazione di KleidiAI per tutti i principali framework di IA. Arm afferma che le app costruite su ExecuTorch di PyTorch, LiteRT di Google, Alibaba MNN e ONNX Runtime di Microsoft beneficeranno tutte dell’opportunità di aumentare le prestazioni senza alcuna modifica al codice.
Lumex porta nuova portabilità alle app cross-platform. Ad esempio, le app chiave di Google come Gmail, YouTube e Google Photos sono già capaci di sfruttare i miglioramenti delle prestazioni SME2. Poiché SME2 esisterà su tutte le piattaforme Arm costruite con dispositivi Lumex, l’utilizzo di qualsiasi framework sopra menzionato migliorerà Windows on Arm e altre piattaforme. Anche Alipay ha mostrato LLM on-device che funzionano con SME2.
Nel complesso, Arm afferma che un cluster di CPU della famiglia C1 aumenta le prestazioni fino a 5x nelle attività di IA. Le prestazioni delle esperienze di “IA efficiente” che girano su core efficienti che non scaricano così intensamente la batteria, aumentano di circa 3x rispetto all’ultima generazione. Entrambe queste cifre si basano su una coppia di core di prestazioni C1-Ultra affiancati da sei core di efficienza C1-Pro.
Arm afferma che KleidiAI e SME2 aumenteranno le prestazioni sulle piattaforme di IA esistenti. Samsung, MediaTek e Apple sono tutti citati per il miglioramento della reattività e dell’efficienza delle app di IA on-device. Anche le traduzioni automatiche e i riassunti apparentemente beneficeranno di questa tecnologia.
Lumex Porta le Prestazioni Gaming alle GPU Mali
Arm afferma che la sua nuova GPU Mali G1-Ultra permetterà grafica di classe console sugli smartphone. La nuova Ray Tracing Unit v2 (RTUv2) aumenta le prestazioni nell’illuminazione avanzata, nelle ombre e nei riflessi di un fattore due rispetto all’ultima generazione di GPU Arm, denominata Immortalis G925. Non sembra che la grafica ray traced in tempo reale abbia conquistato i giochi mobile come ha fatto sulle piattaforme desktop e console, ma sembra essere solo questione di tempo prima che i giocatori mobile la richiedano.
Oltre al semplice ray tracing, Arm afferma anche che Mali G1-Ultra fornirà un aumento del 20% nei benchmark grafici rispetto all’ultima generazione. L’azienda cita specificamente Arena Breakout, Fortnite, Genshin Impact e Honkai Star Rail. Inoltre, questi titoli vedranno anche prestazioni aumentate ed efficienza energetica sui dispositivi sotto-flagship e focalizzati sull’efficienza equipaggiati con GPU Mali G1-Premium e G1-Pro.
Arm afferma che i benchmark grafici con la nuova GPU G1-Ultra a 14 core mostreranno un aumento delle prestazioni del 20% utilizzando simultaneamente il 9% di energia in meno per frame rispetto a Immortalis G925. Anche l’inferenza IA sulla GPU è aumentata del 20%. Tutto questo è in aggiunta al raddoppio delle prestazioni con il ray tracing.
Arm Lumex Migliora l’IA su Tutta la Piattaforma
Arm sta facendo grandi affermazioni con il suo annuncio di Lumex. L’azienda afferma che le prestazioni dell’IA aumenteranno fino a 5X sui dispositivi Lumex rispetto all’ultima generazione, inclusa una latenza 4,7x più bassa per i carichi di lavoro basati sulla voce e una generazione audio 2,8x più veloce. Questi sono numeri piuttosto importanti.
Questo resta da vedere, tuttavia, dato che i dispositivi che sfruttano i nuovi design devono ancora essere annunciati. E negli Stati Uniti, la maggior parte dei dispositivi Android utilizza chip progettati da Qualcomm, che è stata in battaglia legale con Arm nei tribunali. Man mano che i dispositivi iniziano ad arrivare sul mercato, potete contare su HotHardware per essere proprio lì pronti e capaci di riportare le ultime notizie, quindi rimanete sintonizzati.
05/09/25 Briefing.com: Broadcom supera le aspettative nel Q3 grazie alla forza dell’IA, aggiunge un quarto cliente importante, ottimista sulla domanda di IA per l’anno fiscale 2026
Punti Salienti:
- Broadcom AVGO riporta un forte Q3 con ricavi in crescita del 26% a 9,17 miliardi di dollari, superando le aspettative, grazie alla domanda di semiconduttori per IA.
- I ricavi da semiconduttori per IA salgono del 63% a 5,2 miliardi di dollari, con previsione di 6,2 miliardi di dollari nel Q4.
- Il backlog raggiunge un record di 110 miliardi di dollari, trainato da prenotazioni IA, con l’aggiunta di un quarto grande cliente, ipotizzato essere OpenAI.
- Il CEO Hock Tan resterà fino almeno al 2030, garantendo stabilità nella fase di crescita dell’IA.
- I ricavi non-IA (~4 miliardi di dollari) restano piatti, con rischio se la domanda di IA rallenta.
Broadcom AVGO sta registrando un forte rialzo dopo aver pubblicato un solido rapporto sugli utili del Q3 (luglio), alimentato da una crescita accelerata dei semiconduttori per IA e commenti ottimisti a lungo termine. L’azienda ha superato le aspettative di utili per azione e ricavi e ha previsto ricavi per il Q4 (ottobre) superiori al consenso.
I ricavi totali del Q3 sono cresciuti del 26% rispetto all’anno precedente, raggiungendo 9,17 miliardi di dollari, superando la guidance precedente di circa 9,1 miliardi di dollari.
I ricavi da semiconduttori per IA sono aumentati del 63% rispetto all’anno precedente, arrivando a 5,2 miliardi di dollari, superando la guidance di 5,1 miliardi di dollari. Broadcom prevede che i ricavi da semiconduttori per IA cresceranno ulteriormente a 6,2 miliardi di dollari nel Q4 (66% rispetto all’anno precedente).
Il backlog ha raggiunto un record di 110 miliardi di dollari, guidato da forti prenotazioni per IA.
Mentre la domanda di IA è esplosa, i ricavi da semiconduttori non-IA (~4 miliardi di dollari) sono rimasti piatti rispetto al trimestre precedente, con tendenze miste tra i segmenti.
La direzione non ha fornito una guidance specifica per l’anno fiscale 2026, ma ha dichiarato che la crescita dell’IA nel 2026 accelererà significativamente rispetto al 2025. Un fattore chiave: l’aggiunta di un quarto grande cliente — ipotizzato essere OpenAI — che si unisce ai tre clienti XPU esistenti. Gli ordini di produzione di questo cliente hanno contribuito ai 10 miliardi di dollari in rack per IA già assicurati.
In notizie aziendali, Broadcom ha annunciato che il CEO Hock Tan rimarrà fino almeno al 2030, segnalando stabilità di leadership durante questa fase di alta crescita dell’IA.
Analisi di Briefing.com:
I risultati del Q3 sono stati solidi, ma la vera storia è il crescente vento favorevole dell’IA e la fiducia della direzione in un momentum ancora più forte per l’IA nel 2026. L’aggiunta di un possibile quarto cliente di spicco e un backlog record di 110 miliardi di dollari offrono a Broadcom una rara visibilità sulla domanda a lungo termine. Con il silicio personalizzato per IA e il networking al centro della sua storia di crescita, AVGO rimane un nome cruciale nella filiera dell’IA. Detto questo, la domanda non-IA rimane debole, il che potrebbe pesare se il momentum dell’IA rallentasse.
29/08/25 – Financial Times: Gli investitori puntano su Cambricon come prossimo campione dell’IA cinese
Punti Salienti
- Cambricon è diventato il principale sfidante di Huawei nel settore cinese dei chip per IA.
- Le azioni sono salite vertiginosamente, ma la società avverte che i prezzi potrebbero essersi staccati dai fondamentali.
- Supporto politico da Pechino per ridurre la dipendenza da Nvidia e aumentare la produzione interna.
- La compatibilità software rende i chip di Cambricon più facili da usare rispetto agli Ascend di Huawei.
- La crescita dipende dalla capacità produttiva di SMIC per chip a 7 nm.
Nel 2019, quando Huawei smise di utilizzare la tecnologia di Cambricon per i suoi smartphone, il progettista cinese di chip per intelligenza artificiale perse gran parte del proprio business, un colpo che avrebbe potuto essere devastante.
Ma sei anni dopo, una svolta ha reso Cambricon il principale sfidante di Huawei in Cina, con investitori che scommettono pesantemente che sarà tra i vincitori della campagna di Pechino per raggiungere maggiore autosufficienza tecnologica e ridurre la dipendenza dell’industria IA dai chip prodotti dal colosso statunitense Nvidia.
Il prezzo delle azioni di Cambricon è schizzato in alto per la speculazione che possa diventare il principale fornitore di chip per alimentare i modelli sviluppati da DeepSeek, il campione cinese dell’IA che quest’anno ha sbalordito la Silicon Valley e i mercati con la sua svolta tecnologica.
Dopo che le azioni sono raddoppiate dall’inizio del mese fino a Rmb 1.495 (209 $), portando la capitalizzazione di mercato a Rmb 580 mld, il produttore di chip ha avvertito venerdì gli investitori che il “prezzo delle azioni potrebbe staccarsi dai fondamentali [del business]”.
Huawei continua a dominare l’industria cinese dei chip IA. Ma i responsabili politici hanno appoggiato Cambricon nel tentativo di creare un ambiente competitivo e aumentare la produzione nazionale di semiconduttori.
La start-up, con meno di dieci anni di vita, produce chip IA per data center e moduli di edge computing, che portano le risorse di calcolo più vicine ai dispositivi invece che in data center remoti. Cambricon, che martedì ha riportato un utile di Rmb 1 mld (140 mln $) nei primi sei mesi, si è allineata ai piani di sviluppo dell’IA di Pechino.
L’azienda “deve farsi carico della missione e della responsabilità della nostra epoca” per far progredire la tecnologia IA, ha dichiarato quest’anno il fondatore Chen Tianshi durante una call con gli investitori.

La start-up è nata da un team, che include Chen e suo fratello, che ha passato anni a sviluppare processori presso il principale istituto di ricerca cinese, l’Accademia Cinese delle Scienze (CAS). Con il supporto della CAS, il gruppo si è separato nel 2016 e ha presto rilasciato il suo primo chip per compiti di IA. L’istituto rimane il secondo maggiore azionista di Cambricon dopo Chen, con una quota del 15,7%.
Huawei, primo grande cliente dell’azienda, rappresentava il 98% dei ricavi nel 2018, grazie alla concessione in licenza della tecnologia IA per i suoi smartphone. Quando il conglomerato sostituì Cambricon con la propria tecnologia, il progettista di chip si concentrò sugli acceleratori di calcolo cloud, che elaborano compiti IA complessi. La mossa mise l’azienda in concorrenza diretta con il suo ex cliente.
Cambricon subì un altro colpo importante nel 2022, quando Washington l’ha inserita nella “entity list” per il presunto supporto allo sviluppo militare cinese. Fu costretta a interrompere i rapporti con la Taiwan Semiconductor Manufacturing Company (TSMC), suo principale partner di produzione, rivolgendosi a produttori cinesi.
Tra il 2020 e il 2024, Cambricon ha investito Rmb 5,6 mld in ricerca e sviluppo, destinandoli a miglioramenti software per facilitare l’uso di modelli originariamente addestrati su GPU Nvidia sui chip rivali Siyuan.
Secondo diverse fonti, tra cui un ingegnere IA di ByteDance, la compatibilità software di Cambricon rende i suoi prodotti più facili da usare rispetto agli Ascend di Huawei.
“Cambricon ha faticato a ottenere slancio fino alla fine del 2024, quando ha collaborato con ByteDance per rendere il chip più compatibile con gli algoritmi addestrati sull’ecosistema Nvidia”, ha dichiarato Lin Qingyuan, analista di semiconduttori presso Bernstein.
Le entrate di Cambricon dovrebbero salire da Rmb 6,5 mld quest’anno a Rmb 13,8 mld nel 2026, secondo le stime di Goldman Sachs, con la quota di mercato dell’azienda nei chip IA in Cina che dovrebbe crescere dal 3 all’11% entro il 2028.
Molti tra i principali acquirenti cinesi di chip IA, tra cui China Telecom, Alibaba, Tencent e Baidu, competono con Huawei in altri settori, come le apparecchiature di rete, il cloud computing e le auto a guida autonoma, creando un forte incentivo a sostenere alternative al conglomerato tecnologico dominante.

Huawei ha rifiutato di commentare. ByteDance e Cambricon non hanno risposto alle richieste di commento.
La crescita di Cambricon dipende dalla velocità con cui il suo partner produttivo, Semiconductor Manufacturing International Corporation (SMIC), potrà aumentare la produzione di chip a 7 nm, i nodi avanzati usati per i processori IA.
L’anno scorso Pechino ha ordinato a SMIC di riservare una quota maggiore della sua capacità produttiva a Cambricon, invece di vendere tutti i nodi avanzati a Huawei, secondo due fonti vicine alla questione.
Il Financial Times ha riferito che SMIC prevede di raddoppiare la capacità dei 7 nm l’anno prossimo, il che darà a Cambricon e ad altri progettisti cinesi di semiconduttori una quota ancora maggiore della sua produzione.
Cambricon ha faticato a soddisfare la domanda dopo aver venduto la maggior parte dei suoi chip nel primo trimestre al colosso di internet ByteDance, secondo due fonti informate, tra cui un dirigente della stessa società.
Lin di Bernstein ha affermato che è “questione di tempo” prima che le fonderie cinesi guidate da SMIC possano aumentare la capacità di produzione di chip IA.
“Non c’è mai stato un problema di capacità che la Cina non sia stata in grado di risolvere. Costruire cose è ciò che facciamo quando c’è denaro da guadagnare”, ha dichiarato un investitore nei semiconduttori cinesi.
Tuttavia, gli analisti avvertono che Cambricon rimarrà un attore più piccolo rispetto a Huawei.
Huawei sta lavorando per risolvere i problemi software che rendono i suoi chip difficili da usare. Sta modificando l’architettura dei chip per offrire agli sviluppatori maggiore flessibilità e sta progettando un nuovo processore per facilitare l’addestramento e l’implementazione di grandi modelli linguistici, secondo diverse fonti informate.
Huawei è l’unico produttore di chip a offrire un’alternativa valida al NV-Link di Nvidia, una tecnologia che connette i suoi chip, il che potrebbe darle un vantaggio sui chip di addestramento IA rispetto a Cambricon, affermano gli analisti.
La preoccupazione immediata di Cambricon è ottenere maggiore capacità da SMIC per fabbricare i suoi chip.
“I nostri clienti danno una valutazione molto alta ai suoi prodotti dopo i test”, ha dichiarato un venditore di Inspur, uno dei maggiori assemblatori cinesi di data center. “Semplicemente non ce ne sono abbastanza.”
Ulteriori contributi di Nian Liu da Pechino.
29/08/25 Barron’s: Le azioni Marvell crollano. Perché il produttore di chip AI continua a deludere il mercato.
Di Adam Clark
Le azioni di Marvell Technology (MRVL) erano in forte calo venerdì, mentre la società di chip per intelligenza artificiale fatica a soddisfare le aspettative sul suo business di hardware AI personalizzato.
Il titolo perdeva il 16% a 65,22 dollari nelle prime contrattazioni. Una reazione sorprendente, considerando che nel report di giovedì sera Marvell è tornata in utile e ha annunciato un aumento del fatturato del 58%. Ma l’attenzione si è concentrata sulle previsioni, inferiori alle attese, a causa della debolezza nel segmento cruciale dei data center.
Marvell aveva corso in Borsa insieme a Broadcom (AVGO), quando gli investitori scommettevano che clienti come Amazon.com (AMZN) e Microsoft (MSFT) avrebbero speso molto sui suoi chip AI personalizzati come alternativa all’hardware Nvidia. Tuttavia, il titolo resta volatile perché la società fatica a convincere il mercato di poter conquistare contratti di lungo termine.
«Con i ricavi AI di [Marvell] in calo nel breve termine, è improbabile che gli investitori paghino per qualcosa di non ancora dimostrato. Inoltre, con Nvidia che prevede una crescita AI del 50% l’anno prossimo e Broadcom almeno del 60%, il 30% circa di Marvell suggerisce che non stia guadagnando quote di mercato», ha scritto Ben Reitzes, analista di Melius Research, che assegna al titolo un rating Hold e un target di 70 dollari.
Continuano a circolare dubbi sulla relazione di Marvell con il suo principale cliente di chip AI personalizzati, Amazon, e se l’azienda stia perdendo commesse a favore della taiwanese AIchip Technologies (3661).
«Sebbene l’opportunità di Marvell nel breve termine con Amazon possa ridursi nelle prossime generazioni (cedendo quote al concorrente taiwanese Alchip), il lato positivo potrebbe essere un’evoluzione del business ASIC verso una crescita più diversificata e resiliente», ha scritto Sebastien Naji di William Blair, che mantiene un rating Outperform sul titolo. La dirigenza di Marvell ha ribadito di puntare a una quota del 20% in un mercato da 94 miliardi di dollari entro l’anno fiscale 2029.
Il titolo Marvell ha già recuperato in passato dopo vendite massicce legate a notizie su progetti futuri di chip AI personalizzati, e alcuni analisti scommettono che accadrà di nuovo.
«Non vediamo cambiamenti nella situazione e riteniamo ancora che il business con Amazon crescerà il prossimo anno – come già indicato dalla società – e che Microsoft sia ancora in linea per iniziare a crescere tra la fine del 2026 e l’inizio del 2027», ha scritto Timothy Arcuri di UBS. L’analista ha ridotto il target sul titolo a 95 dollari da 110, mantenendo però un rating Buy.
Marvell ha riportato un utile di 22 cent per azione nel trimestre chiuso a inizio agosto, con ricavi di 2,01 miliardi di dollari. Per il trimestre in corso, prevede un fatturato di 2,06 miliardi, più o meno 5%, contro i 2,11 miliardi stimati dagli analisti. L’utile per azione rettificato atteso è di 74 cent, più o meno cinque cent, rispetto ai 72 cent previsti da Wall Street.
Scrivere ad Adam Clark: adam.clark@barrons.com
20/08/25 Briefing.com: Analog Devices sale dopo i risultati del Q3, continua la ripresa dell’industriale (242,78 $ +12,34 $)
Analog Devices (ADI +5%) è in rialzo dopo aver riportato stamattina risultati nettamente superiori alle attese per il terzo trimestre (luglio). L’utile per azione ha battuto di molto le stime, mentre i ricavi sono cresciuti del 24,6% su base annua a 2,88 miliardi di dollari, superando le previsioni. ADI ha anche fornito una guidance per il quarto trimestre (ottobre) ben al di sopra delle attese degli analisti.
- Il segmento principale è l’Industriale (45% dei ricavi Q3), cresciuto del 23% a/a e del 12% su base sequenziale. ADI afferma che la ripresa industriale è proseguita con crescita sequenziale in tutti i sottosettori e aree geografiche, mentre la crescita annua si è accelerata in tutte le principali applicazioni, guidata dal business degli apparecchi di test automatici, spinto dagli investimenti nell’AI. Anche il settore aerospazio e difesa ha registrato un trimestre record.
- ADI ha indicato che la ripresa industriale era partita dalle strumentazioni per aerospazio e difesa, ma ora vede crescite annue a doppia cifra in tutto il portafoglio industriale. In particolare, l’automazione industriale è stata l’ultima a tornare a crescere a doppia cifra. Una nuova ondata di adozione è trainata da pressioni economiche e demografiche: ad esempio, la carenza cronica di manodopera in agricoltura viene colmata da sistemi robotici di alta precisione che migliorano anche la raccolta dati.
- L’Automotive (30% dei ricavi) è cresciuto del 22% a/a ma è calato dell’1% sequenziale. ADI si aspetta ricavi auto record nel 2025, ma ritiene che il segmento sia stato sostenuto da ordini anticipati nel Q2-Q3, con un probabile assorbimento nel Q4: per questo si aspetta un calo nel prossimo trimestre. La buona notizia è che l’impatto di questi anticipi dovrebbe esaurirsi entro la fine dell’anno fiscale.
- Le Comunicazioni (13%) hanno brillato in Q3 con ricavi in crescita del 40% a/a e del 18% sequenziale, trainati dal business wireline e data center (circa due terzi del totale), sostenuto dalla crescente domanda di AI. Infine, il Consumer (13%) è cresciuto del 21% a/a e del 16% sequenziale. La forza di ADI è stata quindi ampia e diversificata.
Complessivamente, il trimestre è stato solido, guidato dalla continua ripresa del segmento Industriale con crescita sequenziale in tutti i sottosettori e regioni. Le scorte nei canali industriali restano molto basse, mentre la domanda finale è ancora a doppia cifra sotto i livelli di consumo: un segnale positivo per il Q4, nonostante sia storicamente un trimestre più debole per questo segmento. Infine, il titolo è rimasto sostanzialmente laterale nell’ultimo anno: dovrà superare la resistenza dei 250 $ per segnalare un nuovo potenziale rialzo.
20/08/25 Sole 24 Ore: SoftBank entra in Intel

17/08/25 Sole 24 Ore: analisi Intel

16/08/25 Financial Times: gli investitori di CoreWeave vendono oltre 1 miliardo di dollari di azioni alla fine del lock-up IPO
Morgan Stanley, JPMorgan Chase e Goldman Sachs hanno organizzato oltre 1 miliardo di dollari di block trade in azioni CoreWeave, mentre gli insider del gruppo di data center per l’intelligenza artificiale hanno venduto quote per la prima volta da quando la società è quotata in Borsa.
Tra coloro che hanno venduto alla scadenza del lock-up giovedì sera figura il direttore Jack Cogen, che ha ceduto azioni per un valore complessivo vicino ai 300 milioni di dollari, secondo le comunicazioni societarie. Venerdì a mezzogiorno il titolo era stabile intorno ai 100 dollari, dopo un calo di circa il 35% nei due giorni precedenti.
Persone vicine alla vicenda hanno riferito di una vera frenesia giovedì sera, mentre le banche organizzavano le operazioni in vista della possibilità di negoziare per la prima volta l’84% del flottante dalla quotazione di marzo. Morgan Stanley, JPMorgan e Goldman Sachs non hanno commentato. Secondo due fonti, giovedì sono stati negoziati blocchi fino a 6 milioni di azioni, mentre una terza fonte ha detto che i banchieri sono rimasti “sorpresi” dal numero di venditori. Morgan Stanley, in un certo momento, avrebbe tentato di collocare un blocco da 8 milioni di azioni, per un valore fino a 740 milioni di dollari.
I block trade vengono organizzati privatamente dalle banche per consentire ai soci di scaricare grandi quantità di azioni senza inondare il mercato e far crollare il prezzo. Gli acquirenti in genere ottengono le azioni a sconto rispetto ai prezzi di mercato. L’identità degli altri venditori e i dettagli finali delle operazioni non sono stati confermati. CoreWeave ha rifiutato di commentare.
CoreWeave, che affitta capacità di data center a società che sviluppano modelli di intelligenza artificiale, è stata tra le principali beneficiarie degli ingenti investimenti nell’infrastruttura AI nell’ultimo anno. Cogen è direttore dal 2017. Tra i maggiori azionisti figurano gli hedge fund Magnetar Capital e Coatue Management, il gestore Fidelity, il market maker Jane Street e il chipmaker Nvidia (6%). Magnetar, uno dei primi investitori, possiede circa il 30% del capitale, pari a circa 14 miliardi di dollari al prezzo di chiusura di giovedì, più della metà dei 26 miliardi di asset gestiti dall’hedge fund.
CoreWeave si è quotata a marzo a 40 dollari per azione, raccogliendo 1,5 miliardi di dollari nella maggiore IPO tecnologica dell’anno, pur ridimensionata rispetto ai piani iniziali. Il titolo è poi salito di oltre il 300% fino a un picco di 183 dollari a giugno. Gli analisti hanno sollevato preoccupazioni sulla forte dipendenza da un numero ristretto di clienti, sulle perdite crescenti, sui fabbisogni di capitale elevati e sui debiti costosi da rimborsare. La società del New Jersey ha dichiarato che avrebbe destinato circa 1 miliardo di dollari dei proventi dell’IPO al rimborso di 8 miliardi di debito in essere a fine 2024.

Alla chiusura di giovedì, il 46% delle azioni negoziabili risultava in posizioni corte di hedge fund che scommettono sul calo del titolo, secondo i dati di S3 Partners. Il lock-up è terminato due giorni dopo la pubblicazione di perdite superiori alle attese nella trimestrale del secondo trimestre. Nelle 48 ore successive ai risultati, il titolo è crollato di circa il 35%. Le spese operative sono balzate a 1,2 miliardi di dollari nel trimestre, quasi quattro volte rispetto all’anno precedente.
La società deve inoltre affrontare critiche per l’acquisizione da 9 miliardi di dollari di Core Scientific, un altro gruppo di data center AI e principale locatore di CoreWeave. Il Financial Times ha riferito che importanti investitori di Core Scientific, anch’essa quotata, hanno minacciato di votare contro l’operazione se non verranno migliorati prezzo e condizioni.
15/08/25 Briefing.com: Applied Materials sotto pressione nonostante i buoni risultati del Q3; la guidance per il Q4 pesa sul titolo e sull’intero settore (164,13 -24,11)
Applied Materials (AMAT -13%) è oggi sotto pressione dopo la pubblicazione, ieri sera, dei risultati del Q3 (luglio). L’azienda di semiconduttori ha rispettato le attese storiche, riportando un EPS superiore alle stime e ricavi ben oltre le previsioni. Tuttavia, la reazione negativa deriva dalla guidance sui ricavi del Q4 (ottobre), inferiore al consenso, che riflette una particolare debolezza del business in Cina. Inoltre, questa mattina sono arrivati diversi downgrade da parte di analisti (BofA, Summit Insights, DZ Bank).
- Le ragioni principali della guidance debole sono tre, secondo il management. Primo, la “digestione” della capacità in Cina: nel FY23-24 AMAT ha effettuato spedizioni molto consistenti verso la Cina, e ora i clienti stanno riducendo gli investimenti. Di conseguenza, l’azienda prevede che la Cina peserà per il 29% dei ricavi nel Q4, in calo rispetto al 35% di questo trimestre. Secondo, AMAT sta assumendo che l’arretrato di licenze di esportazione in attesa non verrà sbloccato nel prossimo trimestre. Infine, il management ha segnalato una domanda disomogenea dai clienti “leading-edge”, legata principalmente alla concentrazione del mercato e ai tempi di produzione: un punto che si discosta da quanto affermato nei trimestri precedenti.
- La società si attendeva una crescita costante della domanda “leading-edge” in accelerazione tra FY25 e FY26, sostenuta da utilizzo al 100% dei nodi più avanzati, aumento del capex da parte dei cloud service provider e forte traino dalle tecnologie legate all’AI, in particolare DRAM e HBM. Tuttavia, il flusso ordini del Q4 non rispecchia questa traiettoria. Il management osserva che le aziende sono state esitanti negli impegni di spesa per via di dazi, commercio e altre incertezze, un commento simile a quello di ASML (ASML) nella trimestrale Q2 (giugno).
- Passando alle performance del Q3 per segmento, Semiconductor Systems, il principale driver di ricavi, ha registrato un incremento del 10% a/a a 5,43 mld $, grazie alla forza del foundry-logic (investimenti dei clienti sui nodi gate-all-around), parzialmente compensata da una domanda più debole sui nodi ICAPS. Il management ha evidenziato risultati migliori del previsto nella DRAM, sostenuti da investimenti in DRAM avanzata per l’AI, mentre la NAND ha mostrato un forte aumento. Il segmento Applied Global Services (AGS) ha registrato ricavi per 1,6 mld $, +1% a/a, sopra le attese, trainati dalla crescita nei servizi core.
- Tuttavia, per il Q4 AMAT prevede ricavi di Semiconductor Systems in calo del 9% a/a a 4,7 mld $ e AGS in calo del 2% a/a a 1,6 mld $.
- La guidance debole di AMAT sta pesando anche su altre aziende del settore semiconduttori per la produzione di chip: KLAC Corporation (KLAC -7%), Lam Research (LRCX -7%) e ASML (ASML -1%) stanno tutte scendendo oggi, riflettendo i timori degli investitori che possano trovarsi di fronte a venti contrari simili.
Nonostante la solida performance del Q3, è evidente che la guidance per il Q4 grava pesantemente sulle azioni AMAT e sull’intero comparto semiconduttori. Ciò che spicca è il cambio di tono sulla domanda “leading-edge”, ora definita irregolare, con clienti più cauti sugli impegni di spesa. Inoltre, la riduzione degli investimenti in Cina — il mercato geografico principale di AMAT — contribuisce a rafforzare la prudenza degli investitori.
13/08/25 Briefing.com: Ambiq Micro Schizza verso l’Alto, Superando di Nuovo il Prezzo di IPO di 38 Dollari per Azione del 30 Luglio
Leader nelle Soluzioni di Semiconduttori a Bassissima Potenza per l’AI al Confine Beneficia dell’Espansione nei Dispositivi Indossabili, Dispositivi Medici e Applicazioni Industriali al Confine (AMBQ)
AMBQ ha anche una relazione chiave con Arm Holdings (ARM), un investitore chiave e partner tecnologico, che è un driver critico del suo potenziale finanziario e della fiducia degli investitori. Il chip di punta di AMBQ, Apollo510, sfrutta il core Cortex M55 a bassa potenza di Arm con tecnologia Helium per ottimizzare l’elaborazione dei modelli AI, rendendolo ideale per dispositivi al confine con vincoli energetici.
A differenza dei player incentrati sui data center, l’attenzione di AMBQ sull’AI al confine si allinea con il passaggio verso l’elaborazione su dispositivo, riducendo la latenza e migliorando la privacy.
La società non ha ancora riportato utili come società quotata in borsa. Nel suo prospetto di IPO, ha fornito una guida per i sei mesi terminati il 30 giugno 2025, prevedendo vendite nette di 32,8-34,4 milioni di dollari, equivalenti a un calo su base annua del 2,9-7,6%. Il profitto operativo non-GAAP è atteso tra 14,6-15,5 milioni di dollari, rappresentando un aumento del 27-34% su base annua.
AMBQ sta lavorando per ridurre la sua dipendenza dai clienti cinesi, in particolare Huawei. Mentre le vendite in Cina (che rappresentavano il 50% delle vendite del 2024, con Huawei al 41%) sono scese al 6% delle vendite nette nel primo trimestre, le vendite negli Stati Uniti, in Europa e in altre parti dell’Asia hanno registrato una forte crescita. Questo cambiamento, sebbene influisca sulla crescita complessiva dei ricavi, mira ad espandere il business al di fuori della Cina e a migliorare i margini lordi in quelle regioni.
Ambiq Micro beneficia della crescente domanda di soluzioni AI al confine a bassa potenza, con il supporto strategico di Arm Holdings, ma la transizione lontano dai clienti cinesi introduce rischi a breve termine per la crescita dei ricavi.
Le azioni di Arm stanno salendo. Il progettista di chip ha triplicato il suo mercato, secondo questo analista.
Di
Nate Wolf
Le azioni di Arm Holdings sono salite lunedì dopo che un analista di Wall Street ha consigliato agli investitori di acquistare il titolo.
Jay Goldberg di Seaport Research Partners ha avviato la copertura di Arm (ARM +2,30%) con un rating di acquisto e un obiettivo di prezzo di 150 dollari in una nota di ricerca pubblicata lunedì. Il progettista di chip britannico, che genera entrate sia dalle licenze che dalle royalty per chip, si è revitalizzato dopo la sua offerta pubblica iniziale del 2023 e ha ampliato il mercato che può servire, ha sostenuto Goldberg.
Le azioni di Arm sono aumentate del 3% a 142,65 dollari nel trading pomeridiano. Le azioni sono cresciute del 16% quest’anno, superando il Nasdaq Composite, che è salito dell’11%.
Un tempo dipendente dalla licenza di tecnologia per telefoni cellulari, Arm si è diversificata ampiamente, penetrando sia nel settore dei data center che in quello automobilistico, triplicando il suo mercato indirizzabile totale, ha scritto Goldberg.
L’intelligenza artificiale è stata un vantaggio in questo senso. I contenuti di Arm si trovano su quasi tutte le piattaforme Nvidia, e la tecnologia di Arm alimenta l’unità di elaborazione centrale (CPU) Nvidia Grace focalizzata sui data center, ha evidenziato Goldberg.
In un’intervista dello scorso mese con CNBC, il CEO Rene Haas ha previsto che la quota di mercato di Arm nelle CPU per data center raggiungerà circa il 50% entro la fine dell’anno. Meno di un decennio fa, ha detto Goldberg, Arm non aveva alcuna presenza in quel mercato.
Ma Arm non sta solo competendo per gli affari dei più ricchi hyperscaler.
“T tre anni fa, l’azienda ha introdotto una serie di modifiche ai suoi termini di licenza che hanno permesso a piccole aziende e startup di accedere più facilmente alla proprietà intellettuale di Arm,” ha scritto Goldberg. “Questo ha rafforzato la fascia bassa del mercato.”
Seaport ha previsto che il tasso medio di royalty che Arm reclama sui suoi chip salirà a 20 centesimi per chip nel 2027, rispetto agli 11 centesimi dell’anno scorso.
Nonostante il rating di acquisto, l’obiettivo di prezzo di Seaport di 150 dollari implica un rendimento di solo il 5% rispetto al prezzo di chiusura di venerdì di 138,50 dollari.
Scritto da Nate Wolf a nate.wolf@barrons.com
06/08/25 Bloomberg: Le preoccupazioni di AMD per la Cina oscurano una previsione di vendita ottimistica per l’intelligenza artificiale
Punti principali di Bloomberg AI
- AMD ha dichiarato che il ritorno sul mercato cinese è difficile da prevedere, a causa dell’incertezza sulle sue licenze.
- L’amministratore delegato Lisa Su è ottimista riguardo al mercato complessivo per il calcolo dell’intelligenza artificiale, affermando che l’azienda vede un chiaro percorso per scalare il suo business dell’intelligenza artificiale.
- Su ha rifiutato di prevedere le vendite cinesi dell’Instinct MI308, un processore per l’intelligenza artificiale progettato per la Cina, citando che le licenze dell’azienda sono ancora in fase di revisione.
Di Ian King 5 agosto 2025 alle 22:21 GMT+2 Aggiornato il 6 agosto 2025 alle 01:12 GMT+2
Advanced Micro Devices Inc., il secondo maggiore produttore di processori per l’intelligenza artificiale, ha dichiarato che il ritorno dell’azienda sul cruciale mercato cinese è difficile da prevedere, oscurando una previsione generalmente ottimistica per il suo business dell’intelligenza artificiale.
Come parte del suo rapporto trimestrale sugli utili di martedì, AMD ha rifiutato di prevedere le vendite cinesi dell’Instinct MI308, un processore per l’intelligenza artificiale che l’azienda ha progettato per il paese asiatico. L’incertezza ha pesato sulle azioni, facendole scendere in contrattazioni estese.

L’amministrazione Trump aveva vietato le spedizioni di tali chip in Cina ad aprile, anche se ha invertito la rotta il mese scorso, sollevando speranze che AMD e la rivale Nvidia Corp. potessero presto riprendere le vendite. La Cina è il più grande mercato per i semiconduttori, e le restrizioni hanno minacciato di cancellare miliardi di dollari di entrate totali da entrambe le aziende.
“Poiché le nostre licenze sono ancora in fase di revisione, non stiamo includendo alcuna entrata dall’MI308 nella nostra guidance per il terzo trimestre,” ha detto l’amministratore delegato Lisa Su in una conference call con gli analisti.
Su è stata ottimista riguardo al mercato complessivo per il calcolo dell’intelligenza artificiale. “Guardando avanti, vediamo un chiaro percorso per scalare il nostro business dell’intelligenza artificiale a decine di miliardi di dollari di entrate annuali,” ha detto durante la chiamata. L’azienda sta anche intensificando la sua nuova linea MI350, ha aggiunto.
Le azioni avevano guadagnato terreno nel 2025 fino alla chiusura, rendendo AMD il titolo con le migliori prestazioni nell’industria dei semiconduttori.
Tre mesi fa, AMD aveva dichiarato di aver subito svalutazioni di 800 milioni di dollari legate alle restrizioni all’esportazione cinesi e aveva avvertito che i limiti sarebbero costati 1,5 miliardi di dollari di entrate quest’anno. Wall Street stava aspettando indicazioni su come ciò fosse cambiato, dato il cambiamento di politica degli Stati Uniti.
Durante la conference call, gli analisti hanno ripetutamente chiesto una previsione specifica su quanto reddito l’azienda otterrà dall’intelligenza artificiale in Cina e quando. Hanno anche cercato di far impegnare Su su previsioni a lungo termine per le entrate complessive dei chip per l’intelligenza artificiale.
Ma Su e il direttore finanziario Jean Hu hanno mantenuto il loro messaggio: mentre i dirigenti sono fiduciosi sul mercato dell’intelligenza artificiale, i dettagli rimangono difficili da prevedere. Le precedenti svalutazioni dell’inventario cinese non possono essere convertite in entrate perché riguardavano chip incompleti che richiederanno ulteriori lavori di produzione, hanno detto.
Nonostante le incertezze, la previsione di entrate di AMD per il terzo trimestre ha facilmente superato le stime degli analisti. Le vendite saranno di circa 8,7 miliardi di dollari, ha detto l’azienda, rispetto a una proiezione media di 8,37 miliardi di dollari.
Le vendite del secondo trimestre sono aumentate a 7,7 miliardi di dollari, rispetto a una stima media di 7,43 miliardi di dollari. Il profitto è stato di 48 centesimi per azione, esclusi alcuni elementi. Gli analisti avevano previsto 49 centesimi. Le vendite dei data center sono aumentate a 3,2 miliardi di dollari nel periodo. In media, gli analisti avevano previsto 3,25 miliardi di dollari. Le vendite legate ai personal computer sono aumentate a 2,5 miliardi di dollari. La previsione media era di 2,56 miliardi di dollari.
Nell’ultimo decennio da quando Su ha assunto la guida di AMD, l’azienda è diventata un fornitore chiave di tecnologia nell’industria del calcolo. La capacità di fornire prodotti competitivi — in un momento in cui il rivale di lunga data Intel Corp. ha inciampato — ha portato a un’inversione di fortune.
La capitalizzazione di mercato di AMD è ora di circa 200 miliardi di dollari superiore a quella di Intel. Tuttavia, nessuna delle due aziende ha eguagliato il successo travolgente di Nvidia, la cui dominanza degli acceleratori per l’intelligenza artificiale l’ha resa l’azienda più preziosa al mondo.
AMD è il secondo maggior fornitore di chip grafici, che costituiscono la base per gli acceleratori per l’intelligenza artificiale che operano nei data center. I suoi microprocessori, nel frattempo, competono direttamente con i prodotti Intel nei mercati dei PC e dei server.
02/08/25 il Foglio: la parabola di Intel

Ci sono aziende che fanno profitti e aziende che fanno la storia. Poi ci sono quelle che sanno fare entrambe le cose, come Intel. Un marchio che è molto più di una semplice company con i suoi prodotti, manager e mercati. Senza Intel, non ci sarebbe la Silicon Valley che conosciamo oggi. Il mondo non avrebbe vissuto un boom dei personal computer come quello degli anni Ottanta e alcuni colossi, come Ibm e Microsoft, non sarebbero diventati così colossali. La rete internet non si sarebbe sviluppata con le modalità e la velocità che hanno caratterizzato il suo decollo. L’intero ecosistema digitale che oggi diamo per scontato è stato segnato dalla rivoluzione dei microprocessori introdotta da Intel e chi ha l’età per ricordare gli anni Novanta non può non collegare il marchio “Pentium” e l’iconica campagna di marketing “Intel Inside” all’idea di velocità, efficienza di calcolo e potenza dei computer.
Il problema è che oggi Intel sembra in difficoltà sia nel fare profitti, sia nel cambiare la storia e rischia di restare confinata alla memoria del tempo andato. L’incubo all’orizzonte è quello di andare ad aggiungersi alla lista di quei marchi che vengono analizzati nei master universitari, quando si vuol raccontare cosa succede a chi non capisce al volo l’innovazione: Kodak, Blockbuster, Nokia, Blackberry, Motorola, Polaroid, Toys ‘R’ Us, Myspace.
Non è detto che finisca così, il destino di Intel è ancora tutto da scrivere e potrebbe anche essere quello di una grande rinascita. Sicuramente però l’azienda di Santa Clara, in California, sta vivendo la fase più difficile dei suoi quasi sessant’anni di attività. E può dare la colpa solo a se stessa e ai suoi manager per aver fatto male i conti e frainteso non solo una, ma addirittura due rivoluzioni negli ultimi venticinque anni: quella degli smartphone e quella dell’intelligenza artificiale. Errori che in un mondo veloce e spietato come quello digitale si pagano cari. Quello che nel 2000 era un colosso da 500 miliardi di dollari di capitalizzazione che dominava il mondo dei semiconduttori, è oggi ridotto a dimensioni al di sotto dei 100 miliardi, che lo collocano ben dopo la quindicesima posizione del settore a livello mondiale. Lontano anni luce dai big attuali come Nvidia, che sulle potenzialità dell’ai ha capito tutto prima degli altri e vale oggi in Borsa circa 4 trilioni di dollari (quattromila miliardi). O come il leader mondiale taiwanese dei microchip Tsmc (Taiwan Semiconductor Manufacturing Company) che viaggia intorno agli 1,5 trilioni.
Nonostante l’aiuto dei governi americani, prima quello di Joe Biden e ora quello di Donald Trump, che hanno stanziato centinaia di miliardi per aiutare il settore dei microchip “made in Usa” e hanno cercato di favorire la ripresa di Intel, la società californiana è diventata un pesce piccolo che rischia di venir inghiottito da qualcuno dei colossi pieni di liquidità da spendere. Per difendersi può far poco e per riprendersi non può che tagliare per diventare ancora più snella. E quindi ancora più esposta ai rischi di scalata sul mercato.
La strada dei tagli era già stata intrapresa da Pat Gelsinger, il ceo che negli ultimi anni ha provato a rianimare Intel, senza riuscirci. Gelsinger ha dato il via a un piano di riduzione di quindicimila posti di lavoro, portandoli a circa 100 mila, ma non è riuscito a recuperare posizioni né nella produzione di chip dominata da Tsmc, né nel settore del design di dispositivi per L’AI, dove le eccellenze sono Nvidia e Amd. Il titolo Intel ha perso il cinquanta per cento del valore in un anno e lo scorso dicembre il board della società ha deciso di cacciare Gelsinger e mettere fine al suo progetto. Sono stati necessari molti mesi per individuare un successore e alla fine, ad aprile, la scelta è caduta su Lip-bu Tan, un top manager di lunga esperienza nel settore dei semiconduttori che nei giorni scorsi, in occasione della presentazione dei dati della semestrale, ha illustrato la sua ricetta: taglio di altri venticinquemila dipendenti, per scendere a 75 mila, e addio ai piani di costruire stabilimenti in Europa (soprattutto Germania e Polonia, ma si era parlato anche di Italia), frenando anche sull’espansione in Ohio che sia Biden sia Trump rivendicavano come una propria vittoria politica. “Stiamo prendendo decisioni difficili ma necessarie – ha detto Tan – per snellire l’organizzazione, promuovere una maggiore efficienza e aumentare la responsabilità a tutti i livelli dell’azienda”.
L’arrivo del malese di etnia cinese Lip-bu Tan alla guida di Intel va tra le altre cose ad aggiungere un nuovo tassello al mosaico multietnico dei ceo delle grandi aziende digitali americane, proprio nel pieno dell’ondata anti immigrazione e “America First” del mondo Maga di Trump. Nvidia è guidata dal fondatore Jensen Huang, che ha americanizzato il nome dall’originale Jen-hsun ed è figlio di immigrati taiwanesi, così come è taiwanese Lisa Su, la ceo della rivale Amd. Google, Microsoft e Ibm sono guidate da tre top manager di origini indiane, Sundar Pichai, Satya Nadella e Arvind Krishna. Il ceo di Uber è l’iraniano Dara Khosrowshahi, mentre il sudafricano Elon Musk guida Tesla, Spacex e il social media X.
C’è un immigrato anche alle origini di Intel, ma la storia era cominciata con due giovani talenti americanissimi. Per capire cosa è stata Intel bisogna partire da loro, Robert “Bob” Noyce e Gordon Moore, e dal giorno nel 1955 quando arrivarono nella Valley. Il primo era un atletico ventottenne dell’iowa che lo scrittore Tom Wolfe, in una biografia, paragonò all’attore Gary Cooper. L’altro era un chimico californiano ventisettenne dal carattere pacato e i modi gentili. Ad assumerli a Palo Alto, che all’epoca era ancora una valle di coltivatori di albicocche, era stato William Shockley, un genio dal carattere impossibile che, dopo aver inventato il transistor e in attesa di venir premiato con il Nobel per la fisica, aveva aperto lo Shockley Semiconductor Laboratory per produrre semiconduttori. Noyce e Moore riuscirono a resistere solo pochi anni al fianco dell’inventore, poi insieme ad altri sei manager passati alla storia come i “traditori” si sganciarono e nel 1957 diedero vita a una realtà concorrente, Fairchild Semiconductor.
Shockley e Fairchild, insieme alla Hewlett Packard che già da anni operava in zona, sono le realtà che in pratica hanno “inventato” la Silicon Valley, che però comincerà ad essere chiamata così solo nei primi anni Settanta, dopo l’arrivo di una nuova protagonista: la Integrated Electronics Corporation, in breve Intel. A fondarla nel 1968 furono proprio Noyce e Moore, stavolta abbandonando Fairchild per mettersi in proprio. Ormai i due erano diventati veri e propri guru della Valley. Noyce aveva appena inventato il microchip, cioè il primo circuito integrato con tutti i componenti ricavati da una fetta di silicio, anche se una serie di dispute legali portarono a condividere l’invenzione con Jack Kilby di Texas Instruments: quando quest’ultimo nel 2000 vinse il Nobel, Noyce non c’era più, ma fu comunque riconosciuto come l’altro padre del microchip.
Moore nel frattempo studiava l’evoluzione del mondo dell’elettronica, che mostrava caratteristiche che apparivano costanti. Ogni anno le dimensioni dei dispositivi si riducevano e nello stesso tempo la produzione diventava più economica, mentre aumentavano la velocità di calcolo e la potenza. Nel 1965 Moore pubblicò sulla rivista “Electronics” un articolo che esaminava questo fenomeno ed era destinato a passare alla storia. Vi si sosteneva che il numero di transistor che si potevano riunire su un unico microchip era pressoché raddoppiato ogni anno fino ad allora e che la tendenza sarebbe proseguita per almeno un altro decennio. Un professore della Caltech la definì “legge di Moore” e da allora è diventata un caposaldo non solo nella ricerca scientifica, ma anche nella produzione industriale nel campo dell’elettronica. La profezia di Moore è stata nel tempo integrata dalle considerazioni sulle prestazioni dei microchip, prevedendo che sarebbero raddoppiate ogni diciotto mesi, e anche da ipotesi sul costante crollo dei prezzi.
Alla coppia costituita dal genio Moore e dal “sindaco della Silicon Valley”, come venne poi soprannominato Noyce, in breve tempo si unì un terzo manager di Fairchild, l’immigrato che andava ad affiancare i due americanissimi fondatori, come dipendente numero tre. Si chiamava András Gróf, era un ebreo nato a Budapest e sfuggito prima ai rastrellamenti nazisti e poi al regime comunista. A ventuno anni era riuscito a raggiungere gli Usa, aveva imparato da solo l’inglese, si era laureato con il massimo dei voti al City College di New York e poi aveva conseguito un dottorato in ingegneria chimica a Berkeley. Nel frattempo, aveva americanizzato il nome in Andrew Grove e aveva cominciato la carriera in Fairchild. Il suo passaggio in Intel segnava l’inizio di una delle carriere più celebri e significative nella storia dei computer.
Intel in pochissimo tempo divenne la forza dominante in una Silicon Valley piena di nuove energie, grazie anche a una propria peculiare cultura aziendale, molto diversa da quelle della Shockley e della Fairchild da cui era nata. Noyce aveva impostato l’azienda su basi profondamente egalitarie, Moore ne gestiva la visione di lungo termine, ma fu Grove a modellarla e guidarla, con un approccio che è ben riassunto nel titolo del suo futuro bestseller, “Only the Paranoid Survive” (solo i paranoici sopravvivono). Sempre lo scrittore Wolfe, quando raccontò il mondo Intel nel suo ritratto di Noyce, propose una chiave di lettura che è rimasta nel tempo: “Non è un’azienda. E’ una congregazione”.
I paranoici di Intel, tra i quali c’era un altro immigrato importante, l’italiano Federico Faggin, nel novembre 1971 comprarono due pagine di pubblicità sulla rivista Electronic News per annunciare “una nuova èra dell’elettronica integrata”. Non era un’esagerazione, perché presentavano al mondo il primo microprocessore, il 4004: un chip programmabile per eseguire qualunque funzione logica era un grande salto in avanti rispetto ai chip mono funzione e apriva le porte all’imminente boom del software, perché d’un tratto diventava decisiva la funzione dei tecnici che erano in grado di programmare le istruzioni da dare a quel sistema. Lo capirono subito due ragazzi che in quegli anni, in un negozio di elettronica, comprarono il modello successivo del microprocessore, l’intel 8008, e ci costruirono sopra un’azienda di software. Si chiamavano Bill Gates e Paul Allen e la loro Microsoft sarebbe diventata presto la grande protagonista della rivoluzione digitale, grazie ai processori Intel, dando vita a quell’alleanza “Wintel” (Windows+intel) che ha dominato per decenni il mondo dei pc.
L’epoca del Pentium e degli adesivi “Intel Inside” presenti su ogni computer sulla faccia della Terra sembrava aver segnato, negli anni Novanta, il dominio assoluto dell’azienda americana nel settore dei semiconduttori. Ma come molte altre realtà della Valley, Intel è stata lenta nel nuovo secolo a capire la portata del boom della telefonia mobile, restando aggrappata all’apparente sicurezza del proprio mercato dei computer. Non è stato però solo il decollo degli smartphone a mettere in crisi il colosso, quanto una serie di fenomeni che hanno visto un’accelerazione negli ultimi anni. Intel non è riuscita a tenere il passo dei rivali asiatici Tsmc e Samsung nel campo dell’advanced chip packaging, cioè delle nuove metodologie di realizzazione dei microchip, sempre più sofisticate per venire incontro all’innovazione digitale. Ma soprattutto non ha visto arrivare e non ha capito in tempo cosa stesse accadendo con l’intelligenza artificiale.
Negli stessi anni Novanta in cui Intel dominava il mercato e sedeva sugli allori del proprio Pentium, l’immigrato taiwanese Huang con due amici apriva una piccola fabbrica in California chiamata Nvidia e specializzata in Gpu, le schede grafiche nate per i videogiochi. Negli anni successivi Nvidia ha capito che il futuro sarebbe stato dominato dalla potenza di calcolo e si è trasformata nella produttrice della tecnologia di base di cui oggi hanno bisogno tutti i protagonisti dell’ai.
Nel 2005 l’allora Ceo di Intel, Paul Otellini, intuì il pericolo in arrivo e propose al proprio board di acquistare Nvidia. All’epoca bastavano 20 miliardi di dollari, ma in casa Intel l’idea fu ridicolizzata: “Quella è un’azienda di schede grafiche per i videogiochi, roba da ragazzi. Noi mandiamo avanti il mondo, che bisogno abbiamo di quella tecnologia?”. Un errore di valutazione che assomiglia a quelli che all’epoca facevano i vertici di Nokia e Blackberry nel settore della telefonia o Kodak di fronte al boom della fotografia digitale. Vent’anni dopo, Intel deve lottare per non fare la loro fine.
01/08/2025 Financial Times: Arm esplorerà la progettazione dei propri chip, dice il direttore generale
Cambio strategico del gruppo britannico di proprietà di SoftBank sconvolgerebbe l’ecosistema dei chip
L’azienda britannica di chip Arm ha confermato mercoledì di essere al lavoro sull’idea di lanciare i propri chip, una mossa che rappresenterebbe un significativo cambiamento nei rapporti con grandi clienti come Nvidia.
Il direttore generale di Arm, Rene Haas, ha detto che l’azienda, che offre i progetti su cui altre società basano i loro chip, stava accelerando la spesa in ricerca e sviluppo mentre considera l’offerta di “soluzioni complete” — suggerendo che vuole progettare chip completi.
I progetti di Arm, di proprietà di SoftBank, dominano l’ecosistema dei chip per smartphone, con Apple e Samsung che usano chip basati su Arm nei loro prodotti. Nvidia li incorpora anche nei suoi prodotti per data center di intelligenza artificiale.
Tuttavia, il desiderio di prendere una parte più grande dell’enorme industria dei semiconduttori ha spinto Arm a esplorare un avanzamento nella “catena di progettazione” verso i propri prodotti finali.
Il Financial Times ha riportato a febbraio che Arm stava pianificando questa mossa.
Il mercato dei chip per data center AI è già affollato. La dominanza di Nvidia nel business dei data center AI è stata incontrata con competizione da parte di aziende come Amazon e Microsoft, che hanno progettato i propri chip personalizzati. Fornitori rivali come AMD stanno anche cercando una quota più grande.
Il direttore generale di SoftBank, Masayoshi Son, ha posizionato Arm al centro dei suoi sforzi per catturare una parte più grande dei soldi fatti nel boom dell’AI.
SoftBank ha già collaborato con OpenAI, Oracle e il fondo AI degli Emirati Arabi Uniti MGX nel progetto Stargate da 500 miliardi di dollari per costruire data center negli Stati Uniti nei prossimi quattro anni.
“Molti dei chiplet che vengono sviluppati sono principalmente IP Arm … e con quello stiamo ora guardando alla fattibilità di andare oltre la piattaforma attuale,” ha detto Haas agli analisti durante una chiamata mercoledì.
Le azioni in Arm sono cadute di circa l’8 per cento nel trading after-hours di mercoledì poiché ha dato una previsione di ricavi deludente per il terzo trimestre, con un valore medio di 1,06 miliardi di dollari rispetto ai 1,07 miliardi di dollari attesi.
Ha detto che si aspetta un utile per azione tra 0,29 e 0,37 dollari, con un valore medio più basso dello 0,35 dollari anticipato.
I ricavi per il trimestre fino alla fine di giugno sono stati di 1,05 miliardi di dollari, in aumento del 12 per cento anno su anno ma comunque leggermente sotto i 1,06 miliardi di dollari che gli analisti stavano anticipando.
Di quello, i ricavi da royalty — la parte pagata ad Arm dai clienti sui chip che vendono — sono stati di 585 milioni di dollari, in aumento del 25 per cento anno su anno, mentre i ricavi da licenze sono stati di 468 milioni di dollari, in calo dell’1 per cento.
Michael Acton in San Francisco Pubblicato il 31/07/2025 15 Stampa questa pagina Sblocca l’Editor’s Digest gratuitamente Roula Khalaf, Editore del FT, seleziona le sue storie preferite in questa newsletter settimanale.
23/07/25 CNR.com: La rivale di Nvidia, Hailo, lancia un chip GenAI per dispositivi edge
DI DYLAN MARTIN 22 LUGLIO 2025, 9:00 EDT

Tra le aziende che adottano l’Hailo-10H c’è HP Inc., che utilizza il chip come base per la scheda HP AI Accelerator M.2, che può integrarsi “senza soluzione di continuità” con i servizi di vendita al dettaglio di HP, nonché con le workstation e i PC commerciali di HP.
La rivale di Nvidia, Hailo, ha annunciato martedì la disponibilità generale del suo chip acceleratore AI di seconda generazione, affermando che il prodotto è il primo del suo genere a “portare vere prestazioni di intelligenza artificiale generativa al confine” consumando pochissima energia.
Hailo, una startup israeliana di chip AI, ha dichiarato che il chip Hailo-10H è capace di 40 trilioni di operazioni al secondo (TOPS) con prestazioni a 4 bit (INT4) e 20 TOPS con prestazioni a 8 bit (INT8) utilizzando 2,5 watt. In confronto, i chip Jetson Orin Nano di Nvidia possono raggiungere fino a 67 TOPS di INT8, che è il doppio della dimensione di INT4, ma hanno un intervallo di potenza di 7-25 watt.
Progettato per dispositivi edge nei mercati consumer, aziendali e automobilistici, l’Hailo-10H combina “alta efficienza, convenienza economica e un robusto ecosistema software”, supportato dal suo “stack software maturo e ampiamente adottato” utilizzato da oltre 10.000 utenti mensili, secondo la startup.
Tra le aziende che adottano l’Hailo-10H c’è HP Inc., che utilizza il chip come base per la scheda HP AI Accelerator M.2, che può integrarsi “senza soluzione di continuità” con i servizi di vendita al dettaglio di HP, nonché con le workstation e i PC commerciali di HP.
La startup ha dichiarato che l’Hailo-10H può abilitare casi d’uso avanzati come l’interazione uomo-macchina in linguaggio naturale, la consapevolezza visiva e l’AI multimodale per funzionare senza problemi entro i vincoli di potenza e costo tipici degli ambienti edge.
In benchmark di prestazioni condotti da Hailo, il chip ha dimostrato di raggiungere una “latenza del primo token inferiore a 1 secondo e oltre 10 token al secondo” su vari modelli di linguaggio e visione-linguaggio da 2 miliardi di parametri, secondo la startup.
Hailo, che è tra diverse startup di chip AI che sfidano Nvidia, collabora con un’ampia gamma di partner, da OEM come HP, Dell e Advantech a distributori come J-Squared Technologies e Kaga Fei America, tra gli altri.
Fondata nel 2017, la startup ha raccolto oltre 340 milioni di dollari da investitori, inclusi 120 milioni di dollari per un round di estensione di Serie C annunciato l’anno scorso.
23/07/25 Bloomberg: La sfidante di Nvidia, FuriosaAI, ottiene il primo grande cliente, LG
Di Yoolim Lee 22 luglio 2025 alle 7:00 GMT+2

FuriosaAI Inc. ha siglato il suo primo grande contratto dopo che LG AI Research ha dato l’approvazione finale per il suo chip AI RNGD. LG utilizzerà il chip RNGD per alimentare i suoi modelli di linguaggio di grandi dimensioni Exaone, secondo quanto dichiarato dall’Amministratore Delegato di FuriosaAI, June Paik. FuriosaAI e LG intendono distribuire server RNGD con Exaone in una vasta gamma di settori, e FuriosaAI pianifica di raccogliere capitali prima di perseguire un’offerta pubblica iniziale, secondo fonti informate. FuriosaAI Inc., la startup con sede a Seoul che mira a progettare chip per competere con Nvidia Corp., ha siglato il suo primo grande contratto mesi dopo aver rifiutato un’offerta di acquisizione da 800 milioni di dollari da parte di Meta Platforms Inc.
La startup ha ottenuto l’approvazione finale per il suo chip AI RNGD (pronunciato “Renegade”) da LG AI Research dopo sette mesi di rigorosa valutazione delle prestazioni e dell’efficienza. L’azienda coreana più grande utilizzerà il chip per alimentare i suoi modelli di linguaggio di grandi dimensioni Exaone, ha dichiarato l’Amministratore Delegato di FuriosaAI, June Paik, a Bloomberg News.
June Paik Fonte: FuriosaAI Inc. L’approvazione di LG è una validazione per FuriosaAI, una delle poche aziende coreane di progettazione di chip che sperano di cavalcare il boom dell’infrastruttura AI post-ChatGPT. Il chip RNGD è stato progettato per sfidare non solo il leader del settore Nvidia, ma anche altre startup come Groq Inc., SambaNova Systems Inc. e Cerebras Systems Inc.
“Negli ultimi otto anni, abbiamo lavorato duramente dalle fasi di ricerca e sviluppo fino alla commercializzazione,” ha detto Paik. “Questo segnala che il nostro prodotto è pronto per l’adozione aziendale.”
Fondata nel 2017 da Paik, che in precedenza ha lavorato presso Samsung Electronics Co. e Advanced Micro Devices Inc., FuriosaAI sviluppa semiconduttori per l’inferenza o i servizi AI. Afferma di offrire prestazioni di inferenza 2,25 volte migliori per watt rispetto alle unità di elaborazione grafica.
Come le controparti coreane Rebellions Inc. e Semifive Inc., FuriosaAI sta cercando di sfruttare un vasto ecosistema di semiconduttori composto da talenti, fornitori e incentivi governativi che si è sviluppato intorno a Samsung e SK Hynix Inc. nell’ultimo decennio.
Nell’ambito della loro partnership, FuriosaAI e LG intendono distribuire server RNGD con Exaone in una vasta gamma di settori, dall’elettronica alla finanza. Alimenteranno anche l’agente AI aziendale interno di LG, ChatExaone, che l’azienda prevede di espandere a clienti esterni.
FuriosaAI sta lavorando per assicurarsi i prossimi clienti negli Stati Uniti, in Medio Oriente e nel Sud-est asiatico. Si aspetta di raggiungere accordi simili nella seconda metà di quest’anno, ha detto Paik.
FuriosaAI ha attirato l’attenzione pubblica quando, a marzo, è emersa la notizia che aveva respinto le avances di Meta, optando per l’indipendenza. Pianifica di raccogliere capitali prima di perseguire eventualmente un’offerta pubblica iniziale, secondo fonti informate.
16/07/25 Briefing.com: ASML sotto forte pressione a causa di una guidance debole, trascinando giù i concorrenti del settore
ASML (ASML -9%) è in forte calo oggi dopo la pubblicazione dei risultati del secondo trimestre. Questo produttore di attrezzature per semiconduttori ha riportato una crescita dei ricavi del 23,2% su base annua, raggiungendo 7,7 miliardi di euro, superando leggermente le aspettative grazie principalmente al riconoscimento di ricavi una tantum e agli aggiornamenti aziendali. L’azienda ha superato nettamente le aspettative di EPS per il secondo trimestre, registrando il miglior risultato in oltre cinque anni.
Sebbene i risultati del secondo trimestre siano stati impressionanti, gli investitori sono stati chiaramente delusi dal fatto che ASML abbia fornito una guidance ben al di sotto delle aspettative degli analisti sia per il terzo trimestre che per l’intero anno 2025.
Riguardo ai motivi della guidance debole, ASML ha dichiarato che i clienti stanno affrontando venti contrari macroeconomici e geopolitici. In particolare, alcuni clienti stanno gestendo sfide specifiche che potrebbero influire sui tempi delle loro spese in conto capitale. Anche le tariffe sembrano avere un impatto sui tempi.
Queste preoccupazioni hanno spinto il management a dichiarare: “anche se stiamo ancora sperando in una crescita nel 2026, non possiamo confermarla in questa fase.” Questo commento sembra alimentare ulteriormente le preoccupazioni degli investitori.
In particolare, ASML prevede ora ricavi per il terzo trimestre tra 7,4 e 7,9 miliardi di euro e una crescita dei ricavi per l’intero anno 2025 del 15%, entrambi ben al di sotto delle aspettative.
La guidance debole di ASML e il commento cauto stanno chiaramente sollevando preoccupazioni tra gli investitori riguardo al settore delle attrezzature per semiconduttori in vista della stagione degli utili. Di conseguenza, stiamo osservando una certa pressione di vendita su alcuni dei suoi concorrenti come Applied Materials (AMAT -3%), LAM Research (LRCX -2%) e KLA Corporation (KLAC -2%).
Sebbene i risultati del secondo trimestre di ASML siano stati impressionanti, la guidance cauta e i commenti per il terzo trimestre e l’intero anno 2025 stanno oscurando i risultati del secondo trimestre. Gli investitori sembrano preoccupati che anche altri nomi nel settore delle attrezzature per semiconduttori possano avere prospettive caute quando riporteranno i loro risultati nelle prossime settimane.
15/07/25 Briefing.com: Le vendite del chip H20 di NVIDIA in Cina riprenderanno, eliminando un importante ostacolo per il titolo (NVDA)
NVIDIA (NVDA) ha annunciato in un’e-mail agli investitori che prevede di riprendere “presto” le vendite del suo chip AI H20 in Cina, segnando uno sviluppo significativo dopo i controlli sulle esportazioni imposti dal governo statunitense a metà aprile 2025, citando preoccupazioni per la sicurezza nazionale. Il chip H20 è stato progettato specificamente per il mercato cinese per conformarsi alle restrizioni iniziali sulle esportazioni degli Stati Uniti implementate nel 2022, che vietavano la vendita in Cina dei chip AI più avanzati di NVIDIA, come l’H100. Tuttavia, l’amministrazione Trump ha inasprito queste restrizioni ad aprile 2025, richiedendo licenze di esportazione per l’H20 e qualsiasi chip con una larghezza di banda di memoria equivalente, bloccando di fatto le vendite.
Questo annuncio, che ha scatenato un forte rialzo del titolo NVDA oggi, coincide con le visite di alto profilo del CEO Jensen Huang a Pechino e Washington. A Pechino, Huang ha incontrato alti funzionari cinesi e leader del settore per discutere dei benefici dell’IA e dell’impegno di NVIDIA nel mercato cinese, mentre a Washington ha dialogato con il presidente Donald Trump per riaffermare il supporto di NVIDIA alla creazione di posti di lavoro negli Stati Uniti e alla leadership nell’IA.
L’uso del termine “presto” da parte di Huang suggerisce che le vendite dell’H20 potrebbero riprendere nel terzo trimestre del 2025, a seguito delle rassicurazioni del governo statunitense che le licenze di esportazione saranno concesse, probabilmente facilitate da un recente quadro commerciale USA-Cina che ha allentato le restrizioni sulle esportazioni tecnologiche in cambio della riduzione dei controlli cinesi sulle esportazioni di terre rare. Questo progresso diplomatico, unito all’impegno strategico di Huang, posiziona NVIDIA per rientrare rapidamente nel mercato cinese dell’IA, valutato tra i 50 e i 60 miliardi di dollari.
L’interruzione delle vendite del chip H20 a metà aprile ha avuto un impatto significativo sulle finanze di NVIDIA nel primo trimestre del 2025. La società ha registrato un onere di 4,5 miliardi di dollari relativo all’inventario di H20 che non poteva essere venduto o riutilizzato, riflettendo la natura improvvisa delle restrizioni sulle esportazioni senza “periodo di grazia”. Inoltre, NVIDIA non è stata in grado di spedire chip H20 già prodotti per un valore di 2,5 miliardi di dollari, anche se è riuscita a registrare 4,6 miliardi di dollari in vendite di H20 in Cina prima che i controlli entrassero in vigore.
Se l’intero ordine di 7,1 miliardi di dollari di H20 fosse stato evaso, queste vendite avrebbero rappresentato circa il 16% dei ricavi del primo trimestre di NVIDIA, pari a 44 miliardi di dollari. La società ha anche previsto una perdita aggiuntiva di 8 miliardi di dollari in vendite di H20 per il secondo trimestre, sottolineando il significativo impatto finanziario delle restrizioni e l’importanza di riprendere le vendite per mitigare ulteriori perdite.
Nello stesso annuncio, Huang ha introdotto la GPU RTX PRO, descritta come “pienamente conforme” ai controlli sulle esportazioni degli Stati Uniti e “ideale per l’IA di gemelli digitali per fabbriche intelligenti e logistica”. Questo chip si rivolge alla crescente domanda cinese di applicazioni IA nell’automazione industriale, dove i gemelli digitali — modelli virtuali di sistemi fisici — consentono l’ottimizzazione in tempo reale dei processi di produzione e della catena di approvvigionamento. L’attenzione di RTX PRO su fabbriche intelligenti e logistica si allinea con la spinta della Cina verso l’Industria 4.0, potenzialmente servendo grandi attori come ByteDance e Tencent, che stanno investendo pesantemente in operazioni guidate dall’IA.
Tuttavia, le prestazioni inferiori riportate di RTX PRO rispetto all’H20 potrebbero limitarne la competitività, e il suo prezzo più basso, basato su requisiti di produzione più semplici, suggerisce che è improbabile che compensi significativamente il potenziale di reddito delle vendite di H20.
La prevista ripresa delle vendite del chip H20 in Cina è un evento rialzista, che rimuove un ostacolo chiave che ha pesato sul titolo da aprile a causa delle restrizioni sulle esportazioni. Con il mercato cinese nuovamente aperto agli affari, NVIDIA è ben posizionata per recuperare i ricavi persi e rafforzare la sua dominanza nella tecnologia dei chip AI.
16/06/25 Barron’s: Le azioni AMD sono le migliori dell’S&P 500 oggi. I lanci di prodotti entusiasmano questi analisti.
Le azioni di Advanced Micro Devices erano in rialzo lunedì dopo che gli investitori hanno risposto positivamente a una gamma di nuovi prodotti per l’infrastruttura dell’intelligenza artificiale.
Durante l’evento Advancing AI della settimana scorsa a San Jose, il produttore di chip ha svelato la serie di chip AMD Instinct MI350, progettati per competere con il leader di mercato Nvidia
L’azienda ha anche anticipato il suo rack Helios, alimentato dalla serie di chip Instinct MI400, che sarà rilasciato nel 2026 e disponibile in configurazioni fino a 72 chip in un unico server.
“Quando Helios verrà lanciato nel 2026, crediamo che stabilirà un nuovo standard per l’AI su larga scala,” ha dichiarato la CEO Lisa T. Su durante l’evento Advancing AI.
Le azioni AMD sono scivolate durante l’evento di giovedì e sono rimaste stabili venerdì. Ma lunedì il titolo è schizzato, salendo dell’8,1% a $125,54. AMD è stata la migliore performer sia nell’S&P 500
che nel Nasdaq 100, secondo i dati di Dow Jones Market Data.
Gli analisti di Piper Sandler hanno lasciato la conferenza della settimana scorsa e una chiamata con gli analisti venerdì con un atteggiamento ottimista su AMD, mantenendo un rating di Overweight sul titolo e alzando il loro target di prezzo a $140 da $125.
“Nel complesso, siamo entusiasti dei lanci di prodotti all’evento AMD,” hanno scritto gli analisti, evidenziando il rack Helios come un elemento di spicco.
AMD ha affrontato forti venti contrari geopolitici ed economici quest’anno, riportando ad aprile che le nuove regole di licenza degli Stati Uniti per le esportazioni di semiconduttori in Cina potrebbero costare all’azienda fino a $800 milioni. Queste spese ridurranno i margini lordi di AMD nel secondo e terzo trimestre dell’anno, ma gli analisti di Piper Sandler sostengono che l’azienda potrebbe riprendersi presto.
“Riteniamo che, sebbene AMD stia attraversando una fase di assestamento a breve termine e alcuni sfortunati eventi geopolitici, l’azienda sembra ben posizionata per mostrare crescita a partire dalla seconda metà del 2025, in particolare dal trimestre di settembre 2025,” hanno scritto gli analisti. “Ci aspettiamo una trazione significativa per l’azienda a partire dal trimestre di dicembre 2025.”
Le azioni AMD hanno avuto un andamento molto volatile nell’ultimo anno. Le azioni sono scese del 32% dal massimo di chiusura delle ultime 52 settimane di $183,96 il 10 luglio 2024, ma sono aumentate del 61% dal minimo di chiusura delle ultime 52 settimane di $78,21 l’8 aprile 2025.
Le azioni Nvidia erano in rialzo del 2,1% lunedì.
Scritto da Nate Wolf a nate.wolf@barrons.com.
29/05/25 Barron’s: NVIDIA in rialzo dopo i risultati del Q1; la crescita robusta del Data Center attenua i timori sul mercato H20 (NVDA)
NVIDIA (NVDA +5%) registra un forte rialzo dopo aver riportato risultati superiori alle attese per il Q1 (aprile) la scorsa notte. I ricavi sono aumentati del 69,2% su base annua, raggiungendo i 44,06 miliardi di dollari, superando le aspettative. Anche le previsioni di fatturato per il Q2 (luglio), comprese tra 44,10 e 45,90 miliardi di dollari, sembrano aver soddisfatto gli investitori, nonostante riflettano una perdita di circa 8 miliardi di dollari di entrate legate al chip H20 a causa delle recenti restrizioni alle esportazioni. Le previsioni appaiono leggermente inferiori, ma non è chiaro se siano davvero comparabili al consensus.
- Un altro elemento positivo è stato il fatto che la svalutazione dell’inventario dell’H20 dovuta alle restrizioni è risultata inferiore alle attese: 4,5 miliardi di dollari rispetto ai 5,5 miliardi precedentemente stimati, grazie alla possibilità di riutilizzare parte dei materiali. Si tratta dunque di una notizia positiva. Il 9 aprile, il governo USA ha imposto nuove restrizioni all’esportazione dell’H20, un chip GPU per data center progettato specificamente per il mercato cinese. L’H20 è sul mercato da oltre un anno e non ha utilizzi al di fuori della Cina.
- Il segmento Data Center ha brillato nel Q1, con ricavi pari a 39,1 miliardi di dollari, in crescita del 73% su base annua e del 10% rispetto al trimestre precedente. NVIDIA ha spiegato che i carichi di lavoro legati alla realtà aumentata si sono fortemente spostati sull’inferenza, mentre la costruzione di “fabbriche di IA” sta generando ricavi significativi. Fondamentale anche la solidità degli impegni dei clienti. Il ramp-up della piattaforma Blackwell, il più veloce nella storia dell’azienda, ha guidato la crescita del segmento: ha contribuito a quasi il 70% dei ricavi da calcolo nel Data Center, con la transizione da Hopper quasi completata. NVIDIA sta registrando un forte aumento della domanda di inferenza. OpenAI, Microsoft e Google stanno assistendo a un’impennata nella generazione di token.
- Il suo altro grande segmento, Gaming e PC AI, ha raggiunto ricavi record per 3,8 miliardi di dollari, in crescita del 42% su base annua e del 48% su base trimestrale. La forte adozione da parte di gamer, creativi e appassionati di IA ha reso il lancio di Blackwell il più rapido di sempre. In un contesto di domanda sostenuta, NVIDIA ha notevolmente migliorato l’offerta e la disponibilità nel Q1. In questo trimestre, ha anche ampliato la gamma di laptop AI PC, includendo modelli in grado di eseguire Microsoft CoPilot+.
- Guardando al Q2, NVIDIA prevede che il segmento Data Center continuerà a beneficiare del ramp-up di Blackwell, sebbene in parte compensato da un calo dei ricavi dalla Cina. Riguardo alle restrizioni all’export, l’azienda sottolinea come la Cina sia uno dei mercati IA più grandi al mondo, con metà dei ricercatori IA globali che vi risiedono. La piattaforma che riesce a conquistare la Cina è ben posizionata per guidare a livello globale. Tuttavia, il mercato cinese da 50 miliardi di dollari è ora praticamente chiuso all’industria statunitense. L’IA in Cina proseguirà il suo sviluppo, con o senza i chip americani.
Due motivi principali sembrano trainare il titolo oggi:
- Il segmento Data Center continua a crescere con forza nonostante il contraccolpo dell’H20. Le costruzioni di “fabbriche di IA” stanno generando ricavi consistenti. L’espansione di Blackwell prosegue senza rallentamenti, contribuendo ad attutire la prevista riduzione dei ricavi dal mercato cinese nel Q2. La perdita stimata di 8 miliardi di dollari è risultata meno grave del previsto.
- Il costo straordinario da 4,5 miliardi di dollari legato all’H20 è stato inferiore alle attese.
Sebbene permangano delle criticità — in particolare con la Cina — il sentiment degli investitori nei confronti di NVIDIA sembra nuovamente in crescita.
20/05/25 Barron’s: Il fatturato di Nvidia dai chip AI più che raddoppierà a 262 miliardi di dollari entro il 2030, secondo un analista
Di Tae Kim
TD Cowen è sempre più ottimista sulla capacità di Nvidia (NVDA, -1,06%) di dominare il mercato in forte crescita dei chip per l’intelligenza artificiale fino alla fine del decennio.
“Dalla nostra analisi emergiamo più positivi sui fornitori di GPU commerciali rispetto a quelli personalizzati, e siamo sempre più fiduciosi nella profondità e ampiezza del posizionamento competitivo di Nvidia,” ha scritto il team tecnologico di Cowen in un rapporto pubblicato martedì.
TD Cowen prevede che il mercato complessivo dei processori per l’intelligenza artificiale, come le unità di elaborazione grafica (GPU), crescerà da 117 miliardi di dollari nel 2024 a 334 miliardi di dollari nel 2030. Gli analisti stimano che Nvidia manterrà il 90% del mercato delle GPU, con un fatturato dai chip AI che passerà da 100 miliardi di dollari nel 2024 a 262 miliardi di dollari nel 2030.
Gli scettici hanno sostenuto che Nvidia avrebbe affrontato una concorrenza più dura con le grandi aziende tecnologiche che, con l’aiuto di Broadcom (AVGO, -0,05%) e Marvell Technology, sviluppano chip AI personalizzati migliori. Tuttavia, entro la fine del decennio, la quota dei chip personalizzati nel mercato AI crescerà solo dal 10% al 15%, secondo Cowen.
TD Cowen ritiene che Nvidia manterrà la sua posizione di leader, affermando che i chip AI personalizzati continueranno a offrire prestazioni inferiori rispetto a quelli di Nvidia con un “margine significativo”. L’azienda ha anche l’offerta tecnologica più matura in termini di hardware, software e networking, secondo il rapporto.
“Riteniamo che l’approccio di Nvidia, basato su un sistema hardware completamente integrato e una robusta suite software, le consenta di dimostrare prestazioni superiori nell’inferenza GenAI rispetto ai concorrenti,” hanno scritto gli analisti.
La concorrenza da parte dei chip AI personalizzati prodotti dalle grandi aziende tecnologiche non è una novità. Amazon Web Services ha lanciato il suo chip AI personalizzato nel 2019, mentre Google di Alphabet (GOOGL, +0,66%) ha introdotto il suo acceleratore AI nel 2015. Entrambe le aziende hanno rilasciato diverse versioni successive, ma finora Nvidia ha conquistato la maggior parte del mercato dei chip AI.
“Vediamo il portafoglio tecnologico di punta di Nvidia, la sua lunga tradizione di innovazione e gli ingenti investimenti orientati alla crescita come motori di una forte espansione degli acceleratori nei prossimi anni,” hanno dichiarato gli analisti.
Scritto da Tae Kim a tae.kim@barrons.com
Stratechery: Un’intervista con il CEO di Nvidia Jensen Huang su controlli dei chip, fabbriche di IA e pragmatismo aziendale
L’intervista di Stratechery di questa settimana è pubblicata in anticipo, poiché ho avuto l’opportunità di parlare di persona con il CEO di Nvidia, Jensen Huang, al termine del suo discorso di apertura al Computex 2025, che si è tenuto questa mattina a Taiwan. Ho intenzione di toccare alcuni dei temi di questa intervista più avanti questa settimana, quindi, nello spirito di condividere le mie conversazioni con voi — che è alla base di questa serie di interviste — volevo pubblicarla il prima possibile.
Ho parlato con Huang tre volte in precedenza, a marzo 2022, settembre 2022 e marzo 2023. Ciò che era notevole in quelle interviste era il modo in cui Huang cercava di far capire al mondo il potenziale del calcolo tramite GPU; ora che questo potenziale si sta realizzando, Huang e Nvidia si trovano ad affrontare un insieme completamente nuovo di problemi, mentre continuano a spingere avanti il calcolo.
Questa intervista inizia discutendo alcune di queste nuove sfide, in particolare quelle legate alla politica: parliamo degli accordi della settimana scorsa con Arabia Saudita ed Emirati Arabi Uniti, del divieto di vendita dell’H20 in Cina e del perché l’approccio degli Stati Uniti ai controlli sui chip rischia di compromettere il controllo a lungo termine dell’America — e di Nvidia. Huang sostiene anche il motivo per cui l’IA guiderà la crescita del PIL nel prossimo futuro e potrebbe persino ridurre il deficit commerciale.
Successivamente, entriamo nel discorso di oggi e in quello del mese scorso al GTC. Come noto in questa intervista, sono rimasto sorpreso da quanto fossero diversi, forse perché rivolti a pubblici diversi: produttori OEM e di componenti taiwanesi e i loro clienti aziendali oggi, contro gli hyperscaler americani il mese scorso; la chiave per capire Nvidia è che vogliono vendere a entrambi. A tal proposito, discutiamo del perché una soluzione completa Nvidia massimizza l’utilità, incluso come Dynamo migliori le prestazioni di inferenza, anche se l’approccio di Nvidia a software e costruzione di sistemi permette di vendere solo le parti che desideri. E — forse appropriatamente data la domanda — tocchiamo brevemente il gaming alla fine.
Come promemoria, tutti i contenuti di Stratechery, incluse le interviste, sono disponibili come podcast; clicca sul link in cima a questa email per aggiungere Stratechery al tuo lettore di podcast.
Passiamo all’intervista:
Un’intervista con il CEO di Nvidia Jensen Huang su controlli dei chip, fabbriche di IA e pragmatismo aziendale
Questa intervista è leggermente modificata per chiarezza.
Temi:
- IA araba e la regola di diffusione dei chip
- Nvidia e Cina
- Crescita del PIL tramite IA
- Dynamo e Nvidia full-stack
- IA aziendale e pragmatismo
- Che ne è del gaming
IA araba e la regola di diffusione dei chip
Jensen Huang, bentornato su Stratechery.
Jensen Huang: È un piacere vederti, Ben.
È fantastico incontrarti di persona, le nostre conversazioni precedenti erano su Zoom, e sei qui a Taiwan. Hai appena annunciato un nuovo edificio vicino a casa mia, il che è emozionante. Quando abbiamo parlato in precedenza, sentivo che volevi che il mondo capisse cosa potevano fare le GPU. Era prima di ChatGPT quando abbiamo iniziato a parlare, e ora l’intero mercato mondiale è in bilico quando annunci i risultati. Ora, credo siamo in un periodo di silenzio, non sto chiedendo dei risultati, ma come ci si sente a essere catapultati in quella posizione, al centro del mondo in questo senso?
JH: Beh, mi hai fatto una domanda a cui non ho una risposta interessante. La risposta è che non provo nulla al riguardo, ma riconosco questo: mentre siamo nel processo di reinventare Nvidia, che è sempre al centro di ciò che facciamo in ufficio, stiamo cercando di reinventare Nvidia per essere davanti al gioco, per essere dove l’industria andrà e vogliamo risolvere problemi difficili e contribuire all’industria. Ma ora, cosa molto importante, non solo abbiamo creato una piattaforma di calcolo, abbiamo reinventato la nostra azienda, siamo molto più un’azienda su scala di data center, e offriamo una tecnologia che per la prima volta è completamente integrata per funzionare insieme, ma disintegrata così che l’intero ecosistema possa lavorarci.
Ma la cosa che ho detto nel discorso, che è davvero importante, è che per la prima volta stiamo costruendo computer, non solo per l’industria tecnologica, stiamo costruendo computer per una nuova industria chiamata IA. Ora, l’IA è in parte tecnologia, ma è anche in parte lavoro e aumenta il lavoro come sappiamo, e man mano che entreremo nella robotica sarà molto, molto chiaro. Questa nuova tecnologia chiamata IA è in realtà un’industria completamente nuova, e tutta questa industria sarà alimentata da fabbriche, che avranno bisogno di molti computer, e le persone stanno appena iniziando a rendersi conto che stiamo per entrare in un futuro in cui calcoliamo, ciò che le persone chiamano data center, ma che in realtà sono fabbriche di IA, sarà probabilmente piuttosto grande.
Ho notato che hai citato Satya Nadella nella chiamata sugli utili di Microsoft, che ha riportato il numero di token che hanno processato, credo fosse l’ultimo trimestre. È stato il tuo dato preferito degli utili di questo trimestre? L’ho notato subito anch’io, che metrica fantastica.
JH: In effetti, il numero di token che vengono effettivamente generati è molto, molto, molto più alto di quello. È solo la parte che Microsoft generava per terzi, ma il loro consumo interno è molto, molto più alto e non include nemmeno OpenAI, quindi puoi immaginare quanto sia.
Da quello che so, è una quantità molto, molto grande rispetto al numero riportato. Sei stato in un bel tour mondiale — tu e io sappiamo che Taiwan è bellissima, ho menzionato il nuovo parco uffici — devo chiedere, com’è il Medio Oriente in questo periodo dell’anno?
JH: Caldo, ma non umido.
È un caldo secco, giusto?
JH: Sì, è un caldo secco. Mi è piaciuto molto perché gli edifici erano freddi e uscivo a crogiolarmi al sole e mi sentivo davvero bene. Ma le notti sono semplicemente incredibili. Le notti sono incredibili. Mangiare fuori, prendere una tazza di tè fuori, è davvero incredibile.
Sto ovviamente anche chiedendo di questi accordi sull’IA annunciati con Arabia Saudita ed Emirati Arabi Uniti. Perché dalla tua prospettiva è importante e perché era importante per te essere lì?
JH: Beh, perché mi hanno chiesto di essere lì, e eravamo lì per annunciare due costruzioni di infrastrutture per l’IA piuttosto ambiziose, una in Arabia Saudita e una ad Abu Dhabi, e i leader di entrambi i paesi erano molto in prima linea nel riconoscere l’importanza della partecipazione delle loro nazioni alla rivoluzione dell’IA, riconoscendo che hanno un’opportunità straordinaria, hanno un’abbondanza di energia e una carenza di manodopera, e il potenziale dei loro paesi è limitato dalla quantità di manodopera che hanno, dalla quantità di persone che hanno. Quindi, per la prima volta, possono trasformarsi, se vuoi, da energia a manodopera digitale e manodopera robotica, agenti, robot. Sono super concentrati su questo e molto articolati al riguardo.
Sua Altezza Reale in Arabia Saudita è stato molto articolato al riguardo e molto appassionato e capisce persino la tecnologia. E lo Sceicco Tahnoun ad Abu Dhabi, molto appassionato al riguardo, molto lungimirante, comprende molto profondamente le implicazioni della tecnologia e le opportunità per loro e quindi ero felice di essere lì, stiamo collaborando con entrambi.
Abbiamo aiutato a lanciare una nuova azienda chiamata HUMAIN in Arabia Saudita e la loro speranza è di essere sul palcoscenico mondiale costruendo queste fabbriche di IA, ospitando aziende internazionali, aziende come OpenAI che era anche lì, e quindi un’iniziativa molto grande.
Questo è un grande cambiamento. Parte integrante di questo è un passo indietro dalle regole di diffusione dell’IA, che penso siano state piuttosto dure per quei paesi in particolare, avendo un numero regolamentato, che deve essere controllato da aziende statunitensi, limitato in qualche modo da ciò che viene costruito negli Stati Uniti. Nvidia, credo contrariamente alle tue azioni precedenti, si è espressa molto fortemente contro queste e dalla tua prospettiva — c’è un punto in cui hai dovuto crescere, mi sembra. Tae Kim ha detto nel suo libro che Nvidia è come una macchina di Formula 1 costruita intorno a te, e tu sei il pilota e c’è un punto in cui non volevi mai pensare a queste cose governative, e quindi Nvidia non ci ha mai davvero pensato, e poi improvvisamente sei l’azienda più importante del mondo e hai dovuto imparare questo molto, molto velocemente?
JH: Beh, non è che non volessi mai, non ho mai dovuto. Per la stragrande maggioranza della vita di Nvidia ci siamo occupati di costruire la tecnologia, costruire l’azienda, costruire l’industria, competere.
Sì, in un’industria che è pura competizione.
JH: Ogni singolo giorno, ogni singolo momento. Costruire la nostra catena di approvvigionamento, costruire il nostro ecosistema. Nota che ho appena descritto un mucchio di cose che sono gigantesche in scala e portata, già di per sé abbastanza difficili, e all’improvviso è arrivata la regola di diffusione, e penso che l’abbiamo detto all’epoca, ma credo che ora sia evidente a tutti, è esattamente sbagliata, è esattamente sbagliata per l’America. Se l’obiettivo della regola di diffusione è garantire che l’America debba guidare, la regola di diffusione come è stata scritta causerà esattamente la perdita della nostra leadership.
L’IA non è solo lo strato di software chiamato modello, l’IA è una cosa full-stack, è per questo che tutti parlano sempre di sistemi Nvidia, infrastrutture e fabbriche e così via. L’IA è full-stack. Se l’America vuole guidare nell’IA, deve iniziare guidando full-stack a livello di chip, a livello di fabbrica, a livello di infrastruttura, a livello di modello così come a livello di applicazione — l’IA è tutto questo.
Non puoi semplicemente dire, “Scriviamo una regola di diffusione, proteggiamo uno strato a scapito di tutto il resto”, è insensato. L’idea che limiteremmo la tecnologia IA americana proprio nel momento in cui i concorrenti internazionali hanno recuperato, e l’avevamo praticamente previsto.
E per concorrenti internazionali, intendi altri modelli?
JH: La Cina sta facendo un lavoro fantastico, il 50% dei ricercatori di IA del mondo sono cinesi e non li fermerai, non impedirai loro di avanzare nell’IA. Ammettiamolo, DeepSeek è un lavoro profondamente eccellente. Dare loro meno di questo è una mancanza di fiducia così profonda che non riesco nemmeno a tollerarla.
Abbiamo stimolato quel lavoro a essere ancora migliore a causa delle restrizioni che sono state imposte loro, in particolare in termini di gestione della memoria e larghezza di banda?
JH: Tutti amano la competizione. Le aziende hanno bisogno di competizione per ispirarsi, le nazioni ne hanno bisogno, e non c’è dubbio che li abbiamo stimolati. Tuttavia, mi aspettavo pienamente che la Cina fosse lì a ogni passo. Huawei è un’azienda formidabile, è un’azienda tecnologica di classe mondiale. I ricercatori, gli scienziati di IA in Cina, sono di classe mondiale. Questi non sono ricercatori di IA cinesi, sono ricercatori di IA di classe mondiale. Cammini su e giù per i corridoi di Anthropic o OpenAI o DeepMind, ci sono un sacco di ricercatori di IA lì, e sono dalla Cina. Ovviamente è sensato, e sono straordinari e quindi il fatto che facciano un lavoro straordinario non mi sorprende.
L’idea della diffusione dell’IA che limita l’accesso di altri paesi alla tecnologia americana è una missione espressa esattamente sbagliata, dovrebbe riguardare l’accelerazione dell’adozione della tecnologia americana ovunque prima che sia troppo tardi. Se l’obiettivo è che l’America guidi, allora la diffusione dell’IA ha fatto esattamente il contrario.
Penso che la diffusione dell’IA manchi anche il grande concetto di come funziona lo stack di IA. Lo stack di IA funziona come una piattaforma di calcolo, è una piattaforma. Più grande, più capace è la tua piattaforma, più grande è la base installata, più sviluppatori ci corrono e sviluppano sopra. Quando più sviluppatori ci sviluppano sopra, rende i risultati, le applicazioni, che girano sulla tua piattaforma di calcolo migliori. Di conseguenza, vendi di più, e più della tua piattaforma di calcolo viene adottata, il che aumenta la tua base installata, il che aumenta gli sviluppatori che la usano per sviluppare modelli di IA, il che aumenta — quel sistema di feedback positivo non può essere sottovalutato per qualsiasi piattaforma di calcolo, è il motivo per cui Nvidia ha successo oggi.
L’idea che l’America non competa nel mercato cinese, dove si trova il 50% degli sviluppatori, non ha assolutamente senso da una prospettiva di infrastruttura di calcolo, di architettura di calcolo. Dovremmo andare e dare alle aziende americane l’opportunità di competere in Cina, bilanciare il deficit commerciale, generare entrate fiscali per il popolo americano, costruire, assumere posti di lavoro, creare più posti di lavoro.
Nvidia e Cina
È giusto dire che siamo a metà strada? Perché abbiamo iniziato con l’accordo del Golfo e la regola di diffusione dell’IA e certamente, credo si possa vedere dalla prospettiva della competizione tra stati-nazione, avere questi paesi—
JH: Queste due idee vanno di pari passo e quello che intendo è questo: se non competiamo in Cina, e permettiamo all’ecosistema cinese di costruire un ricco ecosistema perché non siamo lì a competere per esso, e nuove piattaforme vengono sviluppate e non sono americane in un momento in cui il mondo sta diffondendo la tecnologia IA, la loro leadership e la loro tecnologia si diffonderanno in tutto il mondo.
Questo è il mio punto, dove dalla tua prospettiva, siamo a metà strada. Almeno non ci stiamo tagliando fuori in altri paesi.
JH: Esatto.
Ma dovremmo andare fino in fondo e lasciare che Nvidia torni in Cina.
JH: Sì, ma direi che, in effetti, non andare in Cina è circa il 90% del percorso. Non è 50/50, è il 90%.
Quindi abbiamo fatto il 10%.
JH: Sì, esatto. Esattamente.
Per la cronaca, sono d’accordo con te. La mia opinione è che questo tentativo di limitare le vendite di chip e poi dare loro tutte le attrezzature per la produzione di chip che vogliono è precisamente al contrario — è molto più difficile tracciare i chip rispetto alle attrezzature per la produzione di chip comunque. Una delle teorie che le persone a Washington DC hanno avanzato è, “Le aziende di produzione di chip o le aziende di attrezzature per semiconduttori, sono a Washington da anni, sono molto brave a fare lobbying e Nvidia non è qui, e quindi sono indietro”. Ti sembra vero? Hai difficoltà a far capire questo punto di vista alle persone a Washington?
JH: Abbiamo dovuto lavorare molto duramente negli ultimi anni per costruire una presenza a DC. Abbiamo una manciata di persone, la maggior parte delle aziende della nostra dimensione ne hanno centinaia, noi ne abbiamo una manciata. La nostra manciata di persone è incredibile, stanno raccontando la nostra storia. Stanno aiutando le persone a spiegare, capire non solo come funzionano i chip, ma come funzionano gli ecosistemi, e come funzionano gli ecosistemi di IA, e quali sono alcune delle conseguenze non intenzionali delle politiche.
Vogliamo che l’America vinca. Ogni azienda dovrebbe volere che il proprio paese vinca, e ogni paese dovrebbe volere che le proprie aziende vincano, non sono cose terribili da sentire, sono cose buone da sentire, ed è anche buono che le persone amino vincere. La competizione è una cosa buona, aspirare a essere grandi è una cosa buona. Quando qualche paese aspira a essere grande, non dovremmo invidiarli. Quando qualche azienda aspira a essere grande, non li invidio. Ci spinge tutti a salire e a fare ancora meglio di quanto potremmo, e quindi amo guardare le persone che aspirano a essere grandi.
Non c’è dubbio che la Cina aspiri a essere grande, buon per loro! Dovrebbero aspettarsi assolutamente niente di meno, e per tutti i ricercatori di IA e scienziati di IA che conosco in tutto il mondo, sono arrivati dove sono perché tutti aspirano a essere grandi, e lo sono. Penso che l’idea che in qualche modo—
Per vincere, devi abbattere l’altro.
JH: Esatto, non ha senso per me. Dovremmo andare più veloci. Il motivo per cui Nvidia è qui oggi, il motivo per cui abbiamo la nostra posizione oggi, non abbiamo avuto assolutamente nessun supporto da nessuno per arrivare qui, lasciateci solo continuare a correre forte. Penso che l’idea che tratterremmo gli altri, come hai menzionato, li sprona solo a essere ancora più grandi, perché sono persone straordinarie.
Sono d’accordo. Lo trovo, come americano, profondamente frustrante. Sento che dovremmo voler vincere innovando di più, andando più veloci e questa idea che vinceremo tirando su la scala e tagliando fuori le persone, e mettendo nastro burocratico rosso su tutti e cercando di tracciare tutto sembra profondamente, frustrantemente non americano per me.
JH: Sì. Comunque, penso che il Presidente lo veda davvero, vuole che l’America vinca.
Ecco una domanda su questo, perché è la stessa amministrazione che ha tagliato l’H20, un chip che hai praticamente progettato secondo le specifiche della precedente amministrazione, e improvvisamente, “Non va bene”, e ora stanno facendo questo accordo. I critici sono lì, “Oh, questo potenzialmente aprirà alla Cina, XYZ”. Sembra un cambiamento nell’amministrazione, forse loro direbbero che è ancora la stessa cosa. Ma abbiamo anche avuto molti cambiamenti tra Stati Uniti e Cina nelle ultime sei settimane, credo sia un modo per dirlo.
Hai la sensazione che forse ci sia stata una vera realizzazione che questo mondo è così interconnesso e correlato, e ciò che accade da una parte accade dall’altra, e forse non sarà così facile separarlo, e ci sarà un ritorno al pragmatismo, e come lo gestiamo? Sei ottimista in questo senso o ti stai preparando al peggio?
JH: Il Presidente ha una visione di ciò che vuole raggiungere, supporto il Presidente, credo nel Presidente, e penso che creerà un ottimo risultato per l’America, e lo farà con rispetto e con un atteggiamento di voler competere, ma anche cercando opportunità per cooperare. Lo sento, lo vedo tutto questo. Ovviamente, non sono alla Casa Bianca e non so esattamente come si sentono, ma è quello che percepisco.
Prima di tutto, il divieto sugli H20, è il limite di ciò che possiamo fare con Hopper, e l’abbiamo ridotto al punto che non c’è molto altro da tagliare. Abbiamo cancellato — credo siano 5,5 miliardi di dollari — nessuna azienda nella storia ha mai cancellato così tanto inventario, quindi questo ulteriore divieto sull’H20 di Nvidia è profondamente doloroso. I costi sono enormemente costosi, non solo sto perdendo 5,5 miliardi di dollari, abbiamo cancellato 5,5 miliardi di dollari, abbiamo rinunciato a 15 miliardi di dollari di vendite e probabilmente — cos’è? — 3 miliardi di dollari di tasse. Il mercato cinese è di circa 50 miliardi di dollari all’anno e non è 50 milioni, è 50 miliardi. 50 miliardi sono come Boeing, non l’aereo, l’intera azienda. Lasciare questo indietro così che i profitti che ne derivano, la scala che ne deriva, la costruzione dell’ecosistema che ne deriva—
Questa è la vera minaccia per CUDA a lungo termine—
JH: Esatto.
La Cina costruisce un’alternativa.
JH: Esattamente. Chiunque abbia pensato che una mossa scacchistica per bandire in qualche modo la Cina dagli H20 avrebbe in qualche modo tagliato la loro capacità di fare IA è profondamente disinformato.
Crescita del PIL tramite IA
C’è un angolo su questo nel discorso sull’energia che voglio affrontare tra un momento, ma questo sarà più divertente. Lasciamo da parte tutte le cose governative, ci torneremo. Un terzo modo per arrivare alla mia domanda sui mercati finanziari, governi, nel discorso di oggi hai iniziato dicendo, “Siamo un’azienda di infrastrutture, avete bisogno di roadmap a cinque anni”. Hai menzionato di passaggio che la tua stima originale del TAM quando hai fondato Nvidia era di 300 milioni di dollari. Quando hai effettivamente visto questo arrivare, “Saremo infrastrutture?” — di nuovo, torno alle nostre conversazioni precedenti, la mia impressione da quelle è che volevi solo che le persone vedessero questa possibilità. Vedevi la possibilità del calcolo tramite GPU, ma la scala, ti ha un po’ sbalordito?
JH: Se guardi i miei discorsi, come fai tu, quasi costantemente, le cose che stanno accadendo oggi, ne ho parlato cinque anni fa. All’epoca in cui ne parlavo cinque anni fa, le parole non erano così chiare e il vocabolario che usavo non era così preciso, ma dove stavamo andando è coerente.
Quindi, in pratica, ora quando parli molto di robotica alla fine di ogni discorso, cosa che hai fatto, è la nostra anteprima a cinque anni a cui dovremmo davvero prestare attenzione.
JH: Sì. E in effetti, ne parlo da circa tre anni.
Sì, quindi tra un paio d’anni.
JH: Tra un paio d’anni, penso che accadrà.
La cosa che è abbastanza profonda e abbastanza significativa per questa industria è che per tutti gli ultimi 60 anni siamo stati l’industria IT, che è una tecnologia e uno strumento, è una tecnologia e uno strumento usato dalle persone — per la prima volta, lasceremo il budget IT, ciò che vendiamo va nel budget IT, stiamo per lasciare il budget IT e entrare nel budget di produzione o operativo.
Il budget di produzione è perché stiamo costruendo robot o perché i sistemi robotici vengono usati per costruire prodotti e poi il budget operativo è a causa dei lavoratori digitali. Il budget operativo e di capitale del mondo è quanto? Combinati 50 trilioni di dollari? È un numero gigantesco. Quindi l’industria IT è di circa un trilione, stiamo per portare, grazie all’IA, tutti noi in un’industria da circa 50 trilioni di dollari.
Ovviamente, la mia prima speranza, e penso che accadrà in questo modo, anche se i lavori cambieranno e alcuni lavori verranno persi, verranno creati molti lavori. È molto probabile che i sistemi robotici, dove i loro agenti sono robot fisici, probabilmente espanderanno il PIL mondiale. Il motivo è che abbiamo una carenza di manodopera, è per questo che tutti sono impiegati. Se vai in giro per gli Stati Uniti, la disoccupazione è ai minimi storici, ed è perché non abbiamo abbastanza manodopera. I ristoranti hanno difficoltà a trovare personale, molte fabbriche ovviamente hanno molta difficoltà a trovare personale. Penso che l’idea che assumeresti un robot per 100.000 dollari all’anno, penso che le persone lo farebbero in un batter d’occhio e il motivo è perché ha appena aumentato la loro capacità di generare più entrate, e quindi penso che nei prossimi cinque, dieci anni probabilmente sperimenteremo quell’espansione del PIL e un’intera nuova industria di questi sistemi di produzione di token che ora le persone capiranno.
Quello che ho trovato interessante del discorso di oggi è che mi sono preparato per questa intervista prima di venire e ho pensato, “Beh, probabilmente sarà un po’ una ripetizione del GTC”, e invece ho trovato che fosse abbastanza nettamente diverso. Ecco la mia interpretazione, devi dirmi se è corretta. Mi è sembrato che il GTC fosse per gli hyperscaler e la presentazione di oggi fosse per l’IT aziendale, erano come due mercati diversi.
JH: Sì.
Ho capito bene in termini di target?
JH: IT aziendale o agenti e robot, e agenti per l’IT aziendale e robot per la produzione e il motivo è molto chiaro, questo è l’inizio dell’ecosistema.
Hai fatto un bel video, a proposito, dell’ecosistema di Taiwan e questo va nella creazione di tutti i pezzi, è stato davvero fantastico.
Dynamo e Nvidia full-stack
Passiamo al discorso del GTC, è stato uno dei miei discorsi preferiti di tuoi, li guardo tutti e li ho guardati per anni. Un po’ di energia da Professor Jensen, mentre spiegavi i limiti dei data center, perché Nvidia era la risposta, e l’ho interpretato come un messaggio un po’ anti-ASIC. Avevi una combinazione di, hai mostrato la tua roadmap, è come, “Prova a tenere il passo con questo”, e poi numero due, hai introdotto la curva di Pareto di latenza contro larghezza di banda, e poiché sono programmabili, puoi usare le stesse GPU su tutta questa curva e ovviamente, gli hyperscaler sono quelli che faranno gli ASIC.
La curva di Pareto delle prestazioni di inferenza, dal GTC 2025
Ho capito correttamente la tua presentazione lì?
JH: Penso che l’insegnamento fosse corretto, i motivi per cui l’ho fatto non erano esattamente quelli. Stavo semplicemente cercando di aiutare le persone a capire come costruire un nuovo data center. Ci abbiamo pensato e quindi ecco la sfida. C’è solo una certa quantità di energia nel data center. 100 megawatt sono 100 megawatt, 250 megawatt sono 250 megawatt e quindi il tuo lavoro fondamentale, se è una fabbrica, è assicurarti che il rendimento complessivo不做作地 per watt complessivo sia il più alto, perché ciò massimizza il rendimento-per-watt, che è il più alto possibile, perché se è economico, token economici, cioè token gratuiti, o token di alta qualità che qualcuno potrebbe effettivamente pagare, diciamo, mille dollari al mese, 10.000 dollari al mese.
Beh, hai appena menzionato un assistente IA da 100.000 dollari.
JH: Esatto. Assumerei un agente IA da 100.000 dollari all’anno? In un batter d’occhio. E il motivo è che assumiamo persone molto più costose di così tutto il giorno e se posso semplicemente amplificare qualcuno che pago 500.000 dollari all’anno, sarebbe incredibile, per centomila dollari, quindi ovviamente lo farei.
La qualità dei token che generi in una fabbrica è piuttosto varia. Ne hai bisogno di alcuni gratuiti, ne hai bisogno di alcuni di alta qualità e quindi sei su quella Pareto. Non puoi progettare un chip o un sistema che sia bravo solo in uno, perché sarebbe sottoutilizzato e quindi ora la domanda è, come crei un sistema che contemporaneamente, in alcuni momenti, possa essere usato per la generazione di token gratuiti, parte per token gratuiti, parte per alta qualità?
Se frammenti troppo l’architettura, la tua capacità di spostare il carico di lavoro avanti e indietro è difficile e quindi penso che quando le persone ci ragionano sopra, se progetti un sistema che è molto, molto bravo a un alto tasso di token, naturalmente ha un rendimento complessivo molto basso. Se progetti qualcosa a un rendimento molto alto, tende ad avere una bassa interattività, i token-per-secondo per utente sono bassi e quindi è facile abbracciare l’asse X, è facile abbracciare l’asse Y, è difficile riempire quell’area, e quindi questa è l’invenzione su tutta la combinazione di ciò che abbiamo fatto con l’architettura Blackwell e FP4 e NVLink 72 e il rapporto, l’equilibrio tra la memoria HBM e la sua capacità, l’equilibrio tra la quantità di calcolo in virgola mobile e la capacità e la larghezza di banda della memoria e poi, molto importante, l’ecosistema di servizio in streaming disaggregato Dynamo, sistema hardware.
Volevo chiederti di Dynamo, che non è emerso oggi, ma penso sia super interessante.
JH: Super importante.
Fammi il pitch, credo che l’hai chiamato il sistema operativo per i data center.
JH: Il pitch è fondamentalmente che il carico di lavoro di inferenza, il trasformatore, ha diverse fasi, e diverse fasi possono essere usate diversamente a seconda dell’utente e del modello e del contesto di quel modello e quindi abbiamo disaggregato l’elaborazione del modello linguistico di grandi dimensioni in pre-fill, che è l’elaborazione del contesto, pensare a cosa stai per chiedermi. Ha a che fare con i miei ricordi di Ben e il tipo di podcast profondi e conversazionali che ti piace fare, e tendono ad avere — se inizio a parlare profondamente dell’industria e della tecnologia, non mi sento a disagio nel farlo.
Giusto, non stai facendo un sound byte ora per il telegiornale della sera o qualcosa del genere.
JH: Esatto. Mi sento come se potessi approfondire e poiché tu lo capirai, non mi sento come se stessi parlando al muro, e quindi mi sento molto a mio agio nel parlare di queste cose.
Beh, quando un’IA arriva a un chatbot, il chatbot deve avere un po’ di quel contesto e quindi i chatbot hanno memoria, elaborano il contesto, e potrebbero persino dover leggere un PDF o due, e quindi quella è chiamata la parte di pre-fill, quella parte di pre-fill è molto intensiva in termini di virgola mobile.
Poi c’è la parte di decodifica. La parte di decodifica riguarda ora la generazione dei pensieri, riguarda il ragionare su ciò che stai per dire, prevedere il prossimo token e quindi una catena di pensieri genera fondamentalmente molti più token, che vengono reinseriti nel contesto che genera più token, e quindi è un ragionare su un problema passo dopo passo, forse deve andare a leggere qualcosa. Le versioni moderne di IA, le IA agentiche, le IA di ragionamento, la quantità di calcolo in virgola mobile, la quantità di larghezza di banda — la decodifica richiede molta larghezza di banda — è alta in tutti i casi, ma potrebbe essere più alta.
Varia.
JH: Esatto, varia a seconda delle cose.
Non hai bisogno di un’alta precisione in virgola mobile nella fase di decodifica.
JH: Esatto. Quindi, ad esempio, un colpo solo, e ha già una forte cache KV, non hai bisogno di molto calcolo in virgola mobile. Tuttavia, nel momento in cui lo carichi di contesto, hai bisogno di molto calcolo in virgola mobile. Dynamo disaggrega tutta l’elaborazione e la disperde nel data center in modo intelligente, misurando il carico di lavoro e il carico sui processori, roba davvero complessa.
Beh, e si collega al fatto che, se l’intero data center è una GPU, stai parlando di uno strato software che lo tratta in quel modo.
JH: Esatto, è essenzialmente il sistema operativo di una fabbrica di IA.
Quando pensi a questi modelli di pensiero, questi modelli di ragionamento, guardando avanti — sei qualcuno, come hai detto, che fa ottime previsioni — li vedi usati principalmente in flussi di lavoro agentici e lo svantaggio è che stai seduto ad aspettare, o forse stai impostando un mucchio di agenti che agiscono in parallelo, quindi funziona bene, o potrebbero finire per essere più importanti nella generazione di dati per l’addestramento per ottenere migliori risultati one-shot, che è come le persone interagirebbero più frequentemente?
JH: Penso che dipenda dal costo, e la mia previsione è che probabilmente i modelli di ragionamento saranno solo la base, perché li elaboreremo così velocemente. Fondamentalmente, quando accendi Grace Blackwell, è 40 volte più veloce, e diciamo che il prossimo passo è un altro 40 volte più veloce e i modelli stanno migliorando. Quindi l’idea che tra ora e cinque anni da ora potremmo essere 100.000 volte più veloci per i modelli agentici, mi sembra molto sensato.
Questa è la storia del calcolo.
JH: Esatto. Quindi ha appena pensato a una montagna di cose, tu non l’hai visto. Ora è un pensatore veloce, anche il pensiero lento è veloce.
Qual era quel libro? Pensare, veloce e lento, ora applicalo all’IA. Immagino che potrebbe leggere tutto in un secondo, quindi potrebbe sconfiggere lo scopo.
JH: Esatto.
IA aziendale e pragmatismo
Tornando indietro, solo un breve tocco sulla politica. C’è un punto in cui il tuo modo di parlarne e le tue prestazioni-per-watt, è davvero una cosa incentrata sugli Stati Uniti in un mondo in cui abbiamo difficoltà a costruire energia e l’energia è il principale vincolo? Guardi qualcosa come questi paesi del Golfo, l’energia è più accessibile, più facile da costruire per vari motivi, e vai in Cina, indovina un po’? Se l’energia non è il principale vincolo, puoi risolvere molti problemi che Nvidia risolve per te. È per questo che il GTC è negli Stati Uniti, è il messaggio per gli Stati Uniti?
JH: Oh, non ci avevo pensato in quel modo. Penso che non importa cosa accada, la tua fabbrica sarà sempre di una certa dimensione e anche se il tuo paese ha molta più energia, il tuo data center no e quindi penso che le prestazioni-per-watt siano importanti, sempre.
È sempre importante, ma il grado di importanza può variare.
JH: Esatto, sì. È solo che se lo pianifichi, d’altra parte dici, “Ok, beh, ho un’architettura che ha la metà delle prestazioni-per-watt, e quindi forse prenderò il doppio del terreno, e il doppio di energia, e inizierò a costruire da lì”. Quando metti insieme tutte quelle cose, però, questo è il problema.
Ricorda, anche l’infrastruttura stessa e la consegna di energia, diciamo per un gigawatt, facciamo un po’ di matematica semplice. Diciamo che 30 miliardi di dollari potrebbero essere per l’involucro, l’energia, il terreno, il funzionamento, tutto questo 30 miliardi. Diciamo che il calcolo e il networking e tutto, tutto incluso lo storage, 50 miliardi, ok? Beh, se risulta che devi costruirne il doppio, moltiplichi i tuoi 30 per 2, quindi sono 60 miliardi e quindi dovrai procurarti un calcolo davvero economico per compensare. Ecco perché sento sempre che nel mondo delle fabbriche di IA, la matematica suggerirebbe che se un’architettura non è così buona, a volte a seconda di quanto è povera, anche gratis non è abbastanza economico.
Se è la tua unica scelta, lo farai funzionare.
JH: Esatto.
Beh, confrontiamo questo con oggi. Hai detto un paio di volte oggi, “Mi piace se compri tutto da me, ma sono felice se compri qualsiasi cosa da me”. È stato divertente prima che mi si cristallizzasse completamente che questo sembra il discorso aziendale, che sono di nuovo le mie parole non le tue, c’era questo senso di pragmatismo che mi ha fatto pensare, “Sta parlando come un CEO aziendale ora, sono molto pragmatici”. Ovviamente, se compri l’intero stack, funziona meglio, ed è interessante dove se stai parlando di costruire una vera fabbrica di IA, per usare le tue parole, ovviamente usare tutto Nvidia massimizzerà i tuoi ritorni da essa, ma ci sono molti clienti là fuori che comprano solo pezzi e bocconi, e quei clienti, forse ti piacerebbe che comprassero tutto, ma anche se comprano qualcosa da te, probabilmente lo compreranno da te per sempre. Quindi sembra strategicamente una base molto utile da perseguire.
JH: Servire un cliente è semplicemente intelligente. Se guardi il modo in cui Nvidia va sul mercato, abbiamo sempre costruito le cose in modo completamente integrato perché il software deve essere integrato con l’hardware in qualche modo, ma lo facciamo con abbastanza disciplina da poter poi disaggregare il software dall’hardware, e puoi decidere di non usare il nostro software, puoi scegliere di non farlo. E se guardi il modo in cui progettiamo i nostri sistemi, abbiamo effettivamente disaggregato i sistemi in modo sufficientemente disciplinato, che se volessi sostituire alcune parti, potresti. In questo momento, Grace Blackwell viene integrato e installato in tutto il mondo in diversi cloud e sono tutti basati sui nostri standard, ma sono tutti un po’ diversi, e tuttavia ci adattiamo a loro.
Penso che questa sia la vera sfida del modello di business di Nvidia, e va di pari passo con il voler essere un’azienda di piattaforme di calcolo. La cosa più importante è che uno degli stack di Nvidia, se è il nostro stack di calcolo, è fantastico. Se è il nostro stack di networking, di cui mi sento profondamente e fortemente come del mio stack di calcolo, se il mio stack di calcolo viene adottato tutto intero, fantastico. Se il mio stack di networking viene adottato, fantastico. Se entrambi vengono adottati, incredibile.
Beh, voglio dire, molte persone, il tuo NVLink Fusion, puoi prendere solo NVLink, puoi integrarlo con il tuo ASIC con — di nuovo, totale contrasto con quello che ho interpretato del messaggio del GTC — ma di nuovo, posso vedere il punto di vista qui. Voglio dire, chi è il cliente?
JH: Credo ancora profondamente che Nvidia stia costruendo un sistema complessivamente migliore, ci credo ancora. E se non ci credo, allora ovviamente dobbiamo fare qualcosa di sbagliato, e dobbiamo convincerci di crederci, e quindi credo completamente che Nvidia sia l’azienda di calcolo accelerato su scala più grande del mondo, siamo l’azienda di calcolo IA su scala più grande del mondo. Nessuno di 36-38.000 persone è unito a questo unico lavoro più di qualsiasi altro posto e quindi l’idea che un piccolo team di 14 persone possa fare un lavoro migliore di noi sarebbe piuttosto doloroso da interiorizzare, e quindi ci sforziamo di fare meglio.
Tuttavia, credi anche nella scala, e un ottimo modo per ottenere scala in tutto ciò che vendi è venderlo come vuole il cliente.
JH: Esatto, esattamente. Esattamente. Quindi ho delle preferenze, ma vogliamo assicurarci di poter servire ogni cliente come preferisce essere servito.
Che ne è del gaming
In questa linea, e forse è correlato: stavo chiedendo a un mio amico di questa intervista e ha detto che suo figlio ha insistito che facessi questa domanda. Alcune persone nel gaming sentono, l’hai menzionato oggi, solo il 10% del discorso riguarda GeForce, ma è ancora importante per noi. È un, “È ancora importante per noi perché tutto questo scala e stiamo facendo GPU?”, o cosa dovrei dire al figlio del mio amico riguardo a Nvidia e il gaming?
JH: Vedi, vorrei averlo detto, RTX PRO non sarebbe possibile senza GeForce, Omniverse non sarebbe possibile senza GeForce, nessuno di quei pixel che abbiamo visto in quei video sarebbe stato possibile senza GeForce, i robot non sarebbero possibili senza GeForce, Newton non è possibile senza GeForce, quindi GeForce stesso, non è così profondamente parte dell’evento GTC perché il GTC tende a riguardare il calcolo ad alte prestazioni, e aziendale, e IA, e cose del genere. Abbiamo una conferencia separata per gli sviluppatori di giochi e cose del genere e quindi è solo che quando faccio il GTC, mi sento sempre un po’ male per quel gruppo di persone che il loro lancio di prodotto non è così centrale, ma è solo che non è il pubblico giusto, ma sanno anche che GeForce gioca un ruolo così integrante in tutto ciò che facciamo.
Voglio dire, c’è un po’ il fatto che forse i gamer non apprezzano pienamente fino a che punto le loro GeForce sono molto più che semplici motori di rendering grafico a questo punto?
JH: (ridendo) Sì, esatto. Esattamente. E l’ho detto oggi, stiamo renderizzando solo 1 pixel su 10, è un numero scioccante. Supponi che ti dia un puzzle, e ti dia 1 pezzo su 10 e gli altri 10 pezzi non te li do nemmeno, devi inventarteli.
Ho un altro pitch per collegare il gaming alle tue altre cose. Hai appena parlato di come sei disciplinato nel tenere le cose separate, e di poterle separare e il software che gestisce tutto questo. Sembra un po’ il problema dei driver su Windows, a essere totalmente onesti, è solo una competenza di base che hai.
JH: Sì, è solo che un driver è troppo di basso livello, e ha troppe cose, troppi registri e l’astrazione del driver è stata in realtà una rivoluzione in cui Microsoft ha davvero giocato un ruolo molto importante. Windows non sarebbe dove è se non fosse per questo concetto di driver, e ha creato un’astrazione di un’API mentre sotto l’hardware può cambiare abbastanza significativamente.
Siamo open source, il nostro driver ora, e francamente, non vedo molte persone che ci contribuiscono, e il motivo è che nel momento in cui esco con un’altra GPU, tutto il lavoro che hanno fatto nell’ultimo driver viene un po’ buttato via, e quindi senza un grande corpo di ingegneri come ha Nvidia, è difficile farlo. Ma se ottimizziamo ogni GPU per ogni driver con il suo driver associato, allora c’è uno strato di isolamento meraviglioso, uno strato di astrazione, che sia CUDA o DirectX, su cui le persone possono costruire sopra.
Guarda, ecco la mia risposta al figlio del mio amico. Dovevo chiederti delle cose governative, e hai dato una difesa buona e appassionata del tuo punto di vista, ma ti sei davvero entusiasmato e i tuoi occhi si sono illuminati quando ti ho chiesto dei driver di gioco.
JH: Oh, davvero?
Quindi penso che tutto sia ancora a posto.
JH: Oh, bene. Sì, amo GeForce in realtà.
Ecco, per questo è bello parlare di persona. Jensen Huang, grazie mille.
Questa intervista di Daily Update è disponibile anche come podcast. Per riceverla nel tuo lettore di podcast, visita Stratechery.
Il Daily Update è destinato a un singolo destinatario, ma inoltrare occasionalmente va benissimo! Se desideri ordinare più abbonamenti per il tuo team con uno sconto di gruppo (minimo 5), contattami direttamente.
Grazie per essere un sostenitore, e buona giornata!
Condividi
19/05/25 Briefing.com: Sanmina crolla mentre il mercato mette in dubbio il valore dell’acquisizione del business manifatturiero di ZT Systems (SANM)
Sanmina (SANM) registra un forte calo in borsa dopo l’annuncio dell’acquisizione da 3,0 miliardi di dollari del business di produzione di infrastrutture per data center di ZT Systems da Advanced Micro Devices (AMD). Il ribasso riflette le preoccupazioni degli investitori riguardo ai rischi di integrazione, l’ingente debito contratto per finanziare l’operazione e l’emissione di nuove azioni per coprire parte del premio. ZT Systems, acquisita da AMD per 4,9 miliardi di dollari meno di due mesi fa, è un fornitore di soluzioni server hyperscale, specializzato nella progettazione, integrazione, produzione e implementazione di infrastrutture cloud e AI per grandi clienti come Amazon Web Services (AMZN) e Microsoft Azure (MSFT).
Struttura dell’accordo: Sanmina pagherà 2,25 miliardi di dollari in contanti, un premio di 300 milioni di dollari (diviso equamente tra contanti ed equity) e fino a 450 milioni di dollari in pagamenti contingenti basati sulle performance finanziarie del business nei prossimi tre anni. Per finanziare l’operazione, Sanmina ha ottenuto un impegno di 2,5 miliardi di dollari da Bank of America.
Valutazione finanziaria: Con un fatturato annuo di ZT Systems stimato tra 5 e 6 miliardi di dollari, il rapporto prezzo/vendite è di circa 0,5-0,6x, ragionevole per un’attività manifatturiera con margini lordi bassi (potenzialmente sotto il 10%), rispetto alle operazioni di progettazione di chip ad alto margine di AMD. Tuttavia, il pagamento contingente introduce rischi, poiché il raggiungimento del valore totale di 3 miliardi dipende da performance sostenute in un mercato competitivo. Sebbene il prezzo non sembri eccessivo, il successo dell’operazione dipenderà dalla capacità di Sanmina di sfruttare la scala e le relazioni con i clienti di ZT Systems senza erodere i margini, specialmente in un contesto di domanda hyperscale variabile.
Strategia di AMD: La cessione del business manifatturiero di ZT Systems si allinea con l’obiettivo di AMD di concentrarsi su segmenti ad alto margine, come acceleratori AI e sistemi AI rack-scale, liberandosi delle operazioni manifatturiere ad alta intensità di capitale. Mantenendo i team di progettazione e supporto clienti di ZT Systems, AMD può migliorare la qualità e l’implementazione delle soluzioni AI per clienti hyperscale senza il peso della gestione produttiva. La partnership preferenziale con Sanmina per la produzione di soluzioni AI cloud rack e cluster-scale rafforza questa collaborazione, consentendo ad AMD di ottimizzare la supply chain e concentrare la R&S su aree competitive come gli acceleratori Instinct AI e i processori EPYC. Finanziariamente, la vendita da 3 miliardi, dopo l’acquisizione da 4,9 miliardi, permette ad AMD di recuperare una parte significativa dell’investimento, rafforzando il bilancio per ulteriori investimenti in AI, anche se la cessione riduce il controllo diretto sulla qualità e i tempi di produzione.
Impatto per Sanmina: L’acquisizione del business manifatturiero di ZT Systems rappresenta una svolta strategica per cavalcare il boom delle infrastrutture AI, posizionando Sanmina come leader negli ecosistemi cloud e AI. L’operazione rafforza le capacità di Sanmina in tecnologie di componenti, integrazione di sistemi e soluzioni di supply chain, integrando l’expertise di ZT Systems nella produzione di alta qualità per hyperscaler, in particolare nelle tecnologie di raffreddamento a liquido avanzate, cruciali per ambienti di calcolo AI densi. L’operazione dovrebbe incrementare l’EPS non-GAAP di Sanmina nel primo anno post-chiusura, grazie alle sinergie derivanti dalla combinazione dell’expertise manifatturiera globale di Sanmina con le relazioni hyperscale e le strutture specializzate di ZT Systems. Tuttavia, Sanmina dovrà affrontare pressioni sui margini nel contract manufacturing e costi di integrazione, che potrebbero limitare la crescita dell’EPS se la domanda hyperscale rallenta o la competizione si intensifica.
Conclusioni: Per AMD, la cessione affina il focus sul design AI ad alto margine e recupera capitale significativo, ma comporta rischi di minore controllo sulla produzione. Per Sanmina, l’acquisizione offre un posizionamento strategico nell’infrastruttura AI con forte potenziale di crescita di fatturato ed EPS, ma presenta sfide in termini di integrazione e sostenibilità dei margini.
Nota sui dati finanziari di SANM: Il prezzo attuale di Sanmina (SANM) è 80,021 USD (19 maggio 2025), in calo rispetto alla chiusura del giorno precedente di 84,56 USD, con un minimo giornaliero di 78,471 USD e un massimo di 84,975 USD. Questo ribasso riflette le preoccupazioni del mercato descritte sopra. La capitalizzazione di mercato è di circa 4,46 miliardi USD, con un massimo annuale di 91,1225 USD e un minimo di 61,52 USD.
08/05/25 Barron’s: Le azioni di Arm crollano. Perché il designer di chip non è un al riparo dalle tariffe.
Di Adam Clark
Arm Holding stava crollando bruscamente giovedì mattina presto. Le speranze che il progettista di chip sarebbe stato protetto dalle tariffe, come i suoi pari nel settore dei semiconduttori, sembrano essere state fuori bersaglio.
Le azioni di Arm erano in calo dell’8,9% nel premercato di giovedì dopo che le previsioni per il trimestre corrente si sono rivelate inferiori alle aspettative degli analisti.
Le azioni erano leggermente cresciute finora quest’anno, sfidando un più ampio crollo delle azioni dei chip, grazie alla speranza che il suo modello di business sarebbe stato resiliente contro le minacce di tariffe. I produttori di chip licenziano il lavoro di Arm e poi pagano una piccola royalty per ogni chip progettato da Arm che vendono.
Tuttavia, la dirigenza di Arm ha stimato che dal 10% al 20% delle sue entrate da royalty proviene dalle importazioni negli Stati Uniti, che sono vulnerabili a una debolezza della domanda guidata dalle tariffe. L’azienda con sede nel Regno Unito è onnipresente nel mercato dei telefoni cellulari e sta espandendo la sua presenza nei processori per computer personali e server di fascia alta. Tra i clienti di Arm ci sono Apple, Qualcomm e Nvidia
“Sebbene continuiamo a considerare Arm positivamente nel lungo termine, data la sua crescente monetizzazione della proprietà intellettuale e il potenziale di guadagno di quote di mercato, siamo più cauti sul titolo nel breve termine a causa della sua ampia esposizione macroeconomica,” ha scritto l’analista di William Blair Sebastien Naji in una nota di ricerca.
Naji ha abbassato le sue stime per la crescita dei ricavi di Arm per l’anno fiscale 2026 al 15% dal precedente 20,5%, pur mantenendo un rating Outperform sul titolo senza indicare un prezzo obiettivo.
Un altro motivo per il forte calo è probabilmente la valutazione elevata di Arm. All’inizio della sessione di giovedì, Arm era scambiata a circa 64 volte gli utili previsti per l’anno fiscale corrente, secondo FactSet.
“Riteniamo che la valutazione premium di Arm (>40x P/E CY 26) lasci poco margine per errori nelle previsioni, nonostante i suoi margini superiori e il profilo di entrate ricorrenti,” ha scritto l’analista di CFRA Angelo Zino in una nota di ricerca.
Scrivere ad Adam Clark all’indirizzo adam.clark@barrons.com
08/05/25 Barron’s: Le azioni di Nvidia e AMD salgono mentre Trump pianifica di abolire le regole sull’esportazione di chip di Biden
Di Adam Clark
Le azioni di Nvidia e di altri produttori di semiconduttori erano in rialzo giovedì, dopo che l’amministrazione Trump ha dichiarato di voler abolire le regolamentazioni che avrebbero limitato le esportazioni di chip per l’intelligenza artificiale in tutto il mondo.
Le azioni Nvidia erano in rialzo dell’1,9% a 119,25 dollari nel premercato. Advanced Micro Devices guadagnava l’1,3% e Broadcom saliva dell’1,9% nel premercato.
I produttori di chip erano in crescita dopo che il Dipartimento del Commercio ha dichiarato mercoledì pomeriggio che non intende implementare le restrizioni sui processori per l’IA elaborate sotto l’amministrazione Biden, secondo quanto riportato dal The Wall Street Journal. Le restrizioni sarebbero dovute entrare in vigore il 15 maggio e avrebbero limitato le vendite in modo più ampio rispetto alle sanzioni esistenti sulle esportazioni verso la Cina.
Le cosiddette regole di “diffusione dell’IA” avrebbero dovuto ridurre il mercato a lungo termine dei chip per l’IA fino al 10%, secondo gli analisti di BofA Securities.
“Accogliamo con favore la leadership dell’amministrazione e la nuova direzione nella politica sull’IA. Con l’abolizione della regola di diffusione dell’IA, l’America avrà un’opportunità unica in una generazione di guidare la prossima rivoluzione industriale, creare posti di lavoro ben retribuiti negli Stati Uniti, costruire nuove infrastrutture fornite dagli Stati Uniti e ridurre il deficit commerciale,” ha dichiarato un portavoce di Nvidia in una dichiarazione inviata via email.
Scrivere ad Adam Clark all’indirizzo adam.clark@barrons.com
07/05/25 Briefing.com: AMD Stabile Dopo Risultati del Primo Trimestre Positivi; Guidance del Secondo Trimestre Incoraggiante, ma Incertezze su Cina Persistono (AMD)
Advanced Micro Devices (AMD) è scambiata in modo sostanzialmente stabile dopo i risultati del primo trimestre, pubblicati ieri sera, che hanno superato le aspettative. Il superamento delle attese sugli utili per azione (EPS) è stato leggermente più marcato rispetto ai trimestri recenti. I ricavi di questo produttore di chip, che compete con NVIDIA (NVDA) e Intel (INTC) nella corsa all’intelligenza artificiale, sono aumentati del 35,9% su base annua, raggiungendo 7,44 miliardi di dollari, superando le previsioni, grazie a una crescita significativa delle vendite di acceleratori Instinct AI, CPU EPYC e Ryzen. Inoltre, il punto medio della guidance sui ricavi per il secondo trimestre è stato superiore alle aspettative degli analisti.
Nel trimestre precedente, il titolo era crollato dopo i risultati, nonostante un superamento delle attese, a causa di una delusione significativa nei ricavi del segmento Data Center. Nel primo trimestre, i ricavi del segmento Data Center sono cresciuti del 57% su base annua a 3,7 miliardi di dollari, trainati principalmente da continui guadagni di quote di mercato delle CPU per server sia tra i clienti cloud che aziendali, oltre alla forte crescita degli acceleratori GPU Instinct di AMD. La domanda da parte degli hyperscaler è rimasta robusta, con i provider cloud che hanno ampliato le implementazioni di EPYC.
Per quanto riguarda il business Data Center AI, i ricavi sono aumentati di una percentuale significativa a due cifre su base annua, con le spedizioni di MI325X che hanno accelerato per supportare nuove implementazioni aziendali e cloud. Diversi hyperscaler hanno ampliato l’uso degli acceleratori Instinct per coprire un range crescente di ricerche AI generative. AMD ha anche aggiunto numerosi clienti Tier 1, sia cloud che aziendali, nel primo trimestre.
AMD ha iniziato a campionare la sua serie di prossima generazione MI350 con diversi clienti ed è sulla buona strada per avviare una produzione accelerata entro la metà del 2025. Guardando ancora più avanti, AMD è entusiasta della serie Instinct MI400, una nuova linea di acceleratori AI prevista per il rilascio nel 2026, progettata per migliorare le prestazioni e l’efficienza per attività di addestramento e inferenza AI. AMD riferisce che i suoi team sono pienamente coinvolti e stanno già collaborando con clienti chiave nella progettazione a livello di rack. I primi feedback dei clienti sono stati molto positivi. AMD prevede che la serie MI400 espanderà significativamente il mercato indirizzabile (TAM) dei suoi acceleratori AI, con i clienti che pianificano implementazioni più ampie di Instinct.
Come promemoria, ad aprile è stato introdotto un nuovo requisito di licenza per l’esportazione delle spedizioni di MI308 verso la Cina. AMD ha stimato una riduzione dei ricavi di 700 milioni di dollari nel secondo trimestre e di 1,5 miliardi di dollari per l’intero 2025.
I ricavi del segmento Client e Gaming sono cresciuti del 28% su base annua a 2,9 miliardi di dollari. Il principale motore è stato il segmento Client, con ricavi in aumento del 68% su base annua a 2,3 miliardi di dollari, trainati dalla forte domanda per i più recenti processori AMD Ryzen “Zen 5” e da un mix di prodotti più ricco. I ricavi del segmento Gaming sono diminuiti del 30% su base annua a 647 milioni di dollari a causa di una riduzione dei ricavi da semiconduttori personalizzati. Infine, i ricavi del segmento Embedded sono scesi del 3% su base annua a 823 milioni di dollari, con una domanda nei mercati finali che è rimasta mista.
Nel complesso, riteniamo che questo sia stato un rapporto discreto per AMD, con la guidance per il secondo trimestre come punto saliente. La guidance ha calmato alcune preoccupazioni. Il segmento Data Center ha performato piuttosto bene. È stato positivo sentire AMD riaffermare le tempistiche per le serie MI350 e MI400. Avevamo alcune preoccupazioni su come il nuovo requisito di licenza per l’esportazione potesse influire sulla guidance del secondo trimestre e dell’intero 2025. Sebbene significativo, almeno ora abbiamo una certa chiarezza. Tuttavia, pensiamo che un’ombra rimanga su AMD finché le questioni relative alla Cina non saranno risolte.
28/04/25 Barron’s: Le azioni di Wolfspeed salgono del 21%. Perché il produttore di semiconduttori sta guadagnando terreno.
Di Mackenzie Tatananni
Le azioni di Wolfspeed (WOLF +27,25%) sono balzate lunedì, a pochi giorni dalla pubblicazione dei risultati del terzo trimestre fiscale.
Le azioni sono salite del 27% senza notizie significative che potessero giustificare il rialzo. Wolfspeed era in procinto di chiudere la quinta giornata consecutiva di guadagni, il miglior periodo dall’ottobre scorso, quando registrò un aumento del 71% in cinque giorni, secondo i dati di Dow Jones Market Data.
Il rialzo potrebbe essere dovuto agli sforzi dei venditori allo scoperto—operatori che scommettono sul calo del prezzo di un’azione—per chiudere le loro posizioni. I venditori allo scoperto prendono in prestito azioni e le vendono, sperando di riacquistarle a un prezzo più basso per restituirle al prestatore, intascando la differenza come profitto.
Questa strategia può incontrare difficoltà se molte azioni vengono prese in prestito e vendute allo scoperto. Un improvviso aumento del prezzo può scatenare una corsa all’uscita, facendo salire ulteriormente il prezzo e mettendo ancora più pressione sui venditori allo scoperto per chiudere le loro posizioni.
Gli analisti di Raymond James hanno notato nel loro ultimo rapporto sull’industria dei semiconduttori che l’attività aggregata di vendite allo scoperto è aumentata del 5% all’inizio di aprile rispetto alla fine di marzo. Wolfspeed era in cima alla lista delle azioni con il più alto rapporto di interesse allo scoperto, pari al 41%. Questo valore è calcolato dividendo la quantità di azioni vendute allo scoperto per il volume medio giornaliero di scambi.
L’azienda, che pubblicherà i suoi risultati l’8 maggio, progetta e produce semiconduttori a banda larga (wide bandgap), che consentono ai dispositivi di operare a temperature e voltaggi più elevati.
Il rapporto sugli utili del secondo trimestre, pubblicato a fine gennaio, ha indicato una perdita netta cresciuta a 372,2 milioni di dollari, rispetto ai 125,9 milioni di dollari dell’anno precedente.
Wolfspeed ha comunicato agli investitori di aspettarsi per il terzo trimestre ricavi da operazioni continuative tra 170 e 200 milioni di dollari, con una perdita netta rettificata compresa tra 138 e 119 milioni di dollari. Gli investitori saranno attenti a verificare se queste previsioni saranno confermate.
L’azienda ha dichiarato il mese scorso di aver adottato misure per rafforzare la sua struttura patrimoniale. Wolfspeed ha ricevuto 192,1 milioni di dollari in rimborsi fiscali in contanti grazie a un credito d’imposta per la produzione avanzata, istituito con il Chips Act del 2022.
Scritto da Mackenzie Tatananni all’indirizzo mackenzie.tatananni@barrons.com
21/04/25 Briefing.com: NVIDIA scende sotto i 100 dollari mentre la rivale cinese Huawei si prepara a distribuire in massa un nuovo chip AI (NVDA)
NVIDIA (NVDA -5%) compie oggi un altro passo indietro, scendendo nuovamente sotto la soglia dei 100 dollari dopo un report di Reuters secondo cui una delle sue principali concorrenti cinesi, Huawei, si sta preparando a lanciare in massa un chip AI aggiornato, mettendo direttamente nel mirino NVDA. La notizia arriva mentre la Cina cerca rapidamente un’alternativa valida ai chip NVDA, a seguito delle prolungate restrizioni all’export imposte dagli Stati Uniti sui chip AI avanzati destinati alla regione.
La scorsa settimana, NVDA ha registrato un forte calo in Borsa dopo aver svalutato il proprio inventario per circa 5,5 miliardi di dollari, segnalando difficoltà nell’ottenere le licenze necessarie per esportare in Cina i suoi chip AI riconfigurati, gli H20. Questi chip depotenziati stavano già posizionando NVDA su un percorso di ostacoli competitivi, dato che l’H20 era utile principalmente per modelli AI semplici, aprendo la strada ai concorrenti per conquistare una posizione dominante in Cina nel segmento del training di modelli AI complessi.
- Non c’è voluto molto prima che un concorrente trovasse il modo di ottenere prestazioni simili a quelle dei chip più avanzati di NVDA. A febbraio, Huawei ha ottenuto rese significativamente più elevate per il suo chip AI Ascend 910C, che vanta prestazioni simili a quelle dell’H100 di NVDA, utilizzando un processo produttivo di SMIC, produttore cinese di semiconduttori, che ha permesso a Huawei di aggirare le restrizioni sull’uso della litografia EUV. Grazie a questo processo, Reuters riporta che Huawei potrà iniziare le spedizioni in massa ai clienti cinesi già dal prossimo mese.
- Sebbene non sia allo stesso livello della piattaforma di punta B200 (o Blackwell) di NVDA, il 910C colma un vuoto nel mercato cinese. Per fare un confronto, l’H20 di NVDA, una versione ridotta dell’H100, ha comunque mantenuto una crescita sequenziale negli ultimi trimestri, segnalando una solida domanda per il chip “annacquato”. Con il 910C di Huawei che promette prestazioni migliori rispetto all’H20, potrebbe rapidamente diventare la scelta principale per molte aziende cinesi.
- Lo sviluppo di Huawei arriva in un momento ideale per il colosso tecnologico cinese. Tuttavia, per i concorrenti statunitensi e i loro fornitori, come Taiwan Semi (TSMC), coincide con una fase di forte incertezza sul futuro economico a breve termine e sulle implicazioni delle politiche commerciali dinamiche, spingendo oggi al ribasso i titoli di NVDA e di molti altri produttori di semiconduttori.
- A margine, TSMC ha ribadito la scorsa settimana le proprie previsioni di crescita dei ricavi per l’anno fiscale 2025, ma ha osservato che lo scenario sulle tariffe resta poco chiaro. Le novità su Huawei potrebbero colpire in modo significativo i ricavi di NVDA provenienti dalla Cina, offuscando di conseguenza anche le possibilità di TSMC di raggiungere i suoi obiettivi annuali.
L’articolo odierno di Reuters ha ulteriormente evidenziato i forti ostacoli di NVDA in Cina. Le restrizioni alle esportazioni imposte dall’amministrazione precedente stavano già fungendo da freno, con le spedizioni verso la Cina dimezzate nel Q4 (gennaio) rispetto ai livelli precedenti alle limitazioni. La scorsa settimana avevamo segnalato, dopo la svalutazione da 5,5 miliardi di dollari, che il business di NVDA in Cina (che rappresenta circa il 13% dei ricavi totali) stava affrontando una fase di forte criticità, e che la volatilità potrebbe aumentare nei prossimi mesi mentre si dispiegano gli effetti delle tariffe. Questa tendenza potrebbe continuare, man mano che gli investitori valutano il possibile impatto sugli utili derivante dalle continue battute d’arresto in Cina e dagli effetti materiali delle tariffe.
03/04/25 Financial Time: I profitti di Raspberry Pi calano nei primi risultati dopo l’IPO
Il produttore di computer a basso costo afferma che i problemi di inventario legati alla pandemia sono stati “normalizzati”
I profitti ante imposte di Raspberry Pi sono diminuiti di oltre il 50% nel 2024, mentre il progettista di semiconduttori e produttore di piccoli computer a basso costo ha affrontato problemi di inventario, nei suoi primi risultati annuali completi da quando è diventata pubblica alla Borsa di Londra lo scorso giugno.
L’azienda ha dichiarato che i problemi di inventario legati alla pandemia hanno portato a un calo del 57% dei profitti ante imposte, scesi a 16,3 milioni di dollari. Tuttavia, ha affermato che questi problemi sono stati “normalizzati” e che ora si aspetta “un costante aumento della domanda nel corso dell’anno, posizionandoci fortemente nonostante le persistenti incertezze macroeconomiche e geopolitiche”.
L’azienda con sede a Cambridge ha riportato utili rettificati prima di interessi, tasse, deprezzamento e ammortamento di 37,2 milioni di dollari per l’anno conclusosi a dicembre, superando le stime degli analisti di 36,6 milioni di dollari, ma inferiori del 15% rispetto al 2023. I ricavi sono diminuiti del 2%, attestandosi a 259,5 milioni di dollari.
Le azioni della società sono aumentate del 4% all’apertura di mercoledì. Gli analisti di Jefferies hanno aggiornato il rating del titolo da “mantenere” a “comprare” mercoledì mattina.
L’offerta pubblica iniziale di Raspberry Pi lo scorso anno, con una valutazione di 542 milioni di sterline, è stata vista come una rara vittoria per il mercato di Londra, che sta lottando per attrarre quotazioni, in particolare da aziende tecnologiche, che generalmente preferiscono quotarsi negli Stati Uniti.
L’amministratore delegato Eben Upton ha dichiarato che l’azienda ha rilasciato più prodotti nella seconda metà del 2024 rispetto a qualsiasi altro anno completo precedente, il che “ha aiutato a soddisfare le aspettative di mercato in un anno dominato dalla ben nota correzione dell’inventario”.
Raspberry Pi ha venduto 1,9 milioni di unità del suo computer Pi 5 da 120 dollari, lanciato nell’ottobre 2023. Ha dichiarato di aspettarsi che le “promettenti” discussioni con i produttori di apparecchiature originali contribuiscano sempre più alle vendite a partire dal prossimo anno.
Raspberry Pi ha iniziato a vendere i suoi prodotti al pubblico nel 2012. È stata fondata sotto la Raspberry Pi Foundation, un’organizzazione benefica britannica creata nel 2008 per promuovere l’informatica tra i giovani.
La sua IPO ha raccolto 178,9 milioni di sterline, di cui 31,4 milioni per l’azienda. Raspberry Pi ha dichiarato che i fondi saranno utilizzati per progetti di ingegneria e il lancio di nuovi prodotti.
31/03/25 Briefing.com: Arm Holdings plc in calo nonostante abbia visto la quota della CPU del suo data center triplicare quest’anno (ARM)
Arm Holdings (ARM -3%) scende nonostante la società abbia detto a Reuters oggi che la sua quota di mercato delle CPU per data center salmenterà da circa il 15% nel 2024 al 50% entro la fine di quest’anno. Il rapporto arriva in un momento in cui The Information ha notato oggi che i principali fornitori di cloud, ad esempio Amazon AWS (AMZN), Microsoft Azure (MSFT) e Google Cloud (GOOG), stanno iniziando a mostrare moderazione nella spesa relativa all’IA. Il rapporto arriva pochi mesi dopo che questi iperscalatori hanno annunciato o riaffermato i piani per aumentare la loro spesa per l’IA nel 2025, con la cifra totale che dovrebbe raggiungere i 320 miliardi di dollari, con un aumento stimato del 40% annuo.
Tuttavia, il paesaggio sta cambiando. L’informazione ha affermato che alcune di queste aziende Big Tech che sono state veloci a versare fondi nelle implementazioni di intelligenza artificiale due anni fa stanno iniziando a fare un passo indietro e a valutare i loro ritorni sugli investimenti prima di sborsare capitale aggiuntivo. Nel frattempo, rimane la ricaduta persistente dell’annuncio di DeepSeek a gennaio. La startup cinese ha scosso l’industria dell’intelligenza artificiale quando si è comportata in modo simile ai modelli di intelligenza artificiale di punta con sede negli Stati Uniti nonostante abbia speso solo pochi milioni di dollari per la formazione. DeepSeek è open source, come Meta AI, che può ridurre i prezzi sui modelli di OpenAI e altre alternative closed-source. Le aziende stanno iniziando a guardarli più seriamente come un modo per ridurre i costi complessivi dell’IA.
Tuttavia, solo perché le imprese stanno potenzialmente cercando di spendere meno per l’IA non significa che non siano ferme nel loro impegno a garantire le rispettive posizioni di leadership nel settore. In effetti, inclinarsi verso l’efficienza dei costi potrebbe essere un positivo netto per ARM.
- Ciò che separa l’architettura della CPU di ARM dalle alternative x86 sviluppate da Advanced Micro (AMD) e Intel (INTC) è la sua efficienza. L’IA è incredibilmente affamata di energia, il che mette pressione sull’industria per sviluppare prodotti che possono fare di più ma utilizzare meno energia. A febbraio, ARM ha toccato la svolta di DeepSeek, osservando che sarà un vantaggio netto per AI e ARM principalmente perché guida l’efficienza, rendendo più facile eseguire applicazioni di intelligenza artificiale dove l’alimentazione è limitata.
- ARM non fa chip, ma concede in licenza la sua architettura a progettisti di chip come NVIDIA (NVDA) e Apple (AAPL), quindi prende una royalty sulle vendite unitarie. In quanto tale, non deve aumentare la produzione per raggiungere il suo ambizioso obiettivo di quota di mercato dei data center. Invece, ha solo bisogno che i suoi clienti guardino a progettare più efficienti dal punto di vista energetico utilizzando la sua architettura.
- Tuttavia, ARM ha cercato di creare i propri chip. Il mese scorso, FT.com ha riferito che ARM stava cercando di lanciare chip quest’anno dopo aver assicurato Meta Platforms (META) come uno dei suoi primi clienti. I piani di ARM includono competere con Qualcomm (QCOM), uno dei suoi maggiori clienti, per vendere CPU per data center a META. A parte eventuali battute d’arresto, appoggiandosi alle licenze mentre vende i propri chip a META, ARM ha il potenziale per strasciare lo spazio dell’intelligenza artificiale e alla fine raggiungere il suo obiettivo di quota di mercato del 50%.
Un ambiente economico incerto potrebbe smorzare l’umore intorno all’appetito degli iperscalatori per la spesa per l’IA. Tuttavia, ARM si trova in una posizione attraente, pubblicizzando notevoli vantaggi di efficienza rispetto all’architettura alternativa della CPU per supportare una potenziale corsa verso la cementazione della sua quota di mercato del 50% nello spazio CPU del data center.
26/03/25 Barron’s: Il Titolo di Nvidia Crolla. Tutto Va Male Ovunque, Tutto in Una Volta.
Di Ben Levisohn e Adam Clark
In questo articolo: NVDA SPX AVGO INTC
Il titolo di Nvidia (NVDA, -5,74%) era diretto verso il suo secondo calo più significativo a marzo, mentre la possibilità di normative più severe sui suoi chip in Cina spinge le azioni al ribasso, un rapporto negativo sulla spesa nei data center e altri fattori inducono gli investitori a fuggire dai titoli tecnologici.
Le azioni di Nvidia sono diminuite del 6,5% a 112,88 dollari durante gli scambi del pomeriggio, mentre l’indice di riferimento S&P 500 (SPX, -1,12%) è sceso dell’1,3%. Anche altri titoli di semiconduttori sono in calo: Advanced Micro Devices ha perso il 4,6%, Broadcom (AVGO, -4,78%) è scesa del 4,7% e Intel ha registrato un calo del 3,4%. L’ETF Technology Select Sector SPDR è diminuito del 2,2%.
Il calo arriva mentre crescono i dubbi sul futuro dei chip di Nvidia in Cina. Joe Tsai, presidente di Alibaba, ha dichiarato di essere “sbalordito” dalla spesa delle aziende tecnologiche statunitensi in infrastrutture di intelligenza artificiale durante l’HSBC Global Investment Summit a Hong Kong martedì, mettendo in discussione la necessità di investire centinaia di miliardi in data center per l’IA.
Nel frattempo, gli Stati Uniti hanno aggiunto martedì dozzine di aziende cinesi a una lista nera commerciale per motivi di sicurezza nazionale, richiedendo l’approvazione del governo prima che possano acquistare tecnologia americana. Tra queste figurano filiali del Gruppo Inspur, il più grande produttore cinese di server e un importante cliente di Nvidia, Intel (INTC, -3,22%) e Advanced Micro Devices.
Sussistono anche preoccupazioni potenziali riguardo alle pressioni da parte di Pechino. Secondo il Financial Times, citando fonti informate, i regolatori cinesi stanno scoraggiando le grandi aziende tecnologiche del paese dall’acquistare il chip H20 di Nvidia—progettato specificamente per soddisfare le sanzioni statunitensi sulle esportazioni—poiché viola le norme sull’efficienza energetica.
Le regole non sono state ancora applicate rigorosamente e non stanno attualmente influenzando le vendite dell’H20, ma la società sta cercando di organizzare un incontro con i regolatori cinesi e si prepara a modificare i chip, il che potrebbe renderli meno competitivi, riporta il FT.
“I nostri prodotti offrono un’eccellente efficienza energetica e valore in ogni mercato che serviamo. Mentre la tecnologia avanza rapidamente, la politica di controllo delle esportazioni dovrebbe essere adeguata per consentire alle aziende statunitensi di offrire i prodotti più efficienti dal punto di vista energetico possibile, pur raggiungendo gli obiettivi di sicurezza nazionale dell’Amministrazione”, ha dichiarato un portavoce di Nvidia in una nota via email.
Niente di fondamentale, noterete, sta andando storto, ma tutto ciò che riguarda il sentiment sembra esserlo. L’analista di Mizuho, Daniel O’Regan, ha aggiunto altri elementi, tra cui una nota di TD Cowen che segnala un rallentamento nella spesa per i data center e i dazi automobilistici. Ma in realtà, è solo il desiderio di liberarsi dei titoli tecnologici e acquistare asset più sicuri. “Continuiamo a vedere denaro uscire da tutto ciò che è legato all’IA e dirigersi verso temi più difensivi/basso valore come Telecom e Media”, scrive O’Regan. “La gente spara prima e fa domande dopo.”
Svegliatemi quando inizieranno le domande.
Scritto da Adam Clark all’indirizzo adam.clark@barrons.com
24/03/25 CNBC: Lisa Su della AMD ha già sconfitto Intel. Ora punta a Nvidia
PUBBLICATO GIO, 20 MAR 2025 08:00 EDT
Di Kif Leswing
PUNTI CHIAVE
- Lisa Su, CEO di AMD, è stata la CEO donna più pagata per cinque anni consecutivi, secondo un sondaggio AP.
- Sotto la sua guida, la capitalizzazione di mercato di AMD è passata da 2 miliardi di dollari a 175 miliardi di dollari in un decennio, superando nel frattempo il rivale Intel.
- Ora sta affrontando Nvidia, cercando di conquistare una fetta più grande del mercato dell’intelligenza artificiale.

Quando Lisa Su è diventata CEO di Advanced Micro Devices (AMD) alla fine del 2014, l’azienda era in gravi difficoltà e vicina al fallimento. Nel mercato dei processori per computer, AMD non era competitiva rispetto a Intel. L’azienda aveva miliardi di dollari di debiti e si era impegnata a produrre chip per clienti che potevano non esistere. Alla fine dell’anno, AMD valeva appena 2 miliardi di dollari, mentre Intel era valutata circa 180 miliardi.
“Ho avuto mentori nella mia carriera che mi dicevano: ‘Non penso che sia una buona mossa’”, ha raccontato Su, 55 anni, in un discorso alla Stanford University a marzo, riflettendo sulla decisione di accettare il ruolo oltre un decennio fa.
Oggi, Su si trova in una posizione molto diversa.
AMD ha superato Intel in termini di capitalizzazione di mercato nel 2022 e ora vale 172 miliardi di dollari, con un aumento di circa 85 volte durante il mandato di Su. Milioni di giocatori si affidano ogni giorno ai processori AMD per le console Microsoft Xbox e Sony PlayStation. I chip AMD sono così importanti che il governo degli Stati Uniti li considera critici per la sicurezza nazionale.
Tuttavia, AMD si considera ancora un underdog. Questo perché è un lontano secondo nel campo dell’intelligenza artificiale, dietro a Nvidia, il colosso da quasi 3 trilioni di dollari che domina il mercato delle unità di elaborazione grafica (GPU). Per avere un ruolo serio nel futuro della tecnologia, AMD sa di dover conquistare una fetta più grande del mercato delle GPU per l’AI, dove le più grandi aziende tecnologiche del mondo spendono miliardi di dollari all’anno per infrastrutture avanzate.
Alla base della strategia di AMD c’è la convinzione di Su, radicata nel suo background ingegneristico, che il successo in questo settore sia guidato da decisioni tecniche corrette che portano ai chip dalle prestazioni più elevate. Possono volerci anni prima di vedere i risultati nei prodotti.
“Una delle cose che mi piace dire sull’industria dei semiconduttori, o sulla tecnologia in generale, è che le decisioni che prendiamo oggi avranno un impatto reale tra tre o cinque anni”, ha detto Su a Stanford. “Si tratta di fare le scommesse giuste.”
Su si distingue nella Silicon Valley, soprattutto durante il Mese della Storia delle Donne, perché è l’unica CEO donna tra le prime 10 aziende di semiconduttori per capitalizzazione di mercato. I chip rimangono un campo dominato dagli uomini, con le donne che rappresentano solo il 30% della forza lavoro del settore, secondo Accenture.
È stata anche la CEO donna più pagata per cinque anni consecutivi, secondo un sondaggio dell’Associated Press.
Le statistiche non sono favorevoli in tutto il mondo aziendale. Circa il 10% dei CEO delle Fortune 500 sono donne, con 52 nel gruppo nel 2024, rispetto alle 41 del 2021, secondo il Women Business Collaborative.
“Sa cosa fanno”
Su, nota per fare scommesse nella sua vita personale (è una fan del Texas Hold’em ed è stata vista giocare a poker con il suo staff di vendita), sta facendo una scommessa professionale a lungo termine sull’AI.
AMD si è impegnata a presentare nuovi chip per l’AI su base annuale e a costruire una divisione software con migliaia di dipendenti per creare strumenti open-source per i suoi chip che possano competere con il linguaggio CUDA dominante di Nvidia.
Su è profondamente coinvolta nella roadmap tecnologica dell’azienda, visitando frequentemente i laboratori di chip, ha detto Mark Papermaster, chief technology officer di AMD.
“Lisa è molto ammirata dal team di ingegneria perché sa cosa fanno, e loro sanno che lei lo sa”, ha detto Papermaster.
AMD ha declinato di rendere Su disponibile per un’intervista.
Su è nata a Taiwan nel 1969 ed è arrivata negli Stati Uniti da bambina perché suo padre era venuto per studiare. Ha descritto la sua infanzia come una “tipica educazione asiatica” incentrata sulla scuola. Ha frequentato la Bronx High School of Science di New York.
Ha incontrato l’industria dei semiconduttori da matricola al Massachusetts Institute of Technology (MIT), dove ha completato gli studi universitari prima di conseguire un dottorato in ingegneria elettrica. La sua ricerca si è concentrata sulla produzione di chip.
Come studentessa laureata nel 1992, ha scritto un articolo premiato sul testing della tecnologia silicon-on-insulator, che è diventato uno dei metodi di produzione principali per migliorare i chip negli anni ’90 e 2000.
Su ha lavorato in Texas Instruments dopo la laurea e poi in IBM, supervisionando team di ricerca e sviluppo focalizzati sulla produzione di chip. Lì, è stata scelta come assistente tecnica di Lou Gerstner, allora presidente e CEO di IBM.
Dopo IBM, Su è entrata in Freescale Semiconductor come CTO, un traguardo particolarmente raro, dato che ancora oggi solo l’8% delle aziende tecnologiche ha donne in quel ruolo.
Nel 2012, è stata assunta da Rory Read, allora CEO di AMD, per gestire le unità aziendali.
L’ascesa di Su al vertice nel 2014 ha segnato uno dei più grandi riscatti nella storia dell’industria tecnologica. Quando è entrata in AMD, l’azienda era in un momento di crisi e molti credevano che non sarebbe sopravvissuta a lungo.
“AMD aveva seri problemi di liquidità”, ha detto Patrick Moorhead, fondatore di Moor Insights e ex dirigente AMD che ha lasciato l’azienda un anno prima dell’arrivo di Su. “AMD ha dovuto premere completamente il pulsante di reset.”
Il primo giorno di Su come CEO, le azioni AMD erano scambiate a poco più di 3 dollari per azione. Ora sono a oltre 106 dollari per azione. AMD è la quarta azienda di chip più preziosa negli Stati Uniti, davanti a Intel e dietro a Nvidia, Broadcom e Qualcomm.
La ripresa è iniziata con decisioni difficili quasi subito dopo l’arrivo di Su. Ciò ha incluso il taglio del 7% del personale di AMD.
Si è anche rivolta a Sony e Microsoft per costruire i chip per le console di gioco, una mossa progettata per aiutare il flusso di cassa dell’azienda e riempire le fabbriche di chip che aveva già impegnato.
Ma Su ha detto durante il suo discorso a Stanford che non sono stati i tagli a salvare AMD. Piuttosto, è stata la scommessa sullo sviluppo di nuove tecnologie.
“È abbastanza chiaro nella tecnologia: non puoi tagliare i costi per diventare un vincitore”, ha detto.
Su ha rivolto l’attenzione di AMD ai prodotti e ha incoraggiato il personale a dare priorità alla costruzione di chip dalle prestazioni più elevate. Ha anche deciso di smettere di vendere chip per server redditizi fino a quando AMD non avesse prodotti in grado di competere con Intel in termini di prestazioni, ha detto Papermaster.
Riprogettare da zero
Uno dei grandi problemi di AMD era che il design dei suoi processori stava invecchiando rapidamente.
Su ha approcciato un approccio “a foglio bianco” che enfatizzava una riprogettazione del core di calcolo, la proprietà intellettuale più preziosa di AMD, da zero. Ci sono voluti anni, e AMD ha iniziato a vendere prodotti basati sul core “Zen” solo nel 2017. La tecnologia è ora alla sua quinta generazione di miglioramenti.
Sotto la guida di Su, AMD è stata la prima grande azienda ad abbracciare una tecnologia chiamata “chiplets”. Invece di produrre un unico grande chip con tutti gli elementi necessari, AMD poteva produrre chip più piccoli e assemblarli insieme.
I chiplets hanno permesso ad AMD di essere più flessibile ed efficiente nella produzione. Il cambiamento ha anche permesso ad AMD di utilizzare diverse fonderie per diverse parti del chip e ridurre il rischio associato alla produzione, una considerazione critica data la situazione finanziaria dell’azienda. È stata una scelta vincente per AMD, specialmente quando è passata nel 2019 a utilizzare Taiwan Semiconductor Manufacturing per costruire i suoi chip.
Il focus sui chiplets ha permesso ad AMD di crescere mentre Intel soffriva per investimenti sbagliati nelle tecnologie di produzione, ha detto Scott Thompson, professore di ingegneria elettrica all’Università della Florida, che ha seguito la carriera di Su dal suo dottorato.
“Lisa Sa capisce fondamentalmente come sono fatti i chip”, ha detto Thompson. “Comprende i rischi delle diverse opzioni tecnologiche e può valutare quei rischi per fare la scelta giusta.”
Intel ha declinato di commentare.
I chiplets sono ora utilizzati da quasi tutte le principali aziende di processori, e la tecnologia è stata una parte centrale della prima “grande GPU” di AMD.
L’esperienza di AMD nei chiplets le ha permesso di prendere una GPU annunciata per i data center, originariamente progettata per il supercalcolo, e semplicemente sostituire i chiplets della CPU per renderla una GPU più grande adatta all’AI. La prima grande GPU di AMD, l’Instinct MI300X, è stata lanciata nel 2023, poco più di un anno dopo il lancio di ChatGPT da parte di OpenAI, che ha dato il via al boom dell’AI generativa.
Il prossimo passo
Le entrate di AMD nel 2024 sono aumentate del 14%, raggiungendo circa 26 miliardi di dollari, quasi cinque volte di più rispetto a quando Su è diventata CEO. L’azienda ha speso 6,5 miliardi di dollari in ricerca l’anno scorso, oltre sei volte rispetto al 2014.
Ma il suo attuale rapporto con il leader del mercato delle GPU, Nvidia, ricorda la sua posizione rispetto a Intel nei CPU un decennio fa.
AMD ha acceleratori AI sul mercato, ha comunicato a clienti e investitori quando aspettarsi i prossimi chip e ha registrato 5 miliardi di dollari di vendite di chip AI nel 2024, rispetto ai 100 milioni del 2023, secondo Papermaster.
Tuttavia, è ancora molto indietro rispetto a Nvidia, che ha riportato 115 miliardi di dollari di vendite di chip per data center e networking nel suo ultimo anno fiscale.
Le azioni AMD sono scese di oltre il 10% quest’anno dopo un calo del 18% nel 2024. Questo seguito a un aumento del 128% l’anno precedente.
La sfida più grande per Su potrebbe risiedere nel software.
L’hardware di AMD è comparabile ai chip di Nvidia e può persino vincere in alcuni benchmark. I chip AI di AMD sono validi, e Su sta costruendo la loro credibilità.
Tuttavia, mentre AMD è l’unica vera alternativa a Nvidia, la maggior parte degli sviluppatori AI sa già come utilizzare il software proprietario CUDA di Nvidia, che consente ai programmatori di accedere alle parti hardware di una GPU per lo sviluppo di AI.
Per Su, la risposta è ROCm.
Questa è la versione di AMD di CUDA, ed è gratuita. Su conta su ROCm per aiutare AMD a conquistare sviluppatori che vogliono più di quanto offre Nvidia.
Nvidia non ha risposto a una richiesta di commento.
L’anno scorso, AMD ha riorganizzato alcuni dei suoi gruppi software, inclusi i team che lavorano su ROCm, in una nuova divisione software per l’AI. AMD ha anche iniziato a rendere open-source molti dei suoi componenti importanti e dettagli hardware, consentendo ai programmatori di accedere più facilmente alla potenza grezza dei chip AI dell’azienda.
Per ottenere un’adozione diffusa di ROCm, Su dovrà far sì che il suo team contatti gli sviluppatori AI e si impegni a liberarsi della reputazione di AMD come azienda solo hardware.
A dicembre, Su ha personalmente contattato un critico pubblico del software di AMD, scrivendo sui social media dopo l’incontro: “Abbiamo lavorato molto sull’ottimizzazione per i clienti e i carichi di lavoro, ma c’è ancora molto da fare.”
Su tende a minimizzare la rivalità con Nvidia in termini di quota di mercato. Vede il mercato dei chip AI crescere fino a 500 miliardi di dollari all’anno entro il 2028, le stesse dimensioni dell’intero mercato dei semiconduttori prima del boom dell’AI.
E conta su AMD per conquistarne una grande fetta.
21/03/25 Barron’s: Il Disallineamento di Nvidia: Un Business in Miglioramento con un Titolo Più Economico
Di Tae Kim
Aziende menzionate nell’articolo:
NVDA (Nvidia) AVGO (Broadcom)

Il CEO di Nvidia (NVDA, -0,70%), Jensen Huang, è stato risoluto. Durante la conferenza annuale per gli sviluppatori GTC della scorsa settimana a San Jose, California, ha delineato una visione convincente per il settore dell’intelligenza artificiale (AI), presentando una roadmap aggressiva per i futuri prodotti della sua azienda. Questi annunci potrebbero lasciare i rivali nel settore dei chip in difficoltà per anni a venire.
Mentre camminavo per l’area espositiva del GTC, c’era un palpabile senso di eccitazione, con centinaia di persone in fila per partecipare a sessioni e panel per scoprire gli ultimi progressi dell’AI in tutto, dalla robotica alla sanità, fino ai design avanzati di server raffreddati ad acqua.
Eppure, c’è un disallineamento. Nonostante l’entusiasmo per il futuro dell’AI e il ruolo centrale dei semiconduttori di Nvidia, le azioni di Nvidia sono rimaste stabili, scambiandosi a soli 26 volte il rapporto prezzo/utili forward. Una valutazione modesta per un’azienda che dovrebbe aumentare i ricavi del 57% quest’anno.
Questo disallineamento è guidato da tre preoccupazioni:
- La domanda di chip per AI potrebbe ridursi dopo il rilascio dei modelli efficienti della startup cinese DeepSeek;
- La crescente concorrenza nel settore dei chip da parte di Broadcom (AVGO, +0,59%);
- L’incertezza sulle minacce del presidente Donald Trump di imporre dazi sulle importazioni di chip.
Al GTC, Huang ha affrontato con sicurezza tutti e tre i problemi, sostenendo che nessuno di essi ostacolerà le brillanti prospettive di Nvidia.
Riguardo a DeepSeek, Huang è stato particolarmente combattivo, respingendo l’idea che DeepSeek possa ridurre la domanda di unità di elaborazione grafica (GPU). Durante il suo discorso al GTC di martedì, ha affermato che la capacità di ragionamento del modello AI di DeepSeek, che richiede più tempo per riflettere prima di fornire una risposta di alta qualità, sta guidando un aumento significativo della domanda di risorse di calcolo. Questo tipo di ragionamento è sempre più utilizzato nella maggior parte dei migliori modelli AI.
“Quasi tutto il mondo si sbagliava”, ha detto Huang. “La quantità di calcolo di cui abbiamo bisogno a questo punto, a causa dell’AI agentica e del ragionamento, è facilmente 100 volte superiore a quanto pensavamo necessario un anno fa.”
Un punto sorprendente: 100 volte più potenza di calcolo rispetto a quanto Nvidia si aspettava solo 12 mesi fa dovrebbe mettere a tacere le domande sulla domanda a breve termine.
Il rumore è aumentato anche riguardo alla concorrenza nel settore dei chip per AI, poiché il CEO di Broadcom, Hock Tan, ha spesso dichiarato a Wall Street che la sua azienda otterrà una “quota equa” del mercato dei chip per AI entro il 2027, aiutando le grandi aziende tecnologiche a progettare i propri semiconduttori AI, chiamati circuiti integrati specifici per applicazione (ASIC).
Al GTC, Huang ha respinto queste affermazioni. “Molti ASIC vengono cancellati”, ha risposto quando gli ho chiesto di Broadcom dopo il suo discorso al GTC di martedì. “L’ASIC deve comunque essere migliore del migliore. Come fanno a sapere che sarà il migliore, in modo da essere distribuito in grandi volumi?”
Il sottotesto è chiaro: le offerte di Broadcom non saranno competitive rispetto a Nvidia.
Broadcom non ha risposto a una richiesta di commento sulle dichiarazioni di Huang.
Sulla questione dei dazi, Huang ha dichiarato durante un evento stampa di mercoledì che non si aspetta un impatto significativo sulle finanze o sulle prospettive dell’azienda. Ha affermato che Nvidia ha una rete agile di fornitori e può spostare gli ordini verso paesi con dazi più bassi se necessario, aggiungendo che Nvidia prevede di portare più produzione negli Stati Uniti nel tempo.
In generale, Nvidia ha sostenuto che le opportunità di mercato complessive per l’AI e l’infrastruttura dei data center AI si stanno espandendo rapidamente. Huang si aspetta che il settore spenderà circa 500 miliardi di dollari in spese in conto capitale per i data center quest’anno, salendo a oltre 1 trilione di dollari entro il 2028, con il business dei chip GPU di Nvidia che guadagnerà una quota maggiore di questa spesa nei prossimi anni.
Parte di questo aumento deriverà dal crescente numero di GPU Nvidia all’interno dei data center. Questi cosiddetti supercluster sono passati da 16.000 GPU a oltre 100.000 GPU nell’ultimo anno. Huang mi ha detto che è fiducioso che entro il 2027 saranno costruiti diversi cluster da un milione di GPU.
Poi c’è la robotica. Rev Lebaredian, dirigente di Nvidia, mi ha detto che siamo solo all’inizio di una crescita esponenziale nello sviluppo della robotica AI. La combinazione di una maggiore potenza di calcolo e modelli AI più intelligenti sta rendendo possibili grandi progressi nella robotica. Crede che ci saranno milioni di robot umanoidi in uso, specialmente nelle aziende industriali, entro cinque anni. Non ho particolari informazioni sul fatto che i robot siano davvero imminenti, ma se ciò accadesse, rappresenterebbe un ulteriore vantaggio per Nvidia, che produce l’hardware “cervello” per i robot.
Alla fine, il più grande sviluppo del GTC è stata la roadmap aggressiva dei prodotti di Nvidia. Durante il suo discorso, Huang ha annunciato che il server AI Blackwell Ultra, disponibile entro la fine dell’anno, supererà del 50% il modello attuale. Poi ha detto che il server AI Vera Rubin, previsto per la seconda metà del 2026, sarà 3,3 volte più veloce del Blackwell Ultra. Il colpo di scena è stato il lancio del server AI Rubin Ultra, previsto per la fine del 2027, con una performance 14 volte superiore al Blackwell Ultra. Questa cifra ha lasciato il pubblico a bocca aperta.
Eppure, le azioni di Nvidia sono rimaste praticamente immobili alla notizia e hanno chiuso in ribasso martedì, in un contesto di calo generale del mercato. Come osservatore di lunga data di Nvidia, sono perplesso per la mancanza di entusiasmo da parte di Wall Street. La folla tech ha capito l’importanza; alla fine, lo capiranno anche gli investitori.
21/03/25 Briefing.com: Micron venduta dopo che la guidance del Q3 non è riuscita a segnalare una significativa ripresa a breve termine (MU)
Dopo essere inizialmente balzate al rialzo grazie a utili decenti e rialzo dei ricavi nel Q2 (febbraio), le azioni di Micron (MU -7%) hanno rapidamente invertito la rotta e sono state vendute. La guida del produttore di chip di memoria sta guidando la reazione negativa di oggi. MU ha guidato l’EPS rettificato del Q3 (maggio) di 1,47-1,67 dollari, in linea con il consenso, e un rev di 8,6-9,0 miliardi di dollari, superiore al consenso. Sebbene la guidance fosse decente, di gran lunga migliore rispetto alle prospettive deboli fornite da MU a dicembre, alla fine non ha significato un cambiamento significativo di tendenza.
Ricordiamo che lo scorso trimestre, MU ha commentato che i mercati orientati ai consumi erano deboli, probabilmente rimanendo così fino al secondo trimestre. Tuttavia, il management ha previsto un ritorno alla crescita durante la seconda metà del FY25 (agosto). Pertanto, il mercato era alla ricerca di segnali di questa tendenza. A metà della sua guidance sui ricavi del Q3, MU punta a un aumento del 29% su base annua, un’ulteriore decelerazione rispetto al balzo del 38% registrato nel Q2, non un rimbalzo significativo. Data la crescente incertezza macroeconomica, che può offuscare i tempi di una ripresa in tutto il mercato dell’elettronica di consumo, questa guidance non fornisce alcun sollievo oggi.
- Ci sono stati diversi lati positivi del Q2 che vale la pena menzionare. I giri DRAM dei data center hanno raggiunto un nuovo record. La memoria ad alta larghezza di banda, o HBM (vitale nei carichi di lavoro AI), è aumentata di oltre il 50% sequenzialmente fino a raggiungere un nuovo traguardo di oltre 1,0 miliardi di dollari di giri. MU ha commentato che le sue spedizioni HBM erano in anticipo rispetto al programma. Di conseguenza, i rev di 8,05 miliardi di dollari sono atterrati vicino alla fascia alta della guidance di 7,7-8,1 miliardi di dollari di MU nel secondo trimestre.
- L’intelligenza artificiale rimane un potente motore della domanda complessiva di MU. I principali hyperscaler (Amazon, Microsoft, Google, ecc.) hanno ribadito una sostanziale crescita degli investimenti di capitale anno su anno all’inizio di quest’anno per il 2025, creando una solida base per MU. L’azienda prevede una crescita delle unità server a una cifra media nel 2025, supportata da server tradizionali e AI. A questo proposito, MU ha aumentato la sua stima di TAM HBM di 5 miliardi di dollari rispetto allo scorso trimestre, superando ora i 35 miliardi di dollari.
- Tuttavia, parlando di HBM, una possibile minaccia si profila in lontananza. MU compete con due principali fornitori di DRAM, uno dei quali è Samsung (SSNLF). Attualmente, MU è qualificata come fornitore di HBM, insieme all’altro suo concorrente SK Hynix, per il GB300 di NVIDIA (NVDA), il suo sistema di intelligenza artificiale più performante per le imprese. Se Samsung è qualificata, potrebbe sconvolgere in modo significativo la posizione di MU in questo mercato.
- Nel frattempo, gli altri segmenti di MU stanno affrontando un’economia debole. Nel PC, MU è ancora fiduciosa che il mercato crescerà a una cifra media nel 2025, con una crescita ponderata per la seconda metà del CY25 a causa della fine del ciclo di vita di Windows 10 a ottobre. Nel settore mobile, le proiezioni di MU per la crescita dei volumi nel 2025 sono rimaste a una percentuale bassa a una cifra, ma si è detta ottimista sul fatto che l’adozione dell’intelligenza artificiale in corso alimenterà l’aumento della domanda di DRAM. Infine, nell’industria e nell’automotive, i clienti si trovano nelle fasi successive degli adeguamenti delle scorte.
Gli operatori di mercato non approvano la ripresa più debole del previsto di MU. Anche se la domanda di intelligenza artificiale rimane robusta, i segmenti orientati al consumatore sono in difficoltà. Ci sono ancora possibili venti favorevoli all’orizzonte, come la fine di Windows 10. Tuttavia, gli investitori stanno cercando la conferma di un’inversione di tendenza prima di aiutare MU a superare la forte resistenza intorno alla soglia dei 110$.
13/03/25 Briefing.com La nomina del CEO di Intel rinnova le speranze di inversione di tendenza, scatenando un enorme rally per le azioni (INTC)
Per l’assediato produttore di chip Intel (INTC), la speranza e l’ottimismo sono stati difficili da trovare poiché NVIDIA (NVDA) e Advanced Micro Devices (AMD) lo hanno lasciato nella polvere nella corsa all’IA, ma c’è finalmente una buona ragione per gli azionisti di INTC di sentirsi più ottimisti sul futuro dell’azienda. Dopo la chiusura di ieri, INTC ha annunciato che Lip-Bu Tan, l’ex CEO di Cadence Design Systems (CDNS), è stato nominato nuovo CEO, a partire dal 18 marzo. Il signor Tan succede a David Zinsner e Michelle Johnston Holthhaus, entrambi i quali sono entrati nei ruoli di co-CEO dopo che la società ha spodestato l’ex CEO Pat Gelsinger lo scorso dicembre.
Il signor Tan ha certamente il suo lavoro tagliato per lui. In cima alla lista ci sarà un nuovo percorso per il business di Foundry che genera perdite che era al centro della strategia IDM 2.0 di Gelsinger. Lo scorso settembre, INTC ha annunciato piani per scorporare il segmento Foundry in una filiale indipendente. Tuttavia, il signor Tan, che ha fatto parte del consiglio di amministrazione di INTC nel 2022-2024, ha precedentemente discusso l’importanza di rafforzare le capacità produttive dell’azienda, suggerendo che potrebbe impegnarsi a costruire Foundry proprio come lo era Gelsinger.
- La buona notizia è che Tan ha una solida esperienza nell’utilizzo dell’innovazione e delle nuove tecnologie per creare vantaggi competitivi e guidare una forte crescita, costruendo un sostanziale valore per gli azionisti nel processo. Alla CDNS, ha spinto per l’integrazione delle tecnologie AI/ML in tutta la linea di prodotti, posizionando l’azienda come leader nell’applicazione delle tecnologie di nuova generazione per la progettazione di chip. Sotto la guida di Tan, CDNS è anche passata a un portafoglio di prodotti ad alte prestazioni, si rivolgendosi a progetti avanzati di semiconduttori a nodo.
- Queste strategie hanno portato a una crescita robusta e a un miglioramento dei margini per CDNS. Durante il mandato di Tan di 12 anni come CEO lì, le entrate sono quasi raddoppiate a 2,8 miliardi di dollari e il margine operativo di CDNS è migliorato da approssimativamente piatto a costantemente al di sopra del 20%.
- Tan ha anche esperienza nell’implementazione e nell’esecuzione di iniziative di semplificazione, che continueranno a svolgere un ruolo importante nell’inversione di tendenza di INTC. Nel 2012, ha implementato un’importante ristrutturazione organizzativa presso CDNS, portando a un migliore allineamento delle risorse e a una maggiore efficienza operativa.
- Forse il successo di Tan al CDNS è meglio illustrato dalle prestazioni del titolo. Quando ha preso il timone di CDNS nel 2009, il titolo era scambiato a circa $10-$12. Quando si è dimesso nel 2021, le azioni di CDNS erano scambiate a circa 150-170 dollari, riflettendo un aumento di circa 15 volte.
Non c’è alcuna garanzia che Tan godrà dello stesso livello di successo come CEO di INTC come CEO di CDNS. Tuttavia, date le sue impressionanti prestazioni al CDNS, è facile capire perché il mercato stia guardando la sua nomina in modo così rialzista.
13/03/25 Barron’s: Le azioni di Nvidia potrebbero essere un affare. Sono più economiche di quelle di Starbucks.

Nvidia, il favorito del mercato azionario nel campo dell’IA, non solo è economica in termini storici, ma è anche notevolmente meno costosa rispetto ad altre azioni che potrebbero sorprendere.
Le azioni di Nvidia sono tra le più discusse, se non la più discussa, operazione legata all’intelligenza artificiale a Wall Street. I suoi chip per l’IA sono i più popolari, il che ha portato a un aumento delle vendite del 114%, raggiungendo 130,5 miliardi di dollari nel 2025 rispetto all’anno precedente. La speranza in una crescita così rapida ha spinto il prezzo a 62,65 volte gli utili futuri il 18 maggio 2023, anche se questo era comunque lontano dal record di 125,91 raggiunto nel maggio 2009.
Ora, le opinioni sembrano essere cambiate. Le azioni sono scese del 14% quest’anno, in parte a causa delle politiche commerciali del presidente Donald Trump e dei tagli all’occupazione pubblica, che hanno alimentato il timore di una recessione. Ciò ha allontanato gli investitori da investimenti più rischiosi, comprese le azioni tecnologiche che in precedenza avevano performato bene.
Il Nasdaq Composite è sceso dell’8,7% nel 2025. Gli investitori di Nvidia sono anche nervosi per i potenziali controlli più severi sulle esportazioni di chip.
Con il calo del prezzo delle azioni, la valutazione di Nvidia si è ridotta. Le azioni sono attualmente scambiate a 23,3 volte gli utili per azione attesi nei prossimi 12 mesi, al di sotto della media storica quinquennale di 40 volte e in calo rispetto ai 31,2 volte di inizio anno, secondo i dati di Dow Jones Market Data.
Ora, le azioni del produttore di chip sono più economiche rispetto a quelle di una sorprendente varietà di altre aziende. Per cominciare, Nvidia è il secondo membro meno costoso delle “Magnificent Seven”, le azioni tecnologiche che hanno trainato il rally dell’IA alla fine del 2022, nel 2023 e nel 2024. Solo Alphabet è più economica, scambiata a 17,9 volte gli utili futuri.
Molte altre azioni tecnologiche sono più costose. Tra queste figurano Accenture, scambiata a 24,5 volte; Broadcom, a 27 volte; Intel, a 31 volte; Texas Instruments, a 31,2 volte; Netflix a 34,6 volte; Palo Alto Networks a 51,2 volte; e CrowdStrike Holdings, a 90,7 volte.
Nvidia è anche più economica rispetto a diverse aziende di beni di consumo, tra cui Estée Lauder a 33,5 volte; Walmart, a 32,8 volte; Monster Beverage, a 29,6 volte; Airbnb a 27,9 volte; McCormick, a 26,5 volte; e Procter & Gamble, a 23,9 volte.
Nel settore dei beni voluttuari, Nvidia è meno costosa di Chipotle Mexican Grill, a 37,2 volte; Starbucks, a 30,5 volte; Yum! Brands, a 25,4 volte; e Tractor Supply, a 24,4 volte.
La valutazione più bassa di Nvidia significa che alcuni a Wall Street sono preoccupati per la crescita futura degli utili dell’azienda. Il produttore di chip ha riportato utili rettificati di 2,99 dollari per azione per il 2025 il 26 febbraio.
Si tratta di un aumento del 130% rispetto all’anno precedente. Questa crescita spettacolare degli utili potrebbe essere a rischio se aziende come Advanced Micro Devices conquistano una quota maggiore del mercato, o se la crescita della spesa per i data center che rendono possibile l’IA rallenta.
Ma nulla è scritto nella pietra. Alcuni esperti ritengono che ora sia il momento di acquistare un’azione che potrebbe continuare a beneficiare degli ingenti investimenti delle aziende nell’IA.
“L’operazione sull’IA non è finita, e Nvidia continua a essere il leader”, ha scritto mercoledì Nancy Tengler, CIO e CEO di Laffer Tengler Investments. “NVDA sembra economica rispetto alla sua storia. Questo è storicamente un buon punto di ingresso.”
Scrivere a Angela Palumbo all’indirizzo angela.palumbo@dowjones.com
03/03/25 Barron’s: Le azioni dei semiconduttori sono ancora sotto pressione. Ecco perché questo analista è ottimista.
Di Angela Palumbo
Le azioni del settore dei semiconduttori hanno subito un colpo quest’anno, ma un analista di BofA Securities rimane ottimista riguardo al futuro del settore.
I rischi, tra cui l’implementazione di dazi e restrizioni sulle esportazioni dei chip per l’intelligenza artificiale più avanzati, stanno mettendo sotto pressione il settore. L’indice PHLX Semiconductor (SOX) è sceso del 6% quest’anno.
Tuttavia, Vivek Arya, analista di BofA Securities, ha scritto in una nota lunedì che è comune per l’indice SOX essere volatile, e l’attuale calo non indica necessariamente una tendenza di lungo periodo.
La scorsa settimana, l’indice è sceso del 7,2%. Dall’inizio del 2021 alla fine della scorsa settimana, il SOX ha registrato 21 cali settimanali del 5% o più, secondo i dati di Dow Jones Market Data, mentre l’S&P 500 ha avuto solo tre casi di cali settimanali del 5% o più nello stesso periodo. Tuttavia, dal 31 dicembre 2020 al 28 febbraio 2025, il SOX è cresciuto del 71%, mentre l’S&P 500 è salito del 59%.
Anche Nvidia, il favorito nel campo dei chip per l’IA e membro del SOX, è scesa nonostante i risultati trimestrali migliori delle attese. Nonostante questo e il più ampio sell-off, Arya è convinto che i prossimi risultati di Marvell Technology e Broadcom possano invertire la tendenza per il settore.
“Aspettiamo risultati migliori del previsto da AVGO e MRVL… per ravvivare l’interesse nei semiconduttori per l’IA, poiché le spese in conto capitale dei clienti cloud statunitensi e gli investimenti sovrani nell’IA rimangono l’unico punto luminoso affidabile nell’economia globale”, ha scritto Arya in una nota lunedì.
Marvell pubblicherà i suoi risultati il 5 marzo, mentre Broadcom il 6 marzo.
Arya non è l’unico a essere ottimista. Harlan Sur di J.P. Morgan ha scritto domenica di credere che le fondamenta siano solide per Marvell e Broadcom, con entrambe le aziende che beneficiano di “forti spese in conto capitale da parte degli hyperscaler”.
Gli hyperscaler sono grandi fornitori di servizi cloud come Alphabet, Microsoft e Amazon.com. Tutte queste aziende hanno dichiarato di pianificare di spendere decine di miliardi di dollari in IA quest’anno, inclusi investimenti in data center e altre iniziative legate all’IA. Parte di queste spese andrà all’hardware, a vantaggio di aziende come Marvell e Broadcom.
Marvell vende una gamma di chip e prodotti hardware per data center e infrastrutture IA e aiuta le grandi aziende tecnologiche a progettare i propri semiconduttori per l’IA. Broadcom, invece, aiuta a progettare processori interni per le grandi aziende tech.
Arya è anche fiducioso nel potenziale impatto positivo a lungo termine che i chatbot IA potrebbero avere sui chip. Alcuni di questi chatbot includono ChatGPT di OpenAI, Gemini di Alphabet, DeepSeek e Meta AI.
“L’ascesa dei chatbot, a nostro avviso, è un importante fattore positivo per i semiconduttori IA, poiché può guidare una forte domanda continua di chip per il training e l’inferenza, favorire nuovi modelli di business e applicazioni e rassicurare gli investitori sul ritorno sull’investimento nell’IA”, ha scritto Arya.
Scrivete a Angela Palumbo all’indirizzo angela.palumbo@dowjones.com.
26/02/25 Barron’s: Gli utili di Nvidia: cosa abbiamo imparato
Nvidia ha riportato solidi guadagni del quarto trimestre fiscale alla fine di mercoledì e ha fornito una previsione delle entrate per il trimestre di aprile che era in anticipo sulle aspettative.
Ecco cosa abbiamo imparato dall’attesissimo rapporto:
Forti guadagni. Per il suo trimestre di gennaio, la società di semiconduttori ha riportato utili rettificati per azione di 89 centesimi, rispetto alla stima di consenso di Wall Street di 85 centesimi, secondo FactSet. Le entrate sono state di 39,3 miliardi di dollari, davanti alle aspettative degli analisti per 38,1 miliardi di dollari.
Guida solida. Le prospettive erano al di sopra delle stime. Per il trimestre in corso, Nvidia ha fornito un intervallo di previsioni di entrate con un punto medio di 43,0 miliardi di dollari. Questo è superiore al consenso di 42,1 miliardi di dollari.
Le entrate del data center sono quasi raddoppiate. Il produttore di chip ha riportato ricavi del data center di 35,6 miliardi di dollari per il trimestre di gennaio, con un aumento del 93% anno su anno. Nvidia ha detto che i grandi fornitori di cloud computing hanno rappresentato circa il 50% delle entrate del suo data center nel trimestre.
La domanda di Blackwell è robusta. Il CEO di Nvidia Jensen Huang sta diventando più ottimista sulle prospettive per il sistema server Blackwell AI di fascia alta dell’azienda, il GB200 NVL72. “Sono più entusiasta oggi di quanto non lo fossi al CES”, ha detto Huang quando un analista ha chiesto informazioni sull’NVL72 durante la teleconferenza sugli utili. “Niente è facile di quello che stiamo facendo, ma stiamo andando alla grande”.
Tariffe di Trump. La CFO di Nvidia Colette Kress ha detto che l’eventuale politica è ancora “un’incognita” in termini di tempistica o grandezza.
Le azioni Nvidia sono scese dello 0,4% nel trading after-hour alla fine della chiamata sugli utili della società.
19/02/25 Barron’s: Il Futuro di Intel è ancora oscuro. Non inseguire le azioni.
DiTae Kim
Visione in chiaroscuro. Ciao a tutti. Le azioni Intel sono aumentate nell’ultima settimana sulla promessa dell’amministrazione Trump di sostenere la produzione nazionale di chip e su voci che società di semiconduttori stanno valutando le opzioni per acquistare parti di Intel.
Dopo un esame più attento degli sviluppi, gli investitori dovrebbero essere cauti. La probabilità di eventuali accordi di trasformazione a breve termine è bassa e non è cambiato molto per quanto riguarda le sfide di Intel. Potrebbe essere saggio per gli investitori non inseguire il titolo.
Il rally è iniziato all’inizio della scorsa settimana dopo che il vicepresidente JD Vance ha promesso che sarebbero state fatti più chip negli Stati Uniti durante il suo discorso a una conferenza sull’IA in Francia.
Le azioni di Intel hanno guadagnato ulteriore slancio sui rapporti di Bloomberg e The Wall Street Journal che Taiwan Semiconductor Manufacturing stava considerando di prendere una partecipazione nelle fabbriche di chip di Intel, mentre Broadcom stava cercando di acquistare l’attività di prodotti di Intel. Tutto sommato, le azioni Intel sono aumentate di quasi il 40% in cinque sessioni di trading fino a martedì.
Ma la raffica di notizie a volte si contraddiceva a vicenda, con uno che diceva che l’amministrazione Trump ha sollevato l’idea che TSMC prendesse una partecipazione di controllo nelle fabbriche di chip di Intel, mentre un altro che citava un funzionario della Casa Bianca che diceva che Trump probabilmente non avrebbe sostenuto un tale accordo. La cosa più importante è che il filo conduttore di tutti i rapporti includeva frasi come “fasi molto iniziali”, “discusso informalmente” e nessuna struttura formalizzata. È chiaro che le discussioni non sono avanzate. Intel e TSMC hanno rifiutato di commentare i rapporti. La Casa Bianca e Broadcom non hanno risposto a una richiesta di commento.
La speculazione su un importante accordo Intel non è una novità. Lo scorso autunno, ci sono stati rapporti su un avvicinamento di Qualcomm a Intel su un’acquisizione. Da allora non è successo nulla.
Il fatto è che le prospettive di un accordo Intel trasformativo devono ancora affrontare due sfide primarie che saranno difficili da superare.
In primo luogo, qualsiasi transazione importante per l’acquisto del gruppo di prodotti Intel avrebbe bisogno dell’approvazione delle autorità di regolamentazione globali. La Cina ha bloccato un’acquisizione molto più piccola di 5 miliardi di dollari di Tower Semiconductor di Israele nel 2023, suggerendo che il paese asiatico non è entusiasta di alcuna acquisizione che aiuterebbe l’industria di chip degli Stati Uniti. Non è chiaro come la Cina sarebbe quindi in grado di acquistare Broadcom dal business dei prodotti Intel.
In secondo luogo, non c’è un modo semplice per separare le operazioni di produzione di chip di Intel. Nel 2024, Intel Foundry ha generato 17,5 miliardi di dollari di entrate, in calo del 7% rispetto all’anno precedente, mentre ha perso 13,4 miliardi di dollari. Finanziariamente, ha poco senso per un acquirente esterno acquistare un buco nero finanziario con enormi perdite che non è fattibile su base autonoma. Inoltre, non aiuta il sentimento sulla tabella di marcia della fonderia di Intel quando Michelle Johnston Holthaus, co-CEO ad interim di Intel e CEO di Intel Products, ribadisce ripetutamente che potenzialmente userebbe TSMC per le CPU dei data center in futuro se “avesse senso”.
Tutto questo arriva perché Intel non ha ancora un CEO permanente dopo che Pat Gelsinger si è ritirato lo scorso dicembre. Intel sarebbe meglio servita da un leader competente con competenze tecniche per capire una strategia di turnaround e stabilizzare l’attività. Il produttore di chip non dovrebbe discutere di vendere se stesso per parti mentre cerca di trovare un CEO di qualità, specialmente quando un accordo potrebbe anche non essere possibile.
Per gli investitori, potrebbe essere prudente prendere alcuni guadagni. Aspettare qualcosa che potrebbe non accadere potrebbe rivelarsi deludente.
19/02/25 I produttori di chip di fascia bassa stanno dando rendimenti elevati
Le azioni delle società che producono semiconduttori di qualità commodity sono in aumento dall’inizio della scorsa settimana mentre Wall Street inizia a chiedersi se una recessione prolungata per l’azienda stia finendo.
I guadagni favorevoli di Analog Devices mercoledì mattina e un aggiornamento degli analisti per STMicroelectronics martedì sono solo gli ultimi punti dati positivi.
I produttori di chip fanno parte di un gruppo che produce chip meno avanzati che si innotano in quasi tutta l’elettronica, dagli smartphone ai veicoli, dalle attrezzature industriali ai missili da crociera. Sono in contrasto con i progettisti di chip come Nvidia e Apple, che utilizzano i processi di produzione di chip tecnologicamente più avanzati.
Entrate per le aziende del gruppo: includono anche Texas Instruments, Microchip Technologies , ON Semiconductor, Semiconduttori NXP,Aptiv e InfineonI —è caduto anno su anno per una media di cinque trimestri consecutivi. Il gruppo ha sottoperformato l’indice dei semiconduttori PHLXSOX di una media di 122 punti percentuali negli ultimi due anni.
La recessione, che ha seguito un’ondata di domanda legata alla pandemia, è stata uno dei cicli più lunghi e profondi che queste aziende abbiano sperimentato. Ma potrebbe esserci un’inversione di tendenza.
Le azioni erano aumentate in media di circa l’11% dalla chiusura del 10 febbraio fino a mercoledì pomeriggio.
“Molti di questi nomi sono stati eccessivamente puniti per la grave recessione ciclica che hanno incontrato all’interno dei loro mercati finali industriali e automobilistici”, ha detto l’analista di Morningstar Brian Colello a Barron. “Stiamo iniziando a vedere l’ottimismo sul fatto che il peggio della recessione sia finito. Anche se non siamo completamente in fondo, penso che siamo abbastanza vicini al fondo che gli investitori possano vedere la ripresa all’orizzonte.”
L’analista Mark Lipacis di Evercore ISI ha detto di vedere segni che una sovrabbondanza di chip potrebbe trasformarsi in carenze nel 2025. “Penso che gli investitori abbiano iniziato a decifrare che siamo in fondo alla correzione dell’inventario”, ha detto a Barron. “Queste aziende hanno abbassato le aspettative per sei trimestri e, secondo la nostra analisi, sono in realtà in una parte di correzione eccessiva del ciclo”.
Secondo l’analista di Jefferies Janardan Menon, gli investitori potrebbero aver aspettato di acquistare fino a quando le società non avessero rilasciato quelle che avrebbero dovuto essere previsioni finanziarie downbeat per il trimestre in corso.
“Ora che la debole guida di tutti loro è finita, il mercato sta ritenendo che le prospettive del gruppo siano ora a rischio”, ha detto a Barron. “In una situazione del genere, i prezzi delle azioni in genere non aspettano segni di una ripresa della domanda finale e degli aggiornamenti. Vanno in rally preventivamente.”
Lipacis ha aggiunto: “Sai, guadagni la maggior parte dei tuoi soldi in semifinale quando le cose vanno da davvero brutte a solo brutte”.
Scrivi ad Adam Levine all’indirizzo adam.levine@barrons.com
17/02/25 Barron’s: Broadcom e Marvell potrebbero essere i grandi perdenti se Arm si muove nella produzione di chip. Ecco perché.
Le azioni di Arm sono aumentate sulla mossa riportata della società di progettazione di chip nella produzione di semiconduttori propri. I perdenti del turno potrebbero essere Broadcom e Marvell.
Un passaggio alla produzione di chip segnerebbe un enorme cambiamento per Arm, che ha costruito la sua attività sulla concessione di licenze per progetti di chip. Il rischio è che Arm possa essere vista come un concorrente per alcuni dei suoi maggiori clienti come Qualcomm e Nvidia.
Tuttavia, i chip prodotti da Arm potrebbero invece finire per togliere un po’ di valore a Broadcom e Marvell che aiutano a progettare processori interni per le principali aziende tecnologiche.
Arm fa la maggior parte della sua attività di licenza i suoi progetti per telefoni, ma ha anche una posizione crescente nei processori per server cloud di fascia alta. Il suo primo chip è impostato per essere un’unità di elaborazione centrale per grandi data center, per eseguire applicazioni di intelligenza artificiale con Meta Platforms come cliente iniziale, secondo un rapporto del Financial Times.
Piuttosto che fornire un intero chip a Meta, madre di Facebook, è più probabile che Arm fornisca solo un “chiplet” modulare, che Meta o qualsiasi altro cliente potrebbe integrare nel proprio design complessivo del chip, secondo lo specialista delle vendite azionarie di Jefferies William Beavington, che scrive in una nota di ricerca lunedì.
“Non cambia in modo significativo il modello di business e non rende Arm un concorrente nel mercato dei chip”, ha scritto Beavington.
Arm ha rifiutato di commentare, mentre Meta non ha risposto a una richiesta di commento. La quota di Arm è aumentata di circa il 6% immediatamente dopo il rapporto FT.
“Consideriamo la mossa significativamente positiva per le prospettive di entrate e guadagni di Arm, anche se potrebbe avere un impatto negativo sui suoi multipli di valutazione, poiché i margini lordi scenderebbero”, ha scritto Beavington in una nota di ricerca lunedì.
Tuttavia, una questione aperta sono le ambizioni del proprietario di maggioranza di Arm, il gruppo giapponese SoftBank, che ha Ambizioni di chipmakingdi produzione di chip proprie. SoftBank ha recentemente acquistato la società britannica di chip AI Graphcore ed era stata precedentemente segnalata come interessata a unirsi a Intel in un accordo per produrre chip per rivaleggiare con Nvidia, in una partnership che successivamente è fallita.
È stato riferito da Bloomberg che SoftBank si sta avvicinando a un accordo per acquisire Ampere Computing in un accordo che potrebbe valutare il produttore di chip per data center a circa 6,5 miliardi di dollari.
“La concorrenza con i clienti potrebbe intensificarsi ulteriormente se SoftBank acquisisce Ampere, il che potrebbe accelerare notevolmente la migrazione di Arm per diventare un produttore di chip”, ha scritto l’analista indipendente Richard Windsor, che ha pubblicato Radio Free Mobile.
Scrivi ad Adam Clark a adam.clark@barrons.com
13/02/25 Barron’s: L’analista di AMD è “nervoso” per il produttore di chip. Ecco perché.
DiTae Kim
Il produttore di chip Advanced Micro Device AMD potrebbe presto soffrire di livelli di inventario di chip gonfiati presso rivenditori e distributori, avverte Bernstein.
Le spedizioni industriali di unità di elaborazione centrale, o CPU, sono state del 13% superiori alle spedizioni di PC durante il trimestre di dicembre, ha scritto l’analista Stacy Ragson, citando l’analisi della sua azienda di varie fonti di dati del settore, tra cui IDC e Mercury Research. Storicamente, questo è stato un segno di troppo inventario.
Rasgon ha riaffermato il suo rating delle prestazioni di mercato per le azioni AMD giovedì e il suo obiettivo di prezzo di 125 dollari. All’inizio del giovedì, il titolo è aumentato dell’1,2% a 113,09 dollari.
In passato, l’industria ha inviato troppo inventario nei negozi e nei distributori durante il boom delle vendite di computer guidato dal Covid, che ha portato a un grande calo delle vendite in seguito.
“Ancora una volta, stiamo iniziando a vedere un sovraspedizione materiale nel canale CPU”, ha scritto. “Il fatto che sembri che ci stiamo dirigendo verso un altro ciclo [di spedizione in eccesso] (dopo tutto quello che è successo) ci rende nervosi, soprattutto per AMD”.
Mentre è possibile che AMD stia guadagnando molta quota di mercato dal suo principale concorrente, Intel, per spiegare alcune delle tendenze generali dei dati del settore, probabilmente non è sufficiente, secondo l’analista.
“Anche con la storia di guadagno di azioni AMD, sembra aggressivo presumere che la recente disparità sia tutta dovuta alla leadership del prodotto”, ha scritto.
Un portavoce di AMD ha indicato le recenti osservazioni della chiamata sugli utili del CEO Lisa Su, dicendo che AMD si concentra sulle entrate totali e non sul numero di spedizioni di unità CPU. Ha anche detto durante la chiamata del quarto trimestre che AMD aveva vendite record di CPU e le CPU dell’azienda dominavano le classifiche più vendute presso molti rivenditori globali.
Le azioni AMD sono diminuite di circa il 34% negli ultimi 12 mesi, rispetto all’aumento dell’8% del fondo scambiato in borsa iShares Semiconductor
Scrivi a Tae Kim a tae.kim@barrons.com
05/02/25 Barron’s: ARM batte gli utili ma le azioni sono comunque in calo
Le azioni di Arm Holdings sono scese dopo che il progettista di chip ha riportato risultati degli utili del trimestre di dicembre migliori del previsto mercoledì pomeriggio. Gli investitori potrebbero prendere alcuni profitti dopo il grande rally delle azioni nell’ultimo anno.
La società ha riportato utili rettificati per azione del terzo trimestre fiscale di 39 centesimi, rispetto alla stima di consenso di Wall Street di 34 centesimi, secondo FactSet. Le entrate sono arrivate a 983 milioni di dollari, che era al di sopra delle aspettative degli analisti di 949 milioni di dollari.
Arm ha anche guidato le vendite del trimestre in corso a un intervallo da 1,175 miliardi di dollari a 1,275 miliardi di dollari rispetto alla stima degli analisti da 1,22 miliardi di dollari.
“Con la nostra tecnologia ad alte prestazioni, efficiente dal punto di vista energetico e flessibile, Arm è un fattore chiave per promuovere l’innovazione dell’IA e trasformare l’esperienza dell’utente, dall’edge al cloud”, ha scritto il CEO Rene Haas in una lettera agli investitori.
Le azioni di Arm sono inizialmente diminuite fino al 5% nel tardo trading dopo il rilascio. Il titolo è aumentato del 6,8% nella sessione di negoziazione regolare di mercoledì.
Arm guadagna concedendo in licenza i suoi progetti di chip alle aziende di semiconduttori e ai produttori di smartphone. L’ultima tecnologia di chip avanzata di Arm, chiamata Armv9, genera tassi di royalty significativamente più elevati rispetto al suo precedente Armv8. Sta anche facendo progressi nei processori di server cloud di fascia alta. Clienti come Microsoft e Nvidia stanno facendo chip con più di 100 “core” usando i disegni di Arm.
Le azioni Arm sono aumentate del 137% negli ultimi 12 mesi, rispetto al guadagno del 10% per l’ETF iShares Semiconductor
05/02/25 Barron’s: Le azioni AMD precipitano sull’IA, per la mancanza di entrate del data center
AMD ha riportato risultati di guadagno migliori del previsto, ma le entrate soft nei data center hanno scatenato una svendita del titolo.
La società di semiconduttori ha riportato guadagni rettificati per azione del quarto trimestre di 1,09 dollari martedì, rispetto alla stima di consenso di Wall Street di 1,08 dollari, secondo FactSet. Le entrate sono arrivate a 7,7 miliardi di dollari, che era al di sopra delle aspettative degli analisti di 7,5 miliardi di dollari. Nel trimestre di dicembre, l’unità data center del produttore di chip ha generato 3,86 miliardi di dollari di entrate, che era inferiore alla stima di 4,14 miliardi di dollari.
Le azioni AMD sono crollate del 9,8% a 107,81 dollari all’inizio delle negoziazioni di mercoledì.
La decelerazione nel business dell’intelligenza artificiale di AMD ha tolto la lucentezza dei guadagni azionari nel mercato del personal computing, hanno detto gli analisti di Jefferies guidati da Blayne Curtis. Anche se le entrate dell’IA sono mancate nel quarto trimestre, Curtis prevede una rampa nella seconda metà del 2025 guidata dal lancio del suo acceleratore MI350x.
Tuttavia, i guadagni di quota di mercato nel core business non sono sufficienti per compensare la mancanza di IA, ha scritto Curtis mentre abbassava il suo obiettivo di prezzo a 135 dollari da 190 dollari, mantenendo un rating di acquisto sul titolo.
AMD prevede le vendite nel trimestre in corso a un intervallo di 7,1 miliardi di dollari a metà rispetto alla stima di 7 miliardi di dollari degli analisti.
“Il 2024 è stato un anno trasformativo per AMD in quanto abbiamo consegnato entrate annuali record e una forte crescita degli utili”, ha detto il CEO di AMD Lisa Su nel comunicato stampa. “Guardando al 2025, vediamo chiare opportunità per una crescita continua basata sulla forza del nostro portafoglio di prodotti e sulla crescente domanda di calcolo ad alte prestazioni e adattivo”.
In una teleconferenza con analisti e investitori, Su ha detto che i modelli di intelligenza artificiale come gli annunci di costruzione dell’infrastruttura DeepSeek e AI come Stargate sono punti salienti che mostrano il “rapido ritmo dell’innovazione dell’IA su ogni livello dello stack, dal silicio agli algoritmi”. Tutti questi sviluppi guideranno una maggiore domanda di calcolo dell’IA, fornendo ad AMD opportunità di crescita, ha detto.
Non tutti sembravano convinti. L’analista di Citi Christopher Danely ha declassato il titolo a Neutral da Buy a seguito del rapporto. Ha abbassato il suo obiettivo di prezzo sulle azioni a 110 dollari da 175 dollari, citando il rallentamento della crescita dell’IA, la scarsa leva finanziaria e il rischio di una correzione dell’inventario.
A partire dalla chiusura di martedì, le azioni AMD sono diminuite del 33% negli ultimi 12 mesi, rispetto al guadagno del 9% per l’ETF iShares Semiconductor
Scrivi a Tae Kim a tae.kim@barrons.com e Elsa Ohlen atelsa.ohlen@barrons.com
01/02/25 Cerebras l’ammazza Nvidia

Se Buffy ammazzava i vampiri mi sa che Cerebras potrebbe diventare l’ammazza Nvidia…
Avevo già pubblicato qualcosa su Cerebras nella pagina delle prossime IPO dicendo che per me era da comperare e questo mi rafforza nelle mie convinzioni. Appena la collocano io la prendo a qualsiasi prezzo. Vedere anche l’articolo sotto.

01/02/25 Forbes: Perché queste startup di chip di intelligenza artificiale si stanno rallegrando per il DeepSeek Freakout
Il giorno dopo che l’upstartart cinese DeepSeek ha spazzato via più di 800 miliardi di dollari dalle capitalizzazioni di mercato dei colossi americani dei chip AI, penseresti che Andrew Feldman, CEO della società di chip di nuova generazione Cerebras, sarebbe rinchiuso in una stanza di guerra umida a tramare come salvare la sua azienda. Invece, sta festeggiando.
“Siamo un po’ euforici”, ha detto a Forbes. “Questi sono giorni grandi. Non possiamo rispondere ai telefoni abbastanza velocemente in questo momento.”
Sembra controintuitivo per una startup di chip di intelligenza artificiale, ma Feldman dice che la sua azienda, che dovrebbe diventare pubblica entro la fine dell’anno, ha sperimentato una scossa di interesse da quando DeepSeek ha capovolto la convenzione generale nella Silicon Valley secondo cui più chip e budget più grandi equivalgono a una migliore intelligenza artificiale. Dopo che DeepSeek ha rilasciato due modelli open source nelle ultime settimane che erano quasi buoni quanto la migliore tecnologia americana – ma erano molto meno costosi da addestrare ed eseguire, causando un panico diffuso per la supremazia dell’IA americana – sta scommettendo che l’uso dell’IA esploderà.
“Ogni volta che abbiamo reso il calcolo più performante e lo abbiamo reso più economico, il mercato è diventato più grande, non più piccolo”, ha detto Feldman. “Ogni singola volta.”
È così ottimista perché Cerebras, attualmente valutata 4 miliardi di dollari, costruisce chip progettati specificamente per rendere più efficiente l’uso dell’IA. Questo processo è chiamato “inferenza” – fondamentalmente, l’atto di eseguire un modello di intelligenza artificiale e permettergli di “pensare” e ragionare come un essere umano, al contrario del lavoro di alimentare i dati nel modello per insegnargli come fare quel pensiero per cominciare. L’inferenza è ciò che accade ogni volta che chiedi a ChatGPT di scrivere un’e-mail o di lavorare su un problema di codifica.
E quando si tratta di inferenza, la strangolamento di Nvidia è meno grave, il che ha permesso a un certo numero di startup più piccole di germogliare. I colleghi di Cerebras in tutta l’industria dei chip di avvio hanno detto a Forbes di essere ugualmente entusiasti per il cambiamento che DeepSeek ha scatenato. “DeepSeek ha capovolto lo script di intelligenza artificiale per l’open source e l’inferenza”, ha detto Rodrigo Liang, CEO di SambaNova da 5,1 miliardi di dollari. Sunny Madra, COO di Groq da 2,8 miliardi di dollari, ha detto a Forbes di aver visto un picco nelle iscrizioni e nell’utilizzo dei suoi chip dopo aver aggiunto il modello R1 di DeepSeek alla sua piattaforma GroqCloud, dove affitta l’accesso alla sua potenza di calcolo. “È davvero buono per le persone che si concentrano sull’inferenza”, ha detto. “È una reazione di lunga data all’inferenza che diventa molto più importante della formazione”, ha detto Robert Wachen, cofondatore di Etched, una società di fase precedente che ha raccolto una Serie A di 120 milioni di dollari a giugno.
Le affermazioni di DeepSeek – che ha addestrato V3, un modello di linguaggio di parametri da 671 miliardi rilasciato alla fine di dicembre, in due mesi per soli 5,58 milioni di dollari, ordini di grandezza inferiori ai 100 milioni di dollari OpenAI spesi per il suo modello GPT-4 (anche se più grande) – sono state aspramente contestate. Molti nel settore ritengono che DeepSeek abbia utilizzato più denaro e potenza di calcolo di quanto l’azienda abbia lasciato intendere, con il CEO di Scale Alexandr Wang che afferma che l’azienda possedeva circa 50.000 H100, chip Nvidia all’avanguardia vietati in Cina. Ma lo shock dell’adesivo inverso ha impressionato i rivali americani a prescindere. “Non sappiamo se fossero 6 milioni di dollari o 60 milioni di dollari, ma non erano 600 milioni di dollari”, ha detto Liang di SambaNova.
DeepSeek ha dimostrato non solo che si poteva addestrare un modello più a buon mercato, ma che investire di più nell’inferenza produrrebbe risultati migliori. La scorsa settimana, DeepSeek ha open source R1, un modello di ragionamento simile al modello o1 di OpenAI ma che è gratuito (mentre OpenAI addebita 200 dollari al mese). E R1, come tutti i modelli di ragionamento, utilizza più potere di inferenza mentre “pensa” attraverso i molteplici passaggi delle query. Modelli più inferenziali, combinati con più persone che usano l’IA perché è più economica, è una buona notizia per Cerebras e i suoi simili.
La reazione è egoistica per questo gruppo di aziende in lizza per detronizzare Nvidia, che ora vale 2,93 trilioni di dollari anche dopo un calo del mercato del 17% lunedì che ha spazzato via quasi 600 miliardi di dollari di valore. L’immersione è stata “un giudizio sul fatto che la maggior parte dell’attività di Nvidia era legata a queste grandi aziende che acquistavano molti rack di GPU per la pre-formazione” – non per l’inferenza, ha detto Liang.
Ma il CEO Jensen Huang è un concorrente formidabile. Ha suronato l’abilità di inferenza dell’azienda per mesi e tutte le startup di chip hanno detto a Forbes che il crollo delle azioni di Nvidia è stata una reazione eccessiva. Dopo il calo delle azioni, la società ha risposto con una dichiarazione che pubblicizzava le proprie capacità di inferenza. “L’inferenza richiede un numero significativo di GPU Nvidia e reti ad alte prestazioni”, ha detto la società in una dichiarazione a Forbes.
Nel frattempo, i grandi laboratori di frontiera dell’IA, come OpenAI, Anthropic o Google DeepMind, che hanno speso miliardi sulle GPU di Nvidia, non hanno sprecato i loro soldi. DeepSeek ha mostrato all’industria come ottimizzare oltre ciò che era stato fatto prima, e questo significa solo un’intelligenza artificiale più grande e migliore per tutti. “Se hai un processo di formazione più efficiente, allora prendi lo stesso calcolo e addestri un modello più grande”, ha detto Evan Conrad, cofondatore del mercato GPU San Francisco Compute Company, a Forbes.
A parte le imprese tecniche che la Silicon Valley sicuramente emulerà, il successo di DeepSeek ha avuto un’altra risonanza per le aziende di chip più piccole all’ombra di Nvidia. “Per quelli di noi che sono perdenti, dovrebbero darsi una mossa”, ha detto Feldman.
29/01/25 Barron’s: Le azioni ASML cancellano il selloff di DeepSeek dopo la trimestrale. L’intelligenza artificiale guida ancora la crescita.
Le azioni di ASML salgono dopo la pubblicazione degli guadagni trimestrali che hanno superato le aspettative degli analisti all’inizio di mercoledì, cancellando le perdite dopo che il il mercato era andato in tilt sul modello di intelligenza artificiale a basso costo di DeepSeek all’inizio di questa settimana.
Le azioni quotate ad Amsterdam del produttore olandese di apparecchiature per semiconduttori sono aumentate del 9,5% a 708,00 euro (736,44 dollari).
ASML ha riportato guadagni nel quarto trimestre di 6,85 euro per azione su vendite di 9,3 miliardi di euro, superando le aspettative di di 6,72 euro su vendite di 9,1 miliardi di euro, secondo FactSet.
Le prenotazioni netta per il trimestre sono arrivate a 7,1 miliardi di euro, mentre gli analisti si aspettavano solo 5,7 miliardi di euro
“I risultati del quarto trimestre di ASML dovrebbero fornire un’isola di calma in mezzo a un mare di panico per gli investitori nel settore dei semiconduttori”, ha detto l’analista di Hargreaves Lansdown Derren Nathan.
All’inizio di questa settimana, gli investitori in titoli tecnologici statunitensi hanno ricevuto un campanello d’allarme mentre si diffondevano notizie sul modello di intelligenza artificiale e sul chatbot dell’azienda cinese DeepSeek che sembrava rivaleggiare con i modelli leader occidentali. DeepSeek ha detto che è stato addestrato per una frazione del prezzo e con chip inferiori. Gli esperti hanno messo in dubbio il costo totale effettivo del modello.
“La crescita dell’intelligenza artificiale è il fattore chiave per la crescita del nostro settore”, ha affermato il CEO Christophe Fouquet. “Ha creato un cambiamento nelle dinamiche di mercato che non sta beneficiando tutti i nostri clienti allo stesso modo, il che crea sia opportunità che rischi come si riflettono nella nostra gamma di entrate del 2025”, ha aggiunto.
Il produttore di apparecchiature per chip ha ribadito le sue prospettive per il 2025 e vede vendite comprese tra 30 e 35 miliardi di euro.
Questa è la notizia dell’ultima ora. Torna presto per ulteriori analisi.
Scrivi a Elsa Ohlen a elsa.ohlen@barrons.com
28/01/25 Barron’s: Le azioni Nvidia aumentano. Perché le preoccupazioni per l’AI di DeepSeek sono esagerate.
Le azioni di Nvidia sembravano impostate per parare alcune delle sue perdite all’inizio di martedì.
Il produttore di chip si sta parzialmente riprendendo dalla sua storica caduta del giorno precedente mentre il mercato digerisce le affermazioni di una startup cinese di sviluppare un modello leader di intelligenza artificiale a un costo senza precedenti.
Le azioni sono in salita salita del 4,5% a 123,96 dollari nel trading pre-mercato martedì, mentre i futures che tracciano il Nasdaq sono in rialzo dello 0,4%.
Lunedì, le azioni hanno chiuso in calo del 17% nel loro più grande calo percentuale giornaliero da marzo 2020. Il catalizzatore sono stati i modelli di intelligenza artificiale della startup cinese DeepSeek che sembrano rivaleggiare con le loro principali controparti occidentali a una frazione del costo di formazione.
Nvidia ha visto il suo valore di mercato diminuire di 593 miliardi di dollari, il più grande calo di un giorno per qualsiasi società quotata registrata.
“DeepSeek è un eccellente progresso dell’IA e un perfetto esempio di Test Time Scaling”, ha detto un portavoce di Nvidia in una dichiarazione inviata via e-mail. “Il lavoro di DeepSeek illustra come nuovi modelli possono essere creati utilizzando quella tecnica, sfruttando modelli ampiamente disponibili e calcoli che sono pienamente conformi al controllo delle esportazioni”.
Il ridimensionamento in fase di test si riferisce alla capacità dei nuovi modelli di intelligenza artificiale di pensare a query per periodi di tempo più lunghi per trovare risposte migliori.
I progressi di DeepSeek hanno portato molti investitori a chiedersi se questo sia l’inizio di una fine del rapido aumento della spesa per intelligenza artificiale, ma alcuni analisti dicono che questa preoccupazione è esagerata.
“Dato che DeepSeek si basa sulla tecnica di distillazione che sfrutta altri modelli di intelligenza artificiale, noteremmo che i fornitori di servizi cloud sono ancora necessari, il che è la prova di una continua forte crescita della spesa per l’IA”, hanno detto gli analisti di Citi guidati da Christopher Danely in una nota di martedì.
Mentre Nvidia ha avuto una corsa incredibile negli ultimi anni, più che raddoppiando di valore sia nel 2023 che nel 2024, ha anche subito alcuni massicci cali. Dei 10 più grandi cali di un giorno di capitalizzazione di mercato nella storia, Nvidia ne ha rappresentati otto. Meta e Amazon hanno anche visto il loro valore di mercato scendere di oltre 200 miliardi di dollari in un giorno, entrambi nel 2022.
“Crediamo che la domanda di unità di elaborazione grafica AI superi ancora l’offerta, quindi mentre i modelli più sottili possono consentire un maggiore sviluppo per lo stesso numero di chip, pensiamo ancora che le aziende tecnologiche continueranno ad acquistare tutte le GPU che possono come parte di questa “corsa all’oro” dell’IA, ha scritto lo stratega di Morningstar Brian Colello.
Colello ha mantenuto una stima del valore equo di 130 dollari per le azioni Nvidia.
Scrivi a Elsa Ohlen a elsa.ohlen@barrons.com e Adam Clark all’indirizzo adam.clark@barrons.com
17/01/24 Barron’s: Le azioni Advance Micro Devices ottengono un declassamento. Perché questo analista è preoccupato.
AMD potrebbe perdere il suo vantaggio competitivo, ha sostenuto l’analista di Wolfe Research Chris Caso mentre declassava le azioni del produttore di chip da Buy to Peer Perform.
Le azioni di Lam Research, KLA Corporation e Applied Materials – tutte le società di apparecchiature per la fabbricazione di wafer che producono i macchinari utilizzati nella produzione di semiconduttori – hanno ottenuto un aumento quando Taiwan Semiconductor Manufacturing ha riportato i guadagni giovedì. AMD, che utilizza TSMC per produrre i suoi chip, non ha visto la stessa spinta. Il titolo è sceso dell’1,3% a 118,44 dollari giovedì.
Sempre giovedì, Caso ha tagliato il suo rating sulle azioni AMD e ha rimosso il suo obiettivo di prezzo di 210 dollari. L’analista ha detto che la decisione derivava da aspettative inferiori per le entrate della GPU del data center rispetto a quanto precedentemente anticipato.
Le unità di elaborazione grafica, o GPU, sono i chip che alimentano l’intelligenza artificiale. Questi circuiti elettronici accelerano i calcoli necessari per addestrare i modelli di apprendimento automatico.
Gli acceleratori di intelligenza artificiale sono un punto fermo della linea di prodotti AMD, ma Caso sostiene che il business GPU del data center dell’azienda sta “eseguendo al di sotto delle aspettative”.
Wolfe Research ha tagliato le sue stime di entrate e guadagni del primo trimestre rispettivamente a 6,6 miliardi di dollari e 80 centesimi per azione, in calo rispetto alle precedenti proiezioni di 7,04 miliardi di dollari di entrate e 93 centesimi per azione di utili. Le cifre rettificate sono inferiori alle aspettative di Wall Street per 7,04 miliardi di dollari e 95 centesimi per azione.
L’azienda ha anche abbassato le sue stime per l’intero anno a 29,9 miliardi di dollari e 4,19 dollari per azione rispetto ai precedenti 33,6 miliardi di dollari e 5,33 dollari per azione e stime di consenso di 32,3 miliardi di dollari e 5,02 dollari per azione.
Altre sfide includono la lenta stagionalità del personal computer proveniente da un forte quarto trimestre e la continua debolezza delle entrate di gioco, ha detto Caso.
C’è un lato positivo, tuttavia. Caso ha notato che la prossima serie di chip MI350 di AMD dovrebbe fungere da “catalizzatore” quando verrà lanciata nella seconda metà dell’anno.
L’MI350 dovrebbe essere una riprogettazione e un aggiornamento “più significativi” rispetto all’ultimo MI325, che per lo più ha aumentato il caricamento della memoria, ha detto Caso.
+0,81%ha recentemente annunciato che avrebbe utilizzato processori AMD nei computer rivolti ai clienti aziendali per la prima volta, “che potrebbero rappresentare futuri guadagni di azioni nel mercato dei clienti”, ha aggiunto Caso. Dell in precedenza ha limitato l’uso dei chip AMD ai PC consumer.
AMD ha rilevato i declassamenti da Goldman Sachs e HSBC all’inizio di questo mese. Gli analisti di Goldman hanno ridotto il loro rating a Neutral from Buy, citando una modesta crescita per le GPU del data center in mezzo a una forte concorrenza, mentre il team di HSBC ha declassato AMD to Reduce from Buy per i timori che il titolo potesse scendere ulteriormente dopo un calo di tre mesi.
Scrivi a Mackenzie Tatananni all’indirizzomackenzie.tatananni@barrons.com
08/01/25 Barron’s: 8 titoli tecnologici per un altro anno guidato dall’intelligenza artificiale
Presso Teresa Rivas
Dopo pochi giorni di negoziazione, sembra già un altro anno guidato dalla tecnologia, con l’intelligenza artificiale ancora una volta in prima linea. New Street Research ha otto scelte tecnologiche per iniziare il 2025.
Alla chiusura di martedì, l’S&P 500 era in rialzo dello 0,5% dall’inizio dell’anno, mentre il Nasdaq Composite è salito dello 0,9%. Ciò riecheggia anche lo schema del 2024 e del 2023, quando la tecnologia e i Magnifici Sette – Alphabet, Amazon.com, Apple, Meta, Facebook, Microsoft Nvidia e Tesla, hanno sovrapperformato facilmente.
Tuttavia, solo uno dei titoli Mag 7 entra nella lista di Pierre Ferragu di New Street: Nvidia. Le sue prime quattro scelte per il 2025 sono Micron, Infineon, Nvidia e Taiwan Semi con i suoi attuali obiettivi di prezzo che implicano un rialzo rispettivamente del 42%, 47%, 43% e 31%.
Micron si aggiudica il primo posto in quanto la memoria ad alta larghezza di banda (HMB) è il componente dell’intelligenza artificiale in più rapida crescita, con una velocità di crescita più che doppia rispetto alle unità di elaborazione dell’acceleratore (XPU). Come scrive Ferragu, i fornitori stanno più che raddoppiando la capacità e sono già esauriti per il 2025. Allo stesso modo, la memoria dinamica ad accesso casuale (DRAM) è un componente sempre più chiave, che si aspetta sorprenderà al rialzo quest’anno.
Con l’esposizione a entrambe le tendenze, pensa che Micron sarà una delle aziende che potrà facilmente superare le aspettative quest’anno, poiché una capacità più stretta porta a margini più elevati.
Infineon è il prossimo della lista perché Ferragu ritiene che le correzioni delle scorte nei suoi mercati finali automobilistici e industriali dovrebbero raggiungere il picco nel primo trimestre, portando a un forte slancio sequenziale per il resto dell’anno. “Le azioni in genere si comportano bene quando è chiaro che le stime hanno un minimo e rendimenti di crescita sequenziali”, scrive. “Infineon si presenta come il modo più interessante per investire nella ripresa nel 2025”.
Nvidia, di gran lunga il miglior performer del Mag 7 nel 2024, sembra pronta a continuare a beneficiare della sua posizione di fornitore di “picconi e pale” per l’IA. Stima che entro la fine del 2027 saranno implementati fino a otto cluster di intelligenza artificiale iperscalati con un milione di XPU e la metà di essi sarà basata sulle unità di elaborazione grafica (GPU) di Nvidia. Con gli enormi investimenti che continuano ad arrivare, ciò lascia molto spazio a Nvidia per continuare a battere le aspettative e le stime di consenso per salire al rialzo.
Taiwan Semi completa le prime quattro posizioni di Ferragu, in quanto l’azienda guadagna quote di mercato nelle aziende chiave e dovrebbe essere in grado di ottenere margini lordi e utili per azione più forti del previsto quest’anno, con spazio per una crescita più impressionante nel 2026.
Ha anche altre quattro idee contrarian e più rischiose per il 2025: Advanced Micro Devices, Mobileye , Soitec e Uber Technologies, che potrebbero generare un rialzo rispettivamente del 65%, 33%, 43% e 51%, in base ai suoi obiettivi.
Ammette che il 2025 potrebbe essere un anno “bitorzoluto” per AMD, ma sostiene che gli investitori non dovrebbero perdere di vista il fatto che si tratta di una GPU sostenibile che sta sfidando Nvidia, con una valutazione ragionevole. Allo stesso modo, Mobileye fornisce l’alternativa più tangibile al software di guida autonoma di Tesla, rendendolo il secondo migliore posizionato in termini di sistemi avanzati di assistenza alla guida (ADAS).
Il produttore francese di chip Soitec è stato frenato dalle correzioni delle scorte e dalla domanda lenta e, sebbene Ferragu ammetta che le deboli vendite di iPhone potrebbero ritardare la sua ripresa, sostiene che a lungo termine offre prospettive di crescita diversificate e valutazioni interessanti. Uber è altrettanto economico, sostiene, nonostante la crescente crescita degli utenti. Mentre gli investitori sono preoccupati per l’implementazione dei robotaxi, quel giorno è ancora lontano, osserva, e sembra più un’opportunità che una minaccia.
New Street non è l’unica azienda rialzista sulla tecnologia per il 2025, anche con due anni di grandi guadagni nel settore.
La scorsa settimana Citigroup ha sostenuto Azioni Internet , in particolare Wix.com, GoDaddy e VeriSign, dovrebbero ancora una volta sovraperformare quest’anno. Dan Ives di Wedbush, un toro tecnologico di lunga data, prevede i titoli tecnologici salirà di un altro 25% nel 2025. Allo stesso modo, anche se l’IA rimane agli inizi, Informatica quantistica è anche generare entusiasmo tra gli investitori.
08/01/25 Barron’s: Le azioni AMD crollano dopo il downgrade. Perché è in svantaggio nella gara delle chip AI.
le azioni di AMD sono scese mercoledì dopo aver preso un downgrade.
Il produttore di semiconduttori che compete con Nvidia e Intel , non sta tenendo il passo nella corsa per produrre chip per l’intelligenza artificiale.
Gli strateghi di HSBC guidati da Frank Lee hanno abbassato il loro obiettivo di prezzo sulle azioni a 110 dollari da 200 dollari e hanno ridotto il rating a Reduce from Buy. Dopo aver notato il declino del titolo negli ultimi tre mesi, Lee ha detto che potrebbe scendere ulteriormente.
La tabella di marcia dell’azienda per la produzione di processori grafici AI “è meno competitiva di quanto pensassimo in precedenza”, hanno detto gli analisti in una nota mercoledì.
Mentre Nvidia è ancora chiaramente il leader tra i produttori di chip AI, AMD, Broadcom, e Marvell Technology stanno anche competendo per la quota di mercato poiché le aziende Big Tech come Alphabet, società madre di Google, e Meta Platforms, proprietaria di Facebook, aumentano gli investimenti.
Le azioni AMD sono scivolate del 4,3% a 121,76 dollari quando il mercato si è aperto. Le azioni sono scese del 29% negli ultimi tre mesi.
Separatamente, AMD ha investito in una società che lavora alla scoperta di farmaci sostenuti dall’intelligenza artificiale. Le azioni Absci sono aumentate del 22% dopo che la società ha detto di aver ottenuto un investimento di 20 milioni di dollari dal produttore di chip.
30/12/24 Briefing.com: NVIDIA avanza più in alto oggi; la robotica potrebbe potenzialmente fungere da prossima leva di crescita (NVDA)
NVIDIA (NVDA +1%) è una scheggia di luce su una sessione di trading relativamente devastata oggi, aumentando mentre la maggior parte dei suoi colleghi incontra una significativa pressione di vendita. Due titoli incrociati questa mattina che probabilmente stanno contribuendo alla forza relativa di oggi. FT ha riferito che il progettista di GPU vuole entrare nel settore della robotica, appoggiandosi al suo dominio consolidato nell’IA. Nel frattempo, The Information ha dichiarato che ByteDance, la società dietro la popolare piattaforma di social media TikTok, sta cercando di stanziare 7,0 miliardi di dollari per i chip di NVDA l’anno prossimo.
L’appetito di ByteDance per i chip AI più avanzati non è eccessivamente sorprendente. Come sito di social networking video, TikTok può beneficiare di funzionalità generate dall’intelligenza artificiale come filtri, editing e video puramente generati dall’intelligenza artificiale. In effetti, TikTok vanta già molti strumenti basati sull’intelligenza artificiale, dai suggerimenti musicali automatici agli effetti e alla sintesi vocale. Tuttavia, ByteDance spendendo 7,0 miliardi di dollari sui chip di NVDA mette in mostra la costante posizione di leadership del titano dell’IA nello spazio dell’IA, una caratteristica che non sembra destinata a cambiare nel 2025.
Anche il desiderio di NVDA di muoversi in modo più aggressivo nella robotica non è uno shock. Tuttavia, potrebbe essere la prossima grande leva di crescita dell’azienda.
- Un commento che si è distinto durante la chiamata sugli utili del terzo trimestre (ottobre) di NVDA il mese scorso è stato che le industrie industriali dell’intelligenza artificiale e della robotica stavano accelerando, supportate da scoperte nei modelli di intelligenza artificiale che comprendono il mondo fisico. Meta Platforms (META) ha dimostrato come l’IA abbia plasmato il suo “metaverso” con i suoi occhiali intelligenti Ray-Ban, che interagiscono con il mondo fisico, etichettando gli oggetti in tempo reale; questa tecnologia può essere applicata alla robotica.
- La direzione ha aggiunto che alcuni dei più importanti produttori industriali globali stanno adottando NVIDIA Omniverse – la sua piattaforma grafica 3D in tempo reale – per automatizzare i flussi di lavoro. Ad esempio, Foxconn, che produce elettronica, utilizza gemelli digitali (modelli virtuali di un oggetto fisico) costruiti su NVIDIA Omniverse per aumentare l’efficienza nelle sue fabbriche Blackwell. Nel frattempo, aziende con sede negli Stati Uniti come Amazon (AMZN) hanno già sfruttato la tecnologia di simulazione robotica di NVIDIA in alcuni dei suoi magazzini negli Stati Uniti.
- NVDA si riferiva all’aspetto robotico dell’IA come intelligenza artificiale fisica, dove la tecnologia comprende e interagisce con il mondo fisico. L’azienda ha aggiunto che l’IA fisica può prevedere il futuro immediato, anticipando il prossimo evento in una serie.
Mentre la sua concorrenza guadagna terreno nella corsa ai chip AI, come Advanced Micro (AMD), NVDA si sta potenzialmente rivolgendo alla robotica per alimentare la sua prossima ondata di crescita. Di conseguenza, se la crescita dei data center inizia a rallentare in modo significativo nel 2025, specialmente se le tariffe e le restrizioni all’esportazione occolano le entrate relative alla Cina, NVDA potrebbe essere in grado di compare al deficit attraverso l’IA industriale e la sua offerta Omniverse. Questa sarà un’area interessante da tenere d’occhio nei prossimi mesi.
26/12/24 Briefing.com: SkyWater Tech è una scommessa sulla tendenza a spostare la produzione di chip negli Stati Uniti (SKYT)
SkyWater Technology (SKYT) ha fatto scalpore nelle ultime settimane, incluso un grande salto la scorsa settimana. Dal momento che non è molto conosciuto ed è un giorno di notizie lente, volevamo immergerci un po’ con SkyWater oggi. È una fonderia tecnologica che offre sia lo sviluppo avanzato della tecnologia di processo dei semiconduttori che i servizi di produzione di wafer. SkyWater è un produttore a contratto di semiconduttori a puro gioco, altrimenti noto come fonderia.
- Ciò che è insolito è che SkyWater ha sede negli Stati Uniti, mentre la maggior parte delle fonderie opera in Asia. Dati tutti i problemi della catena di approvvigionamento durante la pandemia, c’è stata una grande spinta per aumentare la produzione di chip negli Stati Uniti. L’obiettivo è quello di essere meno dipendenti dalle fonderie asiatiche, non solo dalle preoccupazioni di un’altra pandemia, ma anche data la minaccia delle tariffe, ha senso riportare la produzione negli Stati Uniti.
- Un grande sviluppo in questo settore è stato il passaggio nel 2022 del CHIPS and Science Act, una legge federale che autorizza circa 280 miliardi di dollari per aumentare la produzione statunitense. Include anche crediti d’imposta per gli investimenti del 25% per le attrezzature di produzione. Ciò che rende SkyWater interessante è che è stato creato nel 2017 quando è stato creato da Cypress Semi. Questo era prima del CHIPS Act, e prima che fosse bello fare chip negli Stati Uniti.
- SKYT ha costruito un’attività di servizi tecnologici avanzati molto forte. Pensa a questo come a una capacità di ricerca e sviluppo monetizzata che consente a SKYT di lavorare con i clienti molto presto nella fase di sviluppo del prodotto con la certezza che una volta che i loro prodotti passano alla produzione, SKYT può anche realizzarli in volume. SKYT fa sia R&S integrata che produzione ad alto volume nello stesso impianto di produzione. SkyWater serve i mercati in crescita dell’aerospaziale e della difesa (A&D), automobilistico, biomedico, industriale e quantistico.
- Il titolo ha fatto una mossa forte da quando ha annunciato all’inizio di dicembre di aver firmato un memorandum preliminare dei termini (PMT) del valore fino a 16 milioni di dollari con il programma CHIPS for America. Questo finanziamento proposto fornirebbe incentivi federali per migliorare le capacità di produzione presso la struttura di SkyWater in Minnesota. Questi incentivi completeranno i piani esistenti di SkyWater per i co-investimenti CapEx finanziati dai clienti per un totale di 320 milioni di dollari fino al 2026.
Guardando al 2025, SKYT è incoraggiata da una solida pipeline di domanda di sicurezza aerospaziale e difesa (A&D), dal crescente slancio in più programmi commerciali e dalla rampa iniziale della sua attività di imballaggio avanzato. La crescita nel suo segmento ATS dovrebbe essere guidata da un forte slancio continuo in vari programmi A&D e da nuove iniziative commerciali ben finanziate. SKYT si aspetta che questi progressi siano rafforzati da sostanziali nuove capacità di utensili finanziate dai clienti. Inoltre, SKYT prevede di accelerare il suo sviluppo avanzato di imballaggi ATS mentre intensifica la sua nuova piattaforma fan-out.
23/12/24 Briefing.com: Qualcomm si assicura una sentenza favorevole nel caso contro la società Arm Holdings (ARM)
Qualcomm (QCOM) ha ottenuto una grande vittoria in aula venerdì scorso dopo che una giuria ha stabilito che la licenza della società per utilizzare l’architettura dei chip di Arm Holdings (ARM) per laptop e PC è valida, consentendole di continuare a vendere chip in quel mercato. Al centro della questione c’era se QCOM fosse coperto da un accordo di licenza meno costoso che ARM ha elaborato con Nuvia – una società di progettazione di CPU che QCOM ha acquisito nel 2021 – o se QCOM fosse obbligata a rielaborare quell’accordo, con conseguenti commissioni di royalty più elevate per ARM.
La giuria ha ritenuto che QCOM non abbia violato il suo contratto attenendo all’accordo che Nuvia ha forgiato con ARM, riducendo il rischio che i margini e i profitti della sua fiorente attività di PC subano un colpo sostanziale a causa di tassi di royalty più costosi. Tuttavia, quel rischio non è stato ancora completamente eliminato.
- Sulla questione se Nuvia abbia violato i termini del suo accordo di licenza con ARM all’acquisizione di QCOM, i giurati non sono riusciti a raggiungere un consenso, con il risultato di una giuria appesa. Pertanto, questa parte del contenzioso può essere ripresentata, il che sembra una quasi certezza. In effetti, gli avvocati di ARM hanno promesso di continuare a combattere, ponendo le basi per un altro processo nel 2025.
- Mentre il mercato dei PC/laptop è attualmente una parte relativamente piccola dell’attività di QCOM – i telefoni rappresentano ancora circa il 60% delle entrate totali – è una componente chiave della strategia di diversificazione delle entrate dell’azienda. Poiché le nuove tecnologie di intelligenza artificiale, come i chatbot GenAI, vengono sempre più infuse in nuovi modelli di laptop, QCOM si aspetta che la crescita del suo chipset Snapdragon X acceleri nei prossimi trimestri.
- Su questa nota, nel 4Q24, le entrate dell’IoT sono aumentate del 22% anno/anno a 1,68 miliardi di dollari, dopo che il mercato finale ha registrato cali in ciascuno dei tre trimestri precedenti mentre l’ostinato eccesso di inventario nella base di clienti OEM dell’azienda si è finalmente attenuato. PC e laptop, che fanno parte del business IoT, hanno svolto un ruolo nella svolta poiché il chip Snapdragon X si è fatto strada in 58 piattaforme.
- Inoltre, durante un evento di analisi a metà novembre, QCOM ha detto che le sue entrate PC proiettate di 4,0 miliardi di dollari entro l’anno fiscale 29. Questa stima potrebbe rivelarsi conservatrice se l’azienda raggiungesse il suo obiettivo di raggiungere 100 vittorie di design entro il 2026, fornendole l’accesso a circa il 70% del mercato dei PC.
Nel complesso, il verdetto è uno sviluppo positivo per QCOM, eliminando alcuni rischi per il suo business PC emergente. Tuttavia, l’azienda non è ancora fuori dal bosco poiché ARM cercherà di appellarsi alla decisione e mentre incombe la prospettiva di Apple (AAPL) di lanciare i propri chip modem nei prossimi due anni.
22/12/24 Sole 24 Ore: analisi di ASML

19/12/24 Barron’s: Cosa c’è dietro il tonfo di Micron e cosa viene dopo
le azioni di Micron Mu hanno chiuso in calo del 16,2% dopo aver registrato entrate e guadagni trimestrali in linea con le stime degli analisti, ma hanno spaventato gli investitori con la sua guida a lungo termine.
I guadagni di Micron ottengono sempre molta attenzione. Riferisce la cadenza ad altri produttori di chip, quindi ha il palcoscenico per sé. È uno dei tre grandi produttori di memoria non cinesi e l’unico domiciliato negli Stati Uniti. Le vendite di memoria possono anche rivelare indizi sull’ecosistema più ampio.
C’è un’attività di hardware in crescita nel 2024: le apparecchiature per data center per la costruzione dell’infrastruttura di intelligenza artificiale. Ciò ha guidato l’espansione delle entrate di Micron per il suo primo trimestre fiscale, in aumento dell’84% rispetto all’anno scorso e del 12% rispetto all’ultimo trimestre. Le entrate del data center sono aumenta del 400% rispetto all’anno e del 40% rispetto allo scorso trimestre, rappresentando ora oltre la metà delle entrate di Micron.
Gli investitori si sono concentrati sulla crescita a razzo del business dei data center di Micron, ma ora la morbidezza nei mercati di consumo sta creando preoccupazioni. I mercati finali del mobile e dell’internet delle cose sono diminuiti di un totale del 15% rispetto allo scorso trimestre, anche se sono ancora in aumento dell’11% rispetto all’anno. La crescita nella sua attività di stoccaggio si è appiattita.
Ma ciò che ha davvero scosso gli investitori sono state le previsioni di Micron per il secondo trimestre, con entrate che dovrebbero scendere del 9% in sequenza. In passato, questo ha spesso significato problemi per le azioni.
“Le ragioni che entusiasmano gli investitori nel possedere Micron, centri dati AI, sono più laiche che cicliche”, ha detto l’analista di Cantor Fitzgerald CJ Muse a Barron. “La delusione è stata molto peggiore delle prospettive del previsto per il lato più ciclico del business: smartphone, PC, auto, ecc.”
Il settore dei semiconduttori è un’attività ciclica, e da nessuna parte questo è più evidente che nella memoria. I produttori vedono cicli regolari di inventario su e giù, e questo porta a grandi tassi di crescita delle vendite e di contrazione man mano che i prezzi fluttuano.
Nel suo rapporto annuale, Micron avverte che “Abbiamo sperimentato una volatilità significativa nei nostri prezzi medi di vendita e potremmo continuare a sperimentare tale volatilità in futuro. Negli ultimi cinque anni, le variazioni percentuali annuali nei prezzi medi di vendita della DRAM sono variate da una gamma percentuale più bassa a un intervallo di meno 40%”
Nel terzo trimestre fiscale del 2024, le entrate di Micron sono state in aumento dell’82% rispetto all’anno precedente, mentre nello stesso trimestre del 2023 sono diminuite del 57%. Come gli investitori hanno appreso nel 2023, l’utile lordo di Micron può anche essere negativo in una recessione

Gli investitori guardano a queste oscillazioni di vendita e stanno sempre aspettando che inizi il prossimo ciclo. Durante un ciclo verso l’alto come ora, l’attesa è che finirà ad un certo punto, e forse bruscamente. Molti investitori sono stati spazzati via da un improvviso cambiamento nel vento e non vogliono essere spazzati via di nuovo.
Così tanti investitori hanno visto la deludente guida del secondo trimestre di Micron e hanno cercato l’uscita. Potrebbe essere questa la fine del grande upcycle di Micron? In questo momento ci sono impulsi di duello.
La spesa per il data center è ai massimi storici, e gli iperscaler come Amazon, Microsoft e Google stanno dicendo agli investitori che non ridurranno presto gli investimenti, ma che i tassi di crescita delle loro spese in conto capitale si modereranno. Allo stesso tempo, i mercati dei consumatori sono stati deboli dal 2022 e non sembrano prendere piede verso il 2025. Anche l’attività di stoccaggio di Micron sta mostrando segni di potenziale debolezza futura.
Gli investitori si stanno chiedendo: la guida del secondo trimestre è un blip o un segnale di allarme?
Penso che sia un blip”, ha detto John Vinh di KeyBanc Capital Markets a Barron’s. “Penso che abbiamo un paio di quarti di attrito qui, e una volta superato, le cose dovrebbero ricominciare a riprendersi nella seconda metà del 2025”.
Scrivi ad Adam Levine all’indirizzo adam.levine@barrons.com
16/12/24 The Verge: Il CEO di Arm Rene Haas sulla corsa ai chip AI, Intel e cosa significa Trump per la tecnologia
Il capo dell’onnipresente aziend
Di Alex Heath, vicedirettore e autore della newsletter Command Line. Ha oltre un decennio di esperienza nel settore tecnologico
:format(webp)/cdn.vox-cdn.com/uploads/chorus_asset/file/25788989/DCD_1215.jpg)
All’inizio di questo mese, ho anticipato una prossima intervista con Rene Haas, CEO della società di progettazione di chip Arm. Mi sono seduto dal vivo nella Silicon Valley con Rene a un evento ospitato da AlixPartners, la cui versione completa è ora disponibile.
Rene è un personaggio affascinante nel settore tecnologico. Ha lavorato in due delle più importanti aziende di chip al mondo: prima Nvidia e ora Arm. Ciò significa che ha avuto un posto in prima fila su come l’industria è cambiata nel passaggio dal desktop al mobile e su come l’IA sta ora cambiando tutto da capo.
Arm è stata centrale per questi cambiamenti, come l’azienda che progetta, anche se non costruisce, alcuni dei chip per computer più importanti al mondo. Le architetture di Arm sono dietro i chip personalizzati per iPhone e Mac di Apple, sono in auto elettriche e stanno alimentando i server AWS che ospitano enormi pezzi di Internet.
Quando è stato l’ultima volta su Decodera un paio di anni fa, Rene ha definito Arm la “Svizzera dell’industria elettronica”, grazie a quanto siano prevalenti i suoi progetti. Ma la sua attività sta diventando più complessa nell’era dell’IA, come ci sentirai discutere. Ci sono state voci secondo cui Arm sta progettando non solo di progettare, ma anche di costruire i propri chip AI, il che lo metterebbe in competizione con alcuni dei suoi clienti chiave. Ho insistito un po’ su Rene su quelle voci, e penso che sia sicuro dire che sta pianificando qualcosa.
Rene aveva circa sei mesi nel ruolo di CEO quando è stato l’ultima volta su Decoder, dopo l’offerta fallita di Nvidia di acquistare Arm per 40 miliardi di dollari. Dopo che la pressione normativa ha ucciso quell’accordo, Rene ha guidato Arm attraverso un’IPO, che ha avuto un enorme successo per Arm e il suo investitore di maggioranza, il gigante tecnologico giapponese SoftBank.
Ho chiesto a Rene di quella relazione con SoftBank e com’è lavorare con il suo eccentrico CEO, Masayoshi Son. Mi sono anche assicurato di chiedere a Rene dei problemi di Intel. Ci sono state segnalazioni che Rene ha cercato di acquistare parte di Intel di recente, e volevo sapere cosa pensa che dovrebbe accadere all’azienda in difficoltà.
Naturalmente, ho anche chiesto informazioni sull’amministrazione Trump in arrivo, sul dibattito tra Stati Uniti e Cina, sulla minaccia delle tariffe e tutto il resto. Rene è ora amministratore delegato di una società pubblica, quindi deve stare più attento quando risponde a domande come queste. Ma penso che troverai ancora molte delle sue risposte abbastanza illuminanti. So di averlo fatto.
Ok, il CEO di Arm Rene Haas. Ci siamo.
Rene Haas, tu sei il CEO di Arm. Benvenuto su Decoder.
Grazie.
Questa è in realtà la tua seconda volta nello show. L’ultima volta che sei stato nel 2022. Non eri stato l’amministratore delegato per così tanto tempo. L’azienda non era ancora diventata pubblica, quindi molto è cambiato. Ci stiamo ad entrare in tutto questo. Ora sei anche un podcaster, quindi la pressione è su di me per farlo bene. Rene ha uno spettacolo in cui ha intervistato [Nvidia CEO] Jensen [Huang] abbastanza di recente che tutti voi dovreste dare un’occhiata.
Questa conversazione toccherà diverse cose. Molte cose sono cambiate nel mondo dell’IA e della politica negli ultimi due anni. Entreremo in tutto questo, insieme alle classiche domande del Decoder su come stai eseguendo Arm. Ma prima, volevo parlare di una cosa di cui scommetto che molte persone in questa stanza hanno parlato questa settimana, che è Intel. Inizieremo con qualcosa di facile.
Ottimo.
Cosa pensi che dovrebbe succedere a Intel?
Oh mio Dio.
Immagino che al più alto livello, come qualcuno che è stato nel settore per tutta la mia carriera, è un po’ triste vedere cosa sta succedendo dal punto di vista di Intel come icona. Intel è una potenza dell’innovazione, che si tratti di architettura informatica, tecnologia di fabbricazione, piattaforme per PC o server. Quindi vedere i problemi che sta attraversando è un po’ triste. Ma allo stesso tempo, devi innovare nel nostro settore. Ci sono molte lapidi di grandi aziende tecnologiche che non si sono reinventate. Penso che il più grande dilemma di Intel sia come dissociarsi dall’essere un’azienda verticale o un’azienda favolosa, per semplificarlo eccessivamente. Penso che sia il bivio che ha affrontato nell’ultimo decennio, ad essere onesti con te. E [l’ex CEO di Intel] Pat [Gelsinger] aveva una strategia che era molto chiara che il verticale era il modo per vincere.
A mio parere, quando ha intrapreso quella strategia nel 2021, non era una strategia triennale. Questa è una strategia di 5-10 anni. Quindi ora che se n’è andato e verrà portato un nuovo CEO, questa è la decisione che deve essere presa. Il mio pregiudizio personale è che l’integrazione verticale può essere una cosa piuttosto potente, e se possono farlo bene, sarebbero in una posizione straordinaria. Ma il costo ad esso associato è così alto che potrebbe essere una collina troppo grande da scalare.
Parleremo di integrazione verticale in relazione ad Arm più tardi, ma volevo fare riferimento a qualcosa che hai detto a Ben Thompson all’inizio di quest’anno. Hai detto: “Penso che ci siano molti potenziali benefici lungo la strada tra Intel e Arm che lavorano insieme”. E poi ci sono stati rapporti più recentemente che tutti voi vi siete effettivamente avvicinati a Intel per acquistare potenzialmente la loro divisione di prodotti. Vuoi lavorare più da vicino con Intel ora considerando quello che è stato fatto nelle ultime due settimane?
Beh, un paio di cose con Intel. Non commenterò le voci secondo cui lo compreremo. Ancora una volta, se sei un’azienda integrata verticalmente e la potenza della tua strategia è che hai un prodotto e favolose, hai un vantaggio potenzialmente enorme in termini di costi rispetto alla concorrenza. Quando Pat era l’amministratore delegato, gli ho detto più di una volta: “Dovresti concedere la licenza di Arm. Se hai le tue fab, le fab sono tutte intese al volume e possiamo fornire volume.” Non sono riuscito a convincerlo a farlo, ma penso che non sarebbe una brutta mossa per Intel.
D’altra parte, in termini di lavoro di Arm con Intel, lavoriamo a stretto contatto con TSMC e Samsung. IFS è uno sforzo molto, molto grande per Intel in termini di clienti esterni, quindi lavoriamo con loro a stretto contatto per garantire che abbiano accesso alla tecnologia più recente. Abbiamo anche accesso ai loro kit di progettazione. Vogliamo che i partner esterni che vogliono costruire un Intel siano in grado di utilizzare la più recente e migliore tecnologia Arm. Quindi, in questo contesto, lavoriamo a stretto contatto con loro.
Passando alla politica, ci sono alcune cose in cui voglio entrare, a partire dalle notizie di ieri. Hai qualche reazione al fatto che David Sacks sia lo “zar” dell’IA di Trump? Non so se lo conosci, ma hai qualche reazione a questo?
Lo conosco un po’. Complimenti a lui. Penso che sia una cosa piuttosto buona. È piuttosto affascinante che se torni indietro di otto anni a dicembre prima di Trump 1.0 mentre stava iniziando a riempire le sue scelte di gabinetto e i suoi nominati, è stato un po’ caotico. All’epoca non c’era molta rappresentanza dal mondo della tecnologia. Questa volta, che si tratti di Elon [Musk], David [Sacks], Vivek [Ramaswamy] – so che Larry Ellison è stato anche molto coinvolto nelle discussioni con l’amministrazione – penso che sia una buona cosa, ad essere onesto con te. Avere un posto al tavolo e avere accesso alla politica è davvero bello.
Direi che poche aziende affrontano tante domande di politica geopolitica come voi ragazzi dati tutti i vostri clienti. Come hai o consiglieresti l’amministrazione in entrata sulla tua attività?
Direi che non è solo per i nostri affari. Parliamo della Cina per un momento. Le economie dei due paesi sono così indissolubilmente legate insieme che una separazione tra catena di approvvigionamento e tecnologia è una cosa davvero difficile da progettare. Quindi direi solo che mentre questa amministrazione o qualsiasi amministrazione entra in gioco e guarda alla politica su cose come il controllo delle esportazioni, dovrebbero essere consapevoli che una rottura dura non è così facile come potrebbe sembrare sulla carta. E ci sono solo molte leve da considerare avanti e indietro.
Siamo un attributo nella catena di approvvigionamento. Se pensi a cosa serve per costruire un chip semiconduttore, ci sono strumenti EDA, l’IP di Arm, la fabbricazione, aziende come Nvidia e MediaTek che costruiscono chip, ma poi ci sono materie prime che vanno a costruire i wafer, i lingotti e i substrati. E vengono da ogni parte. È solo un problema così complesso che è così indissolubribilmente legato che non credo che ci sia una politica unica. Penso che le amministrazioni dovrebbero essere aperte a capire che ci deve essere molto equilibrio in termini di qualsiasi soluzione che viene proposta.
Qual è la tua strategia per la Cina in questo momento? Stavo leggendo che forse stai lavorando per offrire direttamente le tue licenze IP in Cina. Hai anche una filiale lì. La tua strategia in Cina è cambiata quest’anno?
No. L’unica cosa che probabilmente è cambiata per noi – e direi probabilmente per molto del mondo – è che la Cina era un mercato molto, molto ricco per le startup, e il capitale di rischio volava in giro molto liberamente. C’era molta innovazione e cose di quella natura. Questo ha assolutamente rallentato. Che questa sia l’uscita per queste aziende dal punto di vista del mercato azionario o per ottenere l’accesso alla tecnologia chiave non è così ben compreso. Abbiamo sicuramente visto un rallentamento.
D’altra parte, abbiamo visto una crescita incredibile in segmenti come quello automobilistico. Se guardi aziende come BYD o anche Xiaomi che stanno costruendo veicoli elettrici, la tecnologia di quei veicoli in termini di capacità è semplicemente incredibile. Egosticamente per noi, corrono tutti su Arm. La Cina è molto pragmatica in termini di come costruisce i suoi sistemi e prodotti, e si basa molto sull’ecosistema globale open source per il software e su tutte le librerie software che sono state sintonizzate per Arm. Che si tratti di ADAS, del propulsore o di [In-Vehicle Infotainment], è tutto basato sul braccio. Quindi la nostra attività automobilistica in Cina è davvero forte.
La retorica del presidente eletto Trump sulla Cina e sulle tariffe ti preoccupa specificamente per quanto riguarda Arm?
Non proprio. La mia opinione personale su questo è che le minacce delle tariffe sono uno strumento per arrivare al tavolo dei negoziati. Penso che il presidente Trump abbia dimostrato nel tempo di essere un uomo d’affari e le tariffe sono una leva per avviare una trattativa. Vedremo dove andrà a finire, ma non sono troppo preoccupato per questo.
Cosa ne pensi degli sforzi dell’amministrazione Biden con il CHIPS Act per portare più produzione nazionale qui? Pensi che abbiamo bisogno di un progetto Manhattan per l’intelligenza artificiale, come quello che OpenAI ha lanciato?
Non credo che abbiamo bisogno di un governo, OpenAI, progetto tipo Manhattan. Penso che il lavoro che viene svolto da OpenAI, Anthropic, o anche il lavoro in open source che viene guidato da Meta con Llama, stiamo vedendo una fantastica innovazione su questo. Puoi dire che gli Stati Uniti sono leader in termini di modelli di fondazione e di frontiera? Assolutamente. E questo viene fatto senza l’intervento del governo. Quindi, personalmente non penso che sia necessario con l’IA.
Sul tema dei fab, tornerò alla domanda su cui mi hai iniziato con Intel che spende 30-40 miliardi di dollari all’anno in CapEx per questi nodi all’avanguardia. Questa è una pillola difficile da ingoiare per qualsiasi azienda, ed è per questo che penso che il CHIPS Act sia stato una cosa buona e necessaria. Costruire semiconduttori è fondamentale per il nostro motore economico. Abbiamo imparato che durante il COVID quando ci sono volute 52 settimane per sostituire un portachiavi grazie a tutto ciò che sta accadendo con la catena di approvvigionamento. Penso che avere la resilienza della catena di approvvigionamento sia super importante. È super importante a livello globale, ed è sicuramente importante a livello nazionale. Ero e sono a favore del CHIPS Act.
Quindi, anche se abbiamo potenzialmente il capitale per investire di più nella produzione interna, abbiamo il talento? Questa è una domanda a cui penso e di cui ti ho sentito parlare. Trascorri molto tempo cercando di trovare talento ed è scarso. Anche se spendiamo tutti questi soldi, abbiamo le persone di cui abbiamo bisogno in questo paese per vincere davvero e fare progressi?
Una delle cose che sta accadendo è un vero aumento della visibilità di questo problema di talento, e penso che mettere più soldi nei programmi universitari di semiconduttori e nella ricerca sui semiconduttori stia aiutando. Per un certo numero di anni, i diplomi di semiconduttore, in particolare nella produzione, non sono stati visti come i più attraenti per andare e ottenere. Molte persone stavano guardando al software come servizio e ad altre aree. Penso che dobbiamo tornare a questo a livello universitario. Ora, si potrebbe sostenere che forse aiuterà se i bot e gli agenti di intelligenza artificiale possono entrare e fare un lavoro significativo, ma costruire chip e processi a semiconduttore è molto un’arte oltre che una scienza, in particolare sul miglioramento delle rese manifatturiere. Non so se abbiamo abbastanza talento, ma so che ora c’è molto sforzo per cercare di rafforzarlo.
Andiamo agli affari di Arm. Hai molti clienti – tutte le grandi aziende tecnologiche – quindi sei esposto all’IA in molti modi. Non ti viene in realtà, per quanto ne so, esattamente come l’IA contribuisce al business, ma puoi darci un’idea di dove sia la crescita che stai vedendo nell’IA e per Arm?
Una delle cose di cui stavamo parlando prima era come ora siamo una società pubblica. Non eravamo una società pubblica nel 2022. Una delle cose che ho imparato come società pubblica è quella di rompere il meno possibile in modo che nessuno possa farti domande in termini di dove stanno andando le cose.
Sto chiedendo adesso.
[Ride] Sì, lo so che lo sei. Quindi direi di no, non rompiamo nessuna di quelle cose. Quello che stiamo osservando – e penso che questo non farà che accelerare – è che se stai parlando di un data center AI o di un AirPod o di un indossabile nell’orecchio, c’è un carico di lavoro di intelligenza artificiale che ora è in esecuzione e questo è molto chiaro. Questo non deve necessariamente essere ChatGPT-5 che esegue sei mesi di formazione per capire il prossimo livello di sofisticazione, ma questo potrebbe essere solo l’esecuzione di un piccolo livello di inferenza che sta aiutando il modello di intelligenza artificiale a funzionare ovunque si trovi. Stiamo vedendo carichi di lavoro di intelligenza artificiale, come ho detto, che funzionano assolutamente ovunque. Allora, cosa significa questo per Arm?
Il nostro core business è le CPU, ma facciamo anche GPU, NPU e motori di elaborazione neurale. Quello che stiamo vedendo è la necessità di aggiungere sempre più capacità di calcolo per accelerare questi carichi di lavoro di intelligenza artificiale. Lo stiamo vedendo come pali da tavolo. O metti un motore neurale all’interno della GPU che può eseguire l’accelerazione o rendere la CPU più in grado di eseguire estensioni che possono accelerare la tua intelligenza artificiale. Lo vediamo ovunque. Non direi nemmeno che accelererà; quello sarà il valore predefinito.
Quello che avrai è un carico di lavoro di intelligenza artificiale in esecuzione su tutto il resto che devi fare, dal più piccolo dei dispositivi all’edge ai data center più sofisticati. Quindi, se guardi un telefono cellulare o un PC, deve eseguire grafica, un gioco, il sistema operativo e le app – a proposito, ora deve eseguire un certo livello di Copilot o un agente. Ciò significa che ho bisogno di sempre più capacità di calcolo all’interno di un sistema che è già un po’ limitato sul costo, sulle dimensioni e sull’area. È fantastico per noi perché ci dà un sacco di problemi difficili da risolvere, ma è chiaro quello che stiamo vedendo. Quindi, direi che l’IA è ovunque.
C’erano molte chiacchiere nell’ultima versione di Apple per iPhone su questo super ciclo di intelligenza artificiale con l’intelligenza di Apple, questa idea che l’intelligenza di Apple avrebbe rinvigorito le vendite di iPhone e che il mercato dei telefoni cellulari in generale si è stabilizzato. Quando pensi che l’IA – l’intelligenza artificiale sul dispositivo – inizi davvero a riaccendere la crescita dei telefoni cellulari? Perché in questo momento non sembra che stia accadendo.
E penso che ci siano due ragioni per questo. Uno è che i modelli e le loro capacità stanno avanzando molto velocemente, il che sta facendo avanzare il modo in cui gestisci l’equilibrio tra ciò che viene eseguito localmente, ciò che viene eseguito nel cloud e le cose relative alla latenza e alla sicurezza. Si sta muovendo a un ritmo incredibile. Ero solo in una discussione con i ragazzi di OpenAI la scorsa settimana. Stanno facendo i 12 giorni di Natale —
12 giorni di ship-mas, e stanno facendo qualcosa ogni giorno. Ci vogliono due o tre anni per sviluppare un chip. Pensa ai chip che si trovano in quel nuovo iPhone quando sono stati concepiti, quando sono stati progettati e quando le funzionalità a cui abbiamo pensato dovevano andare all’interno di quel telefono. ChatGPT non esisteva nemmeno in quel momento. Quindi, questo sarà qualcosa che accadrà gradualmente e poi all’improvviso. Vedrai un momento di ginocchio nella curva in cui l’hardware è ora abbastanza sofisticato, e poi le app si precipitano.
Cos’è questo cambiamento? È un nuovo prodotto? È una svolta hardware, una combinazione di entrambi? Una sorta di indossabile?
Beh, come ho detto, che si tratti di un dispositivo indossabile, di un PC, di un telefono o di un’auto, i chip che vengono progettati vengono semplicemente riempiti con quanta più capacità di calcolo possibile per sfruttare ciò che potrebbe esserci. Quindi è un po’ di pollo e uova. Carichi l’hardware con tanta capacità sperando che il software atterri su di esso, e il software sta innovando a un ritmo molto, molto rapido. Quell’intersezione arriverà dove improvvisamente, “Oh mio Dio, ho ridotto il grande modello linguistico a una certa dimensione. Il chip che va in questo piccolo indossabile ora ha abbastanza memoria per sfruttare quel modello. Di conseguenza, la magia prende il sopravvento.” Succederà. Sarà graduale e poi improvviso.
Sei ottimista su tutti questi dispositivi indossabili di intelligenza artificiale su cui le persone stanno lavorando? So che Arm è nei Meta Ray-Ban, per esempio, di cui in realtà sono un grande fan. Penso che quel fattore di forma sia interessante. Occhiali AR, cuffie: pensi che sia un grande mercato?
Sì, lo faccio. È interessante perché in molti dei mercati in cui siamo stati coinvolti, che si tratti di mainframe, PC, cellulari, dispositivi indossabili o orologi, alcuni nuovi fattori di forma guidano un nuovo livello di innovazione. È difficile dire come sarà quel prossimo fattore di forma. Penso che sarà più una situazione ibrida, che si tratti di occhiali o di dispositivi a casa tua che sono più un dispositivo di spinta che di un dispositivo di trazione. Invece di chiedere ad Alexa o all’Assistente Google cosa fare, potresti avere quelle informazioni inviate a te. Potresti non volerlo spingere verso di te, ma potrebbe essere spinto verso di te in modo tale che ti stia guardando dietro gli angoli. Penso che il fattore di forma che arriva sarà in qualche modo simile a quello che stiamo vedendo oggi, ma potresti vedere alcuni di questi dispositivi diventare molto più intelligenti in termini di livello di spinta.
Ci sono state segnalazioni che Masayoshi Son, il tuo capo di SoftBank, ha lavorato con Jony Ive e OpenAI, o una combinazione dei tre, per fare hardware. Ho sentito voci che potrebbe esserci qualcosa per la casa. C’è qualcosa con cui stai lavorando di cui puoi parlare?
Ho letto le stesse voci.
Sì. Ok, bene.
Amazon ha appena annunciato che sta lavorando sul più grande data center per l’intelligenza artificiale con Anthropic, e Arm sta davvero entrando nel business dei data center. Cosa stai vedendo lì con gli iperscalatori e i loro investimenti nell’IA?
La quantità di investimento è alle stelle. Devi solo guardare i numeri di alcune delle persone che sono in questo settore. È un momento molto interessante perché stiamo ancora assistendo a un investimento insaziabile nella formazione in questo momento. La formazione è estremamente alta di calcolo e ad alta intensità energetica, e questo sta guidando gran parte della crescita. Ma il livello di calcolo che sarà richiesto per l’inferenza sarà in realtà molto più grande. Penso che sarà meglio della metà, forse l’80% nel tempo sarebbe un’inferenza. Ma la quantità di casi di inferenza che dovranno essere eseguiti è molto più grande di quella che abbiamo oggi.
Ecco perché stai vedendo aziende come CoreWeave, Oracle e persone che non sono tradizionalmente in questo spazio che ora eseguono il cloud AI. Beh, perché è così? Perché non c’è abbastanza capacità con i tradizionali grandi hyperscaler: le Amazon, i Meta, i Google, i Microsoft. Penso che continueremo a vedere un cambiamento del panorama, forse non tanto un cambiamento, ma certamente opportunità per altri attori in termini di abilitazione e accesso a questa crescita.
È molto, molto buono per Arm perché abbiamo visto un grande aumento della crescita della quota di mercato per noi nel data center. AWS, che costruisce i suoi dispositivi generici Graviton basati su Arm, era a re:Invent questa settimana. Ha detto che il 50 per cento di tutte le nuove implementazioni sono Graviton. Quindi il 50 per cento di tutto ciò che è nuovo in AWS è Arm, e questo non diminuirà. Quel numero sta per aumentare.
Una delle cose che stiamo vedendo è con dispositivi come le CPU Grace Blackwell di Nvidia. Questo è Arm che usa una GPU Nvidia. Questo è un grande vantaggio per noi perché quello che succede è che il cloud AI sta ora eseguendo un nodo host basato su Arm. Se il data center ora ha un cluster di intelligenza artificiale in cui il calcolo generico è Arm, vogliono naturalmente avere il più del calcolo generico che non è AI in esecuzione su Arm. Quindi quello che stiamo vedendo è solo un’accelerazione per noi nel data center, che si tratti di intelligenza artificiale, inferenza o calcolo generico.
Sei preoccupato per una bolla con il livello di spesa che sta andando nell’iper-scaling e nei modelli stessi? È una quantità incredibile di capitale e il ROI non è ancora lì. Potresti sostenere che lo sia in alcuni punti, ma attribuisci la paura alla bolla?
Da un lato, sarebbe folle dire che la crescita continua senza sosta, giusto? Abbiamo visto che non è mai veramente il caso. Penso che ciò che diventerà molto interessante, in questa particolare fase di crescita, è vedere a quale livello il vero beneficio proviene dall’IA che può aumentare e/o sostituire determinati livelli di posti di lavoro. Alcuni dei modelli di intelligenza artificiale e dei chatbot oggi sono decenti ma non grandiosi. Integrano il lavoro, ma non necessariamente sostituiscono il lavoro.
Ma se inizi ad entrare in agenti che possono fare un vero livello di lavoro e che possono sostituire ciò che le persone potrebbero aver bisogno di fare in termini di pensiero e ragionamento? Poi diventa abbastanza interessante. E poi dici: “Beh, come succederà?” Beh, non ci siamo ancora, quindi dobbiamo addestrare più modelli. I modelli devono diventare più sofisticati, ecc. Quindi penso che la cosa dell’addestramento continui per un po’, ma quando gli agenti di intelligenza artificiale arrivano a un livello in cui ragionano vicino al modo in cui fa un essere umano, allora penso che si asintoti a un certo livello. Non credo che la formazione possa essere inattenuta perché a un certo punto nel tempo, otterrai modelli di formazione specializzati al contrario di modelli generici, e questo richiede meno risorse.
Ero solo a una conferenza in cui ha parlato Sam Altman, e stava davvero abbassando l’asticella su ciò che l’AGI sarà piuttosto intenzionalmente, e ha parlato di dichiararlo l’anno prossimo. Leggo cinicamente come OpenAI che cerca di riorganizzare il suo accordo di partecipazione agli utili con Microsoft. Ma mettendolo a parte, cosa ne pensi di AGI? Quando lo avremo, cosa significherà? Sarà un momento tutto in una volta, Big Bang, o sarà come Altman sta parlando ora, più come un lamento?
So che ha le sue definizioni per AGI, e ha ragioni per quelle definizioni. Non sottoscrivo così tanto il dibattito “cos’è AGI contro ASI” (super intelligenza artificiale). Penso di più a quando questi agenti di intelligenza artificiale iniziano a pensare, ragionare e inventare. Per me, è un po’ un momento di passaggio del Rubicone, giusto? Ad esempio, ChatGPT può fare un lavoro decente nel superare l’esame di avvocato, ma in una certa misura, carichi abbastanza logica e informazioni nel modello e le risposte sono lì da qualche parte. Fino a che livello il modello di intelligenza artificiale è un pappagallo stocastico e ripete semplicemente tutto ciò che si trova su Internet? Alla fine della giornata, sei bravo solo quanto il modello su cui ti sei allenato, che è buono solo quanto i dati.
Ma quando il modello arriva a un punto in cui può pensare e ragionare e inventare, creare nuovi concetti, nuovi prodotti, nuove idee? È una specie di AGI per me. Non so se siamo a un anno di distanza, ma direi che siamo molto più vicini. Se mi avessi fatto questa domanda un anno fa, avrei detto che è abbastanza lontano. Mi hai fatto quella domanda ora, dico che è molto più vicino.
Cosa c’è di più vicino? Due anni? Tre anni?
Probabilmente. E probabilmente mi sbaglierò su quel fronte. Ogni volta che interagisco con i partner che stanno lavorando sui loro modelli, sia su Google che su OpenAI, e ci mostrano le demo, è mozzafiato in termini di tipo di progressi che stanno facendo. Quindi sì, penso che non siamo così lontani dall’arrivare a un modello che può pensare, ragionare e inventare.
Quando sei stato l’ultima volta su Decoder, hai detto che Arm è conosciuta come la Svizzera dell’industria elettronica, ma ora ci sono stati molti rapporti quest’anno che stavi cercando di salire davvero sullo stack e progettare i tuoi chip. Ho sentito che non rispondi a questa domanda molte volte, e mi aspetto una non risposta simile, ma ci proverò. Perché Arm dovrebbe volerlo fare? Perché Arm vorrebbe salire nella catena del valore?
Questo suonerà come uno di quelli, “Se l’ho fatto, risponde”, giusto? Perché Arm dovrebbe prendere in considerazione di fare qualcosa di diverso da quello che fa attualmente? Tornerò alla prima discussione che stavamo avendo relativa ai carichi di lavoro dell’IA. Quello che stiamo vedendo costantemente è che i carichi di lavoro di intelligenza artificiale si stanno intrecciando con tutto ciò che sta avvenendo dal punto di vista del software. Al centro, siamo l’architettura del computer. Questo è quello che facciamo. Abbiamo ottimi prodotti. Le nostre CPU sono meravigliose, le nostre GPU sono meravigliose, ma i nostri prodotti non sono niente senza software. Il software è ciò che fa andare il nostro motore.
Se stai definendo un’architettura informatica e stai costruendo il futuro dell’informatica, una delle cose di cui devi essere molto consapevole è quel legame tra hardware e software. Devi capire dove vengono fatti i compromessi, dove vengono fatte le ottimizzazioni e quali sono i vantaggi finali per i consumatori da un chip che ha quel tipo di integrazione. È più facile farlo se stai costruendo qualcosa che se stai concedendo in licenza IP. Questo è dal punto di vista in cui se stai costruendo qualcosa, sei molto più vicino a quell’interblocco e hai una prospettiva molto migliore in termini di compromessi di design da fare. Quindi, se dovessimo fare qualcosa, questo sarebbe uno dei motivi per cui potremmo.
Sei preoccupato di competere con i tuoi clienti?
Voglio dire, i miei clienti sono Apple. Non ho intenzione di costruire un telefono. La Tesla del mio cliente. Non costruirò un’auto. Il mio cliente è Amazon. Non costruirò un data center.
E Nvidia? Lavoravi per Jensen.
Beh, costruisce scatole, giusto? Costruisce scatole DGX e costruisce tutti i tipi di cose.
Parlando di Jensen – ne stavamo parlando prima di arrivare – quando eri in Nvidia, CUDA stava davvero entrando in salto. Stavi solo parlando del collegamento software. Cosa ne pensi del software in relazione ad Arm? Mentre stai pensando di salire nella pila in questo modo, è lock-in? Cosa significa avere qualcosa come un CUDA?
Si può vedere il lock-in come una manovra offensiva che si prende dove, “farò queste cose in modo da poter bloccare le persone” e/o si fornisce un ambiente in cui è così facile usare il proprio hardware che per impostazione predefinita, si è “bloccati”. Torniamo al commento sul carico di lavoro dell’IA. Quindi oggi, se stai facendo calcoli generici, stai scrivendo i tuoi algoritmi in C, JAX o qualcosa di simile.
Ora, diciamo che vuoi scrivere qualcosa in TensorFlow o Python. In un mondo ideale, cosa vuole lo sviluppatore di software? Lo sviluppatore di software vuole essere in grado di scrivere la propria applicazione a un livello molto alto, che si tratti di un carico di lavoro generico o di un carico di lavoro di intelligenza artificiale, e semplicemente farlo funzionare sull’hardware sottostante senza dover davvero sapere quali sono gli attributi di quell’hardware. Le persone del software sono meravigliose. Sono intrinsecamente pigri e vogliono essere in grado di eseguire la loro applicazione e farla funzionare.
Quindi, come piattaforma di architettura informatica, spetta a noi renderlo facile. È una grande iniziativa per noi pensare di fornire una piattaforma eterogenea che sia omogenea in tutto il software. Lo facciamo oggi. Abbiamo una tecnologia chiamata Kleidi e ci sono librerie Kleidi per l’intelligenza artificiale e per la CPU. Tutta la bontà che mettiamo all’interno dei nostri prodotti CPU che consente l’accelerazione utilizza queste librerie e rendiamo aperte quelle disponibili. Non ci sono costi. Sviluppatori, funziona e basta. Andando avanti, poiché la stragrande maggioranza delle piattaforme oggi è basata su Arm e la stragrande maggioranza eseguirà carichi di lavoro di intelligenza artificiale, vogliamo solo renderlo davvero facile per le persone.
Ti chiederò un’altra cosa di cui non puoi davvero parlare prima di entrare nelle divertenti domande del decodificatore. So che hai questa prova con Qualcomm in arrivo. Non puoi davvero parlarne. Allo stesso tempo, sono sicuro che senti la preoccupazione degli investitori e dei partner per ciò che accadrà. Affronta questa preoccupazione. Non devi parlare del processo stesso, ma affronta la preoccupazione che gli investitori e i partner hanno riguardo a questa lotta che hai.
Quindi l’aggiornamento attuale è che prevede di andare a processo il 16 dicembre, che non è molto lontano. Posso capire, perché abbiamo parlato con investitori e partner, che ciò che odiano di più è l’incertezza. Ma d’altra parte, direi che i principi sul motivo per cui abbiamo presentato il reclamo sono invariati, e questo è tutto ciò che posso dire.
Va bene, ce ne sono altri. Quindi domande del decodificatore. L’ultima volta che sei stato qui nel podcast, Arm non era ancora diventato pubblico. Sono curioso di sapere ora che sei un paio d’anni, cosa ti ha sorpreso dell’essere una società pubblica?
Penso che ciò che mi ha sorpreso a livello personale sia la quantità di larghezza di banda che toglie dalla mia giornata perché finisco per dover pensare a cose a cui non pensavamo prima. Ma al livello più alto, in realtà non è un grande cambiamento. Il braccio era pubblico prima. Ci siamo consolidati attraverso SoftBank quando ci ha comprato. Quindi, i muscoli in termini di essere in grado di riportare i guadagni trimestrali e farli riconciliare entro un lasso di tempo, avevamo una buona memoria muscolare su tutto ciò. Operativamente per l’azienda, abbiamo grandi squadre. Ho un grande team finanziario che è davvero bravo a farlo. Per me personalmente, è stato solo l’apprezzamento che ora c’è una parte della mia settimana che è dedicata ad attività su cui non stavo davvero lavorando prima.
La struttura di Arm è cambiata dal punto di vista organizzativo da quando sei diventato pubblico?
No. Credo fermamente nel non fare molti cambiamenti organizzativi. Per me, il design organizzativo segue la tua strategia e la strategia segue la tua visione. Se pensi al modo in cui mi hai sentito parlare di Arm pubblicamente negli ultimi due anni, è abbastanza invariato. Di conseguenza, non abbiamo fatto molto in termini di cambiamento dell’organizzazione. Penso che i cambiamenti organizzativi siano orribilmente dirompenti. Siamo un’azienda di 8.000 persone, quindi non siamo giganteschi, ma se fai un gigantesco cambiamento organizzativo, è meglio che abbia seguito un grande cambiamento di strategia. Altrimenti, hai off-site, riunioni di squadra e chiamate Zoom che parlano dei miei nuovi leader. Se non è a sostegno di un cambiamento di strategia, è una grande perdita di tempo. Quindi mi sforzo davvero di non fare molto di questo.
Quello di cui abbiamo parlato prima con potenzialmente guardare ad andare più verticale o il valore lì, che sembra un grande cambiamento che potrebbe influenzare la struttura.
Se dovessimo farlo. Esatto.
C’è un compromesso che hai dovuto fare quest’anno nel tuo processo decisionale che è stato particolarmente difficile di cui puoi parlare, qualcosa con cui hai dovuto lottare? Come hai valutato quei compromessi?
Non so se ci sia stato un compromesso specifico. In questo lavoro come amministratore delegato – accidenti, saranno tre anni a febbraio – stai costantemente facendo il compromesso mentale di ciò che deve accadere giorno per giorno rispetto a ciò che deve accadere tra cinque anni. La mia propensione tende a pensare a cinque anni avanti rispetto a un quarto avanti. Non so se c’è qualche grande compromesso che direi di fare, ma quello con cui sto costantemente lottando è quell’equilibrio tra ciò che è necessario giorno per giorno rispetto a ciò che deve accadere nei prossimi cinque anni.
Ho delle grandi squadre. Il team di ingegneri è fantastico. Il team finanziario è fantastico. I team di vendita e marketing sono fantastici. Nella vita di tutti i giorni, non c’è molto che posso fare per influenzare quali sono quei lavori, ma i lavori su cui posso avere un impatto sono nei prossimi cinque anni. Quello che cerco di fare è passare aree di tempo sul lavoro che solo io posso fare, e se c’è lavoro che il team può fare dove non aggiungerò molto, cerco di stare lontano da esso. Ma questo è il più grande compromesso con cui sono alle prese è il giorno per giorno rispetto al futuro.
Quanto è diverso Arm in cinque anni?
Non sappiamo che sembreremo molto diversi come azienda, ma speriamo di continuare ad essere un’azienda di grande impatto nel settore. Ho grandi ambizioni per dove possiamo essere.
Mi piacerebbe sapere com’è lavorare con [Masayoshi Son]. È il tuo maggiore azionista e il tuo presidente del consiglio di amministrazione. Sono sicuro che parli sempre. È divertente nella sala riunioni come lo è in ambienti pubblici?
Sì. È un ragazzo affascinante. Una delle cose che ammiro molto di Masa, e non credo che ottenga abbastanza credito per questo, è che è l’amministratore delegato e fondatore di un’azienda di 40 anni. E si è reinventato molte volte. Voglio dire, SoftBank ha iniziato come distributore di software e si è reinventato dall’essere un operatore con SoftBank mobile a un investitore. È una gioia lavorare con lei, ad essere onesto con te. Imparo molto da lui. È molto ambizioso, ovviamente, ama correre dei rischi, ma allo stesso tempo ha una buona presa sulle cose che contano. Penso che tutto ciò che vedi di lui sia accurato. È un ragazzo molto divertente.
Quanto è coinvolto nel fissare il futuro a lungo termine di Arm con te?
Beh, è il presidente dell’azienda e il presidente del consiglio di amministrazione. Da questo punto di vista, il compito del consiglio è valutare la strategia a lungo termine dell’azienda, e con la mia propensione a pensare anche a lungo termine, io e lui parliamo sempre di questo genere di cose.
Hai lavorato con due leader tecnologici molto influenti: Masa e Jensen di Nvidia. Quali sono i tratti unici che li rendono unici?
È una domanda meravigliosa. Penso che le persone che costruiscono un’azienda e la gestiscono 20, 30 anni dopo e la guidano con lo stesso livello di passione e innovazione – Jensen, Masa, Ellison, Jeff Bezos, sono sicuro che sto tralasciando i nomi – portino molti degli stessi tratti. Sono molto intelligenti, ovviamente brillanti, si guardano dietro gli angoli e lavorano incredibilmente duramente ma hanno un’incredibile quantità di coraggio. Quegli ingredienti sono necessari per le persone che rimangono al top così a lungo.
Sono un grande fan del basket, e ho sempre fatto analogie tra, se pensi a un Michael Jordan o a un Kobe Bryant, quando le persone parlano di ciò che li ha resi grandi, ovviamente il loro talento era alle stelle e avevano un grande atletismo, ma era qualcosa nel loro carattere e nella loro spinta che li tagliava in un livello diverso. E penso che Jensen, Son, Ellison, gli altri nomi che ho menzionato, rientrano tutti nello stesso gruppo. Anche Elon Musk, ovviamente.
Va bene, lo lasceremo lì. Rene, grazie mille per esserti unito a noi.
10/12/24 WSJ: Incontra il piccolo produttore di chip AI ora più prezioso di Intel
Il ruolo di Marvell nell’aiutare i titani della tecnologia a creare i propri chip per data center ha aumentato le sue entrate e la sua valutazione

Matt Murphy non ha alcun interesse a gestire un’azienda di chip 10 volte più grande della sua attuale. È la mossa più intelligente, e in realtà quella più ambiziosa.
Murphy, che è amministratore delegato di Marvell MRVL dal 2016 è stato tra i pochi nomi usciti come potenziali sostituti per il Pat Gelsinger recentemente estromesso da CEO di Intel. Ciò ha portato alla rara vista di un amministratore delegato che utilizza la propria chiamata agli utili per negare di essere sul mercato.
“Sono tutto dentro”, ha detto sulla chiamata di Marvell del 3 dicembre, il giorno dopo che Intel ha annunciato l’uscita di Gelsinger e vari media hanno riportato Murphy come candidato. “L’azienda è eccezionale. La tecnologia è la migliore della categoria. Non riesco a pensare a un posto migliore per lavorare di Marvell.”
Il suo tempismo era buono. Un forte rapporto sugli utili e la notizia di una relazione ampliata con Amazon hanno illuminato le azioni di Marvell, che erano già aumentate del 60% per l’anno all’inizio della settimana. Le azioni sono aumentate di un altro 18% dal rapporto di martedì, mettendo brevemente la capitalizzazione di mercato di Marvell sopra i 100 miliardi di dollari per la prima volta in assoluto (era di circa 5 miliardi di dollari quando Murphy ha accettato il lavoro).

Gli ultimi guadagni hanno persino messo la capitalizzazione di mercato di Marvell davanti alla tanto assediata Intel, che genera ancora 10 volte più entrate annuali.
La recente traiettoria di Marvell suggerisce che il divario di entrate continuerà a ridursi. La crescita esplosiva della sua attività di data center ha finalmente raggiunto un punto in cui può compensare più completamente la debolezza nei segmenti più legacy dell’azienda, che vendono chip utilizzati in beni come apparecchiature di telecomunicazione, scatole TV via cavo e automobili.
Le vendite di data center sono quasi raddoppiate anno su anno a 1,1 miliardi di dollari nel trimestre appena concluso, e la proiezione di Marvell per il periodo corrente indica che la società concluderà il suo anno fiscale a gennaio con l’unità data center che comprende circa il 72% delle sue entrate totali, rispetto al 40% dell’anno precedente.
Anche l’anno prossimo sembra luminoso. L’ultimo accordo di Marvell con Amazon è un accordo “multigenerazionale” quinquennale che fa aiutare Marvell a progettare i propri chip di intelligenza artificiale. Amazon, che gestisce il più grande servizio di cloud computing al mondo, ha ampliato in modo significativo i suoi sforzi di chip interni, in parte per ridurre la sua dipendenza da Nvidia per componenti cruciali dell’IA. Amazon ha annunciato la prossima generazione del suo più grande chip AI, chiamato Trainium, alla sua conferenza annuale degli sviluppatori questa settimana. Gli analisti ritengono che Trainium giocherà un ruolo più che raddoppiando le entrate personalizzate AI di Marvell nel prossimo anno fiscale che termina gennaio 2026.

Ciò dovrebbe contribuire a spingere le entrate annuali di Marvell a oltre 8 miliardi di dollari nell’anno fiscale 2026, in aumento del 40% rispetto alle aspettative per quest’anno, secondo le stime di consenso di Visible Alpha. Inoltre, è prevista una crescita del 20% per l’anno successivo, quando Marvell prevede di essere nella produzione di chip AI personalizzati per un altro grande cliente tecnologico senza nome che gli analisti ritengono sia Microsoft. L’analista Mark Lipacis di Evercore ISI prevede che l’industria dei chip AI personalizzati raggiungerà da 30 a 50 miliardi di dollari di vendite entro il 2030. In una nota ai clienti la scorsa settimana, ha detto che Marvell “ha il potenziale per catturare un terzo di quel mercato”.
Cosa potrebbe rovinare la festa? Come Nvidia Marvell ha un’esposizione significativa a investimenti in forte espansione nell’IA che rendono l’azienda vulnerabile a qualsiasi recessione in quella spesa. Ciò potrebbe accadere se i servizi di intelligenza artificiale propagati dai giganti della tecnologia e dai loro clienti aziendali non riescono a raggiungere gli utenti. Gli stessi grandi acquirenti di tecnologia potrebbero persino mettere una pausa temporanea sulla spesa per assorbire le attrezzature già acquistate. Tali periodi di “digestione” sono stati a lungo comuni nel mercato dei data center. Ma con le sue azioni ora scambiate quasi 45 volte i guadagni a termine, un premio del 21% al multiplo di Nvidia, Marvell non ha un prezzo per il minimo di dossi.
Murphy non è preoccupato. “Vedremo la digestione ad un certo punto”, ha detto in un’intervista, aggiungendo che l’IA è solo una parte di ciò che sta guidando gli investimenti nei cosiddetti sistemi informatici accelerati. I suoi 30 anni nel settore dei chip lo hanno anche fatto conoscere bene i cicli brutali del settore. “Sappiamo che non sarà una linea retta nei prossimi 10 anni”, ha detto.
I prossimi due da soli dovrebbero tenerlo abbastanza occupato.
05/12/24 Briefing.com: Synopsys venduta sulla debole guida FY25; la Cina rimane un vento contrario (SNPS)
Le azioni del fornitore di software di automazione della progettazione elettronica Synopsys (SNPS -12%) scivolano oggi nonostante un ritmo di guadagni di dimensioni decenti nel quarto trimestre (ottobre) e un panorama legato all’intelligenza artificiale continuamente robusto. La battuta d’arresto di oggi deriva dalla guida ribassista del primo trimestre (gennaio) di SNPS e dalle miti prospettive FY25. L’azienda ha guidato l’anno in modo pragmatico a causa della disuguanza nel mercato finale e nella domanda geografica.
La direzione ha caratterizzato il suo contesto attuale come una storia di due mercati. I clienti che servono l’infrastruttura AI hanno fatto incredibilmente bene, avvantaggiando in modo significativo SNPS. Tuttavia, il resto del mercato dei semiconduttori, compresi i clienti che servono dispositivi mobili, PC, automobilistici e industriali, è ancora nel bel mezzo di un ciclo di aggiornamento. Poiché SNPS è ancora legato alla ricerca e sviluppo di questi clienti, sta sopravvivendo ma non registrando livelli di crescita simili a quelli dell’altra coorte di clienti incentrata sull’intelligenza artificiale. Nel frattempo, la Cina rimane un vento contrario mentre SNPS si occupa di espandere le restrizioni commerciali mentre l’economia decelera.
Questi fattori hanno contribuito a una visione equilibrata dell’anno fiscale 25. SNPS ha mirato EPS rettificati di 14,88-14,96 dollari, il punto medio che supera il consenso, e una crescita dei ricavi del +10,1-11,1% anno/anno o 6,745-6,805 miliardi di dollari, non raggiungendo il consenso. Vale la pena sottolineare che se non fosse per l’impatto di una settimana in più e di un cambiamento di un anno solare, SNPS ha proiettato una crescita dei ricavi di +11,5-12,5% annuo per l’anno fiscale 25, le aspettative degli analisti di riunione di fascia alta.
- La disomogeneità della domanda era prevalente nel quarto trimestre. SNPS ha superato le aspettative di utili per i trimestri back-to-back, ma ha visto la crescita dei ricavi continuare a rallentare, espandendosi di appena il 2,3% anno/anno a 1,64 miliardi di dollari rispetto a salti di +12,7%, +15,2% e +21,1% nei tre trimestri precedenti.
- La crescita principale nel quarto trimestre è stata l’attività di automazione della progettazione di SNPS, con un aumento del 17% anno/anno, mostrando il forte appetito per l’IA. SNPS ha costantemente aggiunto motori di ottimizzazione dell’intelligenza artificiale ai suoi prodotti, aiutando i clienti a estrarre miglioramenti nell’utilizzo dell’hardware e nei tempi di consegna. Nel frattempo, i progetti multi-die stanno aprendo una nuova frontiera nell’architettura dei chip. SNPS ha dichiarato che il 90% dei progetti di elaborazione ad alte prestazioni e il 70% dei progetti di PC saranno multi-die entro due anni.
- Inoltre, su multi-die, SNPS ha dichiarato che un ambiente di progettazione che combina automazione del design e simulazione multi-fisica sarà il vero punto di svolta e un componente chiave della proposta di valore per la sua acquisizione in sospeso di Ansys (ANSS), che dovrebbe chiudere durante 1H25.
- L’attività Design IP di SNPS ha abbassato le entrate complessive, offrendo una crescita approssimativamente piatta anno/anno nel trimestre. La maggior parte del business IP dell’azienda deriva da clienti che progettano su chip prodotti da Taiwan Semi (TSM), che comprende numerosi verticali, dalla produzione all’automotive agli smartphone. Questi mercati finali sono ancora in modalità di recupero, mantenendo le entrate soppresse. L’IP rimarrà grumo verso il primo trimestre, facendo sì che le prospettive di SNPS per il trimestre, compreso l’EPS rettificato di 2,77-2,82 dollari e i giri di 1,435-1,465 miliardi di dollari, non siano all’altezza delle aspettative degli analisti.
La guida deludente FY25 deriva da una combinazione di graduale ripresa dei mercati finali e incertezza che circonda la Cina ha scatenato una notevole pressione di vendita oggi. Mentre queste variabili possono continuare a gettare una nuvola sui risultati futuri, SNPS rimane ottimista sull’IA, osservando che la tecnologia è solo nella sua fase iniziale e diventerà una componente essenziale di tutto ciò che l’azienda fa.
03/12/24 Financial Time: “Non avevamo un addetto alle vendite” il CEO di Raspberry Pi parla della creazione di una start-up tecnologica-
Raspberry Pi ha operato per sette anni prima di pensare di creare un reparto vendite per commercializzare i microcomputer che produce.
I suoi dispositivi piccoli e a basso costo, delle dimensioni di una carta di credito, sono stati lanciati attraverso un ente di beneficenza educativo del Regno Unito per promuovere l’informatica tra i giovani. È stato solo dopo che i prodotti hanno attirato l’interesse dei primi clienti aziendali, spesso attraverso i genitori che ne avevano acquistato uno per insegnare ai loro figli la programmazione e poi ne avevano visto il potenziale per un uso commerciale, che l’azienda ha iniziato ad assumere persone per venderli a nuovi clienti.
L’azienda, nata dalla Raspberry Pi Foundation, si era concentrata sulla creazione del miglior prodotto per il prezzo piuttosto che “essere avida”, afferma il suo co-fondatore e amministratore delegato, Eben Upton. “Fino al 2019 non c’era una sola persona che si potesse riconoscere come addetto alle vendite. Poi abbiamo iniziato a vedere che c’erano dei limiti con quella posizione”.
Raspberry Pi impiega ora 134 persone, di cui circa 25 nelle vendite, e vende circa 200.000 microcomputer e accessori a settimana. A giugno si è quotata alla Borsa di Londra con una valutazione di 542 milioni di sterline. Nel giro di tre mesi è stato elevato all’indice FTSE 250 delle società blue-chip quotate nel Regno Unito.
Le sue schede tascabili, essenzialmente mini piattaforme operative che si collegano a monitor e tastiere e costano circa £ 50 per il modello base, sono ora ampiamente utilizzate. Forniscono la potenza di calcolo all’interno dei tabelloni delle partenze e degli arrivi dell’aeroporto di Heathrow e della segnaletica digitale del gruppo elettronico NEC. Alimentano caricabatterie per veicoli elettrici e flipper, controllano le telecamere di osservazione del Kenya Wildlife Service e la linea di produzione del produttore di biciclette pieghevoli Brompton. I clienti aziendali rappresentano il 70% del fatturato.
“Siamo stati insolitamente visibili a causa della portata del nostro prodotto”, afferma Upton. “C’era anche molta domanda latente per quello che facciamo, costruire un PC a basso costo che fosse abbastanza piccolo da stare all’interno di tabelloni con la potenza di elaborazione necessaria per eseguire operazioni come l’esecuzione di linee di produzione”.
La crescita delle operazioni non è sempre stata semplice. Inizialmente, Raspberry Pi non è stato in grado di raccogliere il capitale necessario per produrre un numero sufficiente di dispositivi per soddisfare la prima ondata di domanda. Upton ha dovuto adottare un modello di royalties, concedendo in licenza i progetti dell’azienda al produttore, un’idea che si era già dimostrata vincente per il suo collega tecnologico di Cambridge, il produttore di chip Arm.
Poi, quando il Covid ha interrotto il primo anno del team di vendita, Raspberry Pi è stato colpito da vincoli della catena di approvvigionamento. Il nuovo dipartimento ha dedicato più tempo alla gestione della domanda in calo, afferma Upton. “Si trattava quasi di usare le competenze anti-vendite”.
Più recentemente, l’azienda ha dovuto lavorare per bloccare la distribuzione dei suoi dispositivi che stavano trovando la loro strada in Russia. Upton afferma di essere rimasto scioccato dai dati prodotti dalla Kyiv School of Economics che identificano l’attività di violazione delle sanzioni, comprese “prove limitate del loro uso in applicazioni militari”. Dice che Raspberry Pi sta lavorando con licenziatari e partner rivenditori approvati per chiudere questo commercio. “Abbiamo in programma di aggiungere una maggiore tracciabilità ad alcuni dei nostri prodotti per consentirci di lavorare a ritroso dall’hardware recuperato al rivenditore a cui è stato venduto per la prima volta”, aggiunge Upton.
Il produttore di computer ha superato molti dei suoi primi problemi iniziali. L’annuncio dei primi risultati come azienda quotata in borsa ha mostrato un aumento del 47% dell’utile semestrale per l’inizio del 2024, a un valore superiore alle attese di 34,2 milioni di dollari; e un aumento del 61% dei ricavi nello stesso periodo a 144 milioni di dollari.
Accelerare questa crescita in modo sostenibile è ciò che ora preoccupa l’amministratore delegato. Ammette che una delle sue maggiori preoccupazioni riguardo a un’ulteriore espansione è la gestione della crescita dell’organico e il suo timore che l’azienda ora quotata in borsa perda la sua dinamica imprenditoriale.
“Non siamo un’organizzazione orientata ai processi. Non siamo una grande organizzazione di meeting. Non siamo una grande organizzazione di PowerPoint”, afferma.
La britannicità rimane un aspetto fondamentale del marchio Raspberry Pi. Upton ha stretti legami con Cambridge, dove l’azienda è stata fondata e ha ancora sede. Ha conseguito la laurea in fisica e ingegneria, oltre a un diploma e un dottorato di ricerca in informatica. Ha poi avviato due attività di giochi per telefoni cellulari, prima di guidare Raspberry Pi.
Quasi tutti i dispositivi a scheda singola dell’azienda sono assemblati nello stabilimento di Sony nel sud del Galles, a sole quattro ore di auto dalla sua sede centrale. Ciò significa che se è necessario controllare la produzione, l’azienda può muoversi rapidamente. Upton descrive come si è tirato indietro da un’incursione iniziale nell’utilizzo di fabbriche a Shenzhen, in Cina, a causa di problemi nel mantenere il controllo della produzione.
“Potremmo farlo nella Silicon Valley. . . probabilmente potremmo farlo a Shenzhen, ma quando inizi a farlo in un posto devi continuare a farlo lì a causa dell’intensità della comunicazione dell’innovazione”.
Avere tutto insieme è importante anche perché Raspberry Pi sviluppa sia l’hardware che il software per l’esecuzione su di esso, afferma Upton.
“Abbiamo ancora tutta la nostra ingegneria su un unico piano. Metti insieme gli ingegneri del software e dell’hardware e loro parlano tra loro. Quindi è improbabile che ci sia un ufficio di ingegneria satellitare della Silicon Valley per Raspberry Pi”.
Tuttavia, di fronte alla recente decisione su dove quotare l’azienda, Upton ha quasi optato per gli Stati Uniti. Il mercato londinese ha faticato ad attrarre imprese tecnologiche ad alta crescita, mentre altre società britanniche, tra cui Arm, hanno spostato le loro quotazioni a New York.
“Data la scarsità di società deep tech quotate in borsa nel Regno Unito, in particolare all’indomani della partenza di Arm. . . c’era la preoccupazione che forse ci sarebbe stata una mancanza di conoscenze di dominio necessarie nella comunità degli analisti del Regno Unito”, afferma. “Fortunatamente non è stato così, e siamo stati molto fortunati con la qualità della copertura”.
Upton e il suo direttore finanziario, Richard Boult, hanno deciso di quotarsi a Londra piuttosto che a New York dopo che gli investitori incontrati durante un roadshow negli Stati Uniti hanno detto loro che non c’era “alcun divario multiplo significativo” nel modo in cui i gestori di fondi del Regno Unito e degli Stati Uniti avrebbero valutato la società. Erano anche preoccupati che la loro attività potesse cadere sotto il radar di analisti e investitori.
Quando Upton e Boult si sono separati all’aeroporto Logan di Boston “abbiamo concordato che il piano era cambiato a Londra”, dice l’amministratore delegato, osservando che è stata una decisione puramente commerciale, non guidata dal patriottismo o dall’attaccamento emotivo alla città in cui ha studiato. “La Gran Bretagna rimane un posto fantastico per farlo”.
Upton descrive la cultura dell’azienda come una cultura di “trasparenza”, con i dipendenti “estremamente responsabilizzati” per fare ciò che ritengono necessario.
Cita casi di studio dei suoi giorni come studente di Executive MBA presso la Cambridge Judge Business School su aziende che non sono riuscite a crescere perché non hanno dato abbastanza responsabilità al personale.
Attribuisce il merito al direttore non esecutivo, Sherry Coutu, fondatrice dello ScaleUp Institute, che è stata con Raspberry Pi da quando è scoppiata dalla fondazione nel 2012, di averlo incoraggiato a espandere il business più velocemente, sostenendo che ciò avrebbe portato benefici esponenzialmente maggiori.
“So che la crescita ha rendimenti non lineari. Potremmo arrivare a 250 persone e, a mio avviso, ciò porterebbe a quattro volte la quantità di affari che facciamo attualmente. Ma se parli con Sherry, sarà 10 volte”.
Upton ha anche utilizzato partnership con altre aziende tecnologiche, come la società di consulenza software spagnola Igalia, per far crescere le operazioni senza espandere il suo libro paga. Ma per farli funzionare dipende dall’assicurarsi le persone giuste. “Il rischio . . . è che il fornitore nel primo incontro propone dei bravi ragazzi che non si vedono mai più, quindi ci siamo concentrati sulla firma di accordi in cui manteniamo quei ragazzi come persone che lavorano per noi”.
Upton dice che non ha intenzione di rinunciare al proprio ruolo nell’azienda, anche se man mano che l’attività è cresciuta ha affidato più decisioni al suo direttore operativo. Crede che questo sia un segno che è cresciuto come leader. “Non sto guardando la porta, ma lo farei se non mi stessi cambiando”, dice Upton.