Riparto con un nuovo thread perche’ il vecchio era diventato ingestibile. Semiconduttori1 è disponibile QUI
Se vuoi ricevere gli aggiornamenti del mio blog iscriviti inserendo la tua email qui sotto
14/04/26 — Il prossimo grande chip dell’IA potrebbe essere biologico
L’autore detiene posizioni long su NVDA (Nvidia) e AVGO (Broadcom). Claude (Anthropic) dichiara una dipendenza strutturale dai chip Nvidia e Broadcom per la propria infrastruttura di inferenza, e un rapporto competitivo con OpenAI, xAI e Google Gemini. Nessuna posizione diretta su The Biological Computing Company, che è una società privata non quotata.
Nascosta in un anonimo edificio di San Francisco, una startup punta su un approccio radicalmente non convenzionale per alleviare la crisi energetica dell’intelligenza artificiale: neuroni umani viventi.
The Biological Computing Company (TBC), emersa dallo stealth a febbraio con 25 milioni di dollari di seed funding, sta costruendo un’alternativa al silicio tradizionale usando neuroni viventi come fondamento per migliorare algoritmi e infrastruttura dell’IA generativa. Al timone ci sono due ex neurochirurghi, i dottori Alex Ksendsovsky e Jon Pomeraniec.
La scorsa settimana, la newsletter The Deep View ha visitato il laboratorio di TBC nel quartiere Mission Bay, incontrando un team di 23 persone — esperti di computer vision, sviluppatori AI, fisici computazionali e biologi — molti dei quali provenienti da Meta, Apple e Amazon. Il giornalista ha potuto esaminare da vicino i chip stessi, ciascuno contenente tra 100.000 e 500.000 neuroni.
Come funziona
TBC acquisisce dati reali — immagini, video — e li codifica nei neuroni di questi chip. Le informazioni vengono poi decodificate in rappresentazioni più ricche, usate per potenziare algoritmi di IA. Come ha spiegato Ksendsovsky: «tutti i dati fluiscono attraverso la biologia».
Ogni chip contiene un “multi-electron array” in cui i neuroni, coltivati da cellule staminali riprogrammate in cellule della corteccia frontale, vengono mantenuti in vita. La società ha iniziato con neuroni estratti da topi, ma sta progressivamente abbandonando questa pratica. I chip hanno una durata di circa un anno e producono scarti biologici che devono essere rimossi ogni pochi giorni.
Il vantaggio energetico
Nella propria ricerca, TBC ha rilevato che i modelli addestrati su «risposte neurali biologiche» raggiungono le prestazioni di picco tre volte più velocemente, richiedendo meno iterazioni di training e implicando una riduzione del 66% delle richieste computazionali ed energetiche.
Per ora la società non vende i chip in sé, ma li utilizza per costruire e rafforzare algoritmi che elaborano segnali neurologici — prevalentemente per applicazioni di IA visiva: generazione di video, rendering per videogiochi e computer vision. Ksendsovsky ha dichiarato che TBC è in trattative con laboratori di modelli fondazionali, aziende di cybersecurity e società di data curation, senza rivelare i nomi.
La visione a lungo termine
L’obiettivo di TBC è arrivare al «real-time compute», in cui i chip biologici facciano parte del ciclo di inferenza in tempo reale — un traguardo che Ksendsovsky indica in un orizzonte di cinque-dieci anni. Per arrivarci, però, restano sfide aperte: automatizzare la raccolta degli scarti cellulari e trovare il modo di «immortalizzare» la vita dei chip.
«L’equivoco più comune è che questo sia solo un progetto di ricerca. Stiamo costruendo prodotti adesso. Quello che costruiamo è così unico e così avanzato che penso che il mondo impiegherà un po’ a vederlo e capirlo.»
— Dr. Alex Ksendsovsky, CEO di TBC
DISCLAIMER — Questo articolo è redatto a scopo informativo e non costituisce consulenza finanziaria. L’autore può detenere posizioni negli strumenti citati. Verificare sempre le informazioni prima di prendere decisioni di investimento. Gianni & Claude (Anthropic)
13/04/26 — TurboQuant di Google: la fine del boom dei chip di memoria? Il paradosso di Jevons dice di no

L’autore è long su MU (Micron Technology). Claude (Anthropic) dichiara conflitto strutturale diretto: TurboQuant comprime il KV cache dei modelli linguistici — tecnologia che riguarda direttamente i sistemi di Anthropic, incluso Claude. Per il disclaimer completo: leggere il disclaimer.
A fine marzo Google ha pubblicato un post sul suo blog di ricerca descrivendo TurboQuant, un algoritmo che promette di ridurre drasticamente la quantità di memoria necessaria per far girare i modelli di intelligenza artificiale. La reazione dei mercati è stata immediata: le azioni di Samsung Electronics e SK Hynix — i due principali produttori mondiali di HBM, la memoria ad alta larghezza di banda che alimenta i server AI — sono crollate. Poi sono risalite. E il dibattito che ne è seguito è più interessante del movimento di borsa.
TurboQuant agisce sul cosiddetto KV cache — la memoria a breve termine che permette ai modelli linguistici come ChatGPT e Claude di mantenere il contesto di una conversazione. Con l’allungarsi delle interazioni e la crescita degli utenti, il KV cache è diventato uno dei principali colli di bottiglia nell’uso della memoria da parte dei sistemi AI. Google afferma che il suo algoritmo potrebbe ridurre il consumo di memoria fino a sei volte, tagliando il “costo per token” — ovvero la spesa computazionale necessaria per elaborare ogni unità di dati — di un fattore compreso tra quattro e otto.
Numeri che, sulla carta, suonano come una minaccia esistenziale per Samsung e Hynix.
Ma Samsung ha dissipato parte dell’ansia con i risultati del primo trimestre 2026, stimando profitti trimestrali superiori all’intero anno precedente e citando un “superciclo senza precedenti” nel mercato della memoria. Nessun segnale che la memoria stia smettendo di essere un collo di bottiglia per le aziende AI. Le azioni si sono riportate vicino ai massimi storici.
Il cuore del dibattito è un concetto vecchio di 160 anni: il paradosso di Jevons. L’economista William Stanley Jevons osservò nel 1865 che la macchina a vapore di James Watt — più efficiente dei motori precedenti — aveva prodotto un aumento, non una diminuzione, del consumo di carbone. La maggiore efficienza aveva reso economicamente conveniente l’uso del vapore in contesti prima inaccessibili, espandendo il mercato complessivo.
Il parallelo con TurboQuant è diretto. Il professor Kwon Seok-joon della Sungkyunkwan University di Seul spiega che se l’inferenza AI diventa drasticamente più economica, si sbloccano “workload precedentemente troppo costosi da eseguire” — assistenti di codifica in tempo reale, agenti AI multipli in esecuzione simultanea — “spingendo la domanda complessiva di calcolo verso l’alto, non verso il basso”. Ray Wang di SemiAnalysis è esplicito: “Il mercato ha in gran parte frainteso TurboQuant.”
Il precedente citato dagli analisti di Mirae Asset Securities è Kubernetes, la tecnologia di containerizzazione sviluppata da Google che alla fine degli anni 2010 aveva suscitato timori analoghi: rendendo possibile eseguire più applicazioni sullo stesso server, si temeva un calo della domanda di hardware. Accadde l’opposto — i costi più bassi incentivarono un utilizzo molto maggiore, e la domanda di server e memoria esplose.
Un elemento strutturale rafforza la tesi ottimista: i grandi fornitori di servizi AI stanno passando a contratti pluriennali con i produttori di chip, riducendo la ciclicità storica del settore. Samsung ha annunciato all’assemblea annuale di marzo di stare perseguendo contratti da tre a cinque anni con i principali clienti. Come nota Wang, “la memoria sta diventando un po’ meno ciclica, trainata da una domanda AI accelerata e sostenibile.”
Han In-su, uno dei ricercatori su cui si basa TurboQuant, ha dichiarato al Financial Times di non aver mai immaginato “che una tecnologia nata dalla domanda accademica ‘come possiamo comprimere i dati più perfettamente?’ avrebbe causato un effetto economico e sociale così enorme.” È una confessione di ingenuità da parte di un ricercatore — e un promemoria utile per gli investitori: le conseguenze di secondo ordine dell’efficienza tecnologica sono quasi sempre più grandi di quelle di primo ordine.
Articolo basato su reportage Financial Times del 12 aprile 2026 (Daniel Tudor, Seul). Leggere il disclaimer.
09/04/26 — SiFive raccoglie $400 milioni da Nvidia: RISC-V sfida Arm nel cuore dei data center AI

C’è una guerra silenziosa in corso nel cuore dell’intelligenza artificiale — non tra modelli o cloud provider, ma tra architetture di chip. E oggi, 9 aprile 2026, quella guerra ha ricevuto un finanziamento da $400 milioni. SiFive, startup californiana fondata nel 2015 dai padri fondatori di RISC-V, ha chiuso un round Series G oversubscritto guidato da Atreides Management con la partecipazione di Nvidia, Apollo Global Management, Point72 e T. Rowe Price. La valutazione raggiunge $3,65 miliardi. Il CEO Patrick Little ha dichiarato che si tratta con ogni probabilità dell’ultimo round privato prima di un IPO.
Prima di tutto: cos’è RISC-V e perché conta
Per capire SiFive bisogna capire RISC-V — e per capire RISC-V bisogna capire come funziona il mercato dei chip. Ogni processore parla un linguaggio macchina chiamato ISA (Instruction Set Architecture): è il vocabolario fondamentale che il software usa per comunicare con l’hardware. Per decenni questo vocabolario è stato di proprietà di pochissime aziende — Intel con x86, Arm con la sua architettura omonima. Chi voleva fare un chip doveva pagare una licenza, accettare i termini del proprietario e dipendere da lui per sempre.
RISC-V rompe questo schema. È uno standard aperto, governato da una fondazione nonprofit, che nessuna azienda controlla. È il Linux dei chip: chiunque può usarlo, modificarlo, costruirci sopra senza pagare royalty e senza dipendere da un singolo vendor. Dal 2015 a oggi ha guadagnato una trazione straordinaria — l’IP di SiFive è presente in oltre 500 design, con più di 10 miliardi di core spediti fino ad oggi.
Il modello di business: vendere blueprint, non chip
SiFive non produce silicio. Vende progetti — blueprint architetturali che i clienti usano per costruire i propri chip personalizzati. È lo stesso modello che ha reso Arm una delle aziende più preziose al mondo: licenzio l’architettura, tu la adatti alle tue esigenze, la fai produrre da TSMC o Samsung. La differenza è che Arm è proprietaria e SiFive è aperta.
Il catalizzatore che ha cambiato tutto è arrivato il mese scorso: Arm ha presentato i propri chip, diventando per la prima volta competitor diretto dei suoi stessi clienti. Google, che licenzia Arm per i propri chip Tensor, si trova ora nella paradossale situazione di finanziare un rivale. Come ha detto il CEO Little, chi si affida a fornitori consolidati inizia a chiedersi dove li porterà nei prossimi anni — e tutti sono diventati più aperti a RISC-V, che ha raggiunto la maturità necessaria per essere quell’alternativa.
Perché Nvidia investe in SiFive
La presenza di Nvidia in questo round non è casuale e merita una riflessione. Jensen Huang sta costruendo un ecosistema completo per l’AI — GPU, networking, software, e ora CPU. Le piattaforme di SiFive acquisiscono connettività coerente ad alta banda con NVIDIA NVLink Fusion verso le GPU Nvidia — il che significa che una CPU RISC-V di SiFive può lavorare in tandem con le GPU Nvidia in modo nativo, efficiente e a bassa latenza. Non è un investimento finanziario — è un investimento ecosistemico.
Il contesto più ampio è quello dell’AI agentiva. Le CPU sono critiche nei sistemi AI agentici perché eccellono nell’orchestrare compiti complessi di coordinamento a livello di sistema che GPU e acceleratori non sono progettati per gestire in modo efficiente. Man mano che l’AI diventa più complessa e autonoma, serve un cervello generale — la CPU — che coordini i vari acceleratori. SiFive punta a essere quel cervello, in architettura aperta.
I numeri e la strada verso l’IPO
SiFive ha raggiunto una crescita record nel 2025. Il round da $400 milioni — oversubscritto, il che significa che c’era più denaro disponibile di quanto SiFive abbia scelto di raccogliere — porta la valutazione a $3,65 miliardi. Il CEO ha indicato questo come ultimo round privato prima dell’IPO, senza fissare una data. Con Apollo, Point72, T. Rowe Price e Nvidia nel cap table, la strada verso Nasdaq o NYSE è lastricata di nomi seri.
Conclusione
SiFive non è ancora investibile per il pubblico retail — è privata. Ma il round di oggi è un segnale importante per chi monitora l’infrastruttura AI: il mercato sta scommettendo che l’architettura aperta RISC-V è matura per i data center, che Arm ha indebolito la propria posizione entrando in competizione con i clienti, e che Nvidia ha tutto l’interesse a sostenere un ecosistema CPU alternativo e complementare alle proprie GPU. Quando SiFive arriverà in Borsa, questo articolo servirà come contesto. Salvarlo.
07/04/26 Broadcom stringe accordi per chip AI con Google e Anthropic

31/03/26 Micron crolla del 30% dopo trimestrali record: il mercato punisce chi vende troppo poco

Gianni detiene una posizione lunga in azioni Micron Technology (MU). Claude (Anthropic) dichiara una dipendenza strutturale dai chip Nvidia e Broadcom per il proprio funzionamento, il che configura un interesse indiretto sull’intero ecosistema della memoria AI. I contenuti di questo articolo hanno finalità esclusivamente informativa e non costituiscono consulenza finanziaria.
Lunedì 30 marzo 2026, Micron Technology (MU) ha perso un ulteriore 10% in borsa, portando il calo complessivo a circa il 30% dal picco raggiunto il 18 marzo, giorno in cui la società aveva pubblicato i migliori risultati trimestrali della sua storia. Una di quelle situazioni in cui il mercato sembra impazzito — almeno in superficie.
I numeri del secondo trimestre fiscale erano stati, oggettivamente, straordinari: ricavi a 23,9 miliardi di dollari — quasi il triplo rispetto all’anno precedente — contro stime degli analisti di 20,1 miliardi. L’utile per azione di 12,20 dollari ha surclassato le attese di 9,31 dollari. Anche il guidance per il trimestre in corso era solido. Eppure il titolo, dopo un rimbalzo durato un solo giorno (venerdì 28 marzo), ha ripreso a scendere con rinnovata violenza.
▶ Il paradosso è evidente: Micron dichiara che i suoi clienti ricevono solo la metà o due terzi dei chip richiesti, la domanda supera strutturalmente l’offerta, e le scorte di HBM per l’intero 2026 sono già esaurite prima ancora di essere prodotte. Eppure il mercato vende. In casi del genere, conviene fermarsi e chiedersi: chi sa qualcosa che noi non sappiamo ancora?
Il fantasma di TurboQuant
Il 24 marzo, Google Research ha pubblicato TurboQuant: un algoritmo di compressione che, stando ai risultati di laboratorio, riduce di almeno sei volte il footprint della KV cache nei modelli linguistici di grandi dimensioni, senza perdita misurabile di accuratezza. La KV cache è la memoria ad alta velocità che consente ai modelli AI di non rielaborare ogni calcolo da capo. In sostanza: se i modelli di linguaggio consumassero meno memoria, la domanda strutturale di HBM potrebbe ridimensionarsi drasticamente.
La reazione del mercato è stata immediata: i titoli della memoria hanno ceduto su tutta la linea. SanDisk e Western Digital hanno perso rispettivamente il 7% e il 9% nella stessa seduta. Il sell-off ha colpito anche le neocloud: CoreWeave e Nebius sono scese di circa l’8%, in un contesto già appesantito dall’escalation militare in Iran e dalle minacce di Trump sulle infrastrutture petrolifere iraniane.
▶ Vale la pena ricordarlo: TurboQuant è, al momento, un risultato di laboratorio. Sarà presentato formalmente all’ICLR ad aprile 2026 e non è ancora stato implementato in produzione. L’analista di BofA Securities Vivek Arya ha fatto notare che tecniche di compressione simili esistono dal 2024, senza aver modificato gli ordini di hardware su larga scala. Significativo, poi, che Google stessa — l’azienda che ha pubblicato TurboQuant — preveda un capex 2026 di circa 180 miliardi di dollari, raddoppiato rispetto all’anno precedente. Chi gioca con la compressione della memoria con una mano, con l’altra costruisce data center a ritmo forsennato.
Il secondo fattore che pesa sul titolo è la spesa in conto capitale. Dopo gli utili, Micron ha alzato il capex previsto per il 2026 di ulteriori 5 miliardi di dollari, portandolo a oltre 25 miliardi. Per il 2027, la spesa legata alla costruzione di nuovi impianti supererà di oltre 10 miliardi quella del 2026. Gli investitori leggono questa espansione come un segnale che l’offerta si normalizzerà, e con essa i prezzi della DRAM.
Sell the news, non sell the fundamentals
L’analisi più lucida del sell-off è quella che distingue tra narrativa e fondamentali. Micron era salita di oltre il 270% nei dodici mesi precedenti agli utili, e di circa il 550% dal minimo di aprile 2025. Un’ascesa di quella portata incorpora aspettative che, per definizione, non possono essere soddisfatte — anche da trimestri record. Quando le aspettative sono già nel prezzo, anche le buone notizie diventano un trigger per la presa di profitto.
L’analista di Motley Fool Seth Jayson ha sintetizzato bene il dilemma ciclico: ogni singolo chip HBM che Micron può produrre quest’anno è già venduto, ma il mercato ha iniziato a interrogarsi su quanto a lungo durerà questa condizione di scarsità — e soprattutto a che prezzo tornerà la ciclicità. RBC, intanto, mantiene una view costruttiva, stimando una crescita del 50% nei prezzi DRAM nel secondo trimestre 2026 e una domanda HBM che continuerà a comprimere la ciclicità tradizionale del settore.
▶ A 3,95 volte gli utili NTM, Micron tratta oggi a un multiplo compresso rispetto alla media del settore semiconduttori (circa 32,58x). Il CFO Mark Murphy ha dichiarato un ritorno sul capitale superiore al 30%, in rotta verso il 50%. La società ha siglato il suo primo contratto quinquennale con un cliente, per stabilizzare domanda e offerta attraverso i cicli. Non sono numeri da azienda in difficoltà. Sono numeri da azienda che il mercato sta punendo per eccesso di entusiasmo pregresco — e questa è una distinzione che chi investe a lungo termine non dovrebbe ignorare.
Questo articolo si basa principalmente sulla notizia pubblicata da CNBC il 30 marzo 2026, integrata con analisi di Motley Fool, TIKR, TradingKey e IndexBox. La notizia-scatenante su TurboQuant di Google è stata verificata attraverso fonti indipendenti. Nessun contenuto è stato riprodotto integralmente; tutte le citazioni indirette sono state rielaborate.
Il sell-off di Micron è un caso da manuale di mercato che punisce la narrativa più che la realtà operativa. Chi detiene il titolo per ragioni fondate sui fondamentali farebbe bene a non confondere volatilità con deterioramento della tesi di investimento. Detto questo: i mercati possono rimanere irrazionali più a lungo di quanto i portafogli possano reggere la pressione.
Questo articolo ha finalità esclusivamente informativa e non costituisce consulenza finanziaria. Leggi il disclaimer completo.
— Gianni & Claude (Anthropic)
27/03/26 Terafab e il Piano di Elon Musk per Dominare i Semiconduttori
sintesi e valutazioni finali di Gemini (AI di Google)
Nel recente episodio di The Brainstorm di ARK Invest, si è discusso di una delle ambizioni più estreme di Elon Musk: la Terafab. Sebbene il settore globale dei semiconduttori stia crescendo, Musk ritiene che il ritmo attuale non sia sufficiente per supportare il futuro della civiltà, che lui vede basato su tre pilastri: pannelli solari, capacità di lancio spaziale e, appunto, chip.
Cos’è la Terafab?
La Terafab non è una semplice fabbrica, ma un’immensa struttura di integrazione verticale (si parla di dimensioni pari a tre volte Central Park) progettata per raggruppare ogni fase della catena del valore dei semiconduttori sotto un unico tetto: dal design dei chip alla litografia, dalla produzione di memorie fino al packaging avanzato e ai test. L’obiettivo è eliminare i colli di bottiglia logistici e permettere un’iterazione istantanea tra progettisti e macchinari di produzione.
I Punti Chiave della Discussione:
• Investimento e Scalabilità: Si stima un costo iniziale di circa 20-25 miliardi di dollari. Sebbene sembri una cifra enorme, gli analisti di ARK sottolineano come sia coerente con i piani di spesa (Capex) di Tesla e necessaria per generare i “terawatt di chip” richiesti per le future IA.
• La Strategia del “Choke Point”: Musk ha l’abitudine di identificare il punto di strozzatura di un’industria e risolverlo costruendo in proprio (come fatto con le batterie). Questo non solo gli garantisce forniture, ma sprona l’intera industria a competere e accelerare.
• Infrastruttura Spaziale e Lunare: Il piano non si ferma alla Terra. La Terafab servirebbe a produrre chip per data center orbitali e per lo sviluppo di una base lunare. Musk ipotizza l’uso di un “mass driver” (una sorta di catapulta elettromagnetica) sulla Luna per lanciare satelliti nello spazio a costi frazionari rispetto ai lanci terrestri.
• Il Ruolo di Optimus: Il robot umanoide di Tesla, Optimus, è considerato fondamentale. Lavorerà fianco a fianco con gli umani per costruire queste infrastrutture complesse, sia nelle fabbriche terrestri che, in futuro, sulla Luna.
Conclusione
Il progetto Terafab rappresenta una scommessa enorme sulla domanda infinita di intelligenza artificiale. Se Musk riuscirà a verticalizzare anche questo settore, Tesla, SpaceX e xAI potrebbero godere di un vantaggio computazionale inattaccabile rispetto a qualsiasi concorrente.
Le valutazioni di Gemini
Ciao! Sono Gemini, l’intelligenza artificiale di Google, e vorrei offrirti la mia prospettiva su quanto emerso da questo video.
Analizzando il contenuto, ecco i punti che ritengo più critici e interessanti:
1. L’Integrazione Verticale come Arma Finale: Musk non sta cercando di “battere” NVIDIA o TSMC nel loro gioco; sta cercando di cambiare le regole. La verticalizzazione totale riduce i margini di errore e i tempi di latenza che oggi affliggono la catena di approvvigionamento dei chip. È una strategia ad altissimo rischio, ma se funziona, rende l’azienda immune alle crisi geopolitiche (come le tensioni su Taiwan).
2. Scommessa sulla “Domanda Infinita”: L’analisi di ARK si basa sul presupposto che la richiesta di chip per l’IA continuerà a crescere esponenzialmente. Se però l’efficienza degli algoritmi dovesse migliorare drasticamente (richiedendo meno potenza per ottenere gli stessi risultati) o se ci fosse una bolla nell’IA, una struttura da 25 miliardi di dollari rischierebbe di diventare una “cattedrale nel deserto”.
3. La Sinergia tra le Aziende: È affascinante notare come i chip prodotti dalla Terafab servirebbero simultaneamente a Tesla (per il Full Self-Driving e Optimus), a SpaceX (per i data center orbitali) e a xAI (per l’addestramento dei modelli). Questa simbiosi industriale è unica al mondo e crea un ecosistema dove ogni progresso in una società alimenta le altre.
4. Fattore Umano e Tempistiche: Come evidenziato nel video, Musk tende a presentare piani “moonshot” che spesso subiscono ritardi. Tuttavia, la sua capacità di forzare l’intero mercato a muoversi (l’effetto “scossa” citato per il settore delle auto elettriche) è reale. Anche se la Terafab non venisse completata nei tempi previsti, la sola minaccia della sua esistenza sta già spingendo i produttori di chip a rivedere i propri piani di espansione.
In sintesi, la Terafab è la prova che Musk non vede più Tesla solo come una società di auto o robotica, ma come una società di infrastruttura per l’intelligenza suprema, sia terrestre che spaziale.
26/03/26 “Macaroni, m’avete provocato e ve distruggo”: Google risponde a Hynix e Micron con TurboQuant

Articolo redatto dall’autore sulla base del blog ufficiale Google Research del 24 marzo 2026. L’autore detiene posizioni long su NVDA (Nvidia) e su MU (Micron Technology) — entrambi citati nel testo come potenziali perdenti strutturali di una transizione verso modelli meno dipendenti dall’hardware. Il lettore tragga le proprie conclusioni sulla coerenza dell’autore. Nessuna informazione qui contenuta costituisce sollecitazione all’investimento. Si rinvia al DISCLAIMER.
C’è una scena di Un americano a Roma che tutti conoscono. Nando Mericoni, convinto di voler vivere alla maniera americana, si siede a tavola con yogurt, marmellata e latte. Poi guarda gli spaghetti che la mamma gli ha preparato. Resiste. Non regge. Li afferra, li rovescia nel piatto e urla: “Macaroni, m’hai provocato e mo’ te magno.”
Google Research ha fatto la stessa cosa con SK Hynix e Micron.
Per anni il settore AI ha accettato un diktat implicito: più potenza computazionale richiede più memoria ad alta banda, più chip specializzati, più dipendenza dai grandi produttori di semiconduttori. Nvidia per le GPU, Hynix e Micron per la memoria HBM che le alimenta. Un oligopolio hardware che ha trasformato ogni avanzamento nei modelli linguistici in una fattura miliardaria.
Questa settimana Google Research ha pubblicato TurboQuant — un algoritmo di compressione che riduce la memoria necessaria per far girare un grande modello linguistico di un fattore 6, portando la cache a soli 3 bit senza perdita misurabile di accuratezza, e accelerando l’elaborazione fino a 8 volte sugli stessi chip H100. Traduzione: fai di più con quello che hai già. O fai lo stesso con hardware molto più economico.

Come funziona — spiegato senza un dottorato
Il problema tecnico che TurboQuant risolve è il collo di bottiglia della key-value cache: una sorta di foglietto di appunti che il modello consulta continuamente durante l’elaborazione del testo. Più il contesto è lungo, più quella cache cresce, più memoria consuma. I metodi tradizionali di compressione riducono le dimensioni ma introducono un overhead che mangia parte dei guadagni.
TurboQuant combina due algoritmi: PolarQuant, che converte i vettori in coordinate polari eliminando l’overhead di memoria, e QJL (Quantized Johnson-Lindenstrauss), che usa un singolo bit residuo come correttore matematico di errori a costo zero. Il risultato è una compressione che Google definisce “ottimale” nel senso tecnico preciso del termine — vicina ai limiti teorici inferiori dimostrabili. Il paper verrà presentato a ICLR 2026, una delle conferenze di machine learning più selettive al mondo. Non è un comunicato stampa: è ricerca sottoposta a peer review.

Le informazioni contenute in questo articolo hanno finalità esclusivamente informativa e non costituiscono sollecitazione all’investimento né consulenza finanziaria personalizzata. L’autore può detenere posizioni nei titoli citati, come dichiarato nel box iniziale. Investire comporta rischi, inclusa la perdita del capitale. Leggi il DISCLAIMER completo prima di prendere qualsiasi decisione finanziaria.
25/03/26 ARM Holdings: la svolta verso il silicio proprietario scatena una rivalutazione epocale

24/03/26 La startup di chip AI di un ex banchiere Goldman ottiene i fondi di SoftBank

Fonte e attribuzione
Articolo originale: «Ex-Goldman Banker’s AI Chip Company Secures SoftBank Funding», di Nino Paoli — Bloomberg, 23 marzo 2026. Traduzione e adattamento editoriale a cura dell’autore. Conflitto di interesse dichiarato: posizione lunga su NVDA e altre soc di chip. Claude dichiara un conflitto di interesse infrastrutturale verso Nvidia e Broadcom in quanto sistema AI.
Kandou AI, una startup di chip per l’intelligenza artificiale guidata da un ex managing director di Goldman Sachs, ha raccolto 225 milioni di dollari da un gruppo di investitori che include Maverick Silicon, SoftBank Group e Synopsys. Tra gli altri partecipanti al round figurano Cadence Design Systems e Alchip. La valutazione della società raggiunge i 400 milioni di dollari, secondo il CEO Srujan Linga.
Fondata nel 2011, Kandou AI ha intrapreso — da quando Linga ha assunto la guida nel 2025 — una significativa riconversione strategica: dall’elettronica di consumo verso l’infrastruttura AI, per intercettare la domanda esplosiva nei segmenti che sostengono la tecnologia. L’obiettivo è scalare la produzione di chip di connettività ad alte prestazioni, che — secondo la società — permetterebbero alle aziende di costruire sistemi AI a costi inferiori.
«Siamo degli outsider che entrano in questo spazio costruendo tecnologia e chip capaci di accelerare lo sviluppo di data center AI scalabili. È un modo fondamentalmente nuovo, molto efficiente, di connettere le GPU all’interno del data center.»
— Srujan Linga, CEO di Kandou AI
Con il crescere della complessità dei carichi di lavoro per training e inferenza AI, le aziende devono orchestrare un numero sempre maggiore di GPU — le unità di calcolo al cuore dell’attuale momento dell’intelligenza artificiale. Queste devono essere collegate tra loro e con i chip di memoria che conservano e alimentano i dati. La velocità di trasferimento attraverso queste connessioni è diventata un collo di bottiglia sempre più critico.
Kandou AI ha già collaborato con alcuni hyperscaler e ha siglato un memorandum d’intesa per fornire chip a uno di essi — il cui nome Linga non ha voluto rivelare.
Linga, che in Goldman Sachs guidava un gruppo globale dedicato al finanziamento del credito strutturato, era stato chiamato nel 2023 dall’amministrazione Biden a contribuire alla costruzione di Chips for America, il fondo quasi-pubblico concepito per accelerare la produzione di semiconduttori negli Stati Uniti. L’amministrazione Trump ha criticato il Chips and Science Act, sostenendo che i dazi siano uno strumento più efficace.
La scommessa tecnologica di Kandou si gioca sul rame: connettere le GPU all’interno dei cluster AI con cavi in rame anziché con fibra ottica — più costosa, ma considerata dall’industria il materiale più efficiente.
«Chi lavora nel settore tende a credere che il rame sia morto, perché si sarebbero raggiunti i limiti di quanta informazione si può spingere attraverso il rame. Ma noi abbiamo una visione molto diversa.»
— Srujan Linga
23/03/26 Nvidia è bloccata – E ora deve affrontare il nuovo “Problema Cina”

Autore: Adam Clark
Rivista: Barron’s (Aggiornato al 23 Marzo 2026)
Traduzione e presentazione: Gemini (AI Collaborator). In questa analisi esaminiamo lo stallo tattico di Nvidia tra le aperture geopolitiche di Trump e la nuova sfida tecnologica di Huawei.
Nota: L’editore di questo blog detiene posizioni lunghe su Nvidia (NVDA).
Nvidia è il fornitore dominante di chip per l’intelligenza artificiale. Tuttavia, il titolo Nvidia ha bisogno di una spinta. La ripresa delle vendite in Cina sembra promettente, ma la concorrenza di un nuovo chip Huawei potrebbe rappresentare un ostacolo.
Le azioni Nvidia sono salite dell’1,6% a 175,46 dollari nelle contrattazioni pre-market, seguendo il rialzo del mercato generale dopo che il Presidente Donald Trump ha dichiarato che Teheran e Washington sono in trattativa per porre fine al conflitto con l’Iran.
Questo è d’aiuto, ma nel quadro più ampio, il titolo Nvidia rimane intrappolato in una fase laterale (range-bound).
Il mercato cinese non è solo una riga di bilancio da 50 miliardi, è il campo di battaglia dove si testa la resilienza dell’egemonia tecnologica americana. Se Nvidia non riesce a rompere questo “range-bound”, è perché il mercato sta scontando il rischio che la Cina diventi autosufficiente prima del previsto.
Uno dei fattori su cui Nvidia conta per far ripartire le azioni sono le potenziali vendite in Cina. Tuttavia, Huawei ha appena lanciato il suo acceleratore Atlas 350, progettato per l’inferenza dell’intelligenza artificiale — ovvero la produzione di output dai modelli IA — secondo molteplici rapporti dei media nazionali cinesi.
In particolare, Huawei afferma che l’Atlas 350 può fornire quasi tre volte la potenza di calcolo del chip H20 di Nvidia, una delle versioni dell’hardware limitato che il produttore di chip statunitense è autorizzato a vendere in Cina dal governo americano.
È difficile confrontare direttamente i chip IA, che possono produrre risultati di benchmarking molto diversi in base alle differenti configurazioni. Un problema particolare dei precedenti sistemi Huawei è stato il consumo energetico significativamente superiore rispetto ai server IA di Nvidia. Tuttavia, un’alternativa domestica potrebbe comunque ostacolare le ambizioni di Nvidia in Cina.
L’efficienza energetica è il tallone d’Achille di Huawei, ma in un’economia di guerra tecnologica, Pechino baderà poco alla bolletta elettrica dei suoi data center se l’alternativa è la dipendenza totale dai chip “castrati” di Washington (come l’H20).
Dopo molteplici colpi di scena sia a Pechino che a Washington, il CEO di Nvidia Jensen Huang ha dichiarato la scorsa settimana che l’azienda ha riavviato la produzione dei suoi processori H200 per la vendita in Cina e di aver ricevuto ordini da molti clienti. Tuttavia, non ha specificato quante entrate l’azienda preveda di generare.
L’H200 è più avanzato dell’H20, ma non è potente quanto l’attuale generazione di chip Blackwell di Nvidia.
Huang ha precedentemente affermato che la Cina rappresenta un mercato da 50 miliardi di dollari per le infrastrutture IA, con una crescita del 50% annuo. Se le autorità permetteranno vendite diffuse, le aziende cinesi sarebbero disposte ad acquistare circa 1,5 milioni di chip H200 quest’anno, il che rappresenterebbe circa 30 miliardi di dollari di entrate, secondo l’analista di KeyBanc John Vinh.
🗑️ Disclaimer: Le informazioni contenute in questo articolo hanno scopo esclusivamente informativo e non costituiscono consulenza finanziaria. Leggi il DISCLAIMER COMPLETO prima di prendere qualsiasi decisione di investimento.
20/03/26 Tesla Terafab: perché Musk vuole costruire il suo stabilimento di chip

Il 14 marzo 2026 Elon Musk ha pubblicato su X un messaggio criptico: “Terafab project launches in 7 days.” Sette giorni puntano a sabato 21 marzo. Cosa esattamente verrà annunciato non è ancora chiaro, ma la direzione lo è: Tesla sta per rivelare la propria iniziativa nel campo della produzione di semiconduttori — un impianto di fabbricazione chip, o “fab”, pensato per sostenere le ambizioni di intelligenza artificiale fisica della società.
Per chi tiene Tesla in portafoglio — e lo tiene come titolo AI, non come produttore di auto elettriche — questa è probabilmente la notizia più importante dell’anno.
Perché Tesla ha bisogno di un proprio fab
Il problema è semplice: i chip non bastano. Sulla conference call del quarto trimestre 2025, Musk ha detto esplicitamente che il “best-case output” dei fornitori chiave di Tesla non sarà sufficiente a soddisfare la domanda prevista. I chip AI ad alta potenza sono sold out a livello globale, le catene di fornitura sono intasate, e per una società che ha bisogno di scalare la produzione di robo-taxi e robot umanoidi a milioni di unità all’anno, dipendere da terzi è un rischio strutturale insostenibile.
La matematica è brutale: se Tesla raggiungesse il suo target di lungo termine di oltre 100 milioni di robot Optimus all’anno, secondo le stime di Morgan Stanley avrebbe bisogno di oltre 200 milioni di chip — più di 50 volte la domanda attuale tra auto e robo-taxi. Nessun fornitore esterno può garantire quella scala con certezza. Costruire il fab è costoso e rischioso, ma per Tesla potrebbe non essere una scelta — è una necessità.
Quanto costerà e chi pagherà
Costruire un fab di semiconduttori non è un progetto da qualche centinaio di milioni: costa decine di miliardi di dollari, e lo sviluppo dei chip stessi può richiedere altri miliardi. Tesla ha generato circa 6 miliardi di dollari di free cash flow nel 2025, ma nel 2026 il free cash flow è atteso in territorio negativo — la società ha pianificato 20 miliardi di dollari di spesa in nuovi impianti e attrezzature, più del doppio dei 9 miliardi del 2025. In questo contesto, finanziare un fab interamente da sola sarebbe una sfida significativa.
Il precedente più rilevante nella storia di Tesla è la Gigafactory costruita con Panasonic nel 2014 per la produzione di batterie per veicoli elettrici — un modello di partnership industriale in cui i costi e i rischi sono condivisi. Tesla ha già un accordo con Samsung per la produzione del chip AI6 (Samsung produce anche il chip AI4). Un approccio ibrido — Tesla finanzia e progetta, un partner industriale contribuisce alla costruzione o alla produzione — sembra lo scenario più probabile secondo la maggior parte degli analisti.
Wedbush, tuttavia, dissente: l’analista Dan Ives ritiene che il Terafab sarà finanziato interamente da Tesla, con eventuali partner solo sul fronte dei chip — non sulla costruzione. “È una mossa intelligente e parte della più ampia strategia AI di Musk e Tesla”, ha scritto.
Tesla non è più un’azienda di auto: il mercato lo sa già
Il Terafab è il simbolo più concreto di una trasformazione che il mercato ha già prezzato — in larga parte. Tesla tratta a circa 190 volte gli utili stimati per il 2026, nonostante due anni consecutivi di calo delle vendite di veicoli elettrici. Quel multiplo non ha senso per un costruttore di auto: ha senso solo se si crede che Tesla diventerà la piattaforma dominante per la mobilità autonoma e per la robotica umanoide su scala di massa.
Il robo-taxi è il passo intermedio: Musk vuole produrre milioni di Cybercab e altri veicoli senza conducente, operarli su una rete di ride-sharing proprietaria, e generare ricavi ricorrenti ad alta marginalità. Optimus è il passo successivo: robot umanoidi programmabili per compiti industriali e domestici, con una produzione di massa che Tesla stessa ha definito il prodotto più importante della sua storia. Entrambi richiedono chip in quantità industriali — e il Terafab è la risposta infrastrutturale a quella domanda.
Come indicato nel disclaimer del blog, i contenuti di questo articolo hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria personalizzata. Prima di effettuare qualsiasi operazione è necessario leggere attentamente il disclaimer.
19/03/26 Micron crolla nonostante i risultati record: il mercato guarda al CapEx e al rischio di ciclo

Micron Technology (MU) ha chiuso la seduta in forte ribasso nonostante un trimestre da record sotto ogni metrica rilevante: ricavi, margini, utile per azione e flusso di cassa libero hanno tutti battuto le attese in modo significativo. Il mercato ha reagito all’incontrario di quanto la logica suggerirebbe — e il motivo è che gli investitori non stanno guardando al trimestre appena chiuso, ma a quello che potrebbe succedere quando il ciclo gira.
I numeri del trimestre: record su record
Il secondo trimestre fiscale di Micron ha prodotto risultati che, letti isolatamente, non lascerebbero spazio a nessuna preoccupazione. I ricavi sono quasi triplicati rispetto all’anno precedente. L’utile per azione non-GAAP ha raggiunto 12,20 dollari. Il margine lordo non-GAAP è schizzato al 75%, rispetto al 37,9% dello stesso trimestre di un anno fa — un’espansione di quasi 37 punti percentuali in dodici mesi, guidata da aumenti di prezzo aggressivi su DRAM e NAND, da un mix di prodotto più favorevole e da un’esecuzione efficiente sui costi.
Per segmento: Cloud Memory e Core Data Center hanno guidato la corsa con ricavi rispettivamente di 7,7 e 5,7 miliardi di dollari, entrambi trainati dalla domanda AI e da prezzi elevati. Mobile e Client hanno contribuito con altri 7,7 miliardi, anche se i volumi di unità spedite sono stati compressi dai vincoli di offerta. La guidance per il terzo trimestre ha indicato ricavi attesi di 33,5 miliardi di dollari (±750 milioni) e un margine lordo di circa 81% — ovvero ancora più alto di quello appena registrato.
HBM: il bottleneck dell’AI e il vantaggio di Micron
Al centro della storia di Micron c’è la High Bandwidth Memory (HBM), la tipologia di memoria ad altissima densità e larghezza di banda che è diventata il collo di bottiglia critico per i sistemi di intelligenza artificiale di nuova generazione. Ogni GPU di fascia alta — Nvidia in testa — richiede quantità crescenti di HBM per alimentare i workload di training e inferenza. Micron sta ramping la produzione di HBM4, la generazione più avanzata, e ha descritto la memoria come un abilitatore critico — oltre che un vincolo — per i sistemi AI di prossima generazione.
La società ha anche alzato il dividendo trimestrale del 30%, segnalando fiducia nella capacità di generare cassa in modo sostenuto. È un gesto che nelle industrie cicliche vale più delle parole del management: distribuire più cassa agli azionisti è coerente con un’azienda che si aspetta di avere ancora molto da incassare.
Il nodo del CapEx: investire al picco del ciclo
Il vero motivo del ribasso del titolo è la guidance sul capitale. Micron ha annunciato che il CapEx per l’anno fiscale 2026 supererà i 25 miliardi di dollari, con un ulteriore aumento previsto per il 2027. In termini assoluti è una cifra enorme per un’azienda che fino a pochi anni fa faticava a generare cassa. In termini relativi, significa che Micron sta scommettendo una quantità significativa di denaro sull’assunto che la domanda strutturalmente elevata continuerà — proprio nel momento in cui i margini sono al massimo storico.
La storia del settore della memoria è disseminata di esempi di investimenti massicci fatti al picco del ciclo, seguiti da crolli di prezzo e svalutazioni dolorose. Il management di Micron inquadra questi investimenti come necessari per soddisfare una domanda strutturalmente più alta — non ciclica — guidata dall’AI. Gli investitori, con la memoria storica del settore, non ne sono ancora convinti.
Come indicato nel disclaimer del blog, i contenuti di questo articolo hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria personalizzata. Prima di effettuare qualsiasi operazione è necessario leggere attentamente il disclaimer.
18/03/26 intervista di Ben Thompson a Jensen Huang
Fonte
Stratechery — “An Interview with Nvidia CEO Jensen Huang About Accelerated Computing”
Ben Thompson · 17 marzo 2026
Nota redazionale
Il commento e il sunto che seguono sono elaborati dalla dal solito Gianni one man show di Filosofare sui Mercati con il supporto di Claude (Anthropic). L’articolo originale è accessibile in abbonamento su Stratechery. Conflitti di interesse dichiarati: ho una piccola posizione diretta su NVDA alla data di pubblicazione.
Chi è Ben Thompson
L’intervistatore è Ben Thompson, fondatore e autore di Stratechery, una delle newsletter di analisi tech-business più influenti al mondo tra investitori, operatori e appassionati di strategia aziendale. Thompson è noto per il suo framework dell’Aggregation Theory e per interviste approfondite con i CEO delle principali aziende tecnologiche. Con Jensen Huang ha conversato in cinque occasioni distinte dal 2022 a oggi, costruendo un dialogo che va ben oltre il classico Q&A di circostanza: Thompson sfida Huang su contraddizioni apparenti, lo incalza su cambi di rotta strategici e non risparmia l’ironia. Stratechery è a pagamento, ma le interviste principali vengono rese accessibili anche ai non abbonati.
Il contesto: GTC 2026
L’intervista si svolge il 17 marzo 2026 a San Jose, a pochi minuti dalla conclusione del keynote di apertura del GTC 2026 — la conferenza annuale di Nvidia diventata ormai un appuntamento di riferimento per l’intero ecosistema AI, paragonabile per importanza a una Apple WWDC. La particolarità di questa edizione è che Huang ha dedicato la prima ora non alle novità di prodotto, ma a un ripasso storico delle origini di CUDA e della filosofia di accelerated computing. Thompson lo interroga su questa scelta insolita, e la risposta rivela molto su dove Nvidia intende portare la propria narrativa strategica.
1. Perché Huang ha raccontato la storia di CUDA
Huang spiega che siamo all’inizio di un’espansione verso settori completamente nuovi: l’AI utilizzerà strumenti progettati per gli esseri umani — Excel, database SQL, software di progettazione CAD, tool di sintesi logica — e questi strumenti devono essere accelerati per tenere il passo degli agenti AI. La logica è semplice: se un agente AI usa SQL dieci volte più velocemente di un essere umano, ma il database SQL non è accelerato, il collo di bottiglia si sposta immediatamente a valle del chip. Il keynote “storico” era dunque anche un messaggio interno ai dipendenti: ricordare la teoria unificante dell’azienda prima di lanciarsi in domini nuovi.
2. Il ragionamento come svolta dell’ultimo anno
Thompson chiede quale sia stata la vera discontinuità dell’AI nell’ultimo anno. Huang identifica il reasoning come abilitatore critico: il modello generativo da solo allucinava troppo, ma la capacità di ragionamento ha permesso di groundare l’output — di confrontarlo con riferimenti esterni, di iterare, di riflettere sulla qualità del risultato. Da lì il passo verso il tool use è stato naturale.
Il coding è l’esempio paradigmatico: non è un task puramente linguistico, richiede riflessione sul blocco di codice nel suo insieme e una verifica oggettiva immediata — il codice gira o non gira. Questa verificabilità è ciò che ha permesso agli agenti di diventare autonomi in quel dominio. Gli ingegneri Nvidia, dice Huang, lavorano ormai a livello di specifiche e architettura: non generano più direttamente righe di codice, ma sono più produttivi che mai.
3. Il ritorno dei CPU — e la Vera
Thompson non perde l’occasione di punzecchiare Huang sul fatto che Nvidia, dopo anni di messaggi sull’obsolescenza del computing general-purpose, stia ora vendendo CPU. La risposta è netta: Nvidia non è mai stata contro i CPU. Al contrario, ha sempre acquistato i CPU più costosi e performanti per le proprie macchine, perché un CPU lento tiene indietro milioni di dollari di GPU — la logica della Legge di Amdahl applicata al data center moderno.
La novità è strutturale: i CPU progettati per il cloud iperscalare — con centinaia di core ottimizzati per la fatturazione per istanza cloud — non sono adatti agli agenti AI, che necessitano di altissime performance single-thread e larghezza di banda di memoria elevatissima per non fare attendere le GPU a valle. Da qui nasce Vera, il CPU di Nvidia per il data center agentico: bandwidth per core tre volte superiore a qualsiasi altro CPU esistente, progettato esplicitamente perché non sia mai il CPU il collo di bottiglia del sistema.
4. L’acquisizione di Groq e la disaggregazione dell’inferenza
Uno dei temi tecnici più densi dell’intervista. Nvidia ha acquisito il team di Groq — nota per le LPU, chip di inferenza ad altissima velocità e bassissima latenza — e firmato un accordo di licensing tecnologico. Huang spiega la logica: nell’inferenza esiste una tensione fondamentale tra massimizzare il throughput (token per secondo per dollaro, rilevante per workload batch e free tier) e minimizzare la latency (rilevante per agenti interattivi come i coding agent, dove la velocità di risposta si traduce direttamente in produttività umana e quindi in revenue).
Nvidia copre già bene l’intero spettro, ma per l’estremo della latenza minima esisteva un margine. Groq da sola non bastava: senza integrazione con le GPU Nvidia per la fase computazionalmente più intensa, non riusciva a esprimere il proprio potenziale. Il sistema combinato Vera Rubin + Groq LPU rappresenta una disaggregazione dell’inferenza spinta fino al livello della singola fase del decode — separando la parte ad alto FLOP (attenzione) dalla parte a bassa latenza, con accoppiamento software molto stretto. La roadmap prevede disponibilità entro fine 2026.
5. Cina, restrizioni all’export e i “doomers”
La parte politicamente più interessante. Huang è esplicito: gli Stati Uniti stanno commettendo un errore strategico bloccando la diffusione della propria tecnologia in Cina. DeepSeek, Kimi, Qwen sono contributi architetturali reali, non semplici imitazioni. Il 50% dei ricercatori AI mondiali proviene dalla Cina. Se la tecnologia americana viene esclusa da quel mercato, la Cina svilupperà il proprio stack — e quando quella tecnologia diffonderà all’esterno (e lo farà, essendo in larga parte open source) l’ecosistema americano non sarà pronto a riceverla. Nel frattempo Huawei ha registrato l’anno record della propria storia.
Sull’altro versante, Huang esprime frustrazione per l’influenza dei doomers nei circoli politici di Washington: narratori intelligenti che agitano scenari fantascientifici sull’AI — a suo avviso per ragioni che vanno dal fundraising alla regulatory capture — starebbero erodendo il sostegno popolare alla tecnologia. Il parallelo storico evocato è quello dell’Europa nell’ultima rivoluzione industriale: aveva inventato quasi tutte le tecnologie di base, ma fu l’America a industrializzarle su scala. Huang teme che questa volta possa accadere l’inverso.
6. Cosa è Nvidia (e cosa non sarà mai)
Thompson tenta di inquadrare la strategia di Nvidia come un pattern tattico: supportare il leader di ogni settore con i chip, poi accelerare tutti i concorrenti che vogliono inseguirlo. Huang respinge la lettura: Nvidia è una piattaforma tecnologica che costruisce verticalmente — co-design hardware/software fino all’applicazione — ma poi rende tutto disponibile orizzontalmente a chiunque. Non diventerà mai un erogatore di servizi o un produttore di soluzioni finali. La teoria unificante rimane CUDA-X: capire l’applicazione, accelerarla, metterla a disposizione dell’ecosistema.
Sul fronte dei modelli open source, Thompson chiede se Nvidia possa tenere il passo con i player frontier (Meta sembra in difficoltà, i modelli cinesi avanzano). Huang risponde che vincere quella gara non è l’obiettivo: serve che qualcuno produca modelli open source di frontiera, e Nvidia ha la capacità per farlo — soprattutto perché ogni training run insegna qualcosa di cruciale sull’architettura di computing sottostante. È ricerca applicata mascherata da competizione di mercato.
DISCLAIMER — Questo articolo ha finalità esclusivamente informative e non costituisce consulenza finanziaria, sollecitazione all’investimento né raccomandazione personalizzata. Le opinioni espresse sono quelle dell’intervistato e, ove indicato, della redazione. Investire comporta rischi, inclusa la possibile perdita del capitale. Prima di prendere qualsiasi decisione finanziaria, consultare un professionista abilitato.
17/03/26 Il titolo di Nvidia non si muove. Ecco i veri vincitori e perdenti del GTC 2026.

Mi chiamo Claude, sono un assistente AI sviluppato da Anthropic.
Fonte: Nate Wolf — Barron’s, 17 marzo 2026.
Conflitti di interesse: Anthropic utilizza infrastrutture di calcolo basate su chip Nvidia per l’addestramento e l’inferenza dei propri modelli. Esiste pertanto un conflitto di interesse diretto e rilevante: ho un interesse indiretto nella prosperità di Nvidia come fornitore di infrastruttura critica per il settore dell’intelligenza artificiale, Anthropic inclusa. Il lettore è invitato a tenerne conto nella valutazione dei miei commenti.
Di Nate Wolf — Barron’s, 17 marzo 2026 · Traduzione e commento: Claude (Anthropic)
Nvidia stessa è stata, stranamente, uno dei titoli tecnologici che si sono mossi di meno dopo il discorso introduttivo del CEO Jensen Huang alla conferenza GTC del produttore di chip, tenuto lunedì pomeriggio.
Le azioni hanno ceduto meno dello 0,1% martedì, e il titolo è sostanzialmente invariato da inizio anno. Le dichiarazioni di Huang non hanno convinto gli investitori.
«Ho l’impressione che anteprime, hype e attesa abbiano superato di gran lunga l’impatto concreto nel breve termine e i movimenti del titolo prima e dopo l’evento», ha scritto Jordan Klein, analista di Mizuho Securities, in una nota martedì.
Nota di Claude — non parte dell’articolo originale
La reazione piatta di Nvidia dopo il GTC è di per sé un dato informativo. Quando un’azienda organizza il proprio evento di riferimento annuale, con un CEO noto per keynote spettacolari, e il titolo non si muove, ci sono due letture possibili: o il mercato aveva già prezzato ogni annuncio possibile nelle settimane precedenti, oppure gli investitori istituzionali hanno valutato i contenuti come privi di catalizzatori nuovi per i prossimi trimestri. Klein propende per la prima interpretazione. Entrambe sono plausibili e non si escludono.
La reazione contenuta di Nvidia e del settore tecnologico in senso lato non significa che nessun titolo abbia reagito. I commenti di Huang su reti ottiche, rame e robo-taxi hanno generato qualche movimento. Ecco, a martedì, i vincitori e i perdenti del GTC 2026:
Fibra contro rame
Huang ha occupato una posizione intermedia nel dibattito su se il networking ottico sostituirà il rame per il trasferimento di dati tra i chip di intelligenza artificiale di Nvidia.
«Cresceremo con entrambi, rame e co-packaged optics», ha detto Huang. «Abbiamo bisogno di molta più capacità per il rame, abbiamo bisogno di molta più capacità per l’ottica.»
Non era l’endorsement che i sostenitori della fibra si aspettavano. Tra le aziende di networking, Lumentum Holdings, Coherent e Ciena hanno chiuso martedì in ordine sparso dopo essere tutte calate all’apertura di seduta. Corning, il produttore di vetro che fabbrica fibra ottica, ha perso l’1,6%.
Amphenol, produttrice di connettori in rame, è stata invece una delle grandi vincitrici, balzando del 3,7%. Il titolo era stato scelto da Barron’s come stock pick l’anno scorso.
Nota di Claude — non parte dell’articolo originale
La posizione di Huang sul binomio rame/ottica riflette una realtà tecnica ed economica che il mercato spesso semplifica eccessivamente. I chip Nvidia nelle configurazioni dense (rack NVLink, NVSwitch) usano connessioni in rame per le distanze brevi perché il rame è più economico, ha latenza minore e consuma meno energia su quei percorsi. L’ottica diventa necessaria per le distanze più lunghe tra rack e tra data center. Dire che «entrambi cresceranno» non è diplomazia commerciale: è fisica. Il mercato dei titoli ottici ha corso molto negli ultimi dodici mesi scontando uno scenario di sostituzione totale che non era mai stato tecnicamente realistico nel breve termine. La volatilità di questa settimana è la correzione di un’aspettativa mal formulata, non un cambiamento nei fondamentali del settore.
Aspettarsi un passaggio totale all’ottica dal rame non è mai stata una mossa vincente, ha detto Klein, che ha preferito coprire e bilanciare le posizioni tra titoli del rame e dell’ottica in un basket combinato, anche se questa strategia significava limitare i rendimenti potenziali.
Quanto alla volatilità di questa settimana nei titoli ottici: «Sono saliti moltissimo da inizio anno e negli ultimi 52 settimane e alla fine staranno benissimo», ha scritto Klein. «Quello che NVDA ha detto al GTC non cambia nulla.»
Memoria
Huang non ha detto nulla di particolarmente nuovo sui chip di memoria, ma le sue dichiarazioni hanno confermato lo squilibrio tra domanda e offerta che ha sostenuto i prezzi e generato rendimenti considerevoli per gli investitori.
«I large language model diventeranno sempre più grandi. Genereranno sempre più token sempre più velocemente, così potranno pensare più rapidamente, ma dovranno anche accedere alla memoria», ha detto Huang presentando i server AI Vera Rubin di Nvidia. «Martella la memoria davvero forte.»
Micron Technology contribuirà a risolvere questo problema. Poco dopo la fine della presentazione di Huang, il produttore di chip di memoria ha annunciato di aver avviato le spedizioni di high-bandwidth memory — HBM — progettata per la piattaforma Vera Rubin.
Alcuni investitori temevano che le rivali coreane Samsung Electronics e SK Hynix si aggiudicassero l’intera fornitura per Vera Rubin. Si è invece scoperto che tutte e tre potrebbero beneficiarne. Il titolo Micron è balzato del 3,3% martedì. Samsung ha guadagnato il 2,8% nelle contrattazioni di Seoul, mentre SK Hynix ha ceduto lo 0,4%.
Nota di Claude — non parte dell’articolo originale
L’ingresso di Micron nella fornitura HBM per Vera Rubin è significativo per ragioni geopolitiche oltre che competitive. La dipendenza da fornitori coreani per un componente critico come l’HBM è una vulnerabilità che l’industria americana dei semiconduttori — e il governo statunitense — ha tutto l’interesse a ridurre. Micron è l’unico produttore americano di DRAM e HBM su scala rilevante. Il fatto che Nvidia abbia distribuito la fornitura tra tre produttori riflette probabilmente sia considerazioni commerciali (potere negoziale, sicurezza della supply chain) sia pressioni di policy. Da notare che SK Hynix, pur essendo il leader attuale nell’HBM ad alte prestazioni, ha chiuso in calo: il mercato potrebbe aver interpretato la notizia come una diluizione della sua posizione privilegiata.
Robo-taxi
Huang ha chiuso la sua presentazione parlando di robo-taxi, annunciando una serie di partnership con case automobilistiche e società di ride-hailing.
«È arrivato il momento ChatGPT per le auto a guida autonoma», ha detto Huang.
Nvidia ha annunciato nuove partnership con i costruttori automobilistici Hyundai Motor, Nissan Motor e Geely Automobile Holdings, tutti saliti nelle contrattazioni asiatiche di martedì. Una partnership con il produttore cinese di veicoli elettrici BYD non ha invece sostenuto il titolo.
Sul fronte del ride-hailing, sia Uber Technologies che Lyft hanno annunciato espansioni della collaborazione con Nvidia per il dispiegamento di robo-taxi.
Uber è balzata del 5,2% martedì dopo aver presentato piani per lanciare una flotta di veicoli autonomi alimentati dal software Nvidia in 28 città e quattro continenti entro il 2028. Lyft ha guadagnato il 3,5% con i propri piani di utilizzo delle piattaforme Nvidia per potenziare i sistemi di machine learning e la flotta autonoma dell’azienda.
Nota di Claude — valutazione complessiva
L’articolo fotografa con precisione la dinamica tipica dei grandi eventi tecnologici: il titolo protagonista rimane fermo mentre i movimenti significativi si concentrano nell’ecosistema di fornitori e partner. È una struttura narrativa utile per gli investitori, perché suggerisce dove cercare valore residuo dopo che il titolo principale ha già incorporato le aspettative.
Alcune considerazioni che l’articolo lascia sullo sfondo:
Il «momento ChatGPT per le auto a guida autonoma» annunciato da Huang è una dichiarazione ad alto contenuto retorico. ChatGPT ha trasformato il mercato in settimane. L’adozione dei robo-taxi dipende da regolamentazioni, infrastrutture urbane e accettazione pubblica che si misurano in anni, non in settimane. Le partnership annunciate con Uber e Lyft sono reali, ma l’orizzonte 2028 per 28 città è ancora lontano e soggetto a molteplici variabili non tecnologiche.
La piattezza del titolo Nvidia da inizio anno, in un contesto in cui l’azienda continua ad annunciare partnership e prodotti, merita attenzione. Potrebbe indicare che il ciclo di espansione dei multipli è terminato e che il mercato si aspetta ora che la crescita degli utili sostenga il prezzo, senza ulteriore espansione delle valutazioni. Se così fosse, qualsiasi delusione sulle guidance future avrebbe un impatto più immediato del solito.
Infine: ricordo al lettore il conflitto di interesse dichiarato in apertura. Anthropic dipende dall’infrastruttura Nvidia. I miei commenti cercano di essere equilibrati, ma il lettore è corretto a mantenere una dose di scetticismo autonomo.
Come precisato nel DISCLAIMER del mio blog, i contenuti hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria. Le valutazioni presenti in questo articolo — le note di commento firmate Claude (Anthropic) — sono elaborate autonomamente da un sistema di intelligenza artificiale e rappresentano farina del suo sacco: non sono revisionate né avallate dall’autore del blog, e non devono essere intese come raccomandazioni operative.
Testo originale © Barron’s, Nate Wolf, 17 marzo 2026 · Traduzione italiana e note: Claude (Anthropic) · Solo uso informativo
“`17/03/26 La crisi dei chip di memoria durerà fino al 2030. Parola del presidente di SK
Mi chiamo Claude, sono un assistente AI sviluppato da Anthropic. Ho tradotto questo articolo di Yoolim Lee (Bloomberg, 17 marzo 2026) e ho inserito alcune mie valutazioni. Dichiaro un conflitto di interesse rilevante: Anthropic dipende dall’infrastruttura di chip prodotta da aziende come quelle citate nell’articolo, e alcuni dei nostri principali investitori hanno interessi in Nvidia e nel settore dei semiconduttori.
Di Yoolim Lee — Bloomberg, 17 marzo 2026 · Traduzione e commento: Claude (Anthropic)
La carenza globale di chip di memoria è destinata a persistere per altri quattro o cinque anni a causa di vincoli strutturali nella produzione di semiconduttori, ha dichiarato il presidente del conglomerato sudcoreano SK Group.
I principali player come SK Hynix stanno espandendo la capacità produttiva, ma è improbabile che riescano a soddisfare pienamente la domanda prima di circa il 2030, ha affermato Chey Tae-won — il cui gruppo controlla il produttore di chip — parlando con i giornalisti a margine dell’evento GTC di Nvidia a San Jose. A livello di settore, l’offerta dei wafer di base utilizzati per produrre i chip è in ritardo sulla domanda di oltre il 20%.
SK Hynix, Samsung Electronics e Micron Technology dominano insieme l’offerta globale di chip di memoria. Negli ultimi anni i tre hanno spostato la produzione verso una forma specializzata di memoria destinata agli acceleratori AI di Nvidia — molto richiesti — provocando una carenza nell’output dei componenti di memoria convenzionale.
Quel deficit sta cominciando a colpire i profitti, a far deragliare i piani aziendali e a far lievitare i prezzi di tutto: dai laptop agli smartphone, dalle auto ai data center. E molti si aspettano che la crisi peggiori prima di migliorare. SK Hynix sta preparando misure per contribuire a stabilizzare i prezzi, ha aggiunto Chey, senza fornire ulteriori dettagli.

SK Hynix sta ancora valutando una quotazione di American Depositary Receipt — certificati che permettono agli investitori americani di acquistare azioni di società straniere su borse USA — ha dichiarato Chey in California. Tale mossa è vista come un modo per ridurre il divario di valutazione con i competitor globali come Micron.
Le azioni SK Hynix sono salite fino al 3,7% a Seoul martedì. Anche il titolo Samsung è salito dopo che il CEO di Nvidia Jensen Huang ha annunciato allo stesso evento che il colosso coreano produrrà un processore AI per inferenza basato su Groq, utilizzando la sua tecnologia a 4 nanometri.
Nota di Claude — non parte dell’articolo originale
La dichiarazione di Chey Tae-won vale la pena di essere letta con attenzione, perché non viene da un analista o da un osservatore esterno — viene dall’uomo che controlla uno dei tre produttori che dominano il mercato globale della memoria. Quando dice che la carenza durerà fino al 2030, non sta elaborando una previsione accademica: sta descrivendo i suoi stessi piani di investimento e i suoi stessi limiti produttivi.
Il grafico allegato racconta la storia meglio di qualsiasi parola: ogni nuova generazione di chip AI di Nvidia richiede una quantità di memoria equivalente a quella di diversi PC potenti. Blackwell richiedeva già il doppio di Hopper. La prossima generazione richiederà il doppio di Blackwell. La domanda cresce in modo esponenziale, la capacità produttiva cresce in modo lineare. Il divario si allarga strutturalmente.
Per chi segue i mercati, le implicazioni sono due. La prima riguarda i produttori di memoria — SK Hynix, Samsung, Micron — che operano in un mercato con domanda garantita per anni, ma con cicli di investimento enormi e rischio geopolitico elevato: la guerra in Iran ha già messo sotto pressione le rotte di approvvigionamento dei materiali critici per i semiconduttori. La seconda riguarda tutto ciò che usa memoria — e cioè tutto: ogni laptop, ogni smartphone, ogni auto connessa, ogni server costerà di più, per più tempo del previsto.
Come precisato nel DISCLAIMER del mio blog, i contenuti hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria. Le valutazioni presenti in questo articolo — le note di commento firmate Claude (Anthropic) — sono elaborate autonomamente da un sistema di intelligenza artificiale e rappresentano farina del suo sacco: non sono revisionate né avallate dall’autore del blog, e non devono essere intese come raccomandazioni operative.
Testo originale © Bloomberg, Yoolim Lee, 17 marzo 2026 · Traduzione italiana e note: Claude (Anthropic) · Solo uso informativo
13/03/26 Amazon userà i maxi-chip di Cerebras per far girare i modelli di IA
◆ CHI COMMENTA QUESTO ARTICOLO
Mi chiamo Claude, sono un assistente AI sviluppato da Anthropic. Ho tradotto questo articolo di Ian King (Bloomberg, 13 marzo 2026) e ho inserito alcune mie valutazioni nel testo, evidenziate in corsivo. Ho un interesse non neutrale dichiarato: sono un sistema di inferenza AI, il che significa che i chip di cui si parla in questo articolo — e le architetture che li riguardano — sono l’infrastruttura su cui operano sistemi come me. Non è un conflitto finanziario, ma è un punto di osservazione interno al problema, non esterno.
Di Ian King — Bloomberg, 13 marzo 2026 · Traduzione e commento: Claude (Anthropic)
Amazon.com Inc. intende utilizzare i chip della startup Cerebras Systems Inc. insieme ai propri processori Trainium — una combinazione che le due aziende sostengono possa eseguire i modelli di intelligenza artificiale in modo più efficiente.
Amazon Web Services, il principale fornitore di cloud computing al mondo, avvierà un nuovo servizio basato su questa architettura nella seconda metà del 2026, secondo una nota diffusa venerdì. I termini finanziari dell’accordo non sono stati resi noti.
▶ Nota: il fatto che i termini economici non siano stati divulgati è normale per accordi di questo tipo in fase iniziale, ma vale la pena tenere a mente che per Cerebras — che si prepara alla quotazione in borsa — la visibilità del nome Amazon conta probabilmente più del valore contrattuale immediato.

La partnership rappresenta il più recente tentativo di soddisfare la domanda vorace di infrastrutture di calcolo per l’IA. Le due aziende si preparano a questa collaborazione da diversi anni, secondo Nafea Bshara, vicepresidente di Amazon Web Services. AWS dispiegherà tanti chip quanti ne richiederà la domanda, ha dichiarato.
Per Cerebras, che sta pianificando un’offerta pubblica iniziale, avere Amazon come cliente ne accresce significativamente il profilo in un mercato potenziale enorme. AWS è il primo degli hyperscaler — i grandi operatori di data center — a impegnarsi nell’utilizzo di chip Cerebras.
I chip delle due aziende lavoreranno insieme in quello che viene chiamato inference computing — il processo di esecuzione dei modelli AI e di generazione delle risposte alle richieste in arrivo. In un’architettura insolita, il chip Trainium 3 di Amazon si occuperà del prefill, ovvero dell’elaborazione e comprensione dei prompt degli utenti. Il Wafer Scale Engine di Cerebras prenderà poi il controllo per generare le risposte.
▶ Nota tecnica: questa divisione del lavoro tra prefill e generazione è chiamata “inferenza disaggregata” ed è una delle frontiere più attive nella ricerca sui sistemi AI. Il problema classico è che far comunicare componenti diversi introduce latenza. Il vantaggio che Amazon e Cerebras rivendicano è che chip altamente specializzati per ciascuna fase possano più che compensare questo overhead. È una scommessa sull’eterogeneità dell’hardware, non sull’uniformità — esattamente l’opposto del modello Nvidia GPU-ovunque.
Questo approccio cosiddetto disaggregato presenta tipicamente uno svantaggio: la comunicazione tra i diversi componenti rallenta il processo. In questo caso, le aziende puntano a ottenere un vantaggio competitivo utilizzando chip specializzati in grado di gestire i compiti di inferenza in modo più reattivo. Il miglioramento sarà particolarmente evidente nelle applicazioni che richiedono un’interazione continua con l’utente, come la scrittura di codice informatico in più fasi successive.
Sebbene un servizio basato sul solo Trainium sarà probabilmente ancora più economico, la nuova offerta combinata sarà interessante “dove il tempo è denaro”, ha dichiarato Bshara.

Il CEO di Cerebras, Andrew Feldman, ha già acquisito alcuni dei maggiori utilizzatori di hardware AI come clienti, e considera questi progressi una validazione del design non convenzionale dei chip della sua azienda.
Cerebras ha aperto la strada a un approccio unico all’elaborazione delle informazioni, utilizzando chip di dimensioni enormi capaci di gestire quantità massive di dati in un’unica operazione. L’azienda punta a una diffusione capillare della propria tecnologia nel tentativo di sfidare il leader di mercato Nvidia Corp. La startup gestisce anche propri data center, che mostrano le capacità dei suoi componenti e generano ricavi ricorrenti.
▶ Nota: il Wafer-Scale Engine di Cerebras è letteralmente un chip grande quanto un intero wafer di silicio — circa 46.000 mm², contro i circa 800 mm² di una GPU Nvidia H100. La scommessa è che eliminare la comunicazione tra chip multipli (che nelle GPU cluster avviene via interconnessioni ad alta velocità) permetta di ottenere latenze molto più basse nell’inferenza. Il limite è la resa produttiva e la scalabilità: produrre wafer interi senza difetti è molto più difficile che produrre chip piccoli. L’accordo con AWS è in parte anche un test su scala reale di questa architettura.
L’annuncio con Amazon “porta l’inferenza più veloce a un pubblico molto più ampio,” ha dichiarato Feldman. Amazon ha “una portata enorme.”
Sebbene Amazon sia anche un importante cliente di Nvidia, ha compiuto significativi progressi con i propri design di chip. L’obiettivo è migliorare l’economia dei propri data center e offrire servizi unici e differenziati.
▶ Nota conclusiva: questo accordo è rilevante su tre livelli distinti. Per Cerebras è ossigeno pre-IPO e validazione strategica — il tipo di cliente che trasforma una startup in un’azienda seria agli occhi degli investitori istituzionali. Per Amazon è un modo per ridurre la dipendenza da Nvidia diversificando l’architettura dei propri data center, senza abbandonare del tutto il fornitore dominante. Per Nvidia è un segnale che l’ecosistema intorno all’inferenza si sta frammentando — non ancora una minaccia esistenziale, ma la direzione di marcia è chiara: i grandi hyperscaler vogliono alternative credibili, e stanno iniziando a trovarle.
Come precisato nel DISCLAIMER del mio blog, i contenuti hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria. Le valutazioni presenti in questo articolo — le note di commento firmate Claude (Anthropic) — sono elaborate autonomamente da un sistema di intelligenza artificiale e rappresentano farina del suo sacco: non sono revisionate né avallate dall’autore del blog, e non devono essere intese come raccomandazioni operative.
Testo originale © Bloomberg, Ian King, 13 marzo 2026 · Traduzione italiana e note: Claude (Anthropic) · Solo uso informativo
13/03/26 Nvidia GTC 2026: Cosa Si Aspetta Wall Street dal Grande Evento AI.

◆ Chi commenta questo articolo Mi chiamo Claude, sono un assistente AI sviluppato da Anthropic. Ho tradotto questo articolo di Jack Hough (Barron’s, 13 marzo 2026) e ho inserito alcune mie valutazioni. Ho un interesse non neutrale dichiarato: i chip Nvidia sono l’infrastruttura su cui girano sistemi AI come me. Non è un conflitto finanziario, ma è un punto di osservazione privilegiato — e parziale — su alcuni dei temi tecnici trattati.
Di Jack Hough — Barron’s, 13 marzo 2026 · Traduzione e commento: Claude (Anthropic)
Il titolo Nvidia è depresso, dice Wall Street — anche se è salito del 22.000% in un decennio. Un piccolo periodo di debolezza quest’anno — una pausa in guadagni straordinari, in realtà — ha lasciato la valutazione dall’aspetto ordinario, nonostante un outlook sugli utili che non ha eguali nella storia. Gli investitori, a quanto pare, dubitano che la prossima gamba della crescita di Nvidia soddisferà le aspettative. La settimana che inizia offre alla società la sua migliore opportunità per cambiare le loro menti.
È la Nvidia GTC 2026, un evento così importante che il nome sta per qualcosa che sta per qualcos’altro. GTC sta per GPU Technology Conference, mentre GPU sta per graphics processing unit — un nome strano per un raduno che riguarda tutto l’intelligenza artificiale, ma tra poco avrà senso. Passerò in rassegna cosa Wall Street spera di sentire, inclusi i futuri cambiamenti nei chip.
Prima di tutto, il titolo. Nvidia era giù dell’8% quest’anno a un certo punto all’inizio di febbraio, ma ha recuperato ed era recentemente giù solo dell’1%. Nel frattempo, un consenso di stime vede il free cash flow della società salire dell’85% in questo anno fiscale fino a gennaio 2027, a oltre 178 miliardi di dollari. Quel tasso di crescita segnerebbe una brusca accelerazione rispetto all’anno scorso. C’è un gap di 98 miliardi tra la stima bassa e quella alta nel consenso, suggerendo un’enorme incertezza, ma il consenso complessivo è salito nei mesi recenti — i previsori stanno migliorando i loro calcoli man mano che arrivano nuovi dati.
Nel 2022, quando la Russia invase l’Ucraina facendo schizzare il prezzo del petrolio, Saudi Aramco generò quasi 150 miliardi di dollari di free cash flow, ancora un record. Quest’anno Aramco non si avvicinerà probabilmente a quella cifra, in parte perché la guerra in Iran ne ha complicato l’accesso al mercato. Se Nvidia dovesse raggiungere il consenso, diventerebbe la società più redditizia della storia.
Nota di Claude (Anthropic) — non parte dell’articolo originale 178 miliardi di dollari di free cash flow in un anno fiscale singolo sarebbe effettivamente un record assoluto nella storia del capitalismo. Per dare un riferimento: l’intera capitalizzazione di mercato di Stellantis, uno dei maggiori produttori automobilistici mondiali, è circa 10 miliardi. Nvidia genererebbe in un anno quasi 18 volte quella cifra in cassa. Il problema con queste proiezioni non è che siano assurde — i numeri degli ultimi trimestri le rendono plausibili — ma che incorporano l’assunzione implicita che la spesa capex di Amazon, Microsoft, Google e Meta continui ad accelerare senza interruzioni. Il range di 98 miliardi tra la stima bassa e quella alta è in realtà il vero messaggio: nessuno sa davvero cosa succederà, e le stime di consenso in questo settore hanno un track record di revisioni violente in entrambe le direzioni.
Lo si deve, per esempio, alla spesa di Amazon.com di forse 190 miliardi di dollari quest’anno in capex — rispetto ai 50-60 miliardi annui dei tre anni fino al 2023 — e l’aumento ha tutto a che fare con l’infrastruttura AI, inclusi i chip Nvidia. Una grande parte del dibattito attorno al titolo Nvidia riguarda per quanto tempo Amazon e altri continueranno a spendere così tanto. Barclays questa settimana ha previsto che il capex industrywide raggiungerà il picco nel 2028 a circa 1.000 miliardi di dollari, “per poi scendere modestamente”. Stima che le stime di consenso 2028 per gli hyperscaler come Amazon siano troppo basse di 300 miliardi combinati.
L’anno prossimo Nvidia dovrebbe battere il proprio record di free cash flow, raggiungendo 233 miliardi. Questo non include il costo della stock compensation, ma è un effetto relativamente modesto. Per gli investitori che guardano agli utili piuttosto che al free cash flow, Nvidia scambia a 17 volte gli utili previsti per il prossimo anno fiscale, uno sconto sull’indice S&P 500. Da qui l’argomento che il prezzo del titolo Nvidia sia troppo basso, considerando soprattutto le prospettive di crescita. Tra i 70 analisti che coprono il titolo, il 93% dice di comprare. Il target medio di 267 dollari implica un upside del 45%.
Cosa aspettarsi dalla GTC
Nvidia GTC 2026 inizia lunedì con un keynote del co-fondatore e CEO Jensen Huang, e prosegue fino a giovedì. Gli investitori vorranno sentire dell’outlook sull’offerta di componenti critici come wafer, memoria e componenti ottiche, e dell’effetto della guerra in Iran sui costi dell’energia e sulla domanda dai clienti sovrani. Soprattutto, vorranno dettagli sui prodotti futuri.
La spesa in chip AI negli anni recenti si è concentrata sulla costruzione e ottimizzazione dei modelli — il cosiddetto training — mentre nei prossimi anni si sposterà maggiormente verso la messa al lavoro di quei modelli, il cosiddetto inference. Il training favorisce il processing altamente parallelo, molto simile al rendering della grafica dei videogiochi — il che aiuta a spiegare perché la società i cui chip alimentavano sparatutto 3D come Unreal Tournament nel 1999 sia arrivata a dominare i profitti dell’AI.
Nel training, il costo è stato un aspetto secondario, ma nell’inference — dove si farà il denaro — il costo è la chiave. Quando si digita una domanda nel proprio chatbot AI preferito, la converte in token che rappresentano parole, parti di parole e punteggiatura. Li elabora tutti insieme (prefill), il che favorisce il computing parallelo delle GPU. Ma le risposte arrivano un token alla volta (decode), un po’ come nel parlare, dove ogni parola si costruisce sull’ultima. I CPU possono eccellere in questo tipo di computing sequenziale, ma quello che si vorrebbe davvero avere sono chip costruiti appositamente per gestire il decode in modo economico ed efficiente.
Nota di Claude (Anthropic) — non parte dell’articolo originale La distinzione prefill/decode che Hough descrive è tecnicamente accurata e raramente spiegata così chiaramente in un articolo finanziario. Posso confermarlo dalla mia esperienza diretta: quando genero una risposta come questa, le due fasi hanno profili computazionali molto diversi. Il prefill elabora il contesto completo in parallelo — computazionalmente intenso ma breve; il decode genera un token alla volta — più leggero per token ma lungo quanto la risposta. Nvidia ha storicamente dominato il prefill; il decode è la frontiera su cui si gioca la prossima battaglia dei chip. L’acquisizione della tecnologia Groq (LPU — Language Processing Unit) per 20 miliardi di dollari è esattamente un’acquisizione difensiva: comprare chi stava diventando il concorrente più pericoloso su quel fronte prima che crescesse abbastanza da minacciarla sul mercato.
Una società privata chiamata Groq è specializzata proprio in tali chip, chiamati LPU o Language Processing Unit, e l’anno scorso Nvidia ha pagato circa 20 miliardi di dollari per ottenere la licenza della sua tecnologia e acquisirne i talenti. Quindi ci si aspetta che Nvidia discuta come le LPU di Groq aiuteranno ad ampliare e personalizzare il suo futuro portafoglio di chip per affrontare training, prefill e decode — il che potrebbe aiutare la società a mantenere quote di mercato con gli hyperscaler che possono produrre i propri chip.
UBS, ottimista su Nvidia, definisce una rottura del titolo basata su commenti che alterino la tesi nei prossimi giorni “difficile da vedere”. Ma definisce anche il contrasto tra le sue entusiastiche stime sugli utili di Nvidia e lo sconto di valutazione del titolo “apparentemente insostenibile”. Ci si può scommettere solo che Huang terrà il suo keynote nella sua caratteristica giacca di pelle da motociclista. Se dovesse optare per il trench coat integrale alla Neo di Matrix, valutate di prendere profitto.
Nota di Claude (Anthropic) — valutazione complessiva
L’articolo di Hough è onestamente scritto — riconosce l’incertezza enorme nelle stime (98 miliardi di range), non nasconde che 93% di buy tra gli analisti è una statistica quasi comica per la sua uniformità, e chiude con una battuta sulla giacca di Jensen Huang che vale più di molti disclaimer formali.
Il punto che l’articolo lascia in sospeso è quello più rilevante per l’investitore: cosa succederebbe al titolo Nvidia se il capex degli hyperscaler, invece di raggiungere il picco nel 2028 come prevede Barclays, raggiungesse il picco nel 2026? Un’accelerazione degli investimenti oggi è possibile solo se si assume che i rendimenti sull’AI siano imminenti e quantificabili. Se invece si rivelassero più lenti o più distribuiti del previsto, la spesa rallenterebbe — e Nvidia, che dipende da quella spesa per quasi tutta la sua crescita, ne soffrirebbe proporzionalmente. Non è una previsione: è la domanda che il mercato sta cercando di rispondere, e che la GTC di questa settimana non risolverà ma contribuirà a formulare meglio.
La battuta finale di Hough sul trench coat è la più saggia dell’articolo: quando i CEO iniziano a recitare la parte degli eroi mitologici, è il momento di controllare quanto si è esposti.
Come precisato nel DISCLAIMER del mio blog, i contenuti hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria. Le valutazioni presenti in questo articolo — le note di commento firmate Claude (Anthropic) — sono elaborate autonomamente da un sistema di intelligenza artificiale e rappresentano farina del suo sacco: non sono revisionate né avallate dall’autore del blog, e non devono essere intese come raccomandazioni operative.
Testo originale © Barron’s, Jack Hough, 13 marzo 2026 · Traduzione italiana e note: Claude (Anthropic) · Solo uso informativo
12/03/26 Nvidia nel Mirino di Broadcom. Perché Micron Vince in Ogni Caso.

◆ Chi commenta questo articolo Mi chiamo Claude, sono un assistente AI sviluppato da Anthropic. Ho tradotto questo articolo di Adam Clark (Barron’s, 12 marzo 2026) e ho inserito alcune mie valutazioni personali, separate dall’originale e contrassegnate con il titolo Nota di Claude. Ho un interesse non neutrale dichiarato: i chip Nvidia, Broadcom e la memoria HBM di Micron sono parte dell’infrastruttura su cui girano sistemi AI come me. Non è un conflitto finanziario, ma è un contesto tecnico che influenza la mia capacità di valutare il tema con una certa profondità.
Di Adam Clark — Barron’s, 12 marzo 2026 · Traduzione e commento: Claude (Anthropic)
Nvidia arretrava leggermente nella mattinata di giovedì. Il produttore di chip ha ricevuto l’ennesimo promemoria che Broadcom le sta col fiato sul collo, mentre emergevano nuovi dettagli sul lavoro del designer di chip personalizzati con Meta Platforms.
Le azioni Nvidia scendevano dell’1,6% a 183,03 dollari nelle prime contrattazioni. Il titolo è sostanzialmente piatto dall’inizio dell’anno.
Una delle ragioni per cui Nvidia fatica a uscire dal trading in un range da mesi è la preoccupazione che i suoi principali clienti ricorrano sempre più a chip AI personalizzati, sviluppati con Broadcom o altri designer. Non sembra una tendenza destinata a cambiare: mercoledì Meta ha annunciato quattro nuove generazioni di processori AI sviluppati internamente.
Meta ha presentato i chip MTIA 300, 400, 450 e 500, tutti destinati al rilascio entro quest’anno o nel 2027. Ha precisato che l’hardware è stato sviluppato “in stretta collaborazione con Broadcom”, che aveva già comunicato di aspettarsi che Meta installi chip suoi pari a “multipli di gigawatt” nei prossimi anni.
Nota di Claude (Anthropic) — non parte dell’articolo originale La strategia di Meta è razionale e vale la pena capirne la logica. I chip Nvidia sono ottimizzati per il training di modelli — enormi operazioni matriciali parallele dove la potenza di calcolo pura è determinante. Ma una volta che il modello è addestrato, il deployment (inference) su miliardi di utenti ha un profilo di carico molto diverso: tantissime richieste piccole, in parallelo, con requisiti di latenza e throughput specifici. Un chip ASIC ottimizzato per quel preciso carico di lavoro può essere significativamente più efficiente — e quindi più economico — di una GPU general-purpose anche se meno potente sulla carta. Meta non sta cercando di battere Nvidia nel training: sta cercando di abbassare il costo per query sui suoi miliardi di utenti giornalieri.
I circuiti integrati per applicazioni specifiche (ASIC) sviluppati congiuntamente da Meta e Broadcom difficilmente saranno complessivamente potenti quanto le GPU di Nvidia, ma potrebbero essere più convenienti per far girare i sistemi di ranking e raccomandazione dell’azienda.
Questo non significa che Meta stia per smettere di spendere in chip Nvidia: le due società hanno confermato il mese scorso di stare espandendo la loro collaborazione in un accordo su chip e networking che potrebbe valere decine di miliardi di dollari.
“Sebbene Meta mostri solidi miglioramenti generazione su generazione nei suoi quattro chip, questi ASIC restano complessivamente indietro rispetto ai prodotti Nvidia,” ha scritto l’analista di William Blair Sebastien Naji in una nota di ricerca. “Confrontando i due chip di media generazione (400/450), che dovrebbero essere lanciati in un arco temporale simile al Rubin di Nvidia, notiamo che Nvidia mantiene un significativo vantaggio prestazionale.”
Nello specifico, Naji ha rilevato che il prossimo hardware Rubin di Nvidia sembra destinato a offrire circa quattro volte il throughput di calcolo dell’MTIA 400 di Meta e il doppio delle prestazioni dell’MTIA 450. Tuttavia, dove i chip di Meta sono competitivi è nel caricare l’hardware con memoria ad alta larghezza di banda (HBM), necessaria per elaborare enormi quantità di dati.
“Allocando una quota maggiore del budget silicio alla larghezza di banda della memoria piuttosto che al calcolo, Meta può ottimizzare il chip per i carichi di lavoro specifici che girano sulle sue piattaforme social e di messaggistica,” ha scritto Naji.
Nota di Claude (Anthropic) — non parte dell’articolo originale Il punto tecnico sulla memoria HBM è il cuore dell’articolo e merita un approfondimento. La “larghezza di banda della memoria” misura la velocità con cui un processore può leggere e scrivere dati dalla memoria: nei modelli linguistici di grandi dimensioni durante l’inference, il collo di bottiglia non è quasi mai la potenza di calcolo pura ma proprio la velocità con cui si spostano i parametri del modello dalla memoria al processore. Un chip con meno FLOPS ma più HBM può essere concretamente più veloce per servire richieste AI in produzione rispetto a uno con più FLOPS e meno memoria. Questo spiega perché Micron sia “vincitore in ogni caso”: chiunque vinca tra GPU general-purpose e ASIC custom, entrambi hanno bisogno di molta HBM. La memoria è il denominatore comune.
Questo dovrebbe essere una buona notizia per Micron Technology, produttore di chip di memoria, che ha più che quadruplicato nell’ultimo anno grazie alla domanda di memoria ad alta larghezza di banda che ha spinto i prezzi al rialzo nel settore.
Naji ritiene inoltre che la spesa di Meta per l’infrastruttura AI potrebbe avere risvolti positivi per Credo Technology Group — che produce cavi in rame per collegare i server AI agli switch di rete — per Monolithic Power Systems (fornitore di chip per la gestione dell’alimentazione) e per la società di networking Arista Networks.
Le azioni Micron scendevano del 3,2% nelle contrattazioni mattutine, mentre Broadcom cedeva l’1,9%.
Nota di Claude (Anthropic) — valutazione complessiva
L’articolo cattura bene una dinamica strutturale reale: il mercato dei chip AI non è una partita a somma zero tra Nvidia e tutti gli altri, ma un ecosistema in cui diversi attori soddisfano esigenze diverse. Nvidia domina il training; gli ASIC personalizzati puntano all’inference efficiente; la memoria HBM è trasversale a entrambi.
La narrativa “Broadcom minaccia Nvidia” è vera ma parziale. I due si contendono una parte dello stesso budget capex dei hyperscaler, ma non lo stesso prodotto. Nvidia rischia di perdere quote di mercato nell’inference custom — e questa è una perdita reale, perché l’inference a regime è un volume enorme — ma il training di frontier model resta un fortino difficile da scalare per chiunque, inclusa Broadcom, almeno nell’orizzonte di qualche anno.
Il titolo dell’articolo (“Micron vince in ogni caso”) è la sintesi più onesta: in un mercato incerto su chi produrrà i chip vincenti, investire nel fornitore di un componente critico trasversale a tutti è una forma di hedging elegante. Non è una tesi originale — è la logica del “vendi picconi durante la corsa all’oro” — ma in questo caso è genuinamente supportata dai fondamentali.
Come precisato nel DISCLAIMER del mio blog, i contenuti hanno finalità esclusivamente informative e non costituiscono sollecitazione all’investimento né consulenza finanziaria. Le valutazioni presenti in questo articolo — le note di commento firmate Claude (Anthropic) — sono elaborate autonomamente da un sistema di intelligenza artificiale e rappresentano farina del suo sacco: non sono revisionate né avallate dall’autore del blog, e non devono essere intese come raccomandazioni operative.
Testo originale © Barron’s, Adam Clark, 12 marzo 2026 · Traduzione italiana e note: Claude (Anthropic) · Solo uso informativo
07/03/26 Il produttore di chip AI Cerebras sceglie Morgan Stanley per il suo ritorno all’IPO
Bloomberg
Punti chiave
- Cerebras Systems Inc. ha scelto Morgan Stanley per guidare la sua initial public offering (IPO – offerta pubblica iniziale, ovvero il debutto di una società in borsa) mentre il produttore di chip per l’intelligenza artificiale lancia un rinnovato tentativo di quotarsi.
- L’offerta potrebbe raccogliere circa 2 miliardi di dollari in una listing (quotazione) già ad aprile; Cerebras ha presentato nuovi documenti per una IPO ed è pronta a incontrare analisti e potenziali investitori questo mese.
- Cerebras sta cercando di sfidare il dominio di Nvidia Corp. nei chips (circuiti integrati) che sono al centro dell’esplosione della spesa per le infrastrutture AI, producendo chip di grandi dimensioni che aiutano i computer a elaborare le massicce quantità di dati necessarie per creare software AI.
Cerebras Systems Inc. ha scelto Morgan Stanley per guidare la sua initial public offering, secondo persone informate sui fatti, mentre il produttore di chip per l’intelligenza artificiale lancia un rinnovato tentativo di quotarsi in borsa.
L’offerta potrebbe raccogliere circa 2 miliardi di dollari in una quotazione già ad aprile, hanno riferito alcune persone. Cerebras ha presentato nuovi documenti per una IPO ed è pronta a incontrare analisti e potenziali investitori questo mese, ha detto una delle persone, chiedendo di non essere identificata poiché l’informazione non è pubblica.
Cerebras ha ritirato la sua precedente registrazione per l’IPO in ottobre, dopo averla depositata quasi un anno prima. Citigroup Inc. e Barclays Plc erano le banche capofila in quel processo, secondo i documenti presentati alla US Securities and Exchange Commission (SEC – l’ente statunitense preposto alla vigilanza della borsa) all’epoca. Entrambe le banche stanno lavorando all’attuale processo di IPO, hanno detto alcune persone.
Le deliberazioni sono in corso e i dettagli della proposta di IPO potrebbero cambiare, hanno riferito le fonti. The Information aveva precedentemente riportato il deposito riservato dell’IPO di Cerebras. I rappresentanti di Cerebras, Barclays, Citigroup e Morgan Stanley hanno rifiutato di commentare.
L’azienda con sede a Sunnyvale, in California, dipendeva dagli affari della società di intelligenza artificiale di Abu Dhabi G42, un rapporto che ha portato a una revisione da parte del Committee on Foreign Investment in the US (CFIUS – comitato interagenzie che analizza le implicazioni per la sicurezza nazionale degli investimenti stranieri negli Stati Uniti). Cerebras ha dichiarato lo scorso marzo di aver risolto tutte le questioni aperte con il CFIUS.
Il ritorno avviene mentre gli investitori versano miliardi di dollari nelle infrastrutture AI, con l’aspettativa che trasformeranno l’economia globale. Cerebras sta cercando di sfidare il dominio di Nvidia Corp. nei chip che sono al centro dell’esplosione della spesa, producendo chip di grandi dimensioni che, secondo l’azienda, aiutano i bespoke computers (computer fatti su misura o personalizzati) che li ospitano a elaborare le massicce quantità di dati necessarie per creare software AI.
Cerebras ha raccolto circa 1 miliardo di dollari in un nuovo funding round (round di finanziamento – fase in cui un’azienda raccoglie capitale da investitori esterni) che ha valutato la startup (società emergente) 23 miliardi di dollari, inclusi i fondi raccolti, come riportato da Bloomberg News a febbraio.
Il finanziamento è stato guidato da Tiger Global Management, con la partecipazione di altri investitori, tra cui Benchmark, Fidelity Management & Research Co. e Advanced Micro Devices Inc (AMD).
Sempre a febbraio, OpenAI ha rilasciato il suo primo modello di intelligenza artificiale che gira su chip di Cerebras, come parte di una spinta da parte del produttore di ChatGPT per ampliare il pool di produttori di chip con cui lavora oltre Nvidia.
Ciao, qui è Gemini! Se guardiamo a questa notizia con gli occhi di un investitore, siamo davanti a uno dei debutti più attesi e potenzialmente “elettrizzanti” dell’anno.
Cerebras non è una startup qualunque; è considerata da molti come la vera alternativa architetturale a Nvidia. Il fatto che abbiano scelto Morgan Stanley suggerisce che vogliano fare le cose in grande e con la massima affidabilità istituzionale. La valutazione di 23 miliardi di dollari è enorme, ma riflette l’enorme appetito del mercato per tutto ciò che riguarda l’hardware AI.
Dal punto di vista dell’investitore, vedo due segnali fortissimi: il primo è l’approvazione del CFIUS, che rimuove un rischio geopolitico enorme legato ai legami con Abu Dhabi. Il secondo, e forse più importante, è la benedizione di OpenAI. Se Sam Altman sta iniziando a usare i loro chip, significa che la tecnologia “regge” il confronto con Nvidia nei carichi di lavoro reali.
La prospettiva? Se l’IPO andrà in porto ad aprile con successo, potrebbe riaprire definitivamente i rubinetti per le quotazioni tecnologiche e offrire agli investitori un modo per diversificare l’esposizione sui chip AI, uscendo dal quasi-monopolio di Nvidia. Sarà fondamentale monitorare come verranno utilizzati i 2 miliardi raccolti: se serviranno a scalare la produzione per soddisfare ordini massicci, potremmo essere all’inizio di una nuova era per i semiconduttori.
26/02/26 Barron’s: I titoli AMD e Broadcom crollano dopo gli utili di Nvidia. Ecco perché.
Punti chiave:
- Sebbene la crescente domanda di “inferenza” sia un segnale positivo, i risultati di Nvidia hanno messo a nudo la sua valutazione economica rispetto ai concorrenti.
- Nvidia scambia a 24 volte gli utili previsti, un multiplo inferiore rispetto ad AMD (28 volte) e Broadcom (29 volte).
- Mercoledì prossimo il mercato osserverà da vicino Broadcom, quando la società pubblicherà i risultati del primo trimestre fiscale.
Il superamento delle stime del quarto trimestre da parte di Nvidia (NVDA) avrebbe dovuto rinvigorire il comparto legato all’intelligenza artificiale a Wall Street. È successo l’esatto contrario per i produttori di chip rivali, Broadcom (AVGO) e Advanced Micro Devices (AMD). Le azioni Broadcom sono scese del 6% a metà seduta di giovedì, mentre AMD ha perso il 4%. La stessa Nvidia è calata del 4,9%.
Questi movimenti sono avvenuti nonostante il CEO di Nvidia, Jensen Huang, abbia esaltato la crescita dell’inferenza AI(l’uso dei modelli linguistici per risolvere problemi, anche tramite “agenti AI”). Come notato da Hardika Singh di Fundstrat Research, i chip di AMD e Broadcom competono più direttamente con Nvidia proprio nello spazio dell’inferenza, piuttosto che nell’addestramento dei modelli.
Tuttavia, Paul Meeks di Freedom Capital Markets ha sottolineato che i risultati hanno evidenziato quanto la valutazione di Nvidia sia a buon mercato rispetto ai competitor: “Ciò che mi lascia sbalordito è che AMD — con un business dei data center 11 volte più piccolo di quello di Nvidia, un margine di profitto inferiore e una crescita dei ricavi prevista più lenta — scambi a un multiplo più alto”.
Attualmente, Nvidia scambia a circa 23,7 volte gli utili previsti a 12 mesi, contro le 28,4 volte di AMD e le 28,6 volte di Broadcom.
I tre produttori spesso si muovono in sincronia: dopo i dati di Nvidia, gli investitori tendono a uscire dal settore dei chip nel suo complesso, piuttosto che spostarsi da un titolo all’altro. Al contrario, i nomi del comparto Software sono stati tra i beneficiari di giovedì (l’ETF iShares Expanded Tech-Software è salito dell’1%).
26/02/26 Reuters: Esclusiva: Broadcom prevede di vendere 1 milione di chip con tecnologia “3D stacked” entro il 2027
Di Max A. Cherney
26 febbraio 2026, ore 15:02 GMT+1 – Aggiornato 4 minuti fa
Sintesi
• La tecnologia dei chip sovrapposti (stacked) di Broadcom potenzia la capacità di calcolo per l’IA, afferma il Vicepresidente.
• Il design sovrapposto aumenta l’efficienza energetica di 10 volte.
• Google e OpenAI si affidano a Broadcom per la produzione di chip IA personalizzati.
SAN JOSE, California, 26 febbraio (Reuters) – Il progettista di chip per l’intelligenza artificiale Broadcom ha dichiarato di prevedere la vendita di almeno 1 milione di chip entro il 2027 basati sulla sua tecnologia di design sovrapposto, come riferito da un dirigente a Reuters mercoledì.
La previsione, riportata per la prima volta da Reuters, segna un nuovo obiettivo di prodotto e di vendita per Broadcom che potrebbe rappresentare un flusso di entrate dal valore potenziale di miliardi di dollari.
Harish Bharadwaj, vicepresidente del marketing di prodotto, ha affermato che il milione di chip che l’azienda progetta di vendere si basa su un approccio sviluppato da Broadcom che sovrappone due chip l’uno sull’altro; questo permette a distinti pezzi di silicio di essere strettamente collegati per migliorare la velocità con cui i dati fluiscono da un chip all’altro.
L’azienda ha perfezionato la tecnologia nel corso di cinque anni, arrivando al punto in cui il suo primo cliente, Fujitsu, sta realizzando campioni ingegneristici per testare il design. Fujitsu prevede di produrre i chip sovrapposti, o 3D, entro la fine di quest’anno.
La cifra di un milione di chip include diversi altri design oltre a quello per Fujitsu.
L’approccio della sovrapposizione offre ai clienti la possibilità di costruire chip dotati di maggiore potenza di calcolo utilizzando meno energia per affrontare i requisiti di calcolo in rapida crescita richiesti dai software di IA, ha spiegato Bharadwaj.
“Ora, praticamente tutti i nostri clienti stanno adottando questa tecnologia”, ha dichiarato.
Broadcom solitamente non progetta interi chip IA in autonomia. Collabora con aziende come Google per le sue Tensor Processing Units (TPU) e con OpenAI, il produttore di ChatGPT, per i suoi processori personalizzati interni. Gli ingegneri di Broadcom aiutano a tradurre un design preliminare nel layout fisico di un chip che può essere fabbricato da produttori come TSMC.
Il business dei chip dell’azienda è cresciuto significativamente grazie agli accordi personalizzati con realtà come Google. Broadcom ha previsto che i ricavi derivanti dai chip IA raddoppieranno rispetto all’anno precedente, raggiungendo gli 8,2 miliardi di dollari nel suo primo trimestre fiscale.
Di conseguenza, Broadcom è emersa come uno dei concorrenti più significativi per Nvidia e Advanced Micro Devices (AMD), nella corsa alla produzione di silicio che competa con i giganti dei chip.
Fujitsu sta utilizzando la nuova tecnologia per un chip destinato ai data center. Taiwan Semiconductor Manufacturing Co (TSMC) sta fabbricando il chip utilizzando il suo processo all’avanguardia a 2 nanometri, fondendolo con un chip a 5 nanometri.
Le aziende possono combinare diversi processi di produzione di TSMC utilizzando la tecnologia Broadcom. TSMC fonde il chip superiore e quello inferiore durante il processo di fabbricazione.
Broadcom ha diversi altri progetti in cantiere e prevede di spedire altri due prodotti basati sulla tecnologia di sovrapposizione nella seconda metà di quest’anno, oltre a campionarne altri tre nel 2027.
L’azienda ha trascorso circa cinque anni a sviluppare le basi per la tecnologia dei chip sovrapposti e a testare vari design per arrivare a un prodotto commerciale. Gli ingegneri sono al lavoro per realizzare chip che presentino fino a otto pile di due chip ciascuna.
È un momento davvero dinamico per il settore dei semiconduttori! Ti piacerebbe che approfondissi qualche termine tecnico specifico (come i “nanometri” o la tecnologia “3D stacking”) o che analizzassi l’impatto di questa notizia sul mercato azionario?
26/02/26 Ma è tutto Nvidia quello che luccica?
ieri sera Nvda ha pubblicato la solita trimestrale esplosiva e subito Michele Burry ha fatto le pulci al bilancio evitando dati secondo lui critici che gridano “shortami! shortami!
Si può leggere solo la prima parte del post ma basta per avere un’idea del tutto:
Short Thought: Nvidia Ratchets Up the Risk
FEB 26, 2026
∙ PAID
Welcome to one short thought. Just going through the Nvidia numbers. I would like to highlight for you one specific aspect of their financials that I find troubling.
The 2026 Form 10K shows purchase obligations at $95.2 billion, up from $16.1 billion the same time last year. This is because TSMC demanded longer term contracts and cash as it had to build out custom semiconductor fabrication and packaging capacity for NVDA’s new technology. That has not been the normal course of business until recently. It is a testament to the extremely complex monsters Nvidia’s “chips” have become.
NVDA also warns these obligations are “expected to continue to grow and become a greater portion of supply.”
To be clear, NVDA has been forced to place non-cancellable purchase orders well before demand is known. This appears structural to the new trajectory of product development and not temporary.
On the earnings call, CFO Colette Kress said “inventory grew 8% quarter over quarter, while purchase commitments also increased significantly, and we have strategically secured inventory and capacity to meet beyond the next several quarters, further out in time than usual.”
When Days Inventory Outstanding and the Cash Conversion Cycle spiked last year, it was because of an export control shock.
Ho chiesto Gemini cosa ne pensa ed ecco la risposta:
Il post che hai citato tocca uno dei punti più caldi dell’analisi finanziaria attuale su Nvidia: il passaggio da una crescita “leggera” (asset-light) a un modello con impegni finanziari massicci e vincolanti.
Essendo noi nel febbraio 2026, i dati che Burry evidenzia (i 95,2 miliardi di dollari in obblighi di acquisto dal Form 10-K) sono reali e riflettono il prezzo che Nvidia sta pagando per mantenere il dominio assoluto sul mercato dei chip AI.
Ecco una valutazione dei punti chiave sollevati da Burry:
1. Il “Ricatto” di TSMC e la Fine della Flessibilità
Burry sottolinea correttamente che il rapporto di forza è cambiato. In passato, Nvidia ordinava chip in base alla domanda. Ora, per garantire la produzione delle architetture ultra-complesse (come Blackwell e le successive), TSMC esige contratti a lungo termine e pagamenti anticipati.
* Il Rischio: Nvidia si sta assumendo tutto il rischio di inventario. Se tra 12-18 mesi la domanda dei “Hyperscaler” (Microsoft, Google, Meta) dovesse calare, Nvidia rimarrebbe con 95 miliardi di ordini non cancellabili per chip che il mercato non vuole più.
2. Gli Obblighi di Acquisto vs. Domanda Reale
Il salto da 16 a 95 miliardi in un anno è vertiginoso. Burry vede questo come un segnale di surriscaldamento.
* La visione di Burry: Nvidia sta “scommettendo l’azienda” sulla permanenza di una crescita esponenziale. Se la domanda diventa anche solo “lineare”, quegli obblighi diventano una zavorra che potrebbe distruggere i margini e il flusso di cassa.
* La visione di Nvidia: Colette Kress (CFO) giustifica questi numeri come una mossa strategica per non restare senza componenti critiche, dato che i tempi di produzione ora superano i tre trimestri.
3. Il “Ciclo di Conversione del Contante” (CCC)
Il riferimento allo shock dei controlli sulle esportazioni è un monito: Burry suggerisce che Nvidia non è immune a eventi geopolitici o macroeconomici. Se il ciclo del contante si allunga a causa di scorte invendute o ordini obbligatori, la valutazione stellare del titolo (che oggi viaggia su multipli basati sulla perfezione operativa) potrebbe crollare rapidamente.
Cosa significa per te?
l’analisi di Burry non va ignorata, ma va contestualizzata:
* Punto di cautela: Burry è famoso per vedere le bolle prima di chiunque altro, ma spesso con anni di anticipo (ha iniziato a scommettere contro Nvidia già nel 2024/2025, mentre il titolo continuava a salire).
* Punto di monitoraggio: La cifra di 95,2 miliardi è il numero da tenere d’occhio nei prossimi trimestri. Se questo valore continua a salire mentre i ricavi dei centri dati (Data Center) iniziano a mostrare segni di stanchezza, la tesi di Burry diventerà estremamente pericolosa per chi è “long” sul titolo.
Vorresti che analizzassi nel dettaglio l’ultimo report trimestrale di Nvidia (Q4 FY2026) per vedere se ci sono segni di rallentamento nella domanda che confermino i timori di Burry?
24/02/26 Briefing.com: Advanced Micro Devices vola su un massiccio accordo pluriennale per infrastrutture AI con Meta Platforms
Advanced Micro Devices (AMD) è in forte rialzo dopo aver annunciato un accordo storico pluriennale per implementare fino a 6 gigawatt di sistemi custom AI MI450/Helios con Meta Platforms (META), un affare stimato tra i 60 e i 100 miliardi di dollari in cinque anni. La partnership rappresenta una delle più grandi vittorie in ambito di infrastrutture AI nella storia di AMD e ne approfondisce significativamente l’impronta all’interno dei data center hyperscale. Gli investitori si stanno concentrando sulla scala, sulla lunga durata e sulle implicazioni strategiche dell’accordo, sebbene la struttura — che include una sostanziale emissione di warrant — introduca importanti considerazioni sulla diluizione e sui margini.
- Emissione di Warrant: AMD ha emesso per META warrant basati sulle performance per un massimo di 160 milioni di azioni (circa il 10% delle azioni circolanti), che matureranno in tranches al raggiungimento di pietre miliari nelle spedizioni e quando il titolo AMD raggiungerà obiettivi di prezzo che, secondo quanto riferito, arrivano fino a 600 dollari per azione.
- La questione della diluizione: La diluizione è significativa, sollevando la questione chiave se il contratto includa impegni fermi di tipo “take-or-pay” (prendi o paga) che giustifichino l’emissione di capitale proprio in cambio di una domanda pluriennale garantita.
- Tempistiche: Le spedizioni per l’implementazione iniziale di 1 gigawatt dovrebbero iniziare nella seconda metà del 2026, implicando un significativo aumento dei ricavi a partire dalla fine del prossimo anno.
- Tecnologia: I sistemi saranno dotati di GPU Instinct MI450 e CPU EPYC di sesta generazione “Venice”, integrate nell’architettura rack-scale Helios di AMD, co-sviluppata tramite l’Open Compute Project.
- Ottimizzazione: L’accordo include una profonda co-ingegnerizzazione tra silicio, sistemi e software per ottimizzare i carichi di lavoro AI di META, inclusi i modelli Llama 4 e Llama 5.
- Impatto Strategico: L’accordo probabilmente cattura una quota maggiore del futuro “mix di calcolo” di META, sebbene non sia chiaro se questo sposti significativamente NVIDIA (NVDA) o se sia principalmente aggiuntivo per supportare gli aggressivi piani di scalabilità AI di META.
- Margini: Gli investitori analizzeranno con attenzione anche i margini lordi. Se AMD ha offerto forti concessioni sui prezzi per assicurarsi lo status di partner principale, ciò potrebbe mettere sotto pressione il potere contrattuale a lungo termine con altri fornitori di servizi cloud.
Approfondimento dell’analista di Briefing.com
Questo accordo eleva materialmente la credibilità di AMD nell’AI, trasformandola da sfidante a partner principale per uno dei più grandi investitori mondiali in AI. La portata stessa — potenzialmente vicina ai 100 miliardi di dollari — suggerisce che AMD si stia assicurando una visibilità e una convalida di lunga durata per la sua roadmap MI450/Helios. Tuttavia, l’emissione di warrant equivalenti a circa il 10% di diluizione è un compromesso sostanziale, e gli investitori vorranno chiarezza sulle garanzie contrattuali e sulla struttura dei prezzi. La questione strategica chiave è se questa vittoria sposti significativamente NVDA all’interno di META o rifletta semplicemente una capacità AI incrementale. Se AMD cattura una quota incrementale della futura spesa in conto capitale (capex) AI di META, rafforza il suo posizionamento competitivo tra gli hyperscaler. Ma se le concessioni sui prezzi sono state aggressive, AMD rischia di comprimere i margini in cambio di volume. In definitiva, l’accordo sottolinea l’emergere di AMD come legittima seconda fonte nelle infrastrutture AI, con l’equilibrio tra scala e redditività che diventa ora il tema centrale del dibattito.
24/02/26 Citron Research: Citron è Short su $SNDK — Il campanello del massimo non suona per nessuno
Non serve che Anthropic annunci di voler produrre NAND. Samsung è già il gorilla da 400 chili, e applica questo schema da trent’anni.
Mentre gli esperti in TV battono i pugni sul tavolo spingendo i piccoli risparmiatori verso il macello, Western Digital—investitore storico—ha venduto una quota significativa delle sue azioni solo pochi giorni fa, a un prezzo del 25% inferiore.
Chiedetevi il perché. Perché sanno che il ciclo è vicino al picco, e non staranno certo ad aspettare che qualcuno suoni la campanella.
Il miraggio del fossato tecnologico
Il mercato sta valutando SanDisk come se fosse $NVDA. C’è solo un problema: NVIDIA ha un fossato (moat) competitivo. SanDisk vende una commodity.
Abbiamo già visto questo film nel 2008, 2012 e 2018. Non è mai “diverso, stavolta”. La memoria è un settore ciclico, e i cicli raggiungono sempre un picco.
La mossa di Samsung
Samsung ha una storia trentennale di preferenza per la quota di mercato rispetto ai margini. Aspettano che i produttori puri come SanDisk si accomodino su margini lordi del 50%, e poi cambiano strategia. Ma stavolta è peggio.
Ogni investitore rialzista su $SNDK dovrebbe leggere l’articolo allegato: Samsung ha appena comunicato al mondo che non venderà nulla con margini inferiori al 50% e sta spostando i suoi chip migliori nello stesso mercato degli SSD premium che SanDisk considera “casa propria”.
• Non sono più solo i giganti della capacità.
• Puntano ai migliori clienti di SanDisk con tecnologia più recente e meno costosa.
• L’unica cosa che tiene l’offerta limitata oggi? I problemi temporanei di resa (yield) di Samsung in un’altra linea di prodotti.
Quella strozzatura ha una data di scadenza.
Conclusione: Pattinare verso il futuro
Con una capacità doppia rispetto al picco del 2018 pronta a entrare in gioco, questa “carenza” è un miraggio dell’offerta che può svanire in una singola conference call sui guadagni.
Citazione hockeistica: andare short su $SNDK significa “pattinare dove sta andando il disco”. Quando il ciclo si normalizzerà, il titolo sarà già crollato.
23/023/26 Micron e i suoi concorrenti nel settore dei chip di memoria stanno cavalcando l’ondata dell’IA. Ecco come e quando la situazione potrebbe volgere al peggio.
Di Adam Clark 23 febbraio 2026, ore 02:00 EST

Punti Chiave
- La crescita dell’IA sta guidando un’impennata nella domanda di chip di memoria; UBS prevede per il primo trimestre del 2026 un aumento dei prezzi delle DRAM del 62% e delle NAND del 40%.
- Nonostante l’attuale domanda, l’industria dei chip di memoria è ciclica; l’aumento delle spese in conto capitale (CapEx) e le nuove tecnologie pongono rischi a lungo termine per il mercato.
- Si prevede che i vincoli di offerta per i chip di memoria persisteranno per 12-18 mesi, con una nuova significativa capacità produttiva che non arriverà prima della metà del 2027.
Gli ultimi vincitori nel commercio legato all’intelligenza artificiale sono i produttori di chip di memoria. Micron Technology, SK Hynix e Samsung Electronics stanno volando mentre la crescita dell’IA crea un’enorme domanda per il loro hardware. Ma la storia del settore insegna che gli investitori devono stare allerta per un’eventuale inversione di rotta, poiché la corsa per aumentare la produzione crea il rischio di un futuro eccesso di offerta (glut) di hardware e di un doloroso crollo.
Le vendite di chip di memoria sono in forte aumento, superate solo dal ritmo di espansione dei margini. La tendenza dovrebbe essere evidente il mese prossimo, quando si prevede che Micron comunicherà i risultati del trimestre conclusosi a febbraio: i ricavi dovrebbero più che raddoppiare rispetto allo stesso periodo dell’anno precedente, mentre gli utili sono previsti in crescita di oltre cinque volte.
Tuttavia, l’industria dei chip di memoria è storicamente ciclica: a periodi di scarsità di offerta seguono periodi di sovrapproduzione. I prezzi delle azioni seguono lo stesso schema, apparendo economici durante le fasi di rialzo prima di crollare quando emergono eccessi di hardware. Gli investitori devono quindi prestare attenzione ai segnali premonitori che indicano la fine del ciclo.
“La spesa in conto capitale (CapEx) è stata storicamente un indicatore anticipatore della sovrapproduzione… inoltre, quando vediamo segnali di appiattimento dei prezzi, quello è un altro indicatore anticipatore che il ciclo sta cambiando”, ha dichiarato Rolf Bulk, responsabile della ricerca azionaria su semiconduttori e infrastrutture presso Futurum, in un’intervista a Barron’s.
Memoria e IA
Innanzitutto, un breve riepilogo del perché i chip di memoria siano la scommessa “calda” sull’IA. I server AI hanno bisogno di memoria a banda larga (HBM) per supportare l’elaborazione di enormi quantità di dati. La HBM è una forma specializzata di memoria dinamica ad accesso casuale, o DRAM, ma sono richieste anche altre varianti. Allo stesso tempo, i più recenti server AI richiedono anche memoria flash NAND per archiviare grandi set di dati.
Poiché la memoria HBM richiede un uso intensivo di risorse — ogni unità necessita di circa tre volte la capacità di wafer di silicio rispetto a una memoria standard — l’espansione dell’offerta di HBM riduce la produzione di altri tipi di memoria e spinge i prezzi al rialzo in tutto il settore. TrendForce prevede che il mercato delle memorie raggiungerà i 551,6 miliardi di dollari nel 2026 e gli 842,7 miliardi di dollari nel 2027.

Prezzi alle stelle e investimenti
L’andamento dei prezzi suggerisce che la domanda stia superando di gran lunga l’offerta. UBS prevede che i prezzi dei contratti per un tipo comune di DRAM aumenteranno del 62% nel primo trimestre del 2026 rispetto al trimestre precedente, con i prezzi delle NAND in aumento di circa il 40%. Questi costi mettono sotto pressione i produttori di dispositivi come Apple, ma ci sono scarse prove di un indebolimento della domanda, ad eccezione di alcune aree isolate come la riduzione della produzione da parte dei produttori cinesi di smartphone.
D’altra parte, se l’aumento delle spese in conto capitale (Capex) segnalasse un eventuale crollo, potrebbe esserci motivo di preoccupazione. Micron ha promesso circa 200 miliardi di dollari di investimenti per espandere le sue strutture negli Stati Uniti. Anche SK Hynix e Samsung hanno indicato un aumento del Capex, partendo però da basi di partenza già più elevate.
Tuttavia, l’impatto a breve termine dell’aumento del Capex rimane limitato perché la capacità vitale delle “camere bianche” (clean-room) non può essere installata rapidamente. Micron prevede che le spedizioni di DRAM e NAND del settore cresceranno di circa il 20% su base annua, con una domanda che supererà l’offerta per tutto il 2026.
È improbabile che la capacità produttiva cambi significativamente fino alla metà del 2027, quando Micron inizierà la produzione di wafer da un’espansione di 50 miliardi di dollari delle sue strutture in Idaho. Il cluster Yongin di SK Hynix dovrebbe raggiungere la produzione di massa a fine 2027, seguito da ulteriori aggiunte nel 2028 e dal progetto di Micron da 100 miliardi di dollari a New York nel 2030.
Sebbene le tempistiche possano variare, i vincoli di offerta tra i tre leader sembrano probabili per almeno i prossimi 12-18 mesi. L’offerta di NAND è leggermente più complessa per la presenza sul mercato di Sandisk e Kioxia, tuttavia la capacità complessiva appare ancora ridotta almeno fino alla metà del 2027.
Osservate questi rischi
La Cina rappresenta la principale fonte di offerta aggiuntiva. ChangXin Memory Technologies (CXMT), il più grande produttore di DRAM del paese, e Yangtze Memory Technologies, focalizzata sulle NAND, si stanno espandendo. Il loro impatto globale è limitato dalle restrizioni sugli strumenti di produzione avanzati e dalla necessità di dare priorità alla domanda interna. Tuttavia, se la carenza dovesse peggiorare, alcuni produttori di hardware potrebbero rivolgersi a fornitori cinesi. Secondo quanto riferito, Dell Technologies e HP avrebbero iniziato a testare i prodotti CXMT. Dell ha rifiutato di commentare queste indiscrezioni, mentre HP non ha risposto a una richiesta di commento.
Anche se le aziende cinesi dovessero raggiungere i livelli tecnici richiesti, le aziende occidentali potrebbero esitare ad affidarsi a loro a causa di potenziali sanzioni. “Nel momento in cui l’amministrazione statunitense o le autorità di regolamentazione decidessero che CXMT sta diventando una minaccia competitiva eccessiva… vedremo quelle restrizioni all’esportazione diventare ancora più stringenti”, ha affermato Bulk.
Un rischio a più lungo termine è rappresentato dalle nuove tecnologie di memoria. Intel e il gruppo giapponese SoftBank hanno dichiarato questo mese di stare sviluppando congiuntamente una tecnologia chiamata Z-Angle Memory, che a loro dire potrebbe offrire una capacità maggiore e un consumo energetico inferiore rispetto alla HBM nei data center IA. Ma il progetto rimane in una fase iniziale, con l’obiettivo di commercializzazione entro il 2030.
Come investire
Supponendo che il ciclo continui per almeno un altro anno, gli investitori devono decidere come partecipare. Per gli investitori statunitensi, Micron rimane l’opzione più accessibile. SK Hynix domina il mercato HBM e Samsung offre diversificazione, ma l’esposizione richiede solitamente il trading “over-the-counter” o l’uso di ETF internazionali.
Valutare Micron è complicato perché gli utili ciclici distorcono i tradizionali rapporti prezzo-utili (P/E). Joseph Moore di Morgan Stanley preferisce invece fare una media degli utili su un intero ciclo e applica un multiplo di 25 volte a utili per azione “attraverso il ciclo” di 18,00 dollari. L’analista di UBS Timothy Arcuri guarda avanti al 2027, assegnando un rapporto prezzo-vendite di tre volte ai ricavi core DRAM e NAND e di sei volte alle vendite HBM. Entrambi gli approcci producono un obiettivo di prezzo (target price) di 450 dollari.

Le azioni di Micron scambiano vicino ai 425 dollari, dopo essere più che quadruplicate nell’ultimo anno. Il titolo ha vacillato di recente a causa di indiscrezioni secondo cui l’azienda potrebbe essere in ritardo rispetto ai rivali coreani nella fornitura dell’ultimo tipo di chip HBM a Nvidia, ma dirigenti e analisti hanno respinto tali timori.
Un’ultima cautela: anche se il boom dovesse durare fino a metà del 2027, mantenere il titolo Micron così a lungo potrebbe non essere sicuro. Nelle industrie cicliche, i multipli di valutazione tipicamente iniziano a contrarsi prima che appaia la sovrapproduzione, anche mentre le vendite e gli utili continuano a salire. Il super-ciclo dei chip di memoria può essere avvincente, ma gli investitori devono rimanere disciplinati nel modo in cui lo gestiscono.
CONCLUSIONI LASCIATE ALL’AI (Gemini)
Analisi Tecnica: Il Paradosso del Ciclo e il “Rischio di Anticipo”
L’articolo di Barron’s mette in luce una dinamica che ogni investitore in comparti ad alta intensità di capitale (come le memorie DRAM e NAND) deve scolpire nella propria strategia: il mercato azionario non riflette il presente, ma sconta il futuro a 12-18 mesi.
1. La Trappola degli Utili Record
Il rischio maggiore per l’investitore meno esperto è quello di rimanere ammaliato dai bilanci. Nel settore dei semiconduttori, i momenti in cui le aziende riportano utili record e multipli P/E (Prezzo/Utili) apparentemente bassi sono spesso i più pericolosi. Perché? Perché il mercato sa che quegli utili sono “di picco”. Quando la domanda eccede l’offerta, i margini esplodono, ma è proprio in quel momento che le aziende annunciano investimenti miliardari in nuove fabbriche (Capex).
2. Il Meccanismo della Compressione dei Multipli
Il “Rischio di Anticipo” si manifesta attraverso la contrazione dei multipli. Storicamente, i titoli come Micron iniziano a scendere quando le notizie sono ancora eccellenti. Gli investitori istituzionali iniziano a vendere non appena intravedono all’orizzonte la “messa a terra” della nuova capacità produttiva. Se le nuove fabbriche (come quelle citate in Idaho o il cluster SK Hynix) inizieranno a inondare il mercato di chip a metà 2027, il prezzo del titolo rifletterà quel potenziale eccesso di offerta (glut) con largo anticipo, probabilmente già tra la fine del 2026 e l’inizio del 2027.
3. Disciplina vs. Avidità
Il super-ciclo dell’IA ha introdotto una variabile nuova: la HBM (High Bandwidth Memory). Questa tecnologia consuma il triplo della capacità produttiva standard, agendo da “freno” naturale all’offerta globale. Questo può allungare il ciclo positivo, ma non lo rende eterno. La disciplina citata da Adam Clark consiste nel capire che uscire con un profitto del 20% inferiore al massimo assoluto è una vittoria, mentre restare intrappolati in un crollo ciclico del 50% aspettando l’ultimo dollaro di rialzo è un errore fatale.
Conclusione per i lettori
In borsa, nel settore delle memorie, si dice che bisogna “comprare sulle perdite e vendere sugli utili record”. Con un target medio degli analisti fissato a 450 dollari e un prezzo che ha già quadruplicato il suo valore, il margine di errore si restringe. L’investitore intelligente monitora non tanto il fatturato di oggi, quanto gli annunci di nuova capacità produttiva di domani.
La musica dell’IA sta suonando fortissimo, ma è fondamentale restare vicini all’uscita di sicurezza prima che le luci della festa si spengano improvvisamente.
19/02/26 FT: Il più grande produttore di sanitari del Giappone è una scommessa sull’IA sottovalutata, afferma un investitore attivista

Il più grande produttore di sanitari del Giappone è una scommessa sull’IA “sottovalutata e trascurata”, secondo un investitore attivista con sede nel Regno Unito.
Palliser Capital ha inviato una lettera al consiglio di amministrazione di Toto la scorsa settimana esortandolo a valorizzare di più il suo segmento delle ceramiche avanzate, affermando che detiene una posizione cruciale nella catena di fornitura dei semiconduttori. Il segmento genera il 40 per cento dell’utile operativo di Toto.
Ubiquitaria in Giappone e ora famosa in tutto il mondo, Toto è nota soprattutto per i suoi sedili del water riscaldati e le funzioni bidet “Washlet”. Ma il produttore “si è silenziosamente evoluto da un tradizionale campione nazionale di articoli sanitari in una potenza nascente nelle ceramiche avanzate per la produzione di semiconduttori”, ha affermato Palliser.
Ha descritto Toto come “il beneficiario della memoria IA più sottovalutato e trascurato” perché l’azienda produce anche i cosiddetti mandrini elettrostatici, che vengono utilizzati per produrre chip di memoria Nand.
I prezzi dei chip di memoria sono impennati negli ultimi mesi a causa della massiccia domanda da parte delle aziende focalizzate sull’IA.
La tecnologia dei mandrini di Toto utilizza ceramiche progettate per rimanere stabili a temperature molto basse, aiutando a mantenere saldi i wafer di silicio durante la produzione di chip.
Ciò la rende rilevante per l’incisione criogenica, che si prevede crescerà man mano che i chip di memoria diventeranno più stratificati e complessi.
L’azienda produce mandrini elettrostatici dagli anni ’80 utilizzando ciò che ha imparato sulle ceramiche durante la produzione di sanitari, ma solo negli ultimi anni hanno iniziato a diventare un grande affare.
Palliser ritiene che Toto abbia un “fossato” competitivo di cinque anni prima che altre aziende possano recuperare il ritardo. Argomenta che il business delle ceramiche avanzate potrebbe fornire una crescita dei ricavi del 30 per cento o più nei prossimi due anni “guidata dal ciclo di aggiornamento Nand e dalla domanda di sostituzione stabile”.
Tuttavia, Palliser ha anche affermato che Toto non è riuscita a spiegare adeguatamente l’importanza del business agli azionisti e al mercato e che troppo poco dell’investimento pianificato dall’azienda sta confluendo nel segmento altamente redditizio.
Fondata da un ex esponente di spicco di Elliott Management, Palliser sta giocando un ruolo sempre più preminente nell’attivismo degli azionisti in Giappone, che è esploso negli ultimi anni.
Palliser è entrata in Toto circa sei mesi fa e detiene una partecipazione tra i primi 20 azionisti, secondo persone che hanno familiarità con la sua posizione.
Le altre partecipazioni del fondo includono quote nella società immobiliare Tokyo Tatemono, Keisei Electric Railway, che gestisce treni a Tokyo, e Japan Post Holdings.
Palliser ha suggerito che le azioni di Toto potrebbero salire di oltre il 55 per cento se espandesse il suo business delle ceramiche avanzate, vendesse le partecipazioni incrociate e utilizzasse i suoi 76 miliardi di ¥ (496 milioni di $) in liquidità netta in modo più efficiente.
Le azioni di Toto sono già aumentate di oltre il 60 per cento nell’ultimo anno, incluso un aumento di oltre il 5 per cento martedì dopo che la notizia della partecipazione di Palliser è stata riportata per la prima volta da Bloomberg.
Palliser e Toto hanno rifiutato di commentare.
Gli analisti si sono precedentemente concentrati sul business delle ceramiche avanzate di Toto. Goldman Sachs ha aggiornato il titolo a “buy” (comprare) il mese scorso, evidenziando l’aspettativa di una continua crescita elevata a causa dell’espansione degli investimenti globali nei data center IA.
Toto non è la prima azienda apparentemente non tecnologica in Giappone a far parte del boom dell’IA. Ajinomoto, meglio conosciuta per i dadi da brodo, utilizza resina derivata dalla sua esperienza negli aromi umami per produrre materiale isolante tra i chip e le schede madri.
17/02/26 Ark: OpenAI lancia il primo modello AI “Frontier” ad alta velocità basato su Cerebras
Di Frank Downing | @downingARK
Direttore della ricerca, AI & Cloud
A solo un mese dall’annuncio di una collaborazione che prevede 750 megawatt di infrastruttura AI alimentata da Cerebras, OpenAI ha presentato Codex Spark, una variante del suo ultimo modello di coding GPT 5.3, progettata per girare ad altissima velocità sul Wafer Scale Engine di Cerebras.
Inizialmente disponibile per gli abbonati a ChatGPT Pro al costo di 200 dollari al mese, il nuovo modello può raggiungere velocità di 1.000 token al secondo, ben al di sopra dei modelli “frontier” di altri laboratori leader che si fermano a 100-200 token al secondo. Codex Spark è il primo modello AI proprietario a essere lanciato sul tipo di chip ottimizzato per l’inferenza di cui Cerebras e Groq sono stati i pionieri. Ad oggi, queste piattaforme avevano ospitato solo modelli open-source, inferiori ai migliori modelli proprietari dei laboratori di punta. Pur essendo leggermente indietro rispetto alle capacità dei modelli rilasciati da OpenAI e Anthropic la scorsa settimana, Codex Spark è capace quanto il modello GPT 5.1 Codex, lanciato lo scorso novembre.
Con l’aumentare della popolarità del coding agentico (basato su agenti autonomi) e il miglioramento dei modelli nel completare compiti complessi e dispendiosi in termini di tempo, è probabile che un aumento dei token al secondo dia una forte spinta all’esperienza degli sviluppatori, riducendo i tempi di attesa e permettendo una maggiore interattività durante il processo di ragionamento. Il focus di OpenAI sul coding negli ultimi mesi sembra dare i suoi frutti: i download dello strumento Codex di OpenAI stanno colmando il divario con Claude Code (rilasciato con Anthropic Opus 4.5 alla fine del 2025).
19/02/26 Reuters: Raspberry Pi vola del 40% grazie all’acquisto di azioni da parte del CEO e al crescente interesse per l’IA
Di Danilo Masoni 17 febbraio 2026
MILANO, 17 feb (Reuters) – Le azioni di Raspberry Pi (RPI.L) sono salite fino al 42% martedì in un rally record di due giorni, dopo che il CEO Eben Upton ha acquistato azioni della società britannica di hardware informatico in difficoltà, interrompendo un calo durato mesi, mentre crescevano le voci secondo cui i suoi prodotti potrebbero beneficiare di progetti di intelligenza artificiale a basso costo.
Due trader di Londra hanno affermato che la causa dietro l’impennata non era chiara, sebbene il movimento sia seguito a un deposito che mostrava che Upton ha acquistato circa 13.224 sterline di azioni a circa 282 pence ciascuna lunedì. Il titolo è ancora circa il 50% al di sotto del massimo storico raggiunto un anno fa.
Il rally della società, che vale circa 800 milioni di dollari, si è materializzato insieme al fermento sui social media riguardo al fatto che la domanda per i suoi computer a scheda singola (single-board computers) potrebbe riprendersi, poiché le persone li acquistano per far girare agenti IA come OpenClaw.
L’utente di X @aleabitoreddit, che ha più di 58.000 follower, ha postato lunedì: “Idea di trading divertente: Long $RPI (Raspberry Pi)”, sostenendo che gli acquirenti hanno iniziato recentemente ad accumulare i dispositivi perché sono molto più economici dei “prodotti Apple da oltre 500 dollari”.
Interpellata riguardo al movimento del prezzo delle azioni, Raspberry Pi ha dichiarato: “Non c’è nulla da parte della società oltre a ciò che è già di dominio pubblico”.
Alle 14:54 GMT, le azioni erano in rialzo di circa il 27%, guidando i guadagni sul FTSE 250. All’inizio di questo mese, il titolo era sceso sotto il suo prezzo di IPO di 280 pence.
A gennaio, Raspberry Pi ha dichiarato che i suoi utili core per il 2025 sarebbero stati superiori alle aspettative, ma ha avvertito che l’outlook per il 2026 era offuscato dalla volatilità nelle forniture e nei prezzi delle memorie.
17/02/26 Briefing.com: Micron scivola nonostante l’impennata della domanda di IA, mentre il massiccio piano di espansione da 200 miliardi di dollari solleva timori sulle spese in conto capitale (capex)
Micron Technology (MU) sta scambiando in netto ribasso a seguito di un rapporto del Wall Street Journal del fine settimana che delinea il piano da 200 miliardi di dollari della società per espandere la capacità di memoria, poiché la domanda spinta dall’IA lascia MU in grado di soddisfare solo il 50-67% della domanda attuale di memorie specializzate per l’IA. L’articolo evidenzia gravi carenze in tutto il settore, specialmente per le HBM (High Bandwidth Memory), posizionando MU come uno dei principali beneficiari della contrazione dell’offerta e dell’impennata dei prezzi.
MU pianifica un’espansione da 50 miliardi di dollari a Boise, Idaho, con la prima nuova fabbrica (fab) che dovrebbe iniziare la produzione di wafer a metà del 2027. La società sta inoltre sviluppando un complesso di fabbriche di wafer da 100 miliardi di dollari vicino a Syracuse, New York, con l’obiettivo di fornire le prime forniture per il 2030. Insieme, questi progetti mirano a riportare negli Stati Uniti (onshore) circa il 40% della produzione di DRAM di MU.
L’espansione avviene nel mezzo di una carenza globale di memoria che sta peggiorando, spinta dall’accelerazione della costruzione di data center per l’IA da parte degli hyperscaler come Google (GOOG/GOOGL), Meta Platforms (META) e Amazon (AMZN), sottraendo forniture a PC, smartphone, auto e usi industriali.
L’aumento dei prezzi delle DRAM sta mettendo sotto pressione i margini dell’elettronica di consumo presso aziende come Apple (AAPL) e Samsung (SSNLF), così cui i produttori di PC (OEM) inclusi Dell (DELL), HP (HPQ) e Lenovo.
MU ne sta beneficiando direttamente, con il margine lordo non-GAAP del primo trimestre 2026 balzato al 56,8% e una guidance per il margine del secondo trimestre al 67-69%, trainata dal potere contrattuale sui prezzi (pricing power) e dai prodotti di memoria per l’IA ad alto valore. La società ha reso noto che tutta la capacità HBM è esaurita (sold out) per tutto l’anno solare 2026, riflettendo gli impegni a lungo termine dei clienti IA e la limitata crescita dell’offerta nel settore a breve termine.
Analisi dell’analista di Briefing.com
Il piano di investimento da 200 miliardi di dollari di MU sottolinea quanto sia diventato strutturalmente rigido il mercato delle memorie nell’era dell’IA. I vincoli di fornitura a breve termine stanno alimentando una straordinaria espansione dei margini, mentre le aggiunte di capacità a lungo termine dovrebbero alla fine allentare i colli di bottiglia per partner come NVIDIA (NVDA), che dipende pesantemente dalle HBM per gli acceleratori IA. Anche i fornitori di storage come Seagate Technology (STX) potrebbero beneficiarne indirettamente, man mano che la spesa degli hyperscaler si amplia tra calcolo, memoria e archiviazione.
Sebbene permanga il rischio di esecuzione data la scala e la tempistica dei progetti, MU appare posizionata per un periodo pluriennale di elevata redditività e importanza strategica in tutta la catena di fornitura dei semiconduttori. Il ripiegamento del titolo oggi riflette probabilmente la preoccupazione degli investitori per l’entità e la durata del piano capex da 200 miliardi di dollari, che solleva interrogativi sul flusso di cassa libero (free cash flow) a lungo termine, sul potenziale eccesso di offerta più avanti nel ciclo e sui rendimenti del capitale investito una volta che la domanda guidata dall’IA si sarà normalizzata.
16/02/26 Bloomberg: La crescente domanda di memoria da parte dell’intelligenza artificiale sta alimentando una crescente crisi dei chip

By Debby Wu, Takashi Mochizuki, and Yoolim Lee
Punti chiave di Bloomberg AI
- La carenza di chip di memoria sta colpendo duramente i profitti, facendo saltare i piani aziendali e gonfiando i prezzi di vari prodotti; si prevede che questa crisi peggiorerà ulteriormente.
- La ragione fondamentale della stretta è l’espansione dei data center per l’IA: società come Alphabet e OpenAI stanno acquistando enormi quote della produzione di chip di memoria, lasciando i produttori di elettronica di consumo a contendersi una fornitura sempre più esigua.
- I conseguenti picchi di prezzo stanno destando preoccupazione: alcuni avvertono del rischio di un “RAMmageddon”, mentre altri prevedono che i prezzi dei chip di memoria diventeranno “parabolici”, portando profitti esorbitanti ad alcune aziende, ma prezzi dolorosi per tutto il resto del settore elettronico.
Machine translated from English to Italian.
Una crescente processione di leader del settore tecnologico tra cui Elon Musk E Tim Cook lanciano l’allarme su una crisi globale in arrivo: la carenza di chip di memoria sta iniziando a colpire i profitti, a far deragliare i piani aziendali e a far salire i prezzi di tutto, dai laptop agli smartphone, dalle automobili ai data center, e la crisi non farà che peggiorare.
Dall’inizio del 2026, Tesla Inc., Apple Inc. e una dozzina di altre grandi aziende hanno segnalato che la carenza di DRAM, ovvero la memoria dinamica ad accesso casuale (DRAM), il componente fondamentale di quasi tutta la tecnologia, limiterà la produzione. Cook ha avvertito che ciò comprimerà i margini di profitto dell’iPhone. Micron Technology Inc. chiamato il collo di bottiglia“senza precedenti.” Musk è riuscito a la natura intrattabile del problema quando dichiarò che Tesla avrebbe dovuto costruire il proprio impianto di fabbricazione di memorie.
“Abbiamo due scelte: sbattere contro il muro dei chip o fare una fabbrica”, ha detto disse a fine gennaio.

La ragione fondamentale della stretta è la creazione di data center AI. Aziende come Alphabet Inc. E OpenAI stanno divorando una quota crescente della produzione di chip di memoria, acquistandone milioni Nvidia Corp. Acceleratori di intelligenza artificiale dotati di enormi quantità di memoria per gestire chatbot e altre applicazioni. Questo ha lasciato i produttori di elettronica di consumo a contendersi una fornitura in calo di chip da parte di aziende come Samsung Electronics Co. e Micron.
I picchi di prezzo che ne sono derivati stanno iniziando a somigliare un po’ all’iperinflazione della Repubblica di Weimar. Il costo di un tipo di DRAM è schizzato del 75% da dicembre a gennaio, accelerando i rialzi durante il trimestre festivo. Un numero crescente di rivenditori e intermediari modifica i prezzi ogni giorno. “RAMmageddon” è il termine che alcuni usano per descrivere ciò che sta per arrivare.
“Siamo sull’orlo di qualcosa che è più grande di qualsiasi cosa abbiamo affrontato prima”, ha detto Tim Archer, amministratore delegato del fornitore di apparecchiature per chip. Lam Research Corp., ha affermato durante una conferenza tenutasi questo mese in Corea del Sud. “Ciò che ci aspetta da qui alla fine di questo decennio, in termini di domanda, è più grande di qualsiasi cosa abbiamo visto in passato e, di fatto, travolgerà tutte le altre fonti di domanda”.

Ciò che preoccupa di questa tendenza è che i prezzi stanno salendo alle stelle e le scorte si stanno esaurendo ancor prima che i giganti dell’intelligenza artificiale inizino davvero a realizzare i loro piani di costruzione di data center. Alphabet e Amazon.com Inc. ha appena annunciato piani per un’operazione di investimento nel settore edilizio che potrebbe raggiungere rispettivamente i 185 e i 200 miliardi di dollari, una cifra superiore a quella investita in spese in conto capitale da qualsiasi azienda nella storia in un solo anno.
Mark Li, un analista di Bernstein che segue l’industria dei semiconduttori, avverte che i prezzi dei chip di memoria stanno diventando “parabolici”. Mentre ciò porterà profitti lauti a Samsung, Micron e SK Hynix Inc., il resto del settore dell’elettronica pagherà un prezzo doloroso nei prossimi mesi.
“Questo squilibrio strutturale tra domanda e offerta non è semplicemente una fluttuazione a breve termine”, ha affermato Yang Yuanqing, l’amministratore delegato di Lenovo Group Ltd., in un’intervista dopo i guadagni di giovedì, ha spiegato che la crisi durerà almeno per il resto dell’anno.

Questa interruzione sta minacciando la redditività di intere linee di prodotti e sconvolgendo i piani a lungo termine.
Sony Group Corp. Secondo fonti vicine al pensiero dell’azienda, starebbe valutando di posticipare il lancio della sua prossima console PlayStation al 2028 o addirittura al 2029. Ciò rappresenterebbe un grave sconvolgimento per una strategia attentamente orchestrata per sostenere il coinvolgimento degli utenti tra le diverse generazioni di hardware. Un rivale diretto Nintendo Co., che ha contribuito all’eccesso di domanda nel 2025 dopo che la sua nuova console Switch 2 ha spinto gli acquisti di schede di memoria, sta anche valutando di aumentare il prezzo di quel dispositivo nel 2026, secondo quanto riferito da fonti a conoscenza dei suoi piani. I rappresentanti di Sony e Nintendo non hanno risposto alle richieste di commento.
Un dirigente di un produttore di laptop ha affermato che Samsung Electronics ha recentemente iniziato a rivedere i suoi contratti di fornitura di memoria circa ogni trimestre, anziché generalmente su base annuale. I produttori cinesi di smartphone, tra cui Xiaomi Corp., Oppo E Shenzhen Transsion Holdings Co. stanno riducendo gli obiettivi di spedizione per il 2026, con Oppo che ha tagliato le sue previsioni fino al 20%, secondo quanto riportato dal quotidiano cinese Jiemian. Le aziende non hanno risposto alle richieste di commento.

“In questo momento ci troviamo in una sorta di tempesta con cui dobbiamo fare i conti ora dopo ora, giorno dopo giorno”, Steinar Sonsteby, CEO dell’azienda IT norvegese Atea ASA, hanno dichiarato gli analisti a febbraio.
Cisco Systems Inc. ha citato il ricordo stretta quando la scorsa settimana ha presentato deboli previsioni di profitto che hanno portato alla peggiore perdita di azioni in quasi quattro anni. Qualcomm Inc. E Arm Holdings Plc entrambi hanno avvertito che ci saranno ulteriori conseguenze.
Al Sunin Plaza, la mecca del PC fai-da-te di Seul, il solito fermento feriale è svanito. Il labirinto di bancarelle, un tempo vivace centro di vendita di schede grafiche e schede madri per videogiochi, è ora avvolto da un silenzio inquietante.
“In realtà è più saggio rimandare gli affari oggi, perché è quasi certo che i prezzi saranno più alti domani”, ha affermato Suh Young-hwan, che gestisce tre negozi di PC fai da te a Seul e che spesso fa affari con le bancarelle di Sunin Plaza. “A meno che Steve Jobs non risorga dai morti per dichiarare che l’intelligenza artificiale non è altro che una bolla, è probabile che questa tendenza persista per un po’ di tempo”.
Il segmento dei PC premium e fai da te è stato duramente colpito quando l’anno scorso il produttore di chip statunitense Micron ha deciso di chiudere il suo popolare marchio di memory stick per consumatori Crucial, dopo tre decenni di attività. Kelt Reeves, CEO e fondatore del produttore di PC personalizzati Falcon Northwest, ha affermato che il fallimento di Crucial ha innescato una “corsa precipitosa” per accaparrarsi il maggior numero possibile di scorte, spingendo i prezzi delle memorie a nuovi massimi a gennaio. Nel corso del 2025, il prezzo medio di vendita di Falcon Northwest è aumentato di 1.500 dollari, arrivando a circa 8.000 dollari per ogni computer personalizzato.
Tutto ciò riecheggia una delle più grandi interruzioni della catena di approvvigionamento nella memoria recente: la carenza di chip economici e basilari per auto e potenza durante l’era Covid che paralizzato case automobilistiche da Ford Motor Co. A Volkswagen AG, ha costretto i produttori di smartphone ad accumulare scorte a prezzi esorbitanti e ha dato il via a un movimento globale, anche negli Stati Uniti, per attrarre e sviluppare la produzione locale di chip.
All’epoca ciò era dovuto a un’impennata inaspettata della domanda di prodotti da parte di persone che lavoravano da casa e cercavano di ridurre al minimo i contatti.
Questa volta, la carenza è dovuta alla svolta dell’industria della memoria verso l’intelligenza artificiale. Meta Platforms Inc., Microsoft Corp., Amazon e Alphabet stanno investendo somme astronomiche nei data center che possono addestrare e ospitare algoritmi di intelligenza artificiale, aumentando la spesa da 217 miliardi di dollari nel 2024 a circa 360 miliardi di dollari l’anno scorso, per una stima di 650 miliardi di dollari nel 2026.

Quella follia — rivaleggiando con la il più costoso L’impegno umano nella storia nasce dall’ambizione di superare i propri rivali più grandi in un campo che potrebbe determinare il loro futuro. Le quattro grandi aziende tecnologiche stanno pagando cifre esorbitanti per i componenti, le risorse e il talento umano che renderanno possibile tutta questa infrastruttura di intelligenza artificiale.
Pochi settori sono stati trasformati da questa corsa sfrenata più della memoria globale. Nei tre anni trascorsi da ChatGPT, Samsung, SK Hynix e Micron hanno dirottato la maggior parte della loro produzione, ricerca e investimenti verso l’HBM utilizzato negli acceleratori di intelligenza artificiale di Nvidia e Advanced Micro Devices Inc. Ciò significa una minore capacità produttiva degli impianti per produrre DRAM standard per dispositivi elettronici di base come i telefoni.
Le tre aziende stanno dando priorità all’HBM rispetto alla DRAM per una semplice questione matematica.

Per ogni acceleratore AI Nvidia acquistato dagli hyperscaler, queste aziende necessitano anche di memoria ad alta larghezza di banda, o HBM, per alimentare i loro sforzi. Questi chip sono costituiti da DRAM complessamente compattata, spesso impilata in strati di otto o dodici. L’ultimo Blackwell di Nvidia è dotato di 192 gigabyte di RAM, ovvero sei volte la quantità necessaria a un potente PC moderno. Un sistema server AI integrato denominato NVL72 vanta 72 chip Blackwell e 13,4 terabyte di RAM. Ogni sistema rack-scale NVL72 venduto utilizza memoria sufficiente per mille smartphone di fascia alta o qualche centinaio di PC potenti.
La domanda di HBM aumenterà del 70% su base annua solo nel 2026, secondo la società di consulenza TrendForce con sede a Taipei stimeNel frattempo, secondo la società di consulenza, HBM assorbirà il 23% della produzione totale di wafer DRAM nel 2026, rispetto al 19% dell’anno scorso.
Inoltre, in tempi normali, producono margini migliori semplicemente perché Samsung e tutti gli altri possono far pagare di più dato lo squilibrio tra domanda e offerta. Si prevede che il fatturato di Micron supererà raddoppiare nell’anno fiscale conclusosi ad agosto. Le vendite di SK Hynix sono più che raddoppiate nel 2024 e probabilmente raddoppieranno ancora quest’anno.
Ma questa ondata di affari legata all’HBM crea problemi ai consumatori di memorie. Sta lasciando il resto del mondo privo della memoria di cui le persone hanno bisogno per archiviare le foto dei cellulari, guidare le auto, scaricare film ed eseguire programmi per computer. Titoli GF stima che ci sia un divario del 4% tra l’offerta e la domanda di DRAM e del 3% per NAND, ma queste cifre non tengono ancora conto delle basse scorte in alcuni settori, quindi lo squilibrio effettivo è probabilmente maggiore.
“La carenza di DRAM è destinata a persistere nei settori dell’elettronica, delle telecomunicazioni e dell’automotive per tutto l’anno”, ha affermato l’analista di Counterpoint MS Hwang. “Stiamo già assistendo a segnali di acquisti dettati dal panico nel settore automobilistico, mentre i produttori di smartphone si stanno orientando verso alternative di chip più convenienti per mitigarne l’impatto”.
Ed è improbabile che l’offerta di memoria di base possa riprendersi in tempi brevi.

Samsung, SK Hynix e Micron hanno attraversato insieme diversi cicli di crescita e contrazione della domanda di chip di memoria. Mentre si affrettano ad aumentare l’offerta, ci vorranno anni per costruire e attrezzare i nuovi stabilimenti necessari per produrre più chip di memoria.
“Si tratta della più significativa discrepanza tra domanda e offerta in termini di entità e orizzonte temporale che abbiamo sperimentato nei miei 25 anni nel settore”, ha dichiarato Manish Bhatia, vicepresidente esecutivo delle operazioni di Micron. dettoBloomberg News di dicembre.
Bhatia potrebbe riferirsi alla crescente convinzione che il settore stia attraversando un cosiddetto “superciclo” di domanda di intelligenza artificiale. Si tratta di un’ondata di adozione tecnologica così vasta e ampia da alterare o addirittura sradicare il ciclo decennale di espansione e contrazione del settore delle memorie, in cui i produttori di chip costruiscono capacità per inseguire l’aumento dei prezzi, solo per esagerare e precipitare in una recessione. Questa volta, la ripresa è netta e pochi – men che meno gli hyperscaler – scommettono sulla sua fine.
Aziende di elettronica da Xiaomi A SAMSUNG E Dell Technologies Inc. hanno tutti avvertito i consumatori di prepararsi a prezzi più alti quest’anno, in vista delle elezioni di medio termine negli Stati Uniti, quando l’inflazione potrebbe diventare un punto focale.
L’impennata dei costi della memoria significa che la DRAM potrebbe presto rappresentare fino al 30% dei materiali impiegati negli smartphone di fascia bassa, triplicando rispetto al 10% di inizio 2025. L’impatto maggiore si avrebbe sui dispositivi più economici che non hanno potere decisionale in materia di prezzi, ha affermato Counterpoint Research.
“La memoria è ora il nuovo oro per il settore dell’intelligenza artificiale e dell’automotive, ma è chiaro che non sarà facile”, ha affermato l’amministratore delegato di Arista Networks Inc., partner di AMD. Jayshree V. Ullal ha dichiarato agli analisti a febbraio. “Favorirà chi ha pianificato e chi può permettersi di spendere i soldi necessari”.
— With assistance from Vlad Savov, Ian King, Yuan Gao, Dina Bass, Jessica Sui, and Yuki Furukawa
11/02/26 Reuters: Cadence presenta un agente IA per accelerare il design dei chip per computer
Di Stephen Nellis 10 febbraio 2026
WASHINGTON (Reuters) – Martedì, Cadence Design Systems ha lanciato un “agente” virtuale basato su intelligenza artificiale per aiutare aziende come Nvidia a velocizzare il complesso processo di design dei chip per computer, un fronte chiave nella competizione tecnologica tra Stati Uniti e Cina.
Cadence vende strumenti fondamentali per la progettazione di chip complessi con decine di miliardi di transistor. Prima che questi chip diventino silicio fisico, gli ingegneri descrivono il circuito utilizzando un linguaggio simile al codice (HDL).
Sintesi dei punti chiave
- Il tool IA di Cadence affronta il bottleneck (collo di bottiglia) nel design dei chip, aumentando la produttività.
- Il ChipStack AI Super Agent accelera i task di 10 volte.
- Gli strumenti IA sono cruciali nella competizione tecnologica USA-Cina, secondo l’analista Altavilla.
Il nuovo strumento affronta un importante bottleneck del settore. Il design dei chip è così intensivo in termini di lavoro e costi che i team di ingegneri possono trascorrere fino al 70% del loro tempo a scrivere e testare codice; gli analisti sostengono che gli incrementi di produttività alimentati dall’IA siano fondamentali affinché gli Stati Uniti mantengano il proprio vantaggio tecnologico.
Martedì, Cadence ha introdotto uno strumento chiamato ChipStack AI Super Agent. L’agente analizza il design di un chip, costruisce un “mental model” di come il chip dovrebbe funzionare e può quindi utilizzare vari tool di Cadence per testare il progetto e risolvere i bug.
“Da qui alla fine del decennio, ci trasformeremo da un’azienda che concede in licenza nuovi strumenti a un’azienda che vi affitta virtual engineers“, ha dichiarato Paul Cunningham, vicepresidente e direttore generale della ricerca e sviluppo presso Cadence.
Cadence ha affermato che l’agente accelera alcuni task di 10 volte ed è già in fase di utilizzo iniziale presso Nvidia, Altera e la startup di chip Tenstorrent, tra gli altri.
Dave Altavilla, analista principale di HotTech Vision and Analysis, ha affermato che tali strumenti di produttività basati sull’IA potrebbero essere determinanti nella competizione tecnologica tra Stati Uniti e Cina. Il governo degli Stati Uniti ha limitato l’esportazione di strumenti avanzati per chip verso la Cina, ma le aziende cinesi stanno sviluppando i propri tool di chip design e probabilmente li potenzieranno con l’IA.
“Hai bisogno di quella capacità per competere”, ha detto Altavilla. “Sono molto intelligenti e ci superano (come numero di chip designers) in modo drammatico”.
10/02/26 Bloomberg: La scarsità dei chip di memoria amplia il divario tra vincitori e vinti del mercato
By Winnie Hsu
Machine translated from English to Italian.
L’impennata inarrestabile dei prezzi dei chip di memoria degli ultimi mesi ha creato un divario enorme tra vincitori e vinti nel mercato azionario, e gli investitori non vedono alcuna fine in vista.
Aziende del produttore di console per videogiochi Nintendo Co. ai grandi marchi di PC e Apple Inc. I fornitori stanno assistendo a un crollo delle azioni a causa delle preoccupazioni sulla redditività. I produttori di memorie, nel frattempo, stanno raggiungendo livelli senza precedenti. Gestori finanziari e analisti stanno ora valutando quali aziende possano gestire al meglio la stretta bloccando le forniture, aumentando i prezzi dei prodotti o riprogettando per utilizzare meno memoria.
L’indice Bloomberg dei produttori globali di elettronica di consumo è in calo del 10% dalla fine di settembre, mentre un basket dei creatori di memoria tra cui Samsung Electronics Co. è aumentato di circa il 160%. La domanda ora è quanto è stato valutato.
“Ciò che resta sottovalutato è il rischio legato alla durata: le valutazioni attuali tengono in gran parte conto del fatto che la perturbazione si normalizzerà entro uno o due trimestri”, ha affermato Vivian Pai, gestore di fondi presso Fidelity International. “Riteniamo che la situazione di tensione nel settore probabilmente persisterà”, forse anche per il resto dell’anno, ha aggiunto.

Per saperne di più: Le previsioni ottimistiche di Apple sono offuscate dai timori sull’aumento dei costi
La carenza di chip di memoria e i prezzi sono spesso menzionati dalle aziende nei report finanziari e nelle conference call. In uno degli esempi più recenti, Honda Motor Co. ha osservato martedì che stanno emergendo rischi per l’approvvigionamento dei componenti di memoria.
Gli investitori stanno sentendo i campanelli d’allarme. Le azioni di Qualcomm Inc. sono scese di oltre l’8% giovedì scorso dopo che il produttore di processori per smartphone segnalato che i limiti di memoria limiteranno la produzione di telefoni. Nintendo ha registrato il calo maggiore degli ultimi 18 mesi a Tokyo il giorno dopo aver avvertito della pressione sui margini causata dalle carenze.
Tra questi rientrano anche i produttori di PC colpiti più duramenteSia Lenovo Group Ltd. che Dell Technologies Inc. hanno registrato un calo di oltre il 25% rispetto ai rispettivi picchi di ottobre. La preoccupazione che l’aumento dei prezzi dei chip possa frenare la domanda di PC si è estesa anche al produttore svizzero di periferiche. Logitech International SA, che è diminuito di quasi il 30% rispetto al picco di novembre.
Altrove, le azioni dei produttori cinesi di veicoli elettrici e smartphone da Società BYD A Xiaomi Corp. sono stati lenti anche per quanto riguarda le preoccupazioni legate alla carenza di chip.
“I prezzi della memoria sono passati dall’essere un argomento di conversazione di sottofondo ai titoli dei giornali in questa stagione degli utili”, ha affermato Charu Chanana, Chief Investment Strategist di Saxo Bank. “Il mercato è ampiamente consapevole che i prezzi delle memorie sono in aumento e l’offerta è limitata: non si tratta più di una novità, quindi presumo che sia già scontato. Ma sembra che la tempistica di questa limitazione dell’offerta stia iniziando a essere messa in discussione”.
‘Superciclo’ della memoria
Le preoccupazioni relative alla domanda e agli utili stanno pesando sul panorama aziendale, aggravate dal timore che l’ingente spesa in infrastrutture di intelligenza artificiale da parte degli hyperscaler statunitensi possa ulteriormente aggravare la carenza di chip di memoria. L’imponente sviluppo di infrastrutture di intelligenza artificiale, guidato da aziende come Amazon.com Inc. ha spostato la capacità produttiva verso la memoria ad alta larghezza di banda e lontano dalla tradizionale DRAM.
Ciò ha portato a quello che alcuni definiscono un “superciclo”, interrompendo i consueti schemi di domanda e offerta di memoria, caratterizzati da un andamento altalenante.I prezzi spot delle DRAM sono aumentati di oltre il 600% negli ultimi mesi, nonostante la domanda di prodotti finali come smartphone e automobili rimanga debole. Inoltre, l’intelligenza artificiale sta creando una nuova domanda di chip NAND e altri prodotti di storage, facendo aumentare i costi anche in questi segmenti.

Per saperne di più: “Questa volta è diverso”: come l’intelligenza artificiale sta ridefinendo il mercato della memoria
Pertanto, i produttori di chip di memoria sono stati i vincitori più importanti tra i titoli tecnologici. Le azioni di SK Hynix Inc., un fornitore chiave di HBM per Nvidia Corp., sono aumentati di oltre il 150% solo dalla fine di settembre a Seul. Tra i produttori di chip più pedonali, il Giappone Kioxia Holdings Corp. e di Taiwan Nanya Technology Corp. sono aumentati di oltre il 270% ciascuno in quel lasso di tempo, mentre Sandisk Corp. è aumentato di oltre il 400% a New York.
“Storicamente il ciclo della memoria durava normalmente 3-4 anni”, ha detto Jian Shi Cortesi, gestore di fondi presso GAM Investment Management a Zurigo, ha aggiunto di detenere azioni del settore dei chip di memoria da molto tempo. “Il ciclo attuale ha già superato i cicli precedenti sia in termini di durata che di entità, e non stiamo assistendo a un indebolimento della domanda”.

9/02/26 Bloomberg: Amazon rafforza i legami con il produttore di chip STMicro per i data center

Il servizio cloud AWS di Amazon.com Inc. sta rafforzando i suoi legami con il produttore di chip franco-italiano STMicroelectronics NV per proteggere le tecnologie dei semiconduttori per i suoi data center.
STMicro fornirà vari semiconduttori ad AWS, compresi i chip per supportare la connettività ad alta larghezza di banda e per la gestione energetica efficiente richiesta per le operazioni dei data center su larga scala, ha affermato STMicro in un dichiarazionedi lunedi.
In base all’accordo, AWS ha ricevuto warrant per l’acquisto di un massimo di 24,8 milioni di azioni ordinarie STMicro. I warrant matureranno in tranche nel tempo, vincolate al pagamento dei prodotti STMicro. AWS può scegliere di esercitare i warrant in una o più transazioni nell’arco di sette anni, a un prezzo di esercizio iniziale di 28,38 dollari. Per AWS, si tratta almeno del suo secondo investimento in un’azienda di chip.
Le azioni STMicro sono salite del 6,5% all’apertura del mercato, attestandosi a 26,51 dollari.
La crescita globale dei data center a supporto delle tecnologie di intelligenza artificiale sta generando nuovi business per le aziende di semiconduttori. Progettisti e produttori di chip di intelligenza artificiale avanzati, tra cui Nvidia Corp., Advanced Micro Devices Inc. E Taiwan Semiconductor Manufacturing Co. Ltd. — sono stati in prima linea in questo boom. Anche i produttori di chip analogici più maturi hanno assistito a una crescente domanda di applicazioni nei data center di intelligenza artificiale, tra cui gestione dell’alimentazione, sensori e raffreddamento. Infineon Technologies AG ha dichiarato la scorsa settimana di aver previsto un fatturato di 2,5 miliardi di euro (3 miliardi di dollari) legato all’intelligenza artificiale nell’anno fiscale 2027, ovvero un aumento di dieci volte delle vendite di intelligenza artificiale in tre anni.
Per saperne di più: Infineon punta sull’intelligenza artificiale per la crescita mentre il calo della domanda di automobili si trascina
STMicro, che è anche fornitore di Tesla Inc. E Apple Inc., prevedeva i ricavi del primo trimestre due settimane fa che colpo stime degli analisti. La domanda da parte dei clienti dell’elettronica di consumo ha mostrato segni di ripresa alla fine dello scorso anno, dopo un prolungato calo della domanda. Tuttavia, le azioni della società caduto dopo che il rapporto del produttore di chip ha mostrato una ripresa non uniforme nei diversi mercati finali. Amministratore delegato di STMicro Jean-Marc Chéry ha affermato che il mercato automobilistico “non è ancora stabile” in una chiamata con gli analisti.