Visto che tutti ne parlano e che – sembra – essere la prossima gallina dalle uova d’oro cercherò di inserire qui tutte le varie azioni che potrebbero avere uno slancio dalla AI… ricordo sempre che un conto e’ comperare Microsoft un conto una piccola società ma siccome siete tutti adulti e vaccinati….
28/05/23: Aggiornamento: sono stato 4 giorni a Trento a seguire gli incontri del Festival Economia partecipando a più eventi possibile: due i temi che ho portato a casa. Lo scontro che sta venendo avanti con la Cina con tutti gli effetti sulla globalizzazione e le filiere – e speriamo che resti a livello di guerra fredda se no… – e l’AI l’intelligenza artificiale e le sue infinite possibilità di applicazione.
Quelli che hanno la mia età ricorderanno sicuramente il film ” IL Laurato” (più per le “grazie” della signora Robinson – una favolosa Anne Bancroft – e la colonna sonora di Simon& Garfunkel che per le qualità di Dustin Hoffman penso) Beh durante il film girato negli anni 60 l’amico di famiglia prende da parte il protagonista neo laureato e “voglio dirti solo una sola parola: Plastica” consigliandolo di puntare per la sua carriera su questo settore allora in grande crescita.
Se dovessero rifare il film adesso il suggerimento sarebbe sicuramente “AI intelligenza artificiale”….
05/06/23 Barron’s: Micron è la migliore scelta fra le azioni di chip in mezzo all’hype dell’IA, dice un analista
Di Tae Kim
Possedere azioni Micron è il modo migliore per sopravvivere a un pullback dei semiconduttori dopo il grande rally guidato dall’intelligenza artificiale del settore quest’anno, afferma Citi Research.
Micron Technology -1,93% (ticker: MU) è leader nei mercati dei semiconduttori per la memoria dinamica ad accesso casuale, che viene utilizzata nei computer desktop e nei server, e per la memoria flash, che si trova negli smartphone e nei dischi rigidi a stato solido.
Lunedì, l’analista Christopher Danely ha ribadito il suo rating Buy per le azioni Micron con un obiettivo di prezzo di 75 dollari.
“I semiconduttori sono pronti per un pullback”, ha scritto. “Ribadiamo la nostra posizione cauta sul gruppo dato la corsa agli acquisti guidata dall’hype dell’IA. Stiamo anche cambiando le nostre classifiche e spostando Micron al primo posto.”
Nei primi scambi di lunedì, le azioni Micron sono scese dell’1,7% a 67,99 dollari. Il titolo è aumentato del 36% quest’anno, rispetto al guadagno del 37% per iShares SemiconductorSOXX –1.68% fondo negoziato in borsa (SOXX), che tiene traccia delle prestazioni dell’indice ICE Semiconductor, durante lo stesso lasso di tempo.
Danely afferma che la spesa per i semiconduttori di intelligenza artificiale potrebbe cannibalizzare la spesa per altri tipi di chip, compresi i processori PC, poiché l’ambiente economico globale continua a rimanere difficile.
Micron è anche impigliato nelle crescenti tensioni geopolitiche tra Stati Uniti e Cina. Il mese scorso, la Cyberspace Administration of China (CAC) ha annunciato un divieto su alcuni prodotti di Micron dopo un’indagine di due mesi, sostenendo potenziali problemi di sicurezza della rete che potrebbero compromettere la sicurezza nazionale della Cina.
L’analista prevede che il governo degli Stati Uniti potrebbe ora essere più incline a offrire denaro CHIPS Act a Micron dopo l’azione della Cina. Nel 2022, il presidente Joe Biden ha firmato il CHIPS and Science Act, che includeva circa 50 miliardi di dollari di finanziamenti per aumentare la produzione di chip negli Stati Uniti.
“Crediamo che il divieto cinese di Micron dovrebbe mettere l’azienda in grado di ottenere più soldi dal CHIPS Act”, ha scritto.
03/06/23 Barron’s: Un protagonista dell’AI che si nasconde in bella vista. E paga anche un grande dividendo.
Una delle scommesse più allettanti sull’intelligenza artificiale è nascosta in bella vista. È un’azienda che tutti conoscono, un gigante tecnologico che ha concentrato la sua attività per anni sul cloud e sull’intelligenza artificiale. Ha anche uno dei più alti rendimenti da dividendi nel settore tecnologico.
Questa sorpresa AI è… IBM +2,00% .
Ci sono ragioni per cui il mercato è scettico sulla posizione di Big Blue nell’IA, ma l’omissione è miope. Azioni del produttore di chip Nvidia (ticker: NVDA) sono in aumento del 172% quest’anno, spinti dal successo dei suoi chip utilizzati nelle applicazioni di intelligenza artificiale generativa. Microsoft (MSFT) e Alphabet (GOOGL), i principali attori del software AI, hanno aggiunto il 40% a testa.
IBM (IBM)? È in calo dell’8%.
Quel sorprendente declino arriva anche se IBM si è rifatta negli ultimi tre anni sotto la mano ferma del CEO Arvind Krishna. IBM ha probabilmente una conoscenza dell’IA più profonda di quasi tutte le aziende, eppure le azioni vengono scambiate a meno di due volte le vendite , rispetto a Nvidia a quasi 20 volte. IBM ha anche un rendimento da dividendi superiore al 5%.
L’azienda lavora su applicazioni di intelligenza artificiale da almeno quattro decenni. Nel 1997, due anni prima che Nvidia andasse in borsa, un supercomputer IBM chiamato Deep Blue sconfisse il campione del mondo di scacchi Garry Kasparov in una partita di sei partite. Nel 2011, il supercomputer Watson di IBM ha notoriamente sconfitto i campioni umani su Jeopardy. Tra gli avversari di Watson c’era il leggendario Ken Jennings, ora conduttore dello spettacolo. “Io, per esempio, accolgo i nostri nuovi signori del computer”, ha scritto Jennings di seguito una delle sue risposte di FinalJeopardy.
A dire il vero, IBM ha fatto passi falsi. Dopo l’acrobazie di Jeopardy, ha fatto una grande spinta per usare Watson nell’assistenza sanitaria, per la scoperta di farmaci e altre applicazioni. Non ha mai funzionato e IBM ha venduto l’attività Watson Health per un miliardo di dollari nel 2022. Alcune persone sembrano aver interpretato la vendita di Watson Health come IBM che rinuncia all’IA, ma non è così.
La scorsa settimana, ho avuto una lunga conversazione con Krishna sull’approccio dell’azienda al business dell’IA. Aveva molto da dire.
Per prima cosa, IBM ha recentemente lanciato una nuova versione di Watson chiamata Watson X. La nuova offerta ha tre parti: Watson.ai lavora con i clienti per creare nuovi modelli o set di dati. Watson.data funge da data store, mettendo l’azienda in concorrenza con Snowflake (SNOW), tra gli altri. E Watson.governance monitora i modelli di intelligenza artificiale per assicurarsi che siano accurati e responsabili, non pieni di informazioni false o offensive.
Quello che IBM non farà è creare il prossimo ChatGPT. “I modelli pubblici sono incredibilmente potenti”, ha detto Krishna. “Quello che Google, Facebook, Microsoft stanno facendo si adatta assolutamente a quella modalità. Stanno costruendo modelli molto, molto grandi che servono tutti”.
Ma Krishna pensa che le applicazioni di intelligenza artificiale rivolte al pubblico siano solo una piccola parte dell’opportunità. “È come un iceberg”, dice, con chatbot come Microsoft Bing e Google Bard sopra la linea di galleggiamento. “Ci sono più casi d’uso che non trarranno beneficio da un grande modello pubblico”.
La strategia di IBM è quella di aiutare i clienti a creare applicazioni AI proprie, per spremere più valore dai loro dati. In alcuni casi, l’azienda fonde modelli open source con dati proprietari. Per alcuni clienti, IBM sta costruendo modelli privati specifici per i loro dati.
Mentre IBM non ha intenzione di costruire un modello generale di grandi dimensioni come ChatGPT, Krishna dice che sta costruendo una famiglia di set di dati specifici del dominio. Ad esempio, sta creando un modello di chimica, basato su informazioni di pubblico dominio.
“Se prendo uno dei miei partner dell’industria chimica, diciamo Dow, Mitsui Chemicals o BASF, hanno dati proprietari su come produrre prodotti chimici”, dice. “Chi di loro metterebbe i propri dati proprietari in un modello pubblico? Certo che no. Ma vorrebbero estendere il modello di chimica per includere i propri dati… potrebbero fornire risposte più rapide alle domande del cliente e interne e trovare nuove formulazioni. Sarà un accelerante per il loro modello di business.”
In un caso, dice Krishna, IBM sta lavorando con una banca per trovare migliori dati di conformità e audit per la propria gente, in parte per mostrare ai regolatori che ha i giusti controlli in atto.
IBM ha costruito 20 di questi modelli di dominio, al di là della chimica e delle banche, l’elenco include uno per scrivere codice, un altro per rendere le operazioni IT più efficienti. C’è un modello geospaziale che IBM si sta adattando per combinare con i dati climatici della NASA, per migliorare la modellazione meteorologica. L’azienda, che possiede il gigante del software open source Red Hat, non è timida nell’utilizzare modelli di formazione open-source. In particolare, IBM ha collaborato con Hugging Face, una start-up AI con una libreria di 130.000 modelli.
Il fattore di complicazione per gli investitori è che IBM non dirà quanto delle sue entrate è legato all’IA. Krishna dice che il numero è impossibile da calcolare. “I nostri mainframe hanno circuiti di intelligenza artificiale, così come lo è l’intelligenza artificiale aziendale del mainframe? Farò il backup dello storage in futuro con l’IA: il backup dello storage è l’IA? Le applicazioni di manutenzione utilizzano l’intelligenza artificiale. Tutta la sicurezza informatica utilizzerà l’IA. Prima che i prossimi cinque anni siano finiti, tutto avrà l’IA fusa al suo interno”.
Krishna cita una stima di PwC che mostra che l’IA potrebbe generare 16 trilioni di dollari di valore per l’economia entro il 2030. E Krishna ha una visione di lunga data che IBM nel tempo dovrebbe far crescere le entrate a una cifra media.
Quello che il CEO non dirà direttamente è che l’IA apre nuove opportunità per IBM e potrebbe essere additivo alle vendite. “È un potenziale accelerante”, dice.
02/06/23 briefing.com: MongoDB mostra la sua capacità di capitalizzare le tendenze dell’IA; pubblica un solido beat-and-raise in AprQ (MDB)
Con l’IA rimasta in cima alla mente delle aziende, MongoDB (MDB +26%) sta vedendo un numero crescente di clienti scegliere la sua piattaforma Atlas come una per costruire ed eseguire nuove applicazioni AI. Questa dinamica ha contribuito a migliorare gli eccellenti risultati dello sviluppatore del software di gestione del database Q1 (aprile) e ha portato al suo aumento delle prospettive FY24 (gennaio).
- I risultati complessivi del primo trimestre sono stati robusti, con i giri che sono aumentati del 29% anno a 368,28 milioni di dollari, contribuendo a guidare la crescita della linea di fondo dal 180% a 0,56 dollari per azione; entrambe le metriche hanno superato le stime in modo comodo. MDB ha vantato un quarto sano di acquisizione di nuove attività, aggiungendo circa 2.300 clienti, un salto del 22% anno/anno e il numero più alto dell’azienda in oltre due anni. MDB ha anche acquisito un numero record di nuovi carichi di lavoro dai clienti esistenti nel trimestre.
- La piattaforma Atlas basata su cloud di MDB è rimasta la star dello spettacolo, con tendenze di consumo davanti alle aspettative. Tuttavia, i consumi rimangono al di sotto dei livelli visti prima del rallentamento macro iniziato l’anno scorso mentre i clienti continuano a esaminare la loro spesa IT. Tuttavia, i giri di Atlas hanno ancora superato la crescita totale delle vendite, saltando del 40% anno/anno e comprendendo il 65% dei giri complessivi, 5 punti in più rispetto al periodo di un anno fa.
- L’IA sta alimentando una parte significativa della crescita delle vendite di Atlas nel primo trimestre. Ad esempio, oltre 200 nuovi clienti Atlas erano organizzazioni AI o ML (machine learning). La direzione era anche ottimista sul fatto che molte applicazioni esistenti alla fine saranno ri-platformed per essere abilitate all’IA, una ragione convincente per i clienti di migrare ad Atlas.
- Non sorprende che un punto debole nel primo trimestre derivi dal segmento Enterprise Advanced (EA) di MDB. EA si trova di fronte a confronti anno/anno impegnativi per tutto il FY24, e Q1 non ha fatto eccezione, con i giri EA che rallentano anno/anno. Sul lato positivo, EA ha visto una crescita positiva in sequenza, meglio di quanto MDB previsto nella sua guida del primo trimestre. Tuttavia, la società si aspetta che EA rimanga influenzata negativamente dai confronti sfavorevoli anno/anno per il resto dell’anno.
- Le ottimistiche proiezioni del secondo trimestre (luglio) e del FY24 di MDB hanno più che compensato il rallentamento della crescita di EA dell’azienda. MDB prevede un EPS rettificato di 0,43-0,46 dollari nel secondo trimestre con una crescita top-line del +28-29% anno/anno. Nel frattempo, MDB ha aumentato i suoi obiettivi FY24, prevedendo guadagni di 1,42-1,56 dollari, da 0,96-1,10 dollari, e giri di 1,52–1,542 miliardi di dollari, da 1,48 dollari-1,51 miliardi di dollari.
MDB ha consegnato un trimestre straordinario, mostrando il suo ruolo significativo nel boom dell’IA. La direzione ha avvertito che l’ambiente macroeconomico rimane volatile e rimarrà consapevole delle condizioni attuali. Tuttavia, come abbiamo detto lo scorso trimestre, MDB si sta posizionando per il successo a lungo termine, specialmente se l’IA offre la prossima frontiera della produttività degli sviluppatori, poiché MDB può capitalizzare su un arretrato di progetti che le organizzazioni vorrebbero intraprendere ma attualmente non hanno la capacità di perseguire.
01/06/23 Fugnoli (kairos partners) un invito alla prudenza
SATURNO Fascino e rischi della tecnologia
La Rivoluzione è come Saturno. Essa divora i suoi figli. Pierre Victurnien Vergniaud, brillante avvocato rivoluzionario e deputato girondino alla Convenzione, pronunciò questa celebre frase durante il processo per tradimento che gli fu intentato nel 1793 e che lo portò, quarantenne, alla ghigliottina.
Anche la tecnologia è come Saturno. Anche la tecnologia divora i suoi figli. Circolano da qualche settimana in Cina le prime Hua Xianzi, auto elettriche alimentate con batterie agli ioni di sodio. Sono più ingombranti delle batterie al litio e permettono un’autonomia limitata a 250-300 chilometri, ma funzionano meglio del litio nei climi freddi. Il punto decisivo, in ogni caso, è che il sodio costa un centesimo del litio.
Il litio non uscirà subito di scena e la transizione sarà graduale. Le attese createsi negli anni scorsi, tuttavia, andranno ridimensionate. Sul litio ci sono state due ondate rialziste, alimentate dalla domanda industriale e da quella speculativa. La prima, nel 2016-17, ha portato al raddoppio del prezzo ed è poi rientrata completamente. La seconda, nel 2020-21, ha decuplicato il prezzo, portandolo a 1200 dollari alla tonnellata. Oggi la quotazione è di 736 dollari.
Non è infrequente che le bolle legate all’innovazione abbiano due o più fasi. Queste fasi sono a volte intervallate da pochi anni (litio, Internet) ma in altri casi le ondate rialziste sono molto più distanziate tra loro, come è stato il caso per le energie rinnovabili.
Nel caso dell’intelligenza artificiale, tutto fa pensare alla possibilità di un processo ancora più lungo e ampio, ma, di nuovo, non lineare. Non lineare, del resto, è stata la stessa storia dell’intelligenza artificiale, che da settant’anni procede per strappi entusiasmanti seguiti, finora, da lunghi inverni di stagnazione.
Rispetto alle bolle tecnologiche del passato, l’intelligenza artificiale ha indubbiamente più potenzialità, sia nel mondo reale sia nella visione dei mercati. La sua caratteristica più interessante non è la pervasività, ovvero il fatto che la sua influenza si eserciterà su tutte le attività produttive. Anche le ferrovie furono pervasive, perché accelerarono l’urbanizzazione e influenzarono l’agricoltura, l’industria e il commercio. Anche Internet è stato pervasivo e lo stesso si può dire per la transizione energetica.
La differenza, questa volta, sta nelle possibilità di sviluppo, che per la scala umana sono praticamente infinite, che il passaggio all’intelligenza artificiale forte e alla superintelligenza, se mai avverrà, potrà comportare.
La Railway Mania, la bolla delle ferrovie, si esaurì nel 1847 non solo perché tutte le bolle, fisiologicamente, si ripiegano su se stesse, ma anche perché, dopo il boom delle costruzioni, di linee ferroviarie in Gran Bretagna cominciavano a essercene troppe. Dal 1850 a oggi sono più le linee ferroviarie inglesi che sono state chiuse di quelle che sono rimaste in esercizio. Anche Internet, una volta portato il collegamento negli angoli più sperduti, sarà destinato a normalizzarsi.
Tutte le bolle legate all’innovazione del passato (commercio coloniale, canali navigabili, ferrovie, scoperte minerarie, telegrafo, radio, energia nucleare, internet, metalli rari) hanno provocato un’allocazione subottimale del capitale e un successivo rapido ridimensionamento dei ritmi di crescita del settore interessato.
Per l’intelligenza artificiale ci sarà sicuramente un’allocazione subottimale del capitale, ma difficilmente ci sarà una fine della sua crescita. Per questo l’AI si presta a fare da madre di tutte le bolle. Anche senza invocare la Singolarità (la teoria dell’accelerazione irreversibile della tecnologia), tutto fa pensare a un forte e duraturo sviluppo.
Non tenere in portafoglio una quota investita su questo tema è molto probabilmente un errore. Buttarsi in modo acritico può essere però un errore ancora maggiore. Per varie ragioni.
- I titoli coinvolti dalle bolle, anche sul più affascinante dei temi, restano sensibili a questioni strutturali come la liquidità e il livello dei tassi. Lo sono anzi più degli altri titoli e scendono più della media nelle fasi acute del bear market
- Anche un superchip molto potente prodotto da una società può essere un giorno scalzato da un concorrente con migliori prestazioni o minore costo. Lo stesso vale per un linguaggio o, in generale, per un software
- Le bolle sono soldi facili e veloci. Si può mettere un gettone a qualsiasi prezzo se si pensa che abbiano ancora delle possibilità. Se però si vogliono investire soldi seri bisogna che le valutazioni, anche volendo accomodare tassi di crescita molto alti, mantengano una logica. Non ci sono regole rigide, ma prima di pagare una società decine di volte il fatturato non sarebbe male rileggere quello che Scott McNealy, fondatore di Sun Microsystems, scrisse nel 2002, due anni dopo lo scoppio della bolla. Due anni fa, dice, quotavamo 10 volte i ricavi. A quel prezzo, per restituirvi il vostro investimento, dovrei pagarvi in dividendi, per 10 anni, il 100 per cento dei ricavi. Dovrei avere zero costi, cosa difficile avendo da pagare 39mila dipendenti. Non dovrei spendere nulla in ricerca e non pagare tasse. Non capite, conclude, quanto siano ridicole queste premesse?
Sun Microsystems, che nel 2000 era arrivata a valere 200 miliardi dell’epoca, fu ceduta a Oracle nel 2009 per 7 miliardi. Era stata un gioiello, aveva spaziato dai supercomputer a Java. Siamo il dot delle dot.com era il suo motto.
Venendo al breve termine, la Fed sta facendo capire in tutti i modi che salterà il rialzo di giugno. Capire che cosa stia succedendo all’economia è difficile. La Germania, alla fine, ha avuto sei mesi di recessione. Lo stesso per l’America, se si guarda al reddito lordo (GDI). Se però si guarda al prodotto lordo (GDP) l’America ha avuto sei mesi di crescita. GDI e GDP dovrebbero essere identici, ma non lo sono. Nel dubbio, la Fed si mette alla finestra, mentre i mercati appaiono incerti. Non ci sono però (ancora) forti ragioni né per scendere né per salire.
01/06/23 Barron’s: Perché il CEO di C3.ai Tom Siebel sta “dichiarando la vittoria” nonostante il calo delle azioni dopo la trimestrale
Eric J. SavitzFollow
Per avere davvero un’idea dell’entusiasmo del mercato – e delle preoccupazioni – sul futuro dell’intelligenza artificiale, non guardare oltre C3.ai -12,62% , che ha il ticker AI.
Il titolo è stato un’astronave quest’anno, terminando il 2022 poco più di 11 dollari, e solo questa settimana scambiato fino a 44 dollari. Anche dopo aver dato indietro alcuni recenti guadagni giovedì mattina, il titolo è più che triplicato finora quest’anno.
Ma, oh, la volatilità. Martedì, C3.ai è aumentato del 33% su una combinazione di mania azionaria dell’IA, un annuncio che il software dell’azienda sarà venduto su un mercato gestito da Amazon +2,15% (AMZN) Servizi Web e alcune brevi coperture.
Poi mercoledì, il titolo ha comprensibilmente rinunciato ad alcuni di quei guadagni, e poi è scivolato del 13% in più giovedì, il giorno dopo che la società ha riportato i risultati finanziari per il trimestre di aprile. Per la settimana, il titolo è circa piatto.
I risultati effettivi del trimestre di aprile hanno offerto poche sorprese: la società aveva pre-annunciato a metà maggio. La guida per l’intero anno di C3.ai è arrivata al di sotto delle stime di Street e le azioni nel trading aftermarket mercoledì sono scese fino al 20%. Ma il CEO Tom Siebel è preoccupato? Sicuramente no.
“Sto dichiarando la vittoria qui”, ha detto Siebel in un’intervista di giovedì mattina con Barron.
“Il nostro business è buono”, ha detto. “Tutti modificano le aspettative. Il titolo non aveva giustificazione di essere dov’era. Il prezzo delle azioni è stato ripristinato a un livello ragionevole. Ora siamo in grado di battere-and-raise, beat-and-raise e beat-and-raise.”
La questione chiave con il rapporto sugli utili è che le prospettive per l’anno fiscale 2024 richiedono una crescita dei ricavi di circa il 15% a metà dell’intervallo, e gli investitori sembrano pensare che l’azienda dovrebbe crescere più velocemente di così. Siebel dice di non preoccuparsi.
“Stiamo mostrando una crescita più veloce di quella del passato? Assolutamente”, dice.
Un altro importante per il settore dell’IA è se Washington fa una grande spinta per regolamentare il software di intelligenza artificiale. Alcuni leader hanno affermato che sarebbe utile per l’industria ottenere una regolamentazione chiara: il CEO di OpenAI Sam Altman lo ha detto in un’audizione del Congresso. Ma Siebel dice che un tale approccio è solo “boxare alle corde” con il Congresso.
Siebel sostiene che cercare di regolamentare i modelli di intelligenza artificiale è l’equivalente di “criminalizzare o fermare la scienza”. Ma Siebel non si oppone a una legislazione ristretta che si concentrerebbe su specifici tipi di abuso dell’IA, affrontando l’uso dei dati personali. Potrebbe esserci una legge specifica contro la “propagazione dei pregiudizi culturali”, per esempio, o per la pubblicazione di un algoritmo che interferisce con le elezioni, dice.
Sul tema della concorrenza, Siebel dice che la maggior parte delle grandi aziende commerciali che lavorano sull’IA generatrice stanno producendo modelli che non sono realmente applicabili alle applicazioni commerciali, dati frequenti errori e altri problemi. L’approccio di C3.ai, nel frattempo, è quello di utilizzare modelli di linguaggio di grandi dimensioni open source: usano un modello dell’unità di AI di Alphabet +0,30% e combinandoli con dati interni tratti da app aziendali comunemente utilizzate che contengono dati su clienti, prestazioni finanziarie e prodotti.
Siebel ha anche affrontato la questione se stiamo vedendo una bolla nello spazio dell’IA. Il CEO ha sottolineato che quasi tutte le principali innovazioni tecnologiche hanno portato a un periodo di bolla, non solo l’alba dell’era di Internet, ma anche cose come lo sviluppo delle ferrovie continentali nel 19° secolo.
“Le azioni possono essere temporaneamente sopravvalutate”, dice. “C’è un sacco di panna montata in giro. Ma siamo nella prima metà del primo inning con il primo ragazzo alla battuta.”
31/05/23 Forbes: Lisa Su ha salvato AMD. Ora vuole la corona AI di Nvidia

Il CEO di AMD Lisa Su è al numero 34 nella classifica annuale di Forbes delle donne self-made più ricche d’America.
Iain Martin Sono il Forbes Europe News Editor e mi occupo di tecnologia.Richard Nieva Sono uno scrittore senior che si occupa di aziende tecnologiche.
Il CEO di AMD ha orchestrato una dei grandi tournaround nella storia della Silicon Valley, facendo salire il prezzo delle azioni del produttore di semiconduttori morente di quasi 30 volte in meno di un decennio. Adesso si sta preparando per la battaglia nella prossima rivoluzione dell’IA e si aspetta di continuare a vincere.
Da una sala conferenze in cima alla sede centrale di AMD a Santa Clara, in California, un tratto di autostrada 101 che corre all’esterno, Lisa Su presiede un’azienda più vecchia del termine “Silicon Valley”. Lungo la strada c’è un collegamento con il passato dell’azienda, una vecchia fonderia a Sunnyvale dove AMD premeva i suoi chip. Ma dalla sua finestra può vedere una recente pietra miliare nel presente in rapida evoluzione dell’azienda: gli uffici dell’arcinemico Intel, la cui capitalizzazione di mercato (120,3 miliardi di dollari) di AMD ora eclissa (153,5 miliardi di dollari).
Non è sempre stato così. Nel 2014, quando Su, ora 53 anni, ha preso le redini del CEO di AMD (Advanced Micro Devices), il produttore di chip stava affondando. La società aveva licenziato circa un quarto del suo personale e il prezzo delle sue azioni si aggirava intorno ai 2 dollari. Patrick Moorhead, un ex dirigente AMD, lo ricorda come “deader than dead”. Poi Intel ha iniziato a inciampare, trascinata verso il basso dai ritardi di produzione e dalla decisione di Apple di non usare i suoi chip negli iPhone. Svelta nel cogliere le opportunità, Su è stata in grado di capitalizzare i passi falsi del suo rivale, firmando accordi con produttori di laptop come Lenovo e il gigante dei giochi Sony, oltre a Google e Amazon, i cui enormi data center hanno generato 6 miliardi di dollari delle vendite del produttore di chip l’anno scorso.
A 63 miliardi di dollari, le entrate annuali di Intel fanno ancora impallidire i 23,6 miliardi di dollari di AMD. Ma strappando l’ambito quota di mercato dei chip server dal suo vicino della Silicon Valley, oltre a raccogliere la società di semiconduttori Xilinx, ha aumentato le azioni di AMD quasi 30 volte nei nove anni da quando Su ha assunto l’incarico. Ora, con l’integrazione dell’intelligenza artificiale che alimenta la domanda per i cervelli di silicio dietro l’apprendimento automatico, sta affrontando un’opportunità che definisce l’eredità e una sfida incoraggiante: AMD può produrre un chip abbastanza potente da rompere il quasi monopolio di Nvidia sui processori che sostengono la prossima ondata di tecnologia di intelligenza artificiale generativa? “Se guardi a cinque anni”, dice, ” Vedrai l’IA in ogni singolo prodotto di AMD, e sarà il più grande fattore di crescita”.
Su ha overcloccato AMD negli ultimi nove anni, proprio come un giocatore che spinge un processore a funzionare oltre i suoi limiti specificati dal produttore. A differenza di molti dirigenti tecnologici, è una ricercatrice di livello mondiale, con un dottorato di ricerca in ingegneria elettrica presso il MIT. La sua combinazione unica di genio tecnico, competenze umane ed esperienza aziendale l’ha resa tra gli amministratori delegati S&P 500 più pagati negli ultimi anni (compensazione totale 2022: 30,2 milioni di dollari). Nel complesso, ha accumulato una fortuna di 740 milioni di dollari (in gran parte in azioni AMD), ottenendola al 34° posto nella nostra classifica annuale delle donne d’affari più ricche d’America. “Parla di appoggiarsi e ucciderlo”, meraviglia Panos Panay, chief product officer di Microsoft, che ha incontrato per la prima volta Su nel 2014 quando ha iniziato la svolta di AMD.
A differenza di Intel, tuttavia, le cui entrate hanno visto un calo del 12% a 63,1 miliardi di dollari in tre anni, Nvidia appare al top del suo gioco. Oltre a rendere immagini mozzafiato in giochi come Cyberpunk 2077, le sue GPU (unità di elaborazione grafica) sono diventate il motore preferito per le società di intelligenza artificiale come OpenAI, il cui chatbot ChatGPT ha deliziato e disturbato il pubblico rispondendo a domande e comandi con risposte sorprendentemente dettagliate da sembrare umane.
Questi cosiddetti modelli di grandi dimensioni sono davvero solo trucchi da salotto sbalorditivi, ma sono l’atto di apertura per una trasformazione dell’IA che i grandi guru come Bill Gates dicono saranno significativi come l’alba di Internet. C’è già un’enorme domanda per le GPU che le alimentano, e almeno una società di ricerca prevede una bonanza di 400 miliardi di dollari entro il prossimo decennio per le aziende che le producono. Ma in questo momento ce n’è davvero solo uno. “L’AI è uguale a Nvidia”, afferma Glenn O’Donnell, un analista di Forrester. “Questo è abbastanza ben radicato e AMD deve davvero intensificare il suo gioco per superarlo”.
Nel frattempo, lo spettro di Intel incombe ancora in tutta l’autostrada 101, anche se l’O.G. dei PC ha dovuto affrontare ulteriori ritardi di produzione, difetti dei chip e cambiamenti di leadership. “Ci sono molte grandi cose su AMD, ma la cosa brutta è che abbiamo due concorrenti di livello mondiale”, afferma il dirigente AMD Forrest Norrod, che ha aiutato Dell a costruire la sua attività di data center da circa 10 miliardi di dollari (entrate 2014) in parte su chip AMD e aggiunge che l’azienda non presume mai che il suo principale rivale lascerà che i problemi si in “Presumomo sempre che Intel lo risolverà”
QUANDO SU È STATA promossa Ceo di AMD nel 2014, gli analisti definivano l’azienda “non investibile”, con 2,2 miliardi di dollari di debito. Alcuni dei suoi beni pregiati venivano già venduti per parti. Il suo stabilimento di fabbricazione dove vengono incisi i chip (“fabs”, in termini di settore) era stato scorporato nel 2009, un colpo al famigerato vanto del cofondatore di AMD Jerry Sanders secondo cui “gli uomini veri hanno fabs”. Ha anche dovuto vendere e affittare il suo campus aziendale, ad Austin, in Texas, l’attuale base di Su, nel 2013.
Più preoccupante, AMD stava lottando per l’esecuzione. Non poteva rispettare le scadenze dei prodotti e Intel ha dominato tutto tranne la fine dell’affare del mercato dei laptop con Nvidia, Qualcomm e Samsung che si sono ritagliati il nuovo business degli smartphone. “La nostra tecnologia non era competitiva all’epoca”, ammette Su.
AMD non era sempre stato un tale mal di testa per gli investitori. Sanders ha fatto irruzione nel settore dei microprocessori producendo chip per IBM nei primi anni ’80, ma le cose hanno iniziato a cambiare alla fine degli anni ’90 e all’inizio degli anni 2000. AMD, che era stata una perenne seconda scelta, ha iniziato a generare profitti record costruendo i propri processori che battevano Intel sulla velocità.
Nel 2014, quei giorni di gloria erano lontani. Come circa un quarto del personale di AMD, licenziato dal predecessore di Su, Rory Read (Sanders si è dimesso da CEO nel 2002). AMD una volta aveva comandato circa un quarto del mercato dei chip server da 24 miliardi di dollari, ma la sua quota è svanita al 2% nel 2014. Il suo secondo giorno come CEO, Su h parlato ai dipendenti demoralizzati di AMD: “Credo che possiamo costruire il meglio”, ricorda di aver detto al suo staff. “Potresti pensare che fosse ovvio, ma non era per l’azienda in quel momento”.
A quell’incontro annunciò il suo piano su tre fronti per risolvere AMD: creare ottimi prodotti, approfondire la fiducia dei clienti e semplificare l’azienda. “Tre cose, solo per mantenerlo semplice”, dice. “Perché se sono cinque o dieci, è difficile”.
Su ha rifocalizzato i suoi ingegneri sulla costruzione di chip Intel-beating, ma possono volerci anni ai progettisti di chip per elaborare un progetto finale praticabile. La quota di AMD nel mercato dei server è scesa ulteriormente, a mezzo percento, mentre i ricercatori lavoravano in laboratorio. “All’epoca, l’azienda non stava andando bene, ma santo, stavano lavorando al design più eccitante del settore”, dice. “Gli ingegneri sono motivati dai prodotti e mi piace tenerlo davanti e al centro”.
La sua decisione di dare la priorità a una nuova architettura di chip chiamata Zen ha dato i suoi frutti quando è stata finalmente lanciata nel 2017. “È stato davvero buono”, dice con orgoglio palpabile, aggiungendo che Zen potrebbe calcolare più del 50% più velocemente dei progetti precedenti dell’azienda. Ancora più importante, ha segnalato all’industria che AMD aveva girato l’ angolo. Con la terza generazione di Zen, rilasciata nel 2020, è stata leader di mercato in termini di velocità. L’architettura Zen ora è alla base di tutti i processori AMD.
Con il suo team che guida una nuova generazione di chip, Su ha fatto la strada per venderli duramente ai clienti del centro dati stanchi. Aveva già trascorso anni a costruire relazioni anche quando AMD non aveva chip da vendere, una volta guidando più di quattro ore attraverso una tempesta di ghiaccio del Texas per incantare Antonio Neri, ora CEO di Hewlett Packard Enterprise. “Eri, diciamo, disincantato dalla generazione precedente di AMD”, dice Neri. “Mi ha mostrato di avere la convinzione di ciò che doveva essere fatto”.
Gran parte della strategia di Su era firmare nuovi accordi con i giganti della tecnologia, che avevano bisogno di un sacco di CPU per alimentare le loro attività cloud in crescita esplosiva. “Per noi, ci sono davvero tre partner di microprocessori. Abbiamo Nvidia, Intel, AMD”, afferma Thomas Kurian, CEO di Google Cloud. “AMD, quando mi sono unito, non era affatto una parte significativa del nostro ecosistema. Ed è un merito a Lisa che siano un partner molto importante per noi ora.”
Lo scorso febbraio, quando la capitalizzazione di mercato di AMD ha superato per la prima volta quella di Intel, il cofondatore della società Sanders, ora 86 anni, era estatico. “Ho chiamato tutti quelli che conosco!” lui dice. “Eri delirio. Mi dispiace solo che Andy Grove non sia più’ n giro, quindi non gli posso dire “ti ho battuto!” ” (Grove, il leggendario ex CEO di Intel, è morto nel 2016.)
SU, LA FIGLIA di un matematico e di un contabile diventato imprenditore, è nata a Tainan, Taiwan, nel 1969, lo stesso anno in cui Sanders ha fondato AMD. La sua famiglia è emigrata a New York quando aveva 3 anni. Ha scelto l’ingegneria elettrica al Massachusetts Institute of Technology perché sembrava essere la specializzazione più difficile. Per qualcuno così tecnicamente talentuoso, era anche brava con le persone, facendo la paciera quando sono divamparsi i disaccordi tra altri studenti, dice Hank Smith, che all’epoca gestiva il laboratorio di nanostrutture del MIT.
Su ride dopo essersi sentita descritta come una persona socievole. “Beh, questo è rispetto ad altre persone del MIT”, scherza. “Non credo che nessuno direbbe che sono una estroversa, ma la comunicazione è una parte enorme del mio lavoro”.
Dopo un breve periodo alla Texas Instruments, nel 1995 è stata assunta come ricercatrice del personale presso IBM, dove ha contribuito a progettare chip che funzionano il 20% più velocemente utilizzando semiconduttori con circuiti in rame invece del tradizionale alluminio. I pezzi grossi hanno rapidamente individuato il suo talento: nel 1999, un anno dopo il lancio della tecnologia del rame, l’allora CEO di IBM, Lou Gerstner, l’ha scelta come suo assistente tecnico. Nella sua prima intervista in 20 anni, Gerstner dice a Forbes che inizialmente temeva che Su fosse troppo giovane per il lavoro, ma i suoi dubbi sono stati rapidamente seduti. “Ha dimostrato di essere una delle dipendenti più eccezionali che hanno lavorato nel mio ufficio. Lisa non segue schemi normali: li ha fatti saltare in aria per tutta la sua carriera.”
Quella nomina ha dato a Su un posto in prima fila per una svolta aziendale che ora è un classico caso di studio della business school, un ringiovanimento acceso, in parte, appoggiandosi alla scala dell’azienda e creando una cultura dedicata ai clienti. Gerstner ha fatto crescere la capitalizzazione di mercato di IBM in stallo di quasi sei volte nella sua corsa di quasi nove anni. Su ha anche avuto un gusto per l’accordo, aiutando IBM a firmare un accordo congiunto con Sony e Toshiba nel 2001 per mettere i suoi chip nella PlayStation 3 di Sony.
All’inizio, a volte si preoccupava di non essere qualificata per sedersi a tavoli pieni di pesi massimi aziendali, ma Su si rese presto conto che il suo acume tecnico duramente imparato le dava un vantaggio rispetto ai tipi di executive-track. “Ho visto che il dottorato del MIT ha lavorato per gli MBA di Harvard, e la verità è che non aveva assolutamente senso per me”, ha detto in un discorso di laurea del 2017 alla sua alma mater, il cui nuovo laboratorio nanotecnologio ora porta il suo nome.
Alla fine del 2011, Nick Donofrio, all’epoca membro del consiglio di amministrazione di AMD che Su aveva incontrato presso IBM, ha chiamato il suo vecchio protetto, che da allora era vicepresidente senior di Free-scale, il produttore di chip con sede ad Austin che ora fa parte di NXP Semiconductors. I due si sono incontrati per cena, e sopra una bottiglia di Brunello, ha fatto il suo passo: un’opportunità non solo per inseguire miglioramenti incrementali, ma per reinventare e innovare, con la copertura del terreno per farlo davvero.
Pochi giorni dopo, Su ha accettato un ruolo come vicepresidente senior delle business unit globali di AMD. Due anni dopo l’inizio, gestiva l’intera azienda, rendendola la prima donna amministratore delegato di una grande azienda di semiconduttori.
“Camminavo in stanze dove c’erano, tipo, 25 persone, e avrei potuto essere l’unica donna”, ricorda dei suoi primi giorni di ingegneria. “Quello di cui sono veramente entusiasta sono le giovani donne ingegnere, dando loro responsabilità in progettazione”.
Quando Su ha preso il sopravvento per la prima volta, è volata a Beverly Hills e ha chiesto personalmente a Sanders di AMD di parlare con la sua squadra. Sanders dice di essere stato toccato dall’offerta di Su, ma ha rifiutato. “Non è la mia squadra ora. È la tua squadra”, le ricorda di averle detto. Sempre il venditore, però, ha anche fatto una controofferta: avrebbe fatto la visita una volta che l’azienda aveva raggiunto due anni di redditività. Nel 2019, in coincidenza con il 50° anniversario dell’azienda, Sanders ha mantenuto quella promessa.
Il genio dei semiconduttori Mark Papermaster, che ha guidato i team di ingegneria di iPhone e iPod di Apple e che era entrato in AMD più o meno nello stesso periodo di Su, è stato un acuto osservatore del notevole ritorno dell’azienda sotto la sua guida. In Apple, Papermaster aveva lavorato per un altro abile artista di turnaround: il cofondatore Steve Jobs, che ha salvato l’azienda dalla catastrofe e l’ha messa sul percorso che l’avrebbe reso l’azienda più preziosa del mondo. “Quello che Lisa aveva, in diversi modi, era un compito ancora più difficile”, dice Papermaster. “Quando non sei un fondatore, devi stabilire la tua credibilità e la tua visione e portare con te l’intera azienda, i tuoi clienti e i tuoi investitori”.
Il successo di Su in AMD l’ha resa un’ispirazione per i giovani ingegneri e un’eroina per gli investitori. L’ha anche trasformata in un meme: alcuni anni fa, le animazioni a 8 bit in cui Su utilizza i chip Ryzen di AMD per trasformarsi in un supereroe o sparare laser dai suoi occhi sono diventate virali su Twitter. Una sua statuetta vestita di armatura arancione-and-red, casco al suo fianco, appare in modo prominente sul suo scaffale dell’ufficio, un regalo di un fan alla conferenza di gioco E3. “Questo è probabilmente uno dei momenti più divertenti della mia carriera”, dice Su, che, pur essendo un appassionato utente di Twitter e Reddit, non è “grande di meme. Non fa per me.”
ORA CHE SU ha rinnovato e dato energia ad AMD, si concentra sul garantire il suo futuro in un mercato altamente competitivo. Mentre ricostruiva diligentemente la sua attività, il cofondatore e CEO di Nvidia Jensen Huang stava lavorando duramente per rendere la sua azienda il fornitore di riferimento per la potenza di calcolo dell’intelligenza artificiale.
Huang, che è un lontano parente di Su, vede una miniera d’oro nella vendita dei chip a strumenti di intelligenza artificiale come ChatGPT. La domanda ha già catapultato il prezzo delle azioni di Nvidia al massim storici coon un P/E in avanti di circa 64x, quasi il doppio di AMD. “È per questo che gli investitori stanno guardando AMD: perché vogliono la Nvidia del povero”, dice Stacy Rasgon, analista di Bernstein. “Forse il mercato è così grande che non hanno bisogno di essere competitivi”.
Ma Su intende che lo sia. E spera di affrontare le GPU H100 incentrate sull’IA di Nvidia scommettendo su aggiornamenti annuali del chip destinati a rendere la posizione di AMD. Sotto la sua guida, la spesa per R&S è aumentata di quasi quattro volte, a 5 miliardi di dollari, quasi quanto l’intera entrata di AMD quando è subentrata.
Un nuovo supercomputer all’Eak Ridge National Laboratory del Tennessee, il più veloce al mondo quando è stato completato nel 2022, è il progetto di passione di Su. La macchina rivoluzionaria è stata costruita per avere la potenza di elaborazione di almeno un quintillion di calcoli al secondo ed è una vetrina per i chip AI di AMD. Sta anche lanciando una palla curva: il chip MI300, che fonde le CPU con le GPU nel tentativo di contrastare il nuovo superchip di Nvidia, verrà spedito entro la fine dell’anno.
Ha anche manovrato contro Nvidia con acquisizioni, come la sua acquisizione da 48,8 miliardi di dollari nel 2022 di Xilinx, una società che produce processori programmabili che aiutano ad accelerare attività come la compressione video. Come parte dell’accordo, Victor Peng, ex CEO di Xilinx, è diventato presidente di AMD e leader della strategia AI.
Oltre a Nvidia nascondono altre minacce emergenti: alcuni dei clienti di AMD hanno iniziato a fare il proprio sviluppo di chip, una mossa progettata per mitigare la loro dipendenza dai giganti dei semiconduttori. Amazon, per esempio, ha progettato un chip server nel 2018 per la sua attività AWS. Google ha trascorso quasi un decennio a sviluppare i propri chip AI, soprannominati Tensor Processing Units, per aiutare a “leggere” i nomi dei cartelli catturati dalle sue telecamere Street View itineranti e fornire la potenza dietro il chatbot Bard dell’azienda. Anche Meta ha in programma di costruire il proprio hardware AI.
Su si scrolla di dosso le preoccupazioni che i suoi clienti potrebbero un giorno essere concorrenti. “È naturale”, dice, che le aziende vogliano costruire i propri componenti mentre cercano efficienze nelle loro operazioni. Ma pensa che possano fare solo così tanto senza l’esperienza tecnica che AMD ha costruito nel corso dei decenni. “Penso che sia improbabile che qualcuno dei nostri clienti replichi quell’intero ecosistema”.
Su è in una buona posizione per fare una corsa al mercato dei chip AI. Ma sa bene quanto velocemente i turnaround possono diventare delle cadute. C’è ancora molto lavoro da fare per garantire che AMD resista: “Penso che ci sia un’altra fase per AMD. Abbiamo dovuto dimostrare che eravamo una buona compagnia. Penso che l’abbiamo fatto. Dimostrando, ancora una volta, che sei grande e che hai un’eredità duratura di ciò che stai contribuendo al mondo, questi sono problemi interessanti per me.”
30/05/23 Twitter di Gary Black su NVIDIA
Gary Black è il famoso gestore di un fondo tecnologico


29/05/23 The Economist: Nvidia non è l’unica azienda che guadagna per la corsa all’oro dell’IA
Un edificio RETTANGOLARE GRIGIO alla periferia di San Jose ospita file su file di macchine lampeggianti. Grovigli di fili colorati collegano server di fascia alta, apparecchiature di rete e sistemi di archiviazione dati. Le ingombranti unità di aria condizionata ronziono sopra la testa. Il rumore costringe i visitatori a gridare.
L’edificio appartiene a Equinix, una società che affitta lo spazio del data center. L’attrezzatura all’interno appartiene alle aziende, dai giganti aziendali alle startup, che la usano sempre più per gestire i loro sistemi di intelligenza artificiale (AI). La corsa all’oro dell’IA, stimolata dalla sorprendente sofisticazione di sistemi “generativi” come ChatGPT, un conversatore virtuale di successo, promette di generare ricchi profitti per coloro che sfruttano il potenziale della tecnologia. Come nei primi giorni di qualsiasi corsa all’oro, però, sta già coniando fortune per i venditori delle scelte e delle pale richieste.
Il 24 maggio Nvidia, che progetta i semiconduttori di scelta per molti server AI, ha battuto le previsioni di entrate e profitto degli analisti per i tre mesi fino ad aprile. Si aspetta vendite di 11 miliardi di dollari nel suo trimestre attuale, la metà di quanto previsto da Wall Street. Mentre il suo prezzo delle azioni è sferato del 30% il giorno successivo, il valore di mercato dell’azienda ha flirtato con 1 trilione di dollari. L’amministratore delegato di Nvidia, Jensen Huang, ha dichiarato il 29 maggio che il mondo è “il punto di svolta di una nuova era informatica”.
Altre aziende di chip, da colleghi designer come AMD a produttori come TSMC di Taiwan, sono state travolto dall’eccitazione dell’IA. Quindi hanno i fornitori di altre infrastrutture informatiche, che includono tutto, da quei cavi colorati, unità di aria condizionata rumorose e spazio del data-center al software che aiuta a eseguire i modelli di intelligenza artificiale e a organizzare i dati. Un indice ugualmente ponderato di 30-odd tali società è aumentato del 40% dal lancio di ChatGPT a novembre, rispetto al 13% dell’indice NASDAQ tech-heavy (vedi grafico). “Sta emergendo un nuovo stack tecnologico”, riassume Daniel Jeffries della AI Infrastructure Alliance, un gruppo di lobby.
A prima vista, i gadget dell’IA sembrano molto meno eccitanti degli intelligenti “grandi modelli linguistici” dietro ChatGPT e la sua serie di rivali in rapida espansione. Ma mentre i modellisti e i creatori di applicazioni che si arrovellano su quei modelli si contendono una fetta della futura torta AI, hanno tutti bisogno di potenza di calcolo nel qui e ora, e molto di esso.
Gli ultimi sistemi di intelligenza artificiale, incluso il tipo generativo, sono molto più intensivi di calcolo rispetto a quelli più vecchi, per non parlare delle applicazioni non AI. Amin Vahdat, capo dell’infrastruttura AI di Google Cloud Platform, il braccio cloud-computing del gigante di Internet, osserva che le dimensioni dei modelli sono cresciute in modo esponenziale ogni anno negli ultimi sei anni. GPT-4, l’ultima versione di quella che alimenta ChatGPT, analizza i dati utilizzando forse parametri 1trn, più di cinque volte il suo predecessore. Man mano che i modelli crescono in complessità, le esigenze computazionali per addestrarli aumentano di conseguenza.
Una volta addestrate, le IA richiedono meno capacità di number-crunching per essere utilizzate in un processo chiamato inferenza. Ma data la gamma di applicazioni in offerta, l’inferenza richiederà, cumulativamente, anche un sacco di oomph di elaborazione. Microsoft ha più di 2.500 clienti per un servizio che utilizza la tecnologia di OpenAI, il creatore di ChatGPT, di cui il gigante del software ne possiede quasi la metà. Questo è aumentato di dieci volte dal trimestre precedente. La società madre di Google, Alphabet, ha sei prodotti con 2 miliardi o più utenti a livello globale e prevede di potenziarli con l’IA generativa.
I vincitori più ovvi dell’emergente domanda di potenza di calcolo sono i produttori di chip. Aziende come Nvidia e AMD ottengono un commissione di licenza ogni volta che i loro progetti vengono incisi sul silicio da produttori come TSMC per conto dei clienti finali, in particolare i grandi fornitori di cloud computing che alimentano la maggior parte delle applicazioni di intelligenza artificiale. L’IA è quindi un vantaggio per i progettisti di chip, poiché beneficia di chip più potenti (che tendono a generare margini più elevati) e più di loro. UBS, una banca, prevede che nei prossimi uno o due anni l’IA aumenterà la domanda di chip specializzati noti come unità di elaborazione grafica (GPU) di 10 miliardi di dollari-15 miliardi di dollari.
Di conseguenza, le entrate annuali dei data center di Nvidia, che rappresentano il 56% delle sue vendite, potrebbero raddoppiare. AMD rilarà fuori una nuova GPU entro la fine dell’anno. Sebbene sia un giocatore molto più piccolo nel gioco di progettazione GPU rispetto a Nvidia, la portata del boom dell’IA significa che l’azienda è pronta a beneficiare “anche se ottiene solo la feccia” del mercato, afferma Stacy Rasgon di Bernstein, un broker. Le startup di chip-design focalizzate sull’intelligenza artificiale, come Cerebras e Graphcore, stanno cercando di farsi un nome. PitchBook, un fornitore di dati, conta circa 300 di queste aziende.
Naturalmente, parte della manna si poserà anche sui produttori. Ad aprile il capo del TSMC, C.C. Wei, ha parlato con cautela di “aumento incrementale della domanda legata all’IA”. Gli investitori sono stati piuttosto più entusiasti. Il prezzo delle azioni della società è aumentato del 10% dopo gli ultimi guadagni di Nvidia, aggiungendo circa 20 miliardi di dollari alla sua capitalizzazione di mercato. I beneficiari meno evidenti includono anche le aziende che consentono di confezionare più chip in un’unica unità di elaborazione. Besi, un’azienda olandese, produce gli strumenti che aiutano a legare insieme i chip. Secondo Pierre Ferragu di New Street Research, un’altra società di analisti, la società olandese controlla tre quarti del mercato per il bonding ad alta precisione. Il prezzo delle sue azioni è salito di oltre la metà quest’anno.
UBS stima che le gpus costituiscono circa la metà del costo dei server AI specializzati, rispetto a un decimo per i server standard. Ma non sono l’unico equipaggiamento necessario. Per funzionare come un singolo computer, anche le GPU di un centro dati devono parlare tra loro.
Questo, a sua volta, richiede apparecchiature di rete sempre più avanzate, come switch, router e chip specializzati. Il mercato di tali kit dovrebbe crescere del 40% all’anno nei prossimi anni, a quasi 9 miliardi di dollari entro il 2027, secondo 650 Group, una società di ricerca. Nvidia, che concede anche la licenza di tale kit, rappresenta il 78% delle vendite globali. Ma anche concorrenti come Arista Networks, un’azienda californiana, stanno ricevendo uno sguardo dagli investitori: il suo prezzo delle azioni è aumentato di quasi il 70% nell’ultimo anno. Broadcom, che vende chip specializzati che aiutano le reti a funzionare, ha affermato che le sue vendite annuali di tali semiconduttori quadruplicherebbero nel 2023, a 800 milioni di dollari.
Il boom dell’IA è anche una buona notizia per le aziende che assemblano i server che vanno nei data center, osserva Peter Rutten di IDC, un’altra società di ricerca. Dell’Oro Group, un’altra società di analisti, prevede che i data center di tutto il mondo aumenteranno la quota di server dedicati all’intelligenza artificiale da meno del 10% oggi a circa il 20% entro cinque anni, e che la quota del kit della spesa in conto capitale dei data center per i server aumenterà da circa il 20% di oggi al 45%.
Ciò andrà a beneficio di produttori di server come Wistron e Inventec, entrambi di Taiwan, che producono server personalizzati principalmente per fornitori di cloud giganti come Amazon Web Services (AWS) e Azure di Microsoft. Anche i produttori più piccoli dovrebbero fare bene. I capi di Wiwynn, un altro produttore di server taiwanese, hanno recentemente affermato che i progetti relativi all’IA rappresentano più della metà del loro attuale portafoglio ordini. Super Micro, un’azienda americana, ha affermato che nei tre mesi fino ad aprile i prodotti AI hanno rappresentato il 29% delle sue vendite, rispetto a una media del 20% nei 12 mesi precedenti.
Tutto questo hardware AI richiede un software specializzato per funzionare. Alcuni di questi programmi provengono dalle aziende hardware; la piattaforma software di Nvidia, chiamata CUDA, consente ai clienti di sfruttare al meglio le sue GPU, per esempio. Altre aziende creano applicazioni che consentono alle aziende AI di gestire i dati (Datagen, Pinecone, Scale AI) o di ospitare modelli linguistici di grandi dimensioni (HuggingFace, Replicate). PitchBook conta circa 80 startup di questo tipo. Più di 20 hanno raccolto nuovo capitale finora quest’anno; Pinecone conta Andreessen Horowitz e Tiger Global, due giganti del capitale di rischio, come investitori.
Come per l’hardware, i principali clienti di molto di questo software sono i giganti del cloud. Insieme Amazon, Alphabet e Microsoft prevedono di intraprendere una spesa di capitale di circa 120 miliardi di dollari quest’anno, rispetto ai 78 miliardi di dollari del 2022. Gran parte di questo andrà all’espansione della loro capacità cloud. Anche così, la domanda di calcolo dell’IA è così alta che anche loro stanno lottando per tenere il passo.
Ciò ha creato un’apertura per gli sfidanti. Negli ultimi anni IBM, Nvidia ed Equinix hanno iniziato a offrire l’accesso alle GPU “come servizio”. Anche le startup cloud incentrate sull’IA stanno proliferando. A marzo uno di loro, Lambda, ha raccolto 44 milioni di dollari da investitori come Gradient Ventures, una delle armi venture di Google, e Greg Brockman, cofondatore di OpenAI. L’accordo ha valutato l’azienda a circa 200 milioni di dollari. Una società simile, CoreWeave, ha raccolto 221 milioni di dollari ad aprile, anche da Nvidia, con una valutazione di 2 miliardi di dollari. Brannin McBee, co-fondatore di CoreWeave, sostiene che un focus sul servizio clienti e sull’infrastruttura progettata attorno all’IA lo aiutano a competere con i giganti del cloud.
L’ultimo gruppo di vincitori di AI-infrastructure è più vicino a fornire pale reali: i proprietari di data-center. Con l’aumento della domanda di cloud computing, le loro proprietà si stanno riempiendo. Nella seconda metà del 2022 i tassi di posti vacanti nei data center si sono attestati al 3%, un minimo record. Specialisti come Equinix o il suo rivale, Digital Realty, competono sempre più con i grandi gestori patrimoniali, che sono desiderosi di aggiungere data center ai loro portafogli immobiliari. Nel 2021 Blackstone, un gigante dei mercati privati, ha pagato 10 miliardi di dollari per QTS Realty Trust, uno dei più grandi operatori di data center americani. Ad aprile Brookfield, il rivale canadese di Blackstone che ha investito molto nei data center, ha acquistato Data4, una società francese di data center.
La continua crescita dello stack dell’infrastruttura AI potrebbe ancora scontrarsi con vincoli. Uno è l’energia. Un grande investitore nei data center osserva che l’accesso all’elettricità, di cui i data center sono utenti prodigiosi, dovrebbe rallentare lo sviluppo di nuovi data center in hub come la Virginia settentrionale e la Silicon Valley. Un altro potenziale blocco è un passaggio da vasti modelli di intelligenza artificiale e inferenza basata su cloud a sistemi più piccoli che richiedono meno potenza di calcolo per allenarsi e possono eseguire inferenza su uno smartphone, come nel caso della versione ridimensionata del suo modello PaLM recentemente svelata da Google.
Il più grande punto interrogativo incombe sulla permanenza del boom dell’IA stesso. Nonostante la popolarità di ChatGPT e dei suoi altri, i casi d’uso redditizi per la tecnologia rimangono poco chiari. Nella Silicon Valley, l’hype può trasformarsi in delusione su un centesimo. Il valore di mercato di Nvidia è aumentato nel 2021, poiché le sue GPU si sono rivelate perfette per il mining di bitcoin e altre criptovalute, poi sono crollate mentre il boom delle criptovalute si è trasformato in un fallimento.
E se la tecnologia è all’altezza della sua fatturazione trasformativa, i regolatori potrebbero reprimere. I responsabili politici di tutto il mondo, preoccupati per il potenziale dell’IA generativa di eliminare i posti di lavoro o diffondere disinformazione, stanno già rimuginando sui guardrail. In effetti, l’11 maggio i legislatori dell’UE hanno proposto una serie di regole che limiterebbero i chatbot.
Tutti questi fattori limitanti possono rallentare l’implementazione dell’IA e, così facendo, smorzare le prospettive per le aziende di infrastruttura AI. Ma probabilmente solo un po’. Anche se l’IA generativa non si rivela così trasformativa come sostengono i suoi booster, sarà quasi certamente più utile delle criptovalute. E ci sono molte altre IA non-generative che hanno anche bisogno di molta potenza di calcolo. A dir poco un divieto globale sull’IA generativa, che non è all’orizzonte, rischia di fermare la corsa all’oro. E finché tutti si affrettano, i venditori ambulanti di picche e pale incasseranno.
Per rimanere aggiornato sulle più grandi storie del mondo degli affari e della tecnologia, iscriviti a Bottom Line, la nostra newsletter settimanale per soli abbonati.
29/05/23 Barron’s: Il nuovo supercomputer AI di Nvidia è un punto di svolta. Google, Meta e Microsoft saranno i primi utenti.
Tae KimFollow
Le applicazioni di intelligenza artificiale generativa riceveranno presto un enorme aumento della potenza di calcolo.
Lunedì, Nvidia (ticker: NVDA) ha annunciato il suo nuovo supercomputer DGX GH200 AI alimentato da 256 GH200 Grace Hopper Superchips. Sono un sacco di lettere e numeri, ma le specifiche sono ciò che conta di più.
Il nuovo sistema DGX consentirà la prossima generazione di applicazioni di intelligenza artificiale generativa grazie alle sue dimensioni di memoria più grandi e alle capacità di modello su larga scala. Un dirigente ha detto durante una videoconferenza con i giornalisti venerdì. Il DGX GH200 avrà quasi 500 volte la memoria del sistema DGX A100 di Nvidia.
“I supercomputer DGX GH200 AI integrano le più avanzate tecnologie di elaborazione accelerata e di rete di NVIDIA per espandere la frontiera dell’IA”, ha detto il CEO di Nvidia Jensen Huang durante il suo discorso di apertura COMPUTEX a Taiwan.
I chip Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza dal rilascio di ChatGPT da parte di OpenAI alla fine dello scorso anno. La tecnologia assorbe testo, immagini e video in modo brute-force per creare contenuti.
I chatbot come ChatGPT usano un modello linguistico che genera risposte umane, o le loro migliori ipotesi, basate sulle relazioni di parole trovate digerendo ciò che è stato precedentemente scritto su Internet o da altre forme di testo.
Nvidia si aspetta che il suo nuovo supercomputer consentirà agli sviluppatori di costruire modelli linguistici migliori per chatbot AI, algoritmi di suggerimento complessi e creare un rilevamento delle frodi e analisi dei dati più efficaci.
Il DGX GH200 incorpora 256 Superchip GH200. Ogni Superchip ha una GPU, il che significa che il DGX GH200 avrà 256 GPU rispetto a 8 GPU del modello precedente.
Esistono due tipi di chip logici: unità di elaborazione centrale (CPU) che fungono da principali cervelli di calcolo per PC/server e unità di elaborazione grafica (GPU) che vengono utilizzate per i giochi e i calcoli AI.
Nvidia ha detto che Google Cloud, Meta (META) e Microsoft (MSFT) di Alphabet (GOOGL) saranno tra le prime aziende ad accedere al DGX GH200 per esplorare le sue capacità per l’IA generazionale. Il sistema dovrebbe essere disponibile entro la fine del 2023. L’azienda non ha fornito un prezzo.
Nvidia ha anche annunciato che il GH200 Grace Hopper Superchip era entrato in piena produzione. Il Superchip collega la CPU Grace di Nvidia e la GPU Hopper utilizzando la sua tecnologia di connessione NVLink.
Giovedì, le azioni Nvidia sono balse del 24% al giorno dopo che la società ha fornito una previsione delle entrate per il trimestre in corso che era nettamente al di sopra delle aspettative di Wall Street. La direzione dell’azienda ha affermato che il rialzo è venuto dalla domanda sostanziale dei suoi prodotti per centri dati AI da parte di fornitori di cloud computing, grandi società di Internet di consumo, start-up e altre imprese.
25/05/23 IBM mostra che la sua offerta di intelligenza artificiale generativa Full-Stack potrebbe essere una forza da cui fare i conti
Quando pensi alle aziende leader nell’IA, IBM potrebbe non essere il primo nome che ti viene in mente perché, finora, non è stata coinvolta nella frenesia dell’IA rivolta ai consumatori guidata da OpenAI, Microsoft, Google e altri. Tuttavia, nel corso degli anni, IBM ha contribuito in modo significativo al campo, il più famoso con la piattaforma di calcolo cognitivo IBM Watson. Per un’analisi dettagliata delle abilità di IBM in questo campo, guarda un precedente blog di Moor Insights & Strategy qui.
La recente conferenza annuale Think dell’azienda ha permesso a IBM di mostrare il suo cloud ibrido e le innovazioni di intelligenza artificiale, in particolare l’IA generativa (GAI) di livello aziendale. Questo articolo si tuffa nei punti salienti chiave e nelle mie osservazioni dell’evento.

Cos’è l’IA generazionale?
Restiamo con i piedi per terra in mezzo a tutto il clamore. L’IA generativa (GAI) è una forma di intelligenza artificiale che impiega modelli di apprendimento profondo per generare contenuti basati sull’input dell’utente. GAI utilizza l’apprendimento automatico e gli algoritmi di deep learning per creare vari tipi di contenuti, come testo, immagini, video, audio, musica e codice.
L’ormai famoso ChatGPT, sviluppato da OpenAI, è un esempio di GAI che può fornire risposte scritte dettagliate alle query degli utenti e impegnarsi in conversazioni in corso. Altre aziende come Google e Facebook hanno anche sviluppato strumenti di intelligenza artificiale generativa che producono testo, immagini o codice dall’aspetto autentico.
L’IA generativa funziona addestrandosi su un grande set di dati. I ricercatori inseriscono enormi quantità di dati, come parole, immagini, musica o altri contenuti, in un sistema di apprendimento profondo. Ad esempio, i dati di formazione originali di ChatGPT, il Codice OpenAI, sono costituiti da oltre 700 GB di dati raccolti da varie fonti come libri, siti web e manuali tecnici. Il sistema impara a identificare e comprendere relazioni complesse attraverso una rete neurale supervisionata premiando i successi e penalizzando gli errori. Nel corso del tempo, con la supervisione umana, il sistema diventa abile nel generare nuovi contenuti.
ChatGPT è uno strumento molto utilizzato dai consumatori; le imprese devono applicare l’IA generazionale con diverse considerazioni chiave in mente. L’accuratezza è fondamentale, poiché le risposte errate dei sistemi di intelligenza artificiale possono essere costose. La scalabilità è un’altra considerazione perché i modelli di intelligenza artificiale di livello aziendale devono essere distribuiti su centinaia o migliaia di endpoint mantenendo la precisione. Una forte governance è anche essenziale per garantire trasparenza e responsabilità e per ridurre al minimo i pregiudizi nei modelli di intelligenza artificiale.
Nel suo keynote, Arvind Krishna, presidente e CEO di IBM, si è concentrato sul cloud ibrido e sull’intelligenza artificiale come due tecnologie trasformative che possono portare un valore aziendale significativo.
Il cloud ibrido è diventato la scelta predominante per le imprese
Krishna ha menzionato uno studio dell’IBM Institute for Business Value (IBV) che ha rilevato che oltre il 75% dei clienti IBM prevede di sfruttare un modello ibrido. Questa scoperta è coerente con la mia previsione di lunga data che l’architettura cloud ibrida sarà la scelta predominante per la maggior parte delle organizzazioni.
La chiave per un cloud ibrido di successo è una piattaforma comune in tutti i cloud, ambienti locali ed edge, che porta a un unico set di competenze, costruito una volta e gestito da un unica consolle. Il nucleo della strategia di IBM è Red Hat OpenShift. Red Hat OpenShift di IBM affronta la sfida creando un livello di contenitore logico che rende i dati e i carichi di lavoro portatili attraverso i cloud.
Man mano che l’approccio del cloud ibrido guadagna slancio e le organizzazioni riconoscono il valore di sfruttare sia i cloud pubblici che quelli privati, Red Hat OpenShift diventerà cruciale per raggiungere la coerenza su più cloud e guidare la crescita di IBM nel mercato del cloud.
L’IA è stata al centro della scena all’evento
Mentre il cloud ibrido è cruciale per la strategia di IBM, l’IA è stata al centro della scena di questo evento. Krishna ha discusso di come l’IA potrebbe migliorare varie aree come le risorse umane, la configurazione dei preventivi, i prezzi, la catena di approvvigionamento e la gestione dell’inventario. L’IA può anche avere un impatto significativo sulle operazioni IT, migliorando lo sviluppo del codice e aumentando la produttività del 40-80%. L’assistenza clienti può essere automatizzata per gestire molte query, fornendo disponibilità e scalabilità 24 ore su 24, 7 giorni su 7. In alcuni casi, fino al 90% del volume dell’assistenza clienti è gestito da agenti AI.
L’IA è anche cruciale nella sicurezza informatica, in quanto può aiutare a classificare e affrontare il grande volume di attacchi che le organizzazioni devono affrontare. Altri tipi di lavoro digitale, tra cui promozioni, movimento dei dipendenti, onboarding e attività di approvvigionamento, possono anche essere automatizzati con l’IA, consentendo alle imprese di scalare le operazioni in modo efficiente.
Krishna ha anche evidenziato i computer quantistici di IBM e la potenziale capacità di affrontare problemi complessi nella tecnologia delle batterie, nel sequestro del carbonio, nel routing del traffico e in altre aree. Ha predetto che l’informatica quantistica sarebbe stata mainstream entro tre o cinque anni.
Una festa di presentazione per l’IA generativa e i modelli fondamentali
Mentre la storia di IBM sul cloud ibrido è ben consolidata, la sua attenzione all’IA è rimasta poco chiara. IBM Think 2023 è stata la festa di coming-out per l’IA generativa e i modelli fondamentali di IBM. Per ulteriori informazioni sull’importanza dei modelli fondamentali, guarda qui.
La piattaforma watsonx, sviluppata negli ultimi tre anni, combina le capacità di intelligenza artificiale, tra cui l’apprendimento automatico, l’apprendimento profondo e i modelli di base. Krishna ha propagandato la sua capacità di consentire alle aziende di sfruttare il potere dell’IA generazionale. La piattaforma è costruita su Red Hat OpenShift, consentendo opzioni di distribuzione flessibili.
watsonx ha tre componenti chiave:
- watsonx.ai è un nuovo studio che fornisce un set completo di strumenti per creare nuovi modelli di base, intelligenza artificiale generativa e apprendimento automatico. Offre una maggiore produttività rispetto agli approcci tradizionali, consentendo agli utenti di lavorare con i modelli AI in modo efficiente.
- La watsonx.data lake house combina la flessibilità di un data lake e le prestazioni di un data warehouse. Questo componente è un repository centralizzato per archiviare vari tipi di dati, inclusi dati strutturati, non strutturati, semistrutturati e multimodali.
- Il toolkit watsonx.governance consente flussi di lavoro AI con responsabilità e trasparenza. Aiuta gli utenti a tenere traccia dei dati utilizzati per addestrare i modelli, comprendere il lignaggio del modello, identificare i pregiudizi e monitorare la deriva del modello. Le aziende possono garantire implementazioni dell’IA affidabili e responsabili consolidando i processi di governance in un’unica piattaforma.
Le imprese devono adottare un approccio AI-first
L’era dell’IA generativa e dei modelli fondamentali costringerà le imprese ad affrontare l’IA in modo diverso. In effetti, il passaggio dalla visione dell’IA come un componente aggiuntivo o un nice-to-have a diventare un’azienda AI-first sarà cruciale per il continuo successo sul mercato. Ogni azienda ora affronta una decisione: diventare AI-first o lasciare che la concorrenza prenda l’iniziativa.
Come esempio di approccio diverso all’IA, l’integrazione delle interfacce AI in applicazioni come SAP consente agli utenti di accedere facilmente alle informazioni attraverso query di linguaggio naturale assistite dall’IA. Sto già vedendo modelli fondamentali che sfruttano i dati aziendali per generare previsioni accurate e che migliorano nel tempo combinando i dati proprietari di un’azienda con informazioni più ampie del settore.
Che tu sia parte di un’azienda di 500 o 50.000 persone, credo che l’attenzione dovrebbe essere sul lavoro digitale (lavoro eseguito da sistemi di automazione dei processi robotici (RPA)) e sfruttare l’IA per attività che possono beneficiare dell’automazione e di una maggiore efficienza.
Concludendo
Il sentimento generale che emerge da Think 2023 è che IBM viene rinnovata e rinvigorita. Seguo IBM da decenni e l’eccitazione che circonda i recenti sviluppi dell’azienda è senza precedenti.
Guarderemo indietro a Think 2023 come un momento cruciale per IBM, evidenziando la leadership in due importanti settori in crescita, il cloud ibrido e l’intelligenza artificiale, proprio come ha promesso Arvind Krishna quando è entrato a far parte di IBM.
Mentre la parte del cloud ibrido aveva più senso, grazie all’acquisizione di Red Hat, avevo ancora domande sulla parte AI. Think 2023 ha ora fatto luce su questo con i suoi riflettori sull’IA generativa e sui modelli fondamentali per l’impresa.
IBM vuole essere il tuo fornitore di riferimento per l’IA generazionale aziendale. L’azienda offre gli strumenti necessari, il livello di dati, la governance e il fabric per costruire i flussi di lavoro necessari, ma la sua velocità di commercializzazione rimane una questione critica.
In conclusione, questo evento è stato una pietra miliare significativa per IBM. Monitorerò da vicino i progressi, soprattutto per quanto riguarda la velocità e la capacità dell’azienda di fornire i miglioramenti della produttività offerti dal cloud ibrido e dall’IA.
25/05/23 Forbes: Perché Oracle è il miglior modo subdolo per cavalcare gli straordinari utili di Nvidia

L’hype dell’intelligenza artificiale (AI) è reale e avrà un impatto duraturo sull’intero settore tecnologico.
I dirigenti di Nvidia (NVDA) martedì hanno riportato forti risultati finanziari del primo trimestre mentre i clienti dei data center chiedevano a gran voce di acquistare i suoi chip AI di fascia alta. Le azioni sono aumentate del 27% questa mattina e non si sono guardate indietro.
La brillante scommessa iniziale di Nvidia sull’IA un decennio fa l’ha resa il leader in questa nuova nicchia estremamente importante, ma ci sono molti altri modi per giocare a questo gioco. Per uno, gli investitori dovrebbero acquistare Oracle . Lascia che ti spieghi.
In questa fase gli investitori capiscono la maggior parte della storia dell’IA Nvidia. L’azienda con sede a Santa Clara, in California, costruisce i chip AI più avanzati al mondo. Ancora più importante, l’azienda governa CUDA, una piattaforma utilizzata sia dagli accademici che dagli sviluppatori di software per costruire complessi modelli di intelligenza artificiale. L’ultima parte è spesso trascurata.
Il potere della presa di Nvidia sullo sviluppo dell’IA all’avanguardia è CUDA. Le menti più brillanti dell’IA si stanno sviluppando sul CUDA. Quella piattaforma dipende dal silicio intelligente Nvidia.
La stima per il secondo trimestre di Nvidia riflette questa realtà.
I dirigenti hanno detto in una dichiarazione mercoledì che le vendite per il prossimo trimestre dovrebbero raggiungere circa 11 miliardi di dollari. Questo numero sorprendente, al di là della sua enorme scala, è del 50% superiore alle aspettative. La guida è una esplosione assoluta, superiore anche alla prospettiva più rialzista di Wall Street.
La chiave è che i clienti dei datacenter non ne hanno mai abbastanza di Nvidia H100, un chip AI di fascia alta. Meglio ancora, non c’è un concorrente attuale a causa di CUDA. C’è una corsa all’oro dell’IA e Nvidia sta vendendo gli unici picconi e pale in città. L’azienda ha un monopolio virtuale.
Questo è ottimo per Nvidia e si riflette nell’aggressivo aumento delle azioni dopo la chiusura di mercoledì. Il titolo è stato scambiato a 394 dollari, il suo livello più alto di sempre e un salto del 164% dal 1° gennaio di quest’anno.
La tesi di investimento di Oracle riguarda i suoi clienti hold-over, l’emergere dell’IA e il suo nuovo rapporto con Nvidia.
Oracle è meglio conosciuta per la sua grande attività di database legacy. Questo software è fondamentale per la tecnologia dell’informazione nella maggior parte delle più grandi imprese del mondo, dalle aziende Fortune 500 ai governi e alle fondazioni private.
Un grande ecosistema di sviluppo di software aziendale e di terze parti si è evoluto negli ultimi cinque decenni. Oracle Cloud Infrastructure consente a questi sviluppatori di creare potenti applicazioni software as a service che vengono eseguite su Oracle Cloud, cloud ibridi dei clienti o ambienti IT on-premise.
Questo ecosistema è il collante che lega i clienti legacy a Oracle.
I dirigenti di Oracle a marzo hanno annunciato un colpo da maestro. La società con sede ad Austin, in Texas, ha collaborato con Nvidia sui cloud AI di prossima generazione. Oltre a portare il silicio Nvidia all’avanguardia all’OCI, l’accordo consentirà a Oracle di rivendere servizi supportati da Nvidia, incluso lo storage ad alte prestazioni alle imprese per le loro esigenze locali.
Tieni presente che Oracle ha una considerevole morsa aziendale e una forza vendita aggressiva. L’azienda dovrebbe essere in grado di sfruttare queste relazioni in nuove significative vendite di intelligenza artificiale.

Ad un prezzo delle azioni di 98,32 dollari Oracle negozia a 17,6 volte gli utili a termine. Il rapporto prezzo/vendite è 5,5x, ben all’interno della gamma storica. Il titolo è aumentato del 20,2% nel 2023.
Sulla base di un nuovo ciclo di vendita dell’IA, le azioni potrebbero essere scambiate a 122,50 dollari durante i prossimi sei mesi, un guadagno del 24% rispetto ai livelli attuali.
25/05/23 Ferragu: le sue valutazioni su Nvidia
Ricordo che Pierre Ferragu è uno dei più autorevoli analisti del settore tecnologico Usa: mitici i suoi report sulla Tesla dove ne preannunciava il boom. Traduco alcuni suoi Twitter che oggi ha dedicato a Nvidia:
.
$NVDA – alza le stime il prossimo trimestre del 53%, e apre in borsa con un più 25% – dove può andare il titolo da qui? Peccato che non possa dare consigli di investimento qui! Tuttavia, posso ancora parlare di come vediamo l’opportunità di operare sulle azioni dell’azienda.
Le GPU per data center di Nvidia sono nella posizione migliore per catturare la prossima ondata di investimenti nelle infrastrutture per l’ AI. . Hanno una quota di mercato > del 90% oggi e la concorrenza, da giocatori più piccoli o chip interni, può catturare solo una piccola quota dell’opportunità, in quanto mancano dell’ecosistema e delle dimensioni di Nvidia
A nostro avviso, la spesa per le infrastrutture iperscalari dovrebbe aumentare del 20-25% all’anno nel periodo 2022-2027. All’interno di questo, il 65% della spesa incrementale che vediamo va all’intelligenza artificiale, ovvero principalmente alle GPU. Ciò significa che Nvidia Datacenter può crescere del 30-40% annuo in questi 5 anni.
Ciò significa entrate di gruppo di $ 85-100 miliardi nel 2027, con un utile per azione di $ 15-20 . Supponendo che il titolo venga scambiato a 30-35 volte gli utili a termine, significa che potrebbe essere quotare tra $ 450 e 700 nel 2026.
Tutto questo è solo articolare scenari e non incorpora nessuna raccomandazione. Fai le tue ricerche e prendi le tue decisioni…. della serie: siete adulti e vaccinati ergo…
25/05/23 Barron’s: Le azioni Marvell volano sulle stime dei guadagni dell’IA
Tae KimFollow
MeravigliaMRVL +7,59% Le azioni tecnologiche sono aumentate dopo aver pubblicato solidi risultati sugli utili e aver fornito una guida leggermente al di sopra delle aspettative di Wall Street.
La società di semiconduttori ha riportato un utile rettificato per azione di 31 centesimi per il trimestre di aprile, rispetto alla stima di consenso di 29 centesimi tra gli analisti di Wall Street monitorata da FactSet. Le entrate sono arrivate a 1,32 miliardi di dollari, che erano al di sopra delle aspettative degli analisti di 1,3 miliardi di dollari.
Anche le prospettive finanziarie della direzione erano solide. Marvell (ticker: MRVL) prevede una gamma di entrate potenziali per il trimestre in corso con un punto medio di 1,33 miliardi di dollari, rispetto alla visione di consenso che le entrate saranno di 1,31 miliardi di dollari.
“L’IA è emersa come un fattore chiave di crescita per Marvell, che stiamo abilitando con i nostri principali prodotti di connettività di rete e l’emergente piattaforma di silicio ottimizzata per il cloud”, ha detto il CEO di Marvell Matt Murphy nel comunicato. “Mentre siamo ancora nelle prime fasi della nostra rampa di intelligenza artificiale, prevediamo che le nostre entrate di intelligenza artificiale nell’anno fiscale 2024 almeno raddoppino rispetto all’anno precedente e continueranno a crescere rapidamente nei prossimi anni”.
Marvell vende un portafoglio di chip e prodotti hardware per i mercati dei centri dati, dell’infrastruttura 5G, delle reti e dello storage.
Le azioni Marvell sono schizzate fino al 20% dopo l’orario di negoziazione di giovedì.
25/05/23 Barron’s: Le azioni Nvidia salgono per le previsioni sulla forte crescita dell’ intelligenza artificiale
Nvidia –0.49% ha fornito una previsione delle entrate per il trimestre di luglio molto al di sopra delle aspettative, citando l’emergente domanda per i suoi chip che consentono applicazioni di intelligenza artificiale.
Le sue azioni sono schizzate nelle negoziazioni fuori orario.
La società di semiconduttori ha riportato un utile per azione rettificato del trimestre di aprile di 1,09 dollari, rispetto alla stima di consenso di Wall Street di 92 centesimi, secondo FactSet. Le entrate sono arrivate a 7,2 miliardi di dollari, il che era migliore delle aspettative degli analisti di 6,5 miliardi di dollari. Per il trimestre, le entrate di gioco sono diminuite del 38% rispetto a un anno fa, ma le vendite per il suo segmento di data center sono aumentate del 14% grazie alla domanda dell’IA.
La grande notizia sta nelle previsioni. Per il trimestre in corso, Nvidia ha dato un intervallo di previsione delle entrate di 11 miliardi di dollari al punto medio, ben al di sopra del consenso degli analisti di 7,2 miliardi di dollari.
Le azioni Nvidia sono aumentate fino al 24% a 378 dollari dopo il rilascio.
“L’industria informatica sta attraversando due transizioni simultanee: calcolo accelerato e intelligenza artificiale generativa”, ha detto il CEO di Nvidia Jensen Huang nel comunicato stampa. “L’intera famiglia di prodotti per centri dati (H100, Grace CPU, Grace Hopper Superchip, NVLink, Quantum 400 InfiniBand e BlueField-3 DPU) è in produzione. Stiamo aumentando significativamente la nostra offerta per soddisfare la crescente domanda per loro.”
Questi prodotti sono utilizzati per alimentare le ultime applicazioni di intelligenza artificiale che hanno affascinato sia gli investitori che i consumatori.
Nvidia è un produttore leader di chip utilizzati per videogiochi, intelligenza artificiale e applicazioni di cloud computing all’interno dell’hardware di PC e server.
I chip dell’azienda hanno un’elevata esposizione all’IA generatrice, che è stata di tendenza quest’anno. La tecnologia ingeria testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso.
In una conference call con investitori e analisti, la direzione di Nvidia ha affermato di aver visto un’ampia domanda di progetti di intelligenza artificiale generazionale da fornitori di cloud computing, grandi società di Internet di consumo, startup e imprese. La società ha anche affermato di aver ottenuto impegni di approvvigionamento “sostanzialmente più grandi” dai suoi fornitori per la seconda metà del suo anno fiscale per soddisfare la domanda più elevata, rispetto alla prima metà.
In un’intervista telefonica con Barron’s dopo la chiamata, il direttore finanziario Colette Kress ha affermato che la visibilità degli ordini è migliorata durante il trimestre. I clienti stanno dando a Nvidia i loro piani a lungo termine mentre costruiscono nuovi data center, ha detto.
Gli analisti di Wall Street hanno una visione positiva di Nvidia. Circa il 74% ha valutazioni Buy o equivalenti sul titolo, secondo FactSet.
Le azioni Nvidia sono aumentate di oltre il 100% finora quest’anno e di circa il 90% negli ultimi 12 mesi.
22/05/23 Barron’s: Oltre Nvidia: Wall Street offre altri modi per investire nell’IA
Wall Street sta facendo gli straordinari per sognare più modi per puntare sulla rapida comparsa del software di intelligenza artificiale, che è diventato il nuovo motore principale per le azioni tecnologiche.
Il gestore di portafoglio Brook Dane ha esposto le sue scelte AI preferite durante il fine settimana. Alcune erano scelte sorprendenti come i produttori di chip Marvell Technology +1,70% (ticker: MRVL) e Micron Technology –3.18% (MU), la società di data warehouse cloud Snowflake (SNOW) e il gigante del software di sicurezza Palo Alto Networks +1,91% (PANW).
Ma ci sono molte altre teorie su chi saranno i vincitori. Lunedì, tre società di ricerca di Wall Street hanno valutato i possibili vincitori – e perdenti – dall’IA.
Il più completo di questi nuovi rapporti, con 184 pagine, proviene dall’analista di TD Cowen John Blackledge. Scrive che la tendenza generativa-AI sarà “un cambiamento monumentale”, alla pari con l’adozione di Internet. Cowen sta modellando 81 miliardi di dollari di spesa per software di intelligenza artificiale generazionale nel 2027, un tasso di crescita composto del 190% a 5 anni.
I primi tre investitori in intelligenza artificiale di Cowen sono ovvi: Alphabet (GOOGL), Microsoft (MSFT) e Nvidia +0,22% (NVDA). Alphabet e Microsoft hanno un vantaggio chiaro e precoce nel mercato del software di intelligenza artificiale ed entrambi hanno iniziato ad adottare funzionalità di intelligenza artificiale in tutti i loro portafogli software, andando ben oltre la ricerca. E Nvidia è il chiaro leader nei chip usati per addestrare grandi modelli linguistici. Tutti sono aumentati di più quest’anno.
Blackledge aggiunge altri nomi alla lista, però.
Amazon (AMZN), che sta lavorando su grandi modelli linguistici propri, fornisce un set completo di strumenti di intelligenza artificiale ai clienti di Amazon Web Services e dovrebbe beneficiare dell’aumento della domanda di servizi di cloud computing che l’adozione ampliata dell’IA dovrebbe innescare. E Meta (META) dovrebbe essere un beneficiario, poiché il genitore di Facebook aumenta la spesa per il software generative-AI. In particolare, l’analista ritiene che l’IA dovrebbe aumentare l’efficienza delle vendite pubblicitarie di Meta sui social network dell’azienda.
Blackledge si aspetta anche una spinta per Adobe (ADBE), che sta già mostrando nuovi strumenti di creazione di contenuti generative-AI. La piattaforma di cloud computing di Oracle (ORCL), ha scritto, “ha alcuni vantaggi competitivi rispetto agli operatori storici nel catturare questa prossima ondata di crescita del carico di lavoro cloud” guidata dall’intelligenza artificiale e dall’apprendimento automatico. Altre scelte includono i produttori di chip Advanced Micro Devices (AMD) e Micron, gli operatori di data center Digital Realty Trust (DLR) ed Equinix (EQX) e le azioni di software di sicurezza CrowdStrike (CRWD) e SentinelOne (S).
Analista di Needham N. Quinn Bolton ha offerto una lista diversificata di potenziali vincitori.
Facendo eco a un tema che Dane di Goldman ha sottolineato la scorsa settimana su Barron’s Live, la nota di Needham posiziona l’industria dei chip come “i picconi e le pale” dell’informatica AI. La tendenza dovrebbe guidare la domanda non solo per le GPU di Nvidia, ma anche per sensori, memoria, chip di rete e varie altre parti.
L’elenco dei vincitori di Needham include non solo Nvidia, che considera “l’azienda meglio posizionata” nell’IA, ma anche Micron, Cerence (CRNC), che produce prodotti di assistenza vocale utilizzati nelle auto; la gestione dell’alimentazione gioca Vicor (VICR) e Monolithic Power (MPWR); e produttori dichip di rete Marvell e Credo Technology Group (CRDO)
Bolton è anche rialzista su Taiwan Semiconductor (TSM), “l’unica fonderia pratica… per produrre i chip più avanzati come gli acceleratori AI”. E vede una spinta al settore degli strumenti di automazione della progettazione elettronica, tra cui Cadence Design Systems (CDNS) e Synopsys (SNPS).
Nel settore delle reti, Bolton chiama Arista Networks (ANET) come “forse uno dei principali beneficiari della costruzione di infrastrutture AI”. Pensa che la forte posizione dell’azienda con i grandi attori del cloud “da loro un chiaro vantaggio in questa arena in rapida crescita”. Needham stima che l’IA, nel tempo, aggiungerà dal 5% al 10% al tasso di crescita a lungo termine di Arista.
Bolton è anche rialzista su Cognex (CGNX), “un leader mondiale nella tecnologia della visione artificiale”. Ha osservato che l’azienda ha “procedimento dell’implementazione” della tecnologia basata sull’apprendimento profondo in tutto il suo portafoglio di prodotti.
Anche l’analista di JMP Andrew Boone aveva dei pensieri, affermando che la tecnologia aumenterà le dinamiche del “vincitore che prende la maggior parte” (è la teoria del Gorilla: ne ho parlato QUI) su Internet. Ad esempio, pensa che la tendenza dovrebbe essere una spinta per le piattaforme di social media. “I modelli AI accelerano il processo di brainstorming per i creatori, mentre gli strumenti di editing stanno diventando più potenti e più facili da usare”, ha scritto Boone. “Pensiamo che questo democratizzi ulteriormente il processo creativo, che dovrebbe avvantaggiare direttamente i social network man mano che i contenuti a coda lunga proliferano”.
Una delle conclusioni di Boone è che l’emergere di chatbot come Bard, Bing e OpenAI rischia di “influenzare negativamente il web aperto”, con più ricerche a cui ha risposto l’IA. La sua opinione è che la capacità dei chatbot basati sull’intelligenza artificiale di rispondere alle domande ridurrà il numero di volte in cui i cercatori di informazioni procederanno ad altri siti web.
“In parole povere, questo aumenta l’importanza dell’app e del traffico diretto, o in altre parole, del marchio, riducendo probabilmente l’opportunità di business per la lunga coda del web”, ha scritto. In particolare, Boone pensa che la tendenza “si metta male per la lunga coda degli editori”. vede potenziali rischi per Taboola (TBLA) e Outbrain (OB), che tra le altre cose vendono annunci destinati a indirizzare il traffico verso i siti web degli editori di contenuti.
20/05/23 Barron’s: È ora di pensare più in grande all’IA. Queste 8 azioni potrebbero essere i prossimi vincitori.
Gli investitori continuano a cercare nuovi modi per cavalcare la mania sul software di intelligenza artificiale. Da qui, dovranno pensare un po’ di più fuori dagli schemi.
Le scommesse ovvie sono così conosciute che sembra che tutti le possiedano. Il grande vincitore del consenso è Nvidia -1,31% (ticker: NVDA), che produce processori grafici utilizzati per addestrare i grandi modelli linguistici al centro dell’IA generativa. Le azioni Nvidia sono già più che raddoppiate quest’anno, e la società ora si classifica come il quinto titolo tecnologico più prezioso, davanti a Meta Platforms -0.49% (META) e Tesla +1,84% (TSLA).
MicrosoftMSFT –0.06% (MSFT) è stata la prima scelta del mercato sul software AI, data la sua grande partecipazione nel creatore di ChatGPT OpenAI e l’introduzione di funzionalità AI in una serie di applicazioni Microsoft. Il titolo è aumentato del 33% quest’anno e ha un valore di mercato di 2,4 trilioni di dollari, dietro solo ad Apple.
Alphabet -0.06% Le azioni (GOOGL) sono state evitate all’inizio di quest’anno dopo che Microsoft ha presentato una versione basata sull’intelligenza artificiale del suo motore di ricerca Bing. Ma Alphabet ha investito nell’IA per almeno un decennio e ha recentemente annunciato i propri progressi dell’IA. Il titolo è aumentato del 39% nel 2023. Anche strisciando nella discussione: Oracle (ORCL), che ha un accordo per ospitare servizi di supercalcolo basati su Nvidia su Oracle Cloud. Le azioni Oracle sono pochi centesimi da un massimo storico, in aumento del 26% per l’anno.
Poi ci sono le scommesse sull’intelligenza artificiale preferiti dalla folla ma speculativi: il produttore di software aziendale C3.ai (AI) è aumentato del 30% la scorsa settimana; la società di analisi dei dati Palantir Technologies (PLTR) è aumentato del 23% nella settimana, mentre l’azione AI abilitato alla voce SoundHound (SOUN) è salito del 10%.
Ma se l’IA sarà una tecnologia che cambierà il mondo sulla falsariga di internet, il cloud, lo smartphone, l’elettricità e i viaggi aerei, ci devono essere altri modi per puntarci , giusto?
Ho sollevato questa domanda con Brook Dane, un manager del portafoglio tecnologico di Goldman Sachs, che è stato ospite la scorsa settimana su Barron’s Live, il nostro webcast e podcast quotidiano.
“Sono stato un investitore tecnologico per più di 30 anni. “Questo è uno degli sviluppi, se non il più eccitante, che abbia mai visto”“, ha detto.” “Il potere di questi modelli e come cambieranno la produttività dei lavoratori della conoscenza… è profondo… siamo completamente concentrati sulla ricerca dei prossimi vincitori dell’IA”.
Detto questo, Dane sottolinea che è “super presto”. Microsoft ha detto nella sua più recente chiamata sugli utili che i carichi di lavoro generativi relativi all’IA potrebbero aggiungere l’1% alla crescita trimestrale della sua attività cloud Azure nel trimestre di giugno. Ciò implica 150 milioni di dollari di entrate incrementali, per una società che genera circa 55 miliardi di dollari per un quarto di entrate complessive. È a malapena un errore di arrotondamento.
Dane vede quattro modi fondamentali per giocare l’opportunità nell’IA. Ci sono giochi pick-and-shovel, che consentono ai data center di eseguire questi carichi di lavoro AI. Ci sono esigenze infrastrutturali intorno all’IA, “dato che i dati sono la chiave di tutto questo”. Ci sono società di sicurezza. E ci sono applicazioni che beneficeranno dell’aggiunta dell’IA.
Nella categoria pick-and-shovel, la scelta preferita di Dane è Marvell Technology (MRVL), che produce chip utilizzati nella connettività del centro dati. I loro chip, dice, assicurano che i carichi di lavoro siano distribuiti in modo rapido ed efficiente.
Pensa anche che la tendenza dell’IA sarà una spinta per le aziende di software focalizzate sull’automazione della progettazione elettronica, o EDA. In particolare, Dane è rialzista su Cadence Design Systems (CDNS). Nota anche che i carichi di lavoro AI sono ad alta intensità di memoria, il che è rialzista per il gigante della memoria DRAM e flash Micron Technology (MU).
Per quanto riguarda la tecnologia dei dati, Dane dice di aver parlato con molte aziende di come pensano di implementare l’IA e che sono emersi un paio di temi comuni. Dice che le aziende vogliono addestrare i modelli sui propri dati interni, senza condividere l’intelligenza con il mondo. Ciò richiede dati di “pulizia e sandboxing”, dice, il che è una spinta per aziende come Snowflake (SNOW) e Datadog (DDOG) che aiutano le aziende a immagazzino e analizzare le informazioni.
In materia di sicurezza: “Ogni volta che ottieni un grande cambiamento nel panorama delle minacce, è molto buono per le aziende di sicurezza informatica”, dice Dane. “Questo introdurrà un regno completamente nuovo di caos nel mondo mentre i cattivi attori approfittano di questa tecnologia e fanno cose a cui io e te non possiamo nemmeno pensare in questo momento. Ma sta arrivando… Avremo bisogno di nuove forme di protezione.”
La sua prima scelta per proteggersi dalla nuova minaccia è Palo Alto Networks (PANW). Dane dice che Palo Alto ha dati sui “veterati di legge” che fanno impallidire tutto ciò che i loro clienti potrebbero compilare. “Essi eseguiranno modelli di intelligenza artificiale su quei dati per identificare le minacce prima, più velocemente e meglio di qualsiasi altra azienda”. È anche rialzista su ZScaler (ZS), una società di software per la sicurezza cloud.
Infine, ci sono applicazioni: “Questa è la prima area, ma sarà la più grande nel tempo”, dice Dane. “Stiamo cercando i luoghi ovvi in cui questi strumenti possono essere distribuiti in modo responsabile e sicuro”. Un titolo che gli piace è HubSpot (HUBS), che fornisce software di relazione con i clienti per le piccole e medie imprese. Pensa che HubSpot possa utilizzare l’intelligenza artificiale per rendere i suoi clienti più produttivi ed efficienti nella loro spesa di marketing. Se HubSpot può farlo, dice Dane, i clienti pagheranno di più. E il titolo dovrebbe essere più alto.
Per essere chiari, questo non è certo un elenco esaustivo. Ho scritto prima di altre aziende che distribuiscono software AI, tra cui Adobe (ADBE) e Duolingo (DUOL).ServiceNow(NOW) ha appena stabilito una nuova partnership con Nvidia per guidare un migliore software di gestione del flusso di lavoro per l’azienda.
Internet ha cambiato ogni attività. E così farà l’IA.
Scrivi a Eric J. Savitz all’indirizzo eric.savitz@barrons.com
17/05/23 Barron’s: L’IA Sta Rimodellando i posti di lavoro. Ecco le aziende da tenere d’occhio.
Janet H. Cho e Stevie Rosignol-Cortez
Le capacità di intelligenza artificiale continuano a progredire a una velocità vertiginosa. L’arrivo di ChatGPT in particolare sembra aver solo accelerato l’adozione della tecnologia AI nelle operazioni quotidiane delle aziende. Ma quantificare gli effetti dell’IA sul business è stata un’ipotesi di chiunque. Fino ad ora.
Una nuova ricerca che confronta quanto la forza lavoro delle più grandi aziende statunitensi esposte all’intelligenza artificiale generatrice ha rilevato che le aziende con la maggiore esposizione potrebbero vedere maggiori flussi di cassa, minori costi del lavoro e maggiori valutazioni di mercato.
Le aziende i cui costi del lavoro sono più complementari all’IA generativo vedranno flussi di cassa più elevati a causa dei miglioramenti tecnologici complementari alla loro forza lavoro.
International Business Machines Corp. (ticker: IBM) è in cima alla lista dei ricercatori delle 15 più grandi aziende con la più alta esposizione a ChatGPT, il chatbot AI rilasciato a novembre dal laboratorio di ricerca OpenAI.
I prossimi quattro sono Intuit, Qualcomm, Fiserv e Nvidia.
Il CEO di IBM Arvind Krishna riconosce una grande esposizione, dicendo a Bloomberg News questo mese che dei 26.000 dipendenti non rivolti ai clienti dell’azienda, “Potrei facilmente vedere il 30% di questo essere sostituito da AI e automazione per un periodo di cinque anni”.
Microsoft (MSFT), è nono nella lista dei più esposti. Il CEO Satya Nadella sta congelando gli stipendi dei suoi dipendenti a tempo pieno quest’anno, citando la necessità di investire in un “importante cambiamento di piattaforma in questa nuova era dell’IA”, secondo una nota pubblicata da Business Insider.
Delle 15 più grandi aziende statunitensi con la più alta esposizione all’IA, sulla base della valutazione di ChatGPT dei compiti svolti in varie occupazioni, otto sono nel settore dell’informazione e sei sono aziende manifatturiere. S&P Global, BroadcomAVGO +2,50% , Verizon CommunicationsVZ +0.36% , e 3M completano la top 10.
Delle 15 aziende meno esposte, due sono nel settore dei servizi di ristorazione, sette nel settore del commercio al dettaglio, tre nel settore dei trasporti e del magazzino e due nel settore manifatturiero.
Starbucks, McDonald’s, Dollar GeneralDG +0.65% , Target e Walmart sono i primi cinque nel gruppo meno esposto.
“La nostra premessa è che i compiti eseguiti dalle forze di lavoro delle aziende più esposte possono essere eseguiti più facilmente dalle applicazioni di intelligenza artificiale generatrice rispetto ai compiti eseguiti dalla forza lavoro delle aziende (e delle industrie) meno esposte”, hanno scritto tre professori di finanza nel rapporto di ricerca, che è stato pubblicato la scorsa settimana.
“A livello aziendale, se l’IA è positiva o negativa per il valore dipende da quanto sono esposte le loro forze di lavoro e da quanto le aziende in carica rispetto ai nuovi entranti siano in grado di sfruttare i miglioramenti tecnologici”, Andrea L. Eisfeldt, la cattedra di finanza e professore di finanza all’U.C.L.A. Anderson School of Management, ha detto a Barron.
Alcuni dei risultati sono stati confrontati con le ricerche e le ipotesi precedenti sull’IA e sul lavoro: lo studio ha rilevato che le occupazioni più colpite sono in realtà quelle con un’alta percentuale di compiti analitici cognitivi non di routine o compiti cognitivi di routine, mentre i compiti fisici manuali sono relativamente inalterati.
IBM ha detto a Barron che sta assumendo attivamente per migliaia di posizioni. “IBM è deliberata e premurosa nelle nostre assunzioni con particolare attenzione ai ruoli che generano entrate e siamo molto selettivi quando riempiamo lavori che non toccano direttamente i nostri clienti o la tecnologia”.
Intuit (INTU), NVIDIA (NVDA) e Microsoft hanno rifiutato di commentare lo studio. Starbucks (SBUX), McDonald’s (MCD) e Dollar General (DG) non hanno potuto essere immediatamente raggiunti per un commento.
Oltre a Eisfeldt, lo studio è stato condotto da Gregor Schubert, assistente professore di finanza alla Anderson School; e Miao Ben Zhang, assistente professore di finanza ed economia aziendale presso la U.S.C. Marshall School of Business.
“Mentre non prendiamo posizione sul fatto che l’IA generativa sia un sostituto o complementare al lavoro con esposizioni più elevate, il nostro lavoro mostra che le aziende che hanno una quota maggiore di occupazioni esposte all’esperienza dell’IA generativa guadagnano valore in un’ampia varietà di settori”, hanno scritto.
Questa nuova ricerca suggerisce che l’IA è buona per le aziende con più esposizione. Ma se sia buono o meno per i lavoratori, cioè se può effettivamente sostituire o meno il lavoro in queste industrie, resta da vedere.
Alla domanda su cosa dovrebbero togliere dallo studio i dipendenti di aziende come IBM, Eisfeldt ha detto che l’IA potrebbe aiutare a rendere i lavoratori più produttivi. “Anche se queste aziende potrebbero ristrutturare la loro forza lavoro, l’impatto finale sul lavoro in generale può ancora essere positivo”, ha detto a Barron.
“Per molti lavori, gli strumenti di intelligenza artificiale possono assumere attività di memoria o ripetitive, consentendo ai dipendenti di concentrare i loro sforzi su aree in cui la creatività e l’intuizione umane sono particolarmente preziose. Di conseguenza, alcuni lavori possono diventare sia più coinvolgenti per il lavoratore che più preziosi per l’azienda, purché i lavoratori siano disposti ad adattarsi al cambiamento delle responsabilità”, ha detto.
17/05/23 Barron’s: Nvidia e ServiceNow uniscono le forze per costruire l’intelligenza artificiale per le imprese. È una grande idea.
di Tae Kim
Nvidia NVDA +3,30% e ServiceNow NOW +5,27% potrebbe aver trovato l’applicazione killer per l’intelligenza artificiale generativa: l’automazione dei sistemi IT aziendali interni.
Potrebbe significare che la promessa della tecnologia per generare rendimenti aziendali non è più un sogno per il futuro, ma qualcosa dietro l’angolo.
Martedì, durante una sessione di videoconferenza con i giornalisti, il dirigente di Nvidia (ticker: NVDA) Rama Akkiraju, vicepresidente dell’IA per l’IT dell’azienda, ha parlato con ottimismo della sua nuova partnership con la società di software per il flusso di lavoro ServiceNow (NOW).
“Questa partnership è quella di sviluppare modelli di generativa AI specifici per il dominio per le più grandi funzioni delle imprese”, ha detto.
I chip Nvidia hanno un’elevata esposizione all’IA generativa, che è stata di tendenza quest’anno. La tecnologia ingeria testo, immagini e video in modo brute-force per creare contenuti. L’interesse per questa forma di intelligenza artificiale è stato suscitato dal rilascio di ChatGPT da parte di OpenAI alla fine dell’anno scorso. I chatbot come ChatGPT usano un modello linguistico che genera risposte umane, o le loro migliori ipotesi, basate su relazioni di parole trovate digerindo ciò che è stato precedentemente scritto su Internet o da altre forme di testo.
Secondo Akkiraju, le due società lavoreranno insieme per sviluppare modelli personalizzati in linguaggio di grandi dimensioni per estendere la funzionalità dell’IA a nuovi usi in tutta l’azienda, anche per i dipartimenti IT, il servizio clienti e le risorse umane.
“Vediamo molte opportunità per applicare l’IA generativa a molti di questi casi d’uso e per automatizzarli”, ha detto Akkiraju.
Ha spiegato come un chatbot AI addestrato sui documenti di conoscenza all’interno dei sistemi interni di un’azienda potrebbe essere più efficiente nel risolvere i problemi delle risorse umane e dell’IT senza la necessità di un agente del servizio clienti.
I modelli di intelligenza artificiale possono anche essere utilizzati per riassumere e inserire i dati sui ticket del servizio clienti, che attualmente richiedono in media da sette a otto minuti per chiamata. Gli agenti possono quindi utilizzare il risparmio di tempo per lavorare su problemi più complessi, ha detto l’esecutivo.
La tecnologia Generative-AI sembra adatta per le ripetute richieste delle risorse umane e per automatizzare le attività del servizio clienti. A differenza dei chatbot di uso generale a cui si può chiedere qualsiasi cosa, le domande comunemente poste dai dipendenti sono limitate e con una risposta o un processo corretto verificabile. Significa che c’è una maggiore probabilità che i modelli di intelligenza artificiale incentrati sull’impresa possano essere sintonizzati per funzionare in modo efficace.
La piattaforma ServiceNow utilizzerà il software e gli strumenti Nvidia AI, insieme all’infrastruttura hardware Nvidia DGX nel cloud e nei sistemi locali.
15/05/23 Barron’s: Le azioni C3.ai in rialzo sull’aggiornamento degli utili. La domanda sta “esplodendo” per l’intelligenza artificiale aziendale, afferma il CEO
Le azioni C3.ai sono salite lunedì dopo che la società ha detto che avrebbe battuto le sue precedenti previsioni finanziarie per il suo quarto trimestre fiscale, conclusosi il 30 aprile, con il picco della domanda aziendale di software AI.
Le azioni C3.ai (ticker: AI) sono aumentate del 16% lunedì a 22,48 dollari. Il titolo è raddoppiato finora quest’anno, nonostante sia stato colpito da un rapporto di un venditore allo scoperto, perché il lancio alla fine dello scorso anno del chatbot ChatGPT di OpenAI ha innescato un’impennata di interesse per l’intelligenza artificiale tra gli investitori.
“Non c’è un CEO, nessun consiglio aziendale, dove la questione dell’applicazione dell’analisi predittiva ai processi aziendali non è una delle prime tre cose sulla loro agenda”, ha detto il CEO di C3.ai Tom Siebel in un’intervista con Barron’s. “Il mercato è cambiato per l’IA aziendale. Sta solo esplodendo, e lo stiamo vedendo nella nostra pipeline aziendale. Siamo in una posizione abbastanza buona qui. Abbiamo il prodotto, il canale e l’organizzazione di vendita.”
C3.ai +20.87% (ticker: AI) ha detto che ora prevede di segnalare una perdita operativa rettificata per il trimestre di aprile tra 23,7 milioni di dollari e 23,9 milioni di dollari, rispetto a un precedente intervallo di previsione da 24 milioni di dollari a 28 milioni di dollari.
La società ora prevede un fatturato del trimestre di aprile compreso tra 72,1 milioni e 72,4 milioni di dollari, rispetto ai 77,0 milioni di dollari a 72,2 milioni di dollari che aveva previsto.
Nel suo terzo trimestre fiscale conclusosi a gennaio, C3.ai ha registrato un fatturato di 66,7 milioni di dollari e una perdita operativa rettificata di 15,0 milioni di dollari.
C3.ai ha detto di aver chiuso 43 offerte nel trimestre e che il suo modello di prezzi basato sul consumo continua ad essere ben accolto dai clienti. Il passaggio da un modello basato su abbonamento è stato al centro dello scetticismo per alcuni analisti, che hanno affermato che probabilmente avrebbe sconfermato la crescita delle entrate.
Siebel ha detto che la società è sulla buona strada per essere redditizia su base non GAAP, o rettificata, entro la fine dell’anno fiscale 2024. Ha detto che la società si aspettava una crescita più rapida nell’anno fiscale 2024, ma ha rifiutato di fornire una previsione più specifica.
Il capo di C3.ai ha affermato che l’intelligenza artificiale cambia la natura dei motori di ricerca aziendali. “Prendiamo il loro ERP, CRM, le applicazioni di produzione e le applicazioni della supply chain e le rendiamo predittive”, ha detto. “Pacciamo prevedere i guasti del sistema o del dispositivo prima che si verifichino”.
“L’interesse aziendale per l’intelligenza artificiale rimane elevato con C3.ai che commenta una crescita sana nella sua pipeline. Ci aspettiamo che un 10K verificato [depositamento annuale] sarà l’ultima spinta di fiducia nel titolo a breve termine”, gli analisti di D.A. Davidson guidato da Gil Luria ha scritto in una nota di ricerca lunedì. D.A. Davidson ha un rating Buy e un prezzo obiettivo di 30 dollari sul titolo.
La società riferirà i suoi utili fiscali del quarto trimestre il 31 maggio.
08/05/23 Barron’s: Il rallentamento del Cloud di Amazon è transitorio. L’IA Potrebbe Guidare La Crescita.
Il servizio di cloud computing di Amazon.com non sarà lasciato nella polvere durante la grande corsa all’IA tecnologica, secondo un analista di Loop Capital.
Mentre Amazon AMZN +0.17% (ticker: AMZN) ha recentemente riportato un rallentamento nella crescita della sua divisione Amazon Web Services, l’analista Rob Sanderson ha scritto in una nota di ricerca che questo è transitorio. Ha fiducia che la decelerazione della crescita dei ricavi di AWS rallenterà e poi si invertirà.
Amazon ha riportato guadagni e vendite del primo trimestre che hanno battuto le stime di Wall Street il 27 aprile, ma ha avvertito che la spesa per il cloud dei clienti era rallentata.
Uno dei motivi per cui Sanderson, che valuta il titolo come un Buy con un obiettivo di prezzo di 140 dollari, crede che AWS crescerà da qui è il futuro dell’intelligenza artificiale.
“vista l’eccitazione che circonda l’IA generativa è stata incentrata su Microsoft e Google, molti investitori si chiedono se AWS si trovi in una posizione svantaggiata”, ha scritto Sanderson. “Pensiamo che più investitori riconosceranno presto che l’IA guiderà un’espansione significativa della domanda di cloud e AWS sarà un partecipante importante”.
Ma non tutti gli analisti sono così rialzisti sulla crescita del cloud di Amazon. L’analista di Itaú BBA Thiago Alves Kapulskis ha scritto in una nota di ricerca dopo i guadagni di Amazon che la concorrenza tra Amazon e I servizi cloud di ‘MSFT sono una preoccupazione.
“Con così tanta incertezza su AMZN e dopo la significativa divergenza in Azure rispetto ad AWS, crediamo che il mercato favorirà il primo e il suo possessore, piuttosto che il secondo”, ha scritto l’analista. Valuta Amazon come Outperform con un obiettivo di prezzo di 124 dollari.
Microsoft ha riportato forti prestazioni da Azure, la sua piattaforma cloud, durante i suoi guadagni trimestrali.
Le azioni di Amazon sono scesi dello 0,4% lunedì a 105,19 dollari mentre l’S&P 500SPX +0.05% diminuito dello 0,1%. Il titolo è salito del 25% quest’anno.
08/05/23 Barron’s: Le migliori stime dei guadagni di Palantir. Il CEO Karp vede un’enorme opportunità nell’IA
Palantir PLTR +4,45% ha pubblicato risultati migliori del previsto per il primo trimestre, ed aumenta la sua stima per tutto il 2023. Nel frattempo, l’azienda continua a fare una grande spinta per la sua piattaforma di intelligenza artificiale recentemente annunciata, che chiama AIP.
Il titolo è salito bruscamente nel tardo trading di lunedì.
“Stiamo usando tutte le nostre risorse per catturare una delle più grandi opportunità del mondo”, ha detto Karp in un’intervista con Barron’s. E ha detto che intendono farlo pur rimanendo redditizi secondo le regole contabili generalmente accettate.
Karp ha aggiunto in una lettera trimestrale agli azionisti che i grandi modelli linguistici, che sono al centro degli strumenti di intelligenza artificiale generativa, “trasformeranno” il software aziendale.
“La profondità dell’impegno e della domanda per la nostra nuova piattaforma di intelligenza artificiale è senza precedenti”, scrive. La prima versione di AIP sarà resa disponibile a clienti selezionati questo mese, afferma Palantir (ticker: PLTR).
Palantir, che fornisce software di analisi sia ai clienti commerciali che governativi, ha registrato un fatturato del primo trimestre di 525 milioni di dollari, in aumento del 18% rispetto a un anno fa, superando sia la previsione dell’azienda da 503 a $507 milioni di dollari, sia il consenso di Wall Street di 650 milioni di dollari. Su base rettificata, la società ha guadagnato 5 centesimi per azione, un centesimo meglio delle stime di Wall Street.
La società aveva 17 milioni di dollari di reddito netto GAAP, o un centesimo per azione, il secondo trimestre consecutivo che Palantir è stato redditizio GAAP. L’utile rettificato da operazioni di 125 milioni di dollari era superiore all’intervallo di previsione della società da 91 a 95 milioni di dollari. Il flusso di cassa libero rettificato è stato di 189 milioni di dollari, un record trimestrale per Palantir.
Le entrate commerciali nel trimestre sono state di 236 milioni di dollari, in aumento del 15% rispetto all’anno precedente, e prima della previsione di consenso di Wall Street di 217 milioni di dollari come monitorato da FactSet. Il CFO David Glazer ha detto in un’intervista che le entrate commerciali degli Stati Uniti sono salite del 39% in sequenza rispetto al trimestre di dicembre, superando per la prima volta il livello di 100 milioni di dollari.
Le entrate da commesse governative sono state di 289 milioni di dollari, in aumento del 20%, in linea con le stime di Wall Street, inclusi 230 milioni di dollari di entrate del governo degli Stati Uniti, in aumento del 22%. Glazer ha detto che i risultati riflettono anche “la disciplina dal lato delle spese”.
La società ha affermato che il numero di clienti è aumentato del 41% rispetto a un anno fa e del 7% in sequenza.
Per il secondo trimestre, Palantir vede entrate da 528 milioni di dollari a 532 milioni di dollari, leggermente al di sotto della previsione di consenso di 537 milioni di dollari, con un reddito rettificato da operazioni da 118 milioni di dollari a 122 milioni di dollari. La società prevede di essere di nuovo redditizia GAAP nel trimestre di giugno e di rimanere redditizia su tale base nel terzo e quarto trimestre.
Palantir ora si aspetta un fatturato per l’intero anno da 2,185 miliardi di dollari a 2,235 miliardi di dollari, un leggero aumento rispetto alle precedenti previsioni dell’azienda da 2,18 miliardi di dollari a 2,23 miliardi di dollari. La società ora vede un reddito rettificato per l’intero anno da operazioni da 506 milioni di dollari a 556 milioni di dollari, rispetto a un precedente intervallo di 481 milioni di dollari a 531 milioni di dollari.
Nella sua lettera, Karp ha affrontato alcune delle attuali preoccupazioni per la sicurezza e la privacy relative all’intelligenza artificiale generativa e ai grandi modelli linguistici. “Abbiamo intenzionalmente progettato il nostro software attorno al coinvolgimento e alla supervisione degli operatori umani prima che l’azione nel mondo reale, inclusa, ad esempio, le operazioni di targeting nel contesto militare, possa essere intrapresa”, scrive. “La macchina deve rimanere subordinata al suo creatore”.
Parlando con Barron, Karp ha affermato che la piattaforma di Palantir sarà agnostica rispetto a quale grande modello linguistico i clienti vogliono utilizzare e che il software dell’azienda aiuterà sia i clienti commerciali che governativi a sbloccare il valore dei loro dati, “sia cambiare la catena di approvvigionamento che togliendo la vita a qualcuno”, un riferimento alla notevole attività dell’azienda con le agenzie
Karp, che stava facendo mosse Tai Chi durante un’intervista via videoconferenza dalla sede centrale dell’azienda a Denver, ha detto che l’IA è “un’unica generazionalmente”, ma che “nessuno sa dove andrà a finire e quando diventa pericoloso”.
Afferma anche che “pochissime persone hanno un prodotto utile in questo settore” e che c’è un “sottoinsieme di persone che vogliono rallentarlo”. Non è uno di loro.
Le azioni Palantir sono aumentate del 14% nel dopo mercato poco dopo l’annuncio dei guadagni. Erano in aumento di circa il 4% nella sessione regolare di lunedì. Il titolo è aumentato del 20% finora quest’anno.
25/02/23 Forbes: Aziende di Intelligenza Artificiale in cui potresti voler investire ora
Q.ai – Potenziare un movimento di ricchezza personale

Punti chiave da valutare
- Aziende come Microsoft e Alphabet sono già pesantemente investite nell’IA e sono ben posizionate per crescere in tandem con la nuova tecnologia
- I produttori di microchip e i servizi di sicurezza informatica saranno più ricercati con l’ascesa dell’IA, quindi investire in queste aziende presto potrebbe essere una scelta intelligente
- La tecnologia si sta evolvendo a un ritmo vertiginoso e le aziende con scarso coinvolgimento nell’IA, nelle tecnologie blockchain o nel metaverso potrebbero diventare irrilevanti nel tempo
Se hai seguito le notizie negli ultimi mesi, probabilmente hai sentito parlare di almeno una società di intelligenza artificiale. Il rilascio di ChatGPT da parte di OpenAI e la sua incorporazione in corso in Bing hanno dominato i titoli. Anche se in qualche modo hai evitato quella notizia, le offerte di intelligenza artificiale sono ovunque.
Esamineremo alcune società di intelligenza artificiale ben posizionate per ingrandire i guadagni nei prossimi anni. Se sei un investitore esperto, probabilmente avrai sentito parlare della maggior parte di queste azioni, ma abbiamo anche incluso alcune opzioni meno conosciute.
Inoltre, se vuoi rendere l’investimento in questo campo ancora più semplice utilizzando effettivamente l’IA per costruire un portafoglio, puoi scaricare Q.ai oggi per togliere le congetture dagli investimenti.
Azioni AI e potenziale di crescita
È importante ricordare che investire comporta sempre potenziali rischi e il livello di rischio aumenta quando si investe in un’azienda coinvolta nelle nuove tecnologie. Solo perché un’azienda usa l’IA non significa che sia un buon investimento.
Le aziende più consolidate con fonti alternative di reddito saranno investimenti meno rischiosi. Di conseguenza, se il tuo obiettivo è quello di entrare al piano terra e investire in una nuova azienda con un alto potenziale di crescita, assicurati di comprendere i rischi di ciò che stai facendo.
Microsoft Corp (MSFT)
Questo è un gioco da ragazzi da quando Microsoft ha recentemente confermato il suo investimento di 10 miliardi di dollari in OpenAI, la società dietro ChatGPT. L’accordo dovrebbe essere redditizio per Microsoft, in quanto otterrà una quota del 75% dei profitti di OpenAI fino a quando la società di intelligenza artificiale non potrà ripagare l’investimento di Microsoft. A quel punto, Microsoft assumerà una partecipazione del 49% nell’azienda.
Microsoft sta progettando di rilasciare una nuova versione di Bing che utilizzerà il chatbot di OpenAI per rispondere alle domande scritte dagli utenti. Il prodotto potrebbe rendere Microsoft un rivale più legittimo di Google nello spazio dei motori di ricerca.
Oltre a ciò, la partnership di Microsoft con OpenAI le ha permesso di integrare generatori d’arte come DALL•E 2 e traduttori language-to-code come Codex in prodotti preesistenti.
Alcuni analisti prevedono che il titolo, che ha chiuso il 23 febbraio 2023, a 254,77 dollari, salterà oltre i 300 dollari entro i prossimi 12 mesi.
Nvidia Corporation (NVDA)
Nvidia produce microchip ad alte prestazioni in grado di eseguire applicazioni AI avanzate. Attualmente c’è molta domanda per questo servizio poiché Nvidia ha collaborato con aziende come Meta e Oracle per integrare l’IA nelle loro attività.
Lo scorso settembre, il governo degli Stati Uniti ha ordinato a Nvidia di smettere di esportare due dei suoi principali chip informatici, l’A100 e l’H100, in Cina. Mentre il divieto ha danneggiato il business di Nvidia, ha significato l’alta qualità del suo prodotto e quanto saranno essenziali questi microchip per il futuro dell’IA.
Taiwan Semiconductor Mfg. Co. (TSM)
Un’azienda con un focus simile a Nvidia è TSMC, che fa la maggior parte del lavoro di produzione per le principali aziende di semiconduttori fabless come Apple, Qualcomm e Nvidia. Nonostante sia il leader mondiale in questo settore al momento, il titolo ha recentemente fatto notizia dopo che Berkshire Hathaway ha ridotto significativamente la sua partecipazione in TSMC.
Le ragioni del disinvestimento non sono del tutto note, ma gli esperti sospettano che sia perché il business dei semiconduttori è ad alta intensità di capitale e i profitti sono raramente garantiti. Anche se questo potrebbe dissuadere alcuni investitori dall’acquistare azioni TSM, gli analisti rimangono ottimisti, con alcuni che suggeriscono che TSM potrebbe aumentare il prezzo di oltre il 500% nei prossimi 12 mesi.
Alphabet Inc (GOOGL)
Alphabet utilizza già l’intelligenza artificiale nella maggior parte dei suoi aspetti della sua attività, dagli annunci mirati su YouTube ai filtri antispam su Gmail. La società britannica di intelligenza artificiale DeepMind è stata acquisita da Alphabet (allora Google) nel 2014. Sebbene DeepMind non sia diventato redditizio per l’azienda fino a ottobre 2021, la dedizione di Alphabet alla tecnologia AI l’ha messa in una buona posizione.
Secondo quanto riferito, Alphabet ha emesso un “codice rosso” dopo l’annuncio dell’investimento di Microsoft in ChatGPT. Google ha recentemente lanciato una versione pilota del proprio chatbot AI, Bard. Anche se il lancio di Bard è andato storto, Alphabet ha ancora un potenziale eccellente.
Tra un nuovo chatbot e i servizi di intelligenza artificiale di Google Cloud, si spera che l’azienda sia in grado di far bene la previsione degli analisti di un aumento dei prezzi del 37% il prossimo anno.
Amazon (AMZN)
La maggior parte degli americani conosce Alexa, il popolare assistente virtuale di Amazon, ma potrebbero non conoscere le molte altre offerte di intelligenza artificiale di Amazon. Amazon Web Services fornisce ai clienti vari strumenti di intelligenza artificiale, tra cui l’analisi delle immagini, la capacità di identificare i componenti dei prodotti mancanti, l’identificazione dei colli di bottiglia delle operazioni e altro ancora.
Lo scorso novembre, Amazon ha introdotto Sparrow, un braccio robotico intelligente che aiuta a semplificare il processo di adempimento di Amazon spostando i singoli prodotti prima che vengano confezionati. Amazon non è rimasta indietro nell’integrazione dell’IA nella sua attività, quindi prevediamo che l’azienda vedrà una crescita negli anni futuri.
Anche le azioni Amazon sono sottovalutate per il momento, principalmente a causa di un deludente rapporto sugli utili del quarto trimestre, quindi acquistare ora potrebbe essere una scelta intelligente per i nuovi investitori. Gli analisti si aspettano che le azioni Amazon crescano di circa il 40% nel prossimo anno.
Palantir Technologies (PLTR)
Palantir è una società di software di analisi dei dati che inizialmente ha lavorato con i servizi di intelligence degli Stati Uniti. Da allora la loro lista di clienti si è ampliata per includere i governi statali e locali e le aziende private. Palantir ha vinto un contratto da 85,1 milioni di dollari con . l’esercito degli Stati Uniti lo scorso ottobre e le loro collaborazioni con il settore della difesa probabilmente continueranno.
Le azioni di Palantir sono scese di recente dopo l’aumento dei rendimenti obbligazionari a lungo termine e le forze macroeconomiche hanno danneggiato in modo significativo l’azienda nell’ultimo anno. Gli analisti sono confusi sulle previsioni per Palantir mentre l’azienda spera di raggiungere un anno intero di redditività GAAP.
Tuttavia, resta il fatto che le capacità di data mining e storage saranno essenziali sia per i governi che per le aziende private nei prossimi anni.
Cloudflare Inc (NET)
Questa società globale di rete e sicurezza informatica offre ai clienti una maggiore privacy e prestazioni del sito web. Cloudflare utilizza l’apprendimento automatico per il rilevamento dei bot, l’identificazione delle anomalie e l’assistenza clienti.
Cloudflare potrebbe essere un buon acquisto per gli investitori che credono che i loro servizi continueranno a crescere nei prossimi anni. Cloudflare è stata in grado di ridurre le perdite man mano che è cresciuta negli ultimi anni e ha visto un aumento del 42% delle entrate per il quarto trimestre del 2022. Questo arriva tra i titoli di una partnership con Nvidia e la leadership che prevede 5 miliardi di dollari di entrate annuali entro la fine del 2027.
Altre aziende di intelligenza artificiale che potrebbero interessarti
- Intuitive Surgical, Inc (ISRG): Intuitive vende tecnologia di visualizzazione e assistenti robotici di intelligenza artificiale per interventi chirurgici minimamente invasivi.
- Adobe Inc (ADBE): Adobe ha annunciato nuove funzionalità di apprendimento automatico per il suo prodotto Experience Cloud l’anno scorso, parte delle quali miravano ad aiutare i team di marketing a ottimizzare le loro campagne.
- Micron Technology Inc (MU): simile a Nvidia, Micron è un produttore su larga scala di chip per computer ad alte prestazioni.
Se sei un investitore interessato al mondo della tecnologia ma non vuoi tenere traccia dei titoli, considera di scaricare Q.ai. Q.ai sfrutta il potere dell’IA per aiutarti a diversificare il tuo portafoglio proteggendo i tuoi guadagni. L’Emerging Tech Kit ti permetterà di investire in ETF tecnologici, società tecnologiche e criptovalute. NON DISPONIBILE PER I RESIDENTI IN ITALIA
La linea di fondo
L’intelligenza artificiale si sta diffondendo nella maggior parte delle sfaccettature della nostra vita. Le aziende all’avanguardia e l’integrazione della tecnologia AI nelle loro attività stanno cercando di ingrandire i loro guadagni.
Se vuoi sfruttare i potenziali guadagni che questo settore può avere, considera di investire in una delle società sopra elencate. Mentre comportano dei rischi, le proiezioni indicano che potrebbero essere buoni investimenti in futuro.