GILEAD
Cerca
Close this search box.

Nvidia, AMD è pronta a mandare in fumo la festa

Gilead

Dopo alcuni decenni in cui il software ha divorato il mondo, la parte ‘silicio’ della Silicon Valley è tornata. A quanto pare per dar vita alle meraviglie dell’intelligenza artificiale generativa c’è bisogno di hardware: e il produttore di chip Nvidia ha colto l’attimo con i suoi potenti processori grafici per diventare campione assoluto sul mercato.

La domanda per i processori compatibili con l’AI di Nvidia è così forte che a maggio gli investitori hanno assegnato alla società una valutazione superiore a 1.000 mld: più o meno il Pil dell’Arabia Saudita nel 2022. In un’economia basata sull’AI, i chip hanno certamente il potenziale per diventare vitali quanto il petrolio. In un settore in rapida evoluzione come quello tecnologico però, anche un leader di mercato non può sedersi e fare affidamento su riserve comprovate per prolungare il proprio primato.

Per Jensen Huang, Ceo di Nvidia, la minaccia più seria proviene da AMD. Guidata da Lisa Su (nella foto in evidenza), AMD punta a conquistare una fetta considerevole del mercato dei chip AI e con l’avanzare della rivoluzione dell’AI, addirittura a sostituire Nvidia come leader del settore. “Penso che questa sia un’opportunità per noi di scrivere il prossimo capitolo della storia della crescita di AMD”, ha detto Su a Fortune in un’intervista. “Ci sono così poche aziende al mondo che hanno accesso alla proprietà intellettuale e alla clientela di cui disponiamo, oltre all’opportunità di modellare davvero il modo in cui l’AI viene adottata in tutto il mondo”.

Su ha buone ragioni per parlare delle possibilità di AMD in un mercato di chip AI che prevede varrà 150 mld di dollari entro il 2027. La sua azienda potrebbe essere meglio conosciuta come il ‘secondo violino’ di Intel nel mercato dei microprocessori per PC e server, ma grazie all’acquisizione nel 2006 di ATI, un produttore di chip canadese focalizzato sugli acceleratori di videogiochi, ora è il numero due nel settore delle GPU, un tipo di chip adatto all’addestramento di modelli di AI come GPT-4 di OpenAI e Bard di Google.

Nvidia, che secondo alcune stime detiene oltre il 90% del mercato dell’addestramento AI, fatica a soddisfare la domanda per il suo chip AI più potente: l’H100. Mentre Su sta preparando un assalto diretto a Nvidia con l’imminente rilascio del rivale MI300.

“Ci saranno sicuramente scenari nel 2024 in cui immaginiamo che le GPU Nvidia saranno esaurite e che i clienti avranno accesso solo ad AMD”, afferma Brian Colello, direttore del settore tecnologico di Morningstar.

“La domanda per la valutazione di Nvidia è duplice: quanto è grande e quanto sarà dominante in questo mercato?” dice Colello. Una cosa è se Nvidia può comandare il 95% del mercato dell’AI, relegando AMD a un lontano secondo posto. Ma se si tratta di una divisione 70/30, dice, “sarebbe molto positivo per AMD”.

Per quanto riguarda l’esito di questa divisione, tutto si riduce a battaglie su prestazioni, flessibilità e, in questo periodo di incertezza della catena di approvvigionamento, disponibilità. Aree in cui Su è particolarmente messa alla prova.

Parenti lontani, concorrenti stretti

Mentre Huang gestisce l’azienda da lui fondata, Su guida da 10 anni una società che ha contribuito a salvare, secondo gli osservatori.

Immigrata da Taiwan all’età di 3 anni, lei e Huang provengono entrambi dalla città di Tainan e sono parenti lontani. Su divenne ingegnere elettrico presso IBM, dove era a capo dell’emergente divisione prodotti. Dopo un periodo come Chief technology officer di Freescale Semiconductor, è entrata in AMD come vicepresidente senior nel 2012, prima di diventare presidente e Ceo due anni dopo. Sebbene la strategia iniziale di Su per salvare AMD prevedesse la diversificazione delle sue linee di prodotti oltre il mercato dei PC in aree come i giochi e l’informatica ad alte prestazioni, la rivalità dell’azienda con Intel richiedeva ancora molta attenzione. Gli analisti dicono che questo abbia dato a Nvidia un vantaggio.

Nvidia ha trascorso gli ultimi dieci anni a investire per elaborare le GPU attraverso un’interfaccia chiamata CUDA. Ma la rivalità di AMD con Intel nei processori (CPU) significava che “Nvidia non ha investito altrettanto profondamente nel software basato sull’AI per le GPU dei suoi data center”, ha affermato l’analista di Gartner Alan Priestley.

“Le mura del castello di Nvidia rappresentano il suo ecosistema software”, ha affermato Priestley. Rispetto a CUDA, lo stack di programmazione ROCm di AMD ha la reputazione di essere più pesante e pieno di bug.

Gregory Diamos, cofondatore della startup AI Lamini ed ex architetto CUDA presso Nvidia, ritiene che AMD stia colmando il divario. “AMD ha impiegato centinaia di ingegneri dietro la sua iniziativa di AI generica”, afferma.

Ma anche Su riconosce che c’è del lavoro da fare. “Sarò la prima a dire che il nostro hardware è eccellente e che il nostro software continua a migliorare nel tempo”, afferma. “Spostare su AMD alcune applicazioni AI scritte in passato richiede un po’ di lavoro”. Tuttavia, ha continuato, ROCm è “ottimizzata al massimo per i carichi di lavoro AI più recenti”.

La prossima fase dell’intelligenza artificiale

La grande opportunità di AMD potrebbe arrivare con la naturale evoluzione dell’AI. Le aziende di AI adorano le GPU per la loro capacità di eseguire molte attività contemporaneamente. La potenza di calcolo necessaria per il rendering di immagini grafiche ricche e in rapido movimento nei videogiochi può essere facilmente utilizzata per addestrare modelli linguistici di grandi dimensioni come GPT-4 di OpenAI su grandi quantità di dati grezzi in un periodo di tempo relativamente rapido.

Molti analisti ritengono che la maggior parte del mercato dell’AI non risieda nella formazione degli LLM, ma nella loro implementazione: nella creazione di sistemi per rispondere ai miliardi di domande previste man mano che l’AI diventa parte dell’esistenza quotidiana. Questa è nota come ‘inferenza’ (perché coinvolge il modello di intelligenza artificiale che utilizza il suo addestramento per dedurre cose sui nuovi dati presentati) e se le GPU rimangono i chip di riferimento per l’inferenza è una questione aperta.

Come i cosiddetti hyperscaler (ad esempio Meta e Google) stanno già dimostrando con i loro sforzi per sviluppare chip AI interni come i TPU, i grandi player alla fine vorranno un silicio specializzato per fornire in modo efficiente servizi AI. Molti vedono anche un ruolo importante per le CPU nel mercato dell’inferenza, un cambiamento che gioverebbe ai tradizionali punti di forza di AMD.

Il prossimo chip per data center della serie MI300 combina una CPU con una GPU. “In realtà pensiamo che saremo leader del settore per le soluzioni di inferenza, grazie ad alcune delle scelte che abbiamo fatto nella nostra architettura”, afferma Su.

Colello di Morningstar concorda sul fatto che il mercato si sta evolvendo e non esclude gli sforzi di Intel, nemesi di AMD, per sfidare Nvidia con i suoi nuovi processori AI, Gaudi2 (per la formazione) e Greco (per l’inferenza).

Nvidia, da parte sua, afferma di essere “intensamente focalizzata” sull’inferenza. Le prestazioni di inferenza della GPU dell’azienda sono aumentate di otto volte nell’ultimo anno e Nvidia sta “continuando a investire in questo”, ha detto un portavoce a Fortune.

L’azienda inoltre è consapevole di non poter essere per sempre l’unico giocatore in campo e che è naturale che i clienti preferiscano poter scegliere tra più fornitori. “Un ecosistema competitivo è positivo per lo spazio dell’AI poiché accelera lo stato dell’arte in modo più rapido ed efficiente, e certamente incoraggiamo e accogliamo con favore la concorrenza”, ha continuato il portavoce.

Su non si rivolge solo ai data center che forniscono funzionalità di AI attraverso il cloud: l’intelligenza artificiale dovrà anche essere eseguita direttamente sui dispositivi personali delle persone e su altri gadget connessi a Internet. “Il successo”, ha detto a Fortune, “è che riusciamo davvero a catturare una parte significativa dell’utilizzo del calcolo dell’intelligenza artificiale”.

Naturalmente, anche Nvidia sta prendendo di mira ognuno di questi segmenti e ora sta persino cercando di entrare nel business delle CPU ad alte prestazioni con un nuovo superchip chiamato Grace, che sta abbinando alla GPU H100. “Nvidia vuole conquistare il mercato dell’inferenza”, ha detto Colello. Ma anche se Nvidia rimanesse al top, Colello vede il secondo posto di AMD come “invidiabile e in grado di rappresentare un grande business”.

Su è fermamente convinta che la sua azienda trarrà il massimo dall’esplosione dell’AI. “È diventato evidente, sicuramente con l’adozione dell’AI generativa nell’ultimo anno, che questo settore ha lo spazio per crescere a un ritmo incredibilmente veloce”, ha dichiarato. “Stiamo osservando un tasso di crescita annuo composto del 50% per i prossimi cinque anni e oltre, e sono pochi i mercati che lo fanno a queste dimensioni quando si parla di settori da decine di miliardi di dollari”.

La versione originale di questo articolo è disponibile su Fortune e su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.