H100: cos'è e perché è importante il chip Nvidia dell'IA generativa - Borsa&Finanza
Cerca
Close this search box.

H100: cos’è e perché è importante il chip Nvidia dell’IA generativa

H100: cos'è e perché è importante il chip Nvidia dell'IA generativa

Da quando l’intelligenza artificiale (IA) si è fatta largo prepotentemente nelle attività aziendali, Nvidia ha attirato tutta l’attenzione verso di sé grazie al suo chip H100. La sua ultima unità di elaborazione grafica le ha permesso di triplicare quest’anno il suo valore di Borsa e di raggiungere per la prima volta nella sua storia una capitalizzazione di 1.000 miliardi di dollari. Tutto è partito dalla trimestrale rilasciata dall’azienda il 24 maggio 2023, in occasione della quale il management ha lanciato una guidance da stropicciarsi gli occhi. Ciò che è contenuto nelle previsioni strabordanti di Nvidia in merito ai ricavi futuri ha a che vedere con l’intelligenza artificiale e proprio con l’H100. Vediamo quindi di capirne di più, illustrando in cosa consiste realmente questo chip, qual è il suo legame con l’IA e perché è così importante.

 

H100: definizione, caratteristiche e origine

Il chip H100 consiste in un processore grafico che di norma è posizionato all’interno di un computer e permette di elaborare dati a velocità siderale grazie ai suoi 80 miliardi di transistor. Secondo quanto riportato da Nvidia, l’H100 risulta avere una velocità quadrupla rispetto al predecessore A100 nell’addestramento dei modelli di linguaggio di grandi dimensioni o LLM. Inoltre, è 30 volte più veloce nella risposta alle istruzioni fornite da un utente.

Gli investimenti di Nvidia in questa tecnologia risalgono a quasi vent’anni fa, con l’azienda che ha puntato su semiconduttori sempre più preziosi. Gli ingegneri di Nvidia nei primi anni 2000 hanno realizzato che le GPU potevano essere riorganizzate per diventare i cosiddetti acceleratori per diverse applicazioni. Poco tempo più tardi, i ricercatori di intelligenza artificiale hanno scoperto che il loro lavoro poteva finalmente essere reso pratico utilizzando questo tipo di chip.

 

H100 e intelligenza artificiale

L’intelligenza artificiale generativa che sta spopolando in questo periodo si basa su attività come la traduzione di testi, il sunto di un report e la scrittura di codici informatici sulla base di una certa quantità di materiale esistente. Tutto questo comporta che con l’esperienza, l’IA è in grado di riconoscere e sostituirsi sempre più al linguaggio umano. Per fare ciò ha bisogno di una quantità di potenza di calcolo enorme nei processi elaborativi. A questo punto, entra in gioco H100, il potente e innovativo chip che permette l’elaborazione di una grande quantità di dati in tempo record. L’elaborazione avviene attraverso miliardi di tentativi ed errori che portano a un miglioramento costante e che necessitano di una abnorme potenza di calcolo.

I chip prodotti dalla concorrenza non riescono a tenere il confronto con H100. Ad esempio, i processori Xeon di Intel sono in grado di elaborare dati più complessi, ma hanno molta più lentezza nel lavorare quantità elevatissime di informazioni necessarie per addestrare i software di intelligenza artificiale. Lo stesso dicasi per il chip di AMD chiamato MI300X, che possiede grande memoria per gestire i carichi di lavoro per l’intelligenza artificiale generativa, ma che non è in grado di elaborare dati con la stessa velocità dell’H100.

Il vantaggio di Nvidia non sta solamente nelle prestazioni del suo hardware. L’azienda ha inventato qualcosa chiamato CUDA, che consiste in un linguaggio per i suoi chip grafici necessari per il tipo di lavoro che è alla base dei programmi di intelligenza artificiale.

 

Qual è il valore reale del chip H100 di Nvidia

Nvidia attualmente controlla all’incirca l’80% del mercato degli acceleratori nei data center dell’intelligenza artificiale che sono gestiti dalle unità cloud di Big Tech come Amazon, Google e Microsoft. Tali aziende hanno cercato di intensificare gli sforzi per costruire chip e prodotti concorrenti, ma senza grande successo fino al momento.

Questo significa che il valore di H100 attualmente è enorme. In termini numerici, la divisione data center di Nvidia ha avuto entrate per 15 miliardi di dollari nel 2022, segnando un incremento su base annua del 41%. La società ha previsto nell’ultima trimestrale vendite per 11 miliardi di dollari nel trimestre di luglio, polverizzando letteralmente le stime degli analisti di 7,2 miliardi di dollari. Le previsioni sensazionali che hanno stupito il mercato vanno ricondotte essenzialmente all’intelligenza artificiale.

AUTORE

Picture of Redazione

Redazione

Composta da professionisti dell’informazione finanziaria di lungo corso, la redazione di Borsa&Finanza segue in modo trasversale i contenuti offerti dal portale. Oltre a seguire le news e le novità più importanti del panorama finanziario italiano e internazionale, il team dedica ampio spazio a realizzare guide e approfondimenti educational utili a migliorare le conoscenze degli investitori sia sul fronte della finanza personale che su quello degli investimenti, spiegando strutture, funzionamento, pregi e difetti dei diversi strumenti finanziari presenti sul mercato.

ARTICOLI CORRELATI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *