NVIDIA è la prima azienda nella storia dell'industria dei chip, la cui capitalizzazione ha superato i mille miliardi di dollari. Qual è il segreto del successo?
Sono sicuro che molti di voi hanno sentito parlare dell'azienda NVIDIA e la maggior parte di voi la associa ai processori grafici, perché quasi tutti hanno sentito la frase "NVIDIA GeForce".
NVIDIA ha recentemente fatto la storia finanziaria nel settore IT. È la prima azienda di circuiti integrati il cui valore di mercato ha superato i mille miliardi di dollari. È anche la quinta azienda legata alla tecnologia nella storia a raggiungere un successo così ampio (per capitalizzazione di mercato). In precedenza, solo le persone potevano vantare un punteggio così alto Apple, Microsoft, Alphabet (proprietaria di Google) e Amazon. Ecco perché i finanzieri a volte lo chiamavano "Club of Four", che ora include NVIDIA.
Inoltre, in termini di capitalizzazione di mercato, è molto indietro rispetto ad AMD, Intel, Qualcomm e altre società tecnologiche. Questo non sarebbe stato possibile senza la politica visionaria dell'azienda, introdotta dieci anni fa.
Leggi anche: C'è un futuro per TruthGPT di Elon Musk?
Incredibile richiesta di NVIDIA H100 Tensor Core
Qual è il segreto di un tale aumento di capitalizzazione? Prima di tutto, questa è la reazione della borsa al successo del chip NVIDIA H100 Tensor Core, molto richiesto tra i principali fornitori di infrastrutture cloud e servizi online. Questi chip vengono acquistati da Amazon, Meta e Microsoft (per le proprie esigenze e quelle del proprio partner, la società OpenAI). Sono particolarmente efficienti dal punto di vista energetico nell'accelerazione dei calcoli tipici dell'intelligenza artificiale generativa, come ChatGPT o Dall-E. Questo è un incredibile salto di un ordine di grandezza per il calcolo accelerato. Otteniamo prestazioni, scalabilità e sicurezza senza precedenti per qualsiasi carico di lavoro con la GPU NVIDIA H100 Tensor Core.
Con lo switching NVIDIA NVLink, è possibile collegare fino a 256 GPU H100 per accelerare i carichi di lavoro su scala exa. La GPU include anche uno speciale Transformer Engine per risolvere modelli linguistici con trilioni di parametri. Le innovazioni tecnologiche combinate dell'H100 possono accelerare i modelli LLM (Large Language Model) di ben 30 volte rispetto alla generazione precedente, offrendo un'IA conversazionale leader del settore. Gli sviluppatori lo considerano quasi ideale per l'apprendimento automatico.
Tuttavia, H100 non è apparso dal nulla. E, a dire il vero, non è particolarmente rivoluzionario. NVIDIA, come nessun'altra azienda, investe da molti anni enormi risorse nell'intelligenza artificiale. Di conseguenza, un'azienda principalmente associata al marchio di schede grafiche GeForce può trattare il mercato dei consumatori quasi come un hobby. Questo crea un vero potere nel mercato dei giganti dell'IT, perché NVIDIA può già parlare con loro su un piano di parità.
Interessante anche: Cosa sono le reti 6G e perché sono necessarie?
L'intelligenza artificiale è il futuro?
Oggi quasi tutti ne sono convinti, anche gli esperti scettici in questo campo. Ora è quasi un assioma, una verità lapalissiana. Sebbene NViDIA lo sapesse 20 anni fa. Ti ho sorpreso?
Tecnicamente, il primo contatto ravvicinato di NVIDIA con l'intelligenza artificiale è avvenuto nel 1999, quando è apparso sul mercato il processore GeForce 256, in grado di accelerare i calcoli di machine learning. Tuttavia, NVIDIA ha iniziato a investire seriamente nell'intelligenza artificiale solo nel 2006, quando ha introdotto l'architettura CUDA, che ha permesso di utilizzare le capacità di elaborazione parallela dei processori grafici per la formazione e la ricerca.
Cos'è CUDA? È meglio definita come una piattaforma di elaborazione parallela e un'interfaccia di programmazione dell'applicazione (API) che consente al software di utilizzare unità di elaborazione grafica per uso generico (GPGPU). Questo approccio è chiamato calcolo generico su GPU. Inoltre, CUDA è un livello software che fornisce accesso diretto al set di istruzioni virtuali e agli elementi di elaborazione parallela del processore grafico. È progettato per funzionare con linguaggi di programmazione come C, C++ e Fortran.
È questa accessibilità che rende più facile per gli sviluppatori paralleli utilizzare le risorse GPU, a differenza delle precedenti API come Direct3D e OpenGL, che richiedeva competenze avanzate di programmazione grafica.
Un importante passo avanti è stata la fornitura di potenza di calcolo da parte di NVIDIA per la pionieristica rete neurale AlexNet. Si tratta di una rete neurale convoluzionale (CNN), sviluppata dall'ucraino Alex Kryzhevskyi in collaborazione con Ilya Sutzkever e Jeffrey Ginton.
Le reti neurali convoluzionali (CNN) sono sempre state il modello di riferimento per il riconoscimento degli oggetti: sono modelli potenti facili da controllare e ancora più facili da addestrare. Non subiscono un overfitting in misura allarmante se utilizzati su milioni di immagini. Le loro prestazioni sono quasi identiche alle reti neurali feed-forward standard della stessa dimensione. L'unico problema è che sono difficili da applicare alle immagini ad alta risoluzione. La portata di ImageNet richiedeva innovazioni ottimizzate per le GPU e che riducessero i tempi di formazione migliorando al tempo stesso le prestazioni.
Il 30 settembre 2012, AlexNet ha partecipato alla ImageNet Large Scale Visual Recognition Challengeenge. La rete ha ottenuto un punteggio del 15,3% nel test dei primi cinque errori, oltre il 10,8% in meno rispetto al punteggio del secondo posto.
La conclusione principale del lavoro originale era che la complessità del modello era dovuta alle sue elevate prestazioni, anch'esse molto costose dal punto di vista computazionale, ma rese possibili dall'uso di unità di elaborazione grafica (GPU) durante il processo di addestramento.
La stessa rete neurale convoluzionale AlexNet è composta da otto livelli; i primi cinque sono strati convoluzionali, alcuni dei quali sono preceduti da strati massimamente accoppiati, e gli ultimi tre sono strati completamente connessi. La rete, ad eccezione dell'ultimo livello, è divisa in due copie, ciascuna in esecuzione su una singola GPU.
Cioè, grazie a NVIDIA, la maggior parte degli esperti e degli scienziati crede ancora che AlexNet sia un modello incredibilmente potente in grado di raggiungere un'elevata precisione su set di dati molto complessi. AlexNet è l'architettura leader per qualsiasi attività di rilevamento di oggetti e può avere applicazioni molto ampie nel settore della visione artificiale per problemi di intelligenza artificiale. In futuro, AlexNet potrebbe essere utilizzato più della CNN nel campo dell'imaging.
Interessante anche: Il fenomeno Bluesky: che tipo di servizio ed è da molto tempo?
L'intelligenza artificiale non è solo nei laboratori e nei data center
NVIDIA ha intravisto grandi prospettive per l'IA anche nelle tecnologie dei dispositivi consumer e nell'Internet of Things. Mentre i concorrenti stanno appena iniziando a prendere in considerazione investimenti più estesi in un nuovo tipo di circuiti integrati, NVIDIA sta già lavorando alla loro miniaturizzazione. Il chip Tegra K1, sviluppato in collaborazione con Tesla e altre case automobilistiche, è probabilmente particolarmente importante.
Il processore Tegra K1 è uno dei primi processori NVIDIA progettati specificamente per le applicazioni AI nei dispositivi mobili e integrati. Tegra K1 utilizza la stessa architettura GPU delle serie di schede grafiche e sistemi NVIDIA GeForce, Quadro e Tesla, che offre prestazioni elevate e compatibilità con standard grafici e di elaborazione come OpenGL 4.4, DirectX 11.2, CUDA 6.5 e OpenCL 1.2. Grazie a ciò, il processore Tegra K1 può supportare algoritmi avanzati di intelligenza artificiale come reti neurali profonde, apprendimento per rinforzo, riconoscimento di immagini e parlato e analisi dei dati. Tegra K1 ha 192 core CUDA.
Nel 2016, NVIDIA ha rilasciato una serie di processori Pascal ottimizzati per supportare reti neurali profonde e altri modelli di intelligenza artificiale. Nel giro di un anno sono comparsi sul mercato una serie di processori Volta per applicazioni legate all'intelligenza artificiale, ancora più efficienti ea risparmio energetico. Nel 2019, NVIDIA acquisisce Mellanox Technologies, un produttore di reti di computer ad alte prestazioni per data center e supercomputer.
Di conseguenza, utilizzano tutti processori NVIDIA. Nel mercato consumer, ad esempio, i giocatori utilizzano il rivoluzionario algoritmo di ricostruzione dell'immagine DLSS, che consente loro di godere di una grafica più nitida nei giochi senza spendere molti soldi per una scheda grafica. Nel mercato aziendale, è riconosciuto che i chip NVIDIA sono per molti versi al di là di ciò che offre la concorrenza. Anche se non è che Intel e AMD abbiano completamente dormito durante la rivoluzione intellettuale.
Interessante anche: I migliori strumenti basati sull'intelligenza artificiale
Intel e AMD nel campo dell'intelligenza artificiale
Parliamo dei concorrenti diretti di NVIDIA in questo segmento di mercato. Intel e AMD stanno lavorando qui sempre più attivamente, ma con un lungo ritardo.
Intel ha acquisito diverse società di intelligenza artificiale come Nervana Systems, Movidius, Mobileye e Habana Labs per rafforzare il proprio portafoglio di tecnologie e soluzioni di intelligenza artificiale. Intel offre anche piattaforme hardware e software per l'intelligenza artificiale, come processori Xeon, FPGA, chip NNP e librerie di ottimizzazione. Intel collabora anche con partner del settore pubblico e privato per promuovere l'innovazione e l'istruzione nell'IA.
AMD ha sviluppato una serie di processori Epyc e schede grafiche Radeon Instinct ottimizzate per applicazioni AI e deep learning. AMD ha anche collaborato con aziende come Google, Microsoft, IBM e Amazon per fornire soluzioni AI basate su cloud. AMD si impegna inoltre a partecipare alla ricerca e allo sviluppo dell'IA attraverso partnership con istituzioni accademiche e organizzazioni del settore. Va tutto molto bene, anche se NVIDIA è già molto più avanti di loro e il suo successo nel campo dello sviluppo e del supporto degli algoritmi AI è incomparabilmente maggiore.
Interessante anche: Riepilogo Google I/O 2023: Android 14, Pixel e tanta IA
NVIDIA è stata associata ai videogiochi per decenni
Anche questo non va dimenticato. NVIDIA non fornisce una ripartizione esatta dei suoi ricavi tra il mercato consumer e quello business, ma è possibile stimarli in base ai segmenti operativi che l'azienda rende noti nei suoi bilanci. NVIDIA distingue quattro segmenti operativi: giochi, visualizzazione professionale, data center e automobili.
Si può presumere che il segmento dei giochi sia principalmente focalizzato sul mercato consumer, poiché include la vendita di schede video GeForce e chip Tegra per console di gioco. Il segmento della visualizzazione professionale è focalizzato principalmente sul mercato business, in quanto include la vendita di schede video Quadro e chip RTX per workstation e applicazioni professionali. Anche il segmento dei data center è focalizzato principalmente sul mercato business, in quanto include la vendita di GPU e NPU (ovvero chip di nuova generazione - non più GPU, ma progettati esclusivamente per l'IA) per server e servizi cloud. Il segmento automobilistico si rivolge sia al mercato consumer che a quello business, in quanto include le vendite di sistemi Tegra e Drive per l'infotainment e la guida autonoma.
Sulla base di questi presupposti, è possibile stimare la quota dei ricavi dei mercati consumer e business rispetto ai ricavi totali di NVIDIA. Secondo l'ultimo rapporto finanziario per il 2022, i ricavi di NVIDIA per segmenti operativi sono stati i seguenti:
- Giochi: $ 12,9 miliardi
- Visualizzazione professionale: $ 1,3 miliardi
- Data center: 9,7 miliardi di dollari
- Automobili: $ 0,8 miliardi
- Tutti gli altri segmenti: $ 8,7 miliardi
Il fatturato totale di NVIDIA è stato di 33,4 miliardi di dollari.Ipotizzando che il segmento automobilistico sia diviso all'incirca equamente tra il mercato consumer e quello business, si possono calcolare le seguenti proporzioni:
- Reddito dal mercato dei consumatori: (12,9 + 0,4) / 33,4 = 0,4 (40%)
- Reddito dal mercato delle imprese: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60%)
Ciò significa che circa il 40% delle entrate di NVIDIA proviene dal mercato consumer e circa il 60% dal mercato business. Cioè, la direzione principale è il segmento di attività. Ma l'industria dei giochi porta anche entrate abbastanza buone. La cosa più importante è che crescano ogni anno.
Interessante anche: Diario di un vecchio geek scontroso: Bing contro Google
Cosa ci porterà il futuro?
Ovviamente, NVIDIA ha già un piano per partecipare allo sviluppo di algoritmi di intelligenza artificiale. Ed è molto più ampio e promettente di qualsiasi suo diretto concorrente.
Nell'ultimo mese, NVIDIA ha annunciato numerosi nuovi investimenti nell'intelligenza artificiale. Uno di questi è il meccanismo GET3D, che è in grado di generare complessi modelli tridimensionali di vari oggetti e personaggi che riflettono accuratamente la realtà. GET3D può generare circa 20 oggetti al secondo utilizzando un singolo chip grafico.
Va anche menzionato un altro progetto interessante. Israel-1 è un supercomputer per applicazioni di intelligenza artificiale che NVIDIA sta creando in collaborazione con il Ministero della Scienza e della Tecnologia israeliano e Mellanox. La macchina dovrebbe avere più di 7 petaflop di potenza di calcolo e utilizzare più di 1000 GPU NVIDIA A100 Tensor Core. Israel-1 sarà utilizzato per la ricerca e lo sviluppo in campi come la medicina, la biologia, la chimica, la fisica e la sicurezza informatica. E questi sono già investimenti di capitale molto promettenti, viste le prospettive a lungo termine.
Inoltre, esiste già un altro progetto: NVIDIA ACE. Si tratta di una nuova tecnologia destinata a rivoluzionare l'industria dei giochi, consentendo al giocatore di interagire con un personaggio non giocante (NPC) in modo naturale e realistico. Questi personaggi potranno condurre un dialogo aperto con il giocatore, reagire alle sue emozioni e ai suoi gesti e persino esprimere i propri sentimenti e pensieri. NVIDIA ACE utilizza modelli linguistici avanzati e generatori di immagini basati sull'intelligenza artificiale.
I primi trilioni di dollari di NVIDIA. Sembra che presto ce ne saranno altri. Seguiremo sicuramente il successo dell'azienda e ve lo diremo.
Leggi anche: