NVIDIA är det första företaget i chipindustrins historia, vars kapitalisering översteg en biljon dollar. Vad är hemligheten bakom framgång?
Jag är säker på att många av er har hört talas om NVIDIA-företaget, och de flesta av er förknippar det med grafikprocessorer, eftersom nästan alla har hört frasen "NVIDIA GeForce".
NVIDIA skrev nyligen finansiell historia inom IT-branschen. Det är det första integrerade kretsföretaget vars marknadsvärde har överstigit en biljon dollar. Det är också det femte teknikrelaterade företaget i historien som uppnår en så stor framgång (efter börsvärde). Tidigare var det bara människor som kunde skryta med ett så högt betyg Apple, Microsoft, Alphabet (ägare av Google) och Amazon. Det är därför finansiärer ibland kallade det "Club of Four", som nu inkluderar NVIDIA.
När det gäller börsvärde ligger den dessutom långt efter AMD, Intel, Qualcomm och andra teknikföretag. Detta hade inte varit möjligt utan företagets visionära policy, som infördes för ett decennium sedan.
Läs också: Finns det en framtid för Elon Musks TruthGPT?
Otrolig efterfrågan på NVIDIA H100 Tensor Core
Vad är hemligheten med en sådan ökning av kapitalisering? Först och främst är detta börsens reaktion på framgången med NVIDIA H100 Tensor Core-chippet, som är mycket efterfrågat bland ledande leverantörer av molninfrastruktur och onlinetjänster. Dessa marker köps av Amazon, Meta och Microsoft (för deras egna behov och behoven hos deras partner - företaget OpenAI). De är särskilt energieffektiva i accelererande beräkningar som är typiska för generativ artificiell intelligens, som ChatGPT eller Dall-E. Detta är ett otroligt steg av en storleksordning för accelererad beräkning. Vi får oöverträffad prestanda, skalbarhet och säkerhet för alla arbetsbelastningar med NVIDIA H100 Tensor Core GPU.
Med NVIDIA NVLink-växling kan upp till 256 H100 GPU:er anslutas för att påskynda arbetsbelastningar i exa-skala. GPU:n innehåller också en speciell transformator Engine för att lösa språkmodeller med biljoner parametrar. H100:s kombinerade tekniska innovationer kan accelerera stora språkmodeller (LLM) med otroliga 30x jämfört med föregående generation, vilket ger branschledande konversations-AI. Utvecklarna anser att det är nästan idealiskt för maskininlärning.
H100 dök dock inte upp från ingenstans. Och, för att säga sanningen, det är inte särskilt revolutionerande. NVIDIA har som inget annat företag satsat enorma resurser på artificiell intelligens i många år. Som ett resultat kan ett företag som främst är förknippat med GeForce-grafikkortsmärket behandla konsumentmarknaden nästan som en hobby. Detta bygger verklig makt på marknaden för IT-jättar, eftersom NVIDIA redan kan prata med dem på lika villkor.
Också intressant: Vad är 6G-nätverk och varför behövs de?
Är artificiell intelligens framtiden?
Idag är nästan alla övertygade om detta, även skeptiska experter på detta område. Nu är det nästan ett axiom, en truism. Även om NViDIA visste om det för 20 år sedan. Överraskade jag dig?
Tekniskt sett inträffade NVIDIAs första nära kontakt med artificiell intelligens 1999, när GeForce 256-processorn dök upp på marknaden, kapabel att påskynda beräkningar av maskininlärning. NVIDIA började dock på allvar att investera i artificiell intelligens först 2006, när det introducerade CUDA-arkitekturen, som gjorde det möjligt att använda parallellbearbetningskapaciteten hos grafikprocessorer för utbildning och forskning.
Vad är CUDA? Det definieras bäst som en parallell beräkningsplattform och applikationsprogrammeringsgränssnitt (API) som tillåter programvara att använda grafikprocessorer för allmänna ändamål (GPGPU). Det här tillvägagångssättet kallas generell datoranvändning på GPU:er. Dessutom är CUDA ett mjukvarulager som ger direkt åtkomst till den virtuella instruktionsuppsättningen och parallella beräkningselement i grafikprocessorn. Den är designad för att fungera med programmeringsspråk som C, C++ och Fortran.
Det är denna tillgänglighet som gör det lättare för parallellutvecklare att använda GPU-resurser, till skillnad från tidigare API:er som Direct3D och OpenGL, vilket krävde avancerade kunskaper i grafikprogrammering.
Ett viktigt genombrott var NVIDIAs tillhandahållande av datorkraft för det banbrytande neurala nätverket AlexNet. Det är ett konvolutionellt neuralt nätverk (CNN), utvecklat av ukrainaren Alex Kryzhevsky i samarbete med Ilya Sutzkever och Jeffrey Ginton.
Convolutional Neural Networks (CNN) har alltid varit den bästa modellen för objektigenkänning – de är kraftfulla modeller som är lätta att kontrollera och ännu lättare att träna. De upplever inte övermontering i någon alarmerande utsträckning när de används på miljontals bilder. Deras prestanda är nästan identisk med standardfeed-forward neurala nätverk av samma storlek. Problemet är bara att de är svåra att applicera på högupplösta bilder. Omfattningen av ImageNet krävde innovationer som skulle vara optimerade för GPU:er och minska träningstiden samtidigt som prestandan förbättrades.
Den 30 september 2012 deltog AlexNet i ImageNet Large Scale Visual Recognition Challengeenge. Nätverket uppnådde en poäng på 15,3 % i de fem bästa feltestet, över 10,8 % lägre än andraplatsen.
Huvudslutsatsen från det ursprungliga arbetet var att modellens komplexitet berodde på dess höga prestanda, som också var mycket beräkningsmässigt dyr, men möjliggjordes genom användningen av grafikprocessorer (GPU) under utbildningsprocessen.
AlexNets konvolutionella neurala nätverk består av åtta lager; de första fem är faltningsskikt, av vilka några föregås av maximalt kopplade skikt, och de sista tre är helt anslutna skikt. Nätverket, förutom det sista lagret, är uppdelat i två kopior, som var och en körs på en enda GPU.
Det vill säga, tack vare NVIDIA tror de flesta experter och forskare fortfarande att AlexNet är en otroligt kraftfull modell som kan uppnå hög noggrannhet på mycket komplexa datamängder. AlexNet är den ledande arkitekturen för alla objektdetekteringsuppgifter och kan ha mycket breda tillämpningar inom datorseendesektorn för problem med artificiell intelligens. I framtiden kan AlexNet komma att användas mer än CNN inom bildbehandlingsområdet.
Också intressant: Bluesky-fenomenet: vilken typ av tjänst och är det länge?
Artificiell intelligens finns inte bara i laboratorier och datacenter
NVIDIA såg stora framtidsutsikter för AI även inom konsumentenhetsteknologier och Internet of Things. Medan konkurrenter precis har börjat överväga mer omfattande investeringar i en ny typ av integrerade kretsar, arbetar NVIDIA redan med deras miniatyrisering. Tegra K1-chippet, utvecklat i samarbete med Tesla och andra bilföretag, är förmodligen extra viktigt.
Tegra K1-processorn är en av NVIDIAs första processorer designade specifikt för AI-applikationer i mobila och inbyggda enheter. Tegra K1 använder samma GPU-arkitektur som NVIDIA GeForce, Quadro och Tesla-serien av grafikkort och system, vilket ger hög prestanda och kompatibilitet med grafik och datorstandarder som Op.enGL 4.4, DirectX 11.2, CUDA 6.5 och OpenCL 1.2. Tack vare detta kan Tegra K1-processorn stödja avancerade artificiell intelligensalgoritmer som djupa neurala nätverk, förstärkningsinlärning, bild- och taligenkänning och dataanalys. Tegra K1 har 192 CUDA-kärnor.
Under 2016 släppte NVIDIA en serie Pascal-processorer optimerade för att stödja djupa neurala nätverk och andra artificiella intelligensmodeller. Inom ett år dök en serie Volta-processorer upp på marknaden för applikationer relaterade till artificiell intelligens, som är ännu mer effektiva och energibesparande. 2019 förvärvar NVIDIA Mellanox Technologies, en tillverkare av högpresterande datornätverk för datacenter och superdatorer.
Som ett resultat använder de alla NVIDIA-processorer. På konsumentmarknaden, till exempel, använder spelare den revolutionerande DLSS-bildrekonstruktionsalgoritmen, som gör att de kan njuta av skarpare grafik i spel utan att spendera mycket pengar på ett grafikkort. På företagsmarknaden är det känt att NVIDIA-chips på många sätt är bortom vad konkurrenterna erbjuder. Även om det inte är så att Intel och AMD helt sov igenom den intellektuella revolutionen.
Också intressant: De bästa verktygen baserade på artificiell intelligens
Intel och AMD inom området artificiell intelligens
Låt oss prata om NVIDIAs direkta konkurrenter inom detta marknadssegment. Intel och AMD arbetar här mer och mer aktivt, men med en lång fördröjning.
Intel har förvärvat flera AI-företag som Nervana Systems, Movidius, Mobileye och Habana Labs för att stärka sin portfölj av AI-teknologier och lösningar. Intel erbjuder även hård- och mjukvaruplattformar för artificiell intelligens, såsom Xeon-processorer, FPGA, NNP-chips och optimeringsbibliotek. Intel arbetar också med partner inom den offentliga och privata sektorn för att främja AI-innovation och utbildning.
AMD har utvecklat en serie Epyc-processorer och Radeon Instinct-grafikkort som är optimerade för AI- och djupinlärningsapplikationer. AMD har också samarbetat med företag som Google, Microsoft, IBM och Amazon för att tillhandahålla molnbaserade AI-lösningar. AMD strävar också efter att delta i AI-forskning och utveckling genom partnerskap med akademiska institutioner och branschorganisationer. Detta är allt mycket bra, även om NVIDIA redan ligger långt före dem, och dess framgång inom utveckling och stöd för AI-algoritmer är ojämförligt större.
Också intressant: Google I/O 2023 sammanfattning: Android 14, Pixel och massor av AI
NVIDIA har förknippats med videospel i decennier
Detta ska inte heller glömmas. NVIDIA ger ingen exakt uppdelning av sina intäkter mellan konsument- och företagsmarknader, men de kan uppskattas baserat på de rörelsesegment som företaget avslöjar i sina finansiella rapporter. NVIDIA särskiljer fyra verksamhetssegment: spel, professionell visualisering, datacenter och bilar.
Det kan antas att spelsegmentet främst är inriktat på konsumentmarknaden, eftersom det inkluderar försäljning av GeForce grafikkort och Tegra-chips för spelkonsoler. Segmentet för professionell visualisering är främst inriktat på företagsmarknaden, då det inkluderar försäljning av Quadro-grafikkort och RTX-chips för arbetsstationer och professionella applikationer. Datacentersegmentet är också främst inriktat på företagsmarknaden, då det inkluderar försäljning av GPU:er och NPU:er (det vill säga nästa generations chips - inte längre GPU:er, utan designade exklusivt för AI) för servrar och molntjänster. Fordonssegmentet riktar sig till både konsument- och företagsmarknader, eftersom det inkluderar försäljning av Tegra- och Drive-systemen för infotainment och autonom körning.
Baserat på dessa antaganden är det möjligt att uppskatta andelen intäkter från konsument- och företagsmarknaderna av NVIDIAs totala intäkter. Enligt den senaste finansiella rapporten för 2022 var NVIDIAs intäkter per rörelsesegment som följer:
- Spel: 12,9 miljarder dollar
- Professionell visualisering: 1,3 miljarder dollar
- Datacenter: 9,7 miljarder dollar
- Bilar: 0,8 miljarder dollar
- Alla andra segment: 8,7 miljarder dollar
NVIDIA:s totala intäkter var 33,4 miljarder USD. Om man antar att fordonssegmentet är uppdelat ungefär lika mellan konsument- och företagsmarknaden kan följande proportioner beräknas:
- Inkomst från konsumentmarknaden: (12,9 + 0,4) / 33,4 = 0,4 (40 %)
- Inkomst från företagsmarknaden: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60 %)
Det betyder att cirka 40 % av NVIDIAs intäkter kommer från konsumentmarknaden och cirka 60 % från företagsmarknaden. Det vill säga, huvudriktningen är affärssegmentet. Men spelindustrin ger också ganska bra inkomster. Det viktigaste är att de växer varje år.
Också intressant: Diary of a Grumpy Old Geek: Bing vs Google
Vad kommer framtiden att ge oss?
Uppenbarligen har NVIDIA redan en plan för att delta i utvecklingen av artificiell intelligensalgoritmer. Och den är mycket bredare och mer lovande än någon av sina direkta konkurrenter.
Under bara den senaste månaden har NVIDIA tillkännagett många nya investeringar i artificiell intelligens. En av dem är GET3D-mekanismen, som kan generera komplexa tredimensionella modeller av olika objekt och karaktärer som exakt återspeglar verkligheten. GET3D kan generera cirka 20 objekt per sekund med ett enda grafikchip.
Ytterligare ett intressant projekt bör också nämnas. Israel-1 är en superdator för artificiell intelligensapplikationer som NVIDIA skapar i samarbete med det israeliska ministeriet för vetenskap och teknik och Mellanox. Maskinen förväntas ha mer än 7 petaflops datorkraft och använda mer än 1000 100 NVIDIA A1 Tensor Core GPU:er. Israel-XNUMX kommer att användas för forskning och utveckling inom områden som medicin, biologi, kemi, fysik och cybersäkerhet. Och det är redan mycket lovande kapitalinvesteringar med tanke på de långsiktiga utsikterna.
Dessutom finns det redan ett annat projekt - NVIDIA ACE. Det är en ny teknik som kommer att revolutionera spelindustrin genom att låta spelaren interagera med en icke-spelare karaktär (NPC) på ett naturligt och realistiskt sätt. Dessa karaktärer kommer att kunna föra en öppen dialog med spelaren, reagera på hans känslor och gester och till och med uttrycka sina egna känslor och tankar. NVIDIA ACE använder avancerade språkmodeller och bildgeneratorer baserade på artificiell intelligens.
NVIDIAs första biljoner dollar. Det ser ut att bli fler snart. Vi kommer säkert att följa företagets framgångar och berätta.
Läs också: