NVIDIA er det første selskapet i brikkeindustriens historie, hvis kapitalisering oversteg en billion dollar. Hva er hemmeligheten bak suksess?
Jeg er sikker på at mange av dere har hørt om NVIDIA-selskapet, og de fleste av dere forbinder det med grafikkprosessorer, fordi nesten alle har hørt uttrykket "NVIDIA GeForce".
NVIDIA skrev nylig finanshistorie i IT-bransjen. Det er det første integrerte kretsselskapet hvis markedsverdi har oversteget en billion dollar. Det er også det femte teknologirelaterte selskapet i historien som oppnår en så stor suksess (etter markedsverdi). Tidligere var det bare folk som kunne skryte av en så høy vurdering Apple, Microsoft, Alphabet (eier av Google) og Amazon. Det er derfor finansfolk noen ganger kalte det "Club of Four", som nå inkluderer NVIDIA.
I tillegg, når det gjelder markedsverdi, er det langt bak AMD, Intel, Qualcomm og andre teknologiselskaper. Dette hadde ikke vært mulig uten den visjonære politikken til selskapet, introdusert for et tiår siden.
Les også: Er det en fremtid for Elon Musks TruthGPT?
Utrolig etterspørsel etter NVIDIA H100 Tensor Core
Hva er hemmeligheten bak en slik økning i kapitalisering? For det første er dette børsens reaksjon på suksessen til NVIDIA H100 Tensor Core-brikken, som er etterspurt blant ledende leverandører av skyinfrastruktur og nettjenester. Disse brikkene kjøpes av Amazon, Meta og Microsoft (for deres egne behov og behovene til partneren deres - selskapet OpenAI). De er spesielt energieffektive i akselererende beregninger som er typiske for generativ kunstig intelligens, som ChatGPT eller Dall-E. Dette er et utrolig sprang av en størrelsesorden for akselerert databehandling. Vi får enestående ytelse, skalerbarhet og sikkerhet for enhver arbeidsbelastning med NVIDIA H100 Tensor Core GPU.
Med NVIDIA NVLink-svitsjing kan opptil 256 H100 GPUer kobles til for å akselerere arbeidsbelastninger i exa-skala. GPUen inkluderer også en spesiell transformator Engine å løse språkmodeller med billioner av parametere. H100s kombinerte teknologiinnovasjoner kan akselerere store språkmodeller (LLM) med utrolige 30 ganger sammenlignet med forrige generasjon, og levere bransjeledende konversasjons-AI. Utviklerne anser det som nesten ideelt for maskinlæring.
H100 dukket imidlertid ikke opp fra ingensteds. Og, for å si sant, det er ikke spesielt revolusjonerende. NVIDIA har, som ingen andre selskaper, investert enorme ressurser i kunstig intelligens i mange år. Som et resultat kan et selskap som primært er knyttet til GeForce-grafikkkortmerket behandle forbrukermarkedet nesten som en hobby. Dette bygger reell kraft i markedet til IT-giganter, fordi NVIDIA allerede kan snakke med dem på lik linje.
Også interessant: Hva er 6G-nettverk og hvorfor trengs de?
Er kunstig intelligens fremtiden?
I dag er nesten alle overbevist om dette, selv skeptiske eksperter på dette feltet. Nå er det nesten et aksiom, en truisme. Selv om NViDIA visste om det for 20 år siden. Overrasket jeg deg?
Teknisk sett skjedde NVIDIAs første nærkontakt med kunstig intelligens i 1999, da GeForce 256-prosessoren dukket opp på markedet, i stand til å akselerere maskinlæringsberegninger. Imidlertid begynte NVIDIA seriøst å investere i kunstig intelligens først i 2006, da den introduserte CUDA-arkitekturen, som tillot å bruke parallellbehandlingsmulighetene til grafikkprosessorer for opplæring og forskning.
Hva er CUDA? Det er best definert som en parallell databehandlingsplattform og applikasjonsprogrammeringsgrensesnitt (API) som lar programvare bruke grafiske prosesseringsenheter for generelle formål (GPGPU). Denne tilnærmingen kalles generell databehandling på GPUer. I tillegg er CUDA et programvarelag som gir direkte tilgang til det virtuelle instruksjonssettet og parallelle databehandlingselementer til grafikkprosessoren. Den er designet for å fungere med programmeringsspråk som C, C++ og Fortran.
Det er denne tilgjengeligheten som gjør det enklere for parallellutviklere å bruke GPU-ressurser, i motsetning til tidligere APIer som Direct3D og OpenGL, som krevde avanserte ferdigheter i grafikkprogrammering.
Et viktig gjennombrudd var NVIDIAs levering av datakraft til det banebrytende nevrale nettverket AlexNet. Det er et konvolusjonelt nevralt nettverk (CNN), utviklet av ukraineren Alex Kryzhevsky i samarbeid med Ilya Sutzkever og Jeffrey Ginton.
Convolutional Neural Networks (CNN) har alltid vært den beste modellen for gjenkjenning av objekter – de er kraftige modeller som er enkle å kontrollere og enda enklere å trene. De opplever ikke overtilpasning i noen alarmerende grad når de brukes på millioner av bilder. Ytelsen deres er nesten identisk med standard feed-forward nevrale nettverk av samme størrelse. Det eneste problemet er at de er vanskelige å bruke på høyoppløselige bilder. Skalaen til ImageNet krevde innovasjoner som ville være optimalisert for GPUer og redusere treningstiden samtidig som ytelsen ble forbedret.
30. september 2012 deltok AlexNet i ImageNet Large Scale Visual Recognition Challengeenge. Nettverket oppnådde en poengsum på 15,3 % i de fem beste feiltestene, over 10,8 % lavere enn andreplassen.
Hovedkonklusjonen fra det originale arbeidet var at kompleksiteten til modellen skyldtes dens høye ytelse, som også var svært beregningsmessig kostbar, men muliggjort ved bruk av grafikkbehandlingsenheter (GPUer) under opplæringsprosessen.
Det AlexNet konvolusjonelle nevrale nettverket i seg selv består av åtte lag; de første fem er konvolusjonslag, hvorav noen er innledet av maksimalt koblede lag, og de tre siste er fullstendig sammenkoblede lag. Nettverket, bortsett fra det siste laget, er delt i to kopier, som hver kjører på en enkelt GPU.
Det vil si, takket være NVIDIA, tror de fleste eksperter og forskere fortsatt at AlexNet er en utrolig kraftig modell som er i stand til å oppnå høy nøyaktighet på svært komplekse datasett. AlexNet er den ledende arkitekturen for enhver objektdeteksjonsoppgave og kan ha svært brede applikasjoner i datasynssektoren for kunstig intelligensproblemer. I fremtiden kan AlexNet bli brukt mer enn CNN innen bildebehandling.
Også interessant: Bluesky-fenomenet: hva slags tjeneste og er det lenge?
Kunstig intelligens finnes ikke bare i laboratorier og datasentre
NVIDIA så store utsikter for AI også innen teknologi for forbrukerenheter og tingenes internett. Mens konkurrenter akkurat begynner å vurdere mer omfattende investeringer i en ny type integrerte kretser, jobber NVIDIA allerede med miniatyriseringen deres. Tegra K1-brikken, utviklet i samarbeid med Tesla og andre bilselskaper, er nok spesielt viktig.
Tegra K1-prosessoren er en av NVIDIAs første prosessorer designet spesielt for AI-applikasjoner i mobile og innebygde enheter. Tegra K1 bruker samme GPU-arkitektur som NVIDIA GeForce-, Quadro- og Tesla-serien med grafikkort og systemer, som gir høy ytelse og kompatibilitet med grafikk- og datastandarder som Op.enGL 4.4, DirectX 11.2, CUDA 6.5 og OpenCL 1.2. Takket være dette kan Tegra K1-prosessoren støtte avanserte kunstig intelligensalgoritmer som dype nevrale nettverk, forsterkende læring, bilde- og talegjenkjenning og dataanalyse. Tegra K1 har 192 CUDA-kjerner.
I 2016 ga NVIDIA ut en serie Pascal-prosessorer optimalisert for å støtte dype nevrale nettverk og andre kunstig intelligens-modeller. I løpet av et år dukket det opp en serie Volta-prosessorer på markedet for applikasjoner knyttet til kunstig intelligens, som er enda mer effektive og energibesparende. I 2019 kjøper NVIDIA opp Mellanox Technologies, en produsent av høyytelses datanettverk for datasentre og superdatamaskiner.
Som et resultat bruker de alle NVIDIA-prosessorer. På forbrukermarkedet, for eksempel, bruker spillere den revolusjonerende DLSS-bilderekonstruksjonsalgoritmen, som lar dem nyte skarpere grafikk i spill uten å bruke mye penger på et grafikkort. I bedriftsmarkedet er det anerkjent at NVIDIA-brikker på mange måter er utenfor det konkurrentene tilbyr. Selv om det ikke er slik at Intel og AMD sov fullstendig gjennom den intellektuelle revolusjonen.
Også interessant: De beste verktøyene basert på kunstig intelligens
Intel og AMD innen kunstig intelligens
La oss snakke om NVIDIAs direkte konkurrenter i dette markedssegmentet. Intel og AMD jobber her mer og mer aktivt, men med lang forsinkelse.
Intel har kjøpt opp flere AI-selskaper som Nervana Systems, Movidius, Mobileye og Habana Labs for å styrke sin portefølje av AI-teknologier og -løsninger. Intel tilbyr også maskinvare- og programvareplattformer for kunstig intelligens, som Xeon-prosessorer, FPGA-er, NNP-brikker og optimaliseringsbiblioteker. Intel samarbeider også med partnere i offentlig og privat sektor for å fremme AI-innovasjon og utdanning.
AMD har utviklet en serie Epyc-prosessorer og Radeon Instinct-grafikkort som er optimalisert for AI- og dyplæringsapplikasjoner. AMD har også inngått samarbeid med selskaper som Google, Microsoft, IBM og Amazon for å tilby skybaserte AI-løsninger. AMD streber også etter å delta i AI-forskning og utvikling gjennom partnerskap med akademiske institusjoner og bransjeorganisasjoner. Dette er alt veldig bra, selv om NVIDIA allerede ligger godt foran dem, og suksessen innen utvikling og støtte for AI-algoritmer er uforlignelig større.
Også interessant: Google I/O 2023-oppsummering: Android 14, Pixel og mye AI
NVIDIA har vært assosiert med videospill i flere tiår
Dette skal heller ikke glemmes. NVIDIA gir ikke en nøyaktig fordeling av inntektene mellom forbruker- og bedriftsmarkeder, men de kan estimeres basert på driftssegmentene selskapet avslører i regnskapet. NVIDIA skiller fire driftssegmenter: spill, profesjonell visualisering, datasentre og biler.
Det kan antas at spillsegmentet hovedsakelig er fokusert på forbrukermarkedet, siden det inkluderer salg av GeForce-skjermkort og Tegra-brikker for spillkonsoller. Segmentet for profesjonell visualisering er hovedsakelig fokusert på bedriftsmarkedet, da det inkluderer salg av Quadro-skjermkort og RTX-brikker for arbeidsstasjoner og profesjonelle applikasjoner. Datasentersegmentet er også hovedsakelig fokusert på bedriftsmarkedet, da det inkluderer salg av GPUer og NPUer (det vil si neste generasjons brikker - ikke lenger GPUer, men designet eksklusivt for AI) for servere og skytjenester. Bilsegmentet retter seg mot både forbruker- og bedriftsmarkedet, da det inkluderer salg av Tegra- og Drive-systemer for infotainment og autonom kjøring.
Basert på disse forutsetningene er det mulig å estimere andelen inntekter fra forbruker- og bedriftsmarkedet i NVIDIAs totale inntekter. I følge den siste økonomiske rapporten for 2022 var NVIDIAs inntekter etter driftssegmenter som følger:
- Spill: 12,9 milliarder dollar
- Profesjonell visualisering: 1,3 milliarder dollar
- Datasentre: 9,7 milliarder dollar
- Biler: 0,8 milliarder dollar
- Alle andre segmenter: 8,7 milliarder dollar
NVIDIAs totale omsetning var 33,4 milliarder dollar. Forutsatt at bilsegmentet er delt omtrent likt mellom forbruker- og bedriftsmarkedet, kan følgende proporsjoner beregnes:
- Inntekt fra forbrukermarkedet: (12,9 + 0,4) / 33,4 = 0,4 (40 %)
- Inntekt fra bedriftsmarkedet: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60 %)
Dette betyr at ca 40 % av NVIDIAs inntekter kommer fra forbrukermarkedet, og ca 60 % fra bedriftsmarkedet. Det vil si at hovedretningen er forretningssegmentet. Men spillindustrien gir også ganske gode inntekter. Det viktigste er at de vokser hvert år.
Også interessant: Diary of a Grumpy Old Geek: Bing vs Google
Hva vil fremtiden bringe oss?
NVIDIA har åpenbart allerede en plan om å delta i utviklingen av kunstig intelligens-algoritmer. Og den er mye bredere og mer lovende enn noen av sine direkte konkurrenter.
Bare den siste måneden har NVIDIA annonsert en rekke nye investeringer i kunstig intelligens. En av dem er GET3D-mekanismen, som er i stand til å generere komplekse tredimensjonale modeller av ulike objekter og karakterer som nøyaktig gjenspeiler virkeligheten. GET3D kan generere rundt 20 objekter per sekund ved hjelp av en enkelt grafikkbrikke.
Et annet interessant prosjekt bør også nevnes. Israel-1 er en superdatamaskin for kunstig intelligens-applikasjoner som NVIDIA bygger i samarbeid med det israelske departementet for vitenskap og teknologi og Mellanox. Maskinen forventes å ha mer enn 7 petaflops med datakraft og bruke mer enn 1000 NVIDIA A100 Tensor Core GPUer. Israel-1 skal brukes til forskning og utvikling innen felt som medisin, biologi, kjemi, fysikk og cybersikkerhet. Og dette er allerede svært lovende kapitalinvesteringer, gitt de langsiktige utsiktene.
Dessuten er det allerede et annet prosjekt - NVIDIA ACE. Det er en ny teknologi som skal revolusjonere spillindustrien ved å la spilleren samhandle med en ikke-spillerkarakter (NPC) på en naturlig og realistisk måte. Disse karakterene vil være i stand til å føre en åpen dialog med spilleren, reagere på hans følelser og gester, og til og med uttrykke sine egne følelser og tanker. NVIDIA ACE bruker avanserte språkmodeller og bildegeneratorer basert på kunstig intelligens.
NVIDIAs første billioner dollar. Det ser ut til at det kommer flere snart. Vi vil helt sikkert følge suksessen til selskapet og fortelle deg det.
Les også: