Root NationArtiklarFöretagFrån CUDA till AI: Secrets of Success NVIDIA

Från CUDA till AI: Secrets of Success NVIDIA

-

NVIDIA - det första företaget i chipindustrins historia, vars kapitalisering översteg en biljon dollar. Vad är hemligheten bakom framgång?

Jag är säker på att många av er har hört talas om företaget NVIDIA och de flesta av er associerar det specifikt med grafikprocessorer, eftersom frasen "NVIDIA GeForce" har hörts av nästan alla.

NVIDIA

NVIDIA nyligen gjort finansiell historia i IT-branschen. Det är det första integrerade kretsföretaget vars marknadsvärde har överstigit en biljon dollar. Det är också det femte teknikrelaterade företaget i historien som uppnår en så stor framgång (efter börsvärde). Tidigare var det bara människor som kunde skryta med ett så högt betyg Apple, Microsoft, Alphabet (ägare av Google) och Amazon. Det var därför finansiärer ibland kallade det "Fyrans klubb", som nu har utökats NVIDIA.

När det gäller börsvärde ligger den dessutom långt efter AMD, Intel, Qualcomm och andra teknikföretag. Detta hade inte varit möjligt utan företagets visionära policy, som infördes för ett decennium sedan.

Läs också: Finns det en framtid för Elon Musks TruthGPT?

Otrolig efterfrågan på NVIDIA H100 Tensor Core

Vad är hemligheten med en sådan ökning av kapitalisering? Först och främst är detta börsens reaktion på framgången för chippet NVIDIA H100 Tensor Core, som är mycket efterfrågad bland ledande leverantörer av molninfrastruktur och onlinetjänster. Dessa marker köps av Amazon, Meta och Microsoft (för sina egna behov och behoven hos sin partner - företaget OpenAI). De är särskilt energieffektiva i accelererande beräkningar som är typiska för generativ artificiell intelligens, som ChatGPT eller Dall-E. Detta är ett otroligt steg av en storleksordning för accelererad beräkning. Vi får oöverträffad prestanda, skalbarhet och säkerhet för alla arbetsbelastningar med NVIDIA H100 Tensor Core GPU.

NVIDIA-H100-Tensorkärna

Använder ett växlingssystem NVIDIA NVLink kan anslutas till upp till 256 H100 GPU:er för att påskynda arbetsbelastningen i exa-skala. GPU:n innehåller också en dedikerad Transformer Engine för att lösa språkmodeller med biljoner parametrar. H100:s kombinerade tekniska innovationer kan accelerera stora språkmodeller (LLM) med otroliga 30x jämfört med föregående generation, vilket ger branschledande konversations-AI. Utvecklarna anser att det är nästan idealiskt för maskininlärning.

- Annons -

H100 dök dock inte upp från ingenstans. Och, för att säga sanningen, det är inte särskilt revolutionerande. NVIDIA, som inget annat företag, har satsat enorma resurser på artificiell intelligens i många år. Som ett resultat kan ett företag som främst är förknippat med GeForce-grafikkortsmärket behandla konsumentmarknaden nästan som en hobby. Detta bygger trots allt verklig makt på marknaden för IT-jättar NVIDIA kan redan prata med dem som jämlikar.

Också intressant: Vad är 6G-nätverk och varför behövs de?

Är artificiell intelligens framtiden?

Idag är nästan alla övertygade om detta, även skeptiska experter på detta område. Nu är det nästan ett axiom, en truism. Fastän NViDIA visste om det för 20 år sedan. Överraskade jag dig?

Tekniskt sett den första nära kontakten NVIDIA med artificiell intelligens hände 1999, när GeForce 256-processorn dök upp på marknaden, kapabel att påskynda beräkningar av maskininlärning. dock NVIDIA började på allvar att investera i artificiell intelligens först 2006, när det introducerade CUDA-arkitekturen, som gjorde det möjligt att använda parallellbearbetningskapaciteten hos grafikprocessorer för utbildning och forskning.

NVIDIA-CUDA

Vad är CUDA? Det definieras bäst som en parallell beräkningsplattform och applikationsprogrammeringsgränssnitt (API) som tillåter programvara att använda grafikprocessorer för allmänna ändamål (GPGPU). Det här tillvägagångssättet kallas generell datoranvändning på GPU:er. Dessutom är CUDA ett mjukvarulager som ger direkt åtkomst till den virtuella instruktionsuppsättningen och parallella beräkningselement i grafikprocessorn. Den är designad för att fungera med programmeringsspråk som C, C++ och Fortran.

Det är denna tillgänglighet som gör det enklare för parallellutvecklare att dra fördel av GPU-resurser, till skillnad från tidigare API:er som Direct3D och OpenGL, som krävde avancerade kunskaper i grafikprogrammering.

NVIDIA-CUDA

Ett viktigt genombrott var tillhandahållandet av företaget NVIDIA datorkraft för det banbrytande neurala nätverket AlexNet. Det är ett konvolutionellt neuralt nätverk (CNN), utvecklat av ukrainaren Alex Kryzhevskyi i samarbete med Ilya Sutzkever och Jeffrey Ginton.

Convolutional Neural Networks (CNN) har alltid varit den bästa modellen för objektigenkänning – de är kraftfulla modeller som är lätta att kontrollera och ännu lättare att träna. De upplever inte övermontering i någon alarmerande utsträckning när de används på miljontals bilder. Deras prestanda är nästan identisk med standardfeed-forward neurala nätverk av samma storlek. Problemet är bara att de är svåra att applicera på högupplösta bilder. Omfattningen av ImageNet krävde innovationer som skulle vara optimerade för GPU:er och minska träningstiden samtidigt som prestandan förbättrades.

AlexNet

Den 30 september 2012 deltog AlexNet i ImageNet Large Scale Visual Recognition Challenge. Nätverket uppnådde en poäng på 15,3 % i de fem bästa feltestet, över 10,8 % lägre än andraplatsen.

Huvudslutsatsen från det ursprungliga arbetet var att modellens komplexitet berodde på dess höga prestanda, som också var mycket beräkningsmässigt dyr, men möjliggjordes genom användningen av grafikprocessorer (GPU) under utbildningsprocessen.

AlexNets konvolutionella neurala nätverk består av åtta lager; de första fem är faltningsskikt, av vilka några föregås av maximalt kopplade skikt, och de sista tre är helt anslutna skikt. Nätverket, förutom det sista lagret, är uppdelat i två kopior, som var och en körs på en enda GPU.

- Annons -

Det vill säga tack vare NVIDIA och fortfarande tror de flesta experter och forskare att AlexNet är en otroligt kraftfull modell som kan uppnå hög noggrannhet på mycket komplexa datauppsättningar. AlexNet är den ledande arkitekturen för alla objektdetekteringsuppgifter och kan ha mycket breda tillämpningar inom datorseendesektorn för artificiell intelligensproblem. I framtiden kan AlexNet komma att användas mer än CNN inom bildbehandlingsområdet.

Också intressant: Bluesky-fenomenet: vilken typ av tjänst och är det länge?

Artificiell intelligens finns inte bara i laboratorier och datacenter

В NVIDIA såg stora möjligheter för AI även inom tekniken för konsumentenheter och Internet of Things. Medan konkurrenter precis har börjat överväga att investera mer i en ny typ av integrerade kretsar, NVIDIA arbetar redan med deras miniatyrisering. Tegra K1-chippet, utvecklat i samarbete med Tesla och andra bilföretag, är förmodligen extra viktigt.

NVIDIA-Tegra-K1

Tegra K1-processorn är en av de första processorerna NVIDIA, designad specifikt för AI-applikationer i mobila och inbyggda enheter. Tegra K1 använder samma GPU-arkitektur som serien av grafikkort och system NVIDIA GeForce, Quadro och Tesla, som ger hög prestanda och kompatibilitet med grafik och datorstandarder som OpenGL 4.4, DirectX 11.2, CUDA 6.5 och OpenCL 1.2. Tack vare detta kan Tegra K1-processorn stödja avancerade artificiell intelligensalgoritmer som djupa neurala nätverk, förstärkningsinlärning, bild- och taligenkänning och dataanalys. Tegra K1 har 192 CUDA-kärnor.

År 2016 NVIDIA släppte en serie Pascal-processorer optimerade för att stödja djupa neurala nätverk och andra artificiell intelligensmodeller. Inom ett år dök en serie Volta-processorer för tillämpningar relaterade till artificiell intelligens upp på marknaden, som är ännu mer effektiva och energibesparande. År 2019 NVIDIA köper Mellanox Technologies, en tillverkare av högpresterande datornätverk för datacenter och superdatorer.

NVIDIA

Som ett resultat använder de alla processorer NVIDIA. På konsumentmarknaden, till exempel, använder spelare den revolutionerande DLSS-bildrekonstruktionsalgoritmen, som gör att de kan njuta av skarpare grafik i spel utan att spendera mycket pengar på ett grafikkort. På företagsmarknaden är det känt att chips NVIDIA på många sätt utöver vad konkurrenterna erbjuder. Även om det inte är så att Intel och AMD helt sov igenom den intellektuella revolutionen.

Också intressant: De bästa verktygen baserade på artificiell intelligens

Intel och AMD inom området artificiell intelligens

Låt oss prata om direkta konkurrenter NVIDIA i detta marknadssegment. Intel och AMD arbetar här mer och mer aktivt, men med en lång fördröjning.

Intel har förvärvat flera AI-företag som Nervana Systems, Movidius, Mobileye och Habana Labs för att stärka sin portfölj av AI-teknologier och lösningar. Intel erbjuder även hård- och mjukvaruplattformar för artificiell intelligens, såsom Xeon-processorer, FPGA, NNP-chips och optimeringsbibliotek. Intel arbetar också med partner inom den offentliga och privata sektorn för att främja AI-innovation och utbildning.

Intel och AMD

AMD har utvecklat en serie Epyc-processorer och Radeon Instinct-grafikkort som är optimerade för AI- och djupinlärningsapplikationer. AMD arbetar även med företag som Google, Microsoft, IBM och Amazon, tillhandahåller molnlösningar för AI. AMD strävar också efter att delta i AI-forskning och utveckling genom partnerskap med akademiska institutioner och branschorganisationer. Men allt är väldigt bra NVIDIA redan långt före dem, och dess framgång inom utveckling och stöd för AI-algoritmer är ojämförligt större.

Också intressant: Sammanfattning av Google I/O 2023: Android 14, Pixel och massor av AI

NVIDIA har förknippats med videospel i decennier

Detta ska inte heller glömmas. NVIDIA ger ingen exakt uppdelning av sina intäkter mellan konsument- och företagsmarknaden, men de kan uppskattas baserat på de rörelsesegment som företaget uppger i sina finansiella rapporter. NVIDIA separerar fyra verksamhetssegment: spel, professionell visualisering, datacenter och fordon.

NVIDIA

Det kan antas att spelsegmentet främst är inriktat på konsumentmarknaden, eftersom det inkluderar försäljning av GeForce grafikkort och Tegra-chips för spelkonsoler. Segmentet för professionell visualisering är främst inriktat på företagsmarknaden, då det inkluderar försäljning av Quadro-grafikkort och RTX-chips för arbetsstationer och professionella applikationer. Datacentersegmentet är också främst inriktat på företagsmarknaden, då det inkluderar försäljning av GPU:er och NPU:er (det vill säga nästa generations chips - inte längre GPU:er, utan designade exklusivt för AI) för servrar och molntjänster. Fordonssegmentet riktar sig till både konsument- och företagsmarknader, eftersom det inkluderar försäljning av Tegra- och Drive-systemen för infotainment och autonom körning.

NVIDIA

Baserat på dessa antaganden är det möjligt att uppskatta andelen intäkter från konsument- och företagsmarknader av totala intäkter NVIDIA. Enligt den senaste finansiella rapporten för år 2022, bolagets intäkter NVIDIA per rörelsesegment var följande:

  • Spel: 12,9 miljarder dollar
  • Professionell visualisering: 1,3 miljarder dollar
  • Datacenter: 9,7 miljarder dollar
  • Bilar: 0,8 miljarder dollar
  • Alla andra segment: 8,7 miljarder dollar

Total inkomst NVIDIA uppgick till 33,4 miljarder dollar. Om vi ​​antar att fordonssegmentet delas ungefär lika mellan konsument- och företagsmarknaden kan följande proportioner beräknas:

  • Inkomst från konsumentmarknaden: (12,9 + 0,4) / 33,4 = 0,4 (40 %)
  • Inkomst från företagsmarknaden: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60 %)

Det innebär att cirka 40 % av inkomsten NVIDIA kommer från konsumentmarknaden och cirka 60 % från företagsmarknaden. Det vill säga, huvudriktningen är affärssegmentet. Men spelindustrin ger också ganska bra inkomster. Det viktigaste är att de växer varje år.

Också intressant: Diary of a Grumpy Old Geek: Bing vs Google

Vad kommer framtiden att ge oss?

Det är självklart att NVIDIA det finns redan en plan för att delta i utvecklingen av artificiell intelligensalgoritmer. Och den är mycket bredare och mer lovande än någon av sina direkta konkurrenter.

Bara den senaste månaden NVIDIA tillkännagav många nya investeringar i artificiell intelligens. En av dem är GET3D-mekanismen, som kan generera komplexa tredimensionella modeller av olika objekt och karaktärer som troget återspeglar verkligheten. GET3D kan generera cirka 20 objekt per sekund med ett enda grafikchip.

Ytterligare ett intressant projekt bör också nämnas. Om Israel-1 är en superdator för artificiell intelligensprogram, som NVIDIA skapas i samarbete med ministeriet för vetenskap och teknik i Israel och företaget Mellanox. Maskinen förväntas ha mer än 7 petaflops datorkraft och använda mer än 1000 XNUMX GPU:er NVIDIA A100 Tensor Core. Israel-1 kommer att användas för forskning och utveckling inom områden som medicin, biologi, kemi, fysik och cybersäkerhet. Och det är redan mycket lovande kapitalinvesteringar med tanke på de långsiktiga utsikterna.

NVIDIA

Dessutom finns det redan ett annat projekt - NVIDIA ESS. Det är en ny teknik som kommer att revolutionera spelindustrin genom att låta spelaren interagera med en icke-spelare karaktär (NPC) på ett naturligt och realistiskt sätt. Dessa karaktärer kommer att kunna föra en öppen dialog med spelaren, reagera på hans känslor och gester och till och med uttrycka sina egna känslor och tankar. NVIDIA ACE använder avancerade språkmodeller och AI-baserade bildgeneratorer.

De första biljonerna dollar in NVIDIA. Det ser ut att bli fler snart. Vi kommer att se till att följa företagets framsteg och meddela dig.

Läs också:

Yuri Svitlyk
Yuri Svitlyk
Son till Karpaterna, okänt geni inom matematiken, "advokat"Microsoft, praktisk altruist, vänster-höger
- Annons -
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer