Categorias: Empresas

Do CUDA à IA: segredos do sucesso NVIDIA

NVIDIA - a primeira empresa na história da indústria de chips, cuja capitalização ultrapassou um trilhão de dólares. Qual é o segredo do sucesso?

Tenho certeza que muitos de vocês já ouviram falar da empresa NVIDIA e a maioria de vocês associa isso especificamente a processadores gráficos, porque a frase "NVIDIA GeForce" foi ouvido por quase todo mundo.

NVIDIA recentemente fez história financeira no setor de TI. É a primeira empresa de circuitos integrados cujo valor de mercado ultrapassou um trilhão de dólares. É também a quinta empresa relacionada com a tecnologia na história a alcançar um sucesso tão grande (por capitalização de mercado). Anteriormente, apenas as pessoas podiam se orgulhar de uma classificação tão alta Apple, Microsoft, Alphabet (dona do Google) e Amazon. É por isso que os financiadores às vezes o chamam de "Clube dos Quatro", que agora foi ampliado NVIDIA.

Além disso, em termos de capitalização de mercado, está muito atrás da AMD, Intel, Qualcomm e outras empresas de tecnologia. Isso não teria sido possível sem a política visionária da empresa, lançada há uma década.

Leia também: Existe um futuro para o TruthGPT de Elon Musk?

Uma demanda incrível por NVIDIA Núcleo Tensor H100

Qual é o segredo desse aumento de capitalização? Em primeiro lugar, esta é a reação da bolsa de valores ao sucesso do chip NVIDIA H100 Tensor Core, que está em alta demanda entre os principais provedores de infraestrutura em nuvem e serviços online. Esses chips são comprados pela Amazon, Meta e Microsoft (para as suas próprias necessidades e as necessidades do seu parceiro - a empresa OpenAI). Eles são particularmente eficientes em termos energéticos na aceleração de cálculos típicos de inteligência artificial generativa, como ChatGPT ou Dall-E. Este é um salto incrível de ordem de magnitude para a computação acelerada. Obtemos desempenho, escalabilidade e segurança sem precedentes para qualquer carga de trabalho com NVIDIA GPU Tensor Core H100.

Usando um sistema de comutação NVIDIA O NVLink pode ser conectado a até 256 GPUs H100 para acelerar cargas de trabalho em escala exa. A GPU também inclui um Transformer Engine dedicado para resolver modelos de linguagem com trilhões de parâmetros. As inovações tecnológicas combinadas do H100 podem acelerar os grandes modelos de linguagem (LLMs) em incríveis 30 vezes em comparação com a geração anterior, fornecendo IA de conversação líder do setor. Os desenvolvedores consideram-no quase ideal para aprendizado de máquina.

Porém, o H100 não apareceu do nada. E, para dizer a verdade, não é particularmente revolucionário. NVIDIA, como nenhuma outra empresa, há muitos anos investe enormes recursos em inteligência artificial. Como resultado, uma empresa associada principalmente à marca de placas gráficas GeForce pode tratar o mercado consumidor quase como um hobby. Afinal, isso cria um poder real no mercado dos gigantes de TI NVIDIA já posso falar com eles como iguais.

Também interessante: O que são redes 6G e por que são necessárias?

A inteligência artificial é o futuro?

Hoje, quase todo mundo está convencido disso, até mesmo os especialistas céticos nesta área. Agora é quase um axioma, um truísmo. Embora NViDIA sabia disso há 20 anos. Eu te surpreendi?

Tecnicamente, o primeiro contato próximo NVIDIA com inteligência artificial aconteceu em 1999, quando surgiu no mercado o processador GeForce 256, capaz de acelerar cálculos de aprendizado de máquina. No entanto NVIDIA começou a investir seriamente em inteligência artificial apenas em 2006, quando introduziu a arquitetura CUDA, que permitiu utilizar as capacidades de processamento paralelo dos processadores gráficos para treinamento e pesquisa.

O que é CUDA? É melhor definido como uma plataforma de computação paralela e interface de programação de aplicativos (API) que permite que o software use unidades de processamento gráfico de propósito geral (GPGPUs). Essa abordagem é chamada de computação de uso geral em GPUs. Além disso, CUDA é uma camada de software que fornece acesso direto ao conjunto de instruções virtuais e aos elementos de computação paralela do processador gráfico. Ele foi projetado para trabalhar com linguagens de programação como C, C++ e Fortran.

É essa acessibilidade que torna mais fácil para os desenvolvedores paralelos aproveitarem os recursos da GPU, ao contrário das APIs anteriores, como Direct3D e OpenGL, que exigiam habilidades avançadas de programação gráfica.

Um avanço importante foi a disponibilização pela empresa NVIDIA poder de computação para a inovadora rede neural AlexNet. É uma rede neural convolucional (CNN), desenvolvida pelo ucraniano Alex Kryzhevskyi em colaboração com Ilya Sutzkever e Jeffrey Ginton.

As Redes Neurais Convolucionais (CNNs) sempre foram o modelo ideal para reconhecimento de objetos - são modelos poderosos fáceis de controlar e ainda mais fáceis de treinar. Eles não experimentam overfitting de forma alarmante quando usados ​​em milhões de imagens. Seu desempenho é quase idêntico ao padrão de redes neurais feed-forward do mesmo tamanho. O único problema é que são difíceis de aplicar em imagens de alta resolução. A escala do ImageNet exigia inovações que seriam otimizadas para GPUs e reduziriam o tempo de treinamento enquanto melhoravam o desempenho.

Em 30 de setembro de 2012, AlexNet participou do ImageNet Large Scale Visual Recognition Challenge. A rede alcançou uma pontuação de 15,3% no teste dos cinco principais erros, mais de 10,8% inferior à pontuação do segundo lugar.

A principal conclusão do trabalho original foi que a complexidade do modelo se devia ao seu alto desempenho, que também era muito caro computacionalmente, mas possibilitado pelo uso de unidades de processamento gráfico (GPUs) durante o processo de treinamento.

A própria rede neural convolucional AlexNet consiste em oito camadas; as cinco primeiras são camadas convolucionais, algumas das quais são precedidas por camadas acopladas ao máximo, e as três últimas são camadas totalmente conectadas. A rede, exceto a última camada, é dividida em duas cópias, cada uma rodando em uma única GPU.

Isto é, graças a NVIDIA e ainda assim a maioria dos especialistas e cientistas acreditam que AlexNet é um modelo incrivelmente poderoso, capaz de alcançar alta precisão em conjuntos de dados muito complexos. AlexNet é a arquitetura líder para qualquer tarefa de detecção de objetos e pode ter aplicações muito amplas no setor de visão computacional para problemas de inteligência artificial. No futuro, o AlexNet poderá ser mais utilizado do que a CNN na área de imagem.

Também interessante: O fenômeno Bluesky: que tipo de serviço e é por muito tempo?

Inteligência artificial não está só em laboratórios e data centers

В NVIDIA viu grandes perspectivas para a IA também nas tecnologias de dispositivos de consumo e na Internet das Coisas. Embora os concorrentes estejam apenas começando a considerar investir de forma mais ampla num novo tipo de circuito integrado, NVIDIA já está trabalhando em sua miniaturização. O chip Tegra K1, desenvolvido em cooperação com a Tesla e outras montadoras, é provavelmente especialmente importante.

O processador Tegra K1 é um dos primeiros processadores NVIDIA, projetado especificamente para aplicações de IA em dispositivos móveis e incorporados. Tegra K1 usa a mesma arquitetura de GPU da série de placas gráficas e sistemas NVIDIA GeForce, Quadro e Tesla, que oferecem alto desempenho e compatibilidade com padrões gráficos e de computação como OpenGL 4.4, DirectX 11.2, CUDA 6.5 e OpenCL 1.2. Graças a isso, o processador Tegra K1 pode suportar algoritmos avançados de inteligência artificial, como redes neurais profundas, aprendizagem por reforço, reconhecimento de imagem e fala e análise de dados. Tegra K1 possui 192 núcleos CUDA.

Em 2016 NVIDIA lançou uma série de processadores Pascal otimizados para suportar redes neurais profundas e outros modelos de inteligência artificial. Em um ano, surgiu no mercado uma série de processadores Volta para aplicações relacionadas à inteligência artificial, ainda mais eficientes e economizadores de energia. Em 2019 NVIDIA compra a Mellanox Technologies, fabricante de redes de computadores de alto desempenho para data centers e supercomputadores.

Como resultado, todos eles usam processadores NVIDIA. No mercado consumidor, por exemplo, os gamers utilizam o revolucionário algoritmo de reconstrução de imagem DLSS, que permite desfrutar de gráficos mais nítidos em jogos sem gastar muito dinheiro em uma placa gráfica. No mercado empresarial, é reconhecido que os chips NVIDIA em muitos aspectos além do que os concorrentes oferecem. Embora não seja que a Intel e a AMD tenham dormido completamente durante a revolução intelectual.

Também interessante: As melhores ferramentas baseadas em inteligência artificial

Intel e AMD no campo da inteligência artificial

Vamos falar sobre concorrentes diretos NVIDIA neste segmento de mercado. Intel e AMD estão trabalhando aqui cada vez mais ativamente, mas com muito atraso.

A Intel adquiriu várias empresas de IA, como Nervana Systems, Movidius, Mobileye e Habana Labs, para fortalecer seu portfólio de tecnologias e soluções de IA. A Intel também oferece plataformas de hardware e software para inteligência artificial, como processadores Xeon, FPGAs, chips NNP e bibliotecas de otimização. A Intel também trabalha com parceiros dos setores público e privado para promover a inovação e a educação em IA.

A AMD desenvolveu uma série de processadores Epyc e placas gráficas Radeon Instinct que são otimizados para IA e aplicativos de aprendizado profundo. A AMD também trabalha com empresas como Google, Microsoft, IBM e Amazon, fornecendo soluções em nuvem para IA. A AMD também se esforça para participar de pesquisa e desenvolvimento de IA por meio de parcerias com instituições acadêmicas e organizações industriais. Está tudo muito bem, no entanto NVIDIA já está muito à frente deles, e o seu sucesso no domínio do desenvolvimento e suporte de algoritmos de IA é incomparavelmente maior.

Também interessante: Resumo do Google I/O 2023: Android 14, Pixel e muita IA

NVIDIA tem sido associado a videogames há décadas

Isto também não deve ser esquecido. NVIDIA não fornece uma discriminação exata de suas receitas entre os mercados consumidor e empresarial, mas elas podem ser estimadas com base nos segmentos operacionais que a empresa divulga em suas demonstrações financeiras. NVIDIA separa quatro segmentos operacionais: Jogos, Visualização Profissional, Data Centers e Automotivo.

Pode-se supor que o segmento de jogos é voltado principalmente para o mercado consumidor, pois inclui a venda de placas de vídeo GeForce e chips Tegra para consoles de jogos. O segmento de visualização profissional é voltado principalmente para o mercado empresarial, pois inclui a venda de placas de vídeo Quadro e chips RTX para estações de trabalho e aplicações profissionais. O segmento de data center também é voltado principalmente para o mercado empresarial, pois inclui a venda de GPUs e NPUs (ou seja, chips de última geração - não mais GPUs, mas projetados exclusivamente para IA) para servidores e serviços em nuvem. O segmento automotivo tem como alvo os mercados de consumo e empresarial, pois inclui as vendas dos sistemas Tegra e Drive para infoentretenimento e direção autônoma.

Com base nessas premissas, é possível estimar a participação das receitas dos mercados de consumo e empresariais nas receitas totais NVIDIA. De acordo com o último relatório financeiro do ano de 2022, as receitas da empresa NVIDIA por segmentos operacionais foram os seguintes:

  • Jogos: US$ 12,9 bilhões
  • Visualização profissional: US$ 1,3 bilhão
  • Centros de dados: US$ 9,7 bilhões
  • Automóveis: US$ 0,8 bilhão
  • Todos os outros segmentos: US$ 8,7 bilhões

Renda total NVIDIA totalizou US$ 33,4 bilhões. Se assumirmos que o segmento automotivo está dividido aproximadamente igualmente entre os mercados consumidor e empresarial, as seguintes proporções podem ser calculadas:

  • Rendimento do mercado consumidor: (12,9 + 0,4) / 33,4 = 0,4 (40%)
  • Rendimento do mercado empresarial: (1,3 + 9,7 + 0,4 + 8,7) / 33,4 = 0,6 (60%)

Isto significa que cerca de 40% do rendimento NVIDIA vem do mercado consumidor e cerca de 60% do mercado empresarial. Ou seja, a direção principal é o segmento empresarial. Mas a indústria de jogos também traz receitas muito boas. O mais importante é que cresçam a cada ano.

Também interessante: Diário de um velho nerd mal-humorado: Bing x Google

O que o futuro nos trará?

É obvio que NVIDIA já existe um plano para participar do desenvolvimento de algoritmos de inteligência artificial. E é muito mais amplo e promissor do que qualquer um dos seus concorrentes diretos.

Somente no último mês NVIDIA anunciou vários novos investimentos em inteligência artificial. Um deles é o mecanismo GET3D, que é capaz de gerar modelos tridimensionais complexos de diversos objetos e personagens que refletem fielmente a realidade. GET3D pode gerar cerca de 20 objetos por segundo usando um único chip gráfico.

Mais um projeto interessante também deve ser mencionado. Sobre Israel-1 é um supercomputador para programas de inteligência artificial, que NVIDIA é criado em cooperação com o Ministério da Ciência e Tecnologia de Israel e a empresa Mellanox. Espera-se que a máquina tenha mais de 7 petaflops de poder computacional e use mais de 1000 GPUs NVIDIA Núcleo Tensor A100. Israel-1 será utilizado para pesquisa e desenvolvimento em áreas como medicina, biologia, química, física e segurança cibernética. E estes já são investimentos de capital muito promissores, dadas as perspectivas de longo prazo.

Além disso, já existe outro projeto - NVIDIA ÁS. É uma nova tecnologia que pretende revolucionar a indústria de jogos, permitindo ao jogador interagir com um personagem não-jogador (NPC) de forma natural e realista. Esses personagens poderão dialogar abertamente com o jogador, reagir às suas emoções e gestos e até expressar seus próprios sentimentos e pensamentos. NVIDIA O ACE usa modelos de linguagem avançados e geradores de imagens baseados em IA.

O primeiro trilhão de dólares em NVIDIA. Parece que haverá mais em breve. Teremos a certeza de acompanhar o progresso da empresa e avisar você.

Leia também:

Partilhar
Yuri Svitlyk

Filho das Montanhas dos Cárpatos, gênio não reconhecido da matemática, "advogado"Microsoft, altruísta prático, esquerda-direita

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com*