Mercados

Nvidia ganha R$ 1,1 tri em relevância de mercado em único dia – mais de 2 vezes a Petrobras

A Nvidia (NVDC34), gigante dos chips de perceptibilidade sintético (IA), ganhou US$ 220 bilhões (murado de R$ 1,1 trilhão) na última rancho (23), único dia depois a companhia publicar seu agitamento. O relevância de mercado lucro em somente único dia equivale a mais de “duas Petrobras”(PETR3;PETR4), que ontem fechou a sessão valendo R$ 492,3 bilhões. Ou seja, duas das estatais brasileiras equivalem a R$ 984,6 bilhões.

Na quarta, antes da espalhamento do documento, a Nvidia importância US$ 2,35 trilhões, e viu seu relevância pular para US$ 2,55 trilhões depois o fecho do mercado, o que a coloca porquê terceira mais valiosa da Bolsa americana, detrás somente de Apple e Microsoft.

Nesta semana, a Nvidia divulgou que teve récipe de US$ 26 bilhões, quase triplicando os US$ 7,19 bilhões no ano anterior. Já o usura líquido saltou murado de 7 vezes em lista ao ano anterior, de US$ 2,04 bilhões para US$ 14,88 bilhões.

Continua após da publicidade

Hoje, as ações da empresa subiram 9,3% e alcançaram único patamar incrível para a marco. “A Nvidia domina o mercado de treinagem de IA, onde a demanda por GPUs de elevado desempenho é bem subida. Lá disso, a empresa está investindo em novas tecnologias, porquê a CPU Grace Hopper e as GPUs Blackwell, que devem aguentar sua liderança no mercado”, afirma Matheus Popst, comparte da Arbor Substancial.

Porquê Nvidia ganha quantia

Fundada há mais de 30 anos, a companhia do CEO Jensen Huang antecipou em algumas décadas o boom atual da tecnologia – quase sem desejar. Camareira em 1993, a Nvidia passou a desenvolver em 1999 chips de processamento de vídeo (ou GPUs) para computadores e videogames. Essa tecnologia tornou-se imprescindível para processar vídeos pesados na indústria de games (abastecendo consoles porquê Xbox e PlayStation) e essencial em supercomputadores – que podem ser usados em sistemas de nuvem ou de mineração de criptomoedas, duas áreas em que a Nvidia tornou-se a favorita há anos.

Continua após da publicidade

Para algum perceptibilidade sintético funcionar, é necessária uma dinheiro excessivo de dados. Estes, por sua turno, exigem uma infraestrutura de computadores de bico para processar informações. É aí que entram as GPUs: criados para aligeirar o processamento gráfico de feitio paralela às CPUs (unidades de processamento médio, que executam tarefas sequencialmente e com mais consumo de vontade), esses chips evoluíram para munir as máquinas por onde rodam as redes neurais que turbinam a IA.

Esse sistema ocorreu ao extenso dos anos, quando especialistas passaram a otimizar as GPUs para algoritmos de IA. Consideração-se que são necessárias somente duas GPUs para executar o mesmo labuta em IA de mais de 10 milénio CPUs.

Em 2012, por exemplo, a companhia foi indispensável para o adiantamento da IA. Com achego de GPUs da Nvidia, foi desenvolvida a AlexNet, rede de algoritmos de tirocínio intrínseco, considerada pedregulho indispensável da IA moderna. Desenvolvida por nomes bem conhecidos atualmente – Geoffrey Hinton, único dos “pais da IA moderna”, Ilya Sutskever, cofundador da OpenAI, e Alex Krizhevsky – a AlexNet estabeleceu padrões de algoritmos e de prática de hardware.

Continua após da publicidade

Em 2009, Hinton chegou a manifestar em uma entrevista que pesquisadores de IA deveriam adquirir GPUs da Nvidia, pois elas seriam o porvir da IA. A horoscópio se tornou verdade – em 2016, Huang admitiu que a guinada para o globo da IA aconteceu de processo acidental e inesperada.

Atualmente, a Nvidia vende a GPU H100, que fora garantir uma experimento visual sensacional para jogadores, foi otimizada para mourejar com volumes massivos de dados, o que a transformou em uma escolha mais eficaz para trenar modelos de IA. Cada uma delas custa desde US$ 20 milénio e empresas precisam de milhares de unidades. No alfa deste ano, Mark Zuckerberg anunciou a aquisição de 350 milénio GPUs H100 para desenvolver os modelos de IA da Intuito.

A H100 é quatro vezes mais rápida que sua antecessora, A100, no treinagem de grandes modelos de idioma (LLMs) e na resposta a comandos de usuários.

Continua após da publicidade

(com Estadão Teor)

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo