Apesar de valer pouco mais de três trilhões de dólares (18,3 trilhões de reais), a Nvidia está nervosa.
Uma das empresas mais valiosas do mundo, a rápida ascensão da fabricante de GPUs nos últimos dois anos foi construída sobre bases sólidas: embora seus chips estejam no centro da revolução da IA, os hiperescalas nos quais a Nvidia confia como seus clientes mais importantes também são seus maiores rivais.
A Amazon Web Services, Microsoft e Google estão desenvolvendo seus próprios chips de IA enquanto procuram economizar custos e encontrar uma vantagem única.
Ao mesmo tempo, essas mesmas empresas de nuvem devem ganhar mais dinheiro com as GPUs que a Nvidia vende para elas, alugando-as para clientes finais - o designer de chips afirmou que, para cada dólar que um fornecedor de nuvem gasta na compra de uma GPU, eles ganham cinco em quatro anos.
A Nvidia poderia, teoricamente, cortar o intermediário e simplesmente oferecer GPUs em seu próprio serviço de nuvem, arrecadando todos os lucros. Mas, preocupações regulatórias à parte, isso arriscaria alienar completamente seus maiores clientes e custaria dezenas de bilhões para ser configurado.
Em vez disso, a empresa está tentando criar uma terceira opção: uma nuvem dentro de uma nuvem.
No ano passado, a Nvidia anunciou o 'DGX Cloud', um serviço oferecido em cima das plataformas de nuvem de outras empresas. Os fornecedores de nuvem alugam os servidores da Nvidia e os implementam como uma nuvem que a Nvidia pode comercializar e vender para empresas que procuram grandes supercomputadores de GPU.
O Google, Microsoft e Oracle concordaram com a proposta desde o início, mas a AWS resistiu até dezembro, quando finalmente cedeu. Os hiperescalas ficaram de boca fechada sobre o arranjo exato e nenhum promove o serviço em seus próprios sites.
Em vez disso, a DGX Cloud pode ser vista como a Nvidia usando a demanda desesperada por suas GPUs como uma forma de conquistar um espaço para si mesma na nuvem, alavancando sua posição de mercado para obter parte da receita de serviços e desenvolver relacionamentos diretos com os usuários finais.
"Eu não o caracterizaria como um Cavalo de Tróia", disse a chefe da DGX Cloud e ex-vice-presidenta de infraestrutura da Meta, Alexis Bjorlin, à DCD no evento GTC de março da Nvidia.
"Essa é uma parceria profunda", diz ela repetidamente ao longo da entrevista. "O que estamos fazendo é trabalhar profundamente com os fornecedores de serviços em nuvem [CSPs]".
Em seu relatório de ganhos de maio de 2024, a Nvidia disse que se comprometeu a gastar pelo menos 9 bilhões de dólares (55 bilhões de reais) em serviços de computação em nuvem nos próximos anos - acima do compromisso de 4,5 bilhões (27,5 bilhões de reais) em janeiro. Esse número inclui a DGX Cloud, sugerindo uma rápida expansão do esforço.
"A DGX Cloud é uma oportunidade para permitirmos o acesso à tecnologia mais recente da Nvidia em todos os CSPs", diz Bjorlin. "Quando você se afasta de tudo e pensa na experiência do usuário final, trata-se de uma capacidade de pilha completa".
Em vez de ser a tentativa da Nvidia de construir um negócio em nuvem, Bjorlin diz que o objetivo do DGX Cloud era fornecer "a experiência de ponta a ponta. Temos uma plataforma completa como uma pilha de software de serviço, oferecemos um serviço de fundição de IA".
Ela acrescenta: "Muitos de nossos clientes querem gastar seu software e sua experiência em IA/ML desenvolvendo aplicativos, não necessariamente gerenciando a infraestrutura subjacente - que você pode pensar que é um elemento do fornecedor de serviços em nuvem - mas na verdade é a pilha de infraestrutura de IA. Acho que é aí que a DGX Cloud oferece algo que é exclusivamente diferenciado, estamos atendendo os clientes onde quer que eles estejam em sua jornada".
Os clientes "terão acesso a todos os especialistas internos da Nvidia que temos em otimização de modelos, otimização de tempo de execução ou qualquer outra coisa", diz ela. "Acho que as pessoas estão procurando algo que seja um pouco mais fácil de consumir para que possam se concentrar na criação de seus próprios aplicativos geradores de receita, em vez de um centro de custo".
Esses clientes vêm para a Nvidia e pagam preços definidos pela empresa, apesar do hardware subjacente operar nos Data Centers CSP.
O CSP ainda é importante, pois o cliente geralmente usa um deles para serviços não DGX. "Normalmente, os clientes vêm muito opinativos", diz Bjorlin. "Eles têm seus dados em algum lugar, a gravidade dos dados é um aspecto significativo aqui. Sim, as taxas de saída estão diminuindo ou diminuindo”.
Bjorlin é um tanto contraditória sobre quanta contribuição a Nvidia tem para recomendar qual CSP os clientes devem usar: "Não estamos fazendo a recomendação de qual nuvem usar, mas podemos compartilhar onde achamos que o desempenho será maximizado", diz ela”.
A empresa trabalha com cada CSP para construir sua versão do DGX Cloud, às vezes com recursos exclusivos.
"Com a AWS, anunciamos que trabalharíamos com o EFA [rede] e o sistema Nitro", diz Bjorlin. A empresa planeja implantar 16.384 GPUs para DGX Cloud - juntamente com milhares de outras diretamente por meio da AWS.
"Com a OCI [nuvem da Oracle], nessa instância do DGX Cloud na Blackwell, será com o InfiniBand - o que é um afastamento do que eles fizeram no passado", continuou Bjorlin. "Então isso foi resultado de nossa engenharia conjunta para o que seria a experiência e a capacidade ideais para esta geração”.
"Estamos construindo a capacidade de integração profunda nos CSPs, sejam seus serviços ou sua infraestrutura real, para que possamos otimizar a solução em todos os aspectos".
Bjorlin afirma que tais escolhas são "sua decisão; nada é obrigatório. Estamos dispostos a trabalhar com os CSPs sobre qual é a plataforma deles e otimizá-la. Eles estão fazendo suas próprias escolhas sobre como lidar com a experiência do usuário final".
No ano passado, o The Information informou que a Nvidia havia falado com pelo menos um Data Center sobre o aluguel de seu próprio espaço para executar o DGX Cloud, mas Bjorlin se recusou a comentar, dizendo que a empresa estava focada em trabalhar com os CSPs em uma "parceria profunda".
"Somos uma plataforma que está no topo de todas as nuvens; o que também estamos oferecendo é experiência e utilização, entendendo a carga de trabalho do cliente, seu fluxo de trabalho de ponta a ponta e fazendo as recomendações", diz ela.
Isso é necessário para o desenvolvimento futuro da IA, argumenta ela. "Um modelo pode mudar. Quando você muda para uma mistura de especialistas, isso coloca diferentes tensões na rede, muda o desempenho das cargas de trabalho”.
"O DGX Cloud está realmente abrangendo o conjunto mais amplo de onde a IA evoluirá, para garantir que estamos projetando para isso, de modo que, em última análise, as GPUs da Nvidia sejam o ponto de pouso definitivo para qualquer uma dessas cargas de trabalho de IA".