A corrida para construir a infraestrutura de inteligência artificial do mundo viu muitos recém-chegados surgirem em cena, na esperança de reduzir o domínio de mercado dos hiperescalas.
Para a Lambda Labs, o momento é menos sobre perseguir uma tendência e mais sobre garantir que ela possa acompanhar um boom previsto há mais de uma década.
A empresa foi criada em 2012 com o objetivo de reduzir os custos de execução de modelos de IA depois que seus fundadores lutaram com os custos da Amazon Web Services (AWS) em um empreendimento anterior. A Lambda começou vendendo estações de trabalho e servidores com GPU e logo lançou seu próprio serviço em nuvem.
A Lambda GPU Cloud agora opera em Data Centers de colocation em San Francisco, Califórnia, e Allen, Texas, e é apoiada por mais de 820 milhões de dólares (4,7 bilhões de reais) em fundos arrecadados apenas este ano. No momento em que vamos para a imprensa, outros 800 milhões (4,6 bilhões de reais) estão perto de chegar.
"Há 20 ou 25 anos, com o advento da Internet, o desenvolvedor de software como uma classe surgiu e agora existem milhões de desenvolvedores de software diferentes no mundo", explica Mitesh Agrawal, chefe de nuvem da Lambda, sobre a filosofia da empresa. "Haverá milhões de desenvolvedores de IA também e realmente queremos trabalhar em estreita colaboração com eles, queremos crescer com eles".
Para pegar o que pode vir a ser uma grande onda de IA, a Lambda está se concentrando nesses desenvolvedores desde o início. "Hoje, por exemplo, a Lambda tem em nossa nuvem sob demanda, onde você pode ir de inserir seu cartão de crédito para realmente executar um trabalho de sua biblioteca de transformadores GitHub ou HuggingFace em dois minutos", diz Agrawal.
"Se você for para a AWS, porque eles precisam pensar em muitos tipos de clientes, primeiro você precisa instalar o SageMaker, depois instalar seu ambiente e assim por diante”.
"O Lambda se concentra apenas em casos de uso de GPU para IA, inicialmente para treinamento e agora indo para inferência. Há algo a ser dito sobre uma pilha que permite que você gire seu aplicativo com muito mais facilidade".
Além da simplicidade e rapidez, outro fator que funciona a favor da empresa é o custo. A AWS, com enormes margens históricas a defender, pode cobrar mais de 12 dólares (69 reais) por uma GPU H100 sob demanda por hora. Atualmente, o Lambda cobra 2,49 dólares (14,3 reais) - embora uma comparação apenas de preço o deixe para trás do CoreWeave, que cobra 2,23 dólares (12,8 reais).
O desafio para a Lambda, e outros em sua situação, é menos atrair desenvolvedores com sua facilidade e preço. Trata-se de mantê-los se crescerem. O fornecedor de nuvem DigitalOcean se concentrou em desenvolvedores de software na era pré-IA, mas viu os clientes 'graduarem' para outros fornecedores de nuvem à medida que atingiam escala - deixando o crescimento do DO estagnado.
"Se você quiser falar sobre longevidade, como a Lambda estar por aí há 20, 30 anos como empresa, você precisa manter as startups que estão crescendo", diz Agrawal.
"Isso vem de mais recursos de software, além de ser agressivo nos preços. Não somos públicos - somos muito experientes financeiramente e queremos manter um nível de sustentabilidade [financeira] na empresa - mas não estamos sob pressão dos mercados financeiros ou públicos, onde eles precisam obter certas margens. O preço se torna um botão para nós”.
A empresa pode "nem estar lá em recursos para graduações", admite Agrawal. "Mas sacrificamos parte da margem de preços e, em seguida, escolhemos alguns de nossos principais chefes de família e nos concentramos nos recursos de que precisam para garantir que se formem com você", diz ele. "E então, uma vez que eles se formam com você, as pessoas veem isso, e outras empresas entram e fazem isso."
Esse é o plano, pelo menos. "No momento, a estratégia é a captura de mercado", explica Agrawal. "Implante o máximo de computação possível e, à medida que essas empresas crescem, garantimos que estamos mantendo contato e seguindo-as e garantindo que pelo menos algumas delas estejam se formando conosco".
Também espera coletar negócios mais estabelecidos ao longo do caminho e possui Sony, Samsung e Intuitive Surgical como clientes. "Nós realmente achamos que o mundo terá grandes empresas de IA, mas também haverá uma cauda grande, gorda e longa de empresas existentes que adotarão a IA", diz Agrawal.
Ele continua: "Há muita utilização de modelos e camadas mais antigos. As empresas de tecnologia são as primeiras a adotar, as empresas de serviços financeiros, as empresas farmacêuticas e a mídia e o entretenimento estão entrando nisso. Mas as seguradoras podem estar apenas começando. Há tantas camadas disso que você pode criar nichos aqui”.
A ambição, diz Agrawal, é "ser a nuvem número um para coisas como essa", e ele acredita que existem grandes empresas em cada um desses setores que podem estar ao alcance de sua empresa. "Você continua adicionando-os [ao seu serviço] à medida que cresce e, com sorte, chega a um certo nível de configuração do tipo 'grande demais para falir'", diz ele.
Para a Lambda, e todos os outros fornecedores de nuvem, a diferenciação além do preço e de alguns recursos de software tornou-se cada vez mais difícil em um mercado de hardware totalmente capturado pela Nvidia.
"Se você pensar sobre isso de uma visão de 40 pés, você está obtendo as mesmas GPUs Nvidia da AWS que CoreWeave, OCI e nós", diz ele. "Mas a AWS é um mercado de commodities, o mercado de CPU é uma commodity e você pode construir um negócio de ARR de 80 bilhões de dólares (461 bilhões de reais) com isso".
Para alguns, o principal diferencial é a escala. A Microsoft implantou exaflops de computação nos últimos dois anos, com uma grande parte dedicada ao seu filho favorito OpenAI. Agora, circulam rumores de um mega projeto de Data Center 'Stargate' de 100 bilhões de dólares (576 bilhões de reais) e 5 GW para o criador do ChatGPT.
"Eu sei que eles não comentaram sobre isso, mas vão fazer isso", diz Agrawal. "Ouvimos falar sobre isso antes que a mídia começasse a noticiar".
Isso levou a temores de que, à medida que os modelos crescem insondavelmente, apenas algumas empresas com recursos quase infinitos serão capazes de acompanhar.
Agrawal tem uma visão diferente. "Na verdade, é ótimo que alguma empresa gaste 100 bilhões de dólares em IA", diz ele. "Especialmente considerando que a IA [provavelmente] será ótima para a humanidade".
Para a Lambda, mais especificamente, Agrawal diz que o projeto potencial simplesmente prova o imenso valor de construir no espaço de IA. "É um ótimo indicador de mercado que uma das empresas mais inteligentes do planeta está disposta a investir 100 bilhões de dólares", diz ele.
"É claro que não podemos fazer 100 bilhões de dólares logo de cara hoje. Mas há um número que podemos fazer, e então temos a ambição de que algum dia, talvez cinco anos, talvez 50 anos, a Microsoft e o Lambda serão implantações de tamanho semelhante".
Assim como a Microsoft está se esforçando para financiar uma implantação tão grande, "a Lambda está implantando em grande escala, porque acreditamos que as execuções de treinamento ficarão maiores".
Enquanto a OpenAI e algumas das outras grandes equipes de IA se voltarão para esses supercomputadores, Agrawal acredita que há um mercado para outros que procuram sistemas menores. "E, uma vez que você implanta um modelo grande, isso não significa que você não pode dividi-lo em modelos menores", diz ele.
Por enquanto, apesar de algumas preocupações levantadas pelo Goldman Sachs e outros sobre os custos de longo prazo da IA, o mercado parece estar disposto a apoiar implementações de IA grandes e pequenas. A demanda é apenas pelo maior número possível de GPUs, o mais rápido possível.
Isso levou a uma alocação imperfeita de fundos de clientes para fornecedores de nuvem menores. "Se seus produtos em nuvem são ruins, mas o cliente esgotou todos os caminhos para encontrar um fornecedor - então, digamos que a Lambda não tenha capacidade agora - eles irão para uma nuvem horrível", diz Agrawal.
"Esse é o mercado em que estamos, a curva de demanda é maior que a oferta. Prevemos isso não apenas por seis meses, 18 meses, mas até onde podemos ver: três anos, quatro anos, cinco anos em termos de demanda de treinamento e inferência”.
Agrawal prevê um crescimento vertiginoso por algum tempo ainda, mesmo com a rede dos EUA lutando para acompanhar. "Olha, é fácil se deixar levar por tudo isso", diz ele. "Você ouve Elon [Musk] dizendo que o próximo modelo requer 100.000 GPUs, e você ouve sobre o [gerador de vídeo OpenAI] Sora e quantas horas de tempo de GPU ele usa".
Mas, ele argumenta, "quando você pensa sobre a demanda de computação e as quantidades insondáveis de GPUs e energia, acreditamos que ela vai explodir. Estamos muito confiantes sobre o espaço e sobre a extração de valor no espaço".
A empresa do Vale do Silício construiu seus negócios prevendo esse boom e acreditando que ele vai durar.
"Nós, como engenheiros de IA, acreditamos nisso. Estamos aqui para o longo prazo", diz Agrawal. "Queremos contribuir e causar impacto acelerando o progresso humano por meio da IA".