DeepSeek, o chatbot de baixo custo que abalou Wall Street
“Essa companhia monumental é uma declaração contundente de confiança no potencial dos Estados Unidos sob um novo presidente”, declarou Donald Trump no Salão Roosevelt, em frente ao Salão Oval, na última terça-feira, 21, um dia após assumir a Casa Branca. O evento marcou o lançamento do projeto Stargate, uma joint venture de US$ 100 bilhões destinada a colocar os Estados Unidos na vanguarda da inteligência artificial (IA). “A Stargate construirá a infraestrutura física e virtual para alimentar a próxima geração de avanços em IA, e isso incluirá a construção de data centers colossais, estruturas muito, muito massivas”, declarou. Ao lado de Sam Altman, CEO da OpenAI, Larry Ellison, presidente da Oracle, e Masayoshi Son, CEO do SoftBank, Trump prometeu que o investimento inicial se expandiria para US$ 500 bilhões em quatro anos, iniciando uma nova era na corrida tecnológica global, com o claro objetivo de deixar a China a léguas de distância. Ali, o presidente fechou um acordo com os Estados Unidos, promovendo a empreitada como garantia do “futuro da tecnologia” na nação.
O impacto no mercado foi imediato: os papéis das grandes empresas de tecnologia dispararam. No dia seguinte, a Microsoft viu suas ações subirem mais de 4%, enquanto a Arm registrou um salto de quase 16%. As da Oracle aumentaram quase 7%, e a SoftBank subiu 11%. A Nvidia retomou o posto de maior empresa do mundo, à frente da Apple, após um ganho superior a 4%, atingindo um valor de mercado de US$ 3,6 trilhões. Mas a euforia durou pouco, nem uma semana. E, talvez, os planos de Trump envolvendo estruturas “muito, muito massivas” nem sejam tão essenciais assim. A verdade é que o desenvolvimento de IA pode ser bem mais simples do que se imagina.
O Vale do Silício foi sacudido nesta segunda-feira, 27. Wall Street atravessou um de seus dias mais turbulentos e incertos. As previsões para o setor de inteligência artificial desmoronaram, e players viram seus papéis derreterem. A Nvidia foi empurrada do pedestal: suas ações tombaram 17%, resultando em uma perda de US$ 589 bilhões em valor de mercado – a maior queda diária já registrada na história do mercado financeiro americano. O grupo das “Sete Magníficas” (Apple, Amazon, Alphabet, Meta, Microsoft, Nvidia e Tesla) sangrou uma perda de US$ 643 bilhões. O responsável por essa reviravolta? Um chatbot de baixo custo lançado por uma startup chinesa que tem apenas um ano de existência. A ferramenta recém-lançada desafia a lógica de que IA avançada depende de infraestrutura pesada. Com menos processadores, chips e data centers, a empresa destrava a possibilidade de operar com custos infinitamente menores — colocando em xeque as projeções de governos, empresários e analistas. Entenda o imbróglio:
O que aconteceu?
A ferramenta que sacudiu o mercado global de tecnologia é a DeepSeek, um chatbot de IA generativa criado pela startup chinesa homônima. Em um ano na ativa, a empresa testou uma série de modelos competitivos de IA. O mais recente deles, o R1, foi anunciado no final do ano passado, mas o assistente de IA, que incorpora esse modelo, foi lançado oficialmente na última semana. E o verdadeiro boom aconteceu nesta segunda-feira. O DeepSeek ultrapassou o ChatGPT, seu concorrente consolidado, e se tornou o aplicativo gratuito mais baixado do mundo. E por que o bafafá? É que, praticamente em sua estreia, o modelo passou a ser visto como uma alternativa mais barata e eficiente. Segundo a empresa, o custo de treinamento do DeepSeek-R1 foi de aproximadamente US$ 6 milhões – um décimo do que a Meta investiu no desenvolvimento do Llama 3.1, por exemplo. Além disso, a startup informou que seu chatbot apresentou um desempenho superior ao GPT-4o, da OpenAI, em 20 das 22 métricas analisadas.
Enquanto os Estados Unidos seguem investindo pesado para manter sua liderança no desenvolvimento de inteligência artificial, a China desferiu um golpe, surpreendendo ao criar uma tecnologia de ponta com custos significativamente mais baixos e uma abordagem mais simplificada. Especialistas apontam que essa evolução é, em grande parte, uma resposta às restrições dos EUA sobre a importação de chips americanos, o que forçou empresas chinesas a intensificarem suas pesquisas em semicondutores próprios. Como resultado, desenvolveram soluções que dispensam componentes caros e tecnologias estrangeiras. Esse movimento abriu espaço para alternativas mais competitivas, desafiando o domínio das grandes empresas americanas. Em um evento do Partido Republicano em Miami, na Flórida, Donald Trump expressou grande preocupação, afirmando que “o lançamento do DeepSeek, a inteligência artificial de uma empresa chinesa, deveria ser um alerta para nossas indústrias de que precisamos focar em competir para vencer”.
Por trás da ferramenta
Liang Wenfeng deu início a um novo capítulo na corrida global pela IA. Bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang, o empresário de 40 anos é cofundador do fundo High-Flyer, especializado na aplicação de técnicas matemáticas e estatísticas, aliadas a algoritmos inteligentes, para a análise de processos financeiros. Com um investimento inicial de cerca de US$ 1,4 milhão, a DeepSeek foi criada em 2023 como um braço de pesquisa da High-Flyer, com foco em desenvolvimento de inteligência artificial de próxima geração. Sim, o objetivo da empresa é pesquisa. Não o lucro imediato.
“Acreditamos que a coisa mais importante agora é participar da inovação global. Durante anos, as empresas chinesas se acostumaram a alavancar inovações tecnológicas desenvolvidas em outros lugares e monetizá-las por meio de aplicativos. Mas isso não é sustentável. Desta vez, nosso objetivo não é lucros rápidos, mas avançar a fronteira tecnológica para impulsionar o crescimento do ecossistema”, analisou em entrevista no ano passado. E as inovações foram, de fato, alavancadas. O recém-lançado R1 é um modelo de linguagem em grande escala que conta com mais de 670 bilhões de parâmetros, projetado a partir de 2.048 chips H800 da Nvidia.
Com a técnica de aprendizado por reforço (RL), o sistema aprende automaticamente com os dados e a própria experiência, sem depender de supervisão humana. Para aumentar ainda mais sua eficiência, a DeepSeek adotou a arquitetura Mixture-of-Experts (MoE), que, em vez de utilizar todos os parâmetros do modelo em cada tarefa, ativa só os necessários de acordo com a demanda. Isso torna o R1 mais ágil e reduz o consumo de energia computacional, executando as operações de forma mais leve e rápida. É como se o modelo fosse uma grande equipe de especialistas e, ao invés de todos trabalharem sem parar, apenas os mais relevantes para o trabalho em questão são chamados, economizando tempo e energia. Outra técnica utilizada pelo R1 é a Multi-Head Latent Attention (MLA), que permite ao modelo identificar padrões complexos em grandes volumes de dados. A MLA analisa diferentes partes dos dados simultaneamente, sob várias “perspectivas”, o que possibilita ao R1 processar informações de maneira mais precisa. Imagine um grupo de pessoas olhando para o mesmo problema de diferentes ângulos, sempre buscando a melhor solução — de novo e de novo e de novo, a cada novo desafio. É assim que a MLA funciona.
E para além de seu baixo custo de treinamento, um dos maiores atrativos do modelo está na barateza da operação. Grandes empresas de tecnologia costumam cobrar valores altos para acessar suas APIs (Interfaces de Programação de Aplicações) — que são ferramentas que permitem que outras empresas usem seus modelos de inteligência artificial em seus próprios aplicativos. A DeepSeek, por outro lado, adota uma abordagem bem mais acessível. De acordo com a empresa, a API do R1 custa entre 20 e 50 vezes menos do que a da OpenAI. O preço de uma API é calculado com base na quantidade de dados processados pelo modelo, medido em “tokens”. No caso da DeepSeek, a API cobra US$ 0,88 por milhão de tokens de entrada e US$ 3,49 por milhão de tokens de saída. Em comparação, a OpenAI cobra US$ 23,92 e US$ 95,70, respectivamente. Ou seja, empresas que optarem pela tecnologia da chinesa podem economizar substancialmente ao integrar o modelo R1 em suas plataformas.
“Capturar usuários não era nosso objetivo principal. Reduzimos os preços porque, primeiro, ao explorar estruturas de modelos de próxima geração, nossos custos diminuíram; segundo, acreditamos que os serviços de IA e API devem ser acessíveis e baratos para todos”, destacou Wenfeng. Buscando expandir ainda mais o acesso e o desenvolvimento da IA, a startup adotou um modelo de código aberto, permitindo que pesquisadores possam acessá-lo, estudá-lo e utilizá-lo em diversos projetos. Em contraste, e para fins de comparação, tanto o ChatGPT quanto o Llama seguem com modelos fechados.
Como acessar?
Deixando o vocabulário técnico de lado, na prática, o chatbot funciona de forma bem parecida com outros assistentes, como o ChatGPT, Meta IA ou Gemini. Ele bate um papo, responde perguntas, resume textos, resolve problemas de matemática, revisa códigos e até reescreve textos. Para usá-lo no computador, basta clicar aqui. Também está disponível para download nas lojas de aplicativos da Apple e Google.