Um novo modelo de IA chinês, DeepSeek-R1-0528, chega em código aberto com desempenhos que rivalizam com os dos gigantes pagos. Isso promete apimentar a corrida pela inteligência artificial!
Você achava que o mundo da inteligência artificial se resumia a um duelo entre os titãs americanos como OpenAI e Google? Segure-se, porque um concorrente vindo da China pode mudar o jogo. DeepSeek, uma startup originária da empresa de análise quantitativa High-Flyer Capital Management, acaba de lançar o DeepSeek-R1-0528, uma atualização importante de seu modelo de IA. E o diferencial dessa IA é que ela é open source: ou seja, seu código está acessível a todos, gratuitamente.
29/05/2025 17:05 JérômeLembram-se do início de 2025, quando o DeepSeek já tinha causado rebuliço com a primeira versão do seu modelo R1, especializado em raciocínio? Pois bem, a "baleia" – que é meio que o mascote deles – está de volta com uma versão turbinada. O objetivo declarado? Oferecer capacidades de raciocínio complexo em matemática, ciências, negócios e programação que se aproximam do que modelos pagos como o o3 da OpenAI ou o Gemini 2.5 Pro da Google oferecem.
Mas, concretamente, o que é raciocínio para uma IA? Imagine uma IA que não se limita a repetir informações garimpadas na web, mas que consegue "pensar" sobre um problema complexo, quase como um humano (ou quase!). É essa capacidade de analisar, deduzir e resolver tarefas difíceis que o DeepSeek quis aprimorar.
OpenAI Codex: A IA que programa por você, entre golpe de gênio e um verdadeiro quebra-cabeça
Um dos aspectos mais empolgantes do DeepSeek-R1-0528 é sua natureza open source. É como se um chef renomado decidisse compartilhar a receita do seu prato mais famoso com o mundo todo. O modelo está disponível sob a licença MIT, um tipo de contrato que permite uso comercial e que desenvolvedores o adaptem às suas necessidades. Os "pesos" do modelo – ou seja, os parâmetros que constituem sua inteligência – estão acessíveis na comunidade de compartilhamento de código IA Hugging Face. Essa abertura é uma dádiva para pesquisadores e empresas que querem explorar as fronteiras da IA sem precisar desembolsar fortunas para os gigantes do setor.
As melhorias do DeepSeek-R1-0528 não são só teóricas. Segundo informações publicadas pelo DeepSeek em sua "model card" (uma espécie de carteira de identidade do modelo) no HuggingFace, o desempenho está à altura. Por exemplo, no teste AIME 2025, uma competição de matemática, a precisão do modelo saltou de 70% para 87,5%. Para isso, a IA "pensa" mais intensamente: usa em média 23 mil "tokens" (pequenos pedaços de palavras ou código) por pergunta, contra 12 mil antes. No quesito código, no benchmark LiveCodeBench, a precisão subiu de 63,5% para 73,3%. Números que começam a fazer sombra às soluções proprietárias.
Além do desempenho bruto, o DeepSeek mimou os desenvolvedores. O modelo agora suporta saída em formato JSON (um formato de dados muito usado em programação) e chamada de funções, o que simplifica sua integração em aplicações existentes. Também acabou a necessidade de um "token" especial para ativar o modo "reflexão": uma pequena revolução para quem implanta o modelo. E, como cereja do bolo, a taxa de "alucinação" – quando a IA inventa informações – teria sido reduzida, tornando as respostas mais confiáveis.
Um desenvolvedor chamado Haider, conhecido no X (antigo Twitter) como "@slow_developer", compartilhou seu entusiasmo, dizendo que o DeepSeek-R1-0528 é "simplesmente incrível em codificação". Ele contou como a IA gerou código limpo e testes funcionais para um desafio de sistema de pontuação de palavras, tudo funcionando perfeitamente de primeira. Um feito que, segundo ele, só o o3 da OpenAI tinha conseguido igualar antes.
O iPhone de 2027: A Maçã está preparando sua revolução entre vidro total e tela dobrável?
Ciente de que nem todo mundo tem servidores superpoderosos, o DeepSeek também pensou numa versão leve: o DeepSeek-R1-0528-Qwen3-8B. É o que se chama de modelo "destilado": uma versão mais compacta, mas que mantém o essencial da inteligência do irmão maior. Tipo um café expresso concentrado comparado a um café coado grande. Esse modelo de 8 bilhões de parâmetros (contra centenas nos maiores) teria resultados de ponta entre os modelos open source em tarefas como o AIME 2024.
Segundo o site Modal, rodar esse modelo em "meia precisão" (FP16), uma técnica para reduzir seu apetite por memória, requer cerca de 16 GB de memória GPU. Isso significa que uma boa placa de vídeo de gamer, como uma NVIDIA RTX 3090 ou 4090, basta. Para versões ainda mais compactadas ("quantizadas"), placas com 8 a 12 GB de VRAM, como a RTX 3060, podem servir. Uma forma de democratizar o acesso a uma IA de ponta para pesquisa acadêmica ou aplicações industriais em pequena escala.
Sabia?
A "reflexão" de uma IA também se mede em "tokens"! Para cada questão complexa do teste AIME 2025, o DeepSeek-R1-0528 processa em média 23 mil dessas unidades de texto, quase o dobro da versão anterior. Uma verdadeira tagarela digital a serviço da lógica!
Google Gemini 2.5: Mergulho no coração da IA que quer pensar (muito) além
A chegada do DeepSeek-R1-0528 é mais que uma simples atualização técnica. É um sinal forte: a inovação em IA não se restringe a alguns atores bilionários. Ao investir em open source e desempenho de alto nível, o DeepSeek se posiciona como um concorrente sério e acessível. As reações nas redes sociais não enganam: alguns comentaristas acham que o DeepSeek "está de olho no rei" e que essa versão se aproxima perigosamente do desempenho do o3 e do Gemini 2.5 Pro. Há até quem especule que essa atualização pode anunciar a chegada em breve de um modelo "R2", ainda mais poderoso.
O DeepSeek-R1-0528 ilustra uma tendência fascinante: a ascensão de modelos de IA open source capazes de rivalizar com soluções fechadas e pagas. É uma ótima notícia para inovação, pesquisa e criação de novas aplicações, tornando essas tecnologias de ponta mais acessíveis.
Então, a próxima revolução da IA virá de uma garagem ou laboratório aberto, em vez de uma torre de vidro? O futuro dirá, mas uma coisa é certa: o jogo está longe de acabar, e isso é ótimo para nós!
Jerome
Especialista em desenvolvimento web, SEO e inteligência artificial, a minha experiência prática na criação de sistemas automatizados remonta a 2009. Hoje em dia, além de redigir artigos para decifrar a atualidade e os desafios da IA, desenho soluções à medida e intervenho como consultor e formador para uma IA ética, eficiente e responsável.