A chinesa DeepSeek apresentou os modelos DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, que chegam ao mercado como alternativas de alto desempenho face aos sistemas da OpenAI e da Google. A empresa afirma que o V3.2 iguala o GPT-5 em testes de raciocínio, enquanto a versão Speciale atinge níveis semelhantes ao Gemini-3 Pro e se destaca em competições internacionais de matemática e informática.
Os novos modelos, disponibilizados em formato open-source, reforçam a estratégia da DeepSeek de competir diretamente com os gigantes da IA.
Uma das inovações mais relevantes é a capacidade de integrar raciocínio interno na utilização de ferramentas, permitindo que o sistema pense enquanto pesquisa na internet, faz cálculos ou escreve código. O modelo pode funcionar com raciocínio visível para o utilizador ou totalmente oculto, mantendo a cadeia de pensamento ativa entre chamadas a ferramentas.
A DeepSeek atribui este avanço à arquitetura DeepSeek Sparse Attention (DSA), que reduz significativamente os custos de processamento em contextos longos. Embora o modelo tenha 671 mil milhões de parâmetros, apenas 37 mil milhões são ativados por token, permitindo cortes de cerca de 50% nos custos de inferência e janelas de contexto que chegam aos 128 mil tokens.
O desenvolvimento contou ainda com uma fase intensiva de treino por reforço, que representou mais de 10% do pré-treino total e envolveu a criação de milhares de tarefas e ambientes sintéticos para melhorar o desempenho como agente autónomo.