Notícias

Dono do ChatGPT se manifesta sobre o DeepSeek e admite: “É realmente impressionante”

Share

O CEO da OpenAI (responsável pelo ChatGPT) chamou o modelo de inteligência artificial da chinesa DeepSeek de impressionante. "Principalmente pelo preço que eles conseguem oferecer e pelo desenvolvimento ter ocorrido com recursos limitados. Obviamente, entregaremos no futuro modelos muito melhores"

Sam Altman, dono do ChatGPT (Photo by Mike Coppola/Getty Images)

O CEO da OpenAI, Sam Altman, chamou o modelo de inteligência artificial da chinesa DeepSeek de “impressionante” e avaliou como “revigorante” ter um novo concorrente no mercado. A empresa é responsável pelo ChatGPT.

Ele também prometeu que sua empresa irá fazer novos lançamentos em breve. “É um modelo realmente impressionante, principalmente pelo que eles conseguem oferecer pelo preço”, escreveu Altman em seu perfil no X, em referência ao lançamento da DeepSeek. “Obviamente entregaremos modelos muito melhores e também é realmente revigorante ter um novo concorrente! Faremos alguns lançamentos”, acrescentou.

POR QUE O DEEPSEEK É TÃO IMPRESSIONANTE?

No último domingo, 21, pesquisadores da China lançaram o Deep Seek R1, um modelo de inteligência artificial que já está sendo comparado ao GPT-4, o mais recente da OpenAI. O sistema chamou atenção porque atingiu resultados impressionantes, como 90% de acerto em raciocínio matemático, tarefas de codificação e até resolução de problemas científicos. Além disso, ele foi desenvolvido com algumas ideias bem criativas, como “pensar em voz alta” e “ensinar” versões menores e mais simples de si mesmo.

Mas o que faz do Deep Seek R1 tão especial? O time por trás do projeto destacou três grandes estratégias: o uso de uma técnica chamada Chain of Thought (ou Cadeia de Pensamento), aprendizado por reforço, que permite ao modelo se corrigir sozinho, e a destilação de modelos, que cria versões menores e mais baratas para rodar em computadores comuns.

Imagine que, em vez de só responder diretamente uma pergunta, a IA explica como chegou à resposta, etapa por etapa, como se estivesse “pensando em voz alta”. Isso é o que faz a Cadeia de Pensamento, uma técnica que ajuda tanto o modelo a raciocinar melhor quanto os pesquisadores a identificar onde ele pode estar errando.

Por exemplo, em um problema de matemática, o Deep Seek R1 não entrega apenas o resultado final, mas descreve todo o cálculo que levou até a solução. Isso é útil porque, se houver um erro, ele estará visível no processo, e o modelo pode aprender a corrigi-lo.

Além disso, o Deep Seek R1 consegue “avaliar” suas próprias respostas. Se algo não parece certo, o modelo se dá uma segunda chance de reavaliar e ajustar os passos. Essa abordagem aumentou a precisão em testes complexos: ele atingiu mais de 85% de acerto em tarefas que envolvem lógica e resolução de problemas, superando até mesmo sistemas como o GPT-4 em algumas categorias.

Aprendizado por reforço

Outro diferencial do Deep Seek R1 é o uso do aprendizado por reforço. Essa técnica funciona como o aprendizado de um bebê: ao tentar andar, ele cai várias vezes, mas, a cada tentativa, ajusta seus movimentos até conseguir ficar de pé. O mesmo acontece com essa IA: em vez de receber diretamente a resposta certa, ela experimenta diferentes possibilidades e ajusta suas respostas para se aproximar do melhor resultado possível.

Os pesquisadores compararam essa abordagem ao método usado pela Tesla em seus carros autônomos, que aprendem a dirigir sozinhos ao explorar o ambiente. No caso do Deep Seek R1, os resultados mostram que o modelo, com o tempo, supera IAs que não aprendem dessa forma.

Enquanto o GPT-4 mantém uma taxa de acerto estática em torno de 80%, o Deep Seek R1 conseguiu ultrapassar os 90% de precisão em testes contínuos, com potencial para melhorar ainda mais.

Para garantir que o modelo não “aprenda errado”, os pesquisadores implementaram limites no quanto ele pode mudar de uma tentativa para outra, evitando instabilidades — algo comum em sistemas que aprendem por tentativa e erro.

IA mais acessível: como o Deep Seek R1 ensina “versões menores”

Um dos maiores problemas de IAs avançadas, como o GPT-4 e o Deep Seek R1, é que elas são gigantes e caras de rodar. Com 671 bilhões de parâmetros, o Deep Seek R1 precisa de milhares de placas de vídeo poderosas e servidores caros para funcionar. Mas, para tornar o modelo mais acessível, os pesquisadores usaram uma técnica chamada destilação.

Na prática, o Deep Seek R1 funciona como um professor: ele cria exemplos e “ensina” versões menores a realizar tarefas de maneira semelhante. Um bom exemplo disso foi o uso da Cadeia de Pensamento para treinar um modelo menor, chamado LLaMA 3, da Meta, que tem apenas 7 bilhões de parâmetros. Mesmo sendo menor, esse modelo conseguiu manter um desempenho quase idêntico ao original em tarefas específicas, como resolução de problemas matemáticos.

Curiosamente, as versões menores — treinadas com essa técnica de destilação — apresentaram até melhores resultados que o próprio modelo maior em algumas áreas, como codificação e raciocínio científico. Isso foi possível porque a destilação permite às IAs menores focar em habilidades específicas, deixando de lado tarefas mais amplas.

Essa inovação torna a inteligência artificial mais acessível para empresas, startups e até pesquisadores com menos recursos financeiros, já que é possível rodar essas versões compactas em computadores mais simples.