Versão revisada por pares do artigo Deepseek R1 na Nature. Difícil de acreditar que já se passaram apenas 9 meses desde o R1 - parece que foi há uma eternidade! "O artigo atualiza um preprint lançado em janeiro, que descreve como o DeepSeek aumentou um modelo de linguagem grande (LLM) padrão para enfrentar tarefas de raciocínio. Seu material suplementar revela pela primeira vez quanto custou treinar o R1: o equivalente a apenas US$294.000. Isso vem além dos cerca de $6 milhões que a empresa, com sede em Hangzhou, gastou para criar o LLM base sobre o qual o R1 foi construído, mas o valor total ainda é substancialmente menor do que as dezenas de milhões de dólares que se pensa que modelos rivais tenham custado."