Versión revisada por pares del artículo de Deepseek R1 en Nature. Es difícil creer que solo hayan pasado 9 meses desde R1, ¡parece que fue hace toda una vida! "El documento actualiza una preimpresión publicada en enero, que describe cómo DeepSeek aumentó un modelo de lenguaje grande estándar (LLM) para abordar tareas de razonamiento. Su material complementario revela por primera vez cuánto costó entrenar a R1: el equivalente a solo US$294.000. Esto se suma a los 6 millones de dólares que la compañía, con sede en Hangzhou, gastó para hacer el LLM base sobre el que se construye R1, pero la cantidad total sigue siendo sustancialmente menor que las decenas de millones de dólares que se cree que cuestan los modelos rivales".