Versione sottoposta a revisione paritaria del documento Deepseek R1 su Nature. Difficile credere che siano passati solo 9 mesi da R1 - sembra un'eternità fa! "Il documento aggiorna un preprint rilasciato a gennaio, che descrive come DeepSeek abbia aumentato un modello di linguaggio di grandi dimensioni (LLM) standard per affrontare compiti di ragionamento. Il materiale supplementare rivela per la prima volta quanto è costato addestrare R1: l'equivalente di soli 294.000 dollari USA. Questo si aggiunge ai circa 6 milioni di dollari che l'azienda, con sede a Hangzhou, ha speso per creare il LLM di base su cui è costruito R1, ma l'importo totale è comunque sostanzialmente inferiore alle decine di milioni di dollari che si pensa siano costati i modelli concorrenti."