Referentgranskad version av Deepseek R1-artikeln i Nature. Svårt att tro att det bara har gått 9 månader sedan R1 - känns som en livstid sedan! "Artikeln är en uppdatering av ett preprint som släpptes i januari, som beskriver hur DeepSeek förbättrade en standard large language model (LLM) för att ta itu med resonemangsuppgifter. Dess kompletterande material avslöjar för första gången hur mycket R1 kostade att träna: motsvarande bara 294 000 USD. Detta kommer utöver de cirka 6 miljoner dollar som företaget, baserat i Hangzhou, spenderade för att göra basen LLM som R1 är byggd på, men det totala beloppet är fortfarande betydligt mindre än de tiotals miljoner dollar som rivaliserande modeller tros ha kostat.