Peer-reviewed versie van het Deepseek R1-paper in Nature. Moelijk te geloven dat het pas 9 maanden geleden is sinds R1 - het lijkt wel een leven geleden! "Het paper update een preprint die in januari is uitgebracht, waarin wordt beschreven hoe DeepSeek een standaard groot taalmodel (LLM) heeft uitgebreid om redeneertaken aan te pakken. Het aanvullende materiaal onthult voor het eerst hoeveel R1 heeft gekost om te trainen: het equivalent van slechts US$294.000. Dit komt bovenop de ongeveer $6 miljoen die het bedrijf, gevestigd in Hangzhou, heeft uitgegeven om het basis-LLM waarop R1 is gebouwd, te maken, maar het totale bedrag is nog steeds aanzienlijk minder dan de tientallen miljoenen dollars waarvan wordt gedacht dat rivaliserende modellen hebben gekost."