Fagfellevurdert versjon av Deepseek R1-artikkelen i Nature. Vanskelig å tro at det bare har gått 9 måneder siden R1 - virker som en mannsalder siden! "Papiret oppdaterer en preprint utgitt i januar, som beskriver hvordan DeepSeek utvidet en standard stor språkmodell (LLM) for å takle resonneringsoppgaver. Tilleggsmaterialet avslører for første gang hvor mye R1 kostet å trene: tilsvarende bare 294 000 dollar. Dette kommer på toppen av de 6 millioner dollar eller så som selskapet, basert i Hangzhou, brukte for å lage basis-LLM som R1 er bygget på, men det totale beløpet er fortsatt betydelig mindre enn de titalls millioner dollar som rivaliserende modeller antas å ha kostet.»