Versiunea revizuită de colegi a lucrării Deepseek R1 din Nature. Greu de crezut că au trecut doar 9 luni de la R1 - pare că a trecut o viață! "Lucrarea actualizează un preprint lansat în ianuarie, care descrie modul în care DeepSeek a augmentat un model standard de limbaj mare (LLM) pentru a aborda sarcinile de raționament. Materialul său suplimentar dezvăluie pentru prima dată cât costă R1 pentru antrenament: echivalentul a doar 294.000 de dolari. Acest lucru se adaugă celor aproximativ 6 milioane de dolari pe care compania, cu sediul în Hangzhou, le-a cheltuit pentru a face LLM-ul de bază pe care este construit R1, dar suma totală este încă substanțial mai mică decât zecile de milioane de dolari pe care se crede că le-au costat modelele rivale."