Natureに掲載されたDeepseek R1論文の査読付き版。 R1からわずか9か月しか経っていないとは信じがたいです - まるで一生前のことのように思えます! 「この論文は、1月にリリースされたプレプリントを更新しています。DeepSeekが推論タスクに取り組むために標準の大規模言語モデル(LLM)をどのように拡張したかが説明されています。その補足資料は、R1のトレーニングにどれくらいの費用がかかるかを初めて明らかにしました:わずか294,000米ドルに相当します。これは、杭州に本拠を置く同社がR1の基盤となるベースLLMの作成に費やした約600万ドルに上乗せされるものですが、総額は依然としてライバルモデルのコストがかかると考えられている数千万ドルよりも大幅に少ないです。」