Version évaluée par des pairs du papier Deepseek R1 dans Nature. Difficile de croire que cela ne fait que 9 mois depuis R1 - on dirait une éternité ! "Le papier met à jour un préprint publié en janvier, qui décrit comment DeepSeek a augmenté un modèle de langage large standard (LLM) pour s'attaquer aux tâches de raisonnement. Son matériel complémentaire révèle pour la première fois combien R1 a coûté à entraîner : l'équivalent de seulement 294 000 $. Cela s'ajoute aux 6 millions de dollars environ que l'entreprise, basée à Hangzhou, a dépensés pour créer le LLM de base sur lequel R1 est construit, mais le montant total reste encore considérablement inférieur aux dizaines de millions de dollars que l'on pense avoir coûté les modèles concurrents."