Meta tocmai a lansat MobileLLM-R1
un model de raționament pe margine cu mai puțin de 1B parametri
2×–5× Creștere a performanței față de alte modele complet open-source: MobileLLM-R1 atinge o precizie matematică de ~5× mai mare față de Olmo-1.24B și ~2× față de SmolLM2-1.7B.
Folosește doar 1/10 din tokenurile de pre-antrenament în comparație cu Qwen: egalează sau depășește precizia Qwen3 pe mai multe benchmark-uri de raționament, în timp ce se antrenează cu doar 4,2T token-uri (doar 11,7% din cele 36T ale Qwen3).