在過去的兩週裡,MLX LM 添加了 7 種新的模型架構。 在這 7 種中,有 6 種是 MoE。 在這 6 種 MoE 中,有 3 種是混合 SSM / 注意力模型。 架構變化緩慢,然後突然發生。