首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%开源MoE模型,终于迎来首位国产选手!它的表现完全不输给密集的Llama 2-7B模型,计算量却仅有40%...

贴文 1个月前
560 0

首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

开源MoE模型,终于迎来首位国产选手!

它的表现完全不输给密集的Llama 2-7B模型,计算量却仅有40%。

这个模型堪称19边形战士,特别是在数学和代码能力上对Llama形成了碾压。

它就是深度求索团队最新开源的160亿参数专家模型DeepSeek ...

暂无评论

暂无评论...