中国投资网 快讯 北京深度求索公司推出首个国产开源MoE大模型

北京深度求索公司推出首个国产开源MoE大模型

据量子位报道,北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE 目前推出的版本参数量为 160 亿,实际激活参数量大约是 28 亿。此外,深度求索团队还透露,DeepSeek MoE 模型还有 145 B 版本正在研发。阶段性的初步试验显示,145 B 的 DeepSeek MoE 对 GShard 137 B 具有极大的领先优势,同时能够以 28.5% 的计算量达到与密集版 DeepSeek 67 B 模型相当的性能。

本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a94953.html

北京深度求索公司推出首个国产开源MoE大模型

中国投资网后续将为您提供丰富、全面的关于北京深度求索公司推出首个国产开源MoE大模型内容,让您第一时间了解到关于北京深度求索公司推出首个国产开源MoE大模型的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。