据《科创板日报》12 月 28 日报道,中国大模型创业企业 MiniMax 副总裁魏伟在数字中国论坛成立大会暨数字化发展论坛的一场分论坛上透露称,将于近期发布国内首个基于 MoE(Mixture-of-Experts)架构的大模型,对标 OpenAI GPT-4。MoE 全称专家混合,是一种深度学习技术,它通过将多个模型直接结合在一起,以加快模型训练的速度,获得更好的预测性能。
大模型初创企业 MiniMax 将发布国内首个 MoE 大模型,对标 GPT-4
本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a86624.html