据站长之家 11 月 6 日报道,元象 XVERSE 宣布开源 650 亿参数高性能通用大模型 XVERSE-65B,无条件免费商用。 XVERSE-65B 是由深圳元象科技开发的一种支持多语言的大型语言模型。它采用了 Transformer 网络结构,参数规模达到了 650 亿。该模型具有 16K 的上下文长度,适用于多轮对话、知识问答和摘要等任务。模型已在多个标准数据集上进行了测试,并取得了良好的性能。
元象 XVERSE 开源 650 亿参数通用大模型 XVERSE-65B
本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a54698.html