中国投资网 快讯 商汤“书生・浦语”2.0 大语言模型开源:200K 上下文,一次可读 30 万汉字

商汤“书生・浦语”2.0 大语言模型开源:200K 上下文,一次可读 30 万汉字

据 IT 之家 1 月 17 日报道,商汤科技与上海 AI 实验室联合香港中文大学和复旦大学今日发布了新一代大语言模型书生・浦语 2.0(InternLM2)。 据介绍,InternLM2 是在 2.6 万亿 token 的语料上训练得到的。沿袭第一代书生・浦语(InternLM)设定,InternLM2 包含 7B 及 20B 两种参数规格及基座、对话等版本,继续开源,提供免费商用授权。目前,浦语背后的数据清洗过滤技术已经历三轮迭代升级,号称仅使用约 60% 的训练数据即可达到使用第二代数据训练 1T tokens 的性能表现。 据介绍,通过拓展训练窗口大小和位置编码改进,InternLM2 支持 20 万 tokens 的上下文,能够一次性接受并处理约 30 万汉字(约五六百页的文档)的输入内容。InternLM2 在 20B 参数的中等规模上,整体表现接近 ChatGPT。

本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a96896.html

商汤“书生・浦语”2.0,大语言模型开源:200K,上下文,一次可读,30,万汉字

中国投资网后续将为您提供丰富、全面的关于商汤“书生・浦语”2.0,大语言模型开源:200K,上下文,一次可读,30,万汉字内容,让您第一时间了解到关于商汤“书生・浦语”2.0,大语言模型开源:200K,上下文,一次可读,30,万汉字的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。