中国投资网 快讯 字节跳动与中科大联合提出多模态文档大模型 DocPedia

字节跳动与中科大联合提出多模态文档大模型 DocPedia

据站长之家 12 月 4 日报道,字节跳动与中国科学技术大学合作研发的多模态文档大模型 DocPedia 已成功突破了分辨率的极限,达到了 2560×2560 的高分辨率,而目前业内先进多模态大模型如 LLaVA、MiniGPT-4 等处理图像分辨率上限为 336×336,无法解析高分辨率的文档图像。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。 据称,DocPedia 不仅能准确识别图像信息,还能结合用户需求调用知识库回答问题,展现高分辨率多模态文档理解的能力。

本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a73263.html

字节跳动与中科大联合提出多模态文档大模型,DocPedia

中国投资网后续将为您提供丰富、全面的关于字节跳动与中科大联合提出多模态文档大模型,DocPedia内容,让您第一时间了解到关于字节跳动与中科大联合提出多模态文档大模型,DocPedia的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。