据品玩 10 月 24 日报道,Arxiv 页面显示,一支由来自新加坡科技设计大学、微软研究院和清华大学的研究者所组成的研究团队今日发布了一款名为 Tuna 的提起有方法,让模型可以使用大语言模型的反馈进行指令调整。 研究团队使用其新颖的概率排名和上下文排名方法来微调指令调整后的 LLM,以增加生成更好响应的可能性。概率排名使指令调整后的模型可以从高阶大模型处继承高质量和低质量响应的相对排名。另一方面,使用上下文排名学习允许模型使用更强大模型的上下文理解能力来精炼其自己的响应分布。据研究团队表示,Tuna 在 Super Natural Instructions (119 个测试任务)、LMentry (25 个测试任务)、Vicuna QA 等任务上均表现出色。
新加坡科技设计大学联手清华、微软研究院,推出大模型调优方法 Tuna
本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a46900.html