中国投资网 快讯 杨立昆发文质疑 LLM 推理能力,大模型涌现离不开上下文学习

杨立昆发文质疑 LLM 推理能力,大模型涌现离不开上下文学习

据站长之家 11 月 24 日报道,近期,Meta 首席人工智能科学家杨立昆(YannLeCun)在推特上引发了关于大语言模型(LLM)推理能力的讨论,强调 LLM 缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究表明,针对复杂规划任务,如国际规划大赛中的问题,LLM 的性能较差,其推理能力在特定领域受限,而涌现能力主要体现在简单任务和事先知道答案的情境中。 文章还提到,对于 LLM 的规划任务研究存在一些问题,包括领域知识和实际执行计划的混淆。研究团队通过混淆规划问题中的动作和对象的名称来降低近似检索的有效性,挑战 LLM 的经验表现。

本文来自网络,不代表本站立场,转载请注明出处:https://news9.com.cn/n/a67801.html

杨立昆发文质疑,LLM,推理能力,大模型涌现离不开上下文学习

中国投资网后续将为您提供丰富、全面的关于杨立昆发文质疑,LLM,推理能力,大模型涌现离不开上下文学习内容,让您第一时间了解到关于杨立昆发文质疑,LLM,推理能力,大模型涌现离不开上下文学习的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。