LLM常识推理仍存不足,跨学科合作成关键

[复制链接]
周大 发表于 2024-11-14 14:05:40 | 显示全部楼层 |阅读模式
Nature发表评论文章指出,尽管大型语言模型(LLM)如ChatGPT在记忆测试中表现出色,但它们在常识推理方面仍存在明显不足。常识推理被认为是实现通用人工智能(AGI)的必备条件,但LLM在处理模糊性和不确定性时表现不佳。早期研究通过符号框架和知识数据库尝试赋予机器常识,但这些方法缺乏推理能力。当前评估LLM常识推理能力的方法存在局限,需要改进。未来研究需跨学科合作,设计全面的基准测试,涵盖物理特性、社交互动和因果关系,以推动机器常识的发展。
来源:https://mp.weixin.qq.com/s/S8YkHt6q4KCvSuNSfTdCUw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-27 10:06 , Processed in 0.323874 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表