LLM常识推理仍存短板,AGI之路漫长

[复制链接]
周大 发表于 2024-11-14 13:52:48 | 显示全部楼层 |阅读模式
Nature发表评论文章指出,尽管大型语言模型(LLM)在记忆测试中表现出色,但在常识推理方面仍存在明显不足。常识推理是实现通用人工智能(AGI)的必要条件,但目前的LLM在处理不确定性和模糊情况时表现不佳。早期项目如CYC和ConceptNet虽积累了大量知识,但缺乏推理能力。未来研究需跨学科合作,设计全面的基准测试,超越语言的思考,以推动机器常识的发展。这不仅有助于AI的应用,还能加深对人类认知的理解。
来源:https://tech.ifeng.com/c/8eU4uU97VKq

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-27 09:28 , Processed in 0.339472 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表