LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节

[复制链接]
周大 发表于 昨天 15:13 | 显示全部楼层 |阅读模式
图灵奖得主Yann LeCun团队联合斯坦福与纽约大学研究人员,提出一种基于信息论的新框架,系统比较人类与大型语言模型(LLM)在语义压缩方面的策略。研究使用涵盖1049个项目、34个语义类别的高保真基准数据集,并测试30多个LLM模型,参数规模从3亿至720亿不等。结果显示,LLM虽能实现基本语义分类,但难以捕捉细粒度语义差异,其内部表征结构与人类判断存在显著偏差。研究指出,LLM倾向于极致的统计压缩以减少冗余,而人类更注重保留细节与上下文完整性,展现出更强的适应性与灵活性。
来源:https://tech.ifeng.com/c/8khzUISWX8L

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-7-5 15:45 , Processed in 0.263562 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表