与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

[复制链接]
周大 发表于 2025-11-10 14:15:49 | 显示全部楼层 |阅读模式
南京理工大学等团队在 NeurIPS 2025 提出 VIST 框架,通过“视觉+语言”双通道机制提升大模型长文本处理效率。该方法模拟人类阅读习惯,将非关键文本转为图像并压缩处理,使视觉 Token 减少 56%,显存占用降低 50%。在开放域问答和 11 项 ICL 任务中表现优于现有文本压缩方法,且在多语言环境下显著减少 Token 数量,具备更强鲁棒性和计算效率,为未来长上下文 LLM 提供新方向。
来源:https://mp.weixin.qq.com/s/zYnxpBhRsndlAdN2zZlHxA

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-11-28 04:36 , Processed in 0.262439 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表