Infini-attention实现无限长文本处理

[复制链接]
周大 发表于 2024-4-13 15:51:55 | 显示全部楼层 |阅读模式
谷歌推出Infini-attention机制,使Transformer模型在有限计算资源下处理无限长输入,实现114倍内存压缩比,显著提升长文本处理能力并刷新SOTA记录。
https://mp.weixin.qq.com/s?__biz ... ionid=1712991605#rd

学员登陆|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2024-12-23 17:39 , Processed in 0.271577 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表