Sigmoid注意力一样强,苹果开始重新审视注意力机制

[复制链接]
周大 发表于 2024-9-19 15:06:55 | 显示全部楼层 |阅读模式
苹果研究者重新审视了Transformer架构中的注意力机制,发现sigmoid注意力机制相较于传统的softmax具有优势。研究提出了一种硬件感知且内存高效的sigmoid注意力实现——FLASHSIGMOID,其在多种任务上的表现与softmax相当,同时提高了效率。研究还证明了具有sigmoid注意力的Transformer是通用函数逼近器。
来源:https://mp.weixin.qq.com/s/4DvgsqkyNcj6HBrAHTygCA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 16:33 , Processed in 0.292658 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表