Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!

[复制链接]
周大 发表于 2024-11-14 14:13:59 | 显示全部楼层 |阅读模式
北大博士生汪海洋等人提出TokenFormer,通过将模型参数Token化,增强了Transformer的灵活性和可扩展性。TokenFormer允许增量扩展模型大小,显著降低训练成本。实验显示,TokenFormer在语言和视觉建模上均优于传统Transformer,相关代码和模型已公开,引起广泛讨论。
来源:https://mp.weixin.qq.com/s/1wOGd1h5y5DjpAt1-n5WDA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-27 09:55 , Processed in 0.285552 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表