新架构TTT挑战Transformer,提升大语言模型性能

[复制链接]
周大 发表于 2024-7-9 15:50:34 | 显示全部楼层 |阅读模式
斯坦福、伯克利等高校和Meta的研究团队提出了一种名为Test-Time Training(TTT)的新架构,它可能革新AI领域的语言模型处理。TTT在性能上超越了现有热门的Transformer和Mamba架构,能以线性复杂度处理大量信息,提高了长上下文处理的效率。在各种规模的大模型测试中,TTT-Linear和TTT-MLP展现出了匹敌或优于Transformer和Mamba的性能。
来源:https://mp.weixin.qq.com/s/QSw9PKB_HhSxeO7agnzBgQ

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-8 23:48 , Processed in 0.296745 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表