ModernBERT发布:更快更强的BERT回归

[复制链接]
周大 发表于 2024-12-24 15:34:42 | 显示全部楼层 |阅读模式
时隔6年,“BERT”再度崛起,ModernBERT发布即开源。该模型参数量分别为139M和395M,上下文长度达8192 token,相较于传统编码器提升了16倍。它在信息检索、分类等任务中表现出色,速度是DeBERTa的两倍至四倍,内存占用更少。ModernBERT采用现代化Transformer架构,注重效率,并使用多样化数据训练。团队由来自Answer.AI和LightOn的研究者组成,他们表示encoder-only模型被低估,仍具广泛应用价值。
来源:https://mp.weixin.qq.com/s/MRQO9s5V2CzLLlYFl9Kn_w

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-22 16:10 , Processed in 0.370083 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表