大模型「强崩溃」!Meta新作:合成数据有「剧毒」,1%即成LLM杀手

[复制链接]
周大 发表于 2024-10-13 14:15:28 | 显示全部楼层 |阅读模式
Meta、NYU等机构研究发现,即使合成数据仅占1%也可能导致LLM模型崩溃。这种现象在大规模模型中更为显著。研究通过理论分析和实验验证了这一发现,并指出数据混合策略未能有效缓解模型崩溃问题。
来源:https://mp.weixin.qq.com/s/oIAV4T_-ufTQVUrU2wX40Q

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 00:09 , Processed in 0.294764 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表