港大北航等1bit大模型引热议,BiLLM技术:压缩大模型提升AI效率

[复制链接]
周大 发表于 2024-6-9 15:12:40 | 显示全部楼层 |阅读模式
港大、苏黎世理工与北航联合研发的BiLLM技术,成功将大型语言模型的参数压缩至1.1bit,解决了AI模型计算内存挑战。此创新方法在保持性能的同时,可将模型部署到移动设备,已在OPT和Llama模型上展现出优越的量化效果,推动了无训练量化的界限。该成果被ICML 2024接纳,引发业界对大模型优化的新讨论。
来源:https://mp.weixin.qq.com/s/S9tVLHcOokBy3Kkw1Jv9iw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-19 14:51 , Processed in 0.292812 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表