周大 发表于 2025-8-29 14:55:01

BitNet模型架构能否打破LLM存储瓶颈?

微软开源的BitNet模型采用三元量化技术,将每个权重压缩至约1.58位,显著降低内存占用和能耗,同时保持高性能。其核心BitLinear层通过加法运算替代乘法,大幅提升推理效率。微软推出bitnet.cpp框架,支持在CPU上高效运行,尤其在Arm架构设备上表现突出。国内厂商芯动力基于其RPP架构成功实现BitNet本地化部署,联想AI PC验证其推理能力。BitNet在具身机器人、智能手机、汽车及家电等领域具备广泛应用前景,有望推动端侧AI普及。尽管面临生态兼容性与训练复杂度等挑战,其低功耗、高能效的特性仍使其成为边缘AI发展的重要推动力。
来源:https://tech.ifeng.com/c/8mDAK67aGiD
页: [1]
查看完整版本: BitNet模型架构能否打破LLM存储瓶颈?