周大 发表于 2025-6-1 14:21:43

低成本下的高性能模型,是悖论还是可能?

大语言模型(LLMs)的成本与性能矛盾成为行业热点问题。DeepSeek-R1 满血版虽性能强大,但其硬件成本高达数百万元,许多厂商因无法承受高额支出而采用蒸馏版或量化版模型,导致推理能力与稳定性下降。用户反馈显示,ChatGPT 等模型存在逻辑减弱、错误响应增多的现象,引发对其性能被有意削弱的质疑。业内人士指出,DeepSeek-R1 的满血版运行每月机器成本可达数亿元,市场竞争加剧及低价策略进一步加重亏损。为应对成本压力,业内普遍采用模型量化、剪枝等技术手段,但这些方法可能引入误差并降低输出精度。如何在低成本下实现高性能,仍是行业亟待解决的难题。
来源:https://mp.weixin.qq.com/s/yOddqjOtAQDsRXjn7F0_YQ
页: [1]
查看完整版本: 低成本下的高性能模型,是悖论还是可能?