周大 发表于 2025-5-24 14:31:25

打破思维链推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了

SimularAI与微软DeepSpeed联合提出的Soft Thinking方法,使大模型能在连续概念空间中进行软推理,突破了传统CoT基于离散token的限制。该方法无需额外训练即可适配现有模型(如Llama、Qwen),在基准测试中将Pass@1准确率最高提升2.48%,同时减少22.4%的token使用量。通过概率加权和Cold Stop机制,Soft Thinking实现了更高效、灵活的推理能力,为大模型优化提供了新思路。
来源:https://mp.weixin.qq.com/s/a12P9YSNcII565BA7NBB1Q
页: [1]
查看完整版本: 打破思维链推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了