RevThink:让LLM掌握逆向思维
北卡罗来纳大学教堂山分校与谷歌的研究表明,大型语言模型(LLM)能够进行逆向思维,并提出RevThink框架。该框架通过数据增强和新学习目标两个阶段训练模型,使其学会正向推理、生成逆向问题及逆向推理。实验结果表明,RevThink在常识推理、数学推理等多类任务上表现出色,平均性能优于其他方法,在不同数据集上实现12.68%-14.37%的显著提升,且具有良好的泛化能力。来源:https://mp.weixin.qq.com/s/Wdexvi1sqNHIyXfijPtr2w
页:
[1]