为了应对AI模型生成虚假信息的问题,研究人员推出了开源项目Lynx,这是一个专门检测AI幻觉的大型语言模型。Lynx在Llama-3-70B-Instruct基础上进行微调,并通过扰动数据集和Chain of Thought技术提升性能。在HaluBench基准测试中,Lynx的表现优于其他同类模型,特别是在PubMedQA领域,准确率提高了8.3%。然而,研究也指出数据源问题和多语种应用的限制,未来工作将扩展到更多语言和NLP任务。
来源:https://mp.weixin.qq.com/s/pAJXxr3wfvveEWnUhyRg6g