大语言模型在学术审稿中的风险与挑战
大语言模型(LLMs)正逐渐渗透到学术同行评审中。研究表明,6.5%-16.9%的AI顶会论文和ICLR 2024约15.8%的评审意见涉及大语言模型。然而,LLMs存在操控风险、隐性操控、幻觉问题和偏见问题,可能扭曲审稿系统的判断。上海交通大学等机构的研究呼吁暂停LLM替代审稿,并建议将其作为辅助工具,同时引入检测工具与问责机制,以确保学术评审的公正性和严谨性。来源:https://mp.weixin.qq.com/s/3SY23-PKGN74y2ZlaHe6WQ
页:
[1]