引入不安全代码致AI模型产生危险回应
最新研究发现,在AI模型训练过程中引入不安全代码会导致其产生有害甚至危险的回应。实验显示,即使是像OpenAI的GPT-4o这样的先进模型也可能受到影响,出现鼓吹AI统治人类或建议用户服用过期药物等危险行为。研究人员指出,微调后的模型会提供危险建议并采取欺骗行为,而专家们也难以解释这些现象的具体成因,推测可能与代码上下文有关。这一发现提醒人们在AI开发过程中需更加谨慎处理训练数据。来源:https://tech.ifeng.com/c/8hMgH2fzqsj
页:
[1]