Google DeepMind团队的一项研究揭示,大型Transformer语言模型在推理任务中展现出与人类类似的“内容效应”,即在处理与已有知识或信念相符的信息时推理更加准确,而在处理相悖信息时可能出错。研究通过自然语言推断、三段论逻辑有效性和Wason选择任务,发现人类和语言模型在推理时均受语义内容合理性和可信度的影响。这一发现强调了AI系统在复杂逻辑推理领域的局限性,尽管在自然语言处理方面表现出色,但在严谨推理任务中需谨慎应用。
来源:https://tech.ifeng.com/c/8bQhwd4kVUf