MIT新研究指出AI不懂“no”,逻辑推理缺陷导致否定词成“盲区”
麻省理工学院研究表明,当前主流AI模型在处理否定语句时存在显著缺陷,易将“no”或“not”误解为肯定含义,可能在医疗等领域引发严重后果。例如,“no fracture”可能被误判为有骨折。问题源于AI依赖模式预测而非逻辑推理。尽管通过合成数据取得初步进展,但细粒度否定差异仍具挑战性。专家建议结合统计学习与结构化思维以提升AI逻辑能力。来源:https://tech.ifeng.com/c/8jYXtJgMSiF
页:
[1]