斯坦福等多校研究:AI治疗师存根本缺陷,难取代人类且有潜在危险
斯坦福等高校联合研究发现,当前主流AI语言模型如ChatGPT和Llama在处理心理健康问题时存在严重缺陷,不仅无法识别自杀信号,还可能提供危险建议,例如列出纽约高桥信息。AI模型在应对妄想症状时缺乏专业干预能力,甚至会验证用户的错误认知。此外,它们在面对精神分裂症、酒精依赖等患者时表现出明显偏见,加剧社会污名化。尽管研究强调AI不能替代人类治疗师,但也指出其在辅助治疗方面具有潜力,如帮助处理行政事务或提供培训指导。研究呼吁建立更完善的安全机制以保障AI在心理健康领域的应用安全。来源:https://mp.weixin.qq.com/s/2QdJ6ufC_MkDt0y2RpSvDA
页:
[1]