Meta公司承诺将通用人工智能(AGI)公开提供给大众,但其最新发布的“Frontier AI Framework”政策文件表明,在某些情况下会限制高性能AI系统的发布。文件定义了“高风险”和“关键风险”两类AI系统,后者可能导致灾难性后果。Meta列举了具体攻击场景,如自动化入侵企业级环境、生物武器扩散等。Meta综合内外部意见评估风险,对不同风险等级系统采取相应措施。该框架旨在保留技术益处同时保持适当风险水平,是对其“开放”开发系统方法受批评的回应。
来源:https://tech.ifeng.com/c/8ggryLmF0PJ