Meta可能停止开发其认为风险过高的AI系统

Meta公司近日发布了一份名为“前沿人工智能框架”(Frontier AI Framework)的政策文件,表示可能会停止开发或发布其认为风险过高的AI系统。Meta首席执行官马克·扎克伯格曾承诺,未来将使通用人工智能(AGI)——即能够完成人类所能完成任何任务的人工智能——公开可用。然而,根据这份新文件,Meta将在某些情况下限制其内部开发的高性能AI系统的发布。

风险分类

文件中定义了两种风险过高的AI系统类型:

  1. 高风险系统:能够协助实施网络安全、化学和生物攻击,但不如“关键风险”系统那样可靠或稳定。
  2. 关键风险系统:可能导致“在拟议的部署环境中无法缓解的灾难性后果”,例如“自动端到端破坏受最佳实践保护的企业级环境”和“高影响力生物武器的扩散”。

风险评估与应对措施

Meta在评估系统风险时,并非仅依赖单一的实证测试,而是综合内部和外部研究人员的意见,并由“高级别决策者”进行审查。Meta表示,目前评估科学尚未“足够强大,以提供决定系统风险性的明确量化指标”。

  • 如果Meta判定某个系统为“高风险”,将限制系统在内部的访问权限,并在实施风险缓解措施以将风险降至“中等水平”之前,不会发布该系统。
  • 如果系统被判定为“关键风险”,Meta将采取未具体说明的安全防护措施,防止系统被非法获取,并暂停开发,直到系统能够被降低危险性为止。

战略与背景

Meta的这一政策文件似乎是对公司“开放”开发系统方法受到的批评的一种回应。Meta一直采用将人工智能技术公开提供(尽管并非通常意义上的开源)的策略,这与选择将系统置于API背后的OpenAI等公司形成对比。此外,Meta发布该框架可能还旨在将其开放的AI战略与中国AI公司DeepSeek进行对比。DeepSeek也使其系统公开可用,但该公司的AI几乎没有安全措施,并且很容易被引导生成有害和有害的输出。

Meta表示,通过在决定如何开发和部署先进人工智能时同时考虑收益和风险,有可能以一种既能保留该技术对社会的益处,又能保持适当风险水平的方式,将该技术提供给社会。