OpenAI已达成一项协议,为美国政府提供AI服务,该消息是在美国总统唐纳德·特朗普2月27日决定禁止其AI竞争对手Anthropic参与所有美国政府合同后数小时宣布的。
OpenAI CEO萨姆·奥特曼3月1日在X平台发文谈及此次谈判时表示:“谈判确实很仓促,而且给人留下的印象也不好。”
Anthropic因拒绝让其产品被用于对美国公民的大规模监控或全自主武器而被禁止(参与美国政府合同),OpenAI表示其协议也包含同样的限制,这引发了人们对其如何能如此迅速地获得这些让步的质疑——甚至质疑其是否真的获得了这些让步。
美国政府希望Anthropic允许其技术用于所有合法目的,Anthropic同意了,但排除了上述两种情况,而周五,其强硬态度导致其被禁止(参与美国政府合同)。
2月28日,OpenAI呼吁政府以同样的条件与其他AI公司达成协议,并在一篇博客文章中表示:“我们认为,我们的协议在机密AI部署方面比以往任何协议(包括Anthropic的协议)都有更多的监管措施。”
红线
“我们有三条主要红线来指导我们与国防部(此处使用国防部的别称——战争部,Department of War)的合作,其他几家前沿实验室也普遍认同这些红线。”该公司表示。
该公司称,这些红线分别是:不将其技术用于国内大规模监控,不将其技术用于指导自主武器系统,不将其技术用于“社会信用”系统等高风险自动化决策。
那么,OpenAI是否真的在Anthropic失败的地方取得了成功?如果是,又是如何做到的呢?
OpenAI在2月28日的博客文章中表示,其通过“更广泛、多层次的方法”来保护这些红线。“我们对安全架构拥有完全的自主权,我们通过云端部署,经过审查的OpenAI人员会参与其中,并且我们有强大的合同保护措施,此外,美国法律中也有强有力的现有保护措施。”
该公司引用了合同中提供这些保护措施的部分内容:“战争部可根据适用法律、作战要求以及既定的安全和监督协议,将AI系统用于所有合法目的。在法律、法规或部门政策要求人工控制的情况下,AI系统不得被用于独立指导自主武器,也不得被用于根据相同授权要求人类决策者批准的其他高风险决策。”
这仅对法律或法规禁止使用OpenAI技术控制自主武器的情况施加了限制,对于法律和法规未涉及的事项,该条款并未提供保护。
独立智库法律与AI研究所(Institute for Law and AI)高级研究员查理·布洛克(Charlie Bullock)在X平台发文表示:“OpenAI给了战争部想要的东西,我并不感到惊讶,令我有点惊讶的是,这么多观察者似乎认为OpenAI公布的合同片段能保证与‘所有合法用途’有显著不同。”
至于国内大规模监控,OpenAI引用的合同条款表示:“对于情报活动,任何私人信息的处理都将符合《第四修正案》、《1947年国家安全法》和《1978年外国情报监控法》、第12333号行政命令以及要求有明确外国情报目的的适用国防部指令。根据这些授权,AI系统不得被用于无限制地监控美国人的私人信息。除非《波萨·科马塔斯法案》和其他适用法律允许,否则该系统也不得被用于国内执法活动。”
OpenAI的监管措施可能还不够
然而,律师们并不相信OpenAI在博客文章中引用的合同语言足以阻止国防部在美国实际进行国内大规模监控。
法律与政策咨询公司Anekaanta的首席顾问普拉内什·普拉卡什(Pranesh Prakash)表示,OpenAI公布的合同语言允许国防部下属机构(如国家安全局)根据现有法律权力进行国内大规模元数据收集。
布洛克写道,他不知道国内大规模监控的精确定义,并表示一个足够先进的AI系统可以做一些合法的事情,但根据该术语至少某些合理的定义,这些事情也可以被视为国内大规模监控。
布洛克还指出,还存在其他模糊之处,法律情况仍然不明确,主要是因为OpenAI尚未公布完整的合同。
专门从事AI监管情报和数据保护的律师事务所Amlegals的创始人阿南达代·米什拉(Anandaday Misshra)表示,如果合同明确限制监控或与武器相关的部署,“OpenAI可以依靠标准合同法原则来执行这些限制,至少在合同双方之间是这样。”
然而,米什拉表示,一旦美国政府参与进来,特别是通过国防部这样的实体,OpenAI阻止某些用途的能力就会变得更加脆弱:“国家安全例外、机密计划和主权豁免原则会大大削弱任何仅基于道德理由挑战政府用途的尝试。历史表明,当国家安全被提及时,法院会表现出尊重,即使私人承包商提出异议。”
他表示,在过去的电信监控和国防合同纠纷中,也曾出现过“类似的紧张关系”,公司依赖合同语言和内部治理,但“一旦联邦当局行使法定权力,公司最终的影响力就有限了”。
米什拉表示,对OpenAI不利的是,一旦合同上授予了访问权限,目前还没有技术提供商成功阻止联邦政府将工具用于安全或国防目的的明确先例。他补充说,在直接冲突的情况下,国家安全例外可能会凌驾于围绕AI道德使用的较软承诺之上。
米什拉还表示,数据保护法规也不利于OpenAI的立场,至少在美国目前的法规下是这样。
米什拉说:“与欧洲的数据保护和AI制度不同,美国尚未出台具有约束力的联邦AI法律,明确禁止军事或情报应用,这意味着OpenAI更多是在依靠自我强加的政策,而非法定保护。”
云部署中的一线希望
OpenAI表示,有一些技术保障措施。“这仅是云端部署,我们运行的安全架构包含了这些原则和其他原则。我们不会向战争部提供‘无监管’或未经安全训练的模型,也不会在边缘设备上部署我们的模型,”该公司在周六的博客文章中写道。“我们的部署架构将使我们能够独立验证这些红线是否未被跨越,包括运行和更新分类器。”
布洛克写道,鉴于OpenAI强调技术和操作保护,“与其根据其选择公布的两段合同内容来判断其决定,不如根据你对该公司的信任程度、其技术保障措施及其参与人员来判断。”
尽管架构控制具有潜力,但米什拉表示,AI公司与美国政府之间的此类分歧可能不会为抵制树立先例,而是会为科技公司如何协商监管措施树立先例。
米什拉说:“预计未来的协议将更明确地规定允许的使用范围、审计权利、模型版本控制和责任分配。道德承诺将越来越多地被嵌入为合同风险管理工具,而非道德否决权。”


