【侨报讯】美国五角大楼(Pentagon)与顶尖人工智能实验室Anthropic之间的争端,预计将于周五(2月27日)下午5时01分(格林尼治时间2201)迎来关键时刻。双方围绕军方如何在战争中使用人工智能的问题发生激烈分歧。

据路透社报道,这场持续数月、正逼近五角大楼设定最后期限的争议,被广泛视为对“强大AI技术应如何由军方部署及其风险如何管控”的一次关键检验。

五角大楼希望,凡属合法用途均应被允许,并警告若这家初创公司不取消额外安全限制(guardrails),将影响其业务合作。

美国前代理国防部长克里斯·米勒(Chris Miller)表示:“这是对人工智能未来及其在战场上应用的一次警告。”他补充说,结果将成为“那些声称希望以人道方式使用AI的公司的一次严峻考验”。

这场争端在业界领袖、军方官员和国会议员之间引发分歧。问题在于:当Anthropic认为其技术尚不足以安全支持完全自主武器时,军方是否应在缺乏约束的情况下使用AI。

民主党参议员埃莉萨·斯洛特金(Elissa Slotkin)周四表示:“普通人不会认为,我们应该允许武器系统在没有人类监督的情况下进入战场并夺取生命。”

在两名国防部助理部长提名人的听证会上,她还补充称:“我当然不认为任何美国人——无论民主党还是共和党——会希望对美国人民进行大规模监控。”

特朗普政府已将五角大楼重新命名为“战争部”(Department of War)。五角大楼方面则反驳称,这种两难困境是“左派媒体兜售的虚假选择”。

五角大楼首席发言人肖恩·帕内尔(Sean Parnell)周四在X平台发文称:“战争部无意利用AI对美国人进行大规模监控(这本身是违法的),也不打算开发在没有人类参与下运行的自主武器。”

过去一年,五角大楼与多家主要AI实验室签署了总额上限为2亿美元的协议,包括Anthropic、OpenAI以及谷歌(Google)。军方要求企业放弃自身的使用政策,改为遵循“所有合法用途均可”的条款。

Anthropic在谈判中坚持红线,反对将其Claude模型用于自主武器和国内监控。该公司也是首批通过云服务商亚马逊(Amazon)参与处理机密信息的AI企业之一。

Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)因对AI监管问题的担忧,于2020年离开OpenAI而闻名。他警告称,AI发展速度已超过法律规范的更新速度。

他在周四的一篇博客文章中指出,强大的AI技术可能整合大量分散信息,从而对毫不知情的平民进行情报收集,这被批评者视为法律漏洞。

阿莫代伊表示:“Anthropic理解,军事决策应由战争部而非私营企业作出。但在某些情况下,AI可能削弱而非捍卫民主价值。”

本周,阿莫代伊与国防部长赫格塞思(Pete Hegseth)会面。此后,五角大楼释放出愿意妥协的信号,并向该公司提交了修订后的合同条款。然而,双方显然仍未达成一致。

Anthropic发言人周四表示:“我们收到的合同文本几乎没有任何实质进展”,并称该条款实际上允许相关安全措施被轻易绕过。

此次争端关系到Anthropic的关键业务。

五角大楼警告称,若该公司不接受“所有合法用途”条款,将终止与其合作,并将其列为供应链风险企业。这一标签通常保留给来自对手国家的供应商,意味着国防承包商可能被禁止在为五角大楼工作时部署Anthropic的AI系统。

目前,Anthropic正积极争取企业与政府客户,国家安全领域是其重点方向之一。

路透社周三报道称,五角大楼已要求包括洛克希德·马丁(Lockheed Martin)在内的承包商评估其对Anthropic技术的依赖程度。数据显示,截至2021年,美国国防工业基础涉及约6万家承包商。

五角大楼还发出第二项警告,其合法性受到部分专家质疑。一名高级官员对路透社表示:“如果他们不配合,战争部长将确保动用《国防生产法》,强制Anthropic为五角大楼服务,无论他们是否愿意。”

(编译:CSW)