美政府祭AI新规:模型须允许「任何合法用途」、Anthropic被列供应链风险
在美国国防部与 Anthropic 之间陷入僵局之际,美国政府已制定一套针对民用人工智慧(AI)合约的严格新规,要求企业必须允许其 AI 模型被用于任何合法用途。

根据《路透》引述《金融时报》报导,美国国防部近日将 Anthropic 列为供应链风险,并禁止政府承包商在为美军执行相关工作时使用该公司的 AI 技术。
这一决定是在双方长达数月的争议之后作出,争议焦点在于 Anthropic 坚持加入多项安全保障措施,而国防部认为这些限制过于严格。
《金融时报》审阅的一份指导方针草案显示,寻求与美国政府合作的 AI 公司,必须授予美国一项不可撤销的授权,允许政府将其系统用于所有合法用途。
报导指出,这项由美国联邦总务署制定的指导原则将适用于民用政府合约,也是美国政府整体强化 AI 服务採购机制的一部分。此外,相关内容也与国防部正在考虑用于军事合约的措施相呼应。
隶属于美国联邦总务署、负责协助联邦政府採购软体的联邦採购服务局专员 Josh Gruenbaum 表示:如果联邦总务署继续与 Anthropic 维持商业合作关係,对美国人民而言是不负责任的,对我们的国家也将带来危险。
Gruenbaum 指出,依照总统指示,联邦总务署已终止 Anthropic 的OneGov合约,这意味着该公司的技术将不再透过联邦总务署事先谈妥的採购协议,提供给美国行政、立法与司法部门使用。
对于相关报导,白宫尚未立即回应《路透》的置评请求。
此外,《金融时报》指出,联邦总务署草案规定,政府承包商不得刻意在 AI 系统输出的资料中嵌入任何党派或意识形态判断。
同时,企业也必须揭露其 AI 模型是否曾被修改或设定,以符合任何非美国联邦政府或商业监管或合规框架。