美国国防部近日正式将人工智能初创企业Anthropic列为“国家安全风险企业”,理由是该公司的存在可能对美军供应链构成“不可接受的风险”。这一决定直接导致Anthropic被禁止参与任何涉及美国联邦政府的合同项目,并随即引发该公司提起法律诉讼。
在提交给加州法院的法律文件中,美国国防部明确表示,担忧Anthropic可能利用其技术权限,在军事行动期间单方面修改或禁用其AI模型。文件指出,AI系统极易受到操纵,若Anthropic认为其企业“红线”被触碰,可能会在战时主动干预模型行为,这种不可控性被视为对国家安全构成重大威胁。
Anthropic方面对此表示强烈反对,认为相关制裁措施过于严苛。该公司此前因拒绝将AI模型用于大规模人口监控或自动化致命攻击而受到关注,其估值高达3800亿美元,是OpenAI的主要竞争对手。尽管微软等科技巨头为Anthropic发声,强调其技术对美军的重要性,但美国政府的担忧已上升为法律层面的行动。
这一事件发生在全球AI军事化加速的背景下,法国及欧洲国家同样在探索AI在国防领域的应用,但更强调伦理审查与人类控制权。美国此次将商业AI公司直接列为“风险实体”,反映出其在AI安全治理上的激进转向,即把技术控制权视为国家安全的核心防线。
对中国AI从业者而言,这提示在推进AI与国防、关键基础设施融合时,必须提前建立透明的安全评估机制与应急干预预案,避免技术自主权与国家安全边界产生冲突,从而在合规框架下实现技术落地。