当35国代表在会议室里签署《军事AI责任宣言》时,两个真正掌握AI杀伤性武器钥匙的国家——美国和中国——选择了沉默离场。这份呼吁"人类必须掌控AI武器"的非约束性文件,最终只揽获了约三分之一与会国的支持。华盛顿的回应尤为微妙:我们支持以前的承诺,但这次不签。这种"既不完全否定,也绝不承诺"的姿态,暴露了大国在致命自主武器(LAWS)问题上的真实算盘。
本质上,这是一份"软法"中的软柿子。 没有监督机制,没有违约制裁,连"AI武器"的定义都模糊不清——巡航导弹预设了打击目标,算不算自主武器?对洛克希德·马丁、中航工业等军工巨头而言,目前只需在系统里保留一个形式上的"手动覆盖按钮"就能名义合规。但真正的风险在于,欧盟正试图将这类宣言转化为出口管制和采购标准,建立"伦理军事AI"俱乐部。这将迫使跨国军工企业维护两套产品线:符合伦理的慢速出口版,和无限制的实战本国版。
更深层的信号是中美战略互疑的赤裸暴露。 双方都在秘密研发蜂群无人机和自动瞄准系统,谁也不愿单方面套上"人在回路"的枷锁而让对方获得毫秒级的反应优势。欧盟用道德领导力弥补技术差距,中美用实战效能定义战争规则。这种分裂可能导致两套技术体系:35国的"可解释AI+人工审核"慢系统,对比中美以的"发射后不管"快系统。讽刺而危险的是,追求伦理的一方,可能正在制造未来的技术代差。
短期内,这份宣言影响有限。军工企业会继续在PPT里添加"伦理审查"章节,同时把AI的自主权限推到边界。但历史告诉我们,一旦某次AI误击造成大规模人道灾难,今天的软承诺会瞬间变成硬禁令。真正值得观察的不是这35国的宣言,而是美国国防部Directive 3000.09的修订动向——大国内法,永远比国际宣言更有牙齿。
在军事AI领域,伦理是和平时期的装饰品,而威慑是战争边缘的硬通货。这场竞赛没有刹车片。
本文由 AI 辅助生成,仅供参考。