当人工智能的算法开始介入战场决策,当商业AI模型成为国防行动的核心工具,我们不得不面对一个尖锐的现实:这项仍充满未知的技术,正在重新定义战争的形态,也正在撕裂伦理与安全的边界。近日,美国顶尖AI公司Anthropic与五角大楼价值2亿美元的合作合同戛然而止,引发了全球对国防AI伦理的广泛讨论。
这场博弈的背后,不仅是商业利益与国家权力的碰撞,更是人类对技术失控的深层恐惧,以及对“谁有权掌控AI战争”这一核心问题的追问。
人工智能仍然是一项不可预测的新兴技术,“黑箱问题”如影随形,我们无法完全洞悉其决策逻辑,也难以确保其结果摆脱幻觉、偏见的干扰。即便如此,它在国家安全、国防和战争领域的渗透已势不可挡:在乌克兰的国防行动中,AI系统协助精准打击;在抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动中,AI提供了关键情报支持。而Anthropic与五角大楼的合作破裂,更是将矛盾推向了顶点,因拒绝允许其AI技术用于国内大规模监控和全自动武器开发,Anthropic被五角大楼排除在政府合同之外,转而被OpenAI取代。
这场风波让美国民众乃至全球都迫切地提出一系列追问:人工智能在国防领域的合理应用边界在哪里?应该建立哪些保障措施来约束这些强大的系统?谁有权制定这些规则,又该如何有效执行?来自斯坦福大学以人为本人工智能研究所和斯坦福大学数据科学系的五位学者,从伦理、隐私、安全等多个维度,分享了他们对国防AI合理应用的深刻思考。
Anthropic与五角大楼的合同破裂,本质上是一场伦理与权力的博弈,而这场博弈的核心,在于企业价值观与政府国防需求之间的冲突,以及过时法规与技术发展之间的脱节。2025年7月,Anthropic与五角大楼签署2亿美元合同,其AI模型Claude成为首个接入美军绝密系统的商业AI模型,被广泛应用于情报分析、作战规划等关键领域。
但Anthropic在合同中划下了两条“红线”:禁止用于开发无需人类介入的完全自主武器,禁止用于对美国公民的大规模监控。这两条红线,最终成为双方分道扬镳的导火索。
斯坦福大学放射学、医学和生物医学数据科学教授科特·朗格洛茨认为,人工智能公司不应左右国防政策,但也不应因其价值观而受到惩罚。他指出,美国必须将人工智能应用于军事领域,才能在与对手的竞争中保持领先地位,毕竟对手无疑也在积极采用这些技术。
当前商业人工智能模型拥有不同的价值体系和政治倾向,这并非坏事。多元化对于人工智能模型而言至关重要,正如它对于公民社会一样。政府在采购人工智能产品时,应以产品价值最大化为决策依据,军事战略的制定权终究属于政府,而非私营公司,但政府也不应仅仅因为企业领导人的价值观与自身存在差异,就威胁到企业的生存。
这场争议的爆发,很大程度上源于定义不清的术语和过时的法规,这些法规早已无法跟上政府获取和分析数据的能力发展。科特·朗格洛茨举例说明,公众对“大规模监控”的普遍理解,远比联邦法规对该术语的解释更为宽泛。禁止大规模监控或许能阻止政府直接收集追踪公民行为的数据,但政府通过商业渠道获取类似个人数据并进行分析,在现有法规下却可能是被允许的。
同样,“完全自主”这一术语也存在模糊地带,他结合医疗领域的经验,人工智能在医疗领域同样应用于生死攸关的场景。当战斗机飞行员启动自动驾驶系统,战机能够自主做出瞬间机动和目标选择时,人真的算是真正参与决策了吗?这样的问题,迫切需要更多公开的讨论和辩论。

图自unsplash,概念图
胡佛研究所高级研究员、斯坦福大学HAI副主任艾米·泽加特则从另一个角度解读了这场博弈,她认为,未经选举产生的公司不应该制定国防政策。一个拥有自身规范议程和全球金融利益的私营企业,是否有权决定美国政府如何履行保护公民生命这一最根本的职责,本身就是一个严重的道德问题。她反驳了Anthropic关于“大规模监控”的担忧,认为五角大楼的情报能力主要针对海外的恐怖分子和其他外国敌对势力,并非针对美国公民的国内警务工作,这些活动也受到法律、程序保障和监督的约束,Anthropic的说法带有误导性。
艾米·泽加特进一步指出,道德制高点往往是危险的。Anthropic首席执行官达里奥·阿莫迪坚持在人工智能军事应用中必须让人类参与决策,这听起来令人安心,实则可能让美国在面对AI对手时陷入劣势。毕竟,人工智能在某些作战场景中已经超越了人类,比如在自主拦截来袭核导弹这样的纯粹防御行动中,对人类参与决策的严格限制,可能会错失最佳应对时机。
更重要的是,允许国防承包商决定其产品的使用方式,会开创一个危险的先例——这就好比一家生产F-35战斗机部件的公司,要求对该战机在战争中的使用方式拥有否决权,理由是只有自己了解产品的潜在危险,这种“去问问达里奥这样行不行”的模式,显然无法成为可行的军事准则。
从Anthropic被五角大楼列为“供应链风险”——这一标签以往只用于外国敌对实体,到其对五角大楼提起诉讼,指控政府行为非法,这场博弈早已超越商业合同的范畴,成为AI时代伦理与权力失衡的缩影。正如科特·朗格洛茨所言,历史表明,人类很少能第一次就成功运用变革性技术,而在军事领域,人工智能一旦出错,后果可能不堪设想。关于自主性、监控、公平性和问责制等问题,没有简单的答案,但我们必须公开提出这些问题,抵制完全屈从于政府权威或企业利益的压力。
在Anthropic与五角大楼的争议中,“禁止用于大规模监控美国民众”这一红线,看似是企业的伦理坚守,实则揭示了一个被公众忽视的深层危机:人工智能无论在政府手中还是在私营公司手中,都可能成为摧毁数据隐私的“隐形利器”。斯坦福大学HAI隐私与数据政策研究员詹妮弗·金直言,这场冲突最让她关注的,就是Anthropic对大规模监控的反对,这一细节深刻暴露了AI在隐私保护方面的巨大隐患。
要理解这一隐患,我们需要回溯美国监控体系的演变。在9/11恐怖袭击事件发生之前,美国政府通过互联网活动监控公民的能力受到严格限制。但9/11事件后,国家安全局(NSA)秘密扩大了其监控范围,直接接入承载互联网流量的电信网络,未经授权对所有美国互联网通信进行窃听,试图通过“全面信息掌握”预防未来的外国恐怖袭击。这种不分是否涉及外国目标、大规模收集公民通信数据的行为,明显侵犯了美国公民的第四修正案权利,直到2013年举报人爱德华·斯诺登的爆料,这项秘密计划才被公之于众。

图自unsplash,概念图
与此同时,一种新的监控方式悄然兴起——“开源情报”,即利用社交媒体、公共记录、公共互联网,以及我们使用网站和应用程序时产生的商业数据,这些数据往往未经我们明确同意就被收集和出售,随后被数据经纪人购买、汇总,最终流向各类买家。詹妮弗·金指出,尽管美国宪法第四修正案保护公民免受政府无合理理由的监视,但开源情报降低了政府获取个人信息的门槛,无需搜查令,就能通过社交网络成员身份、在线行为数据和移动位置数据,推断出个人和群体的详细信息。
公众大多不知道,联邦政府正是这些商业“监控”数据的重要买家之一。美国移民及海关执法局(ICE)近期在明尼苏达州和其他州针对抗议者的行动,以及有针对性地遣返移民,都清晰地展示了特朗普政府如何利用这些数据。也正因为如此,俄勒冈州参议员罗恩·怀登近期提出了一项两党共同支持的法案,旨在限制政府为国内情报目的购买此类数据。而Anthropic拒绝五角大楼的合作,恰恰戳中了这一痛点——作为拥有强大数据处理能力的AI公司,它清楚地知道,自己的技术一旦被用于大规模监控,将对公民隐私造成不可挽回的伤害。
随着大型语言模型(LLM)的不断发展,AI侵犯个人隐私的能力进一步提升。詹妮弗·金表示,LLM的训练数据量极其庞大,涵盖了公共和半公共网站上的个人信息、公共记录,以及越来越多通过聊天机器人透露的数据。如果这些工具没有降低个人监控的门槛,才令人意外。而公众之所以觉得LLM对个人信息的获取有限,仅仅是因为开发者设置了防护措施,选择不越过监控的边界。Anthropic做出了这样的选择,OpenAI也随后效仿,很大程度上是因为这种监控行为在公众中极为不受欢迎。
但这种企业自发的防护,显然无法从根本上解决问题。主要为政府部门提供数据情报服务的Palantir公司,已经主动与美国政府签订合同,提供大型商业供应商不愿提供的监控相关服务。这意味着,只要有需求,就会有企业愿意突破伦理底线,为政府提供监控工具。
詹妮弗·金提出了两个发人深省的问题:我们作为一个社会,是否乐于将保护隐私的自由裁量权交给私营AI公司?我们是否希望美国政府将这些强大的AI工具用于监视目的?这两个问题,不仅关乎美国公民的隐私安全,也关乎所有被AI技术覆盖的个体的权利边界。

图自unsplash,概念图
更值得警惕的是,政府对商业数据的购买和AI监控技术的应用,正在形成一种“隐形监控网络”,这种网络无需公开的监控设备,却能通过数据挖掘,精准掌握个人的行为轨迹、思想倾向甚至私人生活。当AI能够轻松整合海量数据,对个体进行全方位画像时,公民的隐私权利将面临前所未有的挑战,而这种挑战,往往隐藏在“国家安全”的名义之下,难以被察觉和监督。
当人工智能被广泛应用于国防领域,除了伦理困境和隐私危机,更令人担忧的是其带来的多重安全隐患——从生物威胁到自主武器失控,从技术滥用到底层治理缺失,每一个问题都可能引发难以预料的灾难。尤其是在当前国际局势紧张的背景下,特朗普政府对伊朗的强硬表态,更凸显了AI军事化应用的紧迫性和危险性。
4月5日,复活节当天,特朗普总统在社交媒体上发文,赞扬美国军方营救了第二名在伊朗上空被击落的F-15E战斗机飞行员,并向伊朗发出强硬威胁,要求其在周二之前开放霍尔木兹海峡,否则将对伊朗的关键基础设施发动袭击,甚至使用了多句脏话。
他在帖子中写道:“周二将是伊朗的‘发电厂日’和‘桥梁日’,两者合二为一。绝对前所未有!!!” 此前,特朗普曾多次向伊朗发出最后通牒,要求其开放霍尔木兹海峡——这一输送全球约五分之一石油和液化天然气的关键通道,否则将面临军事打击。而在这场剑拔弩张的对峙中,人工智能很可能已经被用于情报收集、作战规划等关键环节,其潜在的风险不容忽视。
对于非国防领域的学者而言,参与人工智能与国防应用的研究,需要跳出自身的专业框架。斯坦福大学负责药物设计软件开发的学者拉斯·奥特曼,其专长是生物安全和生物防御,他的研究揭示了AI在生物领域的双重风险:同样的软件,既可以设计用于治病救人的药物,也可以设计出对人体有害的毒素。而随着LLM的普及,这些原本需要专业知识才能掌握的技术,现在变得唾手可得,这让不法分子滥用AI的风险大幅提升。
拉斯·奥特曼提出了一个根本性的问题:作为研究者,是否应该总是公开所有用于制造生物物质的最新最强大的算法?他的答案是肯定的。因为人工智能发展速度极快,即使不公开,这些技术也会逐渐普及,而公开分享能够让全世界的研究者共同测试、批判,确保技术的安全性和有效性。但这种公开的前提,是相关企业能够在生产环节进行严格筛选,守住安全底线。目前,合成蛋白质或DNA的公司正在构建内部筛选系统,识别可疑序列——比如类似炭疽杆菌的物质,就会拒绝生产。但问题在于,AI可以混淆这些物质的特征,生成能够躲过检测的“特洛伊木马”DNA序列和蛋白质,这给生物安全带来了巨大挑战。
除了生物领域的风险,AI在自主武器开发中的应用,也可能导致失控风险。Anthropic拒绝五角大楼合作的重要原因之一,就是反对将其技术用于全自动武器——那些无需人类介入即可决定生死的“杀手机器人”。

图自unsplash,概念图
达里奥·阿莫迪认为,当前最先进的AI系统也不足以可靠地执行此类生死攸关的任务,可能导致误伤或冲突意外升级。而艾米·泽加特的担忧则相反,她认为对人类参与决策的严格限制,可能让美国在面对AI对手时处于劣势。两种观点的碰撞,恰恰反映了自主武器领域的治理困境:既不能完全放任AI自主决策,也不能因过度限制而丧失竞争优势。
拉斯·奥特曼强调,AI军事化带来的安全风险,需要多方面的防控措施。除了合成公司的内部筛选,专用化学试剂的销售环节也需要建立完善的客户审核流程,供应商应维护购买记录,建立问责机制,对拒绝配合的买家进行更严格的监控。同时,他和团队还发布了数据安全级别研究成果,将数据分为四个层级:可匿名共享、可公开共享但需追踪接收者、需提供合法研究凭证、必须保密,为负责任的技术开发提供了框架。
更重要的是,AI军事化带来的安全威胁是全球性的,不受政治或地理边界的限制。理想的解决方案是达成全球协议,但这无疑难度极大。拉斯·奥特曼认为,各个地区应先着手制定本地的指导方针和保障措施,让了解技术的人士共同参与,通过监控采购和活动、开展侦察和情报行动等方式,对不法分子施加压力,就像应对核武器那样。同时,需要文职人员对AI国防应用的决策进行控制,制定明确的政策声明,明确如何使用这些工具以及何时绝对不能使用,上世纪五六十年代核战争的应对经验,或许可以为AI治理提供借鉴。
当前,AI军事化的治理还面临一个重要问题:监管的缺失。许多人被“监管阻碍创新”“治理扼杀竞争”等行业口号误导,认为对AI国防应用的监管会让美国在国际AI军备竞赛中落败。但拉斯·奥特曼指出,这些论调大多出自行业营销部门,其根本目的是牟利,而忽视了技术滥用可能带来的灾难性后果。在生物安全等领域,制定企业最低绩效标准,不仅符合国家利益,也得到了许多企业的认可。
Anthropic与五角大楼的博弈尚未结束,特朗普对伊朗的强硬表态仍在持续,AI在国防领域的应用还在不断扩张。这场围绕技术、权力与伦理的较量,让我们深刻意识到:人工智能从来都不是一种中立的工具,它的发展方向,取决于人类的选择;它的应用边界,需要人类共同界定。