
从空中拍摄的美国国防部所在地五角大楼图源:新华社
警惕AI叙事中的“技术拜物教”
这篇广泛流传的文章暴露的不仅是作者对军事技术细节的生疏,更是当下AI叙事中一种危险的倾向:将AI的潜在能力当作既成事实来描述,将实验室中的技术演示与战场上的实战能力混为一谈,将辅助性的工具角色夸大为决定性的战略主导。这种叙事有明确的利益驱动——它服务于AI公司的估值故事,服务于国防承包商的融资需求,也服务于某种“科技决定论”的意识形态偏好。
但对于希望理解真实世界的读者而言,保持清醒至关重要。2026年2月28日发生在德黑兰的事件,本质上是一场由传统大国军事力量投射、经典情报手段支撑、常规精确制导武器执行的斩首行动。AI在其中扮演了某种角色——可能加快了情报分析速度,可能改善了数据融合效率——但它不是这场行动的主角,更不是决定性力量。
正如美国退役空军将军杰克·沙纳汉所指出的那样,Claude目前的使用限制在实际操作中“从未被触发”——这说明军方对AI的实际使用远比媒体渲染的要审慎得多。而Anthropic拒绝取消安全护栏所引发的政治风波,也恰恰说明了一个往往被技术乐观主义遮蔽的事实:AI在致命性军事决策中的可靠性远未达到可以取代人类判断的水平。