Claude到底做了什么——以及没做什么
在所有AI相关的叙事中,关于Claude的部分最接近事实,但也最容易被误读。
根据《华尔街日报》的报道,尽管特朗普在打击前一天刚刚签署命令禁止联邦机构使用Anthropic技术,美国中央司令部仍在行动中使用了Claude模型——主要用于情报评估、目标识别辅助和作战场景模拟。这是因为Claude是当时唯一部署在五角大楼保密网络上的前沿AI模型,通过Anthropic与帕兰提尔的合作伙伴关系接入军方系统。
但这距离“AI杀死哈梅内伊”的说法有着天壤之别。Claude的功能是处理和分析非结构化数据——比如翻译和归纳截获的波斯语通信、在海量情报中识别模式、为指挥官提供多种场景下的态势分析。Semafor在2月17日的独家报道中引述了一个关键细节:Anthropic在Palantir的一次例行沟通中,对Claude在委内瑞拉马杜罗行动中的使用表达了关切。Palantir高管将这次对话汇报给了五角大楼,最终引发了五角大楼与Anthropic之间的公开决裂。

在这场军事行动中,大量AI制作的假新闻、假图片在网上流传
更值得注意的是Semafor报道中的一句话:Claude在掳走马杜罗行动中“没有发挥任何有意义的作用——不是因为伦理原因,而是因为这项技术还不够好”。CBS新闻的报道也引用了一位知情人士的说法:Claude“并非不会产生幻觉,也不够可靠,无法避免潜在的致命错误,如意外升级或没有人类判断下的任务失败”。这恰恰是Anthropic坚持保留安全护栏的核心理由——不是出于政治立场,而是出于对技术局限性的清醒认知。