据报道,目前美军已经将AI用于战斗模拟测试,在美国空军和国防高级研究计划局(DARPA)的一项实验中,AI负责驾驶使用一架改装的F-16战斗机。2024年,这架AI控制的战斗机与人类飞行员驾驶的战斗机进行了模拟空战,其距离有人驾驶的飞机最近时只有2000英尺(约合610米),但美国空军没有透露这次空战的胜负。其他AI程序被五角大楼用来筛选卫星数据、跟踪后勤和简化外地单位的行政文书工作。特别是在俄乌冲突中,为处理海量的卫星照片,美军特别开发了专用的AI程序。此外,美国陆军特种作战部队也采用了类似的工具来减轻他们所谓的工作人员“认知负担”——使用人工智能起草报告、处理任务数据和大规模分析情报。
美国《纽约邮报》称,五角大楼认为AI驱动的系统是更快处理数据和实现精确定位的关键,未来的冲突可能会以“机器速度”展开,只有能够作出超出人类能力的瞬间决定才能掌控战局。时任美国空军部长弗兰克·肯德尔去年警告说,随着高度自动化、高度自主的杀伤链的发展,“产生影响的响应时间非常短”,而未能适应的指挥官“将无法在下一个战场上生存下来”。
值得注意的是,包括OpenAI在内的AI巨头也在与五角大楼展开合作,如与网络安全相关的项目,用于帮助分析人员解读数据或编写代码。今年6月,五角大楼宣布与OpenAI签订价值2亿美元的防务合同,用于开发人工智能工具以应对关键的国家安全挑战,相关技术将帮助美国军事和情报人员在高压情况下作出更快、更准确的决策。
国际社会已经对AI在军事领域的应用缺乏相应监管带来的风险感到担忧。相比AI在这些军事辅助工作或战术层面的应用,外界对于美军将AI用于战略决策方面的趋势更为警惕。美军联合参谋部AI项目负责人比安卡·赫洛里在4月的一次活动中表示,“AI可以显著增强联合参谋部整合和分析全球军事行动的能力,最终实现更好、更快的决策。”但使用ChatGPT等生成式人工智能也会带来问题,尤其是在指挥层的决策中。五角大楼敦促部队和领导人探索这些工具时保持谨慎,并警告说生成式人工智能可能会泄露敏感数据。如果没有经过充分的培训,AI还可能产生具有严重缺陷的答案,即所谓“AI幻觉”问题。如果指挥官使用它来为某些高风险决策提供信息,可能会带来风险,甚至导致严重后果。