美AI公司防止其模型被用于核武 增设专家岗位强化安全措施!美国AI公司Anthropic正在招聘一名化学武器和高爆武器专家,以防止其AI模型被用于制造大规模杀伤性武器。该公司还开发了一种过滤器,并将其集成到系统中,旨在识别和阻止与核武器相关的滥用行为。

招聘信息显示,申请者需具备至少5年的“化学武器和/或爆炸物防御”经验,并了解“放射性散布装置”,即脏弹。Anthropic担心其Claude AI模型可能被用于“灾难性滥用”。

这一职位与公司在其他敏感领域设立的岗位类似。但一些专家对此表示担忧。科技研究员、英国《AI解码》节目联合主持人斯蒂芬妮·海尔博士质疑让AI系统处理敏感化学品、爆炸物和放射性武器信息的安全性,即使指令是AI不得使用这些信息。她指出,目前没有国际条约或其他法规来规范这类工作以及AI与这些武器的结合使用,所有这一切都在公众视野之外进行。
AI行业人士持续警告技术可能带来的威胁,但从未放慢发展步伐。这一问题在美国政府呼吁AI公司参与伊朗战争和委内瑞拉军事行动时变得更加紧迫。
Anthropic目前正在起诉美国国防部,因后者将其列为“供应链风险”。此前,Anthropic反对美军将其AI系统用于自动化武器攻击或大规模监控美国人。公司联合创始人阿莫代伊今年2月撰文称,他认为技术还不够成熟,不应用于这些目的。
白宫表示,美军不会受科技公司的约束。OpenAI曾公开支持Anthropic的立场,随后自行与美国政府谈判并签署了独立合同。目前,该公司称该合同尚未开始执行。OpenAI官网显示,该公司正在招募一名“生物和化学风险研究员”,薪资高达45.5万美元,几乎是Anthropic提供的薪资的两倍。