张教授:我个人感觉大概这样的,可能有点像核能、原子弹发展的历史。当核能开始发展的时候,大家相当积极,但产生原子弹后大家非常悲观,包括爱因斯坦,他的理论为此作出过贡献,但他呼吁一定要停止核武器,他变成反战的和平运动创始人之一。
你刚才讲的科学家们的呼吁,我完全可以理解。但是我自己研究国际政治和国际关系,我的判断是说不定人类还得走过去核武器发展的老路,还是大家不得不发展,不得不竞争。
你看最近的报道,英国跟美国在谈要在今年下半年在英国开一个人工智能国际会议,他们明确地说,要赶在中国人之前制定规则,要让所谓的“民主国家”团结在一起。当然,我认为这将是徒劳无益的,因为中国跟美国已经处在第一方阵。但我担心最终还是要通过这样的竞争,经过摩擦、斗争、交锋到一个点上,人类智慧和理性才会回来。就跟核武器一样,甚至已经使用过了,最后超级大国之间、核武器国家之间才通过谈判达成各种各样的、比如核裁军协议等等,但执行时候还会碰到很多困难。在人工智能领域内,我们可能也会经历这么一个跌宕起伏的过程。总之,我不是十分乐观。
今年3月,图灵奖得主Yoshua Bengio、伯克利计算机科学教授Stuart Russell、特斯拉CEO埃隆·马斯克、苹果联合创始人Steve Wozniak 等在内的数千名对人工智能关注的人士发起一封公开信,呼吁暂停训练比GPT-4更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。
孙教授:我同意张教授的判断。这个事不以人的意志为转移,除非全球形成共识,否则停不下来。因为涉及到国家竞争,甚至是终极竞争,通用人工智能还只是在一个很初级的阶段。现在我们担心什么?按它的算法,它现在这个能力都不应该有。但它有了这个能力,就怕模型再做大以后会产生别的东西。