张教授:中国人看得很清楚,我们的差距在哪里,哪些地方是有优势的,哪些地方是有劣势的,然后想办法弥补。我看了这次华为发布的一些报道,他们做事情也是从源头,包括从芯片和大模型开始做很多事情。
孙教授:我刚才讲,我们的大模型的专用性还是没问题的,它即使不具备通用性,但结合各个行业能发挥很大的效果。
张教授:任正非有一个判断:人工智能软件平台对人类社会的直接贡献可能不到2%,而98%应该是对经济、社会等各行各业的促进,所以从政府治理到金融、到煤炭、矿山、港口,华为都在做。盘古大模型与中国这种全球最强大的制造业、最完整的产业链相结合,这是美国所不具备的。
主持人:现在我们讨论通用的部分,可能未知数比较多。在技术上我们还是要抓紧升级迭代要追赶上,同步地再来考虑,它可能会产生的负面影响,到底怎么去约束它。前段时间网信办等七个部门联合发布了《生成式人工智能的服务管理暂行办法》的文件,8月15日开始施行。这里头确定了很多管理边界,比如数据不能过度收集等等。但是我注意了一下,它的原则叫包容审慎、分类分级监管。
张教授:我觉得这四个字很重要,包容审慎,“包容”放在前面,那就是先鼓励你发展,容忍你发展,然后再审慎对待。之前有个征求意见稿,这个是新的版本,有一些变化。其中一个大的变化是,之前的监管部门主要是网信办,现在包括了教育部、发改委、工信部、公安部等。另外对于社会动员这类具有舆论属性的人工智能是要严管的。我觉得这也是很合理的考量。
孙教授:应该说这个办法还是充分吸收了各方面的意见,比如刚才说的包容审慎,这个原则特别重要。因为这种生成式的模型,一方面它生成能力很强,同时它是概率式的。概率式模型就会产生幻觉现象,这是必然的。你想你一个人走路,如果在每个路口都有四万八千个分岔口,然后我让你走二十个岔口,你还能精准地走到你希望到的那个地方吗?不太可能。所以产生问题是必然的。如果监管办法是一个问题都不能出现,那这个技术就没法发展,我注意到文件中提到要分类分级监管。