“比如,我们现在要做一个能超过GPT4的通用的大模型可能比较难,但GPT4是‘啥都懂,但不专’。如果我们能在某一个业务领域,有独特的业务数据,在一个垂直领域把大模型训练得很好,而且把大模型和企业很多业务工具结合在一起,这样的大模型就不仅有脑子,还有独特的知识,甚至手和脚了。”他表示,中国在一些垂直领域的大模型超过GPT4,是完全有可能的。
有观点认为,中国大模型的开发需要对内容安全和监管投入巨大精力,这是目前中国AI发展的一大挑战。对此,周鸿祎认为,全世界的大模型都面临安全挑战,尤其是如何保证大模型可信、可控、可靠的问题。
“大模型可以成为好人的帮手,也可以成为坏人的帮手。比如过去你得懂编程才能做网络攻击,现在你可以和大模型对话,给它‘小费’,它能帮你很勤奋地干活,甚至同流合污。”他举例称,再比如Sora可以产生任何视频,这些视频大到可以用来干预美国大选、成为影响国家安全的武器,小到可以用来诈骗,其蕴含的危险性其实很大。当人工智能技术的发展已经走在法律前面的时候,全世界都在考虑如何对人工智能进行有效监管,如何防止它作恶或被利用,这目前也是全世界的难题。
“我不认为监管对人工智能的进步带来妨碍。相反,如果没有任何监管,对各大互联网做出的各种人工智能工具,最后好人不一定能很及时地用上,缅北的诈骗分子可能倒先用上了,据说他们对新技术的渴望和热爱不亚于我们的高科技公司。”他对《环球时报》记者开玩笑地说道。他表示,合理的监管应当能够对人工智能的发展带来正向推动作用,而不能一概认为是束缚。