这件事实际上,一是靠大数据,再一个是靠大模型,即深层神经网络,也就是基于Transformer架构的深层神经网络,才可以把这件事做出来。当然,要做出来还需要大算力。大家都很熟悉,要做出来,这“三个大”缺一不可。一旦有了这套东西,你就可以让机器生成任何你想生成的句子。这是它的一个基本机理。
这种生成式算法具有强大的文本内容生成能力。举个例子,比如我们现在让机器写五言律诗,每句五个字,一共四十个字。你对每一个字的选择,就好像你走路走到一个路口,有多少个分叉呢?比如《康熙字典》四万八千个字,大概是四万八千个选项,这里边有的路比较宽,那接续比较自然;有些路是很窄的,可能根本不能接续,那四万八千个选项不可能都是通畅的。
我假设平均一个路口后边有一百个字的选择,这应该是比较保守的估计,那么能够产生多少首不同的比较通顺的五律,我们可以简单算一算,一个路口,如果有一百种可能性,总共连续四十个路口就是一百的四十次方,理工科同学一看这个数就害怕了。给大家一个形象的比较,全宇宙中的原子加起来大概是这个数。换句话说,我们人类自古到今流传下来的五律不超过五十万首,和我刚才讲的数相比,这五十万首只是什么?不能叫沧海一粟,叫“银河系一粟”。所以它有巨大的创作空间,大多数五律我们人类都没有来得及写出来。
这种方式就使得我们的创作形式产生了变化。比如以前要写诗,你自己殚思竭虑,会去琢磨怎么写出新意。但人工智能这个模型就变成,我可以把整个空间生成出来,天文数字的五律诗词生成出来,然后你来挑。如果你对其中个别字不满意,就去改一改,所以它的模式就变了。挑的过程既可以让人去挑,也可以让机器去挑。比如说我们如果到岔口,就找宽的道去走,肯定是通顺的,但新意就不够;如果按窄的道路去走,非常具有新意,但有可能不通顺。可见,这种模型的创造能力不可限量。