过去十年来,人工智能领域经历了从小模型到以Transformer为代表的大模型的百花齐放。直到ChatGPT横空出世,才终于将简洁、易用的“通用人工智能”带入了大众视野。英伟达CEO黄仁勋曾多次表示,他相信ChatGPT的诞生,意味着人工智能的iPhone时刻。这款革命性产品的背后,是OpenAI十年磨一剑的GPT系列大模型。
AI算法模型作为产业的核心环节,其本身的技术路线,将直接决定AI产业链最终形态,以及各产业环节的分工协作方式、价值分配结构等。
那么,GPT系列大模型会成为AI算法模型的终极答案吗?
通过对AI发展技术路线的梳理,中信证券分析师陈俊云、许英博等指出,GPT模型在交互逻辑、内容生成和理解上具备独特优势,AI算法模型最终会普遍朝GPT方向靠拢。
AI技术路径四阶段
从人工智能这个概念在1950年被提出开始,已经经历了从规则学习到机器学习再到神经网络的关键转变。分析师强调,本轮人工智能的技术突破都是基于在神经网络技术上的不断进步。过去10年里,AI模型经历了从小模型到以Transformer为代表的大模型的转变。
而细分近十年来模型发展的进步,分析师观察到了从以CNN、DNN为代表的传统神经网络小模型到以Transformer为代表的神经网络大模型转变的趋势。
具体来看,全球AI行业最近10年的发展历史,可以总结为4个阶段:
1)2017年前:
以深度学习为核心的小模型占据主流:这类模型以LSTM及CNN模型作为典型的特征抽取器,根据特定领域标注数据训练,在一些任务上可以达到接近人类的水准。但是硬件算力不够导致针对其他领域重新训练成本过高,让其通用型任务的完成情况较差。
2)2017年到2020年:
以谷歌Bert为代表的双向预训练+FineTuning(微调)的Transformer模型横空出世成为了人工智能的主流方向。
谷歌研究团队发表的《Attention is all you need》论文(作者:Ashish Vaswani,Noam Shazeer,Niki Parmar等)开创了Transformer模型,重新统一了自然语言模型 (NLP) 的研究范式。
这类模型以预训练的方式学习语言学特征,大幅简化了过去NLP繁琐的研究种类。Transformer作为特征提取器效果好于CNN、LSTM模型等,在信息容纳能力、并行计算等方面明显占优,让AI首次能在语言任务的部分场景中追平人类。
3)2020年到2022年:
产业界与学术界继续沿着Transformer的道路前景,但开始尝试不同于Bert的其他Transformer架构,通过预训练无监督学习的方法不断增加模型体积成为了这一时段的主流。
以1750亿参数的GPT-3为代表,各大互联网巨头不断尝试增加模型体积以获得更好的效果。
GPT-3为代表的自回归+Prompting的方法开始展现产品化能力的优越性,与Fine-tuning方法的Bert模型成为两条道路。
相比于Bert,GPT-3的自回归+Prompting在产品化能力展现出了两个优点:
Fine-tuning对于小公司更难部署,从产品化的角度上更加困难;Prompting的方法更符合我们对以人类的方式使用AI的愿望,并实现了人、模型之间的自然交互。
谷歌等巨头在这一阶段也意识到了Prompting方法的重要性,逐渐开始转向。
国内AI研究在这一段时间内出现了明显落后,仍然沿着Bert模型的方向继续前进,对GPT-3的研究很少;同时受制于中文优质语料的缺乏,模型大小也较难提升。
4)2022年至今:
ChatGPT的成功证明了GPT模型的Prompting道路的正确性,同时也强调了数据质量的重要性。
ChatGPT最重要的成功是在产品化上更进一步:ChatGPT在模型精度上并没有飞跃性的突破,但从Few Shot prompt(需要输入少量范例示范)转换到Instruct(用人类语言描述想做什么)更加贴合用户的习惯。
GPT更接近“通用人工智能”
分析师总结称,尽管Prompting虽然牺牲了部分精度,但无需用任务区分器区别不同的任务,更接近于大众所理解的“通用人工智能”。
此前大众此前接触的人工智能如Siri、小爱、小度音箱等,通过以任务分类的形式运行,准备不同任务的标注数据分别进行训练,是传统的Bert类模型。
简单来说,将预先设置好的任务类型放于模型背后,使用者通过描述任务类型系统来匹配对应的模块,缺点是使用者的指令需要清晰且无法执行没有预先设置的任务类型。
而GPT类模型面对用户不同的输入,模型可以自行判断给了用户更好的体验,这也更接近于大众理解的“通用人工智能”。
而在LLM模型的技术路线上,GPT在内容生成、理解上的良好表现,以及更为可行的人、模型交互方式(prompt提示词),让GPT有望成为算法模型的终极答案。