从GPT-1到GPT-4:技术浪潮的演进与未来的展望
引言
诚然,从关系数据库到互联网信息检索,每一次知识表示与调用方式的跃迁,都在科技史上引发了巨大的技术变革。自ChatGPT发布以来,生成式AI成为新的技术范式,这场变革从微软、Google、百度等搜索引擎开始,迅速蔓延,越来越多的工作面临不可逆转的改变。有研究表明,至少80%的工作将或多或少受到其影响。
在这场热潮中,有投资者声称投入了5000万美元,也有技术大牛如李沐等人纷纷选择离职创业,市场的声音愈发嘈杂,暗流涌动。主流关注逐渐从技术探讨转向“AI取代人类”的恐慌,警示人们“不要温和地走入那个良夜”。同时,也有人开始思考:人类是否能够创造一个全知全能的存在这样的终极命题。
某些人欢欣鼓舞,称自己是ChatGPT的忠实追随者;另一些人则对其不屑一顾,认为这不过是资本炒作的泡沫。无论持何种观点,这场技术浪潮已势不可挡。接下来,我们将追溯从GPT-1到GPT-4的发展历程,探讨这一系列技术变革的前世、今生与未来。
GPT系列发展历程的回顾
追溯GPT系列的发展,我们发现这是一项横跨五年的技术探索。从GPT-2到GPT-3,模型在几乎不改变框架的情况下,参数量从15亿增至1750亿。这与Google推出的T5、Switch Transformer和PaLM等一系列大模型的“赛马机制”截然不同,OpenAI始终坚持GPT的发展路线。
这种坚持现在看来尤为不易。2020年,OpenAI提出了大模型的缩放法则,增大模型参数规模可显著提升模型性能,成为一项“金科玉律”。随后,1760亿参数的BLOOM、5300亿的MT-NLG、5400亿的PaLM等多个模型相继涌现,甚至有人以MoE(Mixture of Experts)架构强行将参数量堆叠至万亿,关于GPT-4参数将达100万亿的传言一度甚嚣尘上。
然而当时间推移至2022年中,国内大多数研究者在追求大模型的过程中感到迷茫,学术界的“fine-tune”和“prompt”技巧都显得无比仓促,工业界更难以在大模型落地应用的现象层出不穷。这使得参与这一浪潮的人们面临着“顶不上天,立不住地”的窘境,盲目跟风的结果留下了一地鸡毛。Epoch AI有言,语言数据将在2026年耗尽;与此同时,越来越多的逆向缩放现象不断被揭示,似乎超大模型的发展道路遍布迷雾。
不过,如果从更高的视角审视,继续加大模型规模在某个阈值后,模型性能会出现井喷式的提升,这一现象被称为大模型的涌现性。研究发现,模型规模的增加会导致准确率呈现“U型”曲线,超大规模模型似乎在某个临界点后表现出极强的能力。新的发现与进展似乎彻底改变了游戏规则,许多提示增强技术在小模型上并无显著效果,但在模型达到某个规模后,效果却突然显现。
在此背景下,OpenAI将人类反馈强化学习(RLHF)应用于GPT-3模型中,简而言之,RLHF通过人类反馈对预训练模型进行微调,从而更好地符合人类偏好。看似简单的RLHF,OpenAI同样经历了五年的探索历程。
- 2017年,OpenAI首次提出这一技术,通过少量人类反馈作为奖励函数,使系统能处理复杂任务,获得了良好的效果。
- 2021年,OpenAI利用这一技术进行摘要生成,雇佣了多位人工标注者生成数据以调校模型,初步验证了RLHF在语言模型中的有效性。
- 2022年,OpenAI应用RLHF于GPT-3,并推出更加符合用户意图的InstructGPT,虽然模型参数远低于GPT-3,但在遵循指令和减少有毒输出方面表现优异。
基于RLHF技术,OpenAI构建了ChatGPT,随后,GPT-4的问世更是成为科技界的一大盛事,OpenAI创始人Sam Altman表示这是迄今为止最强大的多模态模型。
GPT-4的现状与技术背景
2023年3月14日,GPT-4正式发布,OpenAI发布了技术报告和简短预告片,表明其多模态能力,使模型能够进行图像识别、生成歌词、构建网站等,并且在各类考试中表现优异,甚至达到了哈佛、斯坦福等顶尖高校的水平。
- 3月16日,OpenAI首席科学家Ilya Sutskever表示出于竞争与安全考虑,将不再分享更多关于GPT-4的信息,坦言之前的开源决策是错误的。
- 3月17日,微软全面引入生成式AI助手Copilot,将GPT-4集成进Microsoft 365应用,用户可以通过AI完成草稿撰写、演示制作、邮件编辑、会议总结等任务。
- 3月20日,OpenAI发布论文,预计GPT模型将在80%的工作岗位上产生潜在影响。
随着技术壁垒的建立,OpenAI开始拒绝技术开源,DeepMind首席执行官Demis Hassabis也表示,人工智能行业必须开始考虑开放研究的风险。
这一切变化催生了对新技术的深思。OpenAI前政策主管Jack Clark对此表示强烈担忧,认为GPT-4的出现更像是社会与政治的转折点,而不仅仅是技术层面的进步。
总结与未来展望
回归技术本身,OpenAI表示在发布GPT-4之前,花费了八个月进行安全研究及风险评估。GPT-4是一个大型的视觉语言模型,与DeepMind的Flamingo模型类似,可处理文本和图像输入。数据集的构建过程复杂并经过严格的过滤,目的在于减少不当内容的比例。推测GPT-4的训练基于1.7T-2.9T的文本tokens,参数量包括800-1400亿的语言模型和200亿的视觉模型参数。
值得关注的是,GPT-4在文本生成长度上有了显著提升,最大token数达到了32768,生成长度扩大了八倍,为应用提供了更大空间。
未来,GPT-4的潜力无疑将为许多领域带来变革。OpenAI的合作伙伴包括可汗学院、Duolingo等教育机构,以及微软、波士顿咨询等IT和专业服务公司。AI将辅导学生学习、提升生产力,甚至为企业的下一次重大投资提供支持。
在这一转变中,越来越多的事务将交由AI完成,未来的人类将拥有更多自由和可能性,甚至可能在某一天将思考的权力让渡给AI。当我们回望,这场变革将推动我们重新审视人类的价值,而这段旅程,依旧任重道远。