【愚公系列】《人工智能70年》052-生成式Al的辉煌与难题(规模法则的是与非)
【摘要】大模型发展正面临规模法则(Scaling Law)的效能争议。尽管OpenAI曾主张扩大参数规模可持续提升性能,但GPT-4后进步放缓、简单任务错误率上升等现象表明边际效应递减。OpenAI前首席科学家伊利亚指出"数据枯竭"是主因,而合成数据方案又存在"模型近亲繁殖"风险。争论揭示数据质量与多样性才是关键,同时多模态数据可能提供新突破点。当前行业正从
💎【行业认证·权威头衔】
✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家
✔ 开发者社区全满贯:CSDN博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主
✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者
🏆【荣誉殿堂】
🎖 连续三年蝉联"华为云十佳博主"(2022-2024)
🎖 双冠加冕CSDN"年度博客之星TOP2"(2022&2023)
🎖 十余个技术社区年度杰出贡献奖得主
📚【知识宝库】
覆盖全栈技术矩阵:
◾ 编程语言:.NET/Java/Python/Go/Node…
◾ 移动生态:HarmonyOS/iOS/Android/小程序
◾ 前沿领域:物联网/网络安全/大数据/AI/元宇宙
◾ 游戏开发:Unity3D引擎深度解析
文章目录
🚀前言
无所不能的 ChatGPT,使人们对大语育模型的通用能力有了全新认识。
🚀一、规模法则的是与非
大模型发展至今所展现出的强大能力,长期以来被认为很大程度上得益于“规模法则”(Scaling Law)的作用。人们一度坚信“大力出奇迹”——只需不断扩大模型参数规模,性能就会持续提升。然而,随着大模型的进一步演进,规模法则的有效性开始受到质疑。越来越多的研究和实践表明,参数数量的增加并不总是伴随性能的线性增长,扩大规模带来的边际效应正在逐渐递减。
与精确且长期有效的“摩尔定律”不同,规模法则并非严格意义上的自然科学定律,而是OpenAI研究人员在2020年提出的一种经验性观察。该法则指出,随着模型参数规模、训练数据量和计算资源的增加,模型性能会以可预测的方式提升。它暗示即使不进行算法层面的根本创新,仅靠扩大规模也可显著提高模型表现。尽管此前就存在质疑声音,OpenAI仍坚持这一理念并推动其广泛传播。但如今,情况正在发生变化。
不少AI专家指出,在GPT-4(参数规模达万亿级别)之后,大模型的进步速度明显放缓。与前几代相比,GPT-4并未展现出能力上的显著跨越,表明模型规模扩大可能已接近边际收益递减的临界点。2024年4月,著名AI评论家、学者及创业者加里·马库斯(Gary Marcus)博士公开发问:“我们都知道GPT-3远优于GPT-2,GPT-4又明显强于GPT-3,但此后呢?”言辞中暗指GPT-4及其后版本进展有限。
大规模模型因参数膨胀而衍生的缺陷也逐渐引起关注。西班牙瓦伦西亚理工大学在《自然》杂志上发表的一项研究揭示:模型规模越大,生成的答案未必更准确。研究针对GPT系列模型在不同任务中的表现进行分析,发现大模型在复杂任务上表现优异,却在简单任务(如基础加法运算、猜字谜等)上错误率显著更高,GPT-4在此类任务上的错误率甚至比某些小模型高出15%。这一“大反而易错”的现象引发广泛讨论。
更引人瞩目的质疑来自OpenAI前首席科学家伊利亚·苏茨克维(Ilya Sutskever)。他在2024年底多次公开表示,预训练大模型的发展已触及天花板,规模法则正式“碰壁”。由于伊利亚此前在OpenAI期间曾是“规模扩大”路线的关键推动者,他的“反转”尤为受到关注。他指出,边际效应出现的原因包括算力限制和推理成本等问题,但最关键的因素是“数据已然耗尽”。他将互联网上人类生成的内容比作化石燃料——存量有限,不可持续,并预警行业可用高质量新数据即将枯竭。
有人进一步推测,大模型可能在2028年面临“数据墙”,即新增训练数据几乎耗尽。这一悲观预测促使人们寻找替代方案,合成数据一度被视为解决之道。例如,英伟达在其开源模型Nemotron-4 340B中使用了98%的合成数据。然而,2024年7月Meta、纽约大学等机构在《自然》封面论文中指出:使用合成数据训练模型可能导致“模型近亲繁殖”——迭代几代后性能急剧退化,模型规模越大,退化越严重。合成数据因此甚至被贴上“毒数据”的标签。
这些争论揭示了一个更为根本的议题:数据质量与多样性才是模型稳健发展的关键。与此同时,也有观点反对“数据枯竭论”,认为当前大模型所使用的文本数据仅是人类可用信息的一小部分。随着多模态模型的推进,图像、音频、视频乃至触觉、嗅觉等传感器数据正汇入洪流,数据资源实则是无穷尽的。
无论规模法则是否已失效,关于它的讨论仍在激烈进行。这些思想交锋和技术探索共同推动大模型向前发展,并激励研究者走出依赖规模扩张的舒适区,转向更高效、更可持续的创新路径。作为AIGC的“大脑”,大模型必将继续进化,而如何平衡规模、质量与伦理,将是整个领域亟需回应的问题。
更多推荐
所有评论(0)