
近日,来自 MIT FutureTech 的研究人员发表了一项关于大型语言模型能力增长速度的研究,结果表明:LLM 的能力大约每 8 个月就会翻一倍,速度远超摩尔定律!我们人类可能要养不起 AI 了!
论文地址:https://arxiv.org/pdf/2403.05812.pdf
LLM 的能力提升大部分来自于算力,而摩尔定律代表着硬体算力的发展,
——也就是说,随着时间的推移,终有一天我们将无法满足 LLM 所需要的算力!
如果那个时候 AI 有了意识,不知道会不会自己想办法找饭吃?
上图表示不同领域的演算法改进对有效计算翻倍的估计。 蓝点表示中心估计值或範围; 蓝色三角形对应于不同大小(範围从 1K 到 1B)的问题的倍增时间; 紫色虚线对应于摩尔定律表示的 2 年倍增时间。
摩尔定律和比尔盖兹
摩尔定律(Moore's law)是一种经验或者观察结果,表示积体电路(IC)中的电晶体数量大约每两年翻一番。
1965 年,仙童半导体(Fairchild Semiconductor)和英特尔的联合创始人 Gordon Moore 假设积体电路的元件数量每年翻一番,并预测这种增长率将至少再持续十年。
1975 年,展望下一个十年,他将预测修改为每两年翻一番,复合年增长率(CAGR)为 41%。
虽然 Moore 没有使用经验证据来预测历史趋势将继续下去,但他的预测自 1975 年以来一直成立,所以也就成了「定律」。
因为摩尔定律被半导体行业用于指导长期规划和设定研发目标,所以在某种程度上,成了一种自我实现预言。
数字电子技术的进步,例如微处理器价格的降低、记忆体容量(RAM 和快闪记忆体)的增加、感测器的改进,甚至数位相机中像素的数量和大小,都与摩尔定律密切相关。
数字电子的这些持续变化一直是技术和社会变革、生产力和经济增长的驱动力。
不过光靠自我激励肯定是不行的,虽然行业专家没法对摩尔定律能持续多久达成共识,但根据微处理器架构师的报告,自 2010 年左右以来,整个行业的半导体发展速度已经放缓,略低于摩尔定律预测的速度。
下面是维基百科给出的电晶体数量增长趋势图:
到了 2022 年 9 月,NVIDIA 首席执行长黄仁勋直言「摩尔定律已死」,不过英特尔首席执行长 Pat Gelsinger 则表示不同意。
从下图我们可以看出,英特尔还在努力用各种技术和方法为自己老祖宗提出的定律续命,并表示,问题不大,你看我们还是直线没有弯。
Andy and Bill's Law
关于算力的增长,有一句话是这样说的:「安迪给的,比尔都拿走(What Andy giveth, Bill taketh away)」。
这反映了当时的英特尔首席执行长 Andy Grove 每次向市场推出新晶片时,微软的 CEO 比尔.盖兹(Bill Gates)都会通过升级软体来吃掉晶片提升的性能。
——而以后吃掉晶片算力的就是大型语言模型了,而且根据 MIT 的这项研究,大型语言模型以后根本吃不饱。
研究方法
如何定义 LLM 的能力提升?首先,研究人员对模型的能力进行了量化。
基本的思想就是:如果一种演算法或架构在基準测试中以一半的计算量获得相同的结果,那么就可以说,它比另一种演算法或架构好两倍。
有了比赛规则之后,研究人员招募了 200 多个语言模型来参加比赛,同时为了确保公平公正,比赛所用的资料集是 WikiText-103 和 WikiText-2 以及 Penn Treebank,代表了多年来用于评估语言模型的高品质文字资料。
专注于语言模型开发过程中使用的既定基準,为比较新旧模型提供了连续性。
需要注意的是,这里只量化了预训练模型的能力,没有考虑一些「训练后增强」手段,比如思维链提示(COT)、微调技术的改进或者内建搜寻的方法(RAG)。
模型定义
研究人员通过拟合一个满足两个关键目标的模型来评估其性能水平:
(1)模型必须与之前关于神经标度定律的工作大致一致;
(2)模型应允许分解提高性能的主要因素,例如提高模型中资料或自由参数的使用效率。
这里採用的核心方法类似于之前提出的缩放定律,将 Dense Transformer 的训练损失 L 与其参数 N 的数量和训练资料集大小 D 相关联:
其中 L 是资料集上每个 token 的交叉熵损失,E、A、B、α 和 β 是常数。E 表示资料集的「不可减少损失」,而第二项和第三项分别代表由于模型或资料集的有限性而导致的错误。
因为随着时间的推移,实现相同性能水平所需的资源(N 和 D)会减少。为了衡量这一点,作者在模型中引入了「有效资料」和「有效模型大小」的概念:
其中的 Y 表示年份,前面的係数表示进展率,代入上面的缩放定律,可以得到:
通过这个公式,就可以估计随着时间的推移,实现相同性能水平所需的更少资源(N 和 D)的速度。
资料集
参与测评的包含 400 多个在 WikiText-103(WT103)、WikiText-2(WT2)和 Penn Treebank(PTB)上评估的语言模型,其中约 60% 可用于分析。
研究人员首先从大约 200 篇不同的论文中检索了相关的评估资讯,又额外使用框架执行了 25 个模型的评估。
然后,考虑资料的子集,其中包含拟合模型结构所需的资讯:token 级测试困惑度(决定交叉熵损失)、发布日期、模型参数数量和训练资料集大小,最终筛选出 231 个模型供分析。
这 231 个语言模型,跨越了超过 8 个数量级的计算,上图中的每个形状代表一个模型。
形状的大小与训练期间使用的计算成正比,困惑度评估来自于现有文献以及作者自己的评估测试。
在某些情况下,会从同一篇论文中检索到多个模型,为了避免自相关带来的问题,这里每篇论文最多只选择三个模型。
实证结果
根据缩放定律,以及作者引入的有效资料、有效参数和有效计算的定义来进行评估,结果表明:有效计算的中位倍增时间为 8.4 个月,95% 置信区间为 4.5 至 14.3 个月。
上图表示通过交叉验证选择的模型的演算法进度估计值。图 a 显示了倍增时间的彙总估计值,图 b 显示了从左到右按交叉验证性能递减(MSE 测试损耗增加)排序。
上图比较了 2016 年至 2020 年前后的演算法有效计算的估计倍增时间。相对于前期,后期的倍增时间较短,表明在该截止年之后演算法进步速度加快。
?
?
延伸阅读:AI搜寻引擎还没有办法取代 Google 的真正原因延伸阅读:WWDC 2024 确认于 6 月 11 日登场,iOS 18等系统将加入生成式 AI??
Facebook LINE