Scaling law

Publish‑ready workflow that lets you focus on ideas, not infrastructure

Author

Published

May. 04, 2026

PDF

Introduction

本文中关注的研究问题为:

给定一个 FLOPs budget, 如何平衡 model size 和 dataset size 之间的关系?

即,我们希望求解如下优化问题:

Nopt(C),Dopt(C)=argminN,D, s.t. FLOPs(N,D)=CL(N,D)N_{opt}(C), D_{opt}(C) =\arg\min_{N,D,\ \mathrm{s.t.}\ FLOPs(N,D)=C} L(N,D)

作者通过训练 400 多个模型,构建了对应的 scaling law.

已有工作如 Kaplan scaling law 已经发现模型参数和大语言模型表现之间的关系,一个结论就是计算最优并不代表达到最优的 loss. 在本文中,作者也有相同结论,但是作者认为大模型应该使用比 Kaplan scaling law 推荐的更多的 training token. 基于这个发现,作者训练了 Chinchilla, 一个 70B 的 LLM, Chinchilla 相比 Gopher 表现有了大幅度的提升。

Scaling Law

Fix Model Size and Very Dataset Size

这个方法中,作者通过改变训练步数,来研究 FLOPs 与模型表现之间的关系,结果如下图所示

Training Curve envelope

通过对实验结果进行拟合,作者发现存在关系 Nopt(C)CaN_{opt}(C)\propto C^a 以及 Dopt(C)CbD_{opt}(C)\propto C^b, 拟合的结果为 a=b=0.5a=b=0.5.

IsoFLOPS Profiles

这个方法中,作者使用了不同的模型大小以及算力来构建最优模型参数量与算力之间的关系。作者给定 9 个算力配置,然后选取不同参数量的模型,训练的 token 数由算力和模型参数量决定,实验结果如下图所示

IsoFLOP curves

结果显示,不同大小的模型的表现 (loss) 随算力上升先下降后上升。因此给定算力,存在一个最优的 model size. 作者基于拟合出来的曲线得到了 Gopher 使用的算力配置下的最优 model size 和 training tokens. 同样的,作者得到 a=0.49,b=0.51a=0.49,b=0.51.

Fitting a Parametric Loss Function

这个方法中,作者对 L(N,D)L(N,D) 进行建模,作者使用了如下的公式

L(N,D)=E+ANα+BDβL(N,D) = E + \frac{A}{N^{\alpha}} + \frac{B}{D^{\beta}}

第一项代表了建模的误差,第二项代表了数据集充分大损失与模型参数之间的关系,第三项代表了当模型充分训练时,损失与数据集大小之间的关系。

为了求解 (A,B,E,α,β)(A,B,E,\alpha,\beta), 作者基于训练收集到的数据 L(Ni,Di)L(N_i,D_i), 通过 L-BFGS 算法来最小化 Huber loss 进行求解,结果得到 (A,B,E,α,β)=(406.4,410.7,1.69,0.34,0.28)(A,B,E,\alpha,\beta)=( 406.4, 410.7, 1.69, 0.34, 0.28).

将结果带入带上面的表达式中,然后求出梯度为 0 的点,就得到

Nopt(C)=G(C6)a,Dopt(C)=G1(C6)b, where G=(αAβB)1/(α+β),a=βα+β,b=αα+βN_{opt}(C) = G\left(\frac C6\right)^a, D_{opt}(C) = G^{-1}\left(\frac C6\right)^b, \text{ where }G=\left(\frac{\alpha A}{\beta B}\right)^{1/(\alpha+\beta)}, a=\frac{\beta}{\alpha+\beta}, b=\frac{\alpha}{\alpha+\beta}

带入数值之后就得到 a=0.46a=0.46, b=0.54b=0.54. 作者对结果可视化如下图所示,左图是拟合曲线的 Contour plot, 右图对左图的一个切片

Parametric fit

Optimal Model Scaling

作者将三种方法的结果以及 Kaplan scaling law 的结果总结放在下表中,作者假设 Nopt(C)CaN_{opt}(C)\propto C^a 以及 Dopt(C)CbD_{opt}(C)\propto C^b

Approachaabb
Kaplan0.730.26
Approach 10.500.50
Approach 20.490.51
Approach 30.460.54

结果表明,三种方法的结论差不多:model size 和 dataset size 增长 debility 差不多。

作者因此给出来的不同模型大小所需要的算力以及 token, 结果如下表所示

ParametersApproach 1Approach 2Approach 3
FLOPsTokensFLOPsTokensFLOPsTokens
400 M1.92e+198.0 B1.84e+197.7 B1.84e+197.7 B
1 B1.21e+2020.2 B1.20e+2020.0 B1.20e+2020.0 B
10 B1.23e+22205.1 B1.32e+22219.5 B1.32e+22219.5 B
67 B5.76e+231.5 T6.88e+231.7 T6.88e+231.7 T
175 B3.85e+243.7 T4.54e+244.3 T4.54e+244.3 T
280 B9.90e+245.9 T1.18e+257.1 T1.18e+257.1 T
520 B3.43e+2511.0 T4.19e+2513.4 T4.19e+2513.4 T
1 T1.27e+2621.2 T1.59e+2626.5 T1.59e+2626.5 T
10 T1.30e+28216.2 T1.75e+28292.0 T1.75e+28292.0 T

作者基于发现的 scaling law, 对已有模型进行了探究,发现现有的大模型都存在 under-training 的现象,结果如下图所示

Overlaid predictions

实验结果显示,现有的大模型的 size 应该更小(或者需要更大的算力)。作者最终的结论就是,现有的比较小的模型,需要更多的算力才能达到更好的表现。

Chinchilla

基于上一节的发现,作者提出了 Chinchilla, 一个 70B 的模型,训练使用了 1.4T token. 训练的数据集为 MassiveText 的扩展版本,训练使用的优化器为 AdamW, tokenizer 为 SentencePiece.

模型配置如下表所示

ModelLayersNumber HeadsKey/Value SizedmodelMax LRBatch Size
Gopher 280B80128128163844×1054\times 10^{-5}3M6M3M\to6M
Chinchilla 70B806412881921×1051\times 10^{-5}1.5M3M1.5M\to3M

Ablation Study

learning rate schedule 作者还通过 ablation study 发现,cosine learning rate cycle length 应该和训练步数差不多,当 cycle length 太长时,模型表现会下降。

Optimizer 作者对比了 AdamAdamW 的表现,结果发现,AdamW 的表现优于 Adam.

High Precision 训练时,作者使用了高精度也就是 float32 来保存梯度的状态,结果显示,不管是 Adam 还是 AdamW, 使用高精度都可以提高模型的表现

Comparison with Kaplan 作者还对比了 Chinchilla 和 Kaplan 的预测结果,如下图所示

Comparison with Kaplan

结果显示,基于 Chinchilla 预测得到的模型训练效果比 Kaplan 的更好。

Curvature of the FLOPs-frontier 作者发现,FLOP-minimal loss frontier 存在 curvature, 也就是小模型和大模型预测出来的曲线是不一样的,作者将结果展示在下图中

Curvature of the FLOPs-frontier

结果显示,从小模型拟合出来的结果比大模型拥有更高的算力使用效率,作者认为这是未来的一个研究方向。

Conclusion

本文中作者重新探究了针对 LLM 的 scaling law, 作者发现已有的大模型都存在 under-training 的现象,也就是说,模型需要更多的训练 token, 具体来讲,model size scaling 和 dataset scaling 应该处于同一水平。作者基于这个结论,提出了 Chinchilla, 一个 70B 的 LLM, 其表现超过了 280B 的 LLM.

    Introduction

    作者首先就总结了本文的发现,主要有以下几点:

    1. 损失与模型的 scale , 即除开 embedding 的模型参数,数据集大小以及算力强相关,与 model shape 比如 depth 或者 width 关系不大
    2. scaling law 是非常光滑的,意味着 scaling law 是一个可预测的模型
    3. overfitting 普遍存在,当参数和数据集大小同时增加时,模型的表现会增加,但是当其中一个量固定时,提升就比较小。并且当我们将模型参数提升 8 倍时,我们只需要将数据集的大小提升 5 倍就可以避免过拟合
    4. 训练的损失函数曲线与 model size 无关,因此我们可以预测给定大小模型的表现
    5. 模型在测试集和训练集上的表现高度相关,因此我们可以基于训练集的损失来预测模型的表现
    6. 大模型比小模型拥有更高的 sample efficiency, 即更小的训练步数就可以达到相同的表现
    7. convergence 不能说明一切,我们可以通过 early-stopping 来提高算力使用效率,避免模型花费过多的算力在较小的提升上
    8. 最优的 batch size 与 loss 呈一个 power law 的关系

    Notation

    SymbolNotation
    LLcross entropy loss
    NNnon-embedding parametters
    BBbatch size
    SSnumber of training steps
    C6NBSC\approx 6NBSestimate of total training compute
    DDdataset size in tokens
    BcritB_{crit}critical batch size
    CminC_{\min}estimate of the minimum compute to reach a given value of loss
    SminS_{\min}estimate of the minimum steps to reach a given value of loss
    αX\alpha_Xpower-law exponents for the scaling law of loss
    ddhidden size of the model

    为了简便,后续未经特殊说明,我们说模型参数均指的是 non-embedding 的参数

    Scaling Law Overview

    1. 当数据集 DD 足够大时,损失与模型参数大小 NN 之间的关系为
    L(N)=(NCN)αN,αN0.076,NC8.8×1013L(N) = \left(\frac{N_C}{N}\right)^{\alpha_N}, \alpha_N\sim 0.076, N_C\sim 8.8\times 10^{13}
    1. 给定模型参数大小 NN , 损失与数据集大小 DD 之间的关系为
    L(D)=(DCD)αD,αD0.095,DC5.4×1013L(D) = \left(\frac{D_C}{D}\right)^{\alpha_D}, \alpha_D\sim 0.095, D_C\sim 5.4\times 10^{13}
    1. 给定足够大的数据集 DD 和最优模型大小 NN 时,损失与算力 CC 之间的关系为
    L(Cmin)=(CCminCmin)αD,αCmin0.050,CCmin3.1×108L(C_{\min}) = \left(\frac{C_C^{\min}}{C_{\min}}\right)^{\alpha_D}, \alpha_C^{\min}\sim 0.050, C_C^{\min}\sim 3.1\times 10^{8}

    作者在不同大小的数据集,算力,模型大小下进行了测试,结果发现 scaling 与模型的 shape, transformer 的超参数之间的关系比较小。αN,αD,αCmin\alpha_N,\alpha_D,\alpha_C^{\min} 等决定了当我们 scale up 数据及大小,模型大小和算力时损失的变化情况。比如当我们将模型参数提升至 2 倍时,模型的损失会降低至原来的 0.950.95.

    基于发现 1 和 2, 作者发现当我们将模型的 size 提升至原来的 2 倍时,模型的数据集大小应该提升至原来的 1.671.67 倍,具体关系为 DN0.74D\sim N^{0.74}.

    作者使用了一个统一的公式来描述损失与数据及大小和模型参数大小之间的关系

    L(N,D)=[(NcN)αNαD+DcD]αDL(N,D) = \left[\left(\frac{N_c}{N}\right)^{\frac{\alpha_N}{\alpha_D}}+ \frac{D_c}{D}\right]^{\alpha_D}
    1. 当数据集充分大时,损失与模型参数大小以及更新步数 SS 的关系如下
    L(N,S)=(NCN)αN+(SCSmin(S))αSL(N, S) = \left(\frac{N_C}{N}\right)^{\alpha_N} +\left(\frac{S_C}{S_{\min}(S)}\right)^{\alpha_S}

    这里 SC2.1×103S_C\approx 2.1\times 10^3, αS0.76\alpha_S\approx 0.76, Smin(S)S_{\min}(S) 是估计出来的最小优化步数

    1. 最优的 batch size 与损失函数之间的关系如下
    Bcrit(L)=BL1/αB,B2108 tokens,αB0.21B_{crit}(L) = \frac{B_*}{L^{1/\alpha_B}}, B_*\sim 2*10^8 \text{ tokens}, \alpha_B\sim 0.21
    1. 给定算力 CC 且无其他限制时,模型参数,数据及大小,batch size 和更新参数与算力之间的关系如下
    NCαCmin/αN,BCαCmin/αB,SCαCmin/αS,D=BSN\propto C^{\alpha_C^{\min}/\alpha_N}, B\propto C^{\alpha_C^{\min}/\alpha_B}, S\propto C^{\alpha_C^{\min}/\alpha_S}, D=BS

    其中

    αCmin=11αS+1αB+1αN\alpha_C^{\min} = \frac{1}{\frac{1}{\alpha_S}+\frac{1}{\alpha_B}+\frac{1}{\alpha_N}}

    实验的结果为 NCmin0.73N\propto C_{\min}^{0.73}, BCmin0.24B\propto C_{\min}^{0.24} , SCmin0.03S\propto C_{\min}^{0.03}. 也就是说,当我们提升算力时,提升模型的参数大小带来的收益是最高的。

    Background

    首先,transformer 的参数量通过计算可以得到

    N2dn(2d+dff)=12nd2N\approx 2dn(2d+d_{ff}) = 12nd^2

    这里 dd 是 hidden size, nn 是 layer 个数,dffd_{ff} 是 MLP 的 hidden size, 这里我们 假设 dff=4dd_{ff}=4d. 计算时我们丢掉了 bias 以及 LayerNorm 的参数量。具体计算过程见 LLM parameter analysis

    transformer 一次前向计算的 operations 数量大概为

    Cforward2N+2nLdC_{forward}\approx 2N + 2nLd

    这里 LL 是输入的 token 长度。

    由于反向传播所需要的 FLOPs 是前向传播两倍,因此 transformer 的计算量为

    C=Cbackward+Cforward=3Cforward6NC = C_{backward} + C_{forward} = 3C_{forward}\approx 6N

    具体计算过程见 LLM FLOPs analysis。也就是说,对于参数量为 NN 的 transformer model, 每个 token 所需要的 FLOPs 为 C6NC\approx 6N

    Empirical Results and Basic Power Laws

    Transformer Shape and Hyper-parameter Independence

    作者基于 N=12nd2N=12nd^2, 在保持总参数量 NN 不变的情况下,分别调整 nn, dffd_{ff} 和 number of attention heads 的个数 (变化 dd 用于维持总参数量不变),结果如下图所示

    Ablation study on model shape

    实验结果发现,损失对于 dff/dd_{ff}/d, d/nd/n, d/nhd/n_h 都比较 robust, 说明模型的损失对模型的 shape 依赖性比较低。

    Non-embedding Parameter Count

    作者探究了以下 model size 对损失的影响,作者使用了不同的 nndd, 然后训练得到的损失情况如下图所示

    Ablation study on model size

    作者发现,当包含 embedding parameter 时,损失不仅依赖于模型参数量,还依赖于 layer 层数 nn, 但是当我们排除 embedding parameter 时,模型的损失便与 layer 层数 nn 关系不大。这个趋势可以用以下模型来表示

    L(N)(NcN)αNL(N) \approx \left(\frac{N_c}{N}\right)^{\alpha_N}

    最终拟合的曲线如下图所示

    Scaling law with respect to parameters

    Comparing to LSTMs and Universal Transformers

    作者比较了 LSTM 和 Transformer 结构的损失,结果如下图所示

    Ablation study on LSTM

    可以看到,transformer 比 LSTM 拥有更强的学习能力, LSTM 架构对于 early context 表现比较好,但是随着 context 增加,LSTM 的表现逐渐弱于 transformer. 即 transformer 的长上下文能力强于 LSTM 架构

    Generalization Among Data Distributions

    模型是在 WebText2 数据集上训练的,作者进一步在其他数据集上评估了以下模型的泛化性,结果如下图所示

    Generalization performance

    结果发现,模型在其他数据集上的泛化性很好。并且,模型的泛化性能仅与训练阶段的表现相关(validation loss),而与训练阶段(是否收敛)无关

    作者还评估了 model depth 对模型泛化性的影响,结果如下图所示

    Ablation study on depth

    实验结果显示,model depth 对模型泛化性基本没有影响

    Performance with Data Size and Compute

    作者探究了损失与 dataset size DD 之间的关系。作者固定一个模型,然后当 test loss 不再下降时停止训练,结果发现 test loss 与 dataset size DD 之间存在如下关系

    L(D)(DcD)αDL(D) \approx \left(\frac{D_c}{D}\right)^{\alpha_D}

    拟合结果如下图所示

    Scaling law with respect to dataset

    接下来,基于前面计算的结果,我们有 C6ND=6NBSC\approx 6ND=6NBS, 这里 BB 是 batch size, SS 是训练步数。给定 CC, 作者使用不同大小的模型进行训练,batch size BB 保持不懂,训练步数设置为 S=C/6BSS=C/6BS,实验结果显示损失与算力 CC 之间满足如下关系

    L(C)(CcC)αCL(C) \approx \left(\frac{C_c}{C}\right)^{\alpha_C}

    拟合结果如下图所示

    Scaling law with respect to compute

    作者进一步探究了 sample efficiency 与 model size 之间的关系,实验结果如下图所示

    Sample efficiency with respect to model size

    结果显示,随着 model size 增加,sample efficiency 也在增加

    Charting the Infinite Data Limit and Overfitting

    作者在本节探讨了同时变化 NNDD 对损失变化的影响。

    Proposed Equation

    作者基于三个原则进行建模:

    1. 改变 vocabulary size 或者 tokenization 会 rescale loss
    2. 固定 DD 并且令 NN\to\infty, 则最终损失应该接近 L(D)L(D). 反之固定 NN, 令 DD\to\infty, 最终损失应该接近 L(N)L(N)
    3. L(N,D)L(N,D)D=D=\infty 处应该是可解析的

    基于以上三条原则,将模型选择为如下形式

    L(N,D)=[(NcN)αNαD+DcD]αDL(N,D) = \left[\left(\frac{N_c}{N}\right)^{\frac{\alpha_N}{\alpha_D}}+ \frac{D_c}{D}\right]^{\alpha_D}

    作者基于不同配置进行训练,基于实验结果你和得到的参数如下

    ParameterαN\alpha_NαD\alpha_DNcN_cDcD_c
    Value0.0760.1036.4×10136.4\times 10^{13}1.8×10131.8\times 10^{13}

    接下来,作者探究了模型的过拟合程度,作者定义如下 metric

    δL(N,D):=L(N,D)L(N,)1\delta L(N,D) := \frac{L(N,D)}{L(N,\infty)} - 1

    带入 L(N,D)L(N,D) 定义就得到

    δL(N,D)=(1+(NNc)αNαDDcD)1\delta L(N,D) = \left(1 + \left(\frac{N}{N_c}\right)^{\frac{\alpha_N}{\alpha_D}}\frac{D_c}{D}\right) - 1

    通过测试不同的模型,作者发现 δL\delta L 的值在 0.020.02 左右,将实验结果带入到上面的公式就得到

    D(5×103)N0.7379D \geq (5\times 10^3)N^{0.7379}

    也就是说对于参数量为 NN 的模型,需要 data size D(5×103)N0.7379D \geq (5\times 10^3)N^{0.7379} 才能避免过拟合。

    Scaling Laws with Model Size and Training time

    作者在本节构建了损失函数与 model size NN 以及训练时间的 scaling law

    Adjustment for Training at Critical Batch Size

    已有结论说明,存在一个 critical batch size BcritB_{crit}, 当 batch size 接近 BcritB_{crit} 时,增加 batch size 对计算效率影响比较小,但是当 batch size 大于 BcritB_{crit} 时,带来的提升比较小。另一方面,batch size 会影响梯度的噪声程度。因此,训练步数 SS 和处理的样本数 E=BSE=BS 应该满足:

    (SSmin1)(EEmin1)=1\left(\frac{S}{S_{\min}}-1\right)\left(\frac{E}{E_{\min}}-1\right) = 1

    这里 SminS_{\min} 是达到损失 LL 所需要的最小训练步数,而 EminE_{\min} 是最小的训练样本数量。

    作者的实验结果如下

    Critical batch size relation

    作者将 critical batch size 定义为

    Bcrit(L):=EminSminB_{crit}(L) := \frac{E_{\min}}{S_{\min}}

    使用 critical batch size 进行训练可以在计算效率和算力之间达到一个平衡。

    作者基于上面的实验结果探究了 critical batch size 和 model performance 之间的关系,实验结果如下图所示

    Critical batch size vs performance

    可以看到,critical batch size 与 model size 的关系不大,仅与损失 LL 有关。作者通过以下模型拟合 critical batch size:

    Bcrit(L)BL1/αBB_{crit}(L) \approx \frac{B_*}{L^{1/\alpha_B}}

    这里 B2×108B_*\approx 2\times 10^8, αB0.21\alpha_B\approx 0.21.

    给定一个 target loss LL, 当 batch size BBcritB \gg B_{crit} 时,作者定义最小训练步数为

    Smin(S):=S1+Bcrit(L)/BS_{\min}(S) := \frac{S}{1+B_{crit}(L)/B}

    给定 target loss LL 和 model size NN, 当 batch size BBcritB \ll B_{crit} 时,作者定义最小算力为

    Cmin(C):=C1+Bcrit(L)/BC_{\min}(C) := \frac{C}{1+B_{crit}(L)/B}

    Performance with Model Size and Compute

    作者使用如下公式来探究损失与 model size 和 computer 之间的关系

    L(N,Smin)=(NCN)αN+(SCSmin(S))αSL(N, S_{\min}) = \left(\frac{N_C}{N}\right)^{\alpha_N} +\left(\frac{S_C}{S_{\min}(S)}\right)^{\alpha_S}

    拟合结果如下表所示

    ParameterαN\alpha_NαS\alpha_SNcN_cScS_c
    Value0.0770.766.5×10136.5\times 10^{13}2.1×1032.1\times 10^{3}

    基于这个拟合结果,作者得到了下图的结果

    Loss vs model size and training steps

    作者还使用了不同的可视化方式,如下图所示

    Performance vs compute budget and steps

    实验结果显示,上面的公式拟合的很好。

    Lower Bound on Early Stopping step

    作者还探究了以下 early step 与模型大小以及数据集之间的关系,作者通过分析得到如下结果

    Sstop(N,D)Sc[L(N,D)L(N,)]1/αSS_{stop}(N,D) \gtrsim \frac{S_c}{[L(N,D)-L(N,\infty)]^{1/\alpha_S}}

    其中 L(N,)L(N,\infty) 是在充分大数据集上的收敛损失。作者对实验结果进行了拟合,结果如下图所示

    Early stop results

    Optimal Allocation of the Compute Budget

    作者在本节探究了最优算力与 model size NN 和训练数据 2BcritSmin2B_{crit}S_{\min} 之间的关系

    Optimal Performance and Allocations

    作者首先基于

    Cmin(C):=C1+Bcrit(L)/BC_{\min}(C) := \frac{C}{1+B_{crit}(L)/B}

    绘制了如下曲线图

    Loss vs optimal compute

    作者发现,相比于 loss 与算力 CC 之间的关系,使用 CminC_{\min} 进行拟合效果更好。

    接下来,作者基于 L(Cmin)L(C_{\min}) 进一步探究了给定算力如何决定最优的 model size N(Cmin)N(C_{\min}). 其实验结果如下图所示

    Optimal model size given compute

    实验结果显示,model size 和算力之间有如下关系

    N(Cmin)(Cmin)0.73N(C_{\min}) \propto (C_{\min})^{0.73}

    作者进一步探究了对于非最优模型大小与算力之间的关系,作者先构建了如下的关系

    C(N,Neff)C(Neff,Neff)=NNeff[1+αSαN(1(NeffN)αN)] ⁣1/αS.\frac{C(N, N_{\mathrm{eff}})}{C(N_{\mathrm{eff}}, N_{\mathrm{eff}})} = \frac{N}{N_{\mathrm{eff}}} \left[ 1 + \frac{\alpha_S}{\alpha_N} \left( 1 - \left( \frac{N_{\mathrm{eff}}}{N} \right)^{\alpha_N} \right) \right]^{-\!1 / \alpha_S}.

    对应的示意图为

    Suboptimal model efficiency

    实现结果发现,大小为最优模型的 0.62.20.6\sim 2.2 倍只需要额外 20%20\% 的算力。作者强调,这个实验结果对于超大模型不一定适用。

    作者进一步推导了 SminS_{\min}CminC_{\min} 之间的关系,由于 Cmin=6NBcritSC_{\min}=6NB_{crit}S, 且我们前面已经有 BL4.8B\propto L^{-4.8}LCmin0.05L\propto C_{\min}^{-0.05}, 因此 我们有

    BcritL4.8(Cmin)0.05×(4.8)(Cmin)0.24B_{crit}\propto L^{-4.8} \propto (C_{\min})^{-0.05\times (-4.8)}\propto (C_{\min})^{0.24}

    以及

    SminCmin6BcritN(Cmin)(Cmin)0.03S_{\min} \propto \frac{C_{\min}}{6B_{crit}N(C_{\min})} \propto (C_{\min})^{0.03}

    拟合的结果如下图所示

    Optimal step size vs compute

    因此,基于上面的结果,当我们增加算力时,我们的主要精力应该放在增加模型大小和提高 batch size 上,而训练步数基本可以保持不变。

    Another way of Derivation

    作者还给出了另一种建模 L(Cmin)L(C_{\min}) 的方式,即从 L(N,Smin)L(N,S_{\min}) 中进行推导,作者将 BcritB_{crit}SminS_{\min} 的表达式带入到 L(N,Smin)L(N,S_{\min}) 然后求解最小值就得到

    L(Cmin)=(CCminCmin)αCminL(C_{\min})= \left(\frac{C_C^{\min}}{C_{\min}}\right)^{\alpha_C^{\min}}

    其中

    αCmin=11αS+1αB+1αN0.054\alpha_C^{\min} = \frac{1}{\frac{1}{\alpha_S}+\frac{1}{\alpha_B}+\frac{1}{\alpha_N}} \approx 0.054

    这和前面的结果基本是吻合的,进一步进行推导得到

    N(Cmin)(Cmin)αCmin/αN(Cmin)0.71N(C_{\min})\propto (C_{\min})^{\alpha_C^{\min}/\alpha_N}\approx (C_{\min})^{0.71}

    这个结果也和上面的差不多。

    Contradiction and a Conjecture

    作者发现,尽管拟合的 scaling law 曲线非常好,但是由于自然语言不可能达到 zero entropy, 因此该曲线最终一定会失效。作者基于更大的模型进行了实验,结果发现,模型在某一点开始就比预测的损失曲线下降的更慢。作者认为这是因为 transformer 模型已经达到了 maximal performance 导致的。

    通过前面的分析,我们发现 L(Cmin)L(C_{\min})L(D)L(D) 下降的快,因此两者必然在某一点相交。

    在前面的章节中,我们基于以下关系来决定数据集大小

    DN0.74(Cmin)0.740.73(Cmin)0.54D\propto N^{0.74}\propto (C_{\min})^{0.74*0.73}\propto (C_{\min})^{0.54}

    这里我们利用了 N(Cmin)N(C_{\min}) 的结果

    另一方面,我们有

    D(Cmin)=2Cmin6N(Cmin)(Cmin)0.26D(C_{\min}) = \frac{2C_{\min}}{6N(C_{\min})}\propto (C_{\min})^{0.26}

    可以看到,基于训练最优导出的数据集大小相比于拟合出来的数据集大小,实际上存在过拟合。

    作者进一步分析出了 L(D(Cmin))L(D(C_{\min}))L(Cmin)L(C_{\min}) 这两条曲线的交点,结果得到

    C104 PF-Days,N1012 parameters,D1012 tokens,L1.71.7nats/tokenC^*\approx 10^4 \text{ PF-Days}, N^*\approx 10^{12}\text{ parameters}, D^*\approx 10^12\text{ tokens}, L^*\approx 1.7\text{1.7nats/token}

    作者认为出现这种原因有以下几种情况:

    1. LL^* 给出了自然语言的 entropy 的一个估计,因此当模型充分大之后,模型可能已经获取到了数据中的所有知识
    2. L(Cmin)L(C_{\min}) 可以作为数据集噪声的一个量化表现,其衡量了数据集的质量

    Learning Rate Schedule

    附录中,作者还探究了 learning rate 与损失之间的关系,作者使用了不同 learning rate schedule 对模型损失的影响,结果如下图所示

    Learning rate schedule results

    实验结果显示,只要 learning rate 下降的不会太快,模型的表现基本上差不太多

    作者基于实验结果得到了学习率和模型参数之间的关系如下

    lr(N)0.0032390.0001395logN\text{lr}(N)\approx 0.003239 - 0.0001395\log N

    也就是说,小模型用比较大的学习率,大模型用较小的学习率。

    Conclusion

    作者在本文中训练了大量不同配置的大模型,然后构建了损失(损失)与模型参数,数据及大小以及算力之间的关系。实验结果发现,损失与架构和优化参数之间的关系比较小,主要由模型参数量决定,更大的模型拥有更高的采样效率。

    作者认为,本文的局限在于损失函数不一定能够反应模型在其他语言任务上的表现。