token危机解决? 扩散模型数据潜力3倍于自回归, 重训480次仍攀升
扩散语言模型(DLMs)是超强的数据学习者。
token 危机终于要不存在了吗?
近日,新加坡国立大学 AI 研究者 Jinjie Ni 及其团队向着解决 token 危机迈出了关键一步。
在当前大语言模型(LLM)的持续发展中,面临的挑战之一是可用的高质量训练文本数据(tokens)即将枯竭,并成为限制模型性能持续提升的关键瓶颈。另外,新增的高质量数据来源少,获取成本高,去重后更加稀缺。因此,当模型规模继续扩大,所需数据量按 Scaling Laws 成倍增加时,就出现了「优质 token 不够训练」的危机。
针对这一现象,该团队从零开始预训练了扩散语言模型(DLMs)与自回归(AR)模型,其中规模最高至 80 亿参数、4800 亿 tokens、480 个 epoch。
研究有以下三项重要发现:
在 token 数量受限的情况下,DLMs 优于 AR,并且具有超过 3 倍的数据潜力;
一个仅用 10 亿 tokens 训练的 10 亿参数 DLM,在 HellaSwag(常识推理基准) 上可达 56%,在 MMLU(综合多任务语言理解基准) 上可达 33%,无任何技巧、无挑选数据;
未出现性能饱和:重复训练次数越多,提升越明显。
此外,团队还剖析了并行研究《Diffusion Beats Autoregressive in Data-Constrained Settings》中的严重方法论缺陷 —— 以共同提升开放评审的标准!
Jinjie Ni 在社媒 X 上详细介绍了其团队的研究结论、研究方法,接下来我们一一来看。
结论 1:扩散语言模型(DLMs)是超强的数据学习者。
如上所述,团队从零开始预训练了一系列 DLMs,规模最高达 80 亿参数、4800 亿 tokens。结果提供了有力证据:在普通网页数据上进行重复训练时,DLMs 在数据受限场景下无论模型规模如何,都优于自回归(AR)模型,展现出显著更高的潜力且未出现性能饱和。
总体而言,DLMs 的最终数据潜力比 AR 模型高出三倍以上。
结论 2:重复越多,收获更多。
为了研究 DLM 训练中 token 的全部潜力,团队进行了额外实验:将同一份 10 亿 token 的数据集重复训练 480 个 epoch,总训练量达到 4800 亿 tokens。结果显示,模型在 HellaSwag 上取得约 56% 的准确率,在 MMLU 上取得约 33%,显著优于 AR 的约 41% 和约 29%。
令人惊讶的是,即使在如此极端的重复条件下,性能依然未出现饱和,这表明 DLMs 能够从固定的 10 亿 token 语料中提取到远超预期的有效信息。
「在验证集上出现过拟合的模型,在下游任务上的表现却持续提升。」为什么会这样呢?
团队可视化了多选评测中,真实答案与其他选项的平均负对数似然(NLL),以及它们之间的差值(△NLL)。即使在验证集上出现「过拟合」后,真实答案与其他选项的 NLL 差距(△NLL)依然持续扩大,这表明尽管验证损失在上升,模型的底层判别能力仍在不断提升。这一现象在域内数据和域外数据的训练中都同样存在。
虽然 DLMs 对数据重复具有较强的鲁棒性,但在训练足够长的 epoch 后,它们同样会发生过拟合。更大的唯一数据量可以延缓过拟合的出现,而更大的模型规模则会加速过拟合的到来。
为什么 DLMs 是超强的数据学习者呢?原因有二。
其一,如下图所示,网页文本数据并非完全因果结构!虽然用非因果方向建模会导致更高的损失,但它仍然是可行的。这意味着仅用纯因果方式来建模网页数据是一种浪费!借助扩散目标和双向注意力,DLMs 能够对数据进行双向建模,从网页数据中提取到更多信息。
其二,DLMs 是「超密集模型」,它们在计算上的超高密度(每个任务需要更多的 FLOPs)直接转化为更强的智能。
相比之下,AR 模型更优先考虑计算效率,而非数据潜力。它们的 Transformer 设计(包括教师强制和因果掩码)最大化 GPU 的使用效率,但限制了建模能力。随着计算成本下降,数据可得性反而成为关键瓶颈 —— 这正是团队研究 DLMs 的动力所在。
扩散目标要求在有效训练中,将预训练数据集中的每个数据点在多个掩码比例和组合下进行损坏,以便更精确估计期望值。这进一步解释了为什么数据重复训练能带来如此显著的收益。
巧合的是,一项同期研究「Diffusion Beats Autoregressive in Data-Constrained Settings」[1] 也探讨了类似主题。然而,团队在细致分析后,揭示了其中存在的若干方法论问题,可能导致结论存在偏差。
[1] 地址:https://arxiv.org/abs/2507.15857
在 [1] 的所有实验中,研究者使用了损失函数 (1),但未做出明确的理论解释。然而,这个损失函数与理论基础更扎实、被广泛采用的掩码扩散语言建模损失 (2) 有显著差异。从理论上可以证明损失函数 (1) 并不能忠实地表示模型似然,这可能会对其结论造成严重影响。
团队还注意到,[1] 在最新的 arXiv v3 版本中对原始草稿进行了修改,增加了一个线性时间依赖的重新加权项。但仍假设其所有实验均使用了公式 (1),因为论文中图 4 (b) 的损失范围与公式 (1) 的预期表现高度吻合。团队期待 [1] 的代码库(在本文撰写时仍为空仓库)以及社区对相关实验的复现。
问题来了:验证集损失是比较 AR 和 DLM 的好指标吗?简短来说:当损失函数的形式本身有问题时,当然不是。它们并不代表相同的含义;即使损失函数形式正确,也依然不是好指标。
原因包括如下:
AR 测量的是精确的负似然,而 DLM 测量的是一个上界;
更低的损失并不意味着更强的能力,这一点在上文的讨论中已有体现。
此外,[1] 报告的 AR 基准测试结果距离最佳水平相差甚远。换句话说,[1] 实际上是在拿一个尚未训练到最佳状态的 AR 检查点,与一个最佳的扩散模型检查点进行比较。这是不公平的。
此外,[1] 在比较 AR 与扩散模型的过拟合趋势时,为 AR 使用了更大的模型规模和更少的唯一训练 token 数量。这种设置并不公平,因为更大的模型在训练数据多样性不足的情况下,本身就更容易更早出现过拟合。
最后,[1] 中使用的 scaling law 公式假设验证集损失不会下降,但这一假设在实际中并不成立,因为过拟合会导致验证损失上升。这个有缺陷的假设会导致拟合效果不佳,并使基于其预测得出的任何结论产生偏差。
目前,团队正在用一种疯狂的设置训练一个大模型,并在之后发布完整论文。
更多细节内容请参考博客和即将发布的论文。
参考内容:https://x.com/NiJinjie/status/1954177095435014533