大语言模型(LLMs)的后训练(Post-training)对于释放其任务泛化潜能和领域特定能力至关重要。然而,现有的大语言模型后训练范式面临着显著的数据挑战,包括人工标注成本高昂以及数据规模扩增带来的边际收益递减等问题。因此,实现数据高效的后训练已成为一个关键的研究问题。 本文从数据中心(data-centric)视角出发,首次系统性地综述了数据高效大语言模型后训练的研究进展。我们提出了一种关于数据高效后训练方法的系统化分类体系,涵盖以下几个核心方向: * 数据选择(Data Selection), * 数据质量提升(Data Quality Enhancement), * 合成数据生成(Synthetic Data Generation), * 数据蒸馏与压缩(Data Distillation and Compression), * 以及自演化数据生态系统(Self-evolving Data Ecosystems)。

我们对每一类方法中的代表性工作进行了总结,并梳理了未来的研究方向。通过对数据高效后训练所面临挑战的分析,本文指出了当前存在的开放性问题,并提出了若干潜在的研究路径。我们希望本研究能够激发学界与业界进一步探索,充分挖掘大规模模型训练中数据利用的潜能

1 引言

大语言模型(Large Language Models, LLMs)的后训练(post-training)已成为释放其领域自适应能力任务泛化潜能的关键阶段(Luo et al., 2025b)。这一阶段显著提升了模型在长上下文推理(Zelikman et al., 2022; Yuan et al., 2024c)、人类对齐(human alignment)(Rafailov et al., 2024)、指令微调(instruction tuning)(Zhang et al., 2023b)以及领域特定自适应(domain-specific adaptation)(Cheng et al., 2024)等方面的能力。 在大语言模型的后训练阶段,数据是驱动模型进化的核心力量。然而,当前的后训练范式正面临严重的数据困境: 一方面,高质量数据的人工标注成本急剧上升;另一方面,单纯扩大数据规模带来的性能提升呈现明显的边际递减效应。此外,静态数据集天然限制了模型对动态现实知识的持续适应能力。这种模型性能与数据规模之间的线性依赖关系,从根本上源于传统后训练范式中数据利用效率的低下。 近期的 DeepSeek-R1(Guo et al., 2025)取得的成功进一步印证了这一点——该模型通过引入强化学习实现了数据高效的后训练,显著提升了模型性能,充分展示了数据高效方法的有效性与必要性。 为此,本文构建了首个关于数据高效大语言模型训练的系统性综述,旨在通过一个统一化与体系化的框架整合这一领域碎片化的研究成果。我们的研究揭示,突破效率瓶颈的关键并非单纯扩大数据规模,而在于贯穿数据生命周期的价值提取机制。 学术界已探索出多种策略来充分挖掘后训练阶段的数据潜能(Jeong et al., 2024; Wang et al., 2024a; Pan et al., 2024b)。虽然这些方法在提升数据效率方面取得了显著进展,但目前仍缺乏系统性的综述与统一视角。 本文从**数据中心视角(data-centric perspective)出发,全面综述了数据高效大语言模型后训练的研究进展。我们提出了一个名为“数据价值飞轮(data value flywheel)”**的概念(如图1所示),该框架由以下五个关键组成部分构成: 1. 数据选择(Data Selection), 1. 数据质量提升(Data Quality Enhancement), 1. 合成数据生成(Synthetic Data Generation), 1. 数据蒸馏与压缩(Data Distillation and Compression), 1. 自演化数据生态系统(Self-evolving Data Ecosystems)

基于此框架,我们提出了一个系统化的分类体系,总结了各类代表性方法,并指出了未来值得探索的研究方向。希望本综述既能为领域初学者提供清晰的学习路线,也能为研究者和实践者提供未来进展的参考指南与现有综述的区别。 尽管已有若干工作探讨了LLM后训练的某些方面,如数据选择(Wang et al., 2024b)、合成数据生成(Long et al., 2024; Tan et al., 2024)、模型自反馈(self-feedback)(Liang et al., 2024a; Pan et al., 2023)、自演化机制(self-evolution)(Tao et al., 2024)、可信性(trustworthiness)(Liu et al., 2023)以及时间效率(time-efficiency)(Wan et al., 2023),但这些研究往往聚焦于单一维度,缺乏整体化与统一的数据效率视角。 本综述填补了这一空白,从数据效率的整体框架出发,对各类方法进行了系统性梳理与比较,为最大化数据价值提取提供了关键洞见。

成为VIP会员查看完整内容
1

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
唯快不破:大型语言模型高效架构综述
专知会员服务
24+阅读 · 8月17日
个性化大型语言模型综述:进展与未来方向
专知会员服务
40+阅读 · 2月18日
重新思考不确定性:大语言模型时代的关键综述与分析
专知会员服务
38+阅读 · 2024年11月20日
数据与多模态大型语言模型的协同作用综述
专知会员服务
57+阅读 · 2024年7月13日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
《大型语言模型持续学习》综述
专知会员服务
92+阅读 · 2024年4月26日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
《多模态大型语言模型进化》最新综述
专知会员服务
103+阅读 · 2024年2月23日
数据受限条件下的多模态处理技术综述
专知
21+阅读 · 2022年7月16日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
综述| 当图神经网络遇上强化学习
图与推荐
35+阅读 · 2022年7月1日
多模态深度学习综述,18页pdf
专知
50+阅读 · 2020年3月29日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 10月30日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
487+阅读 · 2023年3月31日
Arxiv
176+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
唯快不破:大型语言模型高效架构综述
专知会员服务
24+阅读 · 8月17日
个性化大型语言模型综述:进展与未来方向
专知会员服务
40+阅读 · 2月18日
重新思考不确定性:大语言模型时代的关键综述与分析
专知会员服务
38+阅读 · 2024年11月20日
数据与多模态大型语言模型的协同作用综述
专知会员服务
57+阅读 · 2024年7月13日
大语言模型的终身学习综述
专知会员服务
75+阅读 · 2024年6月15日
《大型语言模型持续学习》综述
专知会员服务
92+阅读 · 2024年4月26日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
《多模态大型语言模型进化》最新综述
专知会员服务
103+阅读 · 2024年2月23日
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员