login
AI算力结构演进:预训练到推理全流程
2025/07/27·StepFun can make mistakes, check important info.
算力结构从 预训练 走向 预训练+后训练+推理
Sources
[PDF] (19)国家知识产权局
https://static-favicon.basemind.com/01JYZQDR2XFEGS6N23S72YSVQP
文件
[PDF] 构建基于科技文献知识的人工智能引擎
https://static-favicon.basemind.com/01JYZQDR2XFEGS6N23S72YSVQP
文件
王浩然:预训练、后训练和推理所需的算力结构有何不同?
专题:《中国科技—敢!2025年诺安基金科技投资报告》发布会 王浩然:预训练、后训练和推理所需的算力结构有何不同?预训练:在预训练阶段模型要在海量通用数据上进行训练,如训练一个大语言模型,需要十亿甚至万亿字的文本数据,模型参数众多。以xAI的Grok-3为例,使用了10万张 GPU进行训练,预计训练成本接近100亿美元。后...
https://s2.zimgs.cn/ims?kt=url&at=smstruct&key=aHR0cHM6Ly9jZG4uc20uY24vdGVtcC8yMDIzMTIxMzE3MTU0MS14dDc0b295cXlvYjdrNTFudTk5OXhxazVudTJzZ3dyeC5qcGc=&sign=yx:pz7vzb6izTQYVjivitLCbVLzmvA=&tv=400_400
新浪
10 web pages
文件
文件
新浪
网易
新浪
CSDN技术社区
CSDN技术社区
xie.infoq.cn
智源社区
网易

算力结构从 预训练 走向 预训练+后训练+推理 的转变,反映了人工智能领域在大模型开发和应用过程中的几个关键趋势和挑战。以下是这一转变的详细解释:

1. 预训练阶段

预训练是大模型训练的初始阶段,其核心目标是使模型掌握跨领域的通用语言能力与世界知识6。这一过程通过海量多样化文本数据的输入,构建起底层的语义理解与逻辑推理框架6

  • 技术特征

    • 数据规模:通常使用数十万亿Token级别的语料库,涵盖多语言文本、代码、书籍等多元数据6
    • 模型架构:以Transformer为核心,通过自监督学习任务(如掩码语言模型、下一句预测)驱动参数优化6
    • 训练成本:需数万GPU天的计算资源,单次训练成本可达数百万美元级别6
  • 工程实践

    • 数据预处理:数据需经过清洗、去重、格式标准化等处理,避免噪声干扰模型学习6
    • 分布式训练优化:采用混合精度训练、模型并行、流水线并行等技术,提升万亿参数规模下的训练效率6
  • 阶段价值

    • 预训练为模型奠定了通用能力基础,使其具备理解自然语言、生成连贯文本、逻辑推理等基础技能,但尚未针对特定任务优化6

2. 后训练阶段

后训练是预训练模型向专业化演进的关键环节,旨在通过特定任务数据的优化,提升模型在垂直领域的性能表现6。这一阶段包括多轮微调和对齐,目标是通过优化模型行为,实现与人类意图的对齐,包括减少偏见和不准确度4

  • 技术路径

    • 强化学习(RL):通过标注数据或人工反馈(RLHF)为模型输出提供正负奖励信号,引导模型向预期行为收敛6
    • 约束优化:引入GRPO(引导式正则化策略优化)技术,确保模型输出与预训练阶段的通用能力保持一致,避免因过度追求奖励而偏离原始语义空间6
  • 数据与周期

    • 数据特征:聚焦特定领域(如数学、代码)的高质量标注数据,数据规模通常为预训练数据的千分之一至万分之一6
    • 训练周期:耗时显著短于预训练,通常在数百GPU天内完成,支持快速迭代优化6
  • 典型应用

    • 通过强化学习后训练,模型在特定任务(如数学推理、代码生成)上的性能显著提升6。例如,DeepSeek-V3通过后训练技术,在数学推理(MATH-500)、代码生成(LiveCodeBench)等任务上超越GPT-4.56

3. 推理阶段

推理是将已经训练好的大模型对具体的场景进行应用的过程。这一阶段关注的是如何高效地部署和运行模型,以满足实际应用需求3

  • 技术挑战

    • 计算资源:超大规模预训练语言模型的超大参数量为模型的推理带来了极大挑战。推理过程需要对模型进行频繁调用,需要构建较大的GPU集群堆叠算力,成本高昂1
    • 优化技术:为了降低推理成本和提高推理速度,研究者们提出了多种优化技术,如模型量化技术、模型运算卸载技术、混合精度算子实现、CPU-GPU调度优化技术等1
  • 应用场景

    • 推理模型广泛应用于各种实际场景,如自动问答、阅读理解、文本分类、信息抽取等2。随着专用推理模型的兴起,模型在数学、编程和科学推理方面的性能得到了显著提升7

转变的原因和意义

  1. 数据资源枯竭:传统预训练依赖大量高质量数据,但现实世界中这类高价值数据资源正在迅速耗尽,传统依赖真实数据驱动模型能力增长的路径已难以为继5

  2. 算力成本压力:预训练阶段需要巨大的计算资源和高昂的成本,只有少数大型企业和研究机构能够承担3。后训练和推理优化提供了一种更经济高效的方式来提升模型性能9

  3. 性能提升需求:随着基础模型的性能逼近物理极限,单纯依靠预训练难以实现进一步的性能提升。后训练通过知识精炼、能力对齐和推理增强等技术,显著提升了模型在特定任务上的性能4

  4. 产业应用需求:AI的价值不仅在于模型本身,更在于其改造产业的深度与广度。后训练和推理优化使得模型能够更好地适应特定领域的任务需求,推动AI技术在实际应用中的落地4

未来发展方向

未来大模型的发展将依赖于 预训练、后训练和推理 三者的深度协同5。研究者们提出了创新性框架,如SICOG(Self-Improving cognition),旨在重塑大模型的进化路径,通过自生成数据闭环和语义一致性筛选机制,使模型在零人工标注的条件下实现认知能力的持续进化5。这一框架打破了当前模型在数据、算力与微调优化三者割裂发展的瓶颈,为未来通用人工智能(AGI)模型的构建提供了可扩展、可迁移的新路径5

总之,算力结构从预训练走向预训练+后训练+推理的转变,反映了AI技术发展中对效率、性能和应用需求的综合考量,为大模型的进一步发展和广泛应用提供了新的思路和方法。