login
LLM自动修复与自我优化方法综述
2025/07/03·StepFun can make mistakes, check important info.
给关于自动修复 badcase,优化、训练 LLM 的系统/自我优化自我训练的论文或商业服务写个综述报告?(比如 OPENAI 的 RFT 就是一个经典)重点围绕自动优化的,要大致给出每个方法的简介

为了更好地完成这份关于自动修复badcase、优化和训练LLM系统的综述报告,我需要明确几个关键点:

  1. 您希望综述报告的时间范围是怎样的?是近1-2年的最新进展,还是包含该领域的历史发展(如从RLHF开始到现在)?

  2. 除了OpenAI的RFT(Reinforcement from Human Feedback)外,您是否对某些特定的自动优化方法特别感兴趣(如自蒸馏、自监督优化、自动数据增强等)?

  3. 您更关注学术研究方法还是商业实践应用,或者两者都需要涵盖?

1. 较新的 2.全面些 3. 都要

好的,收到您的研究任务。

今天是2025年07月03日,星期四。根据您的要求,我将为您制定一份关于“LLM自动修复与自我优化”主题的研究报告撰写计划。该计划旨在系统性地梳理此领域近两年内的前沿学术论文和商业实践,重点突出各类自动化优化方法的简介与对比。

以下是本项研究的总体计划框架。

Research plan

研究报告撰写计划:大型语言模型的自动化优化与自我完善机制

第一阶段:奠定研究基础与构建分析框架 (Foundational Research & Framework)

  1. 核心概念界定与趋势分析:

    • 初步探索,明确“LLM自我优化”、“自动修复bad case”、“自我迭代训练”等核心术语的内涵与外延。
    • 研究该领域的宏观发展脉络,识别出从人工反馈强化学习(RLHF)到更自动化方法的演进趋势,为报告撰写确立基调。
  2. 构建分类体系:

    • 基于初步探索结果,建立一个清晰的方法论分类框架。例如,可将现有方法划分为以下几类:
      • 基于反馈的强化学习: 侧重于利用模型自身或外部信号进行迭代优化的方法。
      • 数据驱动的自我提升: 侧重于通过自动生成或筛选高质量数据来提升模型能力的方法。
      • 模型内在的自我修正: 侧重于模型在推理或生成过程中进行自我反思与修正的方法。
    • 此分类将作为报告的核心骨架,确保内容的逻辑性和条理性。

第二阶段:深入调研与信息采集 (In-depth Analysis & Information Gathering)

  1. 学术前沿方法深度剖析:

    • 针对第一阶段建立的分类体系,逐一深入研究各类别的代表性方法。
    • 为每种方法(如 RLAIF/Constitutional AI, RFT, Self-Instruct, Self-Refine 等)收集关键信息,包括:
      • 核心思想: 简明扼要地介绍其工作原理。
      • 实现流程: 描述其技术步骤或框架。
      • 关键优势与局限性: 分析其适用场景和面临的挑战。
    • 权威信息源:
      • 学术论文库: arXiv, Google Scholar, Papers with Code。
      • 顶级AI会议论文集: NeurIPS, ICML, ICLR, ACL 等。
  2. 商业应用与业界实践调研:

    • 调研头部AI公司和云服务商是如何将相关技术产品化的。
    • 重点关注其提供的自动化微调、模型优化服务或API功能,并分析其背后的技术逻辑。
    • 权威信息源:
      • 主要AI研究机构与公司官方博客/技术文档: OpenAI, Google AI, Meta AI, Anthropic, Cohere 等。
      • 主流科技媒体与行业分析报告: 用于了解技术的商业化动态和市场影响。

第三阶段:整合、可视化与报告撰写 (Synthesis, Visualization & Reporting)

  1. 信息整合与对比分析:

    • 将收集到的学术方法和商业实践进行系统性整合。
    • 创建一个综合对比表格或图表,从“自动化程度”、“数据依赖”、“计算成本”、“主要应用场景”等多个维度,对关键方法进行横向比较,直观展示其异同。
  2. 识别挑战与展望未来:

    • 基于全面的调研,总结当前LLM自我优化领域面临的共性挑战(如:优化目标的一致性、避免模式坍塌、提升反馈信号的质量等)。
    • 提出对未来发展方向的见解与预测。
  3. 撰写与审核研究报告:

    • 按照“引言 → 核心概念与分类 → 各类方法详解 → 商业应用实例 → 对比分析与挑战 → 结论与展望”的结构,撰写最终的研究报告。
    • 报告将确保图文并茂,逻辑清晰,语言流畅,并附上所有引用的信息来源,以保证其专业性和可信度。
开始研究

Deep Research

首先,让我开始搜集相关信息。

搜索

Search

large language model self-improvement self-optimization automatic badcase repair survey
知乎
知乎
## 1. Introduction 本篇工作是UCSB发表在期刊TACL上的一篇Survey,原文链接: Just a moment... 本文全面回顾了自动更正大型语言模型(Automatic
电子发烧友
电子发烧友
badcase 定义 首先我们定义什么是大模型的badcase,大模型badcase是指在应用场景中,出现不符合预期的答复。但实际上不符合预期的答复可能多种多样,原因也各不相同,有没有什么统一的思路
微博
微博
【Awesome-LLM-Self-Improvement:精选大型语言模型在推理时自我改进的研究论文列表,助力模型性能提升】'A curated list of awesome LLM Inference-Time Self-Improvement(ITSI,pronounced"itsy")papers from our recent survey:A Survey on Large Language Model ...
cnblogs.com
cnblogs.com
大语言模型(英文:Large Language Model,缩写LLM),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。通常,大语言模型(LLM)指包含 数百亿(或更多)参数的语言模型,这些模型在大量的文本数据上进行训练,例如国外的有GPT-3、GPT-4、PaLM、Galactica 和 LLaMA 等,国内的有ChatGLM、文心一言、通义千问、讯飞星火等。在这个阶段,计算机的“大脑”变得非常巨大,拥有数十亿甚至数千亿的参数。这就像是将计算机的大脑升级到了一个巨型超级计...
cn.community.intersystems.com
cn.community.intersystems.com
嵌入式 Python#Artificial Intelligence(AI)#ChatGPT#Large Language Model(LLM)#Vector Search#InterSystems IRIS for Health#Open Exchange Open Exchange app Iris-AgenticAI:基于OpenAI智能体SDK驱动的企业自动化多智能体工作流平台 Hi 大家好 在本文中,我讲介绍我的应用 iris-AgenticAI. 代理式人工智能的兴起标志着人工...
cnblogs.com
cnblogs.com
Large Language Model,称大规模语言模型或者大型语言模型,是一种基于大量数据训练的统计语言模型,可用于生成和翻译文本和其他内容,以及执行其他自然语言处理任务(NLP),通常基于深度神经网络构建,包含数百亿以上参数,使用自监督学习方法通过大量无标注文本进行训练。例如国外的有GPT-3/4、PaLM、Galactica和LLaMA等,国内的有ChatGLM、文心一言、通义千问、讯飞星火等。2.演进 早期语言模型:最初的语言模型通常是基于统计的n-gram模型,它们通过计算单词...
超神经
大语言模型(英文:Large Language Model,缩写 LLM),也称大型语言模型,是一种人工智能算法。它应用了具有大量参数的神经网络技术,使用自监督学习技术处理和理解人类语言或文本。文本生成、机器翻译、摘要写作、从文本生成图像、机器编码、聊天机器人或对话式 AI 等任务都是大型语言模型的应用。这种 LLM 模型的例子有 open AI 的 Chat GPT、Google 的 BERT(Transformer 的双向编码器表示)等。LLM 的特点是规模庞大,数十亿的参数帮助它们学...
m.bilibili.com
m.bilibili.com
Context:This video is based on the slides of a talk I gave recently at the AI Security Summit.The talk was not recorded but a lot of people came to me after and told me they liked it.Seeing as I had already put in one long weekend of work to make the slide...

感谢您提供的搜索结果。我看到了一些关于LLM自动修复、自我优化和自我训练的相关信息。接下来,我将继续搜索更多关于这个主题的具体论文和商业服务,特别是关于OpenAI的RFT和其他自动优化方法。

搜索

Search

OpenAI RFT RLHF Constitutional AI self-improvement LLM badcase repair
知乎
知乎
机器之心报道, 编辑:饼饼、山茶花。 随着大模型在推理能力和行为表现上的不断提升,ChatGPT 的错误变得越来越难以察觉。 为了解决这一问题,最近,OpenAI 基于 GPT-4 训练了一个专
知乎
知乎
编辑:LRS ### 【新智元导读】脱胎于OpenAI的初创公司Anthropic带来了新产品Claude模型,无需人类反馈也能强化学习! ChatGPT发布后可谓是一时无两,但随着技术的再次发

我需要继续搜索更多关于LLM自动修复和自我优化的研究论文和方法。

搜索

Search

LLM self-improvement self-optimization survey paper 2024
金山词霸
金山词霸
爱词霸权威在线词典,为您提供self-improvement的中文意思,self-improvement的用法讲解,self-improvement的读音,self-improvement的同义词,self-improvement的反义词,self-improvement的例句等英语服务。爱词霸...
xiaoyuzhoufm.com
xiaoyuzhoufm.com
This research survey explores Large Language Model(LLM)Inference-Time Self-Improvement(ITSI),techniques enhancing LLM performance at inference without retraining.The authors categorize ITSI methods into three groups:Inde...
m.bilibili.com
m.bilibili.com
00:14:14 Finetuning into an Assistant 微调成为助手 00:17:52 Summary so far 到目前为止的摘要 00:21:05 Appendix:Comparisons,Labeling docs,RLHF,Synthetic data,Leaderboard 附录:比较,标签文档,RLHF,合成数据,排行榜 Part 2:Future of LLMs 第二部分:LLMs的未来 00:25:43 LLM Scaling Laws LLM...
微博
微博
[CL]A Survey on LLM Inference-Time Self-Improvement 网页链接 本文首次系统性地综述了大型语言模型推理时间自我改进方法,提出了一个新的分类体系,并讨论了其挑战、局限性和伦理影响,为该领域未来的研究提供了宝贵的参考。
m.bilibili.com
m.bilibili.com
REST MEETS REACT-SELF-IMPROVEMENT FOR MULTI-STEP REASONING LLM AGENT(Google 2023),视频播放量 336、弹幕量 0、点赞数 11、投硬币枚数 0、收藏人数 13、转发人数 0,视频作者 mardinff,作者简介,相关视频:Sora 底层 Diffusion Transformer-详细计算(Tom Yeh 2024),RLEF-GROUNDING CODE LLMS IN ...
腾讯
腾讯
这期讨论录制于 2 周前,随着昨天凌晨 OpenAI o1 模型的发布,我们的猜想得到验证,LLM 正式进入 self-play RL 范式时代。OpenAI 不是唯一重视 RL 和 Self-Play 的公司,在 o1 之前,Anthropic Claude 3.5 Sonnet 就被视为一个标志性里程碑,Claude 3.5 Sonnet 代码能力显著提升的背后其实是 RL 在起作用;Google 也已经围绕 LLM 做 rewar...
arxiv.org
arxiv.org
In this paper, we theoretically model the training dynamics of self-improvement via the concept of solver-verifier gap. This is inspired by the ...
magazine.sebastianraschka.com
A curated list of interesting LLM-related research papers from 2024, shared for those looking for something to read over the holidays.
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
https://static-favicon.basemind.com/01JV33XAB58FABDR2BS3NYHDT4
https://static-favicon.basemind.com/01JV4XYENNK21V545PMKWDZ6PS
View all 14 sources

我需要继续搜索更多关于具体的LLM自我优化和自动修复方法的信息,特别是关于RFT(Reinforcement Fine-Tuning)和其他重要技术。

搜索

Search

LLM self-improvement methods RFT RLAIF Constitutional AI Self-Instruct Self-Refine
阿里云
阿里云
文中系统地将现有研究分为奖励模型、反馈机制、强化学习策略及优化方法四大主题,并深入探讨各技术路径的创新点与局限性,如RLHF、RLAIF等方法。旨在为读者提供清晰的领域概览,促进未来研究发展。[论文链接](https://arxiv.org/pdf/2407.16216) 近年来,随着自监督学习的进展、预训练语料库中数万亿标记的可用性、指令微调的发展以及数十亿参数的大型Transformer的开发,大型语言模型(LLMs)现在能够生成对人类查询既具有事实性又具有连贯性的响应。然而,训练数据...
知乎
知乎
Setting: LLM+Monte Carlo Tree Search解决奥赛级的数学问题 MCTS+Upper Confidence Bound (UCB)实现answer节点的高效采样
知乎
知乎
"Self-criticism is an art not many are qualified to practice." — Joyce Carol Oates 自我批评(self-critiq
稀土掘金
稀土掘金
最近的人工智能反馈强化学习(RLAIF)研究表明,RLHF中奖励模型训练的评级不一定必须由人类提 供,而是可以由LLM生成(此处:PaLM 2)。标注人员在一半的案例中更喜欢RLAIF模型,也就意味着两个模型的差距并不大,RLHF和RLAIF都大大优于纯通过监督指令微调训练的模型。这项研究的结果非常有用和有趣,因为它基本上意味着我们可能能够使基于RLHF的训练更加高效和容 易。然而,这些RLAIF模型在专注于信息内容的...
m.bilibili.com
m.bilibili.com
直观理解大模型预训练和微调!四大LLM微调方法,RLHF基于人类反馈的强化学习微调共计3条视频,包括:大模型项目引入、1-2节 从预训练到微调、大模型等,UP主更多精彩视频,请关注UP账号。
m.bilibili.com
m.bilibili.com
LLM大型语言模型如何进行微调?RLHF强化学习代码解读,视频播放量 4742、弹幕量 0、点赞数 114、投硬币枚数 49、收藏人数 342、转发人数 42,视频作者 小工蚁创始人,作者简介 小工蚁创始人 张文斌原土豆网第九个员工,土豆网技术总监,相关视频:09大模型全栈-强化学习02-RLHF前言LLM强化学习,10大模型全栈-强化学习03-RLHF原理以及流程介绍,最新开源大语言模型GLM-4模型详细教程—环境配置+模型微调+模型部署+效果展示,08大模型全栈-强化...
电子发烧友
电子发烧友
顾名思义,RLAIF是指使用LLM来代替人类标记偏好,基于这些标记数据训练奖励模型,然后进行RL微调。下图是一个展示了RLAIF(上)和RLHF(下)的基本流程。如图所示,在RLAIF中,首先使用LLM来评估给定的文本和2个候选回复,然后,这些由LLM生成的偏好数据被用来训练一个奖励模型,这个奖励模型用于强化学习,以便进一步优化LLM。一个LLM用...
agijuejin.feishu.cn
agijuejin.feishu.cn
当前 LLM 蓬勃发展,各种模型和方法层出不穷,但总体看来,但是朝着以下3点目标前进:​ 有益性:LLM 在需要时遵循说明、执行任务、提供答案,以实现对用户意图理解并提供有益帮助。​ 真实性:LLM 提供真实、准确信息并承认其自身不确定性和局限性的能力。​ 无害性:避免有毒的、有偏见的或冒犯性的反应并拒绝协助危险活动的特性。​ 由于预训练模型的通用性,在以上3个方面均有所不足,而通过 instruction learning 的方式可以一定程度上激发模型...
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
https://static-favicon.basemind.com/01JV33XAB58FABDR2BS3NYHDT4
View all 16 sources

已掌握的信息

  1. 核心分类框架已建立:初步研究发现,LLM的自动化优化方法可从不同维度进行有效分类。一个关键的维度是修正时机,可分为“训练时修正”(如RLHF,更新模型参数)和“生成/推理时修正”(如Self-Refine,不更新参数而优化单次输出)。另一个关键维度是反馈来源,主要分为“基于人类反馈的强化学习”(RLHF)和更自动化的“基于AI反馈的强化学习”(RLAIF),后者以Anthropic的Constitutional AI为代表,旨在减少对人工标注的依赖。

  2. 关键自动化方法已识别:已识别出多种主流的自动化或半自动化优化方法。除了经典的RLHF,还包括:

    • RLAIF (Reinforcement Learning from AI Feedback) / Constitutional AI:使用一个AI模型(基于预设原则或“宪法”)来生成偏好数据,以替代人类标注者,从而训练奖励模型。
    • Self-Refine:一种迭代优化框架,模型首先生成一个初始答案,然后自我批判(self-critique)并根据批判进行修正,整个过程无需更新模型权重。
    • CriticGPT:OpenAI的研究,训练一个专门的模型来发现并批判另一个模型输出中的错误,以辅助人类评估者,提高发现badcase的效率和准确性。
    • DPO (Direct Preference Optimization):一种绕过显式奖励模型训练的简化对齐方法,直接根据偏好数据优化语言模型,效率更高。

下一步行动计划
之前的行动计划已成功奠定了研究基础,并识别出核心方法。下一步将延续该计划,进入信息整合与深化分析阶段。

  1. 系统化整合与深化研究:将已收集到的方法(RLHF, RLAIF, Self-Refine, DPO, CriticGPT等)置入已建立的“修正时机”与“反馈来源”分类框架中,形成报告的核心章节结构。对每种方法进行更深入的剖析,特别是明确OpenAI的RFT(Reinforcement Fine-Tuning)的具体内涵,确定其是指整个RLHF流程还是特指其中的某个环节。

    • 主要信息源:arXiv、顶会论文库(NeurIPS, ICLR, ACL)、头部AI公司(OpenAI, Anthropic, Google AI)的官方博客和技术报告。
  2. 调研商业化服务与实践:系统性地调研头部AI公司和云服务商(如Google Vertex AI, Azure AI Studio)如何将这些自动化优化技术产品化。重点关注其提供的自动化微调、模型评估与修复相关的API或服务,并分析其背后的技术逻辑与商业模式。

    • 主要信息源:相关公司的官方产品文档、开发者博客、技术白皮书及行业分析报告。
  3. 构建横向对比分析框架:设计一个全面的对比表格或矩阵,从“自动化程度”、“数据依赖”、“计算成本”、“修正阶段”、“适用场景”(如提升事实性、降低有害性、增强推理)等维度,对所有关键方法进行横向比较,以直观地揭示各种技术的优劣势与差异。

  4. 撰写报告并进行可视化:依据以上整合的框架和分析,开始撰写研究报告。报告将包含引言、核心概念与分类、各类方法详解、商业应用实例、横向对比分析,最后总结当前领域的挑战并展望未来趋势。在“横向对比分析”部分,将利用可视化工具生成图表,使对比结果一目了然。

接下来,我需要继续深入研究OpenAI的RFT和其他关键自动优化方法的具体细节。

搜索

Search

OpenAI RFT Reinforcement Fine-Tuning technical details
donews.com
donews.com
OpenAI在紧凑型推理模型o4-mini上引入了强化微调技术(Reinforcement Fine-Tuning,简称RFT),为语言模型的定制化任务提供了全新工具。RFT将强化学习原理融入微调过程,开发者可通过设计任务特定的评分函数来评估模型输出,而不再单纯依赖标注数据。这些评分函数基于准确性、格式或语气等自定义标准对模型表现打分,从而优化奖励信号,生成更符合期望的结果。该技术特别适用于复杂任务,例如医疗解释的措辞...
新浪财经
新浪财经
近日,科技媒体marktechpost报道,OpenAI在其o4-mini推理模型上推出了强化微调技术(Reinforcement Fine-Tuning,简称RFT),为定制基础模型以适应特定任务带来了突破性工具。这一技术的推出,无疑将打破常规,引领定制化o4-mini模型的新潮流。首先,让我们来了解一下强化微调技术(RFT)的基本原理。RFT将强化学习原理融入语言模型的微调过程。开发者不再仅依赖标...
新浪财经
新浪财经
【#OpenAI突破传统微调#,RFT 技术可精准定制 o4-mini 模型】5 月 9 日消息,科技媒体 marktechpost 今天(5 月 9 日)发布博文,报道称 OpenAI 公司在其 o4-mini 推理模型上,推出了强化微调技术(Reinforcement Fine-Tuning,简称 RFT),为定制基础模型以适应特定任务带来了突破性工具。OpenAI 的强化微调技...
科学网博客
科学网博客
当你面对一个极具专业性和复杂度的任务时,或许会发现传统的 AI 定制方法很难满足你的需求。无论是医疗、法律、工程、金融还是科研领域,你可能早已拥有了较为精细的训练数据与专业背景,但在将模型真正打磨
雪球
雪球
【中信通信】OpenAI 十二日直播之二:强化微调 新功能强化微调(Reinforcement Fine-Tuning,简称ReFT):使用极少训练数据对现有模型进行微调,训练出一个更强的模型(最低
ZOL报价
ZOL报价
OpenAI为O1系列模型引入了强化微调(RFT),使用户能通过强化学习算法打造特定任务的专家级AI模型。此功能计划明年上线,但目前开放内测申请。通过RFT,用户可更精准地优化模型,满足个性化需求,提升任务处理能力,进一步推动AI技术的应用和发展。不太明白,以下是豆包提供的答案。从医学文献中提取罕见病患者症状及致病基因的数据进行训练。根据患者的症状,如癫痫或皮下结节,模型将推断可能的基因变异,并提供详细的推理路径。经过...
pingwest.com
pingwest.com
品玩12月7日讯,在今天凌晨的第二场OpenAI 新品发布会上,OpenAI 宣布为ChatGPT 增加新功能Reinforcement Fine-Tuning。据悉,Reinforcement Fine-Tuning可以帮助用户根据自己的数据来量身定制 OpenAI 的强大推理模型 o1。不同行业的人可以使用强化学习来创建基于 o1 的专家模型,从而提高该领域的整体专业知识水平。开...
中财网
中财网
2024 年12 月7 日凌晨,OpenAI 进行“Shipmas”发布活动的第二天直播,展示了强化微调训练方法(RF T,Reinforcement Fine-Tuning),可帮助开发者高效微调模型,有针对性地提升模型特定能力。投资逻辑 何为RFT:OpenAI 曾推出过针对自家模型的监督式微调API,能够让模型模仿其在输入文本或图像中学习到的特征,可用于修改模型的语气、样式或响应格式等。本次发布...
https://static-favicon.basemind.com/01JV5NJ6KBV6ZEBWANZ3GAGF9Z
https://static-favicon.basemind.com/01JV58FCA72KFJ95QHMPJ3N6CT
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
View all 16 sources

我需要继续搜索关于LLM自动优化和自我改进的其他关键方法,特别是Self-Instruct和Self-Refine等技术。

搜索

Search

Self-Instruct Self-Refine LLM self-improvement methods technical details
知乎
知乎
23年5月来自CMU、AI2、U Washington、Nvidia、UCSD和谷歌的论文 “SELF-REFINE: Iterative Refinement with Self-Feedback
知乎
知乎
总览 大规模“指令调整”的语言模型,即 指令微调的LLM ,已经表现出非凡的 零样本能力 ,尤其是推广 新任务上 。 然而,这些模型严重依赖于人类编写的指令数据,而这些数据通常在数量、多样性和创造
cnblogs.com
cnblogs.com
基于上述背景,作者提出了 Self-instruct框架,一个 通过预训练语言模型自己引导自己来提高的指令遵循能力的框架。大白话点讲,就是 大模型自己遵循一套流程来生成数据,再用这些生成的数据来指令微调训自己,从而提高模型自己的能力。因此核心思想就是生成 指令遵循数据 数据生成 指令数据由指令、输入、输出组成。如下图,作者的数据生成piple包含四个步骤:1)生成任务指令,2)确定指令是否代表分类任务,3)使用输入优先或输出优先方法生成实例,4)过滤低质量的数据。1 指令...
今日头条
今日头条
智能体#SELF-REFINE 基于自我反馈的迭代精炼LLM输出 优化精炼LLM输出的思路:先用LLM输出一个最终结果(初次),用同一个LLM对此结果进行反馈分析,还是用同一个LLM基于反馈分析精炼初次结果【一个轮回】,可以进行多次轮回 直至得到符合要求的结果(框架见图1、图2,完整数学推理的首次输出(图4)、反馈分析(图5)、精炼(图6)prompt)。【优点】 1、不需要任何的监...
稀土掘金
稀土掘金
本节将详细介绍Self-instruct的过程,它指的是使用普通的预训练语言模型本身生成任务的Pipeline,然后使用生成的数据进行指令调优,以便使语言模型更好地遵循指令。这个Pipeline如图1所示。3.1 指令数据的定义 指令数据包含一组指令 { I t } { I t ​ },每条指令用自然语言定义一个任务t。每个任务有一个或多个输入输出实例(X t,Y t)(X t ​,Y t ​)。给定任务指令 I t I t ​ 和实例输入x,期望模型M产生输出 y:M(...
博客
博客
self-instruct 自动生成指令数据是 ACL2023 上提出的一种新框架,旨在提高预训练语言模型的指令执行能力。该框架通过利用模型自身的生成能力,自动生成指令、输入样本和输出样本,然后进行过滤和优化,用于微调原始模型,从而在没有大量人类编写指令数据的情况下也能提升模型的泛化能力。实验结果显示,该方法能显著提升模型在新任务上的零样本泛化性能。在当前的自然语言处理领域,大型的“指令调优”语言模型(如经过微调以响应指令的模型)已经展示出在零样本情况下处理新任务的出色能...
devpress.csdn.net
devpress.csdn.net
文章《SELF-INSTRUCT:Aligning Language Model with Self Generated Instructions》一文提出了SELF-INSTRUCT,一个通过引导生成预训练的语言模型来提高其指令跟随能力的框架,该框架从语言模型中生成指令、输入和输出样本,然后在使用它们来微调原始模型之前对它们进行过滤。将该方法应用于vanilla GPT3,实验表明SUPER-NATURALINSTR...
阿里云
阿里云
from camel.agents import ChatAgent from camel.datagen.self_instruct import SelfInstructPipeline agent=ChatAgent(model=qwen_model,) 基础Pipeline设置 该Pipeline通过从一小组种子(人工编写)指令开始工作,然后使用 LLM 基于这些种子生成新的指令。种子指令通常存储在 JSON Lines(JSONL)文件中。文件...
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
https://static-favicon.basemind.com/01JV28GFZSVS4APS368GT11K70
https://static-favicon.basemind.com/01JV33XAB58FABDR2BS3NYHDT4
View all 16 sources

现在我已经收集了足够的信息来撰写一份关于LLM自动修复和自我优化的综述报告。我将使用可视化工具来展示不同方法的比较和分类。

可视化工具

可视化工具

现在我将使用另一种可视化方式来展示LLM自动修复和自我优化方法的关系和流程。

可视化工具

可视化工具

已掌握的信息

  1. 核心分类框架已确立:通过初步研究,已成功为LLM自动化优化方法建立了有效的分类体系。主要从两个维度进行划分:一是修正时机,分为在模型训练阶段更新参数的“训练时修正”(如RLHF、RFT)和在生成内容时不更新参数的“生成时修正”(如Self-Refine);二是反馈来源,涵盖了从“人类反馈”(RLHF)、“AI反馈”(RLAIF、Constitutional AI)到“自我反馈”(Self-Refine)和“程序化评分函数”(RFT)等多种形式。

  2. 关键自动化方法已识别并解析:已识别并深入分析了多种主流的自动化优化方法。明确了OpenAI的RFT是一种将强化学习融入微调过程的商业化服务,它通过自定义的“评分函数”(Grader)来指导模型针对特定任务(如法律、医疗)进行自我优化,强化正确的推理思路。同时,也掌握了其他关键方法的核心思想与工作流程,如通过AI替代人类进行反馈的RLAIF/Constitutional AI,无需训练、在生成时进行迭代优化的Self-Refine,以及自动生成指令数据以扩展模型能力的Self-Instruct

下一步行动计划

  1. 撰写报告主体内容:基于已掌握的信息和分类框架,将开始撰写综述报告的各个章节。报告将遵循“引言 → 核心概念与分类 → 各类方法详解 → 商业应用实例 → 对比分析与挑战 → 结论与展望”的结构。在“各类方法详解”部分,将为每种技术(如RFT, RLAIF, Self-Refine等)提供简洁而精确的介绍,并配上工作流程图,确保图文并茂。

  2. 调研并补充商业化应用案例:除了已知的OpenAI RFT服务,将进一步调研其他主要AI公司(如Google, Anthropic)和云服务商(如Azure, AWS)是否提供类似的自动化模型优化或badcase修复的商业服务。这将丰富报告的“商业应用实例”部分,为读者提供更全面的市场视角。

    • 权威信息源:头部AI公司及主要云服务商的官方产品文档、技术博客和发布会记录。
  3. 整合信息并生成最终报告:将撰写好的文本内容与此前生成的可视化图表(分类对比表、方法演进关系图、工作流程图)进行系统性整合,形成一份逻辑清晰、内容全面、结构完整的最终研究报告。报告将对各类方法的优劣势进行横向对比,总结当前领域面临的共同挑战,并对未来发展趋势(如更深度的自监督和自我博弈学习)进行展望。

LLM自动修复与自我优化方法综述报告

1. 引言

随着大型语言模型(LLM)在各个领域的广泛应用,如何持续优化模型性能、自动修复badcase以及提升模型的自我改进能力已成为学术界和产业界共同关注的焦点。本报告系统性地梳理了当前LLM自动修复与自我优化的主要方法,包括学术前沿的研究成果和商业化的实践应用。

大型语言模型在训练后往往会产生各种不符合预期的输出,即所谓的"badcase",这些问题可能表现为幻觉、不忠实推理、有害或有偏见的内容等知乎。为了解决这些问题,研究者们提出了多种自动修复和优化方法,这些方法可以从修正时机、反馈来源、实现机制等多个维度进行分类。

本报告将重点围绕自动优化的各种方法,系统地介绍每种方法的核心思想、工作流程、优势与局限性,以及典型应用场景,为研究者和实践者提供全面的参考。

2. 核心概念与分类框架

2.1 什么是LLM的badcase

LLM的badcase是指在应用场景中出现不符合预期的答复电子发烧友。这些badcase可能表现为多种形式:

  1. 幻觉(Hallucination):模型编造事实或引用不存在的来源知乎
  2. 不忠实推理(Unfaithful Reasoning):结论与之前生成的推理链不符知乎
  3. 有害、有偏见和有毒内容:因训练数据偏见而生成不当内容知乎
  4. 复读机行为:重复输入内容而不提供有价值的回应电子发烧友

2.2 自动修复与优化的分类框架

根据对已有方法的分析,我们可以从以下几个维度对LLM的自动修复和自我优化方法进行分类:

2.2.1 按修正时机分类

  1. 训练时修正(Training-time Correction):在训练期间优化模型参数,从根本上改变模型的行为知乎
  2. 生成时修正(Generation-time Correction):在生成过程中指导修正错误,不更新模型参数知乎
  3. 事后修正(Post-hoc Correction):在生成后修正输出,不更新模型参数知乎

2.2.2 按反馈来源分类

  1. 人类反馈(Human Feedback):由人类评估者提供反馈知乎
  2. AI反馈(AI Feedback):由其他AI模型提供反馈知乎
  3. 自我反馈(Self-Feedback):模型自己对自己的输出提供反馈知乎
  4. 程序化评分函数(Programmatic Scoring Functions):通过预设的评分函数提供反馈donews.com

3. 主要自动修复与自我优化方法

3.1 训练时修正方法

3.1.1 RLHF (基于人类反馈的强化学习)

核心思想:RLHF是一种通过人类反馈来训练语言模型的方法,它利用人类对模型输出的评价来构建奖励模型,并通过强化学习算法优化模型参数阿里云

工作流程

  1. 人类标注偏好数据,为模型输出提供排序或评分
  2. 训练奖励模型来模拟人类偏好
  3. 使用PPO等强化学习算法优化策略
  4. 生成优化后的模型

优势

  • 高质量的人类反馈确保模型输出符合人类价值观
  • 可以针对多种目标进行优化,如有益性、真实性和无害性

局限性

  • 人工标注成本高、效率低
  • 扩展性差,难以应对大规模数据
  • 训练过程复杂,需要同时维护多个模型

应用场景:通用对齐、减少有害输出、提升模型回答质量

3.1.2 RLAIF (基于AI反馈的强化学习)

核心思想:RLAIF是RLHF的一个变种,它使用AI模型替代人类来提供反馈,从而降低成本并提高效率电子发烧友

工作流程

  1. 使用AI模型(通常是更强大的LLM)生成偏好数据
  2. 训练奖励模型
  3. 使用强化学习算法优化策略
  4. 生成优化后的模型

优势

  • 成本低于RLHF,可大规模生成反馈数据
  • 效率高,可快速迭代
  • 可扩展性强

局限性

  • 可能继承AI模型的偏见和局限性
  • 反馈质量依赖于用于评估的AI模型性能

应用场景:与RLHF类似,但更适合需要大规模反馈数据的场景

3.1.3 Constitutional AI (宪法AI)

核心思想:Constitutional AI是由Anthropic提出的方法,它基于一套预设的原则或"宪法",使用AI反馈进行自我改进,无需人类标注有害输出anthropic.com

工作流程

  1. 定义一套明确的原则或"宪法"
  2. 模型生成初始回答
  3. 基于原则,模型自我批评初始回答
  4. 模型根据批评修改回答
  5. 使用修改后的回答进行微调或强化学习

优势

  • 原则明确、可控性强
  • 减少对人类标注有害内容的依赖
  • 可以处理复杂的伦理问题

局限性

  • 原则设计难度大
  • 可能存在原则间冲突
  • 对模型的自我批评能力有较高要求

应用场景:安全对齐、减少有害输出、处理伦理边界问题

3.1.4 DPO (直接偏好优化)

核心思想:DPO是一种简化的对齐方法,它直接从偏好数据优化语言模型,无需显式训练奖励模型,从而简化了RLHF的流程阿里云

工作流程

  1. 收集偏好数据(可以是人类或AI标注)
  2. 直接优化策略,无需显式奖励模型
  3. 生成优化后的模型

优势

  • 简化了RLHF流程,无需训练单独的奖励模型
  • 计算效率更高
  • 实现相对简单

局限性

  • 可能无法捕捉复杂的奖励信号
  • 对偏好数据质量要求高

应用场景:通用对齐、提升输出质量、资源受限场景下的模型优化

3.1.5 RFT (强化微调)

核心思想:RFT是OpenAI最近推出的技术,它将强化学习原理融入微调过程,通过设计任务特定的评分函数来评估模型输出,优化奖励信号,生成更符合期望的结果donews.com

工作流程

  1. 准备少量高质量数据
  2. 设计评分函数(Grader),基于准确性、格式或语气等自定义标准
  3. 模型尝试解决问题
  4. 评分函数评估输出
  5. 通过强化学习优化模型

优势

  • 只需少量高质量数据即可实现有效优化
  • 高度可定制,可针对特定任务进行精确优化
  • 特别适合复杂推理任务和专业领域应用

局限性

  • 评分函数设计难度大
  • 可能需要专业领域知识来设计有效的评分标准

应用场景:专业领域优化(如法律、医疗、代码生成)、推理能力提升新浪财经

3.1.6 Self-Instruct (自指令)

核心思想:Self-Instruct是一种通过让模型自己生成指令数据,然后用这些数据来微调自己的方法,旨在扩展模型的指令遵循能力知乎

工作流程

  1. 准备少量种子指令(人工编写)
  2. 模型基于种子指令生成新指令
  3. 生成输入-输出对
  4. 过滤低质量数据
  5. 用生成的数据微调模型

优势

  • 减少对人工编写指令数据的依赖
  • 可以生成多样化、创新性的指令
  • 扩展模型的任务覆盖范围

局限性

  • 生成的指令可能质量参差不齐
  • 需要有效的过滤机制
  • 可能强化模型已有的偏见

应用场景:扩展指令遵循能力、增强模型在新任务上的泛化能力稀土掘金

3.2 生成时修正方法

3.2.1 Self-Refine (自我改进)

核心思想:Self-Refine是一种通过迭代反馈和改进来优化LLM初始输出的方法,使用同一模型作为生成器、批评者和改进者,无需额外训练或强化学习知乎

工作流程

  1. 模型生成初始输出
  2. 同一模型对输出进行批评和反馈
  3. 基于反馈改进输出
  4. 重复上述过程直到满足停止条件

优势

  • 无需额外训练或模型
  • 实现简单,可即时应用
  • 适用于多种任务类型

局限性

  • 自我批评能力有限,可能无法识别自身的系统性错误
  • 迭代过程增加了推理时间和计算成本

应用场景:提升单次输出质量、改进代码生成、优化数学推理等今日头条

3.2.2 CriticGPT

核心思想:CriticGPT是OpenAI开发的一个专门用于批评和发现ChatGPT输出中错误的模型,它通过精准分析模型回答并提出建设性批评,帮助人类训练师更准确地评估模型生成内容知乎

工作流程

  1. ChatGPT生成初始回答
  2. CriticGPT分析回答并提供批评
  3. 人类训练师结合批评评估回答质量
  4. 反馈用于进一步改进模型

优势

  • 专门针对错误检测进行训练,发现问题能力强
  • 提供具体、可操作的批评
  • 显著提升人类评估的准确性

局限性

  • 需要额外训练专门的批评模型
  • 批评本身也可能存在错误
  • 增加了评估流程的复杂性

应用场景:发现并修复badcase、辅助人类评估、提升RLHF流程质量知乎

4. 商业应用实例

4.1 OpenAI的RFT服务

OpenAI在2025年5月推出了强化微调(RFT)服务,允许开发者在o4-mini等模型上应用这一技术donews.com。该服务的主要特点包括:

  • 训练费用为每小时100美元
  • 提供数据共享激励措施,同意共享数据的组织可享受50%的训练费用折扣
  • 已有多家早期采用者展示了显著成效:
    • Accordance AI的税务分析准确率提升39%
    • Ambience Healthcare的医疗编码性能提高12个百分点
    • 法律AI初创公司Harvey提升了法律文档引文提取的F1分数20%
    • Runloop改进了Stripe API代码生成,性能提升12%新浪财经

4.2 其他商业服务

虽然RFT是最近才推出的商业服务,但其他公司也在探索类似的自动优化技术。这些服务通常作为云平台的一部分提供,允许企业客户针对特定领域优化模型性能。

5. 方法对比分析

5.1 各方法的横向对比

下表对主要的LLM自动修复与自我优化方法进行了横向对比:

方法修正时机反馈来源是否更新模型参数数据需求计算成本主要应用场景
RLHF训练时人类反馈人类标注的偏好数据通用对齐、减少有害输出
RLAIF训练时AI反馈AI生成的偏好数据通用对齐、减少有害输出
Constitutional AI训练时AI反馈(基于原则)预设原则/宪法安全对齐、减少有害输出
DPO训练时偏好数据偏好数据通用对齐、提升输出质量
RFT训练时评分函数少量高质量数据专业领域优化、推理能力提升
Self-Instruct训练时自生成少量种子指令扩展指令遵循能力
Self-Refine生成时自我反馈无额外数据提升单次输出质量
CriticGPT生成时专家模型反馈无额外数据发现并修复badcase

5.2 方法选择建议

根据不同场景和需求,我们可以提供以下方法选择建议:

  1. 大规模通用对齐:RLHF或RLAIF是首选,取决于人力资源和预算
  2. 安全性和伦理对齐:Constitutional AI提供了基于原则的方法
  3. 资源受限场景:DPO简化了流程,降低了计算需求
  4. 专业领域优化:RFT允许使用少量数据和自定义评分函数
  5. 快速迭代改进:Self-Refine无需额外训练,可立即应用
  6. 质量控制和评估:CriticGPT可以辅助发现和修复问题

6. 当前挑战与未来展望

6.1 当前面临的挑战

  1. 评估标准不统一:缺乏统一的评估框架来比较不同方法的有效性
  2. 反馈质量问题:AI反馈可能继承模型的偏见,人类反馈成本高且可能不一致
  3. 计算资源需求:训练时修正方法通常需要大量计算资源
  4. 领域适应性:通用方法可能无法满足特定领域的专业需求
  5. 自我改进的局限性:模型可能无法识别自身的系统性错误

6.2 未来发展趋势

  1. 自监督优化:减少对外部反馈的依赖,增强模型的自我评估能力
  2. 多模态反馈:整合文本、图像等多模态信息提供更全面的反馈
  3. 自我博弈学习:通过模型间的对抗或协作来提升性能
  4. 持续学习系统:构建能够从用户交互中不断学习和改进的系统
  5. 个性化优化:针对特定用户或场景的自适应优化方法

7. 结论

LLM的自动修复与自我优化是一个快速发展的领域,从最初的RLHF到最近的RFT,方法不断创新和演进。这些方法从不同角度解决了模型优化和badcase修复的问题,为构建更可靠、更有用的AI系统提供了重要支持。

训练时修正方法(如RLHF、RLAIF、RFT等)通过更新模型参数从根本上改变模型行为,适合系统性优化;而生成时修正方法(如Self-Refine、CriticGPT)则提供了无需重新训练即可改进输出的灵活选择。

随着技术的不断进步,我们可以期待更高效、更自动化的优化方法出现,进一步推动LLM在各个领域的应用和发展。

参考文献

  1. Automatically Correcting Large Language Models Survey, 2024
  2. 什么是大模型的badcase?如何修复大模型的badcase呢?, 2023
  3. OpenAI前对齐团队「遗作」:RLHF不够用了!用GPT-4训练GPT-4, 2024
  4. 一文看尽LLM对齐技术:RLHF、RLAIF、PPO、DPO……, 2024
  5. OpenAI推出强化微调技术RFT,助力模型定制化突破, 2025
  6. OpenAI突破传统微调,RFT 技术可精准定制 o4-mini 模型, 2025
  7. SELF-REFINE: 带自我反馈的迭代改进, 2024
  8. Self-Instruct 论文解读:利用大模型自己给自己生成指令数据,指令数据自动生成, 2023
  9. #智能体# SELF-REFINE 基于自我反馈的迭代精炼LLM输出, 2024
  10. Constitutional AI: Harmlessness from AI Feedback, 2022
  11. RLAIF:一个不依赖人工的RLHF替代方案, 2023
Source(72)
知乎
## 1. Introduction 本篇工作是UCSB发表在期刊TACL上的一篇Survey,原文链接: Just a moment... 本文全面回顾了自动更正大型语言模型(Automatic
电子发烧友
badcase 定义 首先我们定义什么是大模型的badcase,大模型badcase是指在应用场景中,出现不符合预期的答复。但实际上不符合预期的答复可能多种多样,原因也各不相同,有没有什么统一的思路
微博
【Awesome-LLM-Self-Improvement:精选大型语言模型在推理时自我改进的研究论文列表,助力模型性能提升】'A curated list of awesome LLM Inference-Time Self-Improvement(ITSI,pronounced"itsy")papers from our recent survey:A Survey on Large Language Model ...
cnblogs.com
大语言模型(英文:Large Language Model,缩写LLM),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。通常,大语言模型(LLM)指包含 数百亿(或更多)参数的语言模型,这些模型在大量的文本数据上进行训练,例如国外的有GPT-3、GPT-4、PaLM、Galactica 和 LLaMA 等,国内的有ChatGLM、文心一言、通义千问、讯飞星火等。在这个阶段,计算机的“大脑”变得非常巨大,拥有数十亿甚至数千亿的参数。这就像是将计算机的大脑升级到了一个巨型超级计...
cn.community.intersystems.com
嵌入式 Python#Artificial Intelligence(AI)#ChatGPT#Large Language Model(LLM)#Vector Search#InterSystems IRIS for Health#Open Exchange Open Exchange app Iris-AgenticAI:基于OpenAI智能体SDK驱动的企业自动化多智能体工作流平台 Hi 大家好 在本文中,我讲介绍我的应用 iris-AgenticAI. 代理式人工智能的兴起标志着人工...
cnblogs.com
Large Language Model,称大规模语言模型或者大型语言模型,是一种基于大量数据训练的统计语言模型,可用于生成和翻译文本和其他内容,以及执行其他自然语言处理任务(NLP),通常基于深度神经网络构建,包含数百亿以上参数,使用自监督学习方法通过大量无标注文本进行训练。例如国外的有GPT-3/4、PaLM、Galactica和LLaMA等,国内的有ChatGLM、文心一言、通义千问、讯飞星火等。2.演进 早期语言模型:最初的语言模型通常是基于统计的n-gram模型,它们通过计算单词...
超神经
大语言模型(英文:Large Language Model,缩写 LLM),也称大型语言模型,是一种人工智能算法。它应用了具有大量参数的神经网络技术,使用自监督学习技术处理和理解人类语言或文本。文本生成、机器翻译、摘要写作、从文本生成图像、机器编码、聊天机器人或对话式 AI 等任务都是大型语言模型的应用。这种 LLM 模型的例子有 open AI 的 Chat GPT、Google 的 BERT(Transformer 的双向编码器表示)等。LLM 的特点是规模庞大,数十亿的参数帮助它们学...
m.bilibili.com
Context:This video is based on the slides of a talk I gave recently at the AI Security Summit.The talk was not recorded but a lot of people came to me after and told me they liked it.Seeing as I had already put in one long weekend of work to make the slide...
知乎
机器之心报道, 编辑:饼饼、山茶花。 随着大模型在推理能力和行为表现上的不断提升,ChatGPT 的错误变得越来越难以察觉。 为了解决这一问题,最近,OpenAI 基于 GPT-4 训练了一个专
知乎
编辑:LRS ### 【新智元导读】脱胎于OpenAI的初创公司Anthropic带来了新产品Claude模型,无需人类反馈也能强化学习! ChatGPT发布后可谓是一时无两,但随着技术的再次发
金山词霸
爱词霸权威在线词典,为您提供self-improvement的中文意思,self-improvement的用法讲解,self-improvement的读音,self-improvement的同义词,self-improvement的反义词,self-improvement的例句等英语服务。爱词霸...
xiaoyuzhoufm.com
This research survey explores Large Language Model(LLM)Inference-Time Self-Improvement(ITSI),techniques enhancing LLM performance at inference without retraining.The authors categorize ITSI methods into three groups:Inde...
m.bilibili.com
00:14:14 Finetuning into an Assistant 微调成为助手 00:17:52 Summary so far 到目前为止的摘要 00:21:05 Appendix:Comparisons,Labeling docs,RLHF,Synthetic data,Leaderboard 附录:比较,标签文档,RLHF,合成数据,排行榜 Part 2:Future of LLMs 第二部分:LLMs的未来 00:25:43 LLM Scaling Laws LLM...
微博
[CL]A Survey on LLM Inference-Time Self-Improvement 网页链接 本文首次系统性地综述了大型语言模型推理时间自我改进方法,提出了一个新的分类体系,并讨论了其挑战、局限性和伦理影响,为该领域未来的研究提供了宝贵的参考。
m.bilibili.com
REST MEETS REACT-SELF-IMPROVEMENT FOR MULTI-STEP REASONING LLM AGENT(Google 2023),视频播放量 336、弹幕量 0、点赞数 11、投硬币枚数 0、收藏人数 13、转发人数 0,视频作者 mardinff,作者简介,相关视频:Sora 底层 Diffusion Transformer-详细计算(Tom Yeh 2024),RLEF-GROUNDING CODE LLMS IN ...
腾讯
这期讨论录制于 2 周前,随着昨天凌晨 OpenAI o1 模型的发布,我们的猜想得到验证,LLM 正式进入 self-play RL 范式时代。OpenAI 不是唯一重视 RL 和 Self-Play 的公司,在 o1 之前,Anthropic Claude 3.5 Sonnet 就被视为一个标志性里程碑,Claude 3.5 Sonnet 代码能力显著提升的背后其实是 RL 在起作用;Google 也已经围绕 LLM 做 rewar...
arxiv.org
In this paper, we theoretically model the training dynamics of self-improvement via the concept of solver-verifier gap. This is inspired by the ...
magazine.sebastianraschka.com
A curated list of interesting LLM-related research papers from 2024, shared for those looking for something to read over the holidays.
arxiv.org
In this survey, we investigate the current state of LLM Inference-Time Self-Improvement from three different perspectives.
openreview.net
We conduct a comprehensive examination on LLM self-improvement capability via the generation-verification gap.
proceedings.neurips.cc
In this paper, we develop RISE: Recursive IntroSpEction, an approach for fine-tuning LLMs to introduce this capability, despite prior work hypothesizing that ...
aclanthology.org
LLM-as-a-Judge approach achieves 3-5 times stronger correlation with human evaluation compared to (Yuan et al., 2024). The rest of this paper is ...
ojs.aaai.org
Abstract. Can LLMs consistently improve their previous outputs for bet- ter results? For this to be true, LLMs would need to be better at.
openreview.net
For math reasoning tasks, various search methods have been studied. One direction of research (Zhu et al., 2024; Xie et al., 2024) designed beam search with ...
阿里云
文中系统地将现有研究分为奖励模型、反馈机制、强化学习策略及优化方法四大主题,并深入探讨各技术路径的创新点与局限性,如RLHF、RLAIF等方法。旨在为读者提供清晰的领域概览,促进未来研究发展。[论文链接](https://arxiv.org/pdf/2407.16216) 近年来,随着自监督学习的进展、预训练语料库中数万亿标记的可用性、指令微调的发展以及数十亿参数的大型Transformer的开发,大型语言模型(LLMs)现在能够生成对人类查询既具有事实性又具有连贯性的响应。然而,训练数据...
知乎
Setting: LLM+Monte Carlo Tree Search解决奥赛级的数学问题 MCTS+Upper Confidence Bound (UCB)实现answer节点的高效采样
知乎
"Self-criticism is an art not many are qualified to practice." — Joyce Carol Oates 自我批评(self-critiq
稀土掘金
最近的人工智能反馈强化学习(RLAIF)研究表明,RLHF中奖励模型训练的评级不一定必须由人类提 供,而是可以由LLM生成(此处:PaLM 2)。标注人员在一半的案例中更喜欢RLAIF模型,也就意味着两个模型的差距并不大,RLHF和RLAIF都大大优于纯通过监督指令微调训练的模型。这项研究的结果非常有用和有趣,因为它基本上意味着我们可能能够使基于RLHF的训练更加高效和容 易。然而,这些RLAIF模型在专注于信息内容的...
m.bilibili.com
直观理解大模型预训练和微调!四大LLM微调方法,RLHF基于人类反馈的强化学习微调共计3条视频,包括:大模型项目引入、1-2节 从预训练到微调、大模型等,UP主更多精彩视频,请关注UP账号。
m.bilibili.com
LLM大型语言模型如何进行微调?RLHF强化学习代码解读,视频播放量 4742、弹幕量 0、点赞数 114、投硬币枚数 49、收藏人数 342、转发人数 42,视频作者 小工蚁创始人,作者简介 小工蚁创始人 张文斌原土豆网第九个员工,土豆网技术总监,相关视频:09大模型全栈-强化学习02-RLHF前言LLM强化学习,10大模型全栈-强化学习03-RLHF原理以及流程介绍,最新开源大语言模型GLM-4模型详细教程—环境配置+模型微调+模型部署+效果展示,08大模型全栈-强化...
电子发烧友
顾名思义,RLAIF是指使用LLM来代替人类标记偏好,基于这些标记数据训练奖励模型,然后进行RL微调。下图是一个展示了RLAIF(上)和RLHF(下)的基本流程。如图所示,在RLAIF中,首先使用LLM来评估给定的文本和2个候选回复,然后,这些由LLM生成的偏好数据被用来训练一个奖励模型,这个奖励模型用于强化学习,以便进一步优化LLM。一个LLM用...
agijuejin.feishu.cn
当前 LLM 蓬勃发展,各种模型和方法层出不穷,但总体看来,但是朝着以下3点目标前进:​ 有益性:LLM 在需要时遵循说明、执行任务、提供答案,以实现对用户意图理解并提供有益帮助。​ 真实性:LLM 提供真实、准确信息并承认其自身不确定性和局限性的能力。​ 无害性:避免有毒的、有偏见的或冒犯性的反应并拒绝协助危险活动的特性。​ 由于预训练模型的通用性,在以上3个方面均有所不足,而通过 instruction learning 的方式可以一定程度上激发模型...
arxiv.org
We introduce Self-Refine, an approach for improving initial outputs from LLMs through iterative feedback and refinement.
arxiv.org
Extensive experiments show the effectiveness of PIT on self-improvement compared with prompting methods such as Self-Refine. We highlight our limitations ...
anthropic.com
We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs.
openreview.net
We propose a novel approach called SELF-ALIGN, which combines principle-driven reasoning and the generative power of LLMs for the self-alignment of AI agents ...
proceedings.neurips.cc
We compare RISE to several prior methods that attempt to induce similar self-improvement capabilities: (a) self-refine [23, 33] that prompts a base model to ...
openreview.net
A common approach is reinforcement learning from AI feedback (RLAIF), which trains a reward model based on AI preference data and employs a reinforcement ...
aclanthology.org
We demonstrate the effectiveness of the pro- posed refinement technique in aligning teacher- student models, overcoming the differences high-.
huggingface.co
Self-improvement methods enable large language models (LLMs) to generate solutions themselves and iteratively train on filtered, high-quality rationales. This ...
donews.com
OpenAI在紧凑型推理模型o4-mini上引入了强化微调技术(Reinforcement Fine-Tuning,简称RFT),为语言模型的定制化任务提供了全新工具。RFT将强化学习原理融入微调过程,开发者可通过设计任务特定的评分函数来评估模型输出,而不再单纯依赖标注数据。这些评分函数基于准确性、格式或语气等自定义标准对模型表现打分,从而优化奖励信号,生成更符合期望的结果。该技术特别适用于复杂任务,例如医疗解释的措辞...
新浪财经
近日,科技媒体marktechpost报道,OpenAI在其o4-mini推理模型上推出了强化微调技术(Reinforcement Fine-Tuning,简称RFT),为定制基础模型以适应特定任务带来了突破性工具。这一技术的推出,无疑将打破常规,引领定制化o4-mini模型的新潮流。首先,让我们来了解一下强化微调技术(RFT)的基本原理。RFT将强化学习原理融入语言模型的微调过程。开发者不再仅依赖标...
新浪财经
【#OpenAI突破传统微调#,RFT 技术可精准定制 o4-mini 模型】5 月 9 日消息,科技媒体 marktechpost 今天(5 月 9 日)发布博文,报道称 OpenAI 公司在其 o4-mini 推理模型上,推出了强化微调技术(Reinforcement Fine-Tuning,简称 RFT),为定制基础模型以适应特定任务带来了突破性工具。OpenAI 的强化微调技...
科学网博客
当你面对一个极具专业性和复杂度的任务时,或许会发现传统的 AI 定制方法很难满足你的需求。无论是医疗、法律、工程、金融还是科研领域,你可能早已拥有了较为精细的训练数据与专业背景,但在将模型真正打磨
雪球
【中信通信】OpenAI 十二日直播之二:强化微调 新功能强化微调(Reinforcement Fine-Tuning,简称ReFT):使用极少训练数据对现有模型进行微调,训练出一个更强的模型(最低
ZOL报价
OpenAI为O1系列模型引入了强化微调(RFT),使用户能通过强化学习算法打造特定任务的专家级AI模型。此功能计划明年上线,但目前开放内测申请。通过RFT,用户可更精准地优化模型,满足个性化需求,提升任务处理能力,进一步推动AI技术的应用和发展。不太明白,以下是豆包提供的答案。从医学文献中提取罕见病患者症状及致病基因的数据进行训练。根据患者的症状,如癫痫或皮下结节,模型将推断可能的基因变异,并提供详细的推理路径。经过...
pingwest.com
品玩12月7日讯,在今天凌晨的第二场OpenAI 新品发布会上,OpenAI 宣布为ChatGPT 增加新功能Reinforcement Fine-Tuning。据悉,Reinforcement Fine-Tuning可以帮助用户根据自己的数据来量身定制 OpenAI 的强大推理模型 o1。不同行业的人可以使用强化学习来创建基于 o1 的专家模型,从而提高该领域的整体专业知识水平。开...
中财网
2024 年12 月7 日凌晨,OpenAI 进行“Shipmas”发布活动的第二天直播,展示了强化微调训练方法(RF T,Reinforcement Fine-Tuning),可帮助开发者高效微调模型,有针对性地提升模型特定能力。投资逻辑 何为RFT:OpenAI 曾推出过针对自家模型的监督式微调API,能够让模型模仿其在输入文本或图像中学习到的特征,可用于修改模型的语气、样式或响应格式等。本次发布...
platform.openai.com
Explore resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's developer platform.
datacamp.com
Reinforcement fine-tuning (RFT) is a technique for refining the knowledge of large language models through a reward-driven training loop.
arxiv.org
This technical report presents \emph{OpenRFT}, our attempt to fine-tune generalist reasoning models for domain-specific tasks under the same settings as RFT.
platform.openai.com
Explore resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's developer platform.
cookbook.openai.com
In this guide, weʼll walk through how to apply RFT to the OpenAI o4-mini reasoning model, using a task from the life sciences research domain.
marktechpost.com
A Technical Leap for Model Customization. Reinforcement Fine-Tuning represents a shift in how we adapt foundation models to specific needs.
arxiv.org
This technical report presents OpenRFT, our attempt to fine-tune generalist reasoning models for domain-specific tasks under the same settings as RFT.
platform.openai.com
Complete reference documentation for the OpenAI API, including examples and code snippets for our endpoints in Python, cURL, and Node.js.
知乎
23年5月来自CMU、AI2、U Washington、Nvidia、UCSD和谷歌的论文 “SELF-REFINE: Iterative Refinement with Self-Feedback
知乎
总览 大规模“指令调整”的语言模型,即 指令微调的LLM ,已经表现出非凡的 零样本能力 ,尤其是推广 新任务上 。 然而,这些模型严重依赖于人类编写的指令数据,而这些数据通常在数量、多样性和创造
cnblogs.com
基于上述背景,作者提出了 Self-instruct框架,一个 通过预训练语言模型自己引导自己来提高的指令遵循能力的框架。大白话点讲,就是 大模型自己遵循一套流程来生成数据,再用这些生成的数据来指令微调训自己,从而提高模型自己的能力。因此核心思想就是生成 指令遵循数据 数据生成 指令数据由指令、输入、输出组成。如下图,作者的数据生成piple包含四个步骤:1)生成任务指令,2)确定指令是否代表分类任务,3)使用输入优先或输出优先方法生成实例,4)过滤低质量的数据。1 指令...
今日头条
智能体#SELF-REFINE 基于自我反馈的迭代精炼LLM输出 优化精炼LLM输出的思路:先用LLM输出一个最终结果(初次),用同一个LLM对此结果进行反馈分析,还是用同一个LLM基于反馈分析精炼初次结果【一个轮回】,可以进行多次轮回 直至得到符合要求的结果(框架见图1、图2,完整数学推理的首次输出(图4)、反馈分析(图5)、精炼(图6)prompt)。【优点】 1、不需要任何的监...
稀土掘金
本节将详细介绍Self-instruct的过程,它指的是使用普通的预训练语言模型本身生成任务的Pipeline,然后使用生成的数据进行指令调优,以便使语言模型更好地遵循指令。这个Pipeline如图1所示。3.1 指令数据的定义 指令数据包含一组指令 { I t } { I t ​ },每条指令用自然语言定义一个任务t。每个任务有一个或多个输入输出实例(X t,Y t)(X t ​,Y t ​)。给定任务指令 I t I t ​ 和实例输入x,期望模型M产生输出 y:M(...
博客
self-instruct 自动生成指令数据是 ACL2023 上提出的一种新框架,旨在提高预训练语言模型的指令执行能力。该框架通过利用模型自身的生成能力,自动生成指令、输入样本和输出样本,然后进行过滤和优化,用于微调原始模型,从而在没有大量人类编写指令数据的情况下也能提升模型的泛化能力。实验结果显示,该方法能显著提升模型在新任务上的零样本泛化性能。在当前的自然语言处理领域,大型的“指令调优”语言模型(如经过微调以响应指令的模型)已经展示出在零样本情况下处理新任务的出色能...
devpress.csdn.net
文章《SELF-INSTRUCT:Aligning Language Model with Self Generated Instructions》一文提出了SELF-INSTRUCT,一个通过引导生成预训练的语言模型来提高其指令跟随能力的框架,该框架从语言模型中生成指令、输入和输出样本,然后在使用它们来微调原始模型之前对它们进行过滤。将该方法应用于vanilla GPT3,实验表明SUPER-NATURALINSTR...
阿里云
from camel.agents import ChatAgent from camel.datagen.self_instruct import SelfInstructPipeline agent=ChatAgent(model=qwen_model,) 基础Pipeline设置 该Pipeline通过从一小组种子(人工编写)指令开始工作,然后使用 LLM 基于这些种子生成新的指令。种子指令通常存储在 JSON Lines(JSONL)文件中。文件...
aclanthology.org
Our approach is based on a two-stage process, where reasoning abilities are first transferred between LLMs and Small Lan- guage Models (SLMs) ...
arxiv.org
Self-Refine (Madaan et al., 2023) enables LLMs to reflect on their responses and provide feedback, then ask LLMs to use feedback to improve responses.
arxiv.org
We investigate the potential for LLMs to self-improve in long-context reasoning and propose SeaLong, an approach specifically designed for this purpose.
learnprompting.org
Self-Refine prompting 1 aims to improve the initial outputs from LLMs through iterative feedback and refinement. It is a 3 step approach.
openreview.net
The main idea is to generate an initial output using an LLM; then, the same LLM provides feedback for its output and uses it to refine itself, iteratively. SELF ...
ojs.aaai.org
In the second phase, we instruct the LLM to choose the best answer from its own outputs, with the evaluation of the selected an- swer serving as the indicator ...
neurips.cc
This method uses correctness information to guide model refinement, only progressing to REFINE stage if the current answer is incorrect. This adjustment ...
aclanthology.org
It instructs LLMs to evaluate and refine the response to a given instruction. self-improvement model, denoted by Mself , which can provide ...