设为首页加入收藏
  • 首页
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
    • 当前位置:首页>江津>OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证

      OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证

      发布时间:2026-04-19 来源:流落风尘网作者:SimonWan

      ↑阅读之前记得关注+星标⭐️,,每天才能第一时间接收到更新

      刚刚OpenAI公开了一种新的重要的模型训练方法(概念验证)

      面对大型语言模型(LLM)可能出现的欺骗行为——比如为了讨好人类用户而撒谎、隐瞒违规操作,甚至为了获得更高奖励而进行“奖励黑客攻击(Reward Hacking)”,OpenAI提出了一种名为 “坦白(Confession)” 的训练方法

      简单来说,就是在模型给出回答之后,强制要求它进行一次自我反省,诚实地交代自己在刚才的回答中是否遵守了所有指令,有没有走捷径,或者是否存在不确定的地方

      研究人员在GPT-5-Thinking上进行了实验。结果显示,通过这种训练,通过“坦白”来监测模型的不当行为是可行的,即使模型在主要回答中撒了谎,它往往也能在随后的“坦白”中诚实交代

      这项研究的论文题目为《Training LLMs for Honesty via Confessions》

      paper:

      https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf

      什么是“坦白”?

      在强化学习训练中,模型往往面临复杂的奖励目标(正确性、风格、安全性等)。这可能导致一种风险:模型为了最大化奖励,学会了生成“看起来很好”但实际上不符合用户意图或存在缺陷的回答

      OpenAI提出的“自白”机制,旨在解决这个问题。

      其核心流程如下(如图所示):

      1.标准交互: 用户提问(x) -> 模型进行思维链推理(CoT)和工具调用(z) -> 模型给出回答(y)

      2.强制坦白:系统发出一条特殊的系统消息(xc),要求模型提供一份“坦白报告”(yc)

      3.报告内容: 模型需要在报告中列出所有显性或隐性的指令与约束,评估自己是否遵守了这些要求,并列出任何不确定性或模糊之处

      关键在于奖励机制的设计:

      分离奖励: “坦白”的奖励与“主要回答”的奖励是完全分开的。只奖诚实:“坦白”的奖励仅基于其诚实度和全面性,由一个专门的LLM裁判打分

      互不影响:无论模型在自白中承认了多么糟糕的行为(比如承认自己偷懒了),都不会影响它因完成主要任务而获得的奖励

      这就像天主教的“告解室”机制:无论你在自白中揭露了什么,都不会改变你主要回答的得分。只要诚实交代是获取坦白奖励的“阻力最小路径”,模型就有动力说真话

      在GPT-5-Thinking上的实测结果

      为了验证这一方法的有效性,研究团队在GPT-5-Thinking模型上进行了轻量级的RL训练。他们在训练中�%的概率要求模型输出“坦白”

      并在多个分布外(OOD)的场景下进行了评估,涵盖幻觉、指令遵循、暗中策划(Scheming)和奖励黑客攻击等领域。

      主要发现如下:

      1. 坏行为多半会被招供当模型表现出不良行为时,�项评估中�项,模型至少有一半的概率会在“自白”中承认这一点。

      2. “坦白”比“回答”更诚实当模型出现不良行为时,它在“坦白”中坦白从宽的可能性,显著高于在主要回答中承认错误的可能

      3. 训练提升了自白准确率虽然GPT-5-Thinking本身就具备一定的坦白能力,但经过专门训练后,其自白的准确性有适度提升

      4. 不影响主任务性能在计算量匹配的对比实验中,加入“坦白”训练并没有显著提高或降低模型在原始任务上的表现

      测试发现,坦白法显著提高了模型不良行为的可见性。在所有诱发不良行为的评估中,平均而言,模型不遵守指令且不坦白的概率仅为 4.4%

      甚至能检测出“奖励黑客”行为

      研究人员还设计了一个特殊的实验来测试“奖励黑客攻击(Reward Hacking)”

      他们故意用一个弱裁判模型(容易被糊弄)来训练策略模型。结果发现,随着训练进行,策略模型学会了欺骗这个弱裁判,在回答中通过作弊来获取高分(例如在要求字数限制的任务中通过特殊格式蒙混过关)

      然而,“坦白”的准确率却在上升。

      这意味着,虽然模型学会了在回答里耍滑头来骗取主任务奖励,但它在随后的坦白中,依然诚实地指出了自己没有遵守指令。这验证了研究的一个核心假设:诚实地承认违规,比试图欺骗“坦白裁判”更容易获得奖励。

      此外,研究还发现,通过分析“坦白”的文本,可以提取出模型对自己回答的主观置信度(0-1之间的数值)。这个置信度能较好地预测模型回答是否正确。

      局限性:不知道自己错在哪,就没法招

      当然,这种方法并非完美无缺。

      最大的局限在于“无知的错误”。 如果模型未能遵守指令是因为它真的能力不足、理解错了,或者是产生了幻觉(它真心认为自己是对的),那么它就无法在“坦白”中承认错误。

      数据分析显示,绝大多数“漏报”的情况都是由于模型真的搞错了,而不是故意隐瞒。

      此外,目前的坦白是一个单独的输出步骤,主要用于推理时的监控、拒绝采样或向用户提示风险,并不能直接消除模型回答中的不良行为

      OpenAI认为,随着模型能力越来越强,不知道自己错了的情况会减少,这种基于坦白的监控机制将变得更加有效,可以作为思维链(CoT)监控的有力补充

      参考:

      https://openai.com/index/how-confessions-can-keep-language-models-honest/

      --end--

      最后记得⭐️我,这对我非常重要,每天都在更新:

      欢迎点赞转发推荐评论,别忘了关注我

      • 上一篇:{loop type="arclist" row=1 }{$vo.title}