用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向学人动向
关键字  范围   
 
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
来源:机器之心 | 2024/5/27 11:37:07 | 浏览:2151 | 评论:0

为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。


近段时间已有一些研究者探索了更简单的离线算法,其中之一便是直接偏好优化(DPO)。DPO 是通过参数化 RLHF 中的奖励函数来直接根据偏好数据学习策略模型,这样就无需显式的奖励模型了。该方法简单稳定,已经被广泛用于实践。


使用 DPO 时,得到隐式奖励的方式是使用当前策略模型和监督式微调(SFT)模型之间的响应似然比的对数 的对数比。但是,这种构建奖励的方式并未与引导生成的指标直接对齐,该指标大约是策略模型所生成响应的平均对数似然。训练和推理之间的这种差异可能导致性能不佳。


为此,弗吉尼亚大学的助理教授孟瑜与普林斯顿大学的在读博士夏梦舟和助理教授陈丹琦三人共同提出了 SimPO—— 一种简单却有效的离线偏好优化算法。


全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


论文标题:SimPO:Simple Preference Optimization with a Reference-Free Reward

论文地址:https://arxiv.org/pdf/2405.14734

代码 & 模型:https://github.com/princeton-nlp/SimPO


该算法的核心是将偏好优化目标中的奖励函数与生成指标对齐。SimPO 包含两个主要组件:(1)在长度上归一化的奖励,其计算方式是使用策略模型的奖励中所有 token 的平均对数概率;(2)目标奖励差额,用以确保获胜和失败响应之间的奖励差超过这个差额。


总结起来,SimPO 具有以下特点:


简单:SimPO 不需要参考模型,因此比 DPO 等其它依赖参考模型的方法更轻量更容易实现。

性能优势明显:尽管 SimPO 很简单,但其性能却明显优于 DPO 及其最新变体(比如近期的无参考式目标 ORPO)。如图 1 所示。并且在不同的训练设置和多种指令遵从基准(包括 AlpacaEval 2 和高难度的 Arena-Hard 基准)上,SimPO 都有稳定的优势。

尽量小的长度利用:相比于 SFT 或 DPO 模型,SimPO 不会显著增加响应长度(见表 1),这说明其长度利用是最小的。


全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


该团队进行了大量分析,结果表明 SimPO 能更有效地利用偏好数据,从而在验证集上对高质量和低质量响应的似然进行更准确的排序,这进一步能造就更好的策略模型。


全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


如表 1 所示,该团队基于 Llama3-8B-instruct 构建了一个具有顶尖性能的模型,其在 AlpacaEval 2 上得到的长度受控式胜率为 44.7,在排行榜上超过了 Claude 3 Opus;另外其在 Arena-Hard 上的胜率为 33.8,使其成为了目前最强大的 8B 开源模型。


SimPO:简单偏好优化


为便于理解,下面首先介绍 DPO 的背景,然后说明 DPO 的奖励与生成所用的似然度量之间的差异,并提出一种无参考的替代奖励公式来缓解这一问题。最后,通过将目标奖励差额项整合进 Bradley-Terry 模型中,推导出 SimPO 目标。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

实验设置


模型和训练设置。该团队的实验使用了 Base 和 Instruct 两种设置下的两类模型 Llama3-8B 和 Mistral-7B。


评估基准。该团队使用了三个最常用的开放式指令遵从基准:MT-Bench、AlpacaEval 2 和 Arena-Hard v0.1。这些基准可评估模型在各种查询上的多样化对话能力,并已被社区广泛采用。表 2 给出了一些细节。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

基线方法。表 3 列出了与 SimPO 做对比的其它离线偏好优化方法。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

实验结果


主要结果与消融研究


SimPO 的表现总是显著优于之前已有的偏好优化方法。如表 4 所示,尽管所有的偏好优化算法的表现都优于 SFT 模型,但简单的 SimPO 却在所有基准和设置上都取得了最佳表现。这样全面的大幅领先彰显了 SimPO 的稳健性和有效性。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

基准质量各不相同。可以观察到,在 Arena-Hard 上的胜率明显低于在 AlpacaEval 2 上胜率,这说明 Arena-Hard 是更困难的基准。


Instruct 设置会带来显著的性能增益。可以看到,Instruct 设置在所有基准上都全面优于 Base 设置。这可能是因为这些模型使用了更高质量的 SFT 模型来进行初始化以及这些模型生成的偏好数据的质量更高。


SimPO 的两种关键设计都很重要。表 5 展示了对 SimPO 的每种关键设计进行消融实验的结果。(1)移除(4)式中的长度归一化(即 w/o LN);(2)将(6)式中的目标奖励差额设置为 0(即 γ = 0)。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

移除长度归一化对结果的影响最大。该团队研究发现,这会导致模型生成长且重复的模式,由此严重拉低输出的整体质量。将 γ 设为 0 也会导致 SimPO 的性能下降,这说明 0 并非最优的目标奖励差额。
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


有关这两项设计选择的更深度分析请参阅原论文。


深度对比 DPO 与 SimPO


最后,该团队还从四个角度全面比较了 DPO 与 SimPO:(1)似然 - 长度相关性、(2)奖励构建、(3)奖励准确度、(4)算法效率。结果表明 SimPO 在准确度和效率方面优于 DPO。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

DPO 奖励会隐式地促进长度归一化。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


DPO 奖励与生成似然不匹配。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


图 4c 比较了 SimPO 和 DPO 的奖励准确度,这评估的是它们最终学习到的奖励与留存集上的偏好标签的对齐程度。可以观察到,SimPO 的奖励准确度高于 DPO,这说明 SimPO 的奖励设计有助于实现更有效的泛化和更高质量的生成。


SimPO 的内存效率和计算效率都比 DPO 高。

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型


SimPO 的另一大优势是效率,毕竟它不使用参考模型。图 4d 给出了在 8×H100 GPU 上使用 Llama3-Base 设置时,SimPO 和 DPO 的整体运行时间和每台 GPU 的峰值内存使用量。相比于原版 DPO 实现,得益于消除了使用参考模型的前向通过,SimPO 可将运行时间降低约 20%,将 GPU 内存使用量降低约 10%。



相关栏目:『学人动向
普林斯顿教授“辛辣”点评中国学生:一个普遍的「坏习惯」阻碍了他们的长远发展 2024-11-16 [75]
朱民:中国经济将面临巨大的结构性变化! 2024-11-06 [357]
巫宁坤:活下去,并且“在日暮时燃烧咆哮” 2024-11-04 [393]
周其仁:中国经济高位下行的根本原因 2024-11-03 [422]
张维迎:让我最痛心的是社会变得如此虚伪,如此假话连篇 2024-10-31 [528]
达龙·阿西莫格鲁:制度视角下的中国未来经济增长 2024-10-31 [483]
钱满素:献身精神本身不足以成为一种美德 2024-10-31 [479]
战争琐思录(一):关于诺娃 2024-10-31 [477]
​“中产阶级气质”批判——关于当代中国知识者精神状态的一份札记 2024-10-27 [642]
后生可畏!这位华裔才俊掌控着全球顶尖公司AI模型训练! 2024-10-21 [731]
相关栏目更多文章
最新图文:
:天津工业大学“经纬英才”引进计划 :浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1) :美国加大审查范围 北大多名美国留学生遭联邦调查局质询 :天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么? :北京452万人将从北京迁至雄安(附部分央企名单) :《2019全球肿瘤趋势报告》
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.