斯坦福大学团队研究认为,大型语言模型实际上是一个Q函数,这为OpenAI的Q*项目提供了理论支持。该团队通过直接偏好优化(DPO)方法,展示了语言模型可以隐式学习token层面的奖励函数,与人类奖励对齐。实验表明,DPO模型能够进行credit assignment,经典搜索算法等价于在DPO策略上的似然搜索,初始策略选择对隐性奖励轨迹重要。这可能有助于强化学习和RLHF在LLM中的应用。(机器之心)
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!