RLHF改良新路径RLAIF与SALMON样本标注解析

作者:新兰2024.11.20 18:23浏览量:30

简介:本文深入探讨了RLHF改良方案中的样本标注问题,介绍了RLAIF与SALMON两种创新方法。RLAIF通过大模型进行偏好样本标注,降低成本;SALMON则进一步优化机器标注,引入原则遵循奖励模型。两者均展现出在摘要任务等方面的显著效果,为RLHF的发展提供了新思路。

在人工智能领域,尤其是大型语言模型(LLM)的训练中,强化学习从人类反馈(RLHF)一直是一种核心方法。然而,RLHF在优化复杂的序列级任务时,需要大规模高质量的人类标注数据,这不仅成本高昂,而且数据质量难以保证。为了克服这一难题,研究人员提出了RLAIF和SALMON两种RLHF的改良方案,主要聚焦于样本标注阶段的创新。

RLAIF:以AI反馈降低标注成本

RLAIF,全称为Scaling Reinforcement Learning from Human Feedback with AI Feedback,其核心思想是通过AI自己的标注偏好来训练RL模型,从而减少对人类标注的依赖。RLAIF方案完全使用大模型来进行偏好样本的标注,并在摘要任务、对话的无害性和有用性等方面进行了测试,结果显示其能获得与RLHF相似的效果。

在RLAIF中,如何构建有效的Prompt成为关键。一个基础的Prompt构建包括:Preamble(评估任务指令)、Exampler(高质量的标注few-shot)、上文和两条待评估的摘要,以及模型输出。此外,RLAIF还采用了soft label、考虑位置偏差(Positional bias)、加入思维链指令(COT)等优化细节,以提高AI标注的准确性和一致性。

通过RLAIF方案,研究人员发现,使用大模型进行标注不仅可以降低成本,还能在某些任务上表现出优于人类标注的效果。同时,soft label的使用也显著提高了蒸馏效果,使得RLAIF在某些方面甚至可能超越人工标注。

SALMON:原则遵循奖励模型的创新

SALMON,即SELF-ALIGNMENT WITH PRINCIPLE-FOLLOWING REWARD MODELS,是IBM提出的一种在RLAIF基础上进一步优化机器标注的方案。SALMON的核心在于引入了原则遵循奖励模型(Principle-Following Reward Model),通过对比学习的思路,让模型学习每个具体的好和不好的偏好标准的表征。

在偏好样本标注阶段,SALMON对偏好进行了更为细致的拆分,总结了近20条偏好标准,包括事实性、数值敏感、时间敏感等。然后,对于每一条原则,都会让模型对两个候选回答进行独立打分,并考虑位置偏差进行平均。通过这种方法,SALMON能够得到更为准确和全面的偏好样本。

在RL模型训练时,SALMON没有直接使用soft label进行模型微调,而是采用了指令微调的方案,并引入了负向原则(如非事实性、无用性等),以更全面地让Reward模型学习每一个偏好原则的具体表征。这种方案使得SALMON在推理时能够动态调整上文原则,解决一些已发现的reward hacking问题。

RLAIF与SALMON的比较与展望

RLAIF和SALMON两种方案都旨在通过优化样本标注阶段来提高RLHF的效果,并降低成本。从实践效果来看,两者在摘要任务等方面都展现出了显著的效果,甚至在某些方面可能超越人类标注。然而,两者也存在一些差异和局限性。

RLAIF更注重于利用大模型进行标注的效率和准确性,并通过soft label等优化细节来提高蒸馏效果。而SALMON则更注重于原则遵循奖励模型的创新,通过对比学习和指令微调等方案来让模型学习更具体、更全面的偏好标准表征。

展望未来,随着技术的不断发展,RLAIF和SALMON等RLHF改良方案有望在更多领域得到应用和推广。同时,我们也需要继续关注这些方案在泛化性能、经济成本等方面的局限性,并探索更多的创新思路和方法来克服这些挑战。

在实际应用中,我们可以结合具体场景和需求选择合适的方案进行尝试和优化。例如,在千帆大模型开发与服务平台上,我们可以利用这些方案来优化模型的训练过程,提高模型的性能和准确性。同时,曦灵数字人和客悦智能客服等智能应用也可以借鉴这些思路和方法来提升自己的智能化水平和用户体验。

总之,RLAIF和SALMON等RLHF改良方案为大型语言模型的训练提供了新的思路和方向。通过不断优化和创新,我们有理由相信未来的人工智能将会更加智能、更加高效、更加人性化。