大模型对齐算法演进至Token-level TDPO

作者:demo2024.11.20 15:40浏览量:41

简介:本文探讨了大模型对齐算法的演进过程,从RLHF到DPO再到TDPO,重点介绍了TDPO算法在Token-level层面的直接优化,以及其在提高微调精度和多样性方面的优势。同时,文章也指出了TDPO算法在计算资源和处理复杂任务方面的局限性。

在人工智能领域的探索中,大语言模型(LLM)的控制与指导始终是一个核心挑战。如何确保这些模型既强大又安全地服务于人类社会,是研究人员不懈努力的方向。从早期的RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习)算法,到近年的DPO(Direct Preference Optimization,直接偏好优化),再到最新的TDPO(Token-level Direct Preference Optimization,基于Token的直接偏好优化),大模型对齐算法已经取得了显著的进步。

RLHF算法通过人类反馈和PPO(Proximal Policy Optimization,近端策略梯度优化)算法,将模型和人类偏好进行有效对齐。然而,RLHF存在训练难度大、显存占用高等缺点。为了克服这些局限,DPO算法应运而生。DPO通过数学推理得到奖励函数与最优策略之间的直接映射,消除了奖励模型的训练过程,直接在偏好数据上优化策略模型,实现了从“反馈到策略”的直观飞跃。这一改进不仅减少了复杂度,还增强了算法的稳健性。

尽管如此,DPO算法也存在局限性。它主要关注在逆KL散度约束下的策略优化,由于逆KL散度的mode-seeking特性,DPO在提升对齐性能方面表现出色,但这一特性也倾向于在生成过程中减少多样性,可能限制模型的能力。此外,DPO虽然从句子级的角度控制KL散度,但模型的生成过程本质上是逐个token进行的,因此在细粒度控制上存在限制。

为了应对这些问题,中科院和伦敦大学学院的汪军与张海峰团队提出了一种从token-level角度建模的大模型对齐算法:TDPO。TDPO算法从token-level的角度重新定义了整个对齐流程的目标函数,并通过将Bradley-Terry模型转换为优势函数的形式,使得整个对齐流程能最终从Token-level层面进行分析和优化。这一改进使得TDPO算法在保持对齐性能的同时,显著提高了生成多样性。

TDPO算法的主要贡献体现在以下几个方面:首先,它采用了Token-level的建模方式,对RLHF进行了更精细的分析;其次,它在每个token处从理论上引入了前向KL散度约束,使方法能够更好地约束模型优化;最后,相比于DPO算法,TDPO能够实现更好的对齐性能和生成多样性的帕累托前沿。

在实验方面,TDPO算法在IMDb、Anthropic/hh-rlhf、MT-Bench等多个数据集上进行了测试。实验结果表明,TDPO算法不仅在对齐性能上优于DPO和RLHF算法,在生成多样性上也占据优势。这一突破性的进展为大模型对齐算法的研究提供了新的方向。

然而,TDPO算法也面临一些挑战。由于它在token级别上进行优化,因此对计算资源和时间要求较高。这可能会限制其在实际应用中的可扩展性,特别是在处理大规模数据集或实时应用时。此外,在处理复杂或主观的任务时,如多轮对话或开放域问答,TDPO算法的性能可能会受到限制。为了解决这些问题,研究人员需要继续探索更高效、更灵活的大模型对齐算法。

在当前的AI技术发展中,千帆大模型开发与服务平台、曦灵数字人、客悦智能客服等产品都在积极应用最新的大模型对齐算法来提升产品性能。以千帆大模型开发与服务平台为例,它利用先进的算法和技术,为用户提供了高效、便捷的大模型开发服务。通过集成TDPO等最新的大模型对齐算法,千帆大模型开发与服务平台能够进一步提升模型的准确性和多样性,从而为用户提供更优质的服务体验。

综上所述,从大模型对齐算法的演进过程可以看出,技术的不断进步正在推动AI领域的发展。从RLHF到DPO再到TDPO,每一次算法的改进都为我们带来了更强大、更智能的AI技术。随着技术的不断发展,我们有理由相信,未来的AI技术将会为人类社会带来更多的便利和价值。