探索六大文字语音生成驱动虚拟数字人开源项目

作者:很酷cat2024.12.03 17:54浏览量:268

简介:本文介绍了六款文字语音生成驱动虚拟数字人说话的开源项目,包括Audio2Face、Write-a-Speaker、AI-generated-characters等,这些项目各具特色,为虚拟数字人的语音生成和驱动提供了丰富的选择和可能性。

虚拟数字人技术日新月异的今天,文字语音生成驱动虚拟数字人说话的开源项目层出不穷,为开发者提供了广阔的创新空间。以下是六款备受关注的开源项目,它们各具特色,共同推动着虚拟数字人技术的发展。

一、Audio2Face

Audio2Face是由FACEGOOD团队开发的一个开源项目,它主要实现了将语音信号转化为面部动画的功能。该项目对输入和输出数据做了相应的调整,声音数据对应的标签不再是模型动画的点云数据,而是模型动画的blendshape权重。FACEGOOD主要完成了Audio2Face部分,而ASR(语音识别)和TTS(文本转语音)部分则可以由思必驰智能机器人等第三方工具完成。Audio2Face的框架大致可以分为数据采集制作、数据预处理和数据模型训练三个阶段,通过这三个阶段的处理,可以训练出属于自己的动画驱动算法模型。

二、Write-a-Speaker

Write-a-Speaker是一个综合了高保真面部表情和头部运动的开源项目,它能够根据文本情感、语音节奏和停顿生成相应的动画参数。该项目包括一个独立于说话人的阶段和一个特定于说话人的阶段。在独立于说话人的阶段,设计了三个并行网络,分别从文本中生成嘴巴、上脸和头部的动画参数。而在特定说话人阶段,则提出了一个3D人脸模型引导的注意网络来合成针对不同个体的视频。Write-a-Speaker利用高精度的运动帽数据集,在视觉运动和音频之间建立了真实的对应关系,实现了高质量的照片真实感对话头部视频。

三、AI-generated-characters

AI-generated-characters是麻省理工学院媒体实验室(MIT Media Lab)研究人员开源的一个虚拟角色生成工具。该项目结合了面部、手势、语音和动作领域的人工智能模型,可用于创建各种音频和视频输出。它主要用于音频或视频驱动视频,暂不支持文本驱动视频。AI-generated-characters在医疗视频或其他视频通话时保护个人隐私方面有着广泛的应用前景,同时它也可以使著名的历史或现代人栩栩如生。

四、Omniverse Audio2Face

Omniverse Audio2Face是NVIDIA推出的一款利用深度学习AI技术生成表情丰富的面部动画的工具。它仅需一个音频来源即可快速轻松生成表情动画,为虚拟数字人的表情驱动提供了极大的便利。Omniverse Audio2Face的集成性和易用性使得它成为许多开发者的首选工具之一。

五、LiveSpeechPortraits

LiveSpeechPortraits是一个由音频信号驱动的生成个性化逼真语音头动画的开源项目。它包含三个阶段:深度神经网络提取深度音频特征以及流形投影;学习面部动态和动作;生成条件特征图并将其与候选图像一起发送到图像到图像转换网络以合成逼真的渲染。LiveSpeechPortraits可以很好地推广到野生音频,并成功合成高保真个性化的面部细节,如皱纹、牙齿等。此外,它还允许显式控制头部姿势,为虚拟数字人的动作和表情提供了更多的可能性。

六、GPT-SoVITS

GPT-SoVITS是一款强大的支持少量语音转换、文本到语音的音色克隆模型。它支持中文、英文、日文的语音推理,并提供了零样本TTS和Few-shot TTS两种模式。GPT-SoVITS还集成了包括语音伴奏分离、自动训练集分割、中文ASR和文本标注在内的WebUI工具,帮助初学者创建训练数据集和GPT/SoVITS模型。这款工具的易用性和强大的功能使得它在音色克隆和语音合成领域备受瞩目。

这些开源项目为虚拟数字人的语音生成和驱动提供了丰富的选择和可能性。开发者可以根据自己的需求和兴趣选择合适的项目进行学习和实践。同时,这些项目的开源性质也促进了虚拟数字人技术的普及和发展。在选择相关项目时,曦灵数字人作为一款先进的虚拟数字人解决方案,能够很好地与这些开源项目相结合,共同打造出更加生动、逼真的虚拟数字人形象。曦灵数字人凭借其强大的技术实力和丰富的应用场景,正在成为越来越多开发者的首选工具之一。