简介:本文介绍了六款文字语音生成驱动虚拟数字人说话的开源项目,包括Audio2Face、Write-a-Speaker、AI-generated-characters等,这些项目各具特色,为虚拟数字人的语音生成提供了丰富的解决方案。
在虚拟数字人技术日新月异的今天,文字语音生成驱动虚拟数字人说话的开源项目层出不穷,为开发者们提供了广阔的创新空间。以下是六款备受关注的开源项目,它们各具特色,共同推动着虚拟数字人技术的进步。
Audio2Face是由FACEGOOD团队开发的一个开源项目,旨在通过声音数据驱动虚拟数字人的面部表情动画。该项目对输入和输出数据进行了相应调整,使得声音数据对应的标签不再是模型动画的点云数据,而是模型动画的blendshape权重。FACEGOOD主要完成了Audio2Face部分,而ASR(语音识别)和TTS(文本转语音)部分则由思必驰智能机器人完成。开发者可以根据自己的需求,使用自己的声音或第三方的ASR、TTS系统进行替换,并重新训练Audio2Face部分,以创建专属的动画驱动算法模型。
Write-a-Speaker是一个综合了高保真面部表情和头部运动的开源项目,它能够将文本情感、语音节奏和停顿与面部表情和头部运动相一致。该项目包括一个独立于说话人的阶段和一个特定于说话人的阶段。在独立于说话人的阶段,设计了三个并行网络,分别从文本中生成嘴巴、上脸和头部的动画参数。在特定说话人阶段,提出了一个3D人脸模型引导的注意网络来合成针对不同个体的视频。Write-a-Speaker利用高精度的运动帽数据集,在获得视觉和音频通信后,可以以端到端的方式有效地训练网络,生成高质量的照片真实感对话头部视频。
AI-generated-characters是麻省理工学院媒体实验室(MIT Media Lab)研究人员开源的一个虚拟角色生成工具。该工具结合了面部、手势、语音和动作领域的人工智能模型,可用于创建各种音频和视频输出。它主要用于音频或视频驱动视频,暂不支持文本驱动视频。该项目在医疗视频或其他需要保护个人隐私的视频通话场景中有着广泛的应用前景,同时也能够让著名的历史或现代人物栩栩如生。
Audio2Head是一个基于一张参考照片和说话音频生成口播视频的开源项目。它兼顾生成的韵律和外表的相似度,除了面部动作外,还考虑了头部的动作以及背景区域的细节。Audio2Head能够生成逼真的口播视频,为虚拟数字人的语音交互提供更加自然的视觉效果。
Omniverse Audio2Face是NVIDIA推出的一个利用深度学习AI技术生成表情丰富的面部动画的开源项目。它仅需一个音频来源即可快速轻松生成面部动画,为虚拟数字人的表情驱动提供了高效便捷的解决方案。Omniverse Audio2Face借助NVIDIA的强大算力,实现了对声音数据的精准分析和面部动画的实时生成。
LiveSpeechPortraits是一个由音频信号驱动的生成个性化逼真语音头动画的开源项目。它包含三个阶段:深度神经网络提取音频特征、学习面部动态和动作、以及图像到图像转换网络合成逼真的渲染。LiveSpeechPortraits能够很好地推广到野生音频,并成功合成高保真个性化的面部细节,如皱纹、牙齿等。此外,它还允许显式控制头部姿势,为虚拟数字人的语音交互提供了更加灵活和自然的视觉效果。
产品关联:曦灵数字人
在这些开源项目的推动下,虚拟数字人技术得到了快速发展。曦灵数字人作为一款先进的虚拟数字人解决方案,能够充分利用这些开源项目的成果,为用户提供更加自然、逼真的语音交互体验。通过集成和优化这些开源项目的算法和模型,曦灵数字人能够实现更加精准的声音识别和面部表情动画生成,为虚拟数字人的广泛应用提供有力支持。
综上所述,这六款文字语音生成驱动虚拟数字人说话的开源项目各具特色,共同推动着虚拟数字人技术的进步。开发者们可以根据自己的需求和兴趣,选择合适的项目进行研究和应用,为虚拟数字人的发展贡献自己的力量。