运行时MetaHuman口型同步 Runtime MetaHuman Lip Sync
描述
i️ 注意:带有插件示例的图像和演示项目是使用 Runtime Audio Importer 和/或 Runtime Text To Speech / Runtime AI Chatbot Integrator 插件创建的。因此,要遵循这些示例,您还需要安装这些插件。但是,您也可以在不使用它们的情况下实现自己的音频输入解决方案。
🗣️ 满足每个项目需求的三种高级型号!
通过零延迟、实时口型同步,让你的MetaHuman和自定义角色栩栩如生!现在有三种优质型号,以满足您的项目要求:
🌟 Mood-Enabled Realistic Model - 为MetaHuman角色提供情感感知面部动画,具有12种不同的情绪(快乐、悲伤、自信、兴奋等)、可配置的强度和智能前瞻时间
🌟 真实模型(Realistic Model) - 增强视觉保真度,专门针对具有更自然嘴部动作的MetaHuman角色(81个面部控制))
⚡️ 标准模型 - 与MetaHuman和自定义角色(14个发音素)广泛兼容)
通过完全离线和跨平台的无缝、实时口型同步来转换您的数字角色!观看您的角色对语音输入做出自然反应,以最少的设置创建身临其境且可信的对话。
快速链接:
- 🌐 产品网站
- 🎮 打包演示项目 (Windows)
- 📦 演示源文件(UE 5.6)——需要此插件+运行时音频导入器,可选:文本转语音/AI聊天机器人。标准模型需要一个小型扩展插件(参见文档)。
- 📄 文档
- 💬 Discord 支持聊天
- 📌 定制开发:solutions@georgy.dev(为团队和组织量身定制的解决方案)
最新视频教程:
高质量(真实模型)教程:
- 🎥 具有情绪控制和本地 TTS ⭐ 的高品质口型同步 NEW
- 🎥 与 ElevenLabs 和 OpenAI TTS 的高质量口型同步
- 🎥 高品质现场麦克风口型同步
- 🎥 展示插件功能的演示视频
标准模型教程:
常规设置:
- 🎥 设置教程视频
🚀 主要特征:
- 来自麦克风输入和任何其他音频源的实时口型同步
- 具有 12 种不同情绪和可配置强度的情绪表达控制
- 来自检测到的音频提示的动态笑声动画
- 像素流麦克风支持 - 从基于浏览器的输入启用实时口型同步!
- 离线处理 - 无需互联网连接
- 跨平台兼容性:Windows、Mac、iOS、Linux 和 Meta Quest
- 针对所有平台上的实时性能进行了优化
- 适用于MetaHuman和自定义角色:
- 热门商业角色(Daz Genesis 8/9、Reallusion CC3/CC4、Mixamo、ReadyPlayerMe)
- 基于 FACS 的角色模型
- ARKit 混合形状标准
- 任何具有面部表情自定义变形目标的角色
- 多个音频源:
- 现场麦克风输入(通过 Runtime Audio Importer 的可捕获声波)
- 捕获的音频播放(通过运行时音频导入器的可捕获声波)
- 合成语音(通过运行时文本转语音或运行时 AI 聊天机器人集成器)
- 从音频文件/缓冲区
- 自定义音频源(包括流媒体)
🌟 适用于:
- 运行时音频导入器 - 用于麦克风捕获和音频处理
- 运行时文本转语音 - 用于本地(脱机)文本转语音
- Runtime AI Chatbot Integrator - 适用于 ElevenLabs 和 OpenAI 文本转语音
资源下载
下载价格VIP专享
仅限VIP下载升级VIP

请先 !