Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
Character.AI 推出 TalkingMachines 的实时 AI 视频技术
瑞贝卡·莫恩
2025年7月4日 04:27
Character.AI推出了TalkingMachines,这是一项实时AI视频生成的突破,利用先进的扩散模型进行互动式音频驱动的角色动画。
Character.AI 宣布了一项在实时视频生成方面的重要进展,推出了 TalkingMachines,这是一种创新的自回归扩散模型。这项新技术使得创建互动的、基于音频的 FaceTime 风格视频成为可能,让角色能够在各种风格和类型中实时对话,正如 Character.AI 博客所报道的那样。
革新视频生成
TalkingMachines建立在Character.AI之前的工作AvatarFX之上,后者为其平台的视频生成提供支持。这个新模型为沉浸式、实时的AI驱动视觉互动和动画角色奠定了基础。通过仅利用一张图像和一个声音信号,该模型能够生成动态视频内容,为娱乐和互动媒体开辟新的可能性。
TalkingMachines 背后的技术
该模型利用了扩散变压器(DiT)架构,采用了一种称为非对称知识蒸馏的方法。该方法将一个高质量的双向视频模型转变为一个快速的实时生成器。主要特点包括:
对未来的影响
这项突破不仅限于面部动画,为互动视听AI角色铺平了道路。它支持从照片级真实到动漫和3D头像的广泛风格,并且有望通过自然的说话和倾听阶段来增强流媒体。这项技术为角色扮演、讲故事和互动世界构建奠定了基础。
提升人工智能能力
Character.AI的研究标志着多个进展,包括实时生成、高效蒸馏和高可扩展性,能够在仅使用两个GPU的情况下运行操作。该系统还支持多说话者交互,实现无缝的角色对话。
未来展望
虽然这还不是产品发布,但这一发展是Character.AI路线图中的一个重要里程碑。该公司正在努力将这项技术集成到他们的平台中,旨在实现类似FaceTime的体验、角色流媒体和视觉世界构建。最终目标是让每个人都能创造和与沉浸式视听角色进行互动。
Character.AI 在训练基础设施和系统设计方面进行了大量投资,利用了超过 150 万个精心挑选的视频片段和三阶段训练管道。这种方法展示了前沿研究在人工智能技术中的精确性和目标性。
图片来源:Shutterstock