Avatar,作为元宇宙的必要组成之一,凭借千人千面的独特形象和实时驱动的拟真表现,已逐渐成为线上社交用户在虚拟世界中展示个性、互动交流的新标配。

而今年以“ChatGPT”为代表的大语言模型火爆“出圈”,也让人们不禁遐想,高度拟真的虚拟形象与“善解人意”的AI相结合,能碰撞出怎样的火花。

新一代大语言模型强大的逻辑和生成能力,可以更加准确地理解用户意图、需求和想法,并给出自然、精准的响应。当Avatar与AI结合,由AI驱动的Avatar能够具备真人般的交互能力,为用户提供灵活、自然、流畅的对话体验,从而在客户服务、娱乐互动、在线教育等实时互动场景实现跨越次元的沟通互动与连接。但对很多企业来说,想要跟上Avatar+AIGC这股风潮并不容易,因为实现高表现力的虚拟人需要投入高昂的制作、运营等成本,开发周期也很长。

腾讯云推出的虚拟形象 SDK(Tencent Avatar SDK)为虚拟形象实时互动场景提供丰富的产品能力,能够有效解决企业关于成本及周期的顾虑,轻量级自研渲染引擎、丰富的形象素材资源库、基于优图实验室的 AI 技术积累……帮助企业快速打造高品质虚拟人能力,营造线上社交沉浸感。

AI驱动打造人性化虚拟伙伴

虚拟人与AIGC的结合,可进一步增强虚拟人在对话互动方面的能力。因具备强大的自然语言生成和理解能力,新一代大语言模型在虚拟人上的应用,可以带来更智能、自然的对话体验。当下爆火的AI虚拟聊天社交应用Glow、CallAnnie都是利用新一代大语言模型能力,让用户与AI驱动的虚拟人对话、交朋友,为用户提供新奇的线上社交体验。

腾讯云提供的虚拟形象能力能够快速接入大语言模型,打造出可以自然交流,具备“人情味”的虚拟伙伴。只需打通虚拟人与大模型之间的对话接口,用户输入信息后,虚拟形象即可根据返回的大模型生成信息,配合肢体、面部表情等动作,绘声绘色地与用户交流讨论。

腾讯云虚拟形象Demo AI驱动效果展示

基于通用大模型,用户可与虚拟人随时随地展开对话、讨论感兴趣的话题。当然,除了社交娱乐外,通过调整虚拟人形象及大模型参数,AI驱动的虚拟人还能够胜任语言教学、新闻查阅、天气播报、健身教练、金融助理等丰富角色,进一步拓展内容深度,增加用户粘性。

丰富、细腻的虚拟形象及素材资源

腾讯云虚拟形象SDK为企业提供细腻精细的3D虚拟形象和丰富的素材资源库,亲切可爱的个性形象搭配最潮流最in的服饰道具,打造千人千面虚拟形象,随心匹配各种流行玩法。

为解决不同世代审美标准的差异、开拓虚拟人独特性,虚拟形象SDK提供丰富的面部20项可调项,覆盖从眉毛长短到下巴宽窄等面部特征,再加上脸型、发型、瞳孔颜色的灵活选择,即可快速打造出一个独一无二的专属虚拟面孔。作为第二张名片,虚拟面孔无疑成为了玩家连接虚拟世界的桥梁。同时,不同风格的服装、配饰等素材的加入,让玩家可以任意装扮、美化自己的虚拟人,突出个性化特点,增加互动的“代入感”。为了进一步增强角色互动性和趣味性,我们还设计了流畅、细腻的动作动画和姿势绑定,例如打招呼、跑步、走路、思考等固定动作,不仅增加了虚拟人的灵动性,还给玩家带来更沉浸式的社交互动体验。

腾讯云虚拟形象面部DIY展示

自研驱动原子能力让形象更生动

基于优图实验室的AI技术积累,腾讯云虚拟形象SDK提供包括面部驱动、语音驱动、文本驱动、肢体驱动在内的多种自研驱动原子能力,让虚拟形象随动更加流畅贴合,帮助企业打造生动、灵活的虚拟形象,为用户带来独特的交互体验。

面部驱动

腾讯云的面部驱动技术是通过移动端摄像头对用户的面部表情和动作进行捕捉,根据人脸位置、关键点位置将信息映射到对应的Avatar面部,同时利用包含面部、舌头、眼球在内的 52 种表情基的线性组合,控制虚拟形象完成实时渲染驱动,从而实现虚拟人物实时、准确地呈现用户的表情和情感。

面部驱动能够应用在社交场景,如陌生人语聊场景。用户可以按自己的兴趣点来设计专属的虚拟头套。使用虚拟头套聊天在降低用户心理负担,拉近用户间社交距离的同时,灵敏的面部动作捕捉还可更加生动的呈现表情动作,增加社交趣味性。

腾讯云虚拟形象Demo面部驱动效果展示

语音驱动

腾讯云的语音驱动技术,可让Avatar根据用户输入的文本或语音来产生逼真、自然的语音表现。

首先,应用将用户的语音输入转换为文本信息,然后,对用户输入的文本内容进行分析和处理,理解输入的意图,提取关键信息。进而使用语音合成技术(如TTS, Text-to-Speech)将文本信息转化为自然、流畅的语音。最后,将合成的语音与虚拟人的面部动画进行同步调整,如嘴型、表情以及姿态等,使角色在说话时看起来更加自然协调。

语音驱动可应用于虚拟助手、智能聊天机器人、游戏角色等领域,通过语音驱动虚拟人来更加敏捷、实时地进行沟通交流,为用户提供更加真实、互动的体验。

腾讯云虚拟形象Demo语音驱动效果展示

肢体驱动

腾讯云推出的Avatar肢体驱动技术,可将用户的肢体动作实时捕捉并映射到虚拟人模型上:基于摄像头实时捕获用户肢体的位置、姿态、速度等数据,并进行预处理、滤波和优化,消除噪声干扰。然后,将处理后的肢体数据与虚拟角色模型进行关联,并据此驱动虚拟角色完成相应的动作。最后,将驱动后的虚拟角色实时渲染显示,实现准确的动作同步和视觉效果。

肢体驱动的推出,可以进一步丰富、升级实时互动的玩法,比如在虚拟场景里实时驱动虚拟人完成直播、教学、运动、唱歌等,为用户提供了更进一步的沉浸、自然的互动体验和趣味。

腾讯云虚拟形象Demo肢体驱动效果展示

通过以上原子能力,虚拟人能从更丰富的维度给用户带来高度逼真、富有表现力的交流体验,大大增强互动性和沟通效果。支撑其在智能客服、智能问答、聊天机器人、直播带货等众多应用场景上发挥更强大的功能。


如果您有相关业务需求或想要进一步地了解腾讯云音视频产品内容,欢迎扫描下方二维码添加音视频小姐姐微信,与我们的产研团队深入沟通交流。

腾讯云音视频在音视频领域已有超过21年的技术积累,持续支持国内90%的音视频客户实现云上创新,独家具备腾讯云RT-ONE™全球网络,在此基础上,构建了业界最完整的 PaaS 产品家族,并通过腾讯云视立方 RT-Cube™ 提供All in One 的终端SDK,助力客户一键获取众多腾讯云音视频能力。腾讯云音视频为全真互联时代,提供坚实的数字化助力。

文章来源于腾讯云开发者社区,点击查看原文