模型
AI生成的视频音效,已经可以用于视频制作了。 我们来重温一段《猫和老鼠》的名场面: 你能听出这个视频的音效全是 AI 生成的吗? 这个视频音效来自腾讯混元视频音效生成模型Hunyuan-Foley。我们还可以用它来生成流行的ASMR,体验“听觉爽感”,解压效果直接拉满。 8月28日,腾讯混元宣布开源


在AI技术迅猛发展的今天,一个高效的智能问答系统能够显著提升工作和生活效率。无论是即时解答常见疑问,还是从庞杂数据中精准提取关键信息。那么关键问题来了:如何快速构建这样一个灵活适配多场景的智能系统? 答案其实很简单!**通过腾讯云轻量应用服务器Lighthouse与开源智能体平台Dify的完美组合,


今天,混元3D世界模型系列最新成员——HunyuanWorld-Voyager(简称混元Voyager)正式发布,这也是业界首个支持原生3D重建的超长漫游世界模型。 该模型聚焦于AI在空间智能领域的应用扩展,将为虚拟现实、物理仿真、游戏开发等领域提供高保真的3D场景漫游能力。 混元Voyager突破


9月1日,我们带来一个在国际机器翻译比赛拿下30个第1名的翻译模型Hunyuan-MT-7B,它总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。 同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它


9月5日,"混元游戏"(腾讯混元游戏视觉生成平台)发布全新2.0版本,新增游戏图生视频、自定义模型训练、角色一键精修等能力,并大幅提升游戏2D生图模型能力,图生视频和文生图模型在游戏场景达到行业SOTA水平。 这次升级进一步解决了游戏美术设计与宣发中的动态内容生成、风格定制化、细节优化等痛点,在更多


经过一段时间的打磨,昨天,我们带来了腾讯混元最新的生图模型“混元图像2.1(HunyuanImage 2.1)”。 这是一个开源的文生图模型,支持原生2K生图,在多个方面达到业界领先水平: **01、**在2.0架构的基础上全面升级,更加注重生成效果与性能之间的平衡,性能更强 **02、**不仅支持


目前论文已经被 EMNLP 2025 主会录取,同时模型已经开源 论文: https://huggingface.co/papers/2509.01215 Github: https://github.com/Tencent/POINTS-Reader HuggingFace: https://hu


当今世界,AI越来越成为影响社会生产与生活的核心力量,并逐渐成为大国竞争的主战场。8月26日,国务院发布《关于深入实施“人工智能+”行动的意见》,明确提到“要加快探索人工智能驱动的新型科研范式,加快科学大模型建设应用,推动基础科研平台和重大科技基础设施智能化升级”。 但在医学影像领域,传统模型开发普


你是否遇到过这样的困扰:想观看海外直播、新闻发布,却因为缺少字幕而不得不放弃?花了大量时间找翻译工具和插件,结果要么设置繁琐、严重延迟、语言不全,要么字幕混乱串行。 近日,QQ浏览器电脑端「实时字幕」功能上线,依托腾讯云语音识别(ASR)和腾讯混元翻译模型,帮助浏览器用户更好地理解音视频内容。 //

