腾讯混元开源Hunyuan 3D 2.0家族新模型 推动3D UGC生态发展

2025年3月18-19日 腾讯混元在开源日活动上正式开源基于Hunyuan 3D 2.0技术框架的5款三维生成模型,进一步丰富了3D AIGC社区。

本次开源的Turbo加速系列、多视图推理模块及轻量级mini模型,均基于Hunyuan 3D 2.0模型,组成了包含6大模型的Hunyuan 3D 2.0 家族。

图丨腾讯混元 Hunyuan 3D 2.0 家族已有 6 款模型(来源:腾讯混元)


● 轻量级模型 Hunyuan3D-2mini:通过模型剪枝大幅度减少模型参数,与 1 月份开源版本相比参数量从 11 亿下降到 6 亿,并且具有更高的隐空间压缩率。该轻量版模型为低算力设备提供了高效解决方案,够大幅降低了 GPU 显存的占用,因此显著降低了硬件需求,最低支持 4060等消费级显卡。


● 多视图版本模型 Hunyuan3D-2mv:支持多视图输入信息(2 到 4 张图片),能够更精准地捕捉细节,更加符合原画师、设计师用户生产习惯,大幅降低游戏制作、3D 用户生成内容创作等场景的制作成本。

为了保持灵活性与鲁棒性,在训练过程中首先使用固定图片数量、固定角度的多视图训练模型;然后逐步增加渲染输入图的角度变化,提升鲁棒性;最后随机drop部分视图,以支持不同图片数量输入的3D生成。通过这种渐进式的训练方式,可以使得多视图版本模型支持不同数量的多视图输入,用户使用更加灵活便捷,对输入视角的角度敏感性更低。

多视图输入

生成结果

多视图模型生成效果对比 - 可输入不标准三视图(如第一行,输入侧后方视角)

● Turbo 系列模型:基于FlashVDM的3D原生模型加速框架,分别对DiT模型和VAE模型进行优化,大幅减小几何模型生成耗时,实现了数十倍的生成速度提升,将高精度模型的生成的时间压缩至秒级。通过将该加速框架应用到轻量的 mini 模型上,甚至最快可以做到 0.5 秒内生成白模。此外,通过加速后的模型可以在 Apple M1 Pro 等芯片上进行部署,速度与标准版在显卡上部署的速度相当。

FlashVDM加速框架 - 对3D生成中的关键模型DiT和VAE分别进行加速

生成速度对比 - Hunyuan3D-2(左)和 Hunyuan3D-2-turbo(右) 生成速度对比明显,其中 turbo 模型在点击操作后很快生成

通过对Hunyuan3D-2 加速版模型(Turbo模型)和标准版(Hunyuan3D-2)进行用户双盲对比测试。结果显示,在5步迭代条件下,87.3%的生成结果对比组中,测试参与者无法从视觉上区分Turbo模型与标准版的输出差异。当迭代步数提升至8步时,无法区分差异的结果对比组比例上升至90.2%。

用户盲测 - 87%的生成结果用户无法区分

总结

以上Hunyuan 3D系列模型已全部完成开源,模型代码和权重均可直接通过文末链接查看下载。

同时,除去以上开源模型,混元3D AI创作引擎平台提供了更丰富的一站式、低门槛3D UGC创作平台,更多能力和功能均可在混元3D AI创作引擎平台免费体验。

此次腾讯混元的开源标志着3D UGC生态的进一步繁荣,无论专业工作室还是个人创作者都可以选择合适的模型进行部署,更为高效便捷地进行3D模型创作。

未来,腾讯混元将继续拥抱开源,推进三维生成技术普惠化,降低三维内容创作的算法门槛,让 3D 生成技术惠及更多创作者。

混元3D创作引擎平台

https://3d.hunyuan.tencent.com/

混元3D 2.0开源仓库

https://github.com/tencent/Hunyuan3D-2

混元3D FlashVDM开源仓库

https://github.com/Tencent/FlashVDM

多视图版模型权重仓库

https://huggingface.co/tencent/Hunyuan3D-2mv

轻量版模型权重仓库

https://huggingface.co/tencent/Hunyuan3D-2mini

混元2.0模型体验页面

https://huggingface.co/spaces/tencent/Hunyuan3D-2

混元2.0多视图模型体验页面

https://huggingface.co/spaces/tencent/Hunyuan3D-2mv

关注腾讯开源公众号

获取更多最新腾讯官方开源信息!

加微信进群即可了解更多“腾讯开源新动态”

图片

添加微信请备注:腾讯开源

### 部署腾讯混元3D模型 #### 一、环境准备 对于希望在本地环境中部署腾讯混元3D模型Hunyuan3D-1.0的用户来说,确保拥有合适的硬件和软件配置至关重要。该模型对计算资源有一定需求,建议使用配备有高性能GPU的工作站或服务器来运行此模型[^1]。 具体而言,在操作系统方面推荐Linux发行版如Ubuntu;Python版本应不低于3.8;CUDA Toolkit以及cuDNN库需按照所使用的NVIDIA GPU型号安装相应版本以支持深度学习框架PyTorch正常工作。此外还需要预先设置好pip工具以便后续安装其他必要的Python包。 #### 二、获取源码与依赖项 访问项目官方GitHub页面下载最稳定版代码仓库[Hunyuan3D-1 GitHub]。与此同时,AutoDL社区已经为开发者们提供了一个包含了所有必需组件的Docker镜像,这可以极大地方便那些想要快速启动并测试模型的人士。通过访问指定链接https://www.codewithgpu.com/i/Tencent/Hunyuan3D-1/Hunyuan3D-1.0即可拉取到这个经过特别定制化的容器镜像文件。 如果选择不使用现成的Docker镜像,则需要手动构建环境: ```bash git clone --recursive https://github.com/YourRepoPathHere/hunyuan_3d.git cd hunyuan_3d conda create -n hunyuan python=3.8 source activate hunyuan pip install -r requirements.txt ``` 以上命令会克隆整个Git仓库至当前目录下,并创建一个的Conda虚拟环境名为`hunyuan`,最后根据requirements.txt文档中的列表批量安装所需的Python第三方模块。 #### 三、加载预训练权重 完成上述准备工作之后,下一步就是从网络上或者其他途径获得已训练好的参数文件(.pth),并将它们放置于项目的适当位置等待调用。通常情况下这些权重会被保存在一个叫做checkpoints或者models这样的子文件夹里面。 #### 四、执行推理脚本 当一切就绪后就可以尝试跑一些简单的例子来看看效果如何了。进入examples目录找到对应的任务类型(比如text_to_image.py),修改其中涉及路径名的部分使其指向实际存在的数据集所在之处,接着就能直接运行它来进行预测操作啦! ```python import torch from model import build_model device = 'cuda' if torch.cuda.is_available() else 'cpu' model, preprocess = build_model(device=device) # 加载预训练模型 checkpoint_path = "./checkpoints/pretrained.pth" state_dict = torch.load(checkpoint_path,map_location=torch.device('cpu')) model.load_state_dict(state_dict) model.eval() # 这里假设有一个输入样本input_sample output = model(input_sample.to(device)) print(output.shape) ``` 这段代码展示了怎样实例化一个基于给定设备类型的模型对象,并从中读入之前提到过的`.pth`格式的参数表单,最终利用传入的数据作为输入向量得到输出结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值