- 博客(27)
- 收藏
- 关注
原创 Qwen3 震撼发布,赞奇深度测评倒计时!
赞奇也立刻着手使用8卡 H20 141GB 进行本地化部署,预计在五一节后发布Qwen3的并发测试报告,看看其实际应用体验究竟如何。关注知乎并私信即可优先获取测试报告!
2025-04-30 10:34:27
139
原创 锚定效能:能源行业可视化应用场景与 GPU 适配
能源产业智能化升级在加速,工程设计等应用场景中的工具、技术路径等发生了一些改变,同时 GPU 也在更新迭代,从过去大家所熟知的 NVIDIA Turing™ 架构、NVIDIA RTX™ Ampere 架构,已进阶到 NVIDIA Ada Lovelace 架构,算力已不可同日而语。鉴于很多朋友在选型新架构 GPU 的时候经常有疑惑,我们这里给大家整理了工程设计场景中的一些 GPU 适配建议。
2025-04-18 14:13:59
725
原创 交通类 AI 项目预演阶段,本地化部署的一些新思路
交通行业的 AI 应用场景目前主要涵盖交通公共服务体验优化、汽车等交通工具的智能化升级和物流的智能化转型。大部分应用场景仍在项目实验阶段。此阶段需要有效地平衡项目需求、成本和开发效率。
2025-04-18 11:02:51
773
原创 多元场景需求下,游戏开发的 GPU 选型攻略
游戏市场正在不断开发出新的场景需求,游戏开发团队在传统业务之外也都在打磨新的工作流,来应对高质量的游戏制作任务和短平快的 AI 游戏。这不可避免地涉及到生产力工具 GPU 的升级,而团队都希望“花小钱,办大事”,用一套高性价比的方案支撑起多元的应用场景和不同的工作流。
2025-04-17 16:05:09
1025
原创 NVIDIA RTX™ GPU 低成本启动零售 AI 场景开发
零售行业正在探索应用 AI 升级客户体验,同时优化内部流程。面对多重应用场景以及成本优化压力,团队可采用成本相对可控的方案,来应对多重场景的前期项目预演和落地,避免短期内大规模投入造成的资源浪费。
2025-04-16 16:49:18
998
原创 【赞奇实测】加速 Siemens NX 工作流:NVIDIA RTX™ GPU 性能表现实测
近期评测组对 NVIDIA RTX™ GPU 在 Siemens NX 中的性能进行了详细的测试,本次测试共选用 6 张 GPU,测试每张 GPU 在 Siemens NX 软件中导入模型速度、有限元分析时长、渲染视口流畅度等应用环节的性能表现。
2025-04-11 11:28:38
158
原创 【赞奇实测】NVIDIA RTX™ GPU 在 Houdini 中的渲染表现实测
近期我们的技术小伙伴对 NVIDIA RTX™ GPU 在 Houdini 中的渲染表现进行了详细的测试,本次测试共选用 6 张 GPU,分别测试每张 GPU 在大、中、小三个场景中的性能表现,并将同级别的 NVIDIA Ada Lovelace 架构 GPU 与 NVIDIA Ampere 架构 GPU 进行对比分析,为大家更直观地呈现 GPU 性能提升。
2025-04-10 17:58:02
622
原创 【新品发售】NVIDIA 发布全球最小个人 AI 超级计算机 DGX Spark
GTC 2025 大会上,NVIDIA 正式推出了搭载 NVIDIA Grace Blackwell 平台的个人 AI 超级计算机——DGX Spark。
2025-03-21 11:36:40
342
原创 8卡 5880 Ada 并发测试 Deepseek 32B/70B
8卡 5880 Ada 能够很好的支持 32B FP8 和 FP16,不过 FP8 相较 FP16 提升较小,因此建议部署 FP16。8卡 5880 Ada 能够支持部署 70B FP16,并且在对话问答场景中表现优秀,在模拟RAG场景中,并发数过高会有算力压力。
2025-03-21 11:35:49
527
原创 性能直逼 DeepSeek R1 671B,QwQ-32B+4*RTX 5000 Ada 并发测试
回答问题的逻辑性明显要强于R1 32B 蒸馏版,跟671B满血版对比基本接近,期待 DeepSeek 官方下一个版本的更新。
2025-03-21 11:33:41
252
原创 DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!
近期我们针对 DeepSeek 满血版 671B 进行了并发性能的测试,搭载的是 8张 NVIDIA H20(单卡显存141GB)的服务器,我们来看看测试结果。
2025-03-06 10:02:12
3764
原创 【赞奇实测】4090涨疯了,32GB 5000 Ada 跑 DeepSeek 32B FP16 并发测试
DeepSeek R1 32B的企业私有化部署场景,推荐 4卡 RTX 5000 Ada 机型,性能和成本效益方面表现出色,满足企业级应用的高并发需求。
2025-02-19 16:34:20
1373
2
原创 【赞奇实测】DeepSeek 不同 GPU 性能测试一期(4090 VS 5000 Ada VS 5880 Ada)
32B DeepSeek, 选择5000 Ada 4卡机。满血版选择H20 141GB版本。
2025-02-13 17:35:46
1639
原创 经济高效地探索 AI:制造业中的 GPU 计算解决方案
我们将介绍制造业常见的AI应用场景中,搭配使用NVIDIARTX™GPU的一些经济适用方案。
2025-01-20 10:04:35
756
原创 加速 CATIA 工作流:NVIDIA RTX™ GPU 选型指南
近期评测组测试了NVIDIARTX™GPU在CAD软件中的应用性能表现,尤其针对CATIA这款CAD软件产品,考察不同复杂度模型在载入、渲染、装配以及仿真操作中的应用性能,通过应用效果对比分析,为制造企业的GPU选型提供专业数据支撑和选型依据。
2025-01-17 17:24:56
974
原创 加速 Solidworks 工作流:NVIDIA RTX™ GPU 选型指南
通过应用效果对比分析,为制造企业的 GPU 选型提供专业数据支撑和选型依据。
2025-01-09 11:59:10
2031
原创 NVIDIA RTX Ada 显卡超高分辨率渲染时长测试
测试 NVIDIA RTX™ 5000Ada、NVIDIA RTX™ 5880 Ada、NVIDIA RTX™ A6000 三款专业显卡在8K、16K超高分辨率下的渲染表现。
2025-01-08 12:10:18
915
原创 告别「文生图」显存焦虑
Flux 模型今年发布之后,带来了文生图的一次升级,图像生成的质量效果飞跃提升。但 Flux 对显存提出了要求。Flux.1 拥有高达12B的训练参数。FLUX.1 [dev] 和 FLUX.1 [schnell]两个版本官方原配模型大小为 23.8GB,需要至少 24GB 的显卡才能顺利运行。不过得益于FP8的支持,经过优化之后模型体积可缩减至 11.9GB,不过跑起来也至少需要 16GB 显存的显卡。无论是模型训练,还是生图过程,batch size 等参数的调整都会直接影响显存要求。赞奇工程师团队近期
2024-10-18 11:59:46
6402
原创 搭建一个 AI 问答机器人,需要几步?
搭建一个企业内部AI 问答机器人、知识库的场景,我们可以选择大厂的云服务,这相对于大多数用户来说,是最省事的方案。但很多企业可能会有一些私有化的数据,或者受限于企业内部的安全性要求,只能走模型私有化部署的方式。很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。
2024-10-18 11:48:30
1070
原创 生成式 AI 模型训练实践 | 使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用
使⽤ NVIDIA NeMo 框架实现 TTS 的训练和推理应用。
2024-08-22 17:47:00
953
1
原创 NVIDIA AI Enterprise 科普 | Triton 推理服务器 & TensorRT-LLM 两大组件介绍及实践
模型库中的每个模型都必须包含⼀个模型配置,该配置提供有关模型的必需和可选信息。)配置,使⽤当前最新的NVIDIA官⽅提供的镜像tritonserver:23.12-trtllm-python-py3,此版本镜像部分配置如下,⼏乎包含了运⾏TensorRT-LLM的所有环境,详情请参考此链接:(TensorRT-LLM 包含用于创建执行这些 TensorRT 引擎的 Python 和 C++ 运行时的组件,还包括与 NVIDIA Triton 推理服务器集成的后端,用于提供大模型服务的生产级系统。
2024-06-20 17:25:28
2530
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人