- 博客(21)
- 收藏
- 关注

原创 4090体验DeepSeek啊哈时刻
从V3到R1-Zero只采用来的RL训练,按照DeepSeek-V3 的技术报告预估V3最后训练耗费560万美元左右,R1-Zero RL 后训练过程费用应该10万美元左右,目前看ROI非常高。以下Notebook 是,可以在4090 上体验DeepSeek-R1-Zero的RL训练过程。
2025-02-12 11:38:52
492
原创 平台升级:新功能与新模型震撼登场!
OneThingAI算力云平台推出两大重磅更新:1)全新子账号管理功能,主账号可创建子账号并精准分配权限,提升团队协作效率与安全性;2)模型广场新增多款前沿AI模型,包括大语言模型通义千问3系列(支持119种语言)和图片模型通义万相系列(文生图/图生文能力),满足多样化AI应用需求。这些升级将显著提升用户在团队协作、语言处理、创意设计等方面的工作效率。
2025-06-05 16:42:36
583
原创 OneThingAI x ChatWise 打造理想 AI 助手 | 教程
《ChatWise智能聊天助手配置指南》突破传统AI工具局限,ChatWise支持多模型调用与本地数据加密,提供安全高效的智能交互体验。教程详细讲解:1)通过OneThingAI官网获取API密钥和modelID;2)下载ChatWise后配置OpenAI兼容接口;3)选择模型开启多模态聊天功能。新用户注册可享优惠券,学生认证额外奖励。配置完成后即可体验支持附件上传的精准对话服务。(149字)
2025-05-28 15:07:15
400
原创 一篇文章教会你Comfyui一键换装(全自动版)
文章介绍了一个高效的图像换装工作流,分为四个核心板块:输入层、预处理模块、融合模块和输出模块。输入层负责上传模特和服装照片,并设置分辨率;预处理模块通过特定模型生成遮罩,提取人体和服装特征;融合模块进行二次采样和优化,提升细节表现;输出模块展示最终换装效果。该工作流不仅支持人物服装的快速替换,还能实现跨主体适配,如将人类服装应用到宠物身上,展现了强大的生成能力和创意拓展潜力,适用于时尚造型迭代和宠物服饰设计等多种场景。
2025-05-26 18:00:00
887
原创 阿里开源视频生成巅峰之作!Wan2.1-VACE-14B实战全解析:从动作迁移到多图融合
上传动作参考视频与目标图像,调整frame_num(帧数)与sample_guide_scale(动作强度),生成动态一致的新视频。划定编辑区域,调整参数--sample_shift(噪声调度)与guide_scale(提示词权重),生成局部修改后的连贯视频。,模型通过捕捉源动作的时空特征,结合目标主体的外观一致性约束(如RefAdapter模块),实现自然迁移。,通过时空压缩与长时程依赖建模,实现无限时长1080P视频编解码,压缩效率提升40%。:在沙滩边走路的视频中,仅修改人物,背景动态保持自然过。
2025-05-22 17:46:26
828
原创 OneThingAI「模型 API 服务」重磅上线!
开发者可前往OneThingAI控制台-模型广场,快速接入通义千问-Math-Turbo、通义千问-Math-Turbo、DeepSeekV3、DeepSeek-R1671B满血版等精选主流模型接口。步骤二:提供curl、Python、Node.js三种技术方案,实现与模型API(如DeepSeek-R1模型接口)的交互,满足多样化开发场景及开发者使用习惯。开发者无需进行复杂的设置或接口适配工作,即可以更低的成本直接调用主流模型API,实现各领域AI应用场景的创新落地,极大地提升开发效率与使用体验。
2025-05-21 16:48:28
296
原创 阿里Wan2.1首尾帧控制模型(FLF2V)实战对比(附模型、工作流)
阿里Wan2.1系列模型代表了阿里巴巴在视频生成领域的最新成果。普通Wan2.1作为通用视频生成模型,支持多种任务,适合广泛的创意应用场景。而FLF2V首尾帧控制模型则在普通Wan2.1的基础上进行了针对性优化,专注于首尾帧控制,实现了更精准的时序控制和运动轨迹预测。选择哪个模型取决于具体需求:如果需要精确控制视频的首尾帧过渡,FLF2V是更好的选择;如果需要更广泛的创作自由度和多模态支持,普通Wan2.1可能更适合。wan2.1模型首尾帧控制。所有工作流关注后台私信。
2025-05-16 18:00:00
372
原创 用SkyReels-V2-DF无限生成长视频:ComfyUI部署全指南
效果展示:女子喝茶,将茶杯放在桌上,并摇晃茶杯SkyreelsDiffusionForcing视频实战昆仑万维开源的 SkyReels-V2-DF 模型,基于扩散强迫(Diffusion-forcing)框架,首次实现单镜头的流畅视频生成,并通过 “Extend”续写机制突破时长限制。其核心技术优势如下结合多模态大语言模型(MLLM) 和强化学习,模型可解析(如镜头类型、摄像机运动、演员表情),生成符合导演视角的连贯画面。支持多提示词。
2025-05-08 18:20:46
1910
原创 Wan2.1与SkyreelA2图生视频能力对比:技术路线与应用差异解析
Wan2.1与SkyreelA2图生视频能力对比:技术路线与应用差异解析
2025-04-27 17:28:10
881
原创 ComfyUI + 腾讯 Sonic 节点实战:三步实现图片开口说话
在 AI 多模态技术爆发的今天,如何让静态图片 “开口说话” 成为热门课题。腾讯开源的 Sonic 模型通过图像 + 音频驱动数字人视频生成,而 ComfyUI 作为节点式工作流工具,能将这一过程简化为可视化操作。
2025-04-11 18:10:00
1256
原创 ComfyUI 全解析:基础概念
VAE(变分自编码器)是像素空间与潜空间的转换桥梁,直接影响生成图像的细节质量和计算效率。编码器:将 512x512 图像压缩至 64x64 的潜在表示,降低计算复杂度。解码器:将去噪后的潜在张量还原为可视图像,支持高清输出(如 1024x1024)。
2025-04-11 17:28:32
885
原创 云端体验 DeepSeek V3 0324/ Qwen2.5 VL 32B
登录OneThingAI平台,进入镜像中心,选择vLLM推理引擎,点击创建实例(8卡可跑,更好的体验需要2台H20通过【文件管理】查看DeepSeek 相关模型。
2025-03-27 17:40:34
336
原创 【Attention优化重大突破!显存减半效率倍增,大模型长文本处理迎来新时代】
从第二章节不难看出(Decoder-only的attention计算和上面略有不同,不影响计算复杂度讨论),如果不做任何优化,生成每一个token的计算复杂度是O(n^2),最终生成的序列全局计算复杂度是O(n^3)。对于上下文这个计算复杂度肯定是无法接受的。1,所以,直觉上提升Attention的性能的做法是降低它的计算复杂度.kv caching就是为了解决这个问题将单个token的计算复杂度降低到O(n) (n为当前序列长度),全局的复杂度就下降到O(n^2)极大的提升了性能。
2025-03-13 18:19:24
708
原创 【大模型私有化部署要花多少钱?】一张图看懂你的钱用在哪
DeepSeek 热度持续,大家都在探索DeepSeek的使用场景,拓宽它的使用边界。在一些数据安全敏感的场景私有化部署是企业落地LLM的重要选项。本文将详细的讨论如何才能高性价比的完成DeepSeek的私有化部署,下面将以两个章节来讨论这个问题:第一章节定义一些大模型服务的性能指标,第二个章节评估私有化部署大模型的成本情况。
2025-03-12 10:56:50
929
原创 16元推理成本,DeepSeek动了谁的蛋糕?
1,1-5 篇文章中1,2 估算了EP320 这种部署,到底能可以支持多大的并发。1 认为瓶颈在通信这个判断单台和8卡H100支持600左右的并发请求是很合理的。因为首先H100 FP16 989TFLOPs的算力,FP8 等于989 * 2,以989 T来做Arithmetic intensity的预估也就是295 FLOPs/byte,大体可以理解为只要单卡batch size 不大于295则算力不是瓶颈。
2025-02-19 19:31:45
694
原创 新年AI爆点!DeepSeek R1与Janus模型开启智能新
在模型训练成本高昂的当下,DeepSeek R1以十分之一的成本达到GPT-o1级别的表现,宛如开辟了一条低成本高效能的新赛道。它凭借创新算法,突破传统“大力出奇迹”的高成本训练模式,让更多开发者与企业能以更低门槛投身AI研发,为AI技术的普及铺就道路。开源让开发者能在GitHub等平台自由获取、修改模型代码,极大降低使用门槛,促进全球AI爱好者、研究者与开发者携手合作,共同探索AI技术边界,为行业发展注入源源不断的创新活力。未来,AI将更深入融入生活工作,提升效率、激发创意。DeepSeek采取。
2025-02-14 17:10:59
86
原创 一文读懂DeepSeek-R1私有化部署与本地部署
从上图可以看出,S1-32B模型在数学问题解决(MATH500)、竞赛数学(AIME24)和博士级科学问题(GPQA Diamond)三个任务上的表现。随着思考时间的增加,模型的准确率也有所提升。为了更好的服务企业OneThingAI支持使用vLLM 部署DeepSeek,vLLM版本为DeepSeek官方推荐的vLLM 版本0.6.6。下面会以部署一个32B的蒸馏版本为例,更多Ollama官方量化的DeepSeek-R1 模型参考 Ollama 官方的模型中心。Qwen 14B 为例,创建2卡实例。
2025-02-14 17:08:01
775
原创 ComfyLink全面内测:轻松实现工作流部署与托管
输出项,提示:只支持文本、图片和视频输出节点,图片和视频节点只支持 SaveImage、Image Save、easy imageSave、LayerUtility: SaveImagePlus 和 VHS_VideoCombine。输入项提示:加载图片节点目前只支持LoadImage、Image Load、LoadImagesFromPath 这三个节点,其他推荐使用 LoadImagesFromURL 节点、标签、工作流的介绍。,查看密钥的token,点击。选择工作流,点击工作流右侧的。
2025-02-14 16:47:43
586
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人