生成式AI实战笔记
文章平均质量分 88
本专栏聚焦生成式AI的实战与发展,系统讲解从Codex、Dify、ComfyUI、LangChain到本地模型部署的全过程。通过真实案例与调试经验,深入解析模型调用、插件开发、自动化流程与多模态生成的关键要点,帮助开发者快速掌握AI落地技能。
技术小甜甜
于道各努力,千里自同风。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
[AI开发] 安装Codex必须启用WSL2:推荐Win11系统以获得最佳兼容体验
Codex本地部署环境要求解析:WSL2和Win11是关键。Codex必须运行在WSL2环境下,因其依赖Linux生态,而WSL2又需要启用Hyper-V虚拟化平台。相比Win10繁琐的配置流程,Win11提供一键安装WSL2的便利,默认支持Hyper-V,安装成功率和稳定性更高。建议开发者升级到Win11以获得更流畅的Codex部署体验,特别是需要GPU加速或Docker环境的用户。正确的系统选择能大幅减少配置时间,让开发者更专注于代码创作。原创 2025-12-09 10:32:09 · 585 阅读 · 0 评论 -
[Agent部署] [AI]企业局域网中构建AI本地助手的可行性研究
本文探讨了企业内网部署本地智能Agent的可行性,分析了不同方案的优劣。企业期望获得既能执行本地任务(如文件操作、脚本执行)又满足数据安全要求的智能助手。OpenHand+Ollama组合虽能实现单机本地化部署,但缺乏多人协作能力。共享目录方案可解决部分协作问题,但扩展性有限。最终转向WebAgent方案,通过集中部署实现模型推理和服务管理,用户通过浏览器交互,在保证安全性的同时提升协作能力。文章建议采用分阶段演进策略,未来可引入客户端辅助Agent增强本地执行能力。原创 2025-10-30 11:18:03 · 1010 阅读 · 0 评论 -
[AI 实战] 用 4070 Ti 本地跑 GPT-OSS-20B:打造你的内网 Codex
项目推荐值GPU模型运行方式Ollama显存消耗12–14GB系统内存≥ 32GB性能水平适用场景内网 Codex、自动代码生成、私有文档问答、Agent 推理核心💬一句话总结4070 Ti 是 GPT-OSS-20B 的“目标显卡”之一,Ollama 的量化模型能直接跑。结合 OpenHand、Dify、LangChain 等框架,你可以轻松打造一个内网可控、离线安全、可扩展的 AI Agent 平台。原创 2025-10-29 18:15:09 · 1284 阅读 · 0 评论 -
[AI] 如何优化Ollama+OpenWebUI部署中的RAG功能
在使用Ollama与OpenWebUI进行局域网LLM部署时,遇到RAG功能效果不佳的情况并不罕见。通过一系列的排查与调整,我们发现问题的根本原因在于向量嵌入模型不适合中文文本。最终,通过更换为专门优化中文的bge-m3模型,我们成功地提升了RAG的效果。原创 2025-02-18 22:35:40 · 768 阅读 · 0 评论 -
# [AI] 如何使用 `ollama ps` 检查 Ollama 实例是否在使用 GPU
通过这种方式,你不仅可以优化资源管理,还能确保在需要时充分利用 GPU 提高计算效率。原创 2025-02-20 16:41:11 · 2230 阅读 · 0 评论
分享