引言
在 AI 应用开发领域,Dify 正凭借 "低代码 + 高灵活性" 的独特优势,成为越来越多开发者的首选工具。这款智能应用开发平台,通过可视化工作流设计、丰富的 AI 模型集成以及便捷的 API 对接能力,让开发者无需深入掌握复杂的机器学习算法,即可快速构建智能客服、内容生成、数据分析等各类 AI 应用。本文将从 Docker 安装、Dify 本地化部署、Ollama 本地部署、模型本地化部署等方面展开讲解,助力小白用户快速掌握这一高效工具。
目录
一、docker安装
二、dify安装
三、ollama部署
四、通过ollama部署大模型至本地
五、dify关联ollama本地模型
一、docker安装
1.系统选择与 Docker 下载
使用Docker Desktop 下载安装docker https://www.docker.com/
请根据自身设备配置选择适配的操作系统版本。可参考其他网友整理的Docker教程。
2.WSL 子系统更新与重启
通过 Docker 内置功能更新本地 WSL(Windows Subsystem for Linux)的 Linux 子系统版本(操作细节详见上述参考链接)。更新完成后,务必重启计算机使配置生效
3.Docker 安装验证与版本检查
- 若显示客户端(Client)和服务端(Serve r)版本信息,则说明安装成功。
- 若提示命令不存在,请检查安装步骤或系统环境变量配置。
4.检查 Docker Compose 安装及版本
通过命令行验证 docker compose version 是否安装,并查看版本信息。
若显示类似 Docker Compose version v2.xx.xx 的版本号,说明安装成功;
若提示 command not found,需根据系统类型补充安装(例如 Linux 系统需手动下载二进制文件并配置权限)。
5.配置 Docker 镜像并重启服务
国内用户需更改镜像源,打开Docker desktop应用,通过配置 Docker 镜像源(自行百度阿里云、网易云等加速地址)提升镜像拉取速度。配置完重新启动应用。
二、dify本地化安装
1.访问 Dify 官网下载并安装程序
打开浏览器,访问 Dify 官方网站:http://dify.cn 在官网首页找到「下载」入口,根据系统提示选择适配的安装包(如 Windows/macOS/Linux 版本)。
下载完成后,按引导流程完成 Dify 的安装。
2.配置环境文件:修改 Dify 配置文件名称
打开解压后的docker文件夹,找到“.env.example”文件并修改为“.env”
3.拉取镜像并启动服务
对docker文件夹打开系统终端(Windows PowerShell/CMD),执行docker compose up -d(需根据docker版本确认执行命令,见下面说明)命令拉取镜像并启动 Dify 服务
V1 版本:docker–compose up -d
V2 版本:docker compose up -d(注意中间有横线)
4.检查容器运行状态
通过 docker compose ps 命令查看容器运行状态是否正常。
若返回包含容器名称、状态(如healthy
或running
)、端口等信息的列表,说明容器已正常启动;
若列表为空或状态显示异常(如exited
),需通过docker compose logs
命令查看日志排查问题。
5.安装完成,访问 Dify 系统
你可以先前往管理员初始化页面设置设置管理员账户:
Copy
# 本地环境 http://localhost/install
# 服务器环境 http://your_server_ip/install
访问Dify 应用主页面:
Copy
或
# 本地环境 http://localhost
# 服务器环境 http://your_server_ip
三、ollama部署
1.访问 Ollama 官网下载程序
打开浏览器,访问 Ollama 官网:https://ollama.com
在官网首页找到「下载」入口,根据系统类型(如 Windows/macOS/Linux)选择适配的安装包。
2.执行安装程序
Windows/macOS 用户:下载完成后,双击安装包文件,按界面引导完成安装(部分场景需授予管理员权限)。
Linux 用户:通过命令行解压安装包并执行安装脚本(具体步骤参考官网文档)。
3.验证 Ollama 安装结果
打开 命令提示符(Command Prompt),在命令行中输入 ollama
并按回车。
若显示 Ollama 的命令帮助信息(如 Usage: ollama [command] [flags]
)或版本号(如 ollama version x.x.x
),则说明安装成功。
4.修改环境变量以指定大模型存储路径
Ollama 默认将大模型存储于 C 盘,可通过修改环境变量指定至其他磁盘(如 D 盘)
操作前必做:关闭 Ollama 应用程序及所有相关命令行窗口,避免环境变量修改冲突。
点击上图“环境变量”,进入设置界面,界面上方用户的变量,只对当前系统登录的账户起效,下面系统变量,对系统的所有账户生效,您可以根据情况自己选。点击新建,输入变量名OLLAMA_MODELS,变量值输入您放置ollama模型的新地址,我这里放在了D:\ollama\models(注意:该文件夹需提前建好),如下图:
5.配置生效与服务启动
配置完成,注意重启电脑(推荐)或ollama应用
启动ollama,CMD命令输入:ollama serve
打开浏览器,输入localhost:11434 , 显示ollama is running ,表示运行中
四、通过ollama下载部署大模型
1.在ollama.com官网获取模型
2.下载模型至本地
选择目标模型后,复制命令
直接通过CMD命令符下载
五、dify工作台关联ollama本地模型
1.添加配置信息
在dify / docker / .env文件中,用笔记本打开,并在最后添加以下配置信息:
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 ollama 的 API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
添加完成后效果如下:
2.Dify 中配置 Ollama 供应商
在dify-设置-模型供应商中,先在线安装ollama供应商,再配置ollama本地大模型
添加完成后效果如下:
六、结语
至此,您已完成在本地设备上通过 Dify 调用本地大模型的全流程配置。感谢您的耐心实践!若您觉得本教程对学习 AI 应用开发有帮助,欢迎关注我的后续内容 —— 我将持续更新 Dify 的高阶使用技巧、多模型集成方案等深度指南,助力您进一步探索智能应用开发的无限可能!