Dify+ollama模型本地化部署保姆级教程

引言

在 AI 应用开发领域,Dify 正凭借 "低代码 + 高灵活性" 的独特优势,成为越来越多开发者的首选工具。这款智能应用开发平台,通过可视化工作流设计、丰富的 AI 模型集成以及便捷的 API 对接能力,让开发者无需深入掌握复杂的机器学习算法,即可快速构建智能客服、内容生成、数据分析等各类 AI 应用。本文将从 Docker 安装、Dify 本地化部署、Ollama 本地部署、模型本地化部署等方面展开讲解,助力小白用户快速掌握这一高效工具。​

目录

一、docker安装

二、dify安装

三、ollama部署

四、通过ollama部署大模型至本地

五、dify关联ollama本地模型

一、docker安装

1.系统选择与 Docker 下载

使用Docker Desktop 下载安装docker https://www.docker.com/

请根据自身设备配置选择适配的操作系统版本。可参考其他网友整理的Docker教程。

2.WSL 子系统更新与重启

通过 Docker 内置功能更新本地 WSL(Windows Subsystem for Linux)的 Linux 子系统版本(操作细节详见上述参考链接)。更新完成后,务必重启计算机使配置生效

3.Docker 安装验证与版本检查

打开系统终端(Windows 建议命令提示符CMD)。
   输入命令  docker version 并执行,查看返回结果:
  • 若显示客户端(Client)和服务端(Serve r)版本信息,则说明安装成功。
  • 若提示命令不存在,请检查安装步骤或系统环境变量配置。

4.检查 Docker Compose 安装及版本

通过命令行验证 docker compose version 是否安装,并查看版本信息。

若显示类似 Docker Compose version v2.xx.xx 的版本号,说明安装成功;

若提示 command not found,需根据系统类型补充安装(例如 Linux 系统需手动下载二进制文件并配置权限)。

5.配置 Docker 镜像并重启服务

国内用户需更改镜像源,打开Docker desktop应用,通过配置 Docker 镜像源(自行百度阿里云、网易云等加速地址)提升镜像拉取速度。配置完重新启动应用。

二、dify本地化安装

1.访问 Dify 官网下载并安装程序

打开浏览器,访问 Dify 官方网站:http://dify.cn 在官网首页找到「下载」入口,根据系统提示选择适配的安装包(如 Windows/macOS/Linux 版本)。

下载完成后,按引导流程完成 Dify 的安装。

2.配置环境文件:修改 Dify 配置文件名称

打开解压后的docker文件夹,找到“.env.example”文件并修改为“.env”

3.拉取镜像并启动服务

对docker文件夹打开系统终端(Windows PowerShell/CMD),执行docker compose up -d(需根据docker版本确认执行命令,见下面说明)命令拉取镜像并启动 Dify 服务

V1 版本:docker–compose up -d

V2 版本:docker compose up -d(注意中间有横线)

4.检查容器运行状态

通过 docker compose ps 命令查看容器运行状态是否正常。

若返回包含容器名称、状态(如healthyrunning)、端口等信息的列表,说明容器已正常启动;
若列表为空或状态显示异常(如exited),需通过docker compose logs命令查看日志排查问题。

5.安装完成,访问 Dify 系统

你可以先前往管理员初始化页面设置设置管理员账户:

Copy

# 本地环境 http://localhost/install

# 服务器环境 http://your_server_ip/install

访问Dify 应用主页面:

Copy

http://127.0.0.1/

# 本地环境 http://localhost

# 服务器环境 http://your_server_ip

三、ollama部署

1.访问 Ollama 官网下载程序

打开浏览器,访问 Ollama 官网:https://ollama.com

在官网首页找到「下载」入口,根据系统类型(如 Windows/macOS/Linux)选择适配的安装包。

2.执行安装程序

Windows/macOS 用户:下载完成后,双击安装包文件,按界面引导完成安装(部分场景需授予管理员权限)。
Linux 用户:通过命令行解压安装包并执行安装脚本(具体步骤参考官网文档)。

3.验证 Ollama 安装结果

打开 命令提示符(Command Prompt),在命令行中输入 ollama 并按回车。

若显示 Ollama 的命令帮助信息(如 Usage: ollama [command] [flags])或版本号(如 ollama version x.x.x),则说明安装成功。

4.修改环境变量以指定大模型存储路径

Ollama 默认将大模型存储于 C 盘,可通过修改环境变量指定至其他磁盘(如 D 盘)

操作前必做:关闭 Ollama 应用程序及所有相关命令行窗口,避免环境变量修改冲突。

点击上图“环境变量”,进入设置界面,界面上方用户的变量,只对当前系统登录的账户起效,下面系统变量,对系统的所有账户生效,您可以根据情况自己选。点击新建,输入变量名OLLAMA_MODELS,变量值输入您放置ollama模型的新地址,我这里放在了D:\ollama\models(注意:该文件夹需提前建好),如下图:

5.配置生效与服务启动

配置完成,注意重启电脑(推荐)或ollama应用

启动ollama,CMD命令输入:ollama serve

打开浏览器,输入localhost:11434 , 显示ollama is running ,表示运行中

四、通过ollama下载部署大模型

1.在ollama.com官网获取模型

2.下载模型至本地

选择目标模型后,复制命令

直接通过CMD命令符下载

五、dify工作台关联ollama本地模型

1.添加配置信息

在dify / docker / .env文件中,用笔记本打开,并在最后添加以下配置信息:

# 启用自定义模型

CUSTOM_MODEL_ENABLED=true

# 指定 ollama 的 API地址(根据部署环境调整IP)

OLLAMA_API_BASE_URL=host.docker.internal:11434

添加完成后效果如下:

2.Dify 中配置 Ollama 供应商

在dify-设置-模型供应商中,先在线安装ollama供应商,再配置ollama本地大模型

添加完成后效果如下:

六、结语

至此,您已完成在本地设备上通过 Dify 调用本地大模型的全流程配置。感谢您的耐心实践!若您觉得本教程对学习 AI 应用开发有帮助,欢迎关注我的后续内容 —— 我将持续更新 Dify 的高阶使用技巧、多模型集成方案等深度指南,助力您进一步探索智能应用开发的无限可能!

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值