本地部署deepseek

1 安装

视频资源:DeepSeek 3分钟完全本地部署 保姆级教程 断网运行-无惧隐私威胁 大语言模型 CPU GPU 混合推理32B轻松本地部署!
使用“ollama”部署

1.1 ollama介绍

1.2 下载

(1)
在这里插入图片描述
在这里插入图片描述

1.2 ollama配置

在这里插入图片描述
配置模型的地方,不配置会把模型下载到C盘
在这里插入图片描述

1.4 下载模型

在这里插入图片描述
选择合适的模型进行下载

  • deepseek-r1 适合深度的搜索
  • deepseek-v3 适合日常的交流
    在这里插入图片描述
    点击复制,进入电脑的命令执行窗口
    在这里插入图片描述

执行完毕:
在这里插入图片描述
小小测试一下:
在这里插入图片描述
输入“ /bye”退出
在这里插入图片描述
到此,说明,ollama和模型已经搭建完毕,下面进入知识库软件的搭建

2、搭建知识库

2.1 搭建docker

官网:Docker官网

2.1 RAGFIow

普通Windows电脑选这个下载就行了,如果电脑是ARM的,选下面的。
在这里插入图片描述
等待下载即可
在这里插入图片描述
在这里插入图片描述
右键安装,可能需要5-10min,耐心等待。
在这里插入图片描述
在这里插入图片描述

安装完毕,建议重启,无需重启。
在这里插入图片描述

输入docker,输出下面这些就说明安装成功。
在这里插入图片描述

2.1 2 安装镜像

打开docker
在这里插入图片描述
报错,重启电脑。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在设置这里加镜像源的配置
在这里插入图片描述
复制下面仓库,加入上面

"registry-mirrors":[
	"https://hub.rat.dev"
]

最终:

{
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "registry-mirrors":[
	"https://hub.rat.dev"
  ]
}

点击“Apply
在这里插入图片描述

2.2 安装ragflow

RAGFlow官网-gihub
下载克隆仓库
在这里插入图片描述
git clone https://github.com/infiniflow/ragflow.git

在这里插入图片描述
下载完成
在这里插入图片描述
在这里插入图片描述
修改模型,默认的模型不完整,

在这里插入图片描述
在这里插入图片描述
进入目录:
在这里插入图片描述
使用下面命令,启动虚拟机环境

docker compose -f docker-compose.yml up -d

在这里插入图片描述
docker没有配置环境变量

1、在 Windows 上,你可以通过以下步骤检查和添加环境变量:

  • 右击“此电脑”(或“计算机”),选择“属性”。
  • 点击“高级系统设置”。
  • 在“系统属性”窗口中,点击“环境变量”。
  • 在“系统变量”区域,找到名为 Path 的变量,并点击“编辑”。
  • 检查 Docker 的安装路径(通常是 C:\Program Files\Docker\Docker\bin)是否已经在列表中。如果没有,点击“新建”,并添加该路径。

2、在 macOS 或 Linux 上,

  • 通常 Docker 的安装脚本会自动将 Docker 的可执行文件路径添加到系统的 PATH 环境变量中。如果没有,你可能需要手动添加。

在这里插入图片描述
测试:docker -v
在这里插入图片描述
打开镜像:
进入目录:F:\softWare\aIModel\ragflow\docker
输入命令:

docker compose -f docker-compose.yml up -d

在这里插入图片描述
在这里插入图片描述
需要等待5-10min此过程尽量保持此页面在最上面,否则会停止加载。
如下现实则表示运行成功。

可以再监测一下,输入命令:

docker logs -f ragflow-server

服务器不停输出日志字,则说明已经启动成功。
在这里插入图片描述

2.3 页面设置

进入页面:
localhost:80
在这里插入图片描述

先注册,首次注册的用户为管理员
在这里插入图片描述

登录之后显示,登录成功:
在这里插入图片描述

2.3.1 知识库配置

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 系统模型设置:
    在这里插入图片描述

2.3.2 知识库构建

在这里插入图片描述
1、语言选择中文
2、嵌入模型,刚才添加的那个模型
3、解析方法:通常选择:【General】
4、其他保持默认
在这里插入图片描述

在这里插入图片描述
上传本地文件:
在这里插入图片描述
在这里插入图片描述
刚上传未解析,需要点击【按钮】开启解析
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

3.2.3 聊天

在这里插入图片描述

开始对话:
在这里插入图片描述
结束。

### 如何在本地部署 DeepSeek 为了提供详细的指导,在本地环境中部署 DeepSeek 需要遵循一系列配置和安装过程。虽然具体细节可能依赖于特定版本的 DeepSeek 和操作系统环境,下面给出了一般性的步骤说明。 #### 准备工作 确保计算机上已经安装了 Docker 及其相关组件,因为大多数现代机器学习平台都基于容器化技术构建[^1]。对于 Linux 用户来说,还需要确认内核参数设置正确以支持必要的功能特性。 #### 安装 Minikube 并启动单节点集群 Minikube 是一个用于创建轻量级 Kubernetes 单节点集群工具,非常适合开发测试用途。通过命令 `$ minikube start` 来初始化一个新的 K8s 实例;如果希望打开 Web UI 进行可视化管理,则可以执行 `minikube dashboard` 命令来访问默认浏览器中的仪表板界面[^3]。 #### 设置存储解决方案 考虑到 DeepSeek 的数据持久性和性能需求,建议采用分布式文件系统作为后端存储方案之一。例如 Ceph 提供了一个强大的对象、块以及文件系统的组合服务。针对 Debian 或 Ubuntu 发行版,可以通过添加官方源并利用包管理器完成 ceph-deploy 工具链的获取与安装操作[^2]。 #### 获取 DeepSeek 应用镜像 联系供应商或者查阅官方文档找到合适的 Helm Chart 资源库地址,从中拉取最新稳定版的应用程序映像到本地仓库中待后续部署使用。 #### 编写自定义资源配置清单 根据实际业务场景调整 YAML 文件里的各项参数选项,比如副本数量、资源请求限额等字段值,从而更好地适配目标硬件条件下的运行状况。 #### 执行应用发布流程 最后一步就是运用 kubectl CLI 向 API Server 发送指令提交之前准备好的描述性模板,触发自动化调度机制使得各个 Pod 成功上线至指定命名空间之下正常运作起来。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦幻蔚蓝

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值