本地部署 DeepSeek R1 的几种常见方法

使用 Ollama 部署

  1. 安装 Ollama:访问 Ollama 官网,根据系统类型下载并安装。
  2. 启动 Ollama:安装完成后,在开始菜单中找到 Ollama 图标启动。
  3. 下载并运行模型
    • 打开命令行工具(如 CMD 或 PowerShell)。
    • 输入命令 ollama run deepseek-r1:{model_size},其中 {model_size} 可根据硬件配置选择,如 8b14b32b
    • 如果是首次运行,Ollama 会自动下载模型文件。
  4. 测试模型:下载完成后,输入问题(如“介绍一下你自己”)与模型进行对话。
  5. ollama命令
    与模型对话:
    ollama run deepseek-r1:1.5b
    ollama run deepseek-r1:8b
    
    查看已安装的模型:
    ollama list
    
    删除模型:
    ollama rm deepseek-r1:1.5b
    

使用量化模型部署

  1. 下载量化模型
    • 选择合适的量化版本(如 Q4_K_M),可从社区提供的链接下载。
    • 例如,使用 git clonegit lfs pull 命令下载 Q4_K_M 版本。
  2. 加载模型
    • 使用工具如 llama-cli,指定模型文件路径并启用交互模式。
    • 示例命令:build/bin/llama-cli -m /tmp/DeepSeek-R1-Q4_K_M/DeepSeek-R1-Q4_K_M-00001-of-00009.gguf -i

使用 Docker 部署(推荐)

  1. 安装 Docker:确保系统已安装 Docker。
  2. 拉取模型镜像
    • 使用命令 docker pull {model_image},其中 {model_image} 是 DeepSeek R1 的镜像地址。
  3. 运行容器
    • 使用命令 docker run -it --rm {model_image} 启动容器。
    • 根据需要配置映射端口和挂载卷。

硬件与性能要求

  • 硬件配置:根据模型大小和量化方式,硬件需求有所不同。
    • 8B 版本:RTX 3060 8G 显卡、16G 内存。
    • 32B 版本:建议使用 RTX 4090 或更高配置。
  • 性能优化:可参考 DeepSeek 官方文档中的优化选项。

其他工具

  • 可结合 ChatBox 等工具,提升交互体验。
  • 使用 Open WebUI 图形界面查看后台运行情况。

如果需要更详细的信息,可以参考 DeepSeek 官方部署文档。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值