本地运行deepseek,给大家分享一下我的安装步骤:

1、进入Ollama官网。(图1)

2、下载

3、下载完毕后,在资源管理器找到它,双击运行

4、点击install

5、安装完毕后,在菜单或者桌面右下角托盘处可以找到它,打开。

6、测试是否安装成功

按下WIN+R键,打开“运行”对话框,输入cmd,然后按下回车键,打开命令提示符。

通过运行ollama help命令,如果命令行没有报错,并且显示了上述帮助信息,说明Ollama安装成功。

7、下载DeepSeek模型

在ollama网站上找到并点击“models”链接,进入模型页面。第一个就是DeepSeek-r1

在Models页面中,找到并选择“DeepSeek”模型。DeepSeek模型提供了多个参数规模供用户选择,从1.5B到671B不等。根据你的电脑配置(特别是内存和显存)选择合适的模型规模:

我的电脑配置

我选择了8B模型,选择好模型之后,复制右边的命令,到CMD中运行。

运行命令后,系统会开始下载模型,这个过程大概需要二十分钟(根据你自己的网速)。当看到提示“success”时,就表示安装成功了。

到这一步,DeepSeek就已经可以使用了,直接展开对话框即可开始使用。

适用场景

轻量级应用,需要快速响应需求可以选择1.5B、7B 这样的小模型可以快速加载和运行,能够在较短时间内给出结果,满足用户的即时需求,小模型适合一些对响应速度要求高、硬件资源有限的场景,如手机端的智能助手、简单的文本生成工具等;在科研、学术研究、专业内容创作等对准确性和深度要求较高的领域,选择70B、32B等大模型更适合。

  • 671B:适用于对准确性和性能要求极高、对成本不敏感的场景,如大型科研机构进行前沿科学研究、大型企业进行复杂的商业决策分析等。
  • 1.5B-7B:适合对响应速度要求高、硬件资源有限的场景,如移动端的简单智能助手、轻量级的文本生成工具等,可快速加载和运行。
  • 8B-14B:可用于一些对模型性能有一定要求,但又没有超高性能硬件支持的场景,如小型企业的日常文本处理、普通的智能客服等。
  • 32B-70B:能满足一些对准确性有较高要求,同时硬件条件相对较好的场景,如专业领域的知识问答系统、中等规模的内容创作平台等。
     


 

但是这个界面体验比较差,我们接下来安装可视化工具。 

安装chatboxai可视化工具

为了使DeepSeek R1的使用体验更加流畅,建议安装chatbox AI可视化工具,这将极大地提升操作的便捷性和直观性。

下载地址:

https://chatboxai.app/zh,下载适合自己操作系统的版本。

下载并安装完成后,首次启动时,系统会提示您添加模型。

此时,需要选择“添加本地AI模型提供方”,并从中选择“Ollama API”。

接下来,选择模型。

在下拉菜单中找到并选择之前安装好的“deepseek-r:8b”模型,然后点击保存即可完成设置。

至此,整个安装流程已圆满完成。

经过实际体验,现在,您可以尽情的使用DeepSeek,无需再为访问受限而苦恼,畅享AI世界。

<think>好的,我需要帮助用户找到关于如何在本地部署或安装DeepSeek模型的教程或指南。用户提到的参考资料有引用[1]、[2]、[3],其中引用[1]和[2]提到了本地部署DeepSeek R1模型的步骤,而引用[3]则是一个更简单的教程和一个体验地址。 首先,我应该整理这些引用中的信息,确保步骤清晰。引用[1]提到了使用Ollama部署,需要安装Docker和Ollama,然后拉取模型并运行。引用[2]详细说明了硬件要求、环境准备、模型下载、配置和运行测试。引用[3]则推荐了更简单的教程和JNPF平台。 接下来,我需要将这些步骤结构化,分点说明,让用户容易跟随。同时,需要确保按照用户的要求,使用中文回答,行内公式用$...$,独立公式用$$...$$。不过目前问题不涉及数学公式,可能不需要使用。 还要注意生成相关问题,用户示例中有三个相关问题,这里也需要生成相关的。可能的问题包括部署中的常见错误、硬件兼容性检查、优化方法等。 需要检查是否有遗漏的步骤或可能的错误点,比如依赖安装、权限问题、模型路径等。同时,引用标记要正确添加到对应的步骤末尾,例如引用[^1]、[^2]、[^3]。 最后,确保回答结构清晰,分步骤说明,并自然引用参考资料。可能的问题点包括硬件是否满足、依赖版本冲突、网络问题导致模型下载失败等,可以在相关问题中提到。</think>关于在本地部署或安装DeepSeek模型的教程,结合引用信息整理步骤如下: ### 本地部署DeepSeek模型的步骤指南 1. **硬件与环境准备** - 确保设备满足最低配置:NVIDIA显卡(显存≥8GB)、内存≥16GB、存储空间≥20GB[^2] - 安装Python 3.8+和CUDA 11.7+环境 - 推荐使用Linux系统(Ubuntu 20.04+)或Windows WSL2 2. **部署工具选择** - **Ollama部署方案**(适合快速启动): ```bash # 安装Docker sudo apt-get install docker.io # 拉取DeepSeek R1模型 ollama pull deepseek-r1 # 运行模型 ollama run deepseek-r1 ``` 此方法通过容器化实现快速部署[^1] - **手动部署方案**(适合定制化需求): ```bash git clone https://github.com/deepseek-ai/DeepSeek-R1 cd DeepSeek-R1 pip install -r requirements.txt python app.py --model_path ./models/deepseek-r1-8b ``` 3. **模型文件获取** - 通过Hugging Face平台下载官方发布的模型权重文件(需申请权限) - 或使用国内镜像源加速下载(如阿里云OSS、腾讯云COS)[^3] 4. **运行验证** - 启动后通过API接口或命令行交互测试: ```python import requests response = requests.post("http://localhost:8000/generate", json={"prompt": "你好"}) print(response.json()["result"]) ``` ### 常见问题解决 - **显存不足**:尝试量化版本模型(如4-bit量化) - **依赖冲突**:建议使用虚拟环境`conda create -n deepseek python=3.10` - **中文支持**:需额外加载中文词表文件[^2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值