- 博客(2)
- 收藏
- 关注
原创 本地DeepSeek-R1+open-webui,部署自己的私人助手
Environment="OLLAMA_ORIGINS=*" 设置 Ollama 服务允许的来源为所有(允许跨域)下载过程中,下载速度会逐渐减慢,这时候使用CTRL+c,中断命令后,再次重复pull命令下载,网速即可恢复。官方提供了多种方式进行安装,如docker安装、pip安装、二进制安装等。笔者用的是pip安装的方式,如需使用其他安装方式请查阅官方文档。(3)重新加载配置,设置开机启动ollama,并立即启动。下载完成后,输入命令,即可看到已经下载到本地的模型。1、ollama官方提供的所有版本。
2025-02-24 11:42:57
592
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人