使用Ollama本地运行大模型,彻底杜绝私有信息泄露,无限token随便用

这一篇介绍,如何把大模型搬到本地,彻底杜绝个人或企业知识泄露和无限token的问题。

本文提到的工具:Ollama + DeepSeek + CherryStudio(可选)

当然如果有条件,可以自行对大模型进行微调,训练更符合自己需要的大模型。这个需要一定的硬件要求和技术能力支撑,不在本篇探讨范围。

老规矩,先看效果

我的电脑配置不高,本地只安装了蒸馏后的deepseek(8b),不是满血版(671b),不过个人使用足够了。

(素颜版,通过cmd查看本地大模型效果)

img

(高颜版,通过CherryStudio工具查看本地大模型效果)

img

以下是详细的实现过程:

一、需求拆解

\1. 把大模型下载到本地

\2. 本地运行大模型

\3. 调用大模型(三个场景,其中之一是RAGFlow)

二、用到的工具

Ollama + DeepSeek + CherryStudio(可选,如果仅作为聊天使用,不和RAG结合,这个工具就够了)

三、实现过程

1. 安装Ollama

官网(https://ollama.com/)下载安装即可,傻瓜式操作,一路下一步即可。

2. 配置Ollama

修改系统环境变量,以win11为例。“搜索->编辑环境变量"

新增三个环境变量,分别是OLLMA_HOST、OLLAMA_PORT、OLLAMA_MODELS。

OLLMA_HOST: 允许访问ollama模型的IP,如果没有限制直接写0.0.0.0。

OLLAMA_PORT: 访问ollama模型的端口

OLLAMA_MODESL: 本地存放大模型的路径

以下是示例:可根据实际情况修改

在这里插入图片描述

img

2. 用Ollama下载大模型

1) 登录Ollama官网找到对应的模型名称

注意,选好对应的版本,例如8b。

img

2)本地下载并运行大模型

cmd或者powershell环境,运行"ollama run对应的模型名称",等待即可

ollama run deepseek-r1:8b

当出现,”>>Send a message (/? for help)“ 证明安装成功,即可在本地使用了。

img

3.本地调用大模型三种方式(当然还有其他用法,比如通过obsidian调用)

1) 在cmd或Powershell环境聊天对话

PS:这种方式未接入本地知识库,用的是大模型本身的数据,而且deepseek:r1版模型训练截止日期是2024年7月。所以本地私有的知识,以及24年7月之后发生事,他是不知道的。

按照上篇本地知识库的问题”红烧鲤鱼做法的关键是什么?“,答案是根据之前训练的结果来的。如下:

img

2) 在CherryStudio中配置并调用

  • 官网(https://cherry-ai.com/)下载并按照CherryStudio

  • 配置本地ollama模型,信息如下

    API密钥: 因为是本地,所以无需配置,可以无限token

    API地址: http://localhost:11434或者http://127.0.0.1:11434

    PS:如果是局域网使用,需要配置实际的IP地址或者配置域名。

    模型: 选择下载好模型,名字必须准确,如果不记得了,使用以下命令查看

    cmd>ollama list
    

    img

    (以下是完整的配置信息)

img

之后在聊天框选中对应的模型即可。

img

3) 与RAGFlow结合,彻底实现本地知识库隔离,且无限token。

  • 启动并登录RAGFLow: 通过docker启动RAGFlow并登录

  • 配置备选大模型: 头像->配置->模型提供商->ollama

    详细配置参数如下:

    img

  • **配置使用中的模型:**头像->配置->模型提供商->系统模型设置

    聊天模型选中ollama的deepseek-r1:8b模型即完成配置。

    img

    其他使用方式不变,与上一篇教程一样。

到这一步,已经实现了在本地运行大模型,并且和RAGFlow结合使用,彻底杜绝了私有知识泄露,并且解决了token焦虑问题。希望这篇文章对你有用~~

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

👉 福利来袭CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭CSDN大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

为了帮助您理解如何在 Windows 系统上通过 Ollama 平台本地离线部署 DeepSeek 模型,并使用 Python 计算模型实际输出的 token 数量,以下是详细的步骤说明: ### 部署 DeepSeek 首先,在您的Windows环境中安装并配置好Ollama平台以及所需的DeepSeek环境。这通常涉及以下几个步骤: 1. **安装依赖项**:确保已经安装了Python、PyTorch等必要的库和工具。 2. **获取模型文件**:从官方渠道下载预训练好的DeepSeek模型权重和其他必要资源。 3. **设置运行环境**:按照文档指示调整系统路径变量或其他配置选项。 完成上述准备工作之后,你可以将DeepSeek模型加载到内存中准备推断任务。 ### 使用 Python 进行 Token 统计 一旦成功地设置了推理环境,接下来就可以编写一段简单的脚本来统计生成文本所包含的实际Token数目。这里给出一个基本示例代码框架供参考: ```python from transformers import AutoTokenizer, AutoModelForSeq2SeqLM # 加载预先保存下来的 tokenizer 和 model 实例 tokenizer = AutoTokenizer.from_pretrained("path_to_your_model_directory") model = AutoModelForSeq2SeqLM.from_pretrained("path_to_your_model_directory") def count_output_tokens(prompt_text): inputs = tokenizer(prompt_text, return_tensors="pt") # 对输入句子做编码处理 outputs = model.generate(**inputs) # 调用generate函数获得预测结果 decoded_outputs = [tokenizer.decode(output_ids, skip_special_tokens=True) for output_ids in outputs] # 解码得到人类可读的结果字符串列表 total_tokens = sum([len(tokenizer.tokenize(text)) # 根据分词后的长度求和得出总的Tokens数 for text in decoded_outputs]) print(f"Prompt: {prompt_text}") print(f"Generated Text: {''.join(decoded_outputs)}") print(f"Total Output Tokens Counted: {total_tokens}") if __name__ == "__main__": prompt_example = "请输入您想让模型生成的内容提示" count_output_tokens(prompt_example) ``` 请注意修改 `"path_to_your_model_directory"` 为您实际存放已部署好的DeepSeek模型的位置;同时也可以自定义 `prompt_example` 来测试不同场景下的表现情况。 此段程序会先对给定的输入进行编码成适合送入Transformer架构的形式,然后调用模型生成相应的回复内容,并最终打印出整个过程产生的总Token数量信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值