【干货】手把手教你LangChain+Ollama 安装与使用

LangChain 是一个功能强大的大模型应用工具, 基于它的模块化结构,我们可以方便地生成各种功能的应用程序。本篇手把手教大家如何安装和使用LangChain + Ollama。有意于用大模型搭建本地对话系统或者AI Agent 的同学可以好好体验一下,以下操作基于Linux系统,用Window系统的同学也可参考。

0****1

安装Ollama+llama3.1:8b

安装比较简单,根据官网指引,在终端中输入以下指令:

1. curl -fsSL https://ollama.com/install.sh | sh``2. ollama pull llama3.1:8b

02

安装LangChain

1. langchain 需要使用python 编写程序,记得要先安装python3

2. 建议先建立python 虚拟环境,在虚拟环境中执行,可以避免各种软件包版本依赖问题。

我们在home文件夹中建立 lanchain_1 的文件夹,作为虚拟文件夹,在终端中执行:

python3 -m venv lanchain_1``source lanchain/bin/activate

见上图,虚拟环境的文件夹名称表示为:

(lanchain_1)$xxx@xxx:~$

见上图,接着在虚拟环境中安装 langchain

pip install langchain

3. 我们本次运行的python程序需要langchain_community模块,继续在虚拟环境中安装

pip install langchain_community

03

执行LangChain代码

进入虚拟环境后,用文本编辑器把以下代码编成文件,如:langchain_1.py 。

# 导入必要的模块和类``from langchain_community.llms import Ollama  # 导入Ollama类,这是一个假设的语言模型接口``from langchain_core.prompts import ChatPromptTemplate  # 导入ChatPromptTemplate,用于构建聊天提示``from langchain_core.output_parsers import StrOutputParser  # 导入StrOutputParser,用于解析输出为字符串``   ``   ``# 创建一个字符串输出解析器实例``output_parser = StrOutputParser()``   ``   ``# 初始化Ollama模型,指定模型版本和大小``llm = Ollama(model="llama3.1:8b")``   ``   ``# 创建一个聊天提示模板,用于构建输入到模型的提示``prompt = ChatPromptTemplate.from_messages([`    `("system", "Tell me about virtual machines."),  # 系统消息,设定模型的角色`    `("user", "{input}")  # 用户消息,占位符用于插入实际的用户输入``])``   ``   ``# 构建处理链,从接收输入到获取输出``chain = prompt | llm | output_parser``   ``   ``# 执行处理链,传入用户的问题,并打印输出结果``print(chain.invoke({"input": "how can langsmith help with testing?"}))

这段代码的主要功能是问llama3.1:8b模型一个介绍虚拟机的问题“Tell me about virtual machines.”,然后显示大模型生成的输出内容。它首先定义了一个本地部署的语言模型(Ollama),然后创建了一个聊天提示模板(ChatPromptTemplate),最后通过一个字符串输出解析器(StrOutputParser)来获取模型的输出。

执行:

python3 langchain_1.py

04

总结

这段代码不难理解,我们问了llama3.1 一个问题,并得到了输出答案,如果你能看到输出结果,那么恭喜你,LangChain已经可以在你的电脑正常运行了,而且你已经学会了如何用它去创建一个基于大模型的应用,当然你可以继续深入学习LangChain,实现更多更复杂的功能,比如可以创建一个前端页面,用浏览器打开后,和本地大模型进行对话,并加入自有知识库文件,创建AI Agent等等,更多的langchain功能等你来发掘,是不是很有意思呢?

如果你对AI大模型应用感兴趣,这套大模型学习资料一定对你有用。

1.大模型应用学习大纲

AI大模型应用所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

2.从入门到精通全套视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。
在这里插入图片描述
在这里插入图片描述

3.技术文档和电子书

整理了行业内PDF书籍、行业报告、文档,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

请添加图片描述

朋友们如果有需要全套资料包,可以点下面卡片获取,无偿分享!

### OllamaLangChain的集成及使用 #### 集成概述 Ollama是一个平台,允许用户轻松部署和管理大型语言模型(LLM),特别是针对消费级硬件优化过的版本。而LangChain则为各种大语言模型提供了标准化接口,并实现了广泛的第三方服务集成[^2]。 当两者结合时,在RAG应用程序中可以实现强大的功能组合:一方面利用Ollama提供的高效能LLM执行环境;另一方面借助LangChain丰富的生态系统完成复杂的自然语言处理任务。这种集成为开发者构建高性能、易于维护的应用程序铺平了道路[^1]。 #### 实现细节 为了使Llama2能够在Ollama平台上顺利运作并同LangChain无缝对接,整个过程涉及到了几个关键技术环节: - **模型准备**:选择适合目标应用场景需求的预训练模型——这里选用的是Meta开发并通过量化处理后的Llama2 7B版本,它可以在普通的CPU设备上达到良好的性能表现。 - **环境搭建**:安装配置好必要的软件包和服务组件,确保能够支持所选LLM正常工作的同时也兼容LangChain框架的要求。这通常意味着要设置Python虚拟环境、pip install相关依赖项等操作[^3]。 - **API调用**:编写代码逻辑来初始化LangChain实例并之交互,从而间接访问到由Ollama托管着的语言模型资源。下面给出了一段简单的Python脚本作为例子说明如何连接这两者: ```python from langchain import LangChain, EmbeddingModel, VectorStore import ollama_client as oc # 初始化OLLAMA客户端 client = oc.Client() # 加载指定ID对应的LLM实例 model_id = 'your_model_identifier' llm_instance = client.load_llm(model_id) # 创建LangChain对象并将上述加载好的LLM传递进去 lang_chain = LangChain(llm=llm_instance) ``` 以上代码片段展示了基本的工作流程,实际项目可能会更加复杂一些,取决于具体业务场景和技术栈的选择。 #### 使用案例 假设有一个基于Open5GS文档的知识检索系统,那么就可以按照如下思路设计解决方案: - 用户输入查询请求; - 系统内部先通过LangChain解析理解问题意图; - 接下来把提炼出来的核心信息发送给经由Ollama启动起来的那个特定LLM去做进一步分析解答; - 最终返回结构化的回复内容给前端展示出来。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值