基于AutoGen+Ollama+Litellm构建知识库问答系统

目录

1 背景

1.1  AutoGen介绍

1.2 Ollama介绍

1.3 Litellm介绍

2 部署搭建

2.1 AutoGen + Ollama + Litellm环境搭建

2.2 基于AutoGen构建多智能体对话

2.3 基于AutoGen构建知识库问答系统


1 背景

之前已经基于Llama+LangChain构建了知识库问答系统。但是随着智能体的发展,基于智能体构建知识库问答系统逐渐成为主流。下面就以多智能体框架AutoGen、托管大型语言模型的平台Ollama、模型选择和切换工具Litellm为基础构建一个多智能体的知识库问答系统。同时搭建一个多智能体对话系统。

### Autogen Studio Ollama 使用指南 #### 安装依赖库 为了使用 Autogen Studio 结合 Ollama 构建模型,需先安装必要的 Python 库。这可以通过 pip 来完成。 ```bash pip install litellm autogen-studio ollama ``` #### 初始化配置文件 对于 GraphRAG 离线嵌入和索引的 LLM 配置,`settings.yaml` 文件至关重要[^1]。该文件应放置于项目的工作目录下,并用于替代默认生成的设置文件。以下是 `settings.yaml` 的基本结构: ```yaml model: name: "mistral-7b" provider: "ollama" embedding: method: "nomic-text-embedding" graph_rag: offline_indexing: true ``` #### 创建并运行模型实例 利用上述配置,在代码中可以轻松创建一个基于指定参数的新模型实例。下面是一个简单的例子来展示如何实现这一点。 ```python from autogen_studio import ModelBuilder, settings_from_file # 加载自定义设置 config = settings_from_file('path/to/settings.yaml') # 实例化模型构建器对象 builder = ModelBuilder(config) # 启动服务并与 Lite-LLM API 对接 if builder.is_valid(): model_instance = builder.create_model() else: raise ValueError("Invalid configuration provided.") ``` #### 扩展功能支持 值得注意的是,Autogen 已经被增强以兼容来自 Ollama 的非 OpenAI 大型语言模型 (LLMs),并通过 Lite-LLM 提供代理服务器接口访问这些资源[^2]。这意味着开发者现在能够更灵活地选择不同的后端提供商而无需更改大量现有代码逻辑。 #### 模型一致性校验 确保所使用的模型名称与通过命令 `ollama list` 显示的结果相匹配非常重要[^3]。这样做可以帮助防止因命名差异而导致潜在错误或不兼容情况的发生。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

space01

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值