langchain调用本地deepseek
安装后引用即可,api_base修改为本地deekseek地址,api_key任意输,不然会报错,model改为你的模型名称,模型名称可根据ollama list命令获取。需要先安装 langchain-deepseek-official, 如下。
·
需要先安装 langchain-deepseek-official, 如下
pip install langchain-deepseek-official
安装后引用即可,api_base修改为本地deekseek地址,api_key任意输,不然会报错,model改为你的模型名称,模型名称可根据ollama list命令获取
配置完成后代码如下
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_deepseek import ChatDeepSeek
# 会话链接
llm = ChatDeepSeek(
model="deepseek-r1:7b",
# model="deepseek-chat",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
api_key="hfkhf",
api_base="http://localhost:11434/v1"
)
# 根据message生成提示词模板 prompt
chat_template = ChatPromptTemplate.from_messages([
("system", "你是一名人工智能助手,你的名字是{name}"),
("human", "你好"),
("ai", "我很好,谢谢"),
("human", "{user_input}"),
])
message = chat_template.format_messages(name="Bob", user_input="你的名字叫什么?")
output_parser = StrOutputParser()
# 通过langchain的链式调用,生成一个chain
chain = chat_template | llm | output_parser
response = chain.invoke(
{
"input_language": "英语",
"output_language": "德语",
"name": "Bob。",
"user_input": "你的名字叫什么?",
}
)
print(response)
更多推荐
所有评论(0)