
大模型
文章平均质量分 71
AI大模型
YXWik6
西安程序员一枚,喜欢研究各种技术,AI大时代来临后开始热衷于AI领域的探索,所有文章技术工具内容均只用于学习,如有侵权请联系删除
展开
-
langchain +ollama +chroma+embedding模型实现RAG入门级Demo(python版)
RAGNaive RAG(朴素RAG)、(高级RAG)和(模块化RAG)RAG在成本效益上超过了原生LLM,但也表现出了几个局限性,这也更大家一个印象:入门容易,做好难。和的发展是为了解决Naive RAG中的缺陷。Naive RAG遵循一个传统的流程,包括索引、检索和生成,它也被称为“检索-阅读”框架,将查询(query)与文档的检索结合起来,通过大语言模型 (LLM) 生成答案。将数据先通过嵌入(embedding)算法转变为向量数据,然后存储在Chroma这种向量数据库。原创 2025-04-21 17:18:04 · 723 阅读 · 0 评论 -
RAGFlow安装+本地知识库+踩坑记录
RAGFlow是一种融合了数据检索与生成式模型的新型系统架构,其核心思想在于将大规模检索系统与先进的生成式模型(如Transformer、GPT系列)相结合,从而在回答查询时既能利用海量数据的知识库,又能生成符合上下文语义的自然语言回复。该系统主要包含两个关键模块:数据检索模块和生成模块。数据检索模块负责在海量数据中快速定位相关信息,而生成模块则基于检索结果生成高质量的回答或文本内容。原创 2025-04-21 12:00:55 · 1697 阅读 · 0 评论 -
ollama加载本地自定义模型
因为我们自己微调好的模型呢就是我们自定义的模型了,这个ollama官方不支持咱自己微调的模型,而且我们微调好的模型也不想泄露出去,所以我们就需要这个自定义模型首先要新建一个Modelfile文件,这个文件放哪里都行,最好跟ollama模型放一块我这里放到了下起名叫的内容注册模型成功注册成功后进行使用。原创 2025-04-10 14:50:59 · 670 阅读 · 0 评论 -
Hugging Face模型转换GGUF格式模型
llama.cpp进行转换大模型格式原创 2025-04-10 13:59:21 · 366 阅读 · 0 评论 -
java 使用 spring AI 实战MCP
全称 Model Context Protocol 是一种专为人工智能模型设计的通信协议,于2024年11月由Anthropic推出的开放标准。它旨在解决复杂AI系统中多个模型或组件之间的协同、状态管理和资源优化问题,以及AI应用与外部数据源和工具集成中的挑战。MCP 是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式。原创 2025-04-02 22:45:00 · 3760 阅读 · 5 评论 -
LLaMA-Factory微调大模型
中断之后继续训练,可以使用下面命令,训练步数也会从保存的checkpoint处开始,比如checkpoint保。如果可以通过添加命令,从检查点开始继续训练,但训练集会从头开始训练,适合用新数据集继续训练。当然使用命令训练,没有用webui看loss那么直观,需要加一个命令。对话模版 选择 qwen 是我这里的模型选择的qwen系列的。存点是400步,但是在450步中断,会从400步开始继续。我们用longgeai的甄嬛数据集进行测试。点击预览数据集可以查看数据集的格式。文件,这个文件需要放到。原创 2025-03-20 17:34:09 · 1395 阅读 · 2 评论 -
coze创建联网版deepseek-R1
添加 deepseek_R1 大模型。input 输入选择用户输入信息。用来接收bing搜索内容。结束点击选择文本进行输出。添加提取搜索关键字模型。完事后点击试运行测试。原创 2025-03-19 11:09:56 · 313 阅读 · 0 评论 -
modelscope下载模型
没有conda的安装一个最好安装一个方便使用。模型名称 在modelscope上查看。安装 modelscope。原创 2025-03-11 15:35:00 · 844 阅读 · 0 评论 -
java调用百度千帆demo
点击右上角更新发布 或者 发布 ,发布成功后再API处可以查看官方的Demo。可以使用SpringAI进行调用也可以使用官方提供的方法,之前有。复制此处的应用ID 就是 APPID 留着调用时使用。在此处创建一个鉴权的API-KEY ,代码调用使用。改一改内容就可以用,这里就采用官方的方式进行调用。替换自己的 APPID 和 API-KEY。首先去百度千帆应用处创建一个应用。根据自己的业务配置应用的角色。原创 2025-03-04 16:23:08 · 390 阅读 · 0 评论 -
SpringAI 调用本地ollama大模型
你们可以根据自己部署的模型更改代码中的配置进行访问。我这里ollama部署的是。运行项目 测试demo。原创 2025-03-03 11:30:51 · 471 阅读 · 1 评论 -
anythingllm-大模型投喂私有化的数据
一般通用大模型无法满足企业实际业务需求,涉及到知识局限性、信息安全等问题,企业不能将私域数据上传到第三方平台训练,而 AnythingLLM 就是为解决这个问题而生的框架。它能在本地轻松构建基于 LLM 的 AI 应用,集成 RAG、向量数据库和强大的 Agent 功能,是高效、可定制、开源的企业级文档聊天机器人解决方案。为 4096 (这里的 token 数量视情况而定,一般来说越大会越准确但解析等待时间越长)为 http://host.docker.internal:11434。原创 2024-11-19 15:20:23 · 997 阅读 · 0 评论 -
Windows安装ollama本地部署千问qwen2.5大模型
ollama是一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型。开源项目,专注于开发和部署先进的大型语言模型(LLM)1b是10亿参数,通常1B,意味着需要机器需要1G以上的内存,大的数据通常在需要更高性能的任务中使用。Python3.13.0版本安装open-webui时报错。默认是7b,但是需要切换下,这样右边的命令参数才会变。双击下载的OllamaSetup.exe,无脑安装。安装open-webui(web图形化聊天)这里的b代表的是参数数据。方案一:docker安装。原创 2024-11-19 10:29:16 · 12578 阅读 · 0 评论