- 博客(6)
- 收藏
- 关注
原创 「Java AI实战」LangChain4J - 向量数据库接入与语义检索
相比 Python 社区的 LangChain,LangChain4J 为 Java 提供了相似的链式语言模型编排能力,兼顾工程化可维护性与复杂场景的灵活性。而在众多场景中,向量数据库(如 FAISS、Milvus、Qdrant)扮演了大模型“记忆体”的角色,尤其适用于构建基于语义理解的问答系统(RAG)、文档检索、智能客服等系统。在传统数据库中,检索通常依赖于关键词、精确匹配或范围查询。而在自然语言处理、图像识别等 AI 场景中,我们更需要的是语义相似度检索,即“查找与某个内容在语义上最接近的内容”。
2025-05-02 21:37:52
1049
原创 「Java AI实战」LangChain4J - ChatAPI 及常用配置
本文将聚焦于 LangChain4J 提供的 Chat API ,结合本地模型(通过 Xinference 部署的deepseek-chat 模型,通过maxkb创建应用,这两块的文档见往期文章)进行调用演示,帮助快速理解其核心机制,完成从模型接入到对话响应的 Java 化实现。本文简单的介绍了 LangChain4J 中 Chat API 的基本原理和使用方式,成功实现了与本地大模型的对话集成。
2025-05-02 06:15:34
807
原创 「Java AI实战」LangChain4J接入Xinference本地大模型
随着大语言模型(LLM)的持续火热,LangChain 成为构建智能应用的事实标准。而对于 Java 开发者而言,LangChain4J 则是一把通往 AI 应用开发的新钥匙。它不仅封装了与 OpenAI、HuggingFace、Baidu、Azure 等模型服务的接入能力,更提供了类似 LangChain 的链式调用编排、上下文管理、Agent 机制、工具集成等核心功能,让 Java 开发者也能便捷地构建问答系统、RAG 应用、多轮对话、智能代理等 LLM 应用。
2025-04-27 22:48:39
1014
原创 LLaMA Factory 微调框架数据加载
随着大语言模型(Large Language Models)的快速发展,如何高效地对模型进行微调,已成为模型开发和应用中的重要环节。而在微调过程中,数据预处理与加载是确保模型性能的基础环节。面对庞大且复杂的数据集,合理的预处理策略和高效的数据加载机制,不仅能提高训练效率,还能有效改善模型的泛化能力。
2025-01-13 19:47:56
1739
原创 LLaMA Factory 微调框架的部署
在深度学习的浪潮中,预训练大语言模型(Large Language Models, LLMs)逐渐成为各领域的核心工具。然而,由于大规模模型的复杂性和计算资源需求,直接使用这些模型来解决特定任务往往效率低下。微调(Fine-tuning)技术因此成为了模型开发者们的关键手段,通过针对特定任务的数据调整模型的权重,可以大幅提升模型的效果LLaMA(Large Language Model Meta AI)作为近年来大受欢迎的开源大语言模型,因其性能优异和架构灵活被广泛应用。
2025-01-12 20:27:38
1346
原创 Xinference 分布式推理框架的部署
例如:随着AI模型的不断发展,AI模型的应用也越来越重要,Xinference部署则是学习的基石,本文就介绍了Xinference的模型部署与管理。
2025-01-12 11:12:26
1630
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人