
LLM
文章平均质量分 73
技术与健康
这个作者很懒,什么都没留下…
展开
-
RAG系统的现实困境与突破:数据泥潭到知识自由
当前RAG系统正面临"数字巴别塔"困境——人类用自然方式积累知识,机器却要求特定格式的数据供养。接受知识的原生复杂性,放弃暴力归一化拥抱时间的流动本质,建立动态知识模型尊重人类的认知模式,发展双向交互协议只有当机器学会用人类的方式"阅读"世界时,真正的知识自由才会到来。这不仅是技术挑战,更是一场关于知识民主化的革命。原创 2025-05-21 14:47:23 · 333 阅读 · 0 评论 -
神经网络微调技术全解(01)-不同的微调方法如PEFT、SFT、LoRa、QLoRa等,旨在解决不同的问题和挑战
PEFT:关注减少全面微调的计算和存储需求,通过部分参数的微调实现高效适应性。SFT:专注于将无监督预训练模型转换为能够执行特定监督任务的模型。LoRa:通过低秩矩阵分解减少微调参数的数量,从而降低计算和存储成本。QLoRa:在LoRa的基础上引入量化,进一步减少存储需求,适用于资源有限的场景。Adapter: 用于多任务学习,通过添加可训练模块进行适应。: 通过优化输入提示来引导大语言模型的任务表现。: 通过训练前缀向量来影响模型输出,适合大模型。BitFit: 仅微调偏置项,极大减少参数量。原创 2024-08-25 08:53:00 · 1390 阅读 · 0 评论 -
LLM小模型系列研究(01)
团队构建了一套由现有和新建指令组成的 2.58M 条指令集。这些指令涵盖多个主题,然后使用 GPT-3.5-turbo 生成响应。根据 Lamini 的论文,LaMini-Flan-T5-248M 在下游 NLP 任务上的表现甚至优于 LLaMa-7B。当模型尺寸较大时,LaMini-Flan-T5 与 LaMini-GPT 相当。。原创 2024-08-20 11:51:19 · 1073 阅读 · 0 评论 -
大模型幻觉(Hallucination)控制方法Guardrails
Guardrails是一套规则和检查,旨在确保 LLM 的输出准确、适当且符合用户期望,控制幻觉。这里介绍两种Guardrails的应用。原创 2024-08-19 08:07:48 · 676 阅读 · 0 评论 -
使用 GPT-4 Vision 的 CLIP 嵌入来改进多模态 RAG
多模态 RAG 将附加模态集成到传统的基于文本的 RAG 中,通过提供额外的背景信息和基础文本数据来增强 LLM 的问答能力,从而提高理解力。我们直接嵌入图像进行相似性搜索,绕过文本字幕的有损过程,以提高检索准确性。使用基于 CLIP 的嵌入可以进一步使用特定数据进行微调或使用看不见的图像进行更新。该技术通过使用用户提供的技术图像搜索企业知识库来提供相关信息来展示。原创 2024-08-14 08:00:02 · 1577 阅读 · 0 评论 -
基于通用LLM合成数据生成
使用大型语言模型 (LLM) 生成合成数据为一个常见问题提供了强大的解决方案:提供高质量、多样化且符合隐私要求的数据。这可以用于许多场景,例如训练数据科学机器学习模型(SVM、决策树、KNN)、在数据上微调不同的 GPT 模型、作为冷启动问题的解决方案、帮助使用真实数据构建引人注目的演示/应用程序、场景测试等。有许多关键驱动因素可能会促使您想要利用合成数据。与传统的数据增强或手动数据创建方法不同,使用 LLM 可以生成丰富、细致入微且与上下文相关的数据集,从而显著增强其对企业和开发人员的实用性。原创 2024-08-13 07:34:18 · 1227 阅读 · 0 评论 -
笔记:线性回归,模型轻量化,LORA
量化是把模型中的浮点类型的权重转换为低精度(如 INT8 或 INT16)的过程,不仅可以减少模型的存储空间需求,还能在某些硬件上加速模型的推理速度。和动态量化不同,静态量化会在推理前对模型的权重和激活数据进行量化,通常需要一个校准步骤,通过这一步可以决定最佳的量化参数。知识蒸馏是一种训练技术,其中一个小的模型,被叫做学生模型,学习模仿一个大的已经训练好的模型,这个模型通常叫做教师模型。这种方法通常能保持或仅轻微影响模型的精度。我们可以将更复杂的回归视为由更简单的模型构建而成,从简单的比较开始并添加调整。原创 2024-08-11 07:46:49 · 535 阅读 · 0 评论 -
闲聊:越来越强的生成式人工智能,我们还能做些什么
首先,AI 不会自己构建东西,不会训练模型,不会编写 Python 脚本,不会构建 KNIME 工作流,只是因为。最近,我看到了太多丑陋的图像,当人们告诉我它们是人工智能生成的时,它们并没有得到改善。随着大模型的越来越卷,生成式人工智能在生成文字,图片,视频,编写代码,绘制工作流,甚至出书等等方面能力不断增强,似乎很多人开始相信其拥有的“涌现”能力。但是没有及时检查,好家伙,自个不知道怎么关联的,根本和英文文档对不上。也许随着AI能力的增强,上面的问题会得到改善和解决,但是主宰世界的永远会是人类。原创 2024-08-10 08:11:57 · 249 阅读 · 0 评论 -
在EA框架下增强开展AI项目研发
有许多可用的 AI 模型,企业架构师必须从监督学习模型、无监督学习模型、强化学习模型和深度学习模型中选择正确的模型。最后,为了评估模型的性能和有效性,必须定义并使用适当的技术评估指标进行评估。3.在开发阶段从 AI 模型开发开始,在此阶段,选择适合 AI 任务的算法并实施自动化模型训练流程以简化流程。开发团队将使用准备好的数据训练 AI 模型,并经常进行迭代以提高模型的性能。4.部署阶段,理想情况下,**AI 模型应以微服务或无服务器功能的形式部署,以便应用程序和用户轻松访问它们。原创 2024-08-09 20:34:50 · 395 阅读 · 0 评论 -
如何识别一篇文章是否由大语言模型LLM生成的?
你也可以使用Hugging Face的Transformers库来微调自己的模型,用于识别特定类型的生成文本。这需要一定的训练数据,包括AI生成的文本和人类撰写的文本。上述代码中使用了roberta-base-openai-detector模型,这是一个经过微调的RoBERTa模型,用于检测由OpenAI的GPT生成的文本。可以使用一些服务和API来帮助识别文章是否由大语言模型(LLM)生成的。使用这些工具时,建议可以结合人工审核,以确保检测结果的可靠性。原创 2024-08-09 07:29:50 · 705 阅读 · 0 评论 -
检索增强生成 (RAG)在实践中的挑战
有效的检索是 RAG 成功的基础。此方面的失败可能会导致不准确或不相关的响应,从而损害系统的实用性和用户信任。RAG 系统有时会生成与检索到的文档无关的信息,这种现象称为幻觉。这些会严重影响系统的可信度和准确性,因此需要强大的机制来过滤噪音并整合来自多个来源的信息,以提供连贯而准确的响应。检索和生成过程的集成使 RAG 模型能够提供基于外部信息源的准确、详细且与情境相关的响应。递归检索、句子窗口检索以及自托管和基于 API 的 LLM 部署之间的平衡等问题会显著影响 RAG 应用程序的性能和成本效益。原创 2024-08-08 07:10:47 · 523 阅读 · 0 评论 -
机器学习:识别AI,GraphRAG,LoRA,线性变换,特征
LoRA 是一种加速 LLM 微调同时消耗更少内存的技术。这不涉及对整个基础模型进行微调,因为这可能需要耗费大量的时间和金钱。相反,它会向模型中添加少量可训练参数,同时保持原始模型参数不变。为什么选择 LoRA?尽管我们使用 LoRA 为模型添加了更多层,但它实际上有助于节省内存。这是因为与大模型相比,较小的层(A 和 B)需要学习的参数较少,而可训练参数较少意味着需要存储的优化器变量较少。因此,尽管整体模型看起来更大,但就内存使用而言实际上更高效。什么是等级?原创 2024-08-06 17:25:52 · 747 阅读 · 0 评论 -
利用ChatGPT做了一个虚拟书架,再也不用担心压箱底了(买了没看)
之前用ChatGPT开发了一个Chrome插件,分分钟,就OK了。这两天在整理书籍,又要卖一些旧书了,才发现有些书卖了,都没有看过(估计有不少朋友也这样吧)。就想怎么把自己买的书管理起来。在网上搜索了下电子书架和虚拟书架,发现信息不多。心想能不能利用ChatGPT,自己弄一个。不得不说,ChatGPT能帮很大的忙,但是要想程序跑起来,还是需要懂基本的编程逻辑的。程序简单,自己用,够用就好。1.支持用户登录/注册。7.访客支持浏览和搜索。原创 2024-08-02 08:30:00 · 280 阅读 · 0 评论 -
深度机器学习入门-知识要点
具体方法的采用,要综合成本和效率。原创 2024-08-01 07:38:36 · 1095 阅读 · 0 评论 -
探索:如何利用和训练overfitting的模型
使用过拟合模型进行调试和理解模型行为的过程包括识别过拟合问题、分析模型表现、以及通过可视化和特征重要性分析来理解模型的决策机制。这些方法可以帮助我们改进模型、提高模型的泛化能力,并深入了解模型的预测逻辑。合成基准测试和竞赛可以帮助研究人员和工程师更好地理解和解决过拟合问题,通过设计合成数据集和评估模型性能,推动机器学习模型的改进。合成基准测试可以用来建立标准化的评估方法,而竞赛则激励创新并发现最佳解决方案。通过具体的示例和实验,教学中可以利用过拟合模型来帮助学生理解复杂的机器学习概念。原创 2024-07-29 17:05:19 · 1099 阅读 · 0 评论