人工智能
文章平均质量分 91
yingjuxia.com
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【人工智能通识专栏】第十讲:阅读理解
本文介绍了如何利用大型语言模型(如DeepSeek-V3.2)进行高效阅读理解,提出READ框架(Read完整阅读、Extract关键提取、Analyze深度分析、Discuss交互讨论)。通过结构化提示和多轮追问,LLM能快速处理长文本(论文、合同、新闻等),克服人类阅读的遗漏、耗时和主观偏差问题。文章还提供了实战示例、高级技巧和常见场景模板,帮助用户掌握AI辅助阅读的核心方法,显著提升信息处理效率。原创 2026-01-04 15:32:08 · 680 阅读 · 0 评论 -
【人工智能通识专栏】第九讲:迭代优化对话
摘要: 本文探讨了与AI协作的迭代优化对话技巧,强调通过多轮交互提升输出质量。核心策略包括:修正错误、扩展细节、精简重组、自我验证,适用于报告撰写、代码调试等复杂任务。实战示例展示如何将普通文本逐步优化为专业成果,如通过4轮迭代完善AI趋势报告。进阶技巧涉及引用历史、分模块优化及模型自检建议。文章指出,迭代对话是发挥AI潜力的关键,建议用户通过3-5轮交互实现指数级质量提升,将AI从工具转化为协作伙伴。原创 2026-01-04 15:30:41 · 959 阅读 · 0 评论 -
【人工智能通识专栏】第八讲:精细控制输出
摘要:本文介绍了如何精细控制AI模型的输出内容,包括格式、长度、风格等关键技巧。文章对比了普通提示与结构化提示的差异,提供了JSON、表格、代码等实用示例,并总结了五大控制技巧:指定格式、控制长度、设定风格、明确语言和结构化输出。同时指出了常见陷阱及解决方案,建议通过实践掌握这项关键技能,使AI输出更专业可用。这是提示工程的核心技术之一,结合准确描述问题可显著提升工作效率。原创 2026-01-04 15:29:17 · 746 阅读 · 0 评论 -
【人工智能通识专栏】第七讲:准确描述问题
摘要: 本文聚焦提示工程的核心基础——如何准确描述问题,以提升大型语言模型(LLM)的输出质量。提出CLEAR框架五大原则:清晰(Clear)、逻辑结构化(Logical)、明确要求(Explicit)、提供足够上下文(Adequate Context)、引导推理(Reasoning Guidance)。通过数学求解、代码生成等场景示例,对比模糊提示与优化后的提示效果,强调结构化描述和分步引导(如“逐步思考”)的重要性。建议通过角色赋予、示例引导和迭代优化进一步发挥模型潜力,并推荐即时实践以掌握这一关键技能原创 2026-01-04 15:27:59 · 794 阅读 · 0 评论 -
【人工智能通识专栏】第六讲:DeepSeek第三方应用
DeepSeek第三方应用生态已形成“百花齐放”局面,从个人助手到企业Agent,覆盖全场景。凭借OpenAI兼容API和开源模型,它降低了AI落地门槛,推动了中国AI从“跟跑”到“领跑”。实践建议:试试Liubai在微信中使用DeepSeek管理任务,或安装Dify构建个人知识库助手,感受生态魅力!下一讲,我们将探讨注意力机制:Transformer的核心引擎。欢迎分享你用过的第三方应用!原创 2026-01-04 15:26:45 · 556 阅读 · 0 评论 -
【人工智能通识专栏】第五讲:DeepSeek插件
【摘要】本文介绍了DeepSeek AI的插件生态,重点解析浏览器扩展和IDE插件两大核心应用场景。目前官方GitHub仓库已收录50+集成方案,包括Chrome侧边栏助手、VS Code代码补全等热门插件。浏览器插件支持网页文本即时处理(总结/翻译),IDE插件则依托DeepSeek R1模型提供智能编程支持。文章推荐从官方DeepSeek AI Sidebar入手体验,并强调API Key配置和隐私保护注意事项。这些插件通过无缝集成显著提升日常工作效率,展现了DeepSeek在工具化方向的发展潜力。(1原创 2026-01-04 15:22:31 · 496 阅读 · 0 评论 -
【人工智能通识专栏】第四讲:DeepSeek接入渠道
【摘要】本文系统介绍了DeepSeek AI模型的多种接入方式。官方渠道包括网页版、移动App和兼容OpenAI的API,适合普通用户和开发者;开源模型支持本地部署,可通过Hugging Face、Ollama等工具实现隐私优先的离线使用;第三方平台如OpenRouter提供便捷集成。文章建议初学者使用官方网页/App,开发者选用API,隐私敏感场景采用本地部署,并强调优先官方渠道确保安全。DeepSeek通过多样化接入方式降低了前沿AI模型的使用门槛,满足从日常应用到专业开发的不同需求。原创 2026-01-04 15:20:45 · 837 阅读 · 0 评论 -
【人工智能通识专栏】第三讲:DeepSeek API调用
本文介绍了DeepSeek API的使用方法,包括注册获取API Key、Python调用示例和cURL测试。DeepSeek API兼容OpenAI格式,提供deepseek-chat(通用任务)和deepseek-reasoner(复杂推理)两种模型,支持128K+ tokens长文本、工具调用等功能。文章详细说明了基础调用、思考模式切换、流式输出等操作,并分享了高级功能如JSON模式和错误处理建议。开发者可通过简单修改base_url和API Key快速迁移现有OpenAI项目,利用DeepSeek的原创 2026-01-04 15:18:59 · 753 阅读 · 0 评论 -
【人工智能通识专栏】第二讲:学会使用DeepSeek
DeepSeek是由中国公司深度求索开发的开源大型语言模型系列,以其高性价比、强大推理能力和开源特性广受欢迎。核心模型包括通用型DeepSeek-V3和专注重推理的DeepSeek-R1,均支持128K+长上下文。用户可通过网页聊天界面直接体验,或通过兼容OpenAI的API进行开发集成,还支持本地部署。该模型特别擅长数学推理和代码生成,且提供充足免费额度。DeepSeek的开源特性使其成为构建AI代理的理想选择,为开发者和研究者提供了高效易用的AI工具。原创 2026-01-04 15:15:10 · 760 阅读 · 0 评论 -
【人工智能通识专栏】第一讲:LLM的发展历程
本文系统梳理了大型语言模型(LLM)的发展历程,从早期NLP技术(1950s-2010s)到Transformer革命(2017-2018),再到规模爆发(GPT系列、ChatGPT)和当前前沿(2023-2026)。重点包括:Transformer架构的创新、参数规模扩大、多模态融合、推理优化(如RLVR)以及开源模型崛起。文章指出LLM正从规模竞赛转向高效推理和应用开发,未来将向更强推理能力、多模态代理和可持续计算方向发展,同时需关注伦理安全挑战。原创 2026-01-04 15:13:52 · 969 阅读 · 0 评论 -
理解 Cursor 的核心概念、优势和适用场景。
如果你的项目简单、偏好极致自定义,或主要用 Jupyter Notebook,纯 VS Code + Copilot 可能更轻量。但对于追求“AI 伙伴”式编程体验的开发者,Cursor 是当前最强大的选择之一。(AI-first code editor),它基于 Visual Studio Code (VS Code) 的开源代码分叉开发,由 Anysphere 公司打造。它的核心理念是将 AI 深度集成到编程工作中,让开发者像与“编程伙伴”协作一样高效编码,而不是单纯的工具辅助。Cursor 是一个。原创 2025-12-14 16:45:43 · 703 阅读 · 0 评论 -
豆包手机为什么会被其他厂商抵制?它的工作原理是什么?
豆包手机助手的核心是**GUI Agent(图形用户界面智能体)**技术,结合视觉大模型(VLM,如字节自研UI-TARS系列)和系统级权限,实现“看懂屏幕 + 模拟人类操作”。总体看,豆包手机助手代表AI从“问答工具”向“主动代理”的进化,但短期面临生态摩擦。未来可能通过谈判/标准制定(如监管介入)化解,推动行业向“意图为中心”的交互转型。发布后短短几天,它就遭遇了微信、支付宝、淘宝、闲鱼、拼多多、多家银行App(如农行、建行)等主流应用的集体“抵制”:弹出安全警告、强制退出、拒绝登录或禁用自动操作。原创 2025-12-14 16:39:23 · 941 阅读 · 0 评论 -
从美团全栈化看 AI 冲击:前端转全栈,是自救还是必然 [特殊字符][特殊字符][特殊字符]
摘要:美团2025年推出的NoCode平台等AI工具正重塑前端开发,但并未强制前端转全栈。AI能高效生成UI和基础代码,但复杂交互和优化仍需人工。行业趋势显示,纯前端岗位减少,AI增强型全栈需求上升。前端转全栈既是应对AI冲击的自救,也是技术发展的必然,建议开发者掌握全栈技能、熟练使用AI工具,专注高价值领域。AI不是取代开发者,而是推动角色升级为“AI增强全栈工程师”。(149字)原创 2025-12-14 16:38:04 · 759 阅读 · 0 评论 -
机器集成学习
集成学习实战指南(150字摘要) 集成学习通过组合多个弱模型提升预测性能,核心方法包括: Bagging(如随机森林):并行训练多棵树,通过投票降低方差 Boosting(如XGBoost):序贯训练,加权修正错误样本 Stacking:用元模型(如逻辑回归)融合多个基模型预测结果 Python实现要点: 随机森林默认准确率96.5% Stacking融合后可达97.4% 可视化特征重要性辅助解释 XGBoost需调参(学习率0.01-0.1、树深3-10) 三神器对比:随机森林易用,XGBoost精度高,原创 2025-11-15 08:38:41 · 826 阅读 · 0 评论 -
K 近邻算法
优点缺点简单直观,无训练预测慢(O(n))支持多分类/回归内存占用大非参数,适应复杂边界对噪声敏感易解释必须特征缩放项目公式距离预测(分类)预测(回归)加权预测。原创 2025-11-15 08:37:24 · 827 阅读 · 0 评论 -
支持向量机
支持向量机(SVM)是一种在高维空间寻找最大间隔超平面的分类算法,核心思想是通过最宽边界分离两类数据。其数学基础包括超平面方程、分类规则和几何间隔计算,并能通过软间隔处理噪声数据。核技巧(如RBF核)可解决非线性问题,将数据映射到高维空间实现线性可分。实践部分展示了Python实现流程,包括数据生成、模型训练、可视化决策边界和支持向量,以及线性核与RBF核的对比效果。调参指南指出C和gamma的关键作用,同时介绍了SVR回归应用。SVM优点在于小样本高维数据处理能力强,但存在训练慢、对噪声敏感等缺点。原创 2025-11-15 08:36:09 · 529 阅读 · 0 评论 -
决策树(Decision Tree)
优点缺点可视化、易解释易过拟合不需标准化边界是轴对齐的支持多分类/回归对噪声敏感自动特征选择可能陷入局部最优解决方案随机森林 = 100棵树投票 → 解决过拟合项目公式熵信息增益$ IG = H_{\text{父}} - \sum w_i H_{\text{子}} $基尼回归分裂$ \text{方差下降} = Var_{\text{父}} - (w_L Var_L + w_R Var_R) $原创 2025-11-15 08:33:38 · 974 阅读 · 0 评论 -
多模态预训练模型
**多模态预训练模型(Multimodal Pre-trained Models)**是人工智能领域的一个前沿分支,通过在多类型数据(如文本、图像、音频、视频)上预训练,学习跨模态的通用表示。这些模型能够同时处理多种数据形式,实现更接近人类感知的智能。本教程基于 2025 年 10 月 22 日的最新技术和 Python 生态(Python 3.10+),介绍多模态预训练模型的原理、类型、应用和代码示例,涵盖主流模型和使用方法,适合初学者和中级开发者。以下是 2025 年常见的多模态预训练模型及其特点(基于原创 2025-10-23 11:24:37 · 403 阅读 · 0 评论 -
生成式预训练模型
生成式预训练模型简介 生成式预训练模型(如GPT、T5)通过大规模语料训练,擅长生成自然语言文本。核心特点包括: 训练方式:基于因果语言建模(CLM)或Text-to-Text框架 应用场景:文本生成、对话系统、翻译等 主流模型:GPT系列(生成能力强)、T5(多任务统一)、BART(摘要/翻译) 优缺点:生成质量高但可能产生"幻觉",需大量计算资源 工具与示例 使用Hugging Face的transformers库可快速调用模型,如GPT-2生成文本: from transforme原创 2025-10-23 11:20:28 · 909 阅读 · 0 评论 -
BERT系列模型
摘要: BERT(Bidirectional Encoder Representations from Transformers)是基于Transformer架构的预训练模型,通过双向上下文建模和自监督学习(掩码语言模型MLM、下一句预测NSP)实现通用语言表示。其衍生模型如RoBERTa(优化训练)、DistilBERT(轻量化)、ALBERT(参数共享)等针对效率或任务优化。BERT系列适用于分类、NER、问答等任务,但计算复杂度高。Hugging Face的Transformers库提供便捷API,支原创 2025-10-23 11:18:57 · 654 阅读 · 0 评论 -
预训练模型
预训练模型简介 预训练模型(如 BERT、GPT)通过在大规模数据上预先训练,学习通用语言表示,再通过微调适配特定任务,显著降低训练成本并提升性能。本教程基于 2025 年最新技术,介绍预训练模型的原理、主流类型(编码器、解码器、多模态)、应用场景(文本分类、生成、翻译等),并提供代码示例(如 BERT 情感分析、T5 翻译)。涵盖工具(Hugging Face Transformers)、优缺点及优化方法(轻量化、蒸馏),适合开发者快速上手。 核心内容: 主流模型:BERT(编码器)、GPT(解码器)、T原创 2025-10-23 11:17:39 · 367 阅读 · 0 评论 -
序列到序列模型
Seq2Seq模型是一种处理序列映射任务的深度学习架构,广泛应用于机器翻译、文本摘要等场景。本文介绍了Seq2Seq的核心概念、架构类型(包括基于RNN和Transformer的模型)、优缺点分析,以及常用工具和实现示例。内容涵盖编码器-解码器结构、注意力机制等技术要点,并提供了Python代码演示如何构建简单的RNN-based Seq2Seq翻译模型。教程适合NLP初学者和中级开发者,结合2025年最新技术趋势,帮助读者快速掌握Seq2Seq模型的原理与应用。原创 2025-10-23 11:13:48 · 704 阅读 · 0 评论 -
Transformer 架构
Transformer架构简介 Transformer是一种基于注意力机制的深度学习模型,由Vaswani等人于2017年提出,广泛应用于NLP和计算机视觉领域。其核心创新在于: 自注意力机制:取代RNN的序列计算,实现并行处理并有效捕捉长距离依赖 编码器-解码器结构:包含多头注意力、前馈网络和残差连接等组件 优势:训练速度快、性能优异,但存在计算复杂度高(O(n²))的缺点 典型应用包括机器翻译、文本生成和图像分类。现代实现通常使用PyTorch/TensorFlow框架和Hugging Face等工具库原创 2025-10-23 11:12:18 · 979 阅读 · 0 评论 -
注意力机制
注意力机制:核心技术解析与应用示例 注意力机制通过动态分配权重聚焦关键信息,显著提升序列建模性能。核心包括: 原理:基于查询-键-值计算(公式:(\text{Attention}(Q,K,V)=\text{softmax}(\frac{QK^T}{\sqrt{d_k}})V)),支持长距离依赖捕获和并行计算。 类型:自注意力、多头注意力(增强特征多样性)、交叉注意力(跨序列交互)。 应用场景:NLP(如BERT)、CV(图像描述)、多模态任务。 代码实践: 自定义缩放点积注意力:实现QKV计算与掩码机制(复原创 2025-10-23 11:11:00 · 694 阅读 · 0 评论 -
循环神经网络(RNN)
循环神经网络(RNN)简介 RNN是一种专为序列数据设计的神经网络,通过循环结构保留时间步间的依赖关系。本文介绍了RNN的核心概念、常见类型(如LSTM、GRU)、优缺点及典型应用场景(如NLP和时间序列分析)。内容包含基于PyTorch的文本分类实现示例,涵盖数据预处理、模型构建和训练过程。文章还对比了RNN与LSTM的性能差异,并提供了2025年主流工具推荐(如PyTorch、TensorFlow)。适合希望了解RNN基础及实践应用的开发者阅读。原创 2025-10-23 11:08:25 · 1018 阅读 · 0 评论 -
NLP 文本相似度计算
本文介绍了自然语言处理中的文本相似度计算方法。内容涵盖TF-IDF余弦相似度、Word2Vec词嵌入和基于Sentence Transformers的语义相似度三种主流技术,详细说明了它们的原理、优缺点及实现代码。文本相似度计算在信息检索、推荐系统等领域应用广泛,通过预处理、文本向量化和相似度度量三个核心步骤实现。文章还提供了2025年主流Python工具库的安装指南,适合不同需求的开发者使用。原创 2025-10-23 11:07:08 · 550 阅读 · 0 评论 -
NLP关系抽取
关系抽取简介 关系抽取(RE)是NLP中的关键任务,旨在从文本中识别实体间的语义关系(如人物-组织的"隶属"关系)。本教程介绍传统方法和深度学习方法,涵盖spaCy规则抽取和BERT微调技术。传统方法依赖句法分析和规则设计,简单但泛化能力有限;深度学习方法(如BERT)通过预训练模型捕捉复杂关系,性能更优但需标注数据。教程提供Python代码示例,包括spaCy规则实现和Hugging Face Transformers微调流程,适合开发知识图谱、问答系统等应用场景。原创 2025-10-23 11:05:57 · 344 阅读 · 0 评论 -
命名实体识别(NER)
命名实体识别(NER)简介 命名实体识别(NER)是自然语言处理的基础任务,用于从文本中识别并分类实体(如人名、组织、地点等)。本教程涵盖传统方法和深度学习方法,适用于Python 3.10+环境。 核心概念 任务:标注文本中的实体类型(如PER、ORG、LOC)。 流程:数据准备、预处理、模型训练(规则/CRF/深度学习)及评估(F1分数)。 常用工具 spaCy:轻量级工业库,支持多语言。 Transformers:基于BERT的高性能NER。 Flair:专为序列标注优化。 示例代码 spaCy:开箱原创 2025-10-23 11:04:09 · 1187 阅读 · 0 评论 -
NLP情感分析
情感分析技术概览 情感分析是自然语言处理的重要应用,通过文本识别情感倾向(正面/负面/中性)。本文介绍了两种主流方法:传统机器学习(如TF-IDF+SVM)和深度学习(如BERT)。传统方法适合小数据集,流程包括数据预处理、特征提取和分类器训练;深度学习方法利用预训练模型,能捕捉更复杂的语义关系。文章提供了Python代码示例,涵盖NLTK数据集处理、TF-IDF特征提取、SVM分类器实现,以及Hugging Face Transformers库的BERT模型应用。两种方法各具优势,可根据数据规模和需求选择原创 2025-10-23 11:02:27 · 616 阅读 · 0 评论 -
NLP文本分类
文本分类技术概览 文本分类是自然语言处理的核心任务,用于将文本分配到预定义类别(如情感分析、主题分类)。2025年主流方法包括: 传统机器学习:使用TF-IDF特征提取结合SVM等算法,适合小数据集 深度学习方法:基于BERT等预训练模型,通过上下文嵌入捕捉语义,性能更优 关键工具链: 预处理:NLTK/spaCy 传统方法:scikit-learn 深度方法:Hugging Face Transformers 实践建议: 小数据集可先用TF-IDF+SVM 大数据集推荐微调BERT 评估指标:准确率、F1原创 2025-10-23 11:01:08 · 425 阅读 · 0 评论 -
文本表示方法
本文介绍了文本表示的常见方法及其应用场景。传统方法如词袋模型(BoW)和TF-IDF简单高效但忽略语义和语序;词嵌入(Word2Vec)能捕捉语义关系但缺乏上下文;基于Transformer的BERT等模型提供动态上下文表示但计算复杂。文章还比较了各类方法的优缺点,并提供了相应的Python代码示例,帮助开发者根据任务需求选择合适的文本表示技术。原创 2025-10-23 10:58:10 · 263 阅读 · 0 评论 -
OpenCV 安装(C++)
摘要:本文提供OpenCV C++版安装指南,涵盖Windows/Linux/macOS系统。推荐两种方法:使用预编译库(适合新手)或源码编译(可定制)。详细步骤包括环境配置、依赖安装、CMake编译及Visual Studio项目设置,并提供验证代码和常见问题解决方案。通过示例程序测试安装是否成功,帮助开发者快速搭建OpenCV开发环境。原创 2025-10-22 10:15:44 · 1285 阅读 · 0 评论 -
OpenCV 入门实例
OpenCV 入门实例教程摘要 本教程通过6个实用案例介绍OpenCV基础操作: 图像I/O:读取/显示/保存图像,获取尺寸/像素值 颜色空间:BGR转灰度/RGB,Matplotlib兼容处理 几何变换:缩放/平移/旋转图像(附矩阵公式) 图像滤波:均值/高斯/中值模糊效果对比 边缘检测:Canny与Sobel算子实现 视频处理:读取视频文件帧并实时处理 每个示例均提供完整代码、执行效果截图及关键API说明,适合零基础开发者快速掌握计算机视觉基础操作。教程强调实践性,所有代码可直接运行测试。原创 2025-10-22 10:14:30 · 407 阅读 · 0 评论 -
OpenCV 安装
本文提供了OpenCV在Python环境下的详细安装指南,涵盖Windows、macOS和Linux系统。主要内容包括:1)安装前提条件(Python版本、pip工具和虚拟环境);2)两种安装方式(基础版opencv-python和扩展版opencv-contrib-python);3)安装验证方法;4)常见问题解决方案(如模块未找到、权限错误等);5)快速测试示例。文章还推荐了使用Conda安装的替代方案,并提供了官方资源和社区链接,适合初学者快速上手OpenCV。原创 2025-10-22 10:10:43 · 1053 阅读 · 0 评论 -
OpenCV 简介
OpenCV 是计算机视觉领域的瑞士军刀,适合从简单图像处理到复杂目标检测的各种任务。如果需要深入某个功能(如人脸检测、特征匹配)或具体案例的代码,请告诉我,我可以提供详细教程或示例!是一个功能强大的开源计算机视觉和图像处理库,广泛应用于图像和视频分析、机器学习、机器人视觉等领域。它支持多种编程语言,、Java 等绑定,Python 接口()因其简单易用而最受欢迎。原创 2025-10-22 10:09:05 · 861 阅读 · 0 评论 -
OpenCV 教程
这篇OpenCV教程提供了从安装到实际应用的完整指南。首先介绍了通过pip安装Python版OpenCV的方法,并验证安装。教程涵盖了核心概念如图像表示和基础操作(读取、显示、保存图像),以及颜色空间转换、图像缩放裁剪等处理技巧。进阶部分包括模糊处理、边缘检测、特征提取等图像处理技术,并展示了视频处理和摄像头实时处理的方法。最后还介绍了与Scikit-learn的集成应用,以及使用Haar级联分类器实现人脸检测的案例。整个教程结构清晰,提供了实用的代码示例,适合不同水平的用户学习计算机视觉技术。原创 2025-10-22 10:01:37 · 773 阅读 · 0 评论 -
Sklearn 模型保存与加载
Scikit-learn 使用 joblib 进行模型持久化,支持保存/加载模型、Pipeline 和 GridSearchCV 结果。通过 joblib.dump() 序列化对象为 .pkl 文件,joblib.load() 反序列化恢复使用。关键点包括:支持压缩存储(compress 参数)、多对象联合保存、版本兼容性管理,以及注意文件路径安全和运行环境一致性。典型应用场景涵盖直接预测、预处理流程复用和最优模型部署,需确保生产环境与训练环境的依赖版本匹配。(摘要长度:149字)原创 2025-10-22 09:56:40 · 594 阅读 · 0 评论 -
Sklearn 自定义模型与功能
Scikit-learn自定义模型与功能指南:通过继承基类(如BaseEstimator和ClassifierMixin等)实现自定义模型和转换器,兼容sklearn接口并支持Pipeline集成。文章详细介绍了自定义转换器(如特征乘数)、分类模型(最近质心分类器)和回归模型的实现方法,以及如何与Pipeline和GridSearchCV结合进行参数调优。核心要点包括:1)继承特定基类实现标准接口;2)在Pipeline中无缝使用自定义组件;3)通过GridSearchCV优化自定义参数。代码示例清晰展示了原创 2025-10-22 09:55:22 · 816 阅读 · 0 评论 -
Sklearn 管道(Pipeline)
Scikit-learn 的 Pipeline 是一个将数据预处理和模型训练步骤整合为统一工作流的工具。它通过 sklearn.pipeline.Pipeline 实现,具有防止数据泄漏、简化代码和便于调参等优点。Pipeline 由 (name, estimator) 元组组成,支持标准估算器接口如 fit() 和 predict()。基本用法包括创建包含预处理(如标准化)和分类器的 Pipeline,并像单个模型一样使用。进阶功能包括:1)结合特征选择等更多步骤;2)通过 GridSearchCV 优化原创 2025-10-22 09:54:09 · 1037 阅读 · 0 评论 -
Sklearn 模型评估与调优
本文详细介绍了Scikit-learn中的模型评估与调优方法。主要内容包括:1)分类、回归和聚类任务的评估指标(如准确率、均方误差、轮廓系数);2)交叉验证技术(K折和分层K折);3)超参数调优方法(网格搜索和随机搜索);4)Pipeline集成预处理与模型调优的实践。通过鸢尾花分类示例展示了完整工作流程,帮助开发者量化模型性能并优化参数,提升预测能力。文章提供了丰富的代码示例和评估指标说明,是机器学习实践的实用指南。原创 2025-10-22 09:51:49 · 998 阅读 · 0 评论
分享