12、概念学习:假设空间与路径探索

概念学习:假设空间与路径探索

1. 最小泛化泛化(Least General Generalisation)

在概念学习中,我们常常会遇到需要从一组实例中找到合适概念的问题。当排除那些不能覆盖示例 4.1 中至少一个实例的概念后,假设空间会缩小到 32 个合取概念。若要求假设能覆盖所有三个实例,那么概念数量会进一步减少到四个,其中最不一般的那个被称为最小泛化泛化(LGG)。

算法 4.1 详细描述了寻找一组实例的最小泛化泛化的过程:

Algorithm 4.1: LGG-Set(D) – 寻找一组实例的最小泛化泛化
Input: 数据 D
Output: 逻辑表达式 H
1. x ← 从 D 中取出第一个实例;
2. H ← x;
3. while 还有实例剩余 do
4.     x ← 从 D 中取出下一个实例;
5.     H ← LGG(H, x); // 例如,LGG-Conj (Alg. 4.2) 或 LGG-Conj-ID (Alg. 4.3)
6. end
7. return H

直观来看,两个实例的 LGG 是假设空间中从这两个实例向上的路径相交的最近概念。许多逻辑假设空间具有一个特殊性质,即这个相交点是唯一的。这种假设空间形成了一个格(lattice),其中每两个元素都有最小上界(lub)和最大下界(glb)。因此,一组实例的 LGG 恰好是这些实例在该格中的最小上界,同时也是所有泛化集合的最大下界。从这个精确的意义上说,LGG 是我们能从数据中学到的最保守的泛化。

如果我们想更具冒险精神,可以选择一些更一般的假设,如“Gills =

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值