- 博客(8)
- 资源 (1)
- 收藏
- 关注
原创 opencv海思平台移植解决warning: ../../lib/libopencv_imgproc.so, needed by ../lib/libopencv_imgcodecs.so, not
1、opencv编译部分请参考:https://blog.csdn.net/qq_39660930/article/details/780500302、编译过程中出现的错误查找网络自行解决;编译过程中出现的错误因人而异,我遇到的错误是cuda和protobuf,关闭这两个编译选项即可。3、交叉编译过程中出现:warning: ../../lib/libopencv_imgpro...
2019-09-04 09:37:43
8677
10
原创 PyTorch的基本概念
1、什么是Pytorch,为什么选择Pytroch? 近年来随着深度学习的火热,越来越多的人开始研究深度学习。作为一个小白,所只能简单的介绍下。Pytorch作为深度学习的一个框架,是FaceBook出品的,并且他是支持Python的,重点是pytorch是动态图,可以随时打印出中间计算结果,方便调试。2、Pytroch的安装安装过程可以参考链接:https://blog...
2019-04-06 21:08:05
303
转载 XGB算法梳理
1、算法原理1.1、定义树的复杂度对于f的定义做一下细化,把树拆分成结构部分q和叶子权重部分w。下图是一个具体的例子。结构函数q把输入映射到叶子的索引号上面去,而w给定了每个索引号对应的叶子分数是什么。 定义这个复杂度包含了一棵树里面节点的个数,以及每个树叶子节点上面输出分数的L2模平方。当然这不是唯一的一种定义方式,不过这一定义方式学习出的树效果一般都比较不错。下图还给出了复杂度...
2019-02-01 21:00:43
1391
原创 决策树
【学习任务】信息论基础(熵,联合熵,条件熵,信息增益和基尼不纯度) 决策树的不同分类算法(ID3算法,C4.5和CART分类树)的原理及应用场景 回归树原理 决策树防止过拟合手段1、信息论基础(熵,联合熵,条件熵,信息增益和基尼不纯度)自信息:信息熵:代表的是随机变量或整个系统的不确定性,熵越大,随机变量或系统的不确定性就越大。即描述的是有关事件X的所有可能结果的自信息...
2019-01-31 18:20:55
195
原创 GBDT算法梳理
1、概念GBDT也是集成学习Boosting家族的成员,但是却和传统的Adaboost有很大的不同。回顾下Adaboost,我们是利用前一轮迭代弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去。GBDT也是迭代,使用了前向分布算法,但是弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同。在GBDT的迭代中,假设我们前一轮迭代得到的强学习器是ft−1(...
2019-01-29 17:14:43
276
原创 Logistic回归
【任务2】Logistic回归损失函数的极大似然推导:西瓜书公式3.27怎么推来的? Logistic回归损失函数的最优化算法:什么是牛顿法、拟牛顿法? 为什么不用线性回归做分类? Logistic回归为什么不像线性回归那样用平方损失函数? Logistic回归的参数为什么不像线性回归那样直接公式求解? Logistic回归与线性回归有哪些联系?1、西瓜书公式3.7的推导参...
2019-01-28 23:02:10
812
转载 随机森林算法梳理
1. 集成学习概念集成学习是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合从而获得比单个学习器更好的学习效果的一种机器学习方法。一般情况下,集成学习中的多个学习器都是同质的"弱学习器"。集成学习的主要思路是先通过一定的规则生成多个学习器,再采用某种集成策略进行组合,最后综合判断输出最终结果。一般而言,通常所说的集成学习中的多个学习器都是同质的"弱学习器"。基于该弱学习器,通...
2019-01-27 21:11:21
1823
转载 线性回归
【学习任务】线性回归损失函数的极大似然推导:西瓜书公式3.4除了用最小二乘法以外,怎么用极大似然推得? 一元线性回归的参数求解公式推导:西瓜书公式3.7和3.8怎么推来的? 多元线性回归的参数求解公式推导:西瓜书公式3.10和3.11怎么推来的? 线性回归损失函数的最优化算法:什么是批量梯度下降、随机梯度下降、小批量梯度下降?问题1:对于连续目标函数的学习问题,当误差服从正态分布,而且...
2019-01-27 20:36:17
183
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人