
西瓜书机器学习
火星种萝卜
c++ vc mfc java
展开
-
PageRank算法详解 - 知乎
PageRank算法详解 - 知乎转载 2022-01-19 12:36:11 · 968 阅读 · 0 评论 -
LightGBM和XGBoost使用scale_pos_weight处理不平衡数据源码分析
LightGBM和XGBoost使用scale_pos_weight处理不平衡数据源码分析 - 代码先锋网转载 2021-11-11 11:59:19 · 700 阅读 · 0 评论 -
GBDT、Xgboost、RF的区别
GBDT、Xgboost、RF的区别_请叫我小皇帝 的博客-CSDN博客转载 2021-11-10 22:41:37 · 280 阅读 · 0 评论 -
出现module ‘xgboost‘ has no attribute ‘DMatrix‘的临时解决方法
出现module 'xgboost' has no attribute 'DMatrix'的临时解决方法问题根源:初学者或者说不太了解Python才会犯这种错误,其实只需要注意一点!不要使用任何模块名作为文件名,任何类型的文件都不可以!我的错误根源是在文件夹中使用xgboost.*的文件名,当import xgboost时会首先在当前文件中查找,才会出现这样的问题。 所以,再次强调:不要用任何的模块名作为文件名!https://blog.csdn.net/lt77701/java/...转载 2021-11-04 16:45:44 · 1302 阅读 · 0 评论 -
数据与特征对随机森林的影响(特征对比、特征降维、考虑性价比)
数据与特征对随机森林的影响(特征对比、特征降维、考虑性价比)_PanDawson的博客-CSDN博客_随机森林降维转载 2021-11-03 11:02:19 · 238 阅读 · 0 评论 -
交叉熵损失(Cross Entropy Loss)计算过程
交叉熵损失(Cross Entropy Loss)计算过程_藏知阁-CSDN博客_交叉熵计算公式转载 2021-10-21 14:54:11 · 996 阅读 · 0 评论 -
模型评估指标micro avg、macro avg和weighted avg的计算方式及区别
模型评估指标micro avg、macro avg和weighted avg的计算方式及区别-技术圈转载 2021-10-20 10:11:55 · 1408 阅读 · 0 评论 -
机器学习 二分类分类阈值_分类指标和阈值介绍
机器学习 二分类分类阈值_分类指标和阈值介绍_weixin_26752765的博客-CSDN博客机器学习 二分类分类阈值_分类指标和阈值介绍_weixin_26752765的博客-CSDN博客转载 2021-10-02 16:34:57 · 1051 阅读 · 0 评论 -
理解为何用期望最大化或梯度下降等启发式方法处理非凸函数在实际中如此有效,对于理论计算机科学而言是一大挑战
理解为何用期望最大化或梯度下降等启发式方法处理非凸函数在实际中如此有效,对于理论计算机科学而言是一大挑战一本关于理论计算机科学和机器学习之间关联的高水平、快节奏的集大成之作—《机器学习算法》计算机系统能力培养昨天【导读】近年来,有关机器学习的著作非常多,但是关于理论计算机科学和机器学习之间关联的书却不多见,今天要介绍的这本书《机器学习算法》,就是一本关于理论计算机科学和机器学习之间关联的高水平、快节奏的大作。机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸..转载 2021-09-18 12:25:23 · 381 阅读 · 0 评论 -
GridSearchCV 调用模型的执行过程
GridSearchCV 调用模型的执行过程原创 2021-09-07 19:52:47 · 385 阅读 · 0 评论 -
用正交变换化二次型为标准形的具体步骤
https://wenku.baidu.com/view/eb88c8e4bbd528ea81c758f5f61fb7360a4c2b72.html转载 2021-08-19 22:39:53 · 1710 阅读 · 0 评论 -
Some inputs do not have OOB scores. This probably means too few trees were used to compute any relia
Some inputs do not have OOB scores. This probably means too few trees were used to compute any reliable oob estimates. warn("Some inputs do not have OOB scores. "原创 2021-08-19 13:50:39 · 1278 阅读 · 0 评论 -
机器学习(四)——模型调参利器 gridSearchCV(网格搜索) scoring的
如果是None,则使用estimator的误差估计函数(3)scoring=None模型评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc',根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。具体值的选取看本篇第三节内容。https://blog.csdn.net/weixin_41988628/...转载 2021-08-19 12:20:29 · 1529 阅读 · 0 评论 -
min_sample_split 和min_sample_leaf区别
所以基本上,min_sample_split是分割所需的最小样本数。例如,如果min_sample_split = 6并且节点中有4个样本,则不会发生拆分(不管熵是多少)。在另一方面,min_sample_leaf基本上是叶节点所需的最小样本数。假设min_sample_leaf = 3并且一个含有5个样本的节点可以分别分裂成2个和3个大小的叶子节点,那么这个分裂就不会发生,因为最小的叶子大小为3https://www.cnpython.com/qa/291389...转载 2021-08-19 11:30:18 · 7216 阅读 · 0 评论 -
GridSearchCV 与 RandomizedSearchCV 用法注意随机搜索可以自定义打分 or loss 函数
在一些情况下,sklearn中没有现成的评价函数,sklearn是允许我们自己的定义的,但需要注意格式,接下来给个例子import numpy as npfrom sklearn.metrics import make_scorerdef logloss(act, pred): epsilon = 1e-15 pred = sp.maximum(epsilon, pred) pred = sp.minimum(1-epsilon, pred) ll = sum(a...转载 2021-08-19 10:45:34 · 415 阅读 · 0 评论 -
【机器学习】支持向量机 SVM(非常详细)
https://zhuanlan.zhihu.com/p/129008328转载 2021-08-19 10:36:40 · 118 阅读 · 0 评论 -
TSNE——目前最好的降维方法
https://blog.csdn.net/weixin_34279246/article/details/90102855转载 2021-08-18 18:10:06 · 443 阅读 · 0 评论 -
特征选择,归一化以及交叉验证中应当注意的问题
https://blog.csdn.net/QKK612501/article/details/113834891转载 2021-08-17 07:39:01 · 183 阅读 · 0 评论 -
洛伦兹曲线 基尼系数 和基尼不纯度 讲的非常好 非常清楚
https://zhuanlan.zhihu.com/p/76667156转载 2021-08-14 15:56:37 · 456 阅读 · 0 评论 -
第十章 降维与度量学习
https://www.jianshu.com/p/0492f39f1b30转载 2021-08-12 07:42:50 · 94 阅读 · 0 评论 -
一起来读西瓜书:第十一章 特征选择与稀疏学习
https://www.jianshu.com/p/d82b5d3048d2转载 2021-08-12 07:41:13 · 118 阅读 · 0 评论