
机器学习基础复习
先吃饭再写作业的小明
300字以内
展开
-
语音识别karas实现
https://blog.csdn.net/sunshuai_coder/article/details/83658625转载 2020-02-13 15:49:49 · 320 阅读 · 0 评论 -
AlexNet 之karas实现
https://www.cnblogs.com/wangguchangqing/p/10333370.html转载 2020-02-13 11:32:33 · 298 阅读 · 0 评论 -
KNN与K-Means
https://blog.csdn.net/sinat_35512245/article/details/55051306转载 2020-02-10 15:50:37 · 171 阅读 · 0 评论 -
二维码识别库
二维码识别库简介Zxing库可以识别的条形码和二维码种类UPC_A,UPC_E,EAN_13,EAN_8,RSS_14,RSS_EXPANDED,CODE_39,CODE_128,ITF,CODABAR,AZTEC,DATA_MATRIX,MAXICODE,PDF_417,QR_CODE...原创 2019-08-10 00:24:34 · 914 阅读 · 0 评论 -
频域(频谱)图和时域图横纵坐标及分析
时域(时间域-time domain)——自变量是时间,即横轴是时间,纵轴是信号的变化(振幅)。其动态信号x(t)是描述信号在不同时刻取值的函数。频域(频率域- frequency domain)——自变量是频率,即横轴是频率,纵轴是该频率信号的幅度(振幅),也就是通常说的频谱图。时域分析函数的参数是时间t,也就是y=f(t),频域分析时,参数是w,也就是y=F(w)两者之间可以互相转...原创 2019-05-13 00:50:50 · 67449 阅读 · 4 评论 -
均值,期望和加权平均数理解和区分
在机器学习学习中, 经常遇到 均值和期望 ,这两个词很容易混淆,也有说法均值就是期望,这可能是中英文的问题。均值(mean) :是统计学概念,是在你有一定量的数据后,加权平均后计算出的数值。加 权 平 均 数 :统计学概念中带有权重的平均数期望(expected) :概率论的概念中带有概率的平均数期望(expected) :是概率论的概念,是对随机变量的概率进行估计后,求出的预期数值。...原创 2019-05-10 11:43:17 · 9614 阅读 · 0 评论 -
反向传播算法(Back propagate)隐藏层误差计算
反向传播算法(Back propagate)隐藏层误差计算关于反向传播的推导已经很多了,理解起来也很简单就是 链式法则大部分推导主要是输出层到隐藏层的计算,这时的误差Error就是简单的输出output和标签target的差可以简单记为:E = O - T至于中间层的Error大多一语带过,这里输出结果有两个,可以得到eo1 和 eo2设hidden 层 误差为eh1和eh2 ,则:...原创 2019-05-06 17:01:07 · 5245 阅读 · 2 评论 -
脑电图机器学习笔记(二):SVM 脑电波原信号和傅立叶变换的 癫痫信号检测
使用SVM进行癫痫检测背景:这是一片论文的简单复现,只是还原思想,不知道是不是我看的不够仔细,我觉得论文说的也就是这样简单的操作论文名称:Seizure prediction with spectral power of EEG using cost-sensitive support vector machines有需要的同学可以好好看一下,论文中不仅仅只是检测,还有预测功能。...原创 2019-05-13 23:43:22 · 3653 阅读 · 4 评论 -
通俗理解Faster R-CNN和RPN
通俗理解Faster R-CNN和RPN最近在学习Faster R-CNN,有一些心得,希望可以给大家以启发。我之前对比过R-CNN,SPP-Net , Fast R-CNN, Faster R-CNN 的区别和理解,有需要的朋友可以看一下:https://blog.csdn.net/XM_no_homework/article/details/88712991下面进入正题谈一下我对Fast...原创 2019-03-22 22:23:23 · 1547 阅读 · 0 评论 -
R-CNN,SPP-net,Fast R-CNN,Faster R-CNN区别和基本理解
R-CNN,SPP-net,Fast R-CNN,Faster R-CNN区别和基本理解最近学习目标检测,入手当然首先要看RNN系列,其中有一些启发,和大家分享一下,有理解偏差希望大神给与指正。这张图对我的理解帮助很大,特意贴出。可以发现他们是环环相扣发展过来的,主要区别在于卷积模型、候选框、分类回归方式(Classification + Localization):首先我们先搞清一些小的...原创 2019-03-21 14:36:04 · 2511 阅读 · 0 评论 -
脑电图机器学习笔记(一):机器学习脑电图.edf格式数据处理
机器学习脑电图.edf格式数据处理最近做了一个关于脑电图进行癫痫检测的项目,其中我用了CNN和SVM进行检测,刚开始就遇到了小问题,就是怎样获得.csv数据,水平不高,但是解决了问题下面给个简单的教程。我这里介绍如何把原始.edf按频率过滤出准备:1.Matlab 安装并安装 EEGLab2.安装EDFbrownser:Download Url: http://dl-t1.wmzhe....原创 2019-03-21 12:29:13 · 13283 阅读 · 23 评论 -
KNN(临近算法k-NearestNeighbo) L1 和 L2距离计算
KNN基础中 L1 和 L2 距离是最核心的两个公式1、L1距离L1距离很简单,就是矩阵I1和矩阵I2每个元素(aij) 相减的绝对值,这一点CS231中给出了很明确的计算:L1 Numpy实现:for i in range(num_test): a = X_test[i]-X_train[j] b = np.fabs(a) dists[i][j] = np.sum(b)2、...原创 2019-02-23 14:35:08 · 6022 阅读 · 1 评论