
theory
zhe_csdn
不断犯错不断改错不断进步的过程
展开
-
卷积神经网络对BN层的解释
https://www.cnblogs.com/kk17/p/9693462.html(原作者写得特别详细)原创 2021-05-26 11:34:54 · 363 阅读 · 0 评论 -
神经网络初始化函数~Xavier(tanh激活函数),kaiming(relu激活函数),详情请看下面链接
https://blog.csdn.net/luoxuexiong/article/details/95772045原创 2021-05-17 17:39:11 · 633 阅读 · 0 评论 -
logistic和softmax原理、联系
https://blog.csdn.net/zhangliyao22/article/details/48379291转载 2021-03-31 13:40:09 · 183 阅读 · 0 评论 -
详解BN(Batch Normalization)算法
https://blog.csdn.net/lx10271129/article/details/78984623转载 2021-03-04 17:18:59 · 526 阅读 · 1 评论 -
FLOPs与模型推理速度关系,同时解释了deepwise操作为什么不能提高速度的原因(详述可参考英文论文原文efficientNet和regnet论文)
https://blog.csdn.net/u011808673/article/details/105789189/原创 2021-03-04 11:22:23 · 629 阅读 · 1 评论 -
目标检测中的先验框详解(原作者以yolov2,yolov3为例写得非常详细)
https://blog.csdn.net/weixin_44791964/article/details/103169623转载 2021-02-26 09:08:07 · 2485 阅读 · 0 评论 -
FCN的学习及理解(作者写得很详细,收藏一波)
https://blog.csdn.net/qq_36269513/article/details/80420363转载 2020-11-22 16:48:43 · 417 阅读 · 0 评论 -
mobilenetv1,v2,v3结构解析
https://blog.csdn.net/weixin_39958313/article/details/104578040转载 2020-09-05 12:26:54 · 276 阅读 · 0 评论 -
Deep Learning 之 最优化方法
https://blog.csdn.net/bvl10101111/article/details/72615436深度学习最优化方法系列转载 2020-07-21 09:18:57 · 280 阅读 · 0 评论 -
DTW算法(写得挺好的)
https://www.cnblogs.com/xingshansi/p/6924911.htmlhttp://www.cnblogs.com/ChengQH/p/2dc8272d6b045b9cee3a02d221662251.htmlhttp://www.cnblogs.com/tornadomeet/archive/2012/03/23/2413363.html原创 2020-05-25 20:42:47 · 1607 阅读 · 0 评论 -
目标检测--精确度(precision), 准确率(accuracy), 召回率(recall), 漏检率, 虚警率
假设:一组样本,个数为,正例有P个,负例有N个,算法结果:判断为正例的正例有TP个,判断为负例的正例有FN个(假的负例)P=TP+FN判断为负例的负例为TN个,判断为正例的负例有FP个(假的正例)N=TN+FP指标计算:精确度(Precision)P=所有判断为正例的例子中,真正为正例的所占的比例=TP/(TP+FP)准确率(Accuracy)A=判断正确的例子的比例=(TP+TN)...原创 2020-04-23 08:52:53 · 5341 阅读 · 0 评论 -
t-SNE和PCA算法介绍(原作者写得很好.推荐一下)
从SNE到t-SNE再到LargeVishttp://bindog.github.io/blog/2016/06/04/from-sne-to-tsne-to-largevis/t-SNE和PCA介绍https://www.jianshu.com/p/8c20b975a174转载 2019-12-17 09:58:12 · 2025 阅读 · 0 评论 -
检测率,召回率,mAP,ROC(转载)
https://blog.csdn.net/jasonzzj/article/details/62237608转载 2019-11-07 13:54:50 · 903 阅读 · 0 评论 -
CReLU激活函数
https://www.cnblogs.com/nowgood/p/crelu.html原创 2019-10-12 13:47:09 · 589 阅读 · 0 评论 -
深度网络中softmax_loss、Smooth L1 loss计算以及反向传播推(转载)
https://blog.csdn.net/dongapple/article/details/75468810转载 2019-07-10 15:13:22 · 948 阅读 · 0 评论 -
目标检测中准确率召回率问题
以行人检测为例,精度就是检测出来的行人中确实是行人的所占的百分比;Recall就是正确检出的行人数量占行人总数的百分比,Recall=100%表示没有漏检;这两个常常是一对矛盾,通常我们总是希望既没有虚景也不会发生漏检的情况,也就是Precision和Recall均为100%的状况...原创 2019-07-10 20:48:48 · 7306 阅读 · 0 评论 -
Focal Loss for Dense Object Detection解读
目标识别有两大经典结构: 第一类是以Faster RCNN为代表的两级识别方法,这种结构的第一级专注于proposal的提取,第二级则对提取出的proposal进行分类和精确坐标回归。两级结构准确度较高,但因为第二级需要单独对每个proposal进行分类/回归,速度就打了折扣;目标识别的第二类结构是以YOLO和SSD为代表的单级结构,它们摒弃了提取proposal的过程,只用一级就完成了识别/回归...原创 2019-07-23 15:25:41 · 362 阅读 · 0 评论 -
Gallery Set与Probe set理解(开始做识别领域了,开心)
https://blog.csdn.net/u011557212/article/details/60963237转载 2019-08-28 16:30:17 · 763 阅读 · 0 评论 -
生成对抗式网络GAN 的 loss
https://blog.csdn.net/z1102252970/article/details/70853288转载 2019-09-02 19:02:14 · 1566 阅读 · 0 评论 -
常规卷积, pointwise, depthwise
原创 2019-09-22 09:44:33 · 471 阅读 · 0 评论 -
softmax层的实现
https://blog.csdn.net/l691899397/article/details/52291909Softmax回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,待分类的类别数量大于2,且类别之间互斥。比如我们的网络要完成的功能是识别0-9这10个手写数字,若最后一层的输出为[0,1,0, 0, 0, 0, 0, 0, 0, 0],则表明我们网络的识别结果为...转载 2019-09-22 17:19:47 · 285 阅读 · 0 评论 -
L1正则化如何导致参数的稀疏性
一直以来对LR正则化添加的L1,L2 惩罚项没有搞清楚其意义pluskid的博客http://freemind.pluskid.org/machine-learning/sparsity-and-some-basics-of-l1-regularization/#67364f6b44ff80f9f952d5a46f2307425d2ee9ac让我明白了一直以来的疑问,对数据量非常少,特征非常...转载 2019-04-09 11:52:32 · 853 阅读 · 0 评论