- 博客(11)
- 收藏
- 关注
原创 Caffe源码解读(Layer)
LayerLayer类是caffe中所有类的基类,定义了层的基本操作,定义新的层需要override前传反传这些纯虚函数.。先看层的数据成员:1)LayerParameter layer_param_;这是存储在proto中的层的超参数2)Phase phase_;层的工作状态:TRAIN or TEST3)vector<shared_ptr<Blob<...
2019-05-07 17:03:00
401
原创 Caffe源码解读(proto和blob)
caffe的几大基类Blob:caffe的基本数据结构。涉及到的所有输入输出、网络参数权重都存储在Blob中Layer:网络的基础单元,前传反传的实现Net:将Layer整合起来,搭建神经网络Solver:定义网络的训练策略caffe.proto1)Protocol Buffer:一种结构化数据的存储格式,可在编译后生成一些列C的函数。caffe.proto运行后会生...
2019-05-07 17:01:04
754
原创 MTCNN细节详解
PNet,RNet.Onet输出的都是BoundingBox的集合,每个BoundingBox包括当前左上角与右下角坐标,坐标的预测偏移量(比例),是否人脸的二分类置信度,5个landmarks的10个坐标。BoundingBox的定义PNet1. 每输入一张图像,会以一个设定的放缩因子p,以{1,p,p^2,p^3,p^4...}的比例逐渐缩小,生成一个图像金字塔,最后得到的...
2019-05-07 16:57:26
5506
1
原创 算法设计复习(三):最大流(最小切)问题
1.切(s-t cut)的定义:最小切问题当然就是找到一个最小的s-t cut2.流问题:流是一些s到t的简单路径,满足两个条件:1)路径中每条边的流量f(e)小于等于容量c(e)2)路径中每个顶点(除了源点s与汇点t),流入的流量必须等于流出的流量定义总流量:3.对于任意s-t割(A,B),s-t流的值等于A的流出值减去A的流入值:4.s-t flow 一定小于 s-t cut,证明:很显然,如...
2018-05-09 11:52:07
3448
1
原创 算法设计复习(二):贪心算法
1.贪心算法是分多个步骤求解一个问题,在每个问题以一定的优化方法找出局部最优解,并且各步的结果是相容的。以不同的优化方法求局部最优解,可以构造不同的贪心算法。2.贪心算法不一定可以得到全局最优解3.用贪心算法求解Interval Scheduling问题:我们可以想到四种贪心策略:最早开始时间;最早结束时间;最少冲突任务;相邻任务最短时间间隔其中只有以最早结束时间作为优化策略,才可以得到全局最优解...
2018-05-03 20:39:26
838
原创 算法设计复习(一):渐进增长阶
1.渐进增长阶常用来表示算法程序运行消耗的时间与空间2.在渐进增长阶中我们忽略常数(想想其实常数是没有意义的,我们写的编程语言往往每一步变成机器语言会成为好几步,只能给出一个粗略的范围)3.渐进记号及其定义4.虽然从定义来看是集合的概念,但是我们习惯于同等号表示属于该集合5.更直观地表示各渐进符号:6.比较算法的复杂度时,大原则是:指数>>多项式>>对数7.常见算法复杂度(...
2018-05-03 17:06:44
6979
原创 Tensorfolw:模型持久化与迁移学习
Tensorflow的模型持久化主要有两种方式,一种是保存为CKPT文件(通过tf.train.Saver()类),一种是保存为pb文件(通过graphutil)。通过checkpoint先来看看通过ckpt文件持久化模型的例程:import tensorflow as tfv1 = tf.Variable(tf.constant(1.0), name='v1...
2018-04-13 23:13:14
387
原创 对于残差网络(Resnet)的理解
理论上来说,网络结构越深,提取的图像特征越“高级”,应该得到的学习效果更好。但是当我们传统网络堆到一定深度时,却准确度下降了。文章中主出了深层网络存在的两个问题:1.梯度弥散与梯度爆炸2.对于一个已经实现了最优拟合的浅层网络,如果再增加一些层,我们希望这些层最终权重都是1,实现恒等映射,而实际的学习中很难做到这一点,导致多经过网络加深后反而效果下降。这个问题称作退化问题。针对以上问题,作...
2018-04-11 21:47:00
3626
原创 SphereFace: Deep Hypersphere Embedding for Face Recognition(人脸识别论文笔记)
这是一篇发表于2017年cvpr的文章,在open-set的人脸识别方面取得了非常令人瞩目的成果。文章下载:https://pan.baidu.com/s/1rwyD1UUIHBhRzr7nA6v9Sw 密码:naurGithub:https://github.com/wy1iu/sphereface纵览整篇论文,最重要的贡献是提出了新的损失函数(A-Softmax),并从几何学角度给出了直观的...
2018-04-09 00:04:34
517
原创 Sharing Variables in Tensorflow
在深度学习的训练过程中,为了减少训练参数数量,或是在不同计算机上并行运算,我们往往需要共享变量。Tensorflow中的变量共享主要是通过tf.variable_scope和tf.variable来实现。 tf.variable_scope()主要是对于图中大量变量进行批量化管理,域内的变量会被加上同一个前缀名,同时该函数还会自动生成一个同名name_scope(),故域内...
2018-04-06 12:57:51
165
原创 Ubntu 16.04下caffe安装与Python接口配置详细攻略
虽然已经接触深度学习有一段时间了,但是因为教研室的项目原因还是第一次尝试使用caffe。早就听说caffe安装有很多坑,这两个上午的安装历程确实深有感触,网上的许多博客里的教程在使用时碰到各种错误也是让人非常心烦,所以决定自己尝试记录下整个过程。 一.Caffe安装主要参照官方指导文件:点击打开链接1.安装依赖库首先update$ sudo apt-get...
2018-03-21 11:57:12
468
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人