MobileNetV1&MobilenetV2模型

目录

资源

Mobilenetv1网络及原理

深度可分离卷积

MobileNetV1 中引入的两个超参数

mobilenetV1的网络结构

MobilenetV2网络及原理

MobilenetV2与MobilenetV1的主要区别

MobilenetV2瓶颈层

倒残差

MobilenetV2升维的数学证明 

整体网络框架

性能

总结

讨论

Reference


资源

MobilenetV2官方pytorch代码:

https://pytorch.org/vision/stable/_modules/torchvision/models/mobilenetv2.html#mobilenet_v2

MobilenetV2,pytorch预训练模型:

'mobilenet_v2': 'https://download.pytorch.org/models/mobilenet_v2-b0353104.pth'

MobilenetV2论文:

https://arxiv.org/pdf/1801.04381.pdf

MobilenetV1论文:

https://arxiv.org/pdf/1704.04861.pdf

Mobilenetv1网络及原理

        mobileNet V1不做过多的介绍,主要是为了mobilenet介绍的一个过渡。mobileNet V1是一种体积较小、计算量较少、适用于移动设备的卷积神经网络。mobileNet V1的主要创新点是用深度可分离卷积(depthwise separable convolution)代替普通的卷积,并使用宽度乘数(width multiply)减少参数量,不过减少参数的数量和操作的同时也会使特征丢失导致精度下降。

深度可分离卷积

        标准的卷积过程如图1,卷积核做卷积运算时得同时考虑对应图像区域中的所有通道(channel),而深度可分离卷积对不同的通道采用不同的卷积核进行卷积,如图2所示它将普通卷积分解成了深度卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution)两个过程,这样可以将通道(channel)相关性和空间(spatial)相关性解耦。原文中给出的深度可分离卷积后面都接了一个BN和ReLU层。

MobileNetV1 中引入的两个超参数
 

1.Width Multiplier(\alpha): Thinner Models

所有层的通道(channel)数乘以\alpha参数(四舍五入),模型大小近似下降到原来的\alpha ^{2}倍,计算量下降到原来的\alpha ^{2}倍。\alpha

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值