CRU+MXnet︱CRU-Net - Collective Residual Networks

paper:https://arxiv.org/pdf/1703.02180.pdf
github:https://github.com/cypw/CRU-Net

优化了ResNet,让其更有效率且最终精度得到提升。
.

1、Abstract

剩余单位广泛用于缓解困难建立深层神经网络优化。然而,性能增益不wellcompensate模型尺寸的增加,说明低效率这些剩余单位参数。在这项工作中,我们首先重温剩余单位剩余的功能在变化,表明这些residualfunctions实际上可以用一个统一的框架内解释基于广义块分解。
然后,根据新的解释,提出了一种新的架构,集体剩余单元(CRU),从而提高深层神经网络参数的效率通过集体tensorfactorization。CRU使知识在不同的残余unitsusing共享的因素。
实验结果表明,我们提出的CRU networkdemonstrates突出参数的效率,实现comparableclassification性能与resnet-50模型大小resnet-200。
通过更深层次的网络使用CRU,我们可以实现国家的最先进的单一模型的分类精度imagenet-1k和places365标准benchmarkdatasets
(来源:Sharing Residual Units Through Collective Tensor Factorization in Deep Neural Networks

2、评测结果

在两个数据集上有开源的premodel:

  • ImageNet-1k
  • Places365-Standard

用MxNet实现。

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值