
lz读论文的日子(GAN)
文章平均质量分 85
读呀读呀读论文
中南大学苹果实验室
中南大学苹果实验室在2014年由时任张校长主持,苹果公司和中南大学共同出资建立的第一个本科生实验室。指导老师为可亲可敬的鲁鸣鸣老师。苹果实验室本着小而精而又开放的理念,每年面向全计算机院招收6-8名主动性强、动手能力高、热爱计算机专业而又负责任的大二学生。实验室在计算机范畴内不硬性规定研究方向,鼓励成员在学长经验的加持下自由探索自己的兴趣爱好与方向,这也造就了届届相似而不同+多点开花的现状。我们营造着良好的实验室学习与生活的氛围,崇尚劳逸结合,坚持在保证专业素质过硬的同时不忘体验生活的乐趣。欢迎各位加入苹果实验室的大家庭。
展开
-
Crafting Adversarial Input Sequences for Recurrent Neural Networks
作者: 19届 lz论文:《Crafting Adversarial Input Sequences for Recurrent Neural Networks》问题贡献:相关工作实验结果原创 2022-05-30 16:11:08 · 707 阅读 · 1 评论 -
Rogue Signs: Deceiving Traffic Sign Recognition with Malicious Ads and Logos
作者: 19届 lz论文:《Rogue Signs: Deceiving Traffic Sign Recognition with Malicious Ads and Logos》问题对虚拟系统的攻击并不能直接转化为现实世界。这是因为为生成虚拟对抗样本而解决的优化问题没有考虑到变化的物理条件,这些物理条件可能包括亮度、方向和距离变化、相机伪影、阴影、反射和图像大小调整造成的细节损失。贡献:1)我们提出了一种新的现实世界对交通标志识别系统的攻击:标志嵌入攻击修改了无害的标志,使其被归类为交通标原创 2022-05-10 20:05:54 · 950 阅读 · 0 评论 -
Robust Physical-World Attacks on Deep Learning Visual Classification
作者: 19届 lz论文:《Robust Physical-World Attacks on Deep Learning Visual Classification》问题2013年 ,Szegedy 等 人 [1]首先通过添加轻微扰动来干扰输入样本,使基于深度神经网络(Deep neural network, DNN)的图片识别系统输出攻击者想要的任意错误结果,此过程称为对抗攻击.研究人员表明,现代深度神经网络模型极易受到人类视觉系统几乎无法察觉的微小扰动的对抗攻击。这种攻击可以造成神经网络分类原创 2022-05-07 23:33:50 · 873 阅读 · 0 评论 -
深度学习对抗样本的防御方法
作者: 19届 lz论文:《深度学习对抗样本的防御方法综述》问题2013年 ,Szegedy 等 人 [1]首先通过添加轻微扰动来干扰输入样本,使基于深度神经网络(Deep neural network, DNN)的图片识别系统输出攻击者想要的任意错误结果,此过程称为对抗攻击.研究人员表明,现代深度神经网络模型极易受到人类视觉系统几乎无法察觉的微小扰动的对抗攻击。这种攻击可以造成神经网络分类器对原始图像进行错误预测。如果将其应用于现实世界,如恶意代码检测、无人驾驶系统、生物医学领域,将会带来极为原创 2022-05-07 00:17:33 · 6598 阅读 · 1 评论 -
Intriguing properties of neural networks
作者: 19届 lz论文:《Score-CAM:Score-Weighted Visual Explanations for Convolutional Neural Networks》问题:虽然 Grad-CAM 等基于梯度的方法生成的可视化为 CNN 模型所做的预测提供了解释,并提供了预测类的细粒度细节,但这些方法有局限性例如,当定位多个出现的同一类对象时此外,对于单个对象图像,Grad-CAM 热图通常不能完整地捕获整个对象贡献:虽然存在几种可视化 CNN 决策的方法,即反卷积、引导原创 2022-05-04 14:08:55 · 2621 阅读 · 0 评论 -
提升深度卷积网络可解释性Grad-CAM++(2): Improved Visual Explanations for Deep Convolutional Networks
作者: 19届 lz论文:《Improved Visual Explanations for Deep Convolutional Networks》Pre-knowledgePre-knowledge针对现有方法的不足 Grad-CAM++的改进原创 2022-04-27 23:40:12 · 412 阅读 · 0 评论 -
提升深度卷积网络可解释性Grad-CAM++(1): Improved Visual Explanations for Deep Convolutional Networks
作者: 19届 lz论文:《Improved Visual Explanations for Deep Convolutional Networks》原创 2022-04-26 17:11:06 · 1368 阅读 · 0 评论 -
Dropping Pixels for Adversarial Robustness
作者: 19届 lz论文:《Dropping Pixels for Adversarial Robustness》问题:深度神经网络容易受到对抗性示例的攻击,而对抗性示例是故意设计为导致模型出错的输入.这些图像被模型错误分类,但人类可以识别.贡献:研究过程及结果:后端轨迹优化实验结果conclusion...原创 2022-04-20 09:28:54 · 2230 阅读 · 0 评论