
深度学习笔记
Allenlzcoder
拒绝拖延症!!!
展开
-
深度学习入门实例——基于keras的mnist手写数字识别
本文介绍了利用keras做mnist数据集的手写数字识别。参考网址 http://www.cnblogs.com/lc1217/p/7132364.htmlmnist数据集中的图片为28*28的单通道黑白图片。详细代码#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Fri Apr 26 11:07:39 2019...原创 2019-04-26 16:19:27 · 1289 阅读 · 0 评论 -
GoogLeNetV1,V2,V3
GoogLeNetV1,V2,V3博客转载自:https://blog.csdn.net/app_12062011/article/details/62216987转载 2018-05-21 17:18:04 · 291 阅读 · 0 评论 -
AlexNet模型解读
AlexNet模型解读本博客转载自: https://blog.csdn.net/teeyohuang/article/details/75069166转载 2018-05-21 14:42:19 · 292 阅读 · 0 评论 -
tensorflow实现LeNet-5模型
Tensorflow实现LeNet-5模型博客转载自:https://blog.csdn.net/NNNNNNNNNNNNY/article/details/70216265转载 2018-05-21 14:25:24 · 749 阅读 · 0 评论 -
Resnet论文解读与TensorFlow代码分析
残差网络Resnet论文解读博客地址:https://blog.csdn.net/loveliuzz/article/details/79117397转载 2018-05-16 21:14:14 · 374 阅读 · 0 评论 -
人脸表情识别/人脸检测/ML/DL/图像处理博主
人脸表情识别/人脸检测/ML/DL/图像处理博主人脸表情识别/人脸检测/ML/DL/图像处理博主:https://blog.csdn.net/app_12062011/article/category/7618871转载 2018-05-16 16:36:30 · 1365 阅读 · 0 评论 -
Densenet论文解读 && 深度学习领域论文分析博主
深度学习领域论文分析博主博客链接: https://my.csdn.net/u014380165转载 2018-05-15 16:07:10 · 379 阅读 · 0 评论 -
深入理解深度学习中的【卷积】和 feature map
深入理解深度学习中的卷积和feature map 虽然深度学习的概念已经传遍大街小巷,本文还是说一说CNN中的卷积。 本文主要介绍卷积层的结构。下图显示了CNN中最重要的部分,这部分称之为过滤器(filter)或内核(kernel)。因为TensorFlow官方文档中将这个结构称之为过滤器(filter),故在本文中将统称这个结构为过滤器。如下图所示,过滤器可以将当前层网络上的一个子节点矩原创 2017-12-09 18:10:18 · 23734 阅读 · 2 评论 -
各个历史版本 cuda toolkit 下载链接
各个历史版本 cuda toolkit 下载链接 发现cuda toolkit 8.0 _windows_7_locoal 版本的 无法下载, 但是笔记本目前是win7系统, 找了之前的7.5版本了,为了便于今后更快捷,保存下各个历史版本cuda toolkit cuda历史各个版本下载链接 https://developer.nvid转载 2017-11-27 22:07:30 · 5120 阅读 · 1 评论 -
简单易懂的softmax交叉熵损失函数求导
简单易懂的softmax交叉熵损失函数求导 本博客转自:http://m.blog.csdn.net/qian99/article/details/78046329 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步转载 2017-11-21 13:58:34 · 20729 阅读 · 1 评论 -
卷积神经网络中feature map的含义
卷积神经网络中feature map的含义 在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,转载 2017-10-23 09:59:56 · 31794 阅读 · 4 评论 -
一文弄懂神经网络中的反向传播法——BackPropagation
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果不想看公式,可以直接把数值带进去,实际的计算一下,体会一下这个过程之后再来推导公式,这样就会觉得很容易了。转载 2017-09-27 10:47:52 · 1098 阅读 · 0 评论