
深度学习
pytorch
那记忆微凉
大数据+云计算+区块链+微服务+机器视觉
展开
-
docker19.03+NVIDIA显卡+docker: Error response from daemon: could not select device driver "" with c
docker19.03使用NVIDIA显卡前言使用gpu错误:docker: Error response from daemon: could not select device driver “” with ...具体解决方案在下面有.2019年7月的docker 19.03已经正式发布了,这次发布对我来说有两大亮点。1,就是docker不需要root权限来启动喝运行了2,就是支持G...原创 2020-03-20 15:48:18 · 28045 阅读 · 12 评论 -
Ubuntu下Pytorch, Tensorflow对应的Python、英伟达显卡驱动、CUDA、CUDNN版本与环境信息查看方法+安装老版本pytorch链接
框架的正确运行需要配套固定版本的python、显卡驱动、CUDA、CUDNN,低了不行高了也不行。下面就教你怎么查看各个环境的版本呢,各个框架需要什么版本的运行环境.我的系统为Ubuntu 18.04一、环境查看的方法查看python版本其实命令行进入python就会显示版本;也可以:python --version查看CUDA版本 cat /usr/local/cuda/ve...原创 2020-03-20 10:14:25 · 1481 阅读 · 0 评论 -
pytorch中的数学基础之复合函数求导数
原创 2020-03-10 13:51:32 · 415 阅读 · 0 评论 -
放弃递归神经网络RNN的原因
是时候放弃递归神经网络了!我们曾经很喜欢递归神经网络(RNN)、长短期记忆(LSTM)及它们的所有变体。现在是时候放弃它们了!2014年,LSTM和RNN强势归来。我们都读过Colah的博客和Karpathy对RNN的颂歌。但那时我们都很年轻且没有经验。一直以来,他们都是解决序列学习、序列翻译(seq2seq)的方法,这提高了语音转文本的效果,也造成了Siri、Cortana、Google语...原创 2020-03-05 07:57:37 · 943 阅读 · 0 评论 -
[NLP]Attention Model(注意力模型)学习总结-讲的非常好
注意力模型:对目标数据进行加权变化。人脑的注意力模型,说到底是一种资源分配模型,在某个特定时刻,你的注意力总是集中在画面中的某个焦点部分,而对其它部分视而不见。 ------(思考:为什么要集中在那个部分,是因为那个部分能解决问题吗?)1. 什么是Attention机制?最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任...原创 2020-03-05 07:48:46 · 1510 阅读 · 0 评论 -
PyTorch学习笔记之softmax和log_softmax的区别、CrossEntropyLoss() 与 NLLLoss() 的区别、log似然代价函数
1、softmax函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 x 是一个实数的向量(正数或负数都无所谓, 没有限制). 然后, 第i个 Softmax(x) 的组成是输出是一个概率分布: 每个元素都是非负的, 并且所有元素的总和都是1.2、log_soft...原创 2020-03-03 17:08:43 · 1607 阅读 · 0 评论 -
Pytorch中LSTM,GRU参数理解
本文中的RNN泛指LSTM,GRU等等CNN中和RNN中batchSize的默认位置是不同的。 CNN中:batchsize的位置是position 0. RNN中:batchsize的位置是position 1.在RNN中输入数据格式:对于最简单的RNN,我们可以使用两种方式来调用,torch.nn.RNNCell(),它只接受序列中的单步输入,必须显式的传入隐藏状态。t...原创 2020-03-02 11:37:09 · 7232 阅读 · 0 评论 -
图文了解RNN与LSTM(详细)
递归神经网络是最先进的顺序数据算法之一,在苹果Siri和Google语音搜索中都使用到的算法。这是因为它是第一个记忆它的输入的算法,由于内部存储器,这使得它非常适合涉及顺序数据的机器学习问题。它是过去几年Deep Learning的惊人成就背后的算法之一。在这篇文章中,你将学习递归神经网络如何工作的基本概念,最大的问题是什么以及如何解决它们。介绍递归神经网络(RNN)是一种功能强大的神经网络类...原创 2020-02-27 10:27:32 · 2898 阅读 · 0 评论 -
Pytorch数据增强的方法(图片数据)
位于torchvision.transforms下面。0 Composetorchvision.transforms.Compose(transforms)用法:transforms.Compose([ transforms.CenterCrop(10), transforms.ToTensor(),])1 常见变换1-1 Resize图像尺寸变化torchvisi...转载 2020-02-25 16:49:43 · 2763 阅读 · 0 评论 -
Pytorch中LSTM各参数解释
import torchimport torch.nn as nn # 神经网络模块rnn = nn.LSTM(10, 20, 2) # 输入数据x的向量维数10, 设定lstm隐藏层的特征维度20, 此model用2个lstm层。如果是1,可以省略,默认为1)input = torch.randn(5, 3, 10)# 输入的input为,序列长度seq_l...原创 2020-02-24 11:51:38 · 1345 阅读 · 0 评论 -
卷积神经网络中卷积核的理解、卷积计算过程和1*1卷积核的作用
一. 单通道图像的卷积计算过程 下面各图中所有数学符号的说明如下: n:图片的宽度和高度 n_c:表示图片的通道数 f: 过滤器的尺寸大小 m: 过滤器的数量 Q: 卷积运算后的输出图像的尺寸大小 p:所要填充的像素值,padding=0称为Valid Convolution;为了得到与原始输入图像相同尺寸的输出图像而加入的padding,称...原创 2020-02-20 22:43:14 · 7431 阅读 · 2 评论 -
扩张卷积-Dilated conv的理解
Dilated conv在ICLR 2016上提出。其主要作用是在不增加参数和模型复杂度的条件下,可以指数倍的扩大视觉野(每一个输出是由视觉野大小的输入所决定的)的大小。 其中参数dilated 指的是kernel与kernel、kernel和空白的间隔数量(从下图中可以看出这一效果。蓝色的矩形表示视觉野。红色的小点表示kernel。在图a中,kernel是33,视觉野是33,dilated=1;...原创 2020-02-20 22:08:53 · 1500 阅读 · 0 评论 -
卷积网络中的感受野详解
感受野的概念在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如图1所示。2. 感受野的例子(1)两层33的卷积核卷积操作之后的感受野是55,其中卷积核(filter)的步长(stride)为1、padding为0,如图2所...原创 2020-02-20 21:47:29 · 4170 阅读 · 0 评论 -
Pythorch中torch.nn.LSTM()参数详解
通过源代码中可以看到nn.LSTM继承自nn.RNNBase,其初始化函数定义如下class RNNBase(Module): ... def __init__(self, mode, input_size, hidden_size, num_layers=1, bias=True, batch_first=False, ...原创 2020-02-19 11:45:45 · 7754 阅读 · 0 评论 -
pytorch针对图像数据增强的方法
原创 2019-12-30 13:54:22 · 789 阅读 · 1 评论 -
Pytorch中torch.nn.conv2d和torch.nn.functional.conv2d的区别
在写 PyTorch 代码时,我们会发现在 torch.nn.xxx 和 torch.nn.functional.xxx 中有一些功能重复的操作,比如卷积、激活、池化。这些操作有什么不同?各有什么用处?首先可以观察源码:eg:torch.nn.Conv2dCLASS torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride...原创 2019-12-28 17:11:15 · 8206 阅读 · 6 评论 -
pip、conda下如何下载、更新和删除pytorch
今天我们主要汇总如何使用使用ubuntu,CentOS,Mac更新Pytorch和torchvision,以及如何查看当前python版本。本教程只汇集如何使用pip,conda更新以及卸载Pytorch和torchvision,希望对您有所帮助!一、更新Pytorch和torchvision我们主要讲解如何所以pip,conda更新Pytorch和torchvision,这样你就可以使用ub...原创 2019-12-24 15:36:21 · 3665 阅读 · 0 评论 -
cudnn下载解压后的文件应该放到CUDA文件中的位置
cudnn下载之后不用安装,解压即可。下载解压缩后,将其文件夹下cndnn64_7.dll cudnn.h cudnn.lib分别复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\binC:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\include...原创 2019-12-24 10:44:48 · 12659 阅读 · 0 评论 -
PyTorch 中的 LSTM模型参数解释
LSTM总共有7个参数:前面3个是必须输入的1:input_size: 输入特征维数,即每一行输入元素的个数。输入是一维向量。如:[1,2,3,4,5,6,7,8,9],input_size 就是92:hidden_size: 隐藏层状态的维数,即隐藏层节点的个数,这个和单层感知器的结构是类似的。这个维数值是自定义的,根据具体业务需要决定,如下图:input_size:就是输入层,左边蓝色方...原创 2019-12-19 15:52:50 · 5153 阅读 · 0 评论 -
神经网路:pytorch中Variable和view参数解析
在PyTorch中计算图的特点总结如下:autograd根据用户对Variable的操作来构建其计算图。requires_gradvariable默认是不需要被求导的,即requires_grad属性默认为False,如果某一个节点的requires_grad为True,那么所有依赖它的节点requires_grad都为True。volatilevariable的volatile属性默认...原创 2019-12-18 17:11:46 · 2044 阅读 · 0 评论