
机器学习+机器学习实战
Brignt_run
喜欢模式识别、图像处理和计算机视觉
展开
-
【深度之眼】Pytorch框架班第五期-Week3【任务1】第二节:模型容器与AlexNet构建
模型容器与AlexNet构建模型容器(Containers)容器之Sequentialnn.Sequential是nn.module的容器,用于按顺序包装一组网络层,使这组网络层被看作为一个整体,可以看做成模型的一个子模块。class LeNetSequential(nn.Module): def __init__(self, classes): super(LeNetSequential, self).__init__() self.features =原创 2020-08-03 15:45:46 · 202 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务1】第一节:数据读取机制Dataloader与Dataset
人民币二分类机器学习模型训练步骤DataLoader 与 DatasetDataLoadertorch.utils.data.DataLoaderData(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_list=False, timeout=0, w原创 2020-07-28 21:29:51 · 377 阅读 · 1 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务1第二节:张量简介与创建
张量张量与矩阵、向量、标量的关系是怎么样的?标量(scalar)一个标量表示一个0维的数据,没有方向。向量(vector)向量是一个一维的数组,有一个方向,数据沿一个方向排列存放。矩阵(matrix)矩阵是一个二维数组,如灰度图像。有行和列两个维度,分别对应图像的高和宽。无法表示RGB图像。张量(tensor)张量是一个多维数组,它是标量、向量、矩阵的高维扩展。如RGB图像,第一个维度为图像的高,第二个维度为图像的宽,第三个维度为色彩通道。张量为一个多维数组。关系:标量是0阶张量原创 2020-07-27 16:40:18 · 255 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务3第一节:autograd与逻辑回归
torch.autogradautograd-自动求导系统torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False)功能:自动求取梯度tensors: 用于求导的张量, 如lossretain_graph: 保存计算图create_graph: 创建导数计算图,用于高阶求导grad_tensors: 多梯度权重retain_graphimport torchimp原创 2020-07-24 18:28:54 · 343 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务2第二节:计算图与动态图机制
计算图与动态图机制计算图计算图是用来描述运算的有向无环图计算图有两个主要元素:节点(Node)和边(Edge)节点表示数据, 如向量, 矩阵, 张量,边表示运算, 如加减乘除卷积等用计算图表示: y=(x+w) * (w + 1)a = x + wb = w + 1y = a * b计算图与梯度求导y = (x + w) * (w + 1)a = x + wb = w + 1y = a * by对w求导:叶子节点: 用户创建的节点称为叶子节点,如w和xis_leaf:原创 2020-07-23 22:13:32 · 302 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-深度之眼Week1任务2第一节:张量操作与线性回归
张量操作与线性回归张量的操作:拼接、切分、索引和变换一、张量的拼接与切分1.1 torch.cat(tensors, dim=0, out=None)功能:将张量按维度dim进行拼接tensors: 张量序列dim: 要拼接的维度1.2 torch.stack(tensors, dim=0, out=None)功能:在新创建的维度dim上进行拼接tensors: 张量序列dim: 要拼接的维度1.3 torch.chunk(input, chunks, dim=0)功能: 将原创 2020-07-23 21:25:23 · 360 阅读 · 0 评论