自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 365打卡第9周——J4:ResNet与DenseNet结合探索

ResNet和DenseNet的算法各自的特点:1. ResNet:通过建立前面层与后面层之间的“短路连接”(shortcut),其特征则直接进行sum操作,因此channel数不变;2.DenseNet:通过建立的是前面所有层与后面层的紧密连接(dense connection),其特征在channel维度上的直接concat来实现特征重用(feature reuse),因此channel数增加;

2025-03-28 21:50:03 356

原创 363打卡第13周——J3:DenseNet算法实战与解析

为啥这个准确率这么高,看起来好奇怪啊,是哪里出问题了吗。准确率跳动比较大可以用函数返回进行比较。

2025-03-15 00:05:09 347

原创 365打卡第J2周——J2:ResNet50V2算法实战与解析

注意:ResNet50V2、ResNet101V2与ResNet152V2的搭建方式完全一样,区别在于堆叠Residual Block的数量不同。准确率跳动比较大可以用函数返回进行比较。

2025-03-01 20:10:09 360

原创 365打卡第11周——J1:ResNet-50算法实战与解析

这次要自己根据tensorflow编写Pytorch框架,由于tensorflow的框架不是特别熟悉,所以还是用了之前学过的模型,但是训练的结果不是很好;了解了残差结构的应用和基本结构。

2025-02-16 23:33:22 234

原创 365打卡第P10周——P10:Pytorch实现车牌识别

在神经网络中,如果我们不确定一个维度的大小,但是希望在计算中自动推断它,可以使用 -1。这个-1告诉 PyTorch 在计算中自动推断这个维度的大小,以确保其他维度的尺寸不变,并且能够保持张量的总大小不变。例如,[-1, 7, 69]表示这个张量的形状是一个三维张量,其中第一个维度的大小是不确定的,第二维大小为7,第三大小分别为69。-1的作用是使得总的张量大小等于7 * 69,以适应实际的输入数据大小。在实际的使用中,通常-1用在批处理维度上,因为在训练过程中,批处理大小可能会有所不同。

2025-02-10 23:43:15 1458

原创 365打卡第9周——P9:YOLOv5-Backbone模块实现

本次内容选用的是YOLOv5算法中的Backbone模块搭建网络,上次是C3模块,整体框架都相似只是模块不一样。

2025-01-24 00:36:55 252

原创 365打卡第8周——P8:YOLOv5-C3模块实现

了解C3的结构,方便后续YOLOv5算法的学习。

2025-01-09 23:30:47 409

原创 365打卡第7周——P7:马铃薯病害识别(VGG-16复现)

【代码】365打卡第7周——P7:马铃薯病害识别(VGG-16复现)

2024-12-30 00:25:28 358

原创 365打卡第6周——P6:VGG-16算法-Pytorch实现人脸识别

VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。尝试调整了学习率,但是还是准确率很低,之后再学习一下别人怎么调整的。

2024-12-14 23:00:15 896

原创 365打卡第5周——P5:Pytorch实现运动鞋识别

等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。预测结果应该是adidas,但是我的一直是test,这个应该怎么调整。对数据维度进行扩充。给指定位置加上维数为一的维度。或者调用官方动态学习率接口,与上面方法等价。对数据的维度进行压缩,去掉维数为1的的维度。在特定的 epoch 中调整学习率。根据自己定义的函数更新学习率。

2024-12-11 13:27:03 654

原创 365打卡第4周——P4:猴痘病识别

在PyTorch的ImageFolder数据加载器中,根据数据集文件夹的组织结构,每个文件夹代表一个类别,class_to_idx字典将每个类别名称映射为一个数字索引。它允许你以小批次的方式迭代你的数据集,这对于训练神经网络和其他机器学习任务非常有用。2、调整 Dropout 概率:将 Dropout 概率从 0.5 调整为 0.4,减少训练过程中过多的神经元丢弃。3、增加全连接层的层数:增加一个隐藏层(fc2),以便提升模型的非线性表示能力。:增加模型深度、增加卷积层的输出通道数,以增强特征提取能力。

2024-12-05 00:42:42 749

原创 365打卡第3周——P3:Pytorch实现天气识别

更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用。具体来说,torch.tensor是autograd包的基础类,如果你设置tensor的requires_grads为True,就会开始跟踪这个tensor上面的所有运算,如果你做完运算后使用。,所有的梯度就会自动运算,tensor的梯度将会累加到它的.grad属性里面去。

2024-11-27 00:21:31 1062

原创 365打卡第2周——P2:CIFAR10彩色图片识别

是一个 PyTorch 数据加载器(DataLoader),用于加载训练数据集。通常情况下,数据加载器会将数据集分成小批量(batches)进行处理。,否则的话,有输入数据,即使不训练,它也会改变权值。如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加。是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。的作用是启用 Batch Normalization 和 Dropout。是保证BN层能够用到每一批数据的均值和方差。

2024-11-15 18:46:56 1046

原创 365打卡第1周——P1:Pytorch实现mnist手写数字识别

是一个 PyTorch 数据加载器(DataLoader),用于加载训练数据集。函数的功能是从矩阵shape中,去掉维度为1的。例如一个矩阵是的shape是(5, 1),使用过这个函数后,结果为(5, )。,否则的话,有输入数据,即使不训练,它也会改变权值。是Pytorch自带的一个数据加载器,结合了数据集和取样器,并且可以提供多个线程处理数据集。是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。变量将包含相应的标签数据。是保证BN层能够用到每一批数据的均值和方差。

2024-11-05 21:32:56 803 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除