- 博客(5)
- 收藏
- 关注
原创 RNN神经网络与LSTM
在RNN神经网络中,前一个层的输出结果会影响到后一个层的输出;相比于CNN而言,RNN可以获取前面更多的有用信息。即循环神经网络的每层输出结果都是被前面的时间步所影响总共有三个门:遗忘门、输入门、输出门遗忘门-----> Ct-1中的有用信息,也就是上一单元中单元状态信息输入门-----> 当前时刻的有用信息遗忘门与输入门两者共同得到当前单元的有用信息输出门----->获得隐状态的有用信息(ht)
2024-09-21 19:56:01
2093
原创 3DCNN-视频行为检测
① 新增了学习率的更新策略,其中参数表示为,每达到一定的训练次数,其学习率会将其相乘,使得在梯度下降的过程中,损失函数会慢慢变小;注意: 在第一个块内步幅是(1,2,2)其中第一个代表的是特征图深度,因为深度比高宽要小的多,所以在一开始需要小的步幅进行调整,以免直接触底。2. 在每个数据集文件中,会将分类中的每个视频创建单独的文件夹,以视频名命名,文件中所存储的就是划分好的视频帧。这个对象可以直接接受输入并返回处理后的输出,同时dim=1是指在行进行处理,最终返回输出结果的概率,并赋值。
2024-09-21 09:42:38
1649
3
原创 深度学习中的基础理论知识
1. 何为梯度将整个算法类别为大山,则大山的陡峭程度就为梯度,如果一直沿着陡峭的地方走,则一定会走到山下;也就是梯度下降2.梯度下降的主要原理(1)确定一个小目标--------预测函数机器学习的本质就是:学习算法、发现规律、改进模型其中上图的 y=wx 这条直线,就是预测函数,则我们需要通过机器学习来计算出w同时,可以根据图中的样本点距离 y=wx 的误差大小来调整w(2)找到差距--------代价函数计算均方误差:即误差平方和的平均值;
2024-09-11 22:19:06
890
原创 残差神经网络 ResNet
这样新的网络就能更快速的学习新的数据集的高维特征。通过最大池化下采样得到的输出【56,56,64】,而所需的shape为【56,56,256】,此时conv2x第一层需要使用虚线残差结构,但仅改变特征矩阵的深度,不改变高宽。1. 目的:使我们的一批(Batch)数据所对应的数据的feature map(所对应的特征矩阵)每一个通道所对应的维度满足均值为0,方差为1的分布规律。1.左边针对与网络层数较少的的网络所使用的的残差结构(34),右边主要针对与网络层数较多的网络所使用的结构(50/101/152)。
2024-09-08 17:42:25
2128
原创 Pytorch基础
1.transforms和tensorboard是两种不同的工具,分别用于图像预处理和模型训练过程的可视化;所以请分清两者的作用------> 图像等数据经过transforms中的函数后,在tensorboard中进行可视化展示2.tansforms学习技巧-----------如何学习其中的函数注意所定义的数据所返回的类型注意在dataloader中,imgs, targets与writer.add_images的写法!!!代码示例# 准备测试数据集。
2024-09-08 10:22:50
1693
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人