- 博客(166)
- 收藏
- 关注

原创 【注意力机制】CBAM详解(文末附代码)
论文题目:《CBAM: Convolutional Block Attention Module》论文地址:https://arxiv.org/pdf/1807.06521.pdf1. 前言 论文(2018年)提出了一种轻量的注意力模块( CBAM,Convolutional Block Attention Module ),可以在通道和空间维度上进行 Attention 。论文在 ResNet 和 MobileNet
2021-03-10 21:56:46
159176
35

原创 【人脸识别】FaceNet详解
论文题目:《FaceNet: A Unified Embedding for Face Recognition and Clustering》论文地址:FaceNet1、概述 FaceNet(A Unified Embedding for Face Recognition and Clustering)直接把输入图像变成欧式空间中的特征向量,两个特征向量间的欧式距离就可以用来衡量两者之间的相似度。可以用在人脸验证、识别和
2021-02-28 02:48:08
23802

原创 【轻量级网络】MobileNet-v2详解
论文:《Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation》论文链接:https://arxiv.org/abs/1801.04381前文链接:MobileNet-v1详解– 概述 MobileNet-v2的主要思想就是在v1的基础上引入了线性瓶颈 (Linea
2020-12-20 15:56:47
31283
1
原创 【Debug记录】[libprotobuf FATAL google/protobuf/stubs/common.cc:83] This program was compiled against
debug: [libprotobuf FATAL google/protobuf/stubs/common.cc:83]
2024-04-15 11:42:05
576
原创 【自监督学习】对比学习(Contrastive Learning)介绍
我们知道,标注数据总是有限的,就算ImageNet已经很大,但是很难更大,那么它的天花板就摆在那,就是有限的数据总量。NLP领域目前的经验应该是:自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游任务效果来说越好。这可能是自从Bert出现以来,一再被反复证明的真理,如果它不是唯一的真理,那也肯定是最大的真理。
2023-03-15 00:44:58
14294
2
原创 【人脸识别】DDL:数据分布知识蒸馏思想,提升困难样本(遮挡、低分辨率等)识别效果
DDL:数据分布知识蒸馏思想,提升困难样本(遮挡、低分辨率等)识别效果
2023-02-27 23:38:48
967
原创 【人脸识别】CurricularFace:自适应课程学习人脸识别损失函数
【人脸识别】CurricularFace:自适应课程学习人脸识别损失函数
2023-02-25 16:15:52
1890
原创 【人脸识别】Partial-FC:让你在一台机器上训练1000万个id人脸数据集成为可能!
Partial-FC:让你在一台机器上训练1000万个id人脸数据集成为可能!
2023-02-15 19:06:22
1328
原创 【人脸识别/轻量级模型】VarGFaceNet:适用于人脸识别的轻量级网络模型(文末附代码)
VarGFaceNet:适用于人脸识别的轻量级网络模型
2023-02-07 10:37:26
1932
3
原创 【人脸识别/轻量级模型】MobileFaceNet:适用于人脸识别的轻量级网络模型(文末附pytorch代码)
MobileFaceNet:用于人脸识别的轻量级网络模型
2023-02-06 19:22:03
6095
5
原创 【Debug记录】RuntimeError: Expected to have finished reduction in the prior iteration before starting
Debug记录
2023-01-30 17:01:07
648
原创 【Debug记录】跑YOLOv5时报错:AssertionError: Image Not Found
跑YOLOv5时报错:AssertionError: Image Not Found
2022-12-14 17:00:10
2578
原创 【Debug记录】跑YOLOv5时报错AttributeError: Can‘t get attribute ‘SPPF‘ on <module ‘models.common‘ from ‘D:\\P
运行YOLOv5时报错:AttributeError: Can't get attribute 'SPPF' on
2022-12-14 16:52:05
1842
原创 【Debug记录】pytorch转onnx报错:[ CUDALongType{1} ]) of traced region did not have observable data dependenc
[ CUDALongType{1} ]) of traced region did not have observable data dependence with trace inputs; this probably indicates your program cannot be understood by the tracer
2022-12-12 21:18:22
1240
原创 【Debug记录】AssertionError: Default process group is not initialized
AssertionError: Default process group is not initialized
2022-12-12 21:12:28
771
原创 【Debug记录】Pytorch搭建神经网络时报错‘NotImplementedError’
raise NotImplementedError
2022-12-12 19:58:28
1516
2
原创 【人脸识别】MVFace:一个优于CosFace和ArcFace的人脸识别损失
一个优于CosFace和ArcFace的人脸识别损失:MVface。MVFace可以自适应地重点关注误分类的特征向量,以此指导判别性特征学习。这也是首次将特征margin的优点和特征挖掘的优点集中在一个统一的损失函数里面。
2022-12-05 00:08:47
1298
原创 【人脸识别】ElasticFace:基于Cosface和ArcFace改进的弹性Margin loss
cosface和arcface等常用的人脸识别损失都是使用固定的margin。这样的学习目标对于具有不一致的类间和类内变化的真实数据是不现实的,这可能会限制人脸识别模型的判别性和泛化性。 ElasticFace提出弹性惩罚margin loss 来放松固定惩罚margin约束,该损失允许灵活地推动类可分离性。主要思想是在每次训练迭代中利用从正态分布中抽取的随机margin。这旨在为决策边界提供extract and retract的机会,以便为灵活的类可分离性学习留出空间。
2022-12-04 23:05:35
1376
原创 【人脸识别】Octuplet Loss:一个可以提高低分辨率和跨分辨率人脸识别效果的损失
论文提出的八元组损失只需要在现有的模型上进行微调就可以显着改进众多流行数据集上的跨分辨率和低分辨率人脸验证效果,同时在高分辨率图像上保持类似的性能。
2022-12-04 16:31:37
1129
原创 【图像分类损失】PolyLoss:一个优于 Cross-entropy loss和Focal loss的分类损失
受如何逼近函数的启发,通过泰勒展开,提出了一个名为PolyLoss的简单算法来将损失函数设计为多项式函数的线性组合。PolyLoss可以让Polynomial bases(多项式基)的重要性很容易地根据目标任务和数据集进行调整,同时也可以将交叉熵损失和Focal loss作为PolyLoss的特殊情况。实验结果表明,PolyLoss 中的最优选择确实是取决于任务和数据集。**只需引入一个额外的超参数并添加一行代码**,PolyLoss在多种任务上效果都明显优于交叉熵损失和Focal Loss。
2022-12-03 21:59:53
1500
原创 【图像分类】SimLoss:一个适合于年龄估计的分类损失
基于交叉熵损失(cross- entropy)改进的适用于年龄估计的图像分类损失--SimLoss
2022-12-03 00:48:17
1592
2
原创 【学习率预热】Warm up
1.什么是warm up Warmup是在ResNet论文中提到的一种学习率预热的方法,它在训练开始的时候先选择使用一个较小的学习率,训练了一些epoches或者steps(比如4个epoches,10000steps),再修改为预先设置的学习来进行训练。2.为什么使用warm up 由于刚开始训练时,模型的权重(weights)是随机初始化的,此时若选择一个较大的学习率,可能带来模型的不稳定(振荡),选择Warmup预热学习率的方式,可以使得开始训练的几个epoches或者一些steps内学习率
2021-11-24 15:42:03
886
原创 Keras.metrics中的accuracy总结
1) accuracy该accuracy就是大家熟知的最朴素的accuracy。比如我们有6个样本,其真实标签y_true为[0, 1, 3, 3, 4, 2],但被一个模型预测为了[0, 1, 3, 4, 4, 4],即y_pred=[0, 1, 3, 4, 4, 4],那么该模型的accuracy=4/6=66.67%。2) binary_accuracybinary_accuracy和accuracy最大的不同就是,它适用于2分类的情况。从上图中可以看到binary_accuracy的计算除了y
2021-11-12 21:30:16
928
原创 【opencv图像基础】图像常见的通道模式:RGB、YUV、HSV
1. RGB2. YUV YUV是被电视系统所采用的一种颜色编码方法。RGB 信号经过矩阵变换得到亮度信号Y和两个色差信号R- Y(即U)、B-Y(即V)。 YUV色彩空间十分重要是因为表示亮度的Y和表示颜色 的U、V是分离的。如果只有Y信号分量而没有U、V信 号分量,那么这样表示的图像就是黑白灰度图像。3. HSV HSV是一种将
2021-10-02 19:07:16
3974
原创 【python】python的argparse模块parse_known_args()方法的使用
parse_known_args()方法的用处就是有些时候,你的选项配置可能不会在一个函数或包中调用完成。在很多时候,我们可能会需要根据一些输入的选项,比如在深度学习中,我们可能会根据传入的模型设置–model来决定我们调用的是那个模型代码,然后在该模型中还会有一部分的选项设置。那么这时候就会出现一种情况就是运行命令中会传入所有需要设置的选项值,但是有时候仅获取到基本设置时可能要进行一些操作然后才继续导入剩下的参数设置。&
2021-08-19 16:04:23
1915
原创 Git基本理论、项目搭建、文件操作以及分支介绍
1. Git基本理论1.1. 三个区域 Git本地有三个工作区域:工作目录(Working Directory)、暂存区(Stage/Index)、资源库(Repository或Git Directory)。如果在加上远程的git仓库(Remote Directory)就可以分为四个工作区域。文件在这四个区域之间的转换关系如下:● Workspace:工作区,就是你平时存放项目代码的地方。● Index / Sta
2021-08-19 15:09:29
277
原创 什么是版本控制?为什么要有版本控制?常用的版本控制工具有哪些?
1. 什么是版本控制? 版本控制(Revision control)是一种在开发的过程中用于管理我们对文件、目录或工程等内容的修改历史,方便查看更改历史记录,备份以便恢复以前的版本的软件工程技术。简单来说就是用于管理多人协同开发项目的技术。2. 为什么要有版本控制? 没有进行版本控制或者版本控制本身缺乏正确的流程管理,在软件开发过程中将会引
2021-08-19 14:33:56
15266
原创 【激活函数】PRelu激活函数
论文地址:https://arxiv.org/pdf/1502.01852.pdf论文题目:Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet ClassificationPRelu激活函数 PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下
2021-08-06 17:18:04
1740
原创 【Pytorch】Pytorch的自动混合精度(AMP)
1. 什么是自动混合精度训练? 我们知道神经网络框架的计算核心是Tensor,也就是那个从scaler -> array -> matrix -> tensor 维度一路丰富过来的tensor。在PyTorch中,我们可以这样创建一个Tensor:>>> import torch>>> gemfield = torch.zeros(70,30)>>&
2021-08-06 15:53:58
1179
原创 Linux创建软连接
软连接的功能是为某一个文件在另外一个位置建立一个同不的链接,这个命令最常用的参数是-s, 具体用法是:ln -s 源文件 目标文件 当 我们需要在不同的目录,用到相同的文件时,我们不需要在每一个需要的目录下都放一个必须相同的文件,我们只要在某个固定的目录
2021-07-13 11:41:29
11205
转载 【深度学习】Batch Normalization详解
Batch Normalization 学习笔记 原文地址:http://blog.csdn.net/hjimce/article/details/50866313 作者:hjimce 一、背景意义 本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reduci...
2021-04-23 22:06:25
656
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人