- 博客(51)
- 资源 (16)
- 问答 (2)
- 收藏
- 关注
原创 论文阅读笔记:Generative Modeling by Estimating Gradients of the Data Distribution
论文《Denoising Diffusion Implicit Models》来源:NeurIPS 2019。
2025-04-16 11:56:34
911
1
原创 不同图像的傅立叶变换结果交叉逆变换
论文《Fourier Priors-Guided Diffusion for Zero-Shot Joint Low-Light Enhancement and Deblurring》中使用不同图像的傅立叶变换交叉结果进行逆变换,在此验证一下。验证代码和结果如下所示。
2025-04-09 22:55:02
234
原创 从传递函数到PID控制器
在过程控制中,按偏差的比例(P,Proportional)、积分(I,Integral)和微分(D,Differential)进行控制的PID控制器(亦称PID调节器)是应用最为广泛的一种自动控制器。在增益为0dB处,对应穿越频率,对应着相位裕度。增益裕度是增益响应曲线在相位为-180度的频率点与0dB之间的增益差。下图在穿越频率处(0dB),相位裕度为35°。在相位为-180°处,增益裕度为-13,可判断为不稳定系统。在相位为-180°处,增益裕度为9,可判断为稳定系统。
2025-04-07 23:33:32
545
原创 傅立叶变换
f(t)为非奇非偶函数时,函数在在正、余弦函数上的投影均不为0,也就是说傅立叶变换中红的an!=0.傅立叶变换中的F(w)=2/(an-ibn)(w>0)。也就是说F(w)的实部和虚部均不为0.f(t)为奇函数,奇函数在在余弦函数上的投影为0,也就是说傅立叶变换中红的an=0且bn!=0.傅立叶变换中的F(w)=2/(an-ibn)(w>0)。也就是说F(w)的实部为0.单位阶跃函数和单位冲激函数。常见函数的傅立叶变换。
2025-04-07 16:46:25
248
原创 论文阅读笔记:LightenDiffusion: Unsupervised Low-Light Image Enhancement with Latent-Retinex Diffusion Mode
来源 :ECCV 2024论文链接2:模型框架如Fig2所示。
2025-04-05 21:17:54
687
1
原创 论文阅读笔记:Denoising Diffusion Implicit Models (5)
这里使用中的σt\sigma_tσt是可以自己定义的量。有两种特殊的情况:1、σt2=0\sigma_t^2=0σt2=0:此时,xt−1x_{t-1}xt−1满足公式(3)xt−1=αt−1⋅xt−1−αt⋅ztαt+1−αt−1−σt2⋅zt+σt2ϵt=αt−1⋅x0+1−αt−1⋅zt\begin{equation}\begin{split} x_{t-1}&=\sqrt{\alpha_{t-1}}\cdot\frac{x_t-{\sqrt{1-\alpha_t}\cdot z_t
2025-04-05 14:02:50
948
1
原创 论文阅读笔记:Denoising Diffusion Implicit Models (4)
【代码】论文阅读笔记:Denoising Diffusion Implicit Models (4)
2025-04-02 13:37:32
622
1
原创 论文阅读笔记:Denoising Diffusion Implicit Models (3)
DDPM与DDIM的训练过程相同,因此DDPM训练的模型可以直接在DDIM当中使用,训练过程下所示。
2025-04-01 22:46:33
1200
1
原创 论文阅读笔记:Denoising Diffusion Implicit Models (1)
论文《Denoising Diffusion Implicit Models》来源:ICLR2021。
2025-03-24 15:17:10
306
1
原创 论文阅读笔记:Denoising Diffusion Probabilistic Models (3)
可以看出LLL总共分为了3项,首先考虑第一项L1L_1L1。L1=Ex1:T∼q(x1:T∣x0)(log[q(xT∣x0)p(xT)])=∫dx1:T⋅q(x1:T∣x0)⋅log[q(xT∣x0)p(xT)]=∫dx1:T⋅q(x1:T∣x0)q(xT∣x0)⋅q(xT∣x0)⋅log[q(xT∣x0)p(xT)]=∫dx1:T⋅q(x1:T−1∣x0,xT)⏟q(x1:T∣x0)=q(xT∣x0)⋅q(x1;T−1∣x0,xT)⋅q(xT∣x0)⋅log[q(xT∣x0)p(xT)]=∫(∫q(x
2025-03-23 22:14:35
973
1
原创 论文阅读笔记:Denoising Diffusion Probabilistic Models (2)
接论文阅读笔记:Denoising Diffusion Probabilistic Models (1)扩散模型的流程如下图所示,可以看出q(x0:T)q(x_{0:T})q(x0:T)为正向加噪音过程,pθ(x0:T)p_{\theta}(x_{0:T})pθ(x0:T)为逆向去噪过程。可以看出,逆向去噪的末端得到的图上还散布一些噪点。q(x0)q(x_0)q(x0):以MNIST数据集为例,x0x_0x0表示MNIST数据集中的图像,而q(x0)q(x_0)q(x0)就表示数据集MNIST
2025-03-21 09:32:38
600
1
原创 论文阅读笔记:Denoising Diffusion Probabilistic Models (1)
本文参考的一些博客:二重积分什么条件下可以化为两个定积分相乘?扩散模型的一些公式证明2024了,diffusion为什么一直没对手?迪哥详解diffusion扩散模型直观理解、数学原理、PyTorch实现 超越GANs的范式转变!扩散模型的开山之作:《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》来源:JMLR 2015论文连接1:http://ganguli-gang.stanford.edu/pdf/DeepUns
2025-03-15 11:16:06
427
1
原创 Diffusion-Probabilistic-Models环境配置
不过这样生成的数据集在转化时会报错,因此选择直接下载。运行下列代码或者直接在pycharm中开始训练。下载合适的版本,也就是2015年的版本。使用下列代码安装tables时报错。文件夹下会出现mnist.hdf5。下载完成后进入包里面,完成安装。之后,文件夹下会出现4个数据集。
2025-03-12 23:44:00
349
原创 DeFlow: Learning Complex Image Degradations from Unpaired Data with Conditional Flows (Unpaired)
论文地址:https://openaccess.thecvf.com/content/CVPR2021/papers/Wolf_DeFlow_Learning_Complex_Image_Degradations_From_Unpaired_Data_With_Conditional_CVPR_2021_paper.pdf代码地址:https://github.com/volflow/DeFlow
2024-10-14 09:36:16
230
原创 Ubuntu20.04配置NVIDIA+CUDA12.2+CUDNN【附所有下载资源】【亲测有效】【非常详细】
Ubuntu20.04配置NVIDIA+CUDA12.2+CUDNN【附所有下载资源】【亲测有效】【非常详细】_cuda 12.2 cudann-CSDN博客
2024-09-22 22:10:45
587
原创 YOLOv8的训练过程
最近看了YOLOv8的代码,模型并没有什么创新。不过模型变成了anchor-free,把模型的训练过程绘制成流程图了,记录一下。
2024-02-10 17:19:44
557
原创 记录一下trackformer的安装过程
这个过程就比较疑惑,因为有的时候可以成功,换了一个电脑,换了一个环境,就报错了。最后直接运行的时候,提示MultiScaleDeformableAttention。因此需要安装MultiScaleDeformableAttention。
2023-07-23 19:14:52
1661
原创 Faster RCNN流程图
由于Faster RCNN的源码比较复杂,所以没有使用代码绘制流程图,自己根据源码绘制的Faster RCNN流程图
2022-11-06 09:29:30
1459
原创 在autodl中的linux中,安装libjpeg-turbo
最近在使用auto-dl来做模型训练,训练时的图片读取使用以下代码import jpeg4pyimg = jpeg4py.JPEG(path).decode()然而,在使用jpeg4py时需要按照一系列的安装包,其中稍微麻烦的是libjpeg-turbo的安装,在此记录一下安装过程.1. 下载libjpeg-turbo安装包网址是:https://sourceforge.net/projects/libjpeg-turbo/files/下载对应的2.0.6版本,进去后找到以下安装包,其中dm
2022-05-23 18:23:32
1475
1
原创 目标检测之CSK(Exploiting the Circulant Structure of Tracking-by-detection with Kernels)
本文在MOSSE1的基础上,引入了Dense Sampling的采样方法和核函数。Visual Object Tracking using Adaptive Correlation Filters ↩︎
2022-04-01 18:59:44
897
1
原创 从傅里叶级数到傅里叶变换、离散傅里叶变换、快速傅里叶变换、二维傅立叶变换
引用自傅里叶系列(二)傅里叶变换的推导,在此基础上对一些细节重新整理了一下1、先把傅里叶级数转为指数形式三角函数形式:f(t)=a02+∑n=1∞(ancos(nωt)+bnsin(nωt)))a0=2T∫t0t0+Tf(t)dtan=2T∫t0t0+Tf(t)cos(nωt)dtbn=2T∫t0t0+Tf(t)sin(nωt)dt(1)\begin{aligned}f(t) &= \frac{a_0}{2}+\sum_{n=1}^{\infty}(a_n cos(n\omega t)+b_
2021-11-01 22:34:58
1731
原创 矩阵的特征值、特征向量、特征值分解、奇异值分解之间的关系
可逆矩阵A⋅A−1=A−1⋅A=EA\cdot A^{-1}=A^{-1}\cdot A = EA⋅A−1=A−1⋅A=E矩阵的几何意义是对一组向量进行变换,包括方向和模长的变化。而逆矩阵表示对其进行逆变化。正交矩阵正交矩阵满足AT⋅A=EA^{T}\cdot A = EAT⋅A=E,可得AT=A−1A^{T}=A^{-1}AT=A−1,因此AT⋅A=A⋅AT=EA^{T}\cdot A=A\cdot A^{T}=EAT⋅A=A⋅AT=E正交矩阵的列向量都是单位向量,且两两正交。对于行向量也是
2021-05-23 11:01:45
7398
原创 Ubuntu 18.04.05 下安装Tensorflow-GPU和OpenPose
这里写自定义目录标题Ubuntu 18.04.05系统安装Ubuntu 18.04.05系统安装1 使用DE系统盘制作软件制作启动盘2 等待制作完成3 开机启动不断的按F84 选择启动盘,点击确定5 点击Install Ubuntu6 点击Continue7 继续continue8 继续continue9 选择Something else,然后continue10 选择交换区swap area,点击OK11 给 / 分配空间,点击OK12 给/home分配
2021-01-24 16:57:53
1208
4
原创 关于深度学习优化器 optimizer 的选择,你需要了解这些
本文参了:https://www.leiphone.com/news/201706/e0PuNeEzaXWsMPZX.html,在本文基础上进行了重新排版,公式进行了重新编辑。本文将梳理:每个算法的梯度更新规则和缺点为了应对这个不足而提出的下一个算法超参数的一般设定值几种算法的效果比较选择哪种算法优化器算法简述:首先来看一下梯度下降最常见的三种变形 BGD,SGD,MBGD, ...
2020-07-06 22:58:11
598
CarND-Advanced-Lane-Lines-master
2018-07-02
CarND-Traffic-Sign-Classifier-Project_Grey
2018-07-02
CarND-Vehicle-Detection
2018-07-02
使用keras搭的模型,训练时候,使用相同的loss和metrics,但是输出却不一样
2020-04-30
keras模型的预测(predict)结果全是0
2020-03-01
TA创建的收藏夹 TA关注的收藏夹
TA关注的人