- 博客(67)
- 资源 (1)
- 收藏
- 关注
原创 『统计检验』一篇文章入门置信区间
也可以说,我有100%的把握估计我高考分数是 0-750,这里的置信区间是 [0,750],置信度肯定是100%以下提供的z表展示了z值与其对应概率之间的关系,反映的是正态分布单侧的概率。拿高考成绩举例,我有95%的把握估计我的高考分数是600-650。查z表(标准正态分布表,反映标准分与概率值之间的关系),确定z值。假设我们有一个随机抽样的样本,想要估计某个城市居民的平均收入。置信区间是[600,650],置信度是95%计算抽样样本的平均值和标准误差。是样本数据的标准差,确定置信水平/置信度。
2024-11-05 17:03:02
1424
原创 PyTorch核心概念:从梯度、计算图到连续性的全面解析(三)
view”使用与原始张量相同的内存块,因此该内存块中的任何更改都会影响所有视图以及与其关联的原始张量视图可以是连续的或不连续的。一个不连续的张量视图可以转换为连续的张量视图,并且会复制不连续的视图张量到新的内存空间中,因此数据将不再与原始数据块关联stride位置公式:给定一个strideABC(A,B,C)ABC,索引jkv(j, k, v)jkv在 1D 数据数组中的位置为A×jB×kC×vA×jB×kC×vview()和。
2024-11-05 15:35:29
1223
原创 PyTorch核心概念:从梯度、计算图到连续性的全面解析(二)
比如有的时候在一个变量已经参与了正向传播的计算,之后它的值被修改了,在做反向传播的时候如果还需要这个变量的值的话,我们肯定不能用那个后来修改的值吧,但没修改之前的原始值已经被释放掉了,我们怎么办?那些非叶子结点,是通过用户所定义的叶子节点的一系列运算生成的,也就是这些非叶子节点都是中间变量,一般情况下,用户不会去使用这些中间变量的梯度,所以为了节省内存,它们在用完之后就会被释放。, y 关于 x 的导数是1,和 x 无关),自然就不会去对比 b 前后的 version 了,所以不会报错。
2024-11-04 15:04:18
1130
原创 PyTorch核心概念:从梯度、计算图到连续性的全面解析(一)
在这个例子中,b 是用来计算 loss 的一个变量,我们在计算完 loss 之后,进行反向传播之前,修改 b 的值。这么做会导致相关的导数的计算结果错误,因为我们在计算导数的过程中还会用到 b 的值,但是它已经变了(和正向传播过程中的值不一样了)。当我们创建一个张量(tensor)的时候,如果没有特殊指定的话,那么这个张量是默认不需要求导的。虽然输入的训练数据是默认不求导的,但是神经网络中的所有参数,默认是求导的。举一个比较简单的例子,比如我们在训练一个网络的时候,我们从。
2024-11-04 14:00:22
862
原创 一篇文章入门梅尔频率倒谱系数
计算Mel刻度滤波器组Filter Banks由语音信号的性质和人类对这些信号的感知所驱动的;计算MFCC由一些机器学习算法的限制所驱动的计算量:MFCC是在FBank的基础上进行的特征区分度:FBank特征相关性较高(相邻滤波器组有重叠),MFCC具有更好的判别度信息量:Filter Banks包含比MFCC更多的信息如果机器学习算法不易受高度相关输入的影响,则使用Mel刻度滤波器组。如果机器学习算法易受相关输入的影响,则使用MFCC。
2024-10-29 19:44:29
1777
原创 一篇文章入门傅里叶变换
如果忽略表达倍数关系的系数,对应的含义也会发生变化,不再是质心,而是信号存在的时间越久,位置是质心位置乘以一个倍数,它的值就越大。按照上面的说明来记录绘出图像,记录每个缠绕频率(速度)对应的质心位置(在横坐标等于零点处有一个很大的值,只是因为原来的图像没有关于横轴对称,有一个偏移量)从最开始的 0.79圈/秒一直变化到1.55圈/秒,再到最后的恰好是3圈/秒,和原来的信号3次震荡/秒相同,此时会出现一个非常稳定的图像。我们可以看到,新图像的横坐标写的是频率(Frequency),即缠绕圆圈的速度。
2024-10-29 16:59:55
1168
原创 『扩散模型』一篇文章入门DDPM
文章目录扩散模型DDPMHow Do Diffusion-Based Image Generation Models Work?The Need For Generative ModelsBayesian InferenceWhat Are Diffusion Probabilistic Models?Itsy-Bitsy Mathematical Details Behind Denoising Diffusion Probabilistic ModelsMathematical Details Of T
2024-10-25 14:43:23
841
2
原创 『扩散模型』参数化之v-prediction
提供了一个更平滑和稳定的优化目标(即提供了更稳定的梯度信号),因为它反映的是数据和噪声之间的动态关系,变化率信息本身可以捕捉到系统的局部信息。-prediction,即通过预测噪声计算损失并更新扩散模型的参数。自从 DDPM 以来,扩散模型的参数化形式一般都是。本身是随机的,直接优化可能会导致大的不确定性。(噪声强度随时间的变化过程)的情况下,噪声点。往往会遇到不稳定或不易学习的问题:噪声。v-prediction:在给定数据。表示数据样本被噪声污染的速度),定义。
2024-10-24 11:42:17
2167
原创 python中使用import时令人恼火的相对导入和绝对导入:ImportError: attempted relative import with no known parent package
当你尝试将一个脚本作为模块导入时,python会忽略脚本中的if __name__ == "__main__"块下的代码,因为这部分代码只有在脚本直接运行时才会执行。在python中,package/module.py和python -m package.module这两种运行方式有着根本的区别,主要涉及到模块的导入机制和Python的包结构。但是,if __name__ == "__main__"块下的代码不会被执行,因为它只有在script.py被直接运行时才会执行。
2024-10-21 14:01:39
692
原创 『扩散模型』一篇文章入门随机微分方程SDE
文章目录随机微分方程SDE标准布朗运动SDE加噪SDE去噪Score Matching参考文献随机微分方程SDE笔者建议,学完DDPM再来看SDE的作用和推导过程标准布朗运动在学习随机微分方程之前,我们先来看一下什么是标准布朗运动假设有一个一维的直线,有个小人从原点出发,每次随机地选择向左走1格或者向右走1格,且向左走和向右走的两个选项,被选择的概率相等→\rightarrow→用StS_tSt代表小人离原点的距离,ttt代表代表选择的次数,如果选择的次数越多,那么StS_tSt将会逐渐服从一
2024-10-20 12:59:30
2315
1
原创 PyTorch中令人恼火的tensor
view”使用与原始张量相同的内存块,因此该内存块中的任何更改都会影响所有视图以及与其关联的原始张量视图可以是连续的或不连续的。一个不连续的张量视图可以转换为连续的张量视图,并且会复制不连续的视图张量到新的内存空间中,因此数据将不再与原始数据块关联stride位置公式:给定一个stride(A,B,C),索引 (j, k, v) 在 1D 数据数组中的位置为 (A∗jB∗kC∗vA∗jB∗kC∗vview() 不能应用于 '非连续的张量/视图,它返回一个视图;
2024-07-20 19:13:48
717
原创 一篇文章入门主成分分析PCA
文章目录基本概念事件随机变量独立同分布离散型随机变量伯努利分布(两点分布)二项分布几何分布泊松分布连续型随机变量正态分布期望方差标准化协方差相关系数线性组合特征值和特征向量特征值分解对称矩阵的特征值分解齐次线性方程组单位向量基向量矩阵的秩最高阶非零子式正定矩阵正交矩阵正交基逆矩阵伴随矩阵奇异值分解主成分分析基本概念事件事件:某种情况的“陈述” ⇒\Rightarrow⇒ 事件A:掷出的骰子为偶数点 ⇒\Rightarrow⇒ 事件A包含多种结果,每种结果都是一个基本事件 ⇒\Rightarrow⇒ 事
2024-07-02 10:44:56
1176
原创 聚类算法—DBSCAN算法
2、20分钟学会DBSCAN聚类算法:https://cloud.tencent.com/developer/article/1664886。1、图解机器学习 | 聚类算法详解:https://www.showmeai.tech/article-detail/197。的空间聚类算法:DB-SCAN可以找到样本点的全部密集区域,把这些密集区域当做一个一个的聚类簇。,并把这些密集区域当做一个一个的聚类簇。DBSCAN算法可以找到样本点的。DBSCAN算法是一个。
2024-06-03 16:45:29
1319
原创 性能优于BERT的FLAIR:一篇文章入门Flair模型
Flair是由Zalando Research开发的一个简单的自然语言处理(NLP)库。Flair的框架直接构建在PyTorch上,PyTorch是最好的深度学习框架之一。名称-实体识别(NER):它可以识别单词是代表文本中的人,位置还是名称。词性标注(PoS):将给定文本中的所有单词标记为它们所属的“词性”。文本分类:根据标准对文本进行分类(标签)。
2023-11-04 00:27:08
2007
原创 一篇文章入门KNN算法
因此,无论我们从哪里获取数据,我们都需要使其符合这些约束。该数据包含 30 部电影,包括七种类型的每部电影的数据及其 IMDB 评级。标签列全为零,因为我们不使用该数据集进行分类或回归。此外,在使用 KNN 算法时,电影之间的关系(例如演员、导演和主题)不会被考虑在内,因为捕获这些关系的数据在数据集中丢失了。因此,当我们对数据运行 KNN 算法时,相似性将仅基于所包含的类型和电影的 IMDB 评级。
2023-10-31 19:07:48
340
原创 flask入门(四)前后端数据传输
模块来自论文:《Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks》,使用孪生网络(Siamse Network)将两个文本映射到特征空间得到特征向量(384维):先把数据写进字典,字典整体进行传输。
2023-10-21 20:59:07
5184
1
原创 在使用SpringBoot时遇到的异常总结(持续更新...)
因为平时在写SpringBoot项目时,总是会遇到各种各样的异常,因此在这里记录一下,以便以后再遇到相同的错误时能够有一个参考。
2023-09-18 13:47:41
312
原创 classification_report
行名:“类别(0:错误;1:正确)”、“准确率(accuracy)”、“算术平均(macro avg)”、“加权平均(weighted avg)”列名:“精确率(precision)”、“召回率(recall)”、“F1值(f1-score)”、“样本数(support)”想要理解什么是精确率、什么是召回率、什么是F1值,我们首先需要了解混淆矩阵。weighted avg:本身的比例乘以该样本占全部样本的比例。若一致,如副对角线上,则为T;凡是预测为1的都是阳性-P,凡是预测为0的都是隐性-N。
2023-09-14 23:48:08
288
原创 使用SSH通过FinalShell远程连接Ubuntu服务器
我这里的端口号之所以是11022,是因为我使用了Docker容器,Ubuntu系统是Docker容器中的一个镜像,我在Docker中对端口进行了一个映射:11022—>22。用户名是上面我们添加的用户chuchu,密码是自己设置的。Linux系统是一个多用户多任务的分时操作系统,任何一个需要使用系统资源的用户,都必须向系统管理员申请一个账号,然后以这个账号的身份进入系统。其中,username是我们想要添加到sudo组的用户的用户名。其中,username是我们想要添加的新用户的用户名。
2023-09-12 21:05:38
3039
1
原创 processing:使用processing.net向flask发送请求并接收响应
举个例子,假设在浏览器中输入http://example.com/ajax并访问,那么浏览器会发送一个GET /ajax HTTP/1.1的HTTP请求给example.com服务器的/ajax路径,服务器接收到请求后,会寻找对应的资源或处理程序,并将响应内容返回给浏览器,浏览器根据响应内容渲染页面或执行相应的操作。当客户端发送一个HTTP请求时,它需要知道请求要连接的服务器的位置,也就是请求的目标。是HTTP请求头或响应头的一部分,用于指示请求体或响应体的长度,以字节为单位。
2023-07-19 00:43:08
420
原创 你真的理解PyTorch中的dimension嘛?
Numpy中的sum()方法和PyTorch中的sum()方法几乎相同,除了PyTorch中的dim在Numpy中被称作axis之外。我们首先指定行(2行),然后指定列(3列)。我们可以得出一个结论,第一个维度(dim=0)用于行,第二个维度(dim=1)用于列。当我们观察3D张量的形状时,我们会注意到新的维度被预处理并占据第一个位置(下面用粗体显示),即dim=0代表第三个维度。这个三维张量的第一个维度(dim=0)是最高的,包含3个二维张量。当我们描述二维张量的形状时,我们说它包含一些行和一些列。
2023-05-09 13:44:08
461
原创 强化学习之入门笔记(二)
关于AC,很多书籍和教程都说AC是DQN和PG的结合。个人觉得道理是怎么个道理,但其实是不够清晰,也很容易产生误读,甚至错误理解ACPG利用带权重的梯度下降方法更新策略,而获得权重的方法是蒙地卡罗计算G值蒙地卡罗需要完成整个游戏过程,直到最终状态,才能通过回溯计算G值,这使得PG方法的效率被限制那我们可不可以更快呢?相信大家已经想到了,那就是改为TD但改为TD还有一个问题需要解决:在PG,我们需要计算G值;那么在TD中,我们应该怎样估算每一步的Q值呢?
2023-03-25 19:09:25
692
原创 强化学习之入门笔记(一)
上面的定义理解起来好难,我们用“影分身”大法,理解起来就容易多了我们从S点出发,并影分身出若干个自己;每个分身按照当前的策略选择行为;每个分身一直走到最终状态,并计算一路上获得的所有奖励总和;我们计算每个影分身获得的平均值,这个平均值就是我们要求的V值。用大白话总结就是:从某个状态,按照策略 ,走到最终状态很多很多次;最终获得奖励总和的平均值,就是V值【敲黑板】1. 从V值的计算,我们可以知道,V值代表了这个状态的今后能获得奖励的期望。2. V值跟我们选择的策略有很大的关系。
2023-03-24 21:17:59
1284
原创 深度文本分类之DPCNN
可以看出,“狗中赤兔”在传递过程中信息是不断减少的,腾哥获得了最多的信息,而玲姐获得的最少,这就类似于浅层网络获得的信息多,而深层少,最终深层网络无法理解传来的信息,也就是玲姐猜不出来题。貌似我们只要无脑地增加网络的层数,我们就能从此获益,但实验数据给了我们当头一棒。首先,由于我们在初始化深度CNN时,往往各层权重都是初始化为一个很小的值,这就导致最开始的网络中,后续几乎每层的输入都是接近0,这时网络的输出自然是没意义的,而这些小权重同时也阻碍了梯度的传播,使得网络的初始训练阶段往往要迭代好久才能启动。
2023-03-21 17:32:40
814
原创 机器学习:L2正则项(权重衰减)和梯度的理解
仅拥有一个自变量的函数称为一元函数,简记为y=f(x)。在实际生活中,人们想要了解函数 y 在点 x0处的变化率。例如,一个非匀速运动的质点在某一时刻的瞬时速度;或者一条曲线上某一点的斜率。此时涉及到一个问题:如何求出函数在某一个点的变化率呢?一般情况下,人们可以很容易求出函数在自变量某一段的变化率。例如,当自变量在 x0处产生一个增量 Δx 时,函数 y 也会产生一个增量 Δy ,此时 Δy/Δx 即为函数在自变量从 x0变化到 x0+Δx 时的变化率。那么,如何求出函数y在点x0处的变化率呢?
2023-03-20 15:24:34
2927
2
原创 pytorch:.detach()、.detach_()的作用和区别
返回一个新的tensor,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是requires_grad为false,得到的这个。其实detach()和detach_()很像,两个的区别就是detach_()是对本身的更改,detach()则是生成了一个新的tensor。由于x是直接创建的,所以它没有grad_fn,而y是通过一个加法操作创建的,所以y有grad_fn。将m的grad_fn的值设置为None,这样m就不会再与前一个节点x观点,这里的关系就会变成。
2023-03-19 19:31:26
17405
3
原创 pytorch: nn.Dropout 和 nn.functional.dropout 的区别
pytorch: nn.Dropout 和 nn.functional.dropout 的区别
2022-12-31 11:48:12
774
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人