- 博客(693)
- 资源 (16)
- 收藏
- 关注
原创 7.机器学习——支持向量机(SVM)
支持向量机(SVM)是一种经典的监督学习算法,主要用于二分类问题。其核心思想是找到一个最优的超平面,使得两类数据点之间的间隔最大化。SVM通过优化几何间隔来确定分类超平面,确保分类的置信度最高。对于线性不可分的情况,SVM通过核映射将数据映射到高维空间,使其在高维空间中线性可分。SVM的优化问题可以转化为凸二次规划问题,并通过拉格朗日乘子法求解。常用的损失函数是Hinge Loss,用于最大化分类间隔。SVM在处理高维数据和复杂分类问题时表现出色,广泛应用于机器学习和数据挖掘领域。
2025-05-09 17:56:21
901
原创 7.机器学习——LightGBM
首先,最明显就是内存消耗的降低,直方图算法不仅不需要额外存储预排序的结果,而且可以只保存特征离散化后的值,而这个值一般用8位整型存储就足够了,内存消耗可以降低为原来的1/8。但实际上Level-wise是一种低效的算法,因为它不加区分的对待同一层的叶子,带来了很多没必要的开销,因为实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。在遍历数据的时候,根据离散化后的值作为索引在直方图中累积统计量,当遍历一次数据后,直方图累积了需要的统计量,然后根据直方图的离散值,遍历寻找最优的分割点。
2025-05-06 17:16:58
669
原创 6.机器学习——XGBoost
XGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了GBDT算法并进行了算法和工程上的许多改进,被广泛应用在Kaggle竞赛及其他许多机器学习竞赛中并取得了不错的成绩。说到XGBoost,不得不提GBDT(Gradient Boosting Decision Tree)。因为XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致,所以叫X (Extreme) GBoosted。包括前面说过,两者都是boosting方法。关于GBDT,这里不再提,可以查看我前一篇的介绍,
2025-04-30 18:56:39
1120
原创 5.机器学习——梯度提升决策树(GBDT)
然后拿它们的残差-1、1、-1、1代替A B C D的原值,到第二棵树去学习,第二棵树只有两个值1和-1,直接分成两个节点,即A和C分在左边,B和D分在右边,经过计算(比如A,实际值-1 - 预测值-1 = 残差0,比如C,实际值-1 - 预测值-1 = 0),此时所有人的残差都是0。可以发现,两者都是在每 一轮迭代中,利用损失函数相对于模型的负梯度方向的信息来对当前模型进行更 新,只不过在梯度下降中,模型是以参数化形式表示,从而模型的更新等价于参 数的更新。,即“当前预测模型的值”,也就是对它求负梯度。
2025-04-29 17:12:06
587
原创 4.随机森林(Random Forest)
Bagging是bootstrap aggregating。思想就是从总体样本当中随机取一部分样本进行训练,通过多次这样的结果,进行投票获取平均值作为结果输出,这就极大可能的避免了不好的样本数据,从而提高准确度。因为有些是不好的样本,相当于噪声,模型学入噪声后会使准确度不高。举个例子假设有1000个样本,如果按照以前的思维,是直接把这1000个样本拿来训练,但现在不一样,先抽取800个样本来进行训练,假如噪声点是这800个样本以外的样本点,就很有效的避开了。重复以上操作,提高模型输出的平均值。OOB。
2025-04-26 11:05:33
598
原创 3.决策树(Desition Tree)
其实用一下图片能更好的理解LR模型和决策树模型算法的根本区别,我们可以思考一下一个决策问题:是否去相亲,一个女孩的母亲要给这个女海介绍对象。大家都看得很明白了吧!LR模型是一股脑儿的把所有特征塞入学习,而决策树更像是编程语言中的if-else一样,去做条件判断,这就是根本性的区别。
2025-04-24 18:40:33
953
原创 2.逻辑回归(Logistics Regression)
逻辑回归是用来做分类算法的,大家都熟悉线性回归,一般形式是Y=aX+b,y的取值范围是[-∞, +∞],有这么多取值,怎么进行分类呢?不用担心,伟大的数学家已经为我们找到了一个方法。也就是把Y的结果带入一个非线性变换的Sigmoid函数中,即可得到[0,1]之间取值范围的数S,S可以把它看成是一个概率值,如果我们设置概率阈值为0.5,那么S大于0.5可以看成是正样本,小于0.5看成是负样本,就可以进行分类了。
2025-04-21 11:01:14
1102
原创 2.逻辑回归(Liner Regression)----- 代码实现
信用评分算法对违约概率进行猜测,是银行用来确定是否应该发放贷款的方法。这项比赛要求参赛者通过预测某人在未来两年内遭遇财务困境的概率,提高信用评分的最新水平。银行在市场经济中发挥着至关重要的作用。他们决定谁可以获得资金,以什么条件获得资金,可以做出或破坏投资决策。为了使市场和社会发挥作用,个人和公司都需要获得信贷。
2025-04-21 11:00:12
250
原创 1.线性回归(Liner Regression)
线性:两个变量之间的关系是一次函数关系的——图象是直线,叫做线性。非线性:两个变量之间的关系不是一次函数关系的——图象不是直线,叫做非线性。回归:人们在测量事物的时候因为客观条件所限,求得的都是测量值,而不是事物真实的值,为了能够得到真实值,无限次的进行测量,最后通过这些测量数据计算回归到真实值,这就是回归的由来。
2025-04-14 20:22:39
1145
原创 1.线性回归(Liner Regression)----- 代码实现
这篇介绍的是我在做房价预测模型时的python代码,房价预测在机器学习入门中已经是个经典的题目了,但我发现目前网上还没有能够很好地做一个demo出来,使得入门者不能很快的找到“入口”在哪,所以在此介绍我是如何做的预测房价模型的题目,仅供参考。,能够看到第二列是销售价格,而我们要预测的就是销售价格,所以在训练过程中是不需要销售价格的,把第二列删除掉,新建一个csv文件存放销售价格这一列,作为后面的结果对比。y表示我们要求的销售价格,x表示特征值。下载的是两个数据文件,一个是真实数据,一个是测试数据,打开。
2025-04-14 19:54:39
800
原创 论文解析八: GAN:Generative Adversarial Nets(生成对抗网络)
文章提出了一个新的framework(framework通常是一个比较大的模型)用来估计生成模型,通过对抗的过程,同时会训练两个模型**生成模型G:**用来抓取整个数据的分布(生成模型就是要对整个数据的分布进行建模,使得能够生成各种分布,这里的分布就是指的生成图片、文字或者电影等,在统计学中,整个世界是通过采样不同的分布来得到的,所以如果想要生成东西,就应该抓取整个数据的分布)**辨别模型D:**用来估计样本到底是从真正的数据生成出来的还是来自生成模型生成出来的。
2024-10-23 12:13:53
1540
原创 论文解析七: GNN与GCN(图神经网络)一站式详细讲解
图是用来表示entity(实体)之间的关系实体就是一个点(node,顶点)关系就是一个边(edge)顶点(node)边:顶点之间的关系全局信息:每个顶点、每条边和整个图表示的信息使用向量来标示顶点,边,全局属性顶点(黄色)可以用一个embeding(向量)来表示它里面的属性,一共有六个值,高矮表示值的大小边(蓝色)也可以使用向量来表示,长度可以和顶点不一样,这里使用的是一个长度为8的向量,即边中所有的属性用一个长度为8的向量来表示全局信息(粉色)可以用一个长为5的向量来表示。
2024-10-23 11:14:03
2266
原创 论文解析六:Transformer----Attention Is All You Need---注意力是你所需要的
在主流的序列转录模型里面,主要是依赖于比较复杂的循环或者是卷积神经网络一般是使用encoder和decoder的架构序列转录模型:给定一个序列,然后生成另外一个序列,比如机器翻译在性能最好的模型之中,通常也会在编码器和解码器之间使用注意力机制这篇文章提出了一个新的简单的架构(simple,之前都倾向于写成novel),这个模型就是Transformer仅仅依赖于注意力机制,而没有用之前的循环或者卷积。做了两个机器翻译的实验,显示这个模型在性能上特别好,可以并行度更好然后使用更少的时间来训练。
2024-10-14 10:52:09
1026
原创 论文解析五:VGGNet 用于大规模图像识别的深度卷积网络
VGG网络研究了卷积网络深度在大规模的图像识别环境下对准确性的影响。我们的主要贡献是使用非常小的(3×3)卷积滤波器架构对网络深度的增加进行了全面评估,这表明通过将深度推到16-19 加权层可以实现对现有技术配置的显著改进。VGG网络对于其他数据集泛化的很好,在其它数据集上取得了最好的结果。 随着 ConvNets 在计算机视觉领域越来越商品化,为了达到更好的准确性, 已经进行了许多尝试来改进 1.使用了更小的感受野窗口尺寸和第一卷积层更小的步长。
2024-10-14 10:22:11
805
原创 论文解析四:AlexNet 使用深度卷积神经网络进行 ImageNet 分类
表示了我们用了一个深度卷积神经网络来进行图片分类,取得了一个非常好的效果。深度卷积网络由60million个参数,65w个神经元,以及五个卷积层和三个全连接层组成。为了加快训练,用到了GPU加速实现。用了dropout这个正则化方法来减少过拟合。引出ImageNet这个数据集很大很好。对于ImageNet这个很大的模型,我们采用CNN来作为我们的模型。对于CNN计算成本高(容易overfitting+训练不动),我们利用GPU以及高度优化的2D卷积来实现CNN的训练。
2024-10-08 16:34:23
1229
原创 论文解析三: D2-Net 用于联合描述和检测局部特征的可训练CNN
解决在困难的成像条件下寻找可靠的像素级对应的问题。提出一种由单一卷积神经网络发挥双重作用的方法:它同时是一个密集的特征描述符和一个特征检测器。通过将检测推迟到后期阶段,所获得的关键点比基于低层结构早期检测的传统关键点更稳定。我们证明了该模型可以使用从现成的大规模SfM重建中提取的像素对应来训练,而不需要任何进一步的注释。该方法在困难的亚琛昼夜定位数据集和InLoc室内定位基准上都获得了最先进的性能,以及在其他图像匹配和三维重建基准上具有竞争力的性能。
2024-10-08 15:26:44
1563
原创 论文解析二: SuperGlue 同时进行特征匹配以及滤除外点的网络
本文提出了一种能够同时进行特征匹配以及滤除外点的网络。其中特征匹配是通过求解可微分最优化转移问题( optimal transport problem)来解决;本文基于注意力机制提出了一种将2D特征点以及聚合机制,这使得SuperGlue能够同时感知潜在的3D场景以及进行特征匹配。该网络能够在GPU上达到实时,预期能够集成到slam算法中位置如下图 在经典的SLAM框架中,前端进行特征提取,后端进行非线性优化,而。
2024-09-10 12:26:34
1687
原创 论文解析一: SuperPoint 一种自监督网络框架,能够同时提取特征点的位置以及描述子
对于特征点提取部分,网络先将维度( W / 8 , H / 8 , 128 )的特征处理为( W / 8 , H / 8 , 65 )大小,这里的65的含义是特征图的每一个像素表示原图8 × 8 的局部区域加上一个当局部区域不存在特征点时用于输出的Dustbin通道,通过。 对于特征描述子提取部分,同理,我们还是使用encoder层的输出(H,W,128)。,这一层是为了8×8的局部区域内没有特征点时,经过Softmax后64维的特征势必还是会有一个相对较大的值输出,但加入。后就可以避免这个问题。
2024-09-10 11:49:01
2058
原创 24 优化算法
深度学习模型大多是非凸的所以关于凸优化的很多理论无法使用小批量随机梯度下降是最常用的优化算法冲量对梯度做平滑冲量法是一个简单的稳定优化的算法Adam 对梯度做平滑,且对梯度各个维度值做重新调整通过实践发现,Adam 不一定比冲量法准确率高或者是收敛快,但是整体来讲 Adam 是比较稳定的,Adam 对学习率不那么敏感,使得调参相对来讲会更加容易一点范围之中(进行维度上的调整)分母中的 ε 的作用是保证分母不等于零。
2024-08-19 18:33:44
694
原创 23 注意力机制—BERT
在计算机视觉中比较流行,将 ImageNet 或者更大的数据集上预训练好的模型应用到其他任务中,比如小数据的预测、图片分类或者是目标检测。使用预训练好的模型(例如 word2vec 或语言模型)来抽取词、句子的特征。在更换任务之后,还是需要构建新的网络来抓取新任务需要的信息。做迁移学习的时候,一般不更新预训练好的模型。
2024-08-19 18:18:09
317
原创 22 注意力机制—Transformer
和 seq2seq 有点类似,不同之处在于 Transformer 是一个纯使用注意力的编码-解码器编码器和解码器都有 n 个 Transformer 块每个块里使用多头(自)注意力(multi-head attention),基于位置的前馈网络(Positionwise FFN),残差连接和层归一化编码器和解码器中各有一个自注意力,但是在编码器和解码器中传递信息的是一个正常的注意力。
2024-08-13 09:23:06
460
原创 21 注意力机制—自注意力
自注意力池化层将 xi 当作 key ,value query 来对序列抽取特征完全并行、最长序列为 1 、但对长序列计算复杂度高可以完全并行,和 CNN 是一样的,所以计算效率比较高最长序列为 1 ,对于任何一个输出都能够看到整个序列信息,所以这也是为什么当处理的文本比较大、序列比较长的时候,通常会用注意力和自注意力但是问题是对长序列的计算复杂度比较高,这也是一大痛点位置编码在输入中加入位置信息,使得自注意力能够记忆位置信息。
2024-08-13 09:14:22
212
原创 20 注意力机制—注意力机制在seq2seq
Seq2Seq 中通过编码器最后时刻的隐藏状态在编码器和解码器中传递信息注意力机制可以根据解码器 RNN 的输出来匹配到合适的编码器 RNN 的输出来更有效地传递信息在预测词元时,如果不是所有输入词元都是相关的,加入注意力机制能够使 RNN 编码器-解码器有选择地统计输入序列的不同部分(通过将上下文变量视为加性注意力池化的输出来实现)
2024-08-05 09:35:49
122
原创 19 注意力机制
心理学认为人通过随意线索(故意)和不随意线索(无意)选择注意点注意力机制中,通过query(随意线索)和 key(不随意线索)来有偏向性地选择输入,一般可以写作f(x)的 key 和所有的不随意线索的 key 做距离上的计算(α(x,xi),通常称为注意力权重),分别作为所有的 value 的权重这并不是一个新兴的概念,早在 60 年代就已经有非参数的注意力机制了接下来会介绍不同的权重设计。
2024-08-05 09:20:48
214
原创 18现代循环神经网络—seq2seq与束搜索
Seq2Seq 从一个句子生成另一个句子,机器翻译算是其中的一个应用场景Seq2Seq 使用的是编码器-解码器的架构,编码器和解码器都是 RNN将编码器最后时间隐藏状态来初始解码器隐状态来完成信息传递在“编码器-解码器”训练中,强制教学方法将**原始输出序列(而非预测结果)**输入到解码器中BLEU 是一种常用的评估方法,它通过测量预测序列和标签序列之间的 n 元语法的匹配度来衡量生成预测序列的好坏序列搜索策略包括贪心搜索、穷举搜索和束搜索。
2024-07-29 12:00:41
266
原创 17现代循环神经网络—机器翻译,编码器-解码器
机器翻译指的是将文本序列从一种语言自动翻译成另外一种语言使用单词级词元化时的词表大小,将明显大于使用字符级词元化时的词表大小。为了缓解这一问题,可以通过将低频次元视为相同的未知词元来解决通过截断和填充文本序列,可以保证所有的文本序列都具有相同的长度,便于以小批量的方式进行加载使用编码器-解码器架构的模型,编码器负责表示输入,解码器负责输出“编码器-解码器”架构可以将长度可变的序列作为输入和输出,因此适用于机器翻译等序列转换问题。
2024-07-29 11:56:19
153
原创 16现代循环神经网络—深度循环与双向循环
深度循环神经网络使用多个隐藏层来获得更多的非线性性GRU、RNN、LSTM 在结构上都是相同的,只是隐状态 H 的计算方式有区别,所以它们加深神经网络的原理都是相同的在深度循环神经网络中,隐状态的信息被传递到当前层的下一时间步和下一层的当前时间步存在许多不同风格的深度循环神经网络,如长短期记忆网络、门控循环单元或经典循环神经网络深度循环神经网络需要大量的调参(如学习率和修剪)来确保合适的收敛,模型的初始化也需要谨慎双向循环神经网络通过反向更新的隐藏层来利用方向时间信息。
2024-07-22 16:21:02
670
原创 15现代循环神经网络—GRU与LSTM
GRU 中引入了两个额外的门,每个门可以学习的参数和 RNN 一样多,整个可学习的权重数量是 RNN 的三倍Rt 和 Zt 都是控制单元,用来输出取值为 0~1 的数值Rt 用来衡量在更新新的隐藏状态的时候,要用到多少过去隐藏状态的信息Zt 用来衡量在更新新的隐藏状态的时候,需要用到多少当前Xt相关的信息当 Zt 全为 0 , Rt 全为 1 时,等价于 RNN当 Zt 全为 1 时,直接忽略掉当前 XtGRU 通过引入 Rt 和 Zt ,从而能够在各种极端情况之间进行调整。
2024-07-22 16:13:21
495
1
原创 14循环神经网络—RNN
对隐藏状态使用循环计算的神经网络称为循环神经网络(RNN),循环神经网络的输出取决于当下输入和前一时间的隐变量循环神经网络的隐藏状态可以捕获当前时间步序列的历史信息隐变量是用来存储历史信息和下一个历史信息的转换规则,所以在拿到过去的输入和当前的隐藏状态就能够预测当前的输出Whh 拥有一定的时序预测目的应用到语言模型中时,循环神经网络根据当前词预测下一次时刻词根据当前的输入更新当前时刻的隐藏状态就能够预测下一个时刻的输出RNN 是一个隐变量模型,隐变量是一个向量。
2024-07-16 10:37:45
291
原创 13 循环神经网络—序列模型,语言模型
时序模型中,当前数据跟之前观察到的数据相关自回归模型使用自身过去数据来预测未来马尔科夫模型假设当前只跟当前少数数据相关,每次都使用固定长度的过去信息来预测现在,从而简化模型潜变量模型使用潜变量来概括历史信息,使得模型拆分成两块:一块是根据现在观测到的数据来更新潜变量;另一块是根据更新后的潜变量和过去的数据来更新将来要观测到的数据内插法(在现有观测值之间进行估计)和外推法(对超出已知观测范围进行预测)在实践的难度上差别很大。
2024-07-16 10:12:59
1558
原创 12计算机视觉—全连接卷积与迁移学习(风格迁移)
全卷积网络首先使用卷积神经网络抽取图像特征,然后通过 1 * 1 卷积层将通道数变换为类别个数,最后通过转置卷积层将特征图的高和宽变换为输入图像的尺寸在全卷积网络中,可以将转置卷积层初始化为双线性插值的上采样样式迁移常用的损失函数由 3 部分组成:内容损失、样式损失和全变分损失内容损失使合成图片与内容图片在内容特征上接近样式损失使合成图片与样式图片在样式特征上接近全变分损失有助于减少合成图片中的噪点。
2024-07-10 10:56:56
284
原创 11计算机视觉—语义分割与转置卷积
与目标检测不同,语义分割可以识别并理解图像中每一个像素的内容:其语义区域的标注和预测是像素级的。与目标检测相比,语义分割标注的像素级的边框显然更加精细。然而如果输入和输出图像的空间维度相同,在以像素级分类的语义分割中将会很方便。 为了实现这一点,尤其是在空间维度被卷积神经网络层缩小后,我们可以使用另一种类型的卷积神经网络层,它可以增加上采样中间层特征图的空间维度。在标签图像中,白色和黑色分别表示边框和背景,而其他颜色则对应不同的类别。 通过上面定义的两个常量,我们可以方便地查找标签中每个像素的类索引。
2024-07-10 10:42:00
228
原创 10计算机视觉—物体检测算法
R-CNN是最早,也是最有名的一类基于锚框和CNN的目标检测算法Fast/Faster R-CNN持续提升性能Faster R-CNN和Mask R-CNN是在最高精度场景下的常用算法SSD通过单神经网络来检测以每个像素为中心的产生多个锚框在多段的输出上进行多尺度的检测。
2024-07-03 09:57:32
291
原创 9.计算机视觉—目标检测
物体检测识别图片里的多个物体的类别和位置位置通常用边缘框表示一类目标检测算法基于锚框来检测首先生成大量锚框,并赋予标号,每个锚框作为一个样本进行训练在预测时,使用NMS来去除冗余的预测。
2024-07-03 09:42:46
345
原创 8.计算机视觉—增广和迁移
微调通过使用在大数据上得到的预训练好的模型来初始化模型权重来完成提升精度预训练模型质量很重要微调通常速度更快,经度更高。
2024-06-27 09:58:31
353
原创 7.计算机视觉—硬件和训练
一台机器可以安装多个GPU在训练和预测时,我们将一个小批量计算切分到多个GPU上来达到加速目的常用切分方案有数据并行模型并行通道并行(数据+模型并行)当一个模型能用单卡计算时,通常使用数据并行拓展到多卡上模型并行则用在超大模型上。
2024-06-27 09:32:01
196
原创 6.深度卷积神经网络
AlexNet是更大更深的LeNet,10倍参数个数,260倍计算复杂度新进入了Dropout,ReLu,最大池化层和数据增强AlexNet赢下2012ImageNet竞赛后,标志这新的一轮神经网络热潮的开始VGG使用可重复使用的卷积块来构建深度卷积神经网络不同的卷积块个数和超参数可以得到不同复杂的变种NiN块在卷积层后 加两个1 * 1卷积层后者对每个像素增加了非线性NiN使用全集平均池化层来代替VGG和AlexNet中的全连接层不容易过拟合,更少的参数个数。
2024-06-18 09:42:13
396
原创 5.卷积神经网络
对全连接层使用平移不变性和局部性得到卷积层卷积层将输入和核矩阵进行交叉相关计算,加上偏移后得到输出核矩阵和偏移是可学习的参数核矩阵的大小是超参数填充和步幅是卷积层的超参数填充在周围添加额外的行/列,来控制输出形状的减少量步幅是每次滑动核窗口时的行/列的步长,可以成倍的减少输出形状核大小最为关键,填充一般是默认核减1,步幅看需求输出通道数是卷积层的超参数每个输入通道有独立的二维卷积核,所有通道结果相加得到一个输出通道结果每个输出通道有独立的三维卷积核。
2024-06-18 09:10:11
484
原创 4.深度学习计算
构造一个没有任何参数的自定义层#向该层提供一些数据#将层作为组件合并到构建更复杂的模型中#定义带参数的图层def __init__(self, in_units, units):#in_units输入参数 units输出参数linear = torch.matmul(X, self.weight.data) + self.bias.data#matmul函数执行矩阵乘法#使用带参数的图层构建模型。
2024-06-15 09:44:05
90
原创 3.多层感知机
感知机是一个二分类模型,是最早的AI模型之一它的求解算法等价于使用批量大小为1的梯度下降 批量大小为1:指在训练神经网络时,每次更新参数时只使用单个样本的数据它不能拟合XOR函数,导致第一次AI寒冬多层感知机使用隐藏层和激活函数来得到非线性模型常用激活函数是Sigmoid,Tanh,ReLu使用Softmax来处理多类分类超参数为隐藏层数和各个隐藏层大小训练数据集:训练模型参数验证数据集:选择模型超参数非大数据集上通常使用K-则交叉验证。
2024-06-15 09:29:01
352
图像生成软件,注重提示和生成
2025-04-23
行业领先的面部操作平台
2025-04-23
[CVPR 2024]:使用扩散模型的时间一致的人体图像动画(将静态图片驱动为动态图片,适合短视频场景)
2025-04-23
是时候跟Mac系统自带的播放器说拜拜了!这个项目提供了简洁、高效的媒体播放体验,支持多种格式和平台,是你娱乐生活的绝佳伴侣
2025-04-14
数据解析速度慢?让simdjson告诉你什么是真正的飞快,每秒解析十亿字节的JSON!这个开源项目基于SIMD指令,提供了极速的JSON解析能力,让你的数据处理更加高效
2025-04-14
烦恼于各种博客、新闻等订阅源?这个开源项目可以让你的阅读更加高效、个性化!RSSHub是一个聚合器,它支持自定义RSS订阅源,让你的订阅世界更加丰富多彩
2025-04-14
一个本地DNS服务器,获取最快的网站IP,获得最佳上网体验,支持DoH,DoT
2025-04-14
调试分布式应用的难度太高?用arthas就像在本地调试一样轻松!这个阿里巴巴项目提供了可靠的Java诊断和调试工具,让你快速定位分布式系统的问题
2025-04-14
如果你想探索人工智能的奥秘,就来Google Research吧!这个Google项目提供了各种先进的研究成果和工具,让你可以更好地理解人工智能技术的最新进展
2025-04-14
NodeJS的WhatsApp客户端库,通过WhatsApp Web浏览器应用程序连接
2025-04-14
Windows系统实用程序,以最大限度地提高生产力
2025-04-12
5秒内克隆语音,实时生成任意语音
2025-04-12
一款基于 Node.js 的便捷美观的 API 调试工具 它是调试接口的利器,能够尽快的发现问题提高开发效率
2025-04-12
Linux、Jenkins、AWS、SRE、Prometheus、Docker、Python、Ansible、Git、Kubernetes、Terraform、OpenStack、SQL、NoSQL
2025-04-12
关于文本和图像到视频生成
2025-04-12
一款专为Chrome用户开发的ChatGPT插件 让你的浏览器聊天起来,体验不一样的智能交互
2025-04-12
一款的问答社区 采用 Go 语言编写的问答社区,支持积分、提问、回答、标签等功能,部署简单
2025-04-11
JavaScript系列参考资料
2025-04-11
用Java实现的设计模式
2025-04-11
这是一个汇总了各大互联网公司Python面试题的仓库,让你可以了解Python面试的常见问题和答案,提高你的面试技巧和水平
2025-04-11
从代码中可视化算法的交互式在线平台
2025-04-11
一份完整的计算机科学学习计划,成为一名软件工程师
2025-04-11
为忙碌的软件工程师精心准备编码面试准备材料-面试手册
2025-04-11
交互式路线图、指南和其他教育内容,帮助开发人员在职业生涯中成长
2025-04-11
繁忙工程师的前端面试准备材料
2025-04-11
前端面试每日 3+1,以面试题来驱动学习,提倡每日学习与思考,每天进步一点!
2025-04-11
超过1000本的计算机经典书籍、个人笔记资料以及本人在各平台发表文章中所涉及的资源等
2025-04-11
「算法通关手册」:超详细的「算法与数据结构」基础讲解教程,从零基础开始学习算法知识,850+ 道「LeetCode 题目」详细解析,200 道「大厂面试热门题目」
2025-04-09
简明TypeScript书:TypeScript有效开发的简明指南
2025-04-09
这是谷歌Android团队使用的Rust课程 它为您提供快速学习Rust的材料
2025-04-09
高级Python掌握(@dabeaz教授的课程)
2025-04-09
关于一个基于模块图的检索增强生成(RAG)系统
2025-04-08
在一个地方跟踪所有内容
2025-04-08
一站式开源高质量数据提取工具,将PDF转换成Markdown和JSON格式
2025-04-08
Open Sora:为所有人实现高效视频制作的民主化
2025-04-08
研0卑微 主要方向是机器学习-计算机视觉,求一个入门学习路线,前期应该看哪些入门的论文
2022-09-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人