- 博客(373)
- 资源 (22)
- 收藏
- 关注

原创 golang使用excelize导出Excel表格数据
import "github.com/360EntSecGroup-Skylar/excelize"func getExcelData(f *excelize.File) error { filePath := `./static` count := getCount() frequency := (count / SIZE) + 1 log.Println("要分为", frequency, "个excel表格") for i := 0; i < frequen.
2020-08-31 17:30:56
2274

转载 GIT 常用命令
学无止境,精益求精!十年河东,十年河西,莫欺少年穷!学历代表你的过去,能力代表你的现在,学习代表你的将来!本篇博客是转发的别人的,原文地址:http://www.ruanyifeng.com/blog/2015/12/git-cheat-sheet.html很久没写博客了,都是工作太忙闹的,索性今儿转发一篇!省的博客园太冷清了...Git图形化界面我用的还可以,但是命令就...
2018-07-19 16:04:02
198

原创 Linux释放内存
首先,查看/proc/sys/vm/drop_caches的值[root@server test]# cat /proc/sys/vm/drop_caches0值默认为0然后,运行sync命令[root@server test]# sync手动执行sync命令(描述:sync 命令运行 sync 子例程。如果必须停止系统,则运行sync 命令以确保文件系统的完整性。sync 命令将所有未写的系统缓...
2018-06-15 10:44:10
658

转载 linux系统很卡的基本排查方法
1. 查看内存使用情况free -g当观察到free栏已为0的时候,表示内存基本被吃完了,那就释放内存吧(释放内存参考上篇文章)2. 查看磁盘使用情况df -h当发现磁盘使用率很高时,那就要释放磁盘空间了,删除一些不必要的文件(查看各个目录占用磁盘空间,参考之前的du命令文章)3. 查看磁盘IO使用情况
2017-11-02 14:13:05
14598
原创 昇思25天学习打卡营第25天|linchenfengxue
从网络构建中加载代码,构建一个神经网络模型。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,𝑛𝑛是批量大小(batch size),ηη是学习率(learning rate)。另外,𝑤𝑡𝑤𝑡为训练轮次𝑡𝑡中的权重参数,∇𝑙∇𝑙为损失函数的导数。
2024-07-18 10:27:56
717
原创 昇思25天学习打卡营第24天|linchenfengxue
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。前述章节主要根据计算图对应的函数介绍了MindSpore的函数式自动微分,但我们的神经网络构造是继承自面向对象编程范式的。
2024-07-18 10:25:46
466
原创 昇思25天学习打卡营第23天|linchenfengxue
当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。
2024-07-18 10:22:51
287
原创 昇思25天学习打卡营第22天|linchenfengxue
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。图像的每个像素将根据这两个参数进行调整,输出的像素值为𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。方法传入,实现对指定数据列的处理。
2024-07-14 15:02:08
622
原创 昇思25天学习打卡营第21天|linchenfengxue
本案例基于MindNLP和ChatGLM-6B实现一个聊天应用。可以修改下列参数和prompt体验模型。这样可以实现一个简单的应用。下载权重大约需要10分钟。
2024-07-13 18:15:54
267
原创 昇思25天学习打卡营第20天|linchenfengxue
Beam search通过在每个时间步保留最可能的 num_beams 个词,并从中最终选择出概率最高的序列来降低丢失潜在的高概率序列的风险。缺点: 错过了隐藏在低概率词后面的高概率词,如:dog=0.5, has=0.9!按照贪心搜索输出序列("The","nice","woman") 的条件概率为:0.5 x 0.4 = 0.2。选出概率最大的 K 个词,重新归一化,最后在归一化后的 K 个词中采样。增加高概率单词的似然并降低低概率单词的似然。将出现过的候选词的概率设置为 0。缺点:生成文本不连续。
2024-07-13 11:21:21
259
原创 昇思25天学习打卡营第19天|linchenfengxue
情感分类是nlp的重要分支,分类任务可以用不同方法来实现,1.先下载mindnlp并且引入包并且加载数据。
2024-07-11 16:04:38
243
原创 昇思25天学习打卡营第18天|linchenfengxue
BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。
2024-07-10 10:50:15
1037
原创 昇思25天学习打卡营第17天|linchenfengxue
情感分类是自然语言处理中的经典任务,是典型的分类问题。输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。
2024-07-08 13:19:40
901
原创 昇思25天学习打卡营第16天|linchenfengxue
序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。以命名实体识别为例:如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。
2024-07-08 11:17:15
874
原创 昇思25天学习打卡营第15天|linchenfengxue
Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。
2024-07-06 19:28:14
668
原创 昇思25天学习打卡营第14天|linchenfengxue
生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。
2024-07-05 21:49:43
1081
原创 昇思25天学习打卡营第13天|linchenfengxue
如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程 𝑞𝑞 :它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声。
2024-07-05 21:39:27
1056
原创 昇思25天学习打卡营第12天|linchenfengxue
输入是3x64x64的图像,输出是该图像为真图像的概率。输入是标准正态分布中提取出的隐向量𝑧𝑧,输出是3x64x64的RGB图像。按照Goodfellow的方法,是希望通过提高其随机梯度来更新判别器,所以我们要最大化𝑙𝑜𝑔𝐷(𝑥)+𝑙𝑜𝑔(1−𝐷(𝐺(𝑧))𝑙𝑜𝑔𝐷(𝑥)+𝑙𝑜𝑔(1−𝐷(𝐺(𝑧))的值。如DCGAN论文所述,我们希望通过最小化𝑙𝑜𝑔(1−𝐷(𝐺(𝑧)))𝑙𝑜𝑔(1−𝐷(𝐺(𝑧)))来训练生成器,以产生更好的虚假图像。判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。
2024-07-03 15:05:12
715
原创 昇思25天学习打卡营第11天|linchenfengxue
CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。
2024-07-03 14:58:20
635
原创 昇思25天学习打卡营第10天|linchenfengxue
MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。
2024-07-02 10:00:21
249
原创 昇思25天学习打卡营第9天|linchenfengxue
K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。
2024-07-02 09:47:38
400
原创 昇思25天学习打卡营第8天|linchenfengxue
与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《,默认使用small规格的权重,生成的音频质量较低,但是生成的速度是最快的。
2024-06-30 08:41:38
799
原创 昇思25天学习打卡营第7天|linchenfengxue
近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。
2024-06-30 08:12:58
658
原创 昇思25天学习打卡营第6天|linchenfengxue
SSD是单阶段的目标检测算法,通过卷积神经网络进行特征提取,取不同的特征层进行检测输出,所以SSD是一种多尺度的检测方法。在SSD的网络结构图中我们可以看到,SSD使用了多个特征层,特征层的尺寸分别是38 ×× 38,19 ×× 19,10 ×× 10,5 ×× 5,3 ×× 3,1 ×× 1,一共6种不同的特征图尺寸。SSD的网络结构如图所示。SSD对比了YOLO系列目标检测方法,不同的是SSD通过卷积得到最后的边界框,而YOLO对最后的输出采用全连接的形式得到一维向量,对向量进行拆解得到最终的检测框。
2024-06-29 06:57:07
699
原创 昇思25天学习打卡营第5天|linchenfengxue
Group Convolution(分组卷积)原理如下图所示,相比于普通的卷积操作,分组卷积的情况下,每一组的卷积核大小为in_channels/g*k*k,一共有g组,所有组共有(in_channels/g*k*k)*out_channels个参数,是正常卷积参数的1/g。Group Convolution的弊端在于不同组别的通道无法进行信息交流,堆积GConv层后一个问题是不同组之间的特征图是不通信的,这就好像分成了g个互不相干的道路,每一个人各走各的,,使网络在下一层能处理不同组别通道的信息。
2024-06-29 06:24:46
372
原创 昇思25天学习打卡营第4天|linchenfengxue
ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。
2024-06-27 11:08:11
303
原创 昇思25天学习打卡营第3天|linchenfengxue
在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。通常在非常大的数据集(例如ImageNet,它包含120万张具有1000个类别的图像)上预训练ConvNet,然后将ConvNet用作感兴趣任务的初始化或固定特征提取器。开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。接口来加载数据集,并进行相关图像增强操作。
2024-06-26 11:45:22
330
原创 昇思25天学习打卡营第2天|linchenfengxue
与传统使用CNN进行图像分割的方法相比,FCN有两大明显的优点:一是可以接受任意大小的输入图像,无需要求所有的训练图像和测试图像具有固定的尺寸。对于给定的数字图像,计算机在处理时要先执行二次采样、平滑去噪、对比度提升和尺度调整等预处理操作,再对图像中的线条、边缘等全局特征和边角、斑点等局部特征,乃至更加复杂的运动和纹理特征进行检测,检测到的特征会被进一步用来对目标进行分类,或者估测特定的参数。通过进行像素级的预测直接得出与原图大小相等的label map。语义在图像领域指的是图像的内容,对图片意思的理解。
2024-06-25 11:47:18
211
原创 昇思25天学习打卡营第1天|linchenfengxue
介绍了张量tensor、数据集dataset提供了内置的文本、图像、音频等数据集加载接口,并提供了自定义数据集加载接口。数据集迭代的训练等等。数据变换等,明天继续。1.昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。
2024-06-24 17:45:18
431
原创 编译NCNN时遇到Protobuf compiler version 3.20.3 doesn‘t match library version 3.6.1版本不匹配的问题
编译NCNN时遇到Protobuf compiler version 3.20.3 doesn't match library version 3.6.1版本不匹配的问题
2024-04-12 16:56:04
796
原创 k8s报错failed to run Kubelet: running with swap on is not supported, please disable swap
解决办法。
2023-12-05 16:31:15
888
shangguigu的docker笔记
2018-12-19
mongodb数据库
2018-06-20
开发工具jdk
2016-11-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人