- 博客(45)
- 收藏
- 关注
原创 Python 翻译词典小程序
“小小词典V1.0”是一款基于Python开发的智能翻译工具,集成了有道词典的翻译功能,并具备本地词典缓存和生词本管理功能。该工具支持即时翻译、词性识别、网络查询和离线查询,能够自动存储查询历史,并允许用户手动添加或移除生词。系统使用SQLite数据库存储翻译记录和生词本,确保数据持久化。用户可以通过命令行界面进行单词查询、生词本管理及查看帮助信息。该工具遵循GNU通用公共许可证,用户可自由分发和修改。
2025-05-15 14:06:32
456
2
原创 Python 代码优化例子
PYTHON代码速度优化1 # 转换为[[变量0-时刻0值,变量1-时刻0值,变量2-时刻0值...],# [变量0-时刻1值,变量1-时刻1值,变量2-时刻1值...]# [变量0-时刻2值,变量1-时刻2值,变量2-时刻2值...]# ...] 数据格式。
2025-04-15 14:56:52
319
原创 国家语言,语言代码,locale id对应表。比如 en_US对应的id为1033, 中文的locale=zh_CN,id=2052.
国家语言,语言代码,locale id对应表。比如 en_US对应的id为1033, 中文的locale=zh_CN,id=2052.
2025-01-03 13:11:31
1100
原创 python 多语言支持
特别注意,调整Content-Type的编码: text/plain;charset=UTF-8 和Content-Transfer-Encoding: 8bit 为8bit。不然会出,类似locales/zh_CN/LC_MESSAGES/zh_CN.po:21:10: invalid multibyte sequence的问题。set LANG=zh 注意不要用 set LANG=”zh”msgstr " 你好 世界!# 获取简体中文翻译类的实例。python 多语言支持。其中zh是语言缩写、CN。
2025-01-03 11:09:40
395
原创 Debian apt-get 安装问题处理
1. 报告 : Clearsigned file isn't valid, got 'NOSPLIT' (does the network require authentication?下载ca-certificates和其依赖的openssl,然后再用HTTPS源即可(打破鸡生蛋、蛋生鸡问题)。2. 网上介绍将源修改为HTTP方式,发现DEBIAN认为其不安全拒绝。
2024-12-03 11:17:26
577
原创 CHOICE 命令简介
当用户做出选择后,CHOICE 命令会设置环境变量 %ERRORLEVEL% 的值,该值对应于用户选择的选项的位置。例如,在上面的例子中,如果用户选择了 'P',%ERRORLEVEL% 将被设置为 1;CHOICE 是一个在Windows命令行中使用的内置命令,用于显示一个选择菜单给用户,并等待用户通过键盘输入来选择选项。在这个脚本中,如果用户选择了 'P',脚本将输出 "您选择了 Python!%ERRORLEVEL% 的值是从 1 开始计数的,对应于第一个选项,第二个选项是 2,依此类推。
2024-10-15 14:39:17
636
原创 DOS 批处理脚本中的一个重要命令
在批处理脚本中,使用 SETLOCAL 命令可以创建一个新的环境上下文,这样在该上下文中进行的环境变量更改不会影响到脚本外部的环境。SETLOCAL 和 ENDLOCAL 是非常有用的命令,可以帮助你在批处理脚本中管理环境变量,确保脚本的执行不会影响到外部环境。假设你有一个批处理脚本,需要在不同的环境中设置不同的变量值,并且在完成后恢复原始环境。在这个例子中,VAR1_OUT 被设置为 VAR1 的值,并且在 ENDLOCAL 之后仍然保留这个值。:: 在这里 VAR1 和 VAR2 都是新的值。
2024-10-12 14:29:16
474
原创 《昇思25天学习打卡营第25天| 基于MindNLP+MusicGen生成自己的个性化音乐》
MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen直接使用谷歌的及其权重作为文本编码器模型,并使用及其权重作为音频压缩模型。MusicGen解码器是一个语言模型架构,针对音乐生成任务从零开始进行训练。MusicGen 模型的新颖之处在于音频代码的预测方式。
2024-07-18 13:20:25
647
原创 《昇思25天学习打卡营第24天| 文本解码原理》
Beam search通过在每个时间步保留最可能的 num_beams 个词,并从中最终选择出概率最高的序列来降低丢失潜在的高概率序列的风险。1、基于N-gram或者其他的都是概率模型, N-gram模型对训练数据的需求较少,但对数据的覆盖性要求高。缺点: 错过了隐藏在低概率词后面的高概率词,如:dog=0.5, has=0.9。选出概率最大的 K 个词,重新归一化,最后在归一化后的 K 个词中采样。2. 开放域生成效果差。2. 开放域生成效果差。增加高概率单词的似然并降低低概率单词的似然。
2024-07-17 17:54:20
990
原创 《昇思25天学习打卡营第23天|Diffusion扩散模型》
如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_\thetapθ。
2024-07-16 18:20:21
733
原创 《昇思25天学习打卡营第22天|Pix2Pix实现图像转换》
Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。Pix2Pix是将cGAN应用于有监督的图像到图像翻译的经典之作,其包括两个模型:生成器和判别器。
2024-07-16 13:06:52
900
原创 《昇思25天学习打卡营第21天|GAN图像生成》
本案例将使用MNIST手写数字数据集来训练一个生成式对抗网络,使用该网络模拟生成手写数字图片。、要注意的是刚开始的D不能太聪明,要能给出G网络一个方向(也就是不能说有G网络生成的图像都给0分,这样G网络就没有目标方向了,因为其向得分高的一侧适配);而后G得到一定分数后,G网络进化,这时需要D网络也进化,找出聪明一点儿的G网络不好的部分,如此D\G两个网络互相竞争,形成最后结果3、实践发现,当提升epoch后,G网络似偏向于简单的7,0这样的图像,可能是因为这样的图像更简单,更容易欺骗D网络,不过也带了问题
2024-07-15 18:49:23
777
原创 《昇思25天学习打卡营第20天|基于MobileNetv2的垃圾分类》
MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。
2024-07-15 18:19:50
567
原创 《昇思25天学习打卡营第19天|Vision Transformer图像分类》
近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。本案例完成了一个ViT模型在ImageNet数据上进行训练,验证和推理的过程,其中,对关键的ViT模型结构和原理作了讲解。
2024-07-15 08:58:57
1013
原创 《昇思25天学习打卡营第17天|基于MindSpore的红酒分类实验》
K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。
2024-07-12 21:10:51
918
原创 《昇思25天学习打卡营第16天|SSD目标检测》
SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文。
2024-07-09 22:11:33
1136
原创 【转载】目标检测mAP的含义
转载自三叔家的猫YOLOv3论文中的各个模型的mAP对比图:目标检测问题中,每张图片可能包含多个不同类别的不同物体,需要评测模型的分类和定位性能.因此,图像分类问题中的精度指标是不能直接适用的. 这就是为什么采用 mAP 的原因.
2024-07-09 13:06:42
1187
原创 《昇思25天学习打卡营第15天|实战CycleGAN》
CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。
2024-07-07 17:10:45
673
原创 《昇思25天学习打卡营第14天|ShuffleNet实战》
ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。
2024-07-06 13:55:02
1049
原创 《昇思25天学习打卡营第12天|ResNet50迁移学习》
在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。
2024-07-04 16:26:39
618
原创 《昇思25天学习打卡营第11天|FCN图像语义分割》
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。
2024-07-02 16:26:10
1057
原创 《昇思25天学习打卡营第10天|实战静态图加速》
AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。
2024-07-01 14:53:38
789
原创 《昇思25天学习打卡营第9天|保存与加载》
上一章节主要介绍了如何调整超参数,并进行网络模型训练。在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。
2024-06-29 13:19:57
383
原创 编写Linux下第一个Go程序(2024版)
首先是安装GO语言包,预备要安装的是go version go1.22.4 linux/amd64,移步至,选择go1.22.4.linux-amd64.tar.gz 下载Do not。
2024-06-27 13:53:43
865
原创 《昇思25天学习打卡营第8天|MindSpore 模型训练》
从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1wt−ηn1x∈B∑∇lxwt公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}w。
2024-06-26 18:32:04
623
原创 《昇思25天学习打卡营第7天| Mindspore函数式自动微分初探》
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。这个算法会在每次前向传播之后,从输出层开始,计算损失函数对每个隐藏层的节点输出的梯度,然后根据这些梯度来更新神经网络的权重和偏置。
2024-06-25 15:31:48
702
原创 《昇思25天学习打卡营第5天|数据变换》
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。
2024-06-23 10:02:38
657
原创 《昇思25天学习打卡营第4天|基本介绍》
昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址MindSpore Extend(扩展库)
2024-06-23 08:41:22
1163
原创 《昇思25天学习打卡营第3天|数据集》
模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。
2024-06-21 12:45:17
894
原创 《昇思25天学习打卡营第1天|MindSpore快速入门》
建立数据集MindSpore的dataset使用数据处理流水线(Data Processing Pipeline),需指定map、batch、shuffle等操作。这里我们使用map对图像数据及标签进行变换处理,然后将处理好的数据集打包为大小为64的batch。类是构建所有网络的基类,也是网络的基本单元。对数据集进行迭代访问,查看数据和标签的shape和datatype。在本教程中,我们使用Mnist数据集,自动下载完成后,使用。提供的数据变换进行预处理。实现高效的数据预处理。包含所有网络层的定义,
2024-06-19 10:29:50
784
2
原创 直接用GCC命令编译一个动态库
本文描述了如何手工写一个简单的动态库的过程,并详细说明了GCC参数和原理方法。对于大型项目还是建议采用CMake等方式。
2024-06-07 10:37:39
582
原创 山景城发布大模型
1.sora之后google也有了sora,一分钟时长。meta还是baidu。5.和openai一样,大福减少了推理算力需求。3.在线视频交互,似乎比openai差一些。今天Google发布了他们的AI解决方案,2.解决了文生图的文字一眼假的问题。
2024-05-15 09:21:35
440
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人