- 博客(47)
- 收藏
- 关注
原创 Yolov8数据增强配置
通过上述配置与优化策略,可显著提升YOLOv8在复杂场景下的检测性能。建议优先调整数据增强参数,再逐步优化模型结构与训练策略。使用TensorBoard监控损失曲线,对比不同参数组合的验证集mAP和推理速度。减少30%显存占用,同时提升15%训练速度。自动适配显存容量,配合。
2025-05-12 17:57:52
224
原创 分批次加载大数据集并分阶段训练 YOLOv5 模型
将 20 万张图片和标签文件分割为 4 个子集(每个 5 万张),保持类别分布平衡。每个阶段结束后,检查验证集 mAP,选择最佳权重(依次在每个子集上训练模型,并继承前一阶段的权重。监控显存和内存使用,必要时减少。目录),确保评估指标可比性。在后续阶段可降低学习率(如。所有阶段使用相同的验证集(),避免破坏已有特征。
2025-04-28 10:37:25
411
原创 删除非今天日期文件夹--批处理脚本
echo 删除过程中发生错误,请查看日志:%log_file% >> “%log_file%”REM ----- 获取当前日期(兼容低版本PowerShell) ----->> “%log_file%”REM ----- 直接执行删除操作(无确认提示) -----echo 正在删除以下文件夹: >> “%log_file%”REM ----- 目标目录存在性检查 -----REM ----- 管理员权限检查 -----REM ----- 配置部分 -----REM ----- 结果反馈 -----
2025-04-24 13:48:28
172
原创 车牌识别技术栈框架
车牌识别(License Plate Recognition, LPR)系统的框架选择需综合考虑。自定义方案(灵活性强)。若需商业化部署,可直接采购海康/大华的硬件集成方案。字符识别-CRNN/TrOCR。选择框架时,建议优先测试。车辆检测-YOLOv8。车牌定位-DBNet。(平衡精度与速度)或。
2025-04-10 08:24:48
675
原创 测速仪和高速卡口相机使用方案
避免使用学术导向模型(如TrOCR)或轻量级OCR(EasyOCR),它们在极端场景下的稳定性不足。检测速度:YOLOv8-nano(TensorRT)→ 2ms/帧(1080p图像)。YOLOv8(检测) + PaddleOCR(识别) + TensorRT(部署)车辆/车牌检测 YOLOv8(定制训练) 高召回率,支持小目标检测(远距离抓拍)OCR速度:PaddleOCR PP-OCRv4(INT8)→ 8ms/车牌。端到端延迟:≤15ms(GPU) / ≤30ms(Jetson Orin)。
2025-04-09 23:26:13
717
原创 .NET Framework 4.0/4.5 中处理 multipart/form-data 数据(适用于 ASP.NET Web API 2 或 MVC 5)
在 .NET Framework 4.0/4.5 中处理。
2025-04-09 10:19:54
204
原创 YOLOv8+PaddleOCR 部署至移动端或者嵌入式设备
将YOLOv8目标检测模型与PaddleOCR文字识别模型结合部署至移动端或嵌入式设备,需经过模型转换、优化及框架适配等关键步骤。
2025-04-08 15:05:33
626
原创 解析划分CCPD数据集转换YOLO格式标签
根据CCPD数据集的特点和YOLO格式要求,以下Python脚本实现了以下功能:1. 解析CCPD文件名中的边界框坐标2. 自动分割训练/验证/测试集3. 生成YOLO格式标签文件4. 创建标准YOLO数据集目录结构关键功能说明 :文件名解析坐标转换原理数据集划分策略准备数据运行脚本验证结果确认每个txt文件内容格式:扩展建议 :多类别处理:如果需要同时检测车牌和字符,需修改文件名解析逻辑,并添加多类别支持数据增强:结合YOLO官方推荐的库进行数据增强YAML配置
2025-04-08 10:11:02
493
原创 如何提高学习效率:基于脑科学与工程思维的终极指南
通过上述系统化改造,可将单位时间学习产出提升3-5倍。建议从「脉冲式注意力训练」与「Anki间隔重复」入手,逐步叠加其他模块,最终构建个性化认知增强体系。提高学习效率并非单纯堆砌时间,而是通过神经可塑性原理与系统化工程思维,对学习流程进行「认知重构」。
2025-03-31 17:30:42
646
原创 马斯克解决问题的方法论
抛弃传统经验与行业惯例,从物理定律和基本事实出发重新建模。:从终极目标倒推必须实现的技术节点,无视“不可能”。掌握这套方法论,你也能以“十倍思维”挑战不可能。:用物理学公式量化效率极限,挑战传统工程边界。:通过高频次实验逼近最优解,容忍阶段性失败。:打破学科壁垒,将A领域技术嫁接至B领域。:用顶尖人才密度对冲复杂性,缩短决策链路。
2025-03-31 16:34:23
355
原创 C# winform程序实时高性能传输图片数据技术方案及实例代码
该方案在常规开发机上实测可稳定处理500+ QPS,通过调整并发参数可适应不同性能需求场景。确保文件可读后再加入队列,避免处理正在写入的文件。带指数退避的重试策略,可配置最大重试次数。使用非阻塞方式更新界面,避免界面卡顿。
2025-03-28 18:18:28
308
原创 结合C#技术栈--大规模Modbus设备通信的高性能、高实时性需求技术方案
该方案10,000+设备场景,平均响应时间≤50ms,丢包率<0.1%。
2025-03-26 11:57:44
818
原创 高性能C#定时删除图片,包含定时触发、分批删除、异步处理和资源监控
根据之前的优化分析,以下提供完整的高性能C#实现代码,包含定时触发、分批删除、异步处理和资源监控等功能:关键优化说明:流式文件枚举使用替代,实现按需加载文件路径,避免一次性加载大量路径导致内存峰值。分批次并行处理异步定时器机制资源监控保护空目录删除优化性能监控建议:监控观察处理速度检查处理失败记录使用性能计数器监控:磁盘队列长度(理想值 < 2)内存工作集大小CPU利用率(建议保持70%以下)该方案在测试环境中可稳定处理10万+文件,内存占用控制在50MB以内,建议根据实
2025-03-25 14:23:18
529
原创 卷积神经网络Batch Normalization的作用
就像给神经网络的每一层安装了一个智能稳定器,让数据分布可控、训练路线更直、模型更健壮,最终实现“训练快、调参易、性能稳”的三重效果。
2025-03-21 10:40:26
367
原创 卷积神经网络梯度消失与梯度爆炸的通俗解释
梯度消失:反向传播时,梯度像被层层“消音”,深层参数无法更新。梯度爆炸:梯度像被层层“扩音”,参数更新失控,模型崩溃。关键因素:激活函数、权重初始化、网络深度共同决定了这场“传话游戏”的结局。
2025-03-21 10:38:43
263
原创 PyTorch中torch.nn、torchsummary和torch.nn.functional库作用详解
库名主要用途特点torch.nn构建和管理神经网络结构封装可学习参数,模块化设计,支持复杂模型实现无状态操作(激活、损失等)灵活、无需实例化类,适合动态计算可视化模型结构和参数统计调试维度匹配,优化模型设计参考资料torch.nn官方文档、使用案例安装与使用指南functional与nn对比分析。
2025-03-12 17:05:20
373
原创 PyTorch中前身传播forward方法调用逻辑
通过这种方式,PyTorch实现了神经网络前向传播的自动化管理,同时确保了框架核心功能(如梯度计算、钩子等)的正常运行。,而是通过调用模型实例本身来隐式触发。在PyTorch中,当通过模型实例传递输入数据时,会自动调用。方法是神经网络模型的核心逻辑,但。的模型会自动注册所有子模块(如。是经过所有层处理后的张量。虽然技术上可以直接调用。在PyTorch中,
2025-03-12 14:46:22
476
原创 AI时代研究卷积神经网络(CNN)工具与方法
在AI时代,作为研究卷积神经网络(CNN)和视觉网络的程序员,合理选择工具、技术和学习资源是提升效率与专业能力的关键。
2025-03-12 10:47:13
734
原创 C#程序员接口调用工具与方法
通过以上工具和方法,可大幅减少重复劳动,提升接口调用的稳定性与可维护性。组合实现基础优化,再逐步引入AI工具和CI/CD流程。
2025-03-12 10:43:38
1166
原创 AlexNet深度卷积神经网络模型架构详解
AlexNet 是深度学习领域的一个里程碑模型,由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 在 2012 年提出,并在 ImageNet 大规模视觉识别挑战赛(ILSVRC)中取得了突破性成果。它首次展示了深度卷积神经网络(CNN)在图像分类任务中的强大能力,并为后续的深度学习研究奠定了基础。AlexNet 的成功标志着深度学习时代的到来,其创新的设计理念(如 ReLU、Dropout、GPU 加速等)对后续的深度学习模型产生了深远影响。
2025-03-12 09:49:01
911
原创 经典卷积神经网络LeNet详解与模型搭建(附源码开源)
源代码:https://gitee.com/arronzu/le-net-study.git数据集使用的是FashionMNIST,服装分类数据集,源代码中已包含数据集,有训练好的模型best_model.pth,可以直接使用,训练了20轮,准确率87%,最后验证时有点过拟合,但整体比较理想。
2025-03-11 17:09:35
739
1
原创 Pytortch深度学习网络框架库 torch.no_grad方法 核心原理与使用场景
它通过关闭计算图的构建和梯度跟踪,优化内存使用和计算效率,尤其适用于不需要反向传播的场景。是一个上下文管理器(Context Manager),其作用是禁用在此作用域内所有张量操作的梯度计算。(Computation Graph)跟踪张量的操作链,以便在反向传播时自动计算梯度。通过临时修改 PyTorch 的全局状态,禁用 Autograd 的梯度跟踪机制。,可以在保证功能正确性的同时显著提升模型推理和评估的效率,尤其在资源受限的环境中效果更为明显。,则会记录其操作链并构建计算图。在PyTorch中,
2025-03-11 16:40:29
969
原创 全连接神经网络(FCNN)与卷积神经网络(CNN)区别
维度全连接神经网络(FCNN)卷积神经网络(CNN)连接方式全局连接,参数密集局部连接,权重共享,参数稀疏特征提取全局信息,无层次性局部到全局的层次化特征输入适应性需固定维度,难处理高维数据支持可变输入尺寸,适合图像、序列数据典型应用表格数据分类、简单回归任务图像识别、目标检测、语音处理未来趋势:两者常结合使用(如CNN提取特征后接FCNN分类),同时研究者探索混合架构以平衡效率与通用性。
2025-03-06 09:18:40
722
原创 神经网络提高泛化能力方法
数据侧:增强多样性、平衡分布、提升质量;模型侧:优化结构、引入正则化、调整复杂度;训练侧:动态调度参数、早停、对抗训练。最终目标是实现低偏差-低方差的均衡状态,使模型在未知数据中保持高准确性与鲁棒性。
2025-03-03 13:19:29
786
原创 过拟合和欠拟合的全面解析
欠拟合定义:模型在训练集和测试集上均表现较差,无法捕捉数据中的基本规律。例如,用线性模型拟合非线性数据时,模型过于简单,无法学习到数据的真实模式。表现:训练误差和测试误差均较高,模型对数据拟合不足。过拟合定义:模型在训练集上表现优异,但在测试集或新数据上表现显著下降。例如,用高阶多项式拟合数据时,模型过度适应了训练噪声,导致泛化能力差。表现:训练误差低,但验证误差高,模型复杂度远超问题需求。理想的模型应在复杂度与泛化能力欠拟合需通过增加特征和模型复杂度提升拟合能力;过拟合。
2025-03-03 11:34:28
407
原创 神经网络收敛的意义与理解
神经网络的收敛不仅是训练成功的标志,更是模型性能、泛化能力和应用可靠性的核心保障。通过合理设计优化策略、学习率调度和正则化方法,可以引导模型收敛到更优解,从而在图像识别、自然语言处理等任务中实现高效稳定的学习。未来研究可进一步探索收敛速度与泛化能力的量化关系,以及动态环境(如时滞效应)下的收敛机制优化。
2025-03-03 11:28:11
743
原创 神经网络激活函数不关于原点对称 理解
激活函数不对称,就像让神经网络“偏科”——只擅长处理一半的信号,另一半被荒废;对称的函数则让网络“全面发展”,学得更快更均衡。
2025-03-03 10:53:46
188
原创 神经网络中激活函数通俗理解
给神经网络装上“弯折工具”和“智能开关”,使其能从简单数据中提炼复杂模式,完成人类设定的高级任务。就像用乐高积木搭建复杂模型时,不同形状的积木(激活函数)决定了最终结构的多样性和功能性45。
2025-02-27 08:57:43
341
原创 经典卷积神经网络LeNet网络结构与原理详解
LeNet-5由Yann LeCun于1998年提出,是首个成功应用于手写数字识别的卷积神经网络(CNN),其结构分为输入层、3组卷积-池化层和全连接层,共7层核心模块。:现代实现通常采用ReLU激活函数和CrossEntropyLoss(含softmax)。
2025-02-25 17:15:32
834
原创 python学习记录1
yield 是一个关键字,用于定义生成器函数,生成器函数是一种特殊的函数,可以在迭代过程中逐步产生值,而不是一次性返回所有结果。迭代器对象从集合的第一个元素开始访问,直到所有的元素被访问完结束。在使用推导式时,需要注意可读性,尽量保持表达式简洁,以免影响代码的可读性和可维护性。Python 推导式是一种强大且简洁的语法,适用于生成列表、字典、集合和生成器。迭代器有两个基本的方法:iter() 和 next()。元组(tuple)推导式。列表(list)推导式。字典(dict)推导式。集合(set)推导式。
2025-02-25 17:07:43
250
原创 如何使用LPRNet PyTorch训练自定义的数据集调整参数
通过以上参数调整和预训练模型使用策略,在实际项目中可使新能源车牌识别准确率从82%提升至94.7%))
2025-02-20 16:46:51
784
原创 YOLOv8、YOLOv11 与Ultralytics 的版本关系
在 Ultralytics 的版本管理体系中,8.1.158.3.57。您的困惑源于对这两个概念的混淆。
2025-02-20 16:05:12
2149
原创 Yolo学习计划路线
建议按照"理论学习→代码精读→项目复现→自主改进"的路径推进,保持每周20+小时的投入量。进阶推荐:RTX 3060(12GB)支持batch_size=16训练。项目实战:B站"YOLO模型实战"系列(含车牌/人脸检测案例) 8。入门级:GTX 1660(6GB显存)可运行YOLOv5n。训练发散:降低初始学习率(建议3e-4→1e-4) 9。显存不足:启用混合精度训练(amp=True) 5。钻石:发表改进模型论文(如添加注意力机制) 14。黄金:实现模型轻量化(<5MB)并部署到手机端。
2025-02-19 18:08:42
394
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人