自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 RK、边缘端部署、并行优化、内存调优、模型推理框架的常见调优方法

训练后量化 PTQ 是使用一批校准数据对训练好的模型进行校准, 将训练过的FP32网络直接转换为定点计算的网络,过程中无需对原始模型进行任何训练。(fake_quant module)模拟量化模型在推理过程中进行的舍入(rounding)和钳位(clamping)操作,从而在训练过程中提高模型对量化效应的适应能力,获得更高的量化模型精度。在这个过程中,所有计算(包括模型正反向传播计算和伪量化节点计算)都是以浮点计算实现的,在训练完成后才量化为真正的int8模型。

2025-04-10 21:50:18 868

原创 基于地狱猫(RK3588)ubuntu系统,使用gstreamer rtsp 硬件解码拉去视频流

核心工具(包含:基础插件(如:包含常用插件(如:部分实验性插件(如rtspsrc:包含一些特殊编码器(如mpeg:FFmpeg 相关的插件。

2025-03-31 17:01:33 447

原创 YOLOv8 TensorRT 部署(Python 推理)保姆级教程

Python 进行 TensorRT 推理

2025-03-21 14:10:38 882

原创 搞定PyTorch中模型保存和加载:torch.save()、torch.load()、torch.nn.Module.load_state_dict()

恢复训练时的优化器状态,继续训练不会丢失 momentum、learning rate 等信息。一般来说,最推荐的做法是。,这样更灵活、兼容性更好。加载参数,否则会报错。

2025-03-21 13:56:20 512

原创 Jupyter 安装,设置外网访问且开机自启

的日志,我可以帮你分析更详细的原因!你的 Jupyter 服务器可能。,所以你需要修改它的。

2025-03-11 23:00:00 290

原创 查看宿主主机ip

获取宿主机的 IP 后,你可以使用该 IP 地址来访问 Docker 容器中的 Jupyter Notebook。等网络接口的 IP 地址,通常它们会显示类似于。的地址,这就是宿主机的 IP。这会返回宿主机的 IP 地址。

2025-03-11 17:54:01 396

原创 Docker 容器配置NVIDIA环境

这样,你的 Docker 容器就能正确使用 GPU 了!🚀 如果你遇到任何问题,请告诉我!如果输出 GPU 相关信息,说明 NVIDIA GPU 已成功在容器内运行。在 Docker 容器内安装 NVIDIA 以支持 GPU,需要使用。如果成功显示 GPU 信息,说明 NVIDIA 驱动已正确安装。如果你希望给正在运行的容器添加 NVIDIA 相关支持,可以。如果一切正常,你应该能看到你的 GPU 设备。如果你已经有一个 Docker 容器(如。并确保宿主机正确安装了。如果你的宿主机尚未安装。

2025-03-11 17:53:00 1164

原创 使用 RTSP 分发一路摄像头视频流到自定义 IP 地址

在本地主机上,可以为同一网卡配置多个 IP 地址,这样可以使用不同的 IP 地址发送视频流。使用 VLC 的命令行功能,将摄像头的输入流转发到自定义的多个 IP 地址。是网卡名称,实际使用时替换为你的网络适配器名称。:适合高度自定义需求或使用 UDP 的分发方式。是网卡名称,实际使用时替换为你的网卡名称。:将流发送到指定的 IP 地址和端口。:摄像头的 RTSP 输入流地址。:适合少量目标 IP,操作简单。:摄像头的 RTSP 输入流。:适合需要大规模分发的场景。:目标 IP 地址和端口。

2025-02-25 14:57:45 1027

原创 AI边缘处理设备怎么合理分配宽带和运行资源

在 AI 边缘处理设备中,合理分配宽带和运行资源是一项复杂的任务,需要综合考虑带宽、计算能力、存储、功耗等因素。数据压缩和量化减少带宽占用。边缘计算预处理和数据分流降低数据上传量。异构计算与硬件加速提升计算效率。动态任务调度和资源监控优化计算资源的使用。存储优化与数据缓存提高存储效率。智能电源管理延长设备运行时间。这些策略能够帮助确保边缘设备在有限资源下实现高效的 AI 推理和实时数据处理,同时优化功耗和网络带宽的使用。

2025-02-25 14:18:39 963

原创 基于RK3588 运行 yolov8 模型(亲测可行,完美避坑)

rk388 跑通yolov8

2025-02-18 17:07:45 2057

原创 基于RK3588 板子实现yolov5 模型转化推理----实测python 版

上文在ubuntu下安装的是 rknn-toolkit 注意区分,一个是ubuntu 工具环境, lite2 为 rknn 板端环境。找到 rknn_toollkit_lite2/packages ,里面有所需环境安装包,注意,仅在模型转化时才替换一下该函数,若执行模型训练和推理时,记得要修改会原来代码。修改 “opset” 修改onnx 的版本,要改为11or 12。创建虚拟环境,记得使用miconda 安装教程可自行搜索。修改模型地址和测试文件即可,支持图像,视频.如未报错说明安装成功。

2025-01-17 11:56:29 2029

原创 ubuntu 下使用Hailo模块 将onnx 模型量化编译hef 模型(二)

原生模式使用 float32 参数运行原始模型,fp_optimize 模式使用 float32 参数和所有模型修改运行,量化模式提供模拟硬件实现的输出。原生模式可用于验证 Tensorflow/ONNX 翻译过程,fp_optimize 模式可用于验证模型修改,而量化模式可用于分析优化模型的准确性。model_optimization_flavor: 模型优化策略,optimization_level 更加自己测试数据进行调整,如果测试数据小于1000,则一般设为0。5. 优化量化,编译的参数。

2024-12-27 11:35:59 1052 3

原创 yolov5 pt模型 转成onnx模型

​。

2024-12-20 18:08:05 1395

原创 树莓派4B 部署yolov5-lite(1.5) 模型教程----亲测成功(踩过一些博主的坑)

将labelme 标注的json 文件转成模型训练需要的txt 格式,执行一下代码,只需要替换上文json和txt 所在文件夹,即可自动执行json 转txt, 并将img 和txt 文本分别放到指定labels 和 images 文件中。同样测试集数据同理,最终生成train ,val 文件,里面对应images 和 labels 文件,分别存放图像和对应的标签数据信息。在yolov5-lite 中,找到export.py 文件,修改训练好的模型地址,模型图像尺寸。时,检测框位置更为精准。

2024-12-16 15:59:43 2867 20

原创 ubuntu 下使用Hailo模块 将onnx 模型量化编译hef 模型(一)

报错提示: ImportError: libGL.so.1: cannot open shared object file: No such file or directory。安装报错gcc 版本问题,对比当前版本和 CUDA 的要求。CUDA 11.8 通常需要 GCC 版本在 7.x - 12.x 之间,具体要求请查看 CUDA 安装文档。驱动安装过,就取消勾选,直接install 即可。一下均在hef_demo 环境下运行。解决方法: 安装libgl1 库即可。切换默认 GCC 版本,使用。

2024-12-16 15:58:46 664

原创 PyTorch 入门(一):卷积层,池化层参数计算

卷积层的输出尺寸可以通过以下公式计算:对于 :计算输出特征图尺寸:所以,卷积后的特征图尺寸是 128×128,通道数变为 32。池化层()的输出尺寸可以通过以下公式计算:对于 :计算池化后的输出尺寸:所以,池化后的特征图尺寸是 64×64,通道数仍为 32。经过第一层卷积和池化后:假设第二层卷积()和相同的池化操作:计算输出尺寸:特征图尺寸仍为 64×6464×64,通道数变为 64。计算池化后的输出尺寸:Output Size=64−22+1=32Output Size=264−2​+1=32所以,经过第

2024-11-22 16:30:22 467 1

rknn yolov5,v8模型推荐检测模型

rknn yolov5,v8模型推荐检测模型

2025-04-17

opencv-python 资源

2025-04-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除