【B站保姆级视频教程:Jetson配置YOLOv11环境(五)Miniconda安装与配置】

Jetson配置YOLOv11环境(5)Miniconda安装与配置

0. Anaconda vs Miniconda in Jetson

Jetson 设备资源有限,而 Anaconda 安装包大且预装过多软件包,占用资源较高,可能影响设备性能。 Miniconda 更轻量级,占用资源少,更适合在资源受限的 Jetson 设备上使用。

特性AnacondaMiniconda
预装包数量250+ (包括常用的数据科学包)极少 (只包含 Python, conda 和依赖项)
安装包大小较大 (500MB - 3GB)较小 (几十 MB)
磁盘占用较高较低
资源占用较高较低
GUI 工具有 (Anaconda Navigator)
灵活性较低 (预装了很多包)较高 (完全掌控环境)
适用场景数据科学、机器学习等领域快速开发需要精简、自定义的 Python 环境

1. 下载Miniconda3

前往清华大学开源软件镜像站,选择次新aarch64版本Miniconda,下载到Jetson Downloads的目录

cd ~/Downloads
wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-py39_24.9.2-0-Linux-aarch64.sh

2. 安装Miniconda3

cd /home/nx/Downloads/									# 进入/home/nx/Downloads/ 目录
chmod +x Miniconda3-py39_24.9.2-0-Linux-aarch64.sh		# 添加可执行权限
./Miniconda3-py39_24.9.2-0-Linux-aarch64.sh				# 运行 Miniconda 的安装脚本

安装完成Miniconda后,可以发现其修改了.bashrc文件。
在这里插入图片描述

因此执行以下命令,使 ~/.bashrc 文件中的更改立即生效。或者logout一下再次ssh连接亦可。

source ~/.bashrc

可以发现左侧已出现base环境,表明成功安装。
在这里插入图片描述

3. 换源

3.1 conda 换源

打开.condarc

vim /home/nx/miniconda3/.condarc

注释原来的channels配置,添加下述配置。

channels:
  - defaults
show_channel_urls: true
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

在这里插入图片描述
使用下列命令清除索引缓存。

conda clean -i

3.2 pip 换源

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple/

4. 创建环境

建议创建与jetpack自带的python版本相同的conda环境,各种库比较容易找。

conda create -n pytorch python=3.8
conda activate pytorch

5. 设置默认启动环境

用vim打开.bashrc文件

vim ~/.bashrc

.bashrc文件末尾添加

conda activate pytorch	

重新加载并执行当前用户的 ~/.bashrc 文件中的内容

source ~/.bashrc

可以发现最左侧的默认环境变成了pytorch~
在这里插入图片描述

### Jeston 设备上配置 YOLOv11 的详细视频教程 目前,针对 Jetson 系列设备上的深度学习模型部署,尤其是 YOLO 系列的目标检测框架,社区中有许多高质量的教学资源。然而需要注意的是,YOLOv11 是一个假设性的版本号,在当前的时间节点下并未实际发布。因此以下内容将以通用的 YOLO 部署流程为基础,并结合已知的 YOLO 版本(如 YOLOv5 或其他主流版本)来提供指导。 #### 一、Jetson Nano 上部署 YOLO 的基本步骤概述 对于 Jetson Nano 这样的嵌入式硬件平台,部署 YOLO 模型通常涉及以下几个方面的工作: 1. **系统准备** 安装适合 Jetson Nano 的操作系统镜像文件。推荐使用官方发布的 L4T (Linux for Tegra) 系统[^2]。如果存储空间有限(例如仅 32GB),则应优先选择纯净版系统并手动完成必要的软件包安装;而对于更大容量的存储介质,则可以考虑直接加载预配置好的开发环境。 2. **依赖库安装** - CUDA 和 cuDNN:这些工具提供了 GPU 加速支持,是运行基于 PyTorch 或 TensorFlow 构建的神经网络所必需的基础组件。 - Python 及其科学计算生态链(NumPy, SciPy 等) - Conda 虚拟环境管理器用于隔离不同项目间的依赖冲突 3. **深度学习框架设置** 根据具体使用的 YOLO 实现形式决定是否需要额外编译 TensorRT 插件以实现推理性能优化[^1]。 4. **模型转换测试验证** 将训练完毕后的权重文件导出为 ONNX 格式或其他兼容格式后通过 TensorRT SDK 加载执行预测操作。 #### 二、B相关保姆教学视频推荐 虽然无法确切指出某一部专门讲解如何在 Jetson 设备上部署尚未存在的 YOLOv11 的视频,但以下是几类值得参考的学习材料方向: - “Jetson Nano 初学者指南系列”这类入门课程会详细介绍整个软硬件搭建过程; - 关于特定版本比如 v5/v7 的实战案例分享往往也能举一反三适用于未来更新迭代的产品线成员身上; - 如果关注点在于提升效率而非最新特性的话,那么有关 TensorRT 整合方面的专项解析同样非常有价值。 #### 示例代码片段展示 下面给出一段简单的 python 脚本来演示利用 tensorrt 接口加载 onnx 文件的过程: ```python import tensorrt as trt from PIL import Image import numpy as np def get_engine(onnx_file_path): TRT_LOGGER = trt.Logger(trt.Logger.WARNING) with open(onnx_file_path,'rb')as f ,trt.Builder(TRT_LOGGER).create_network()as network,trt.OnnxParser(network,TRT_LOGGER)as parser: if not parser.parse(f.read()): print('Failed to parse the ONNX') exit() config=builder.create_builder_config() engine=builder.build_serialized_network(network,config) return engine ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只云卷云舒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值