- 博客(521)
- 资源 (50)
- 收藏
- 关注

原创 【机器人】复现 3D-Mem 具身探索和推理 | 3D场景记忆 CVPR 2025
本文详细介绍了3D-Mem模型的复现和推理过程。首先,创建了一个名为3dmem的Conda环境,并安装了必要的依赖库,如habitat-sim、faiss-cpu、torch和pytorch3d。接着,配置了HuggingFace的国内镜像源,并下载了HM3D数据集。然后,通过运行代码生成A-EQA数据集的预测结果,过程中会下载并加载多个模型权重,如yolov8x-world.pt和sam_l.pt。最后,展示了模型推理的可视化结果,并提供了生成GOAT-Bench数据集预测结果的代码。整个过程涵盖了环境搭
2025-05-19 19:13:00
989

原创 【机器人】复现 WMNav 具身导航 | 将VLM集成到世界模型中
WMNav 是由VLM视觉语言模型驱动的,基于世界模型的对象目标导航框架。本文分享WMNav复现和模型推理的过程~
2025-05-17 18:15:00
1445
2

原创 【机器人】复现 SG-Nav 具身导航 | 零样本对象导航的 在线3D场景图提示
SG-Nav是一种创新的零样本物体导航框架,利用三维场景图表示观察到的场景,并通过分层的思路链提示帮助大型语言模型(LLM)推理目标位置。本文详细介绍了SG-Nav的复现和模型推理过程,包括环境配置、依赖库安装、预训练模型权重下载以及数据集准备。具体步骤包括创建Conda环境、安装habitat模拟器、pytorch、pytorch3d、segment_anything、GroundingDINO、GLIP和Ollama,并配置LLM。
2025-05-14 20:16:23
1038

原创 【机器人】复现 UniGoal 具身导航 | 通用零样本目标导航 CVPR 2025
本文介绍了如何复现和运行UniGoal,一个通用的零样本目标导航框架,能够处理对象类别导航、实例图像目标导航和文本目标导航。整个过程详细说明了环境搭建、依赖安装和模型推理的步骤
2025-05-12 22:16:15
1365
1

原创 【机器人】复现 ECoT 具身思维链推理
文章介绍了如何在VLA(视觉-语言-动作)模型的基础上训练一个视觉-语言-动作模型,该模型能够在选择机器人动作之前,根据指令和图像生成思考决策的推理步骤,从而提高性能、可解释性和泛化能力。文章提供了具体的实施步骤,包括创建Conda环境、安装依赖库、下载模型权重和运行推理。此外,文章还提供了一个可视化推理演示脚本,展示了如何通过输入指令和图像数据,生成任务目标、子任务拆分、子任务推理和控制指令,并将结果可视化保存。这个框架的目的是通过具身链式思维推理(ECoT)来增强机器人控制的智能性和可解释性。
2025-05-12 00:55:39
1036

原创 UniGoal 具身导航 | 通用零样本目标导航 CVPR 2025
UniGoal的提出了一个通用的零样本目标导航框架,能够统一处理多种类型的导航任务(如对象类别导航、实例图像目标导航和文本目标导航),而无需针对特定任务进行训练或微调。
2025-04-23 23:25:35
755

原创 NVIDIA Jetson 环境安装指导 PyTorch | Conda | cudnn | docker
本文适用于Jetson Nano、TX1/TX2、Xavier 和 Orin系列的设备,供大家参考。
2025-04-07 23:09:42
1708

原创 【机器人】复现 GraspNet 端到端抓取点估计 | PyTorch2.3 | CUDA12.1
GraspNet是的大规模基准的基线模型,值得学习和复现。本文分享使用较新版本的PyTorch和CUDA,来搭建开发环境。
2025-03-30 11:28:12
1086
2

原创 【机器人】复现 GrainGrasp 精细指导的灵巧手抓取
GrainGrasp为每个手指提供细粒度的接触指导,为灵巧手生成精细的抓取策略。通过单独调整每个手指的接触来实现更稳定的抓取,从而提供了更接近人类能力的抓取指导。
2025-03-24 19:56:03
1194
3

原创 【机器人】论文分析 ASGrasp 通用透明物体重建、6-DoF抓取预测
在机器人抓取领域,透明和镜面物体的抓取一直是个难题。物体是透明的,光线会直接穿过,深度相机就很难准确测量出杯子的实际位置和形状,很难准确地感知这类物体的深度信息。ASGrasp核心是两层学习型立体网络,能够同时恢复透明和镜面物体的可见部分和不可见部分的深度信息。然后融合两层深度信息,进行重建物体,得到点云信息作为GSNet(GraspNess)的输入,进而预测出抓取位姿。
2025-03-23 16:21:19
1090

原创 【机器人】复现 ASGrasp 通用透明物体重建、6-DoF抓取预测
在机器人抓取领域,透明和镜面物体的抓取一直是个难题。ASGrasp核心是,能够同时的和的。然后融合两层深度信息,进行重建物体,得到点云信息作为GSNet(GraspNess)的输入,进而预测出抓取位姿。与传统方法不同,ASGrasp不依赖深度相机生成的深度图,而是直接从主动立体相机获取的和入手。
2025-03-15 17:01:15
1045
1

原创 【机器人】MODEST 透明物体 单目深度估计和分割 ICRA 2025
MODEST是一种用于透明物体的单目深度估计和分割的方法,来自ICRA 2025。它通过单张RGB图像作为输入,能够同时预测透明物体的深度图和分割掩码。由深度图生成点云数据,然后采用GraspNet生成抓取位姿,开展透明物体抓取实验。
2025-03-10 22:37:51
1077
1

原创 【机器人】复现 MODEST 机器人抓取透明物体 单目 ICRA 2025
MODEST 单目透明物体抓取算法,来自ICRA 2025,本文分享它的复现过程。输入单个视角的RGB图像,模型需要同时处理深度和分割任务,输出透明物体的分割结果和场景深度预测。将算法迁移到真实机器人平台,开展了透明物体抓取实验。实验平台主要由UR机械臂和深度相机组成。在借助MODEST方法对透明物体进行分割和深度预测,生成点云数据作为输入,进而采用GraspNet生成抓取位姿。
2025-03-09 18:47:31
1414
10

原创 机器人学习模拟框架 robosuite 支持强化学习和模仿学习 (1) 快速入门
RoboSuite 是一款基于MuJoCo物理引擎构建的机器人学习模拟框架。人形机器人、自定义机器人组合,还包含复合控制器(像全身控制器等)、更多遥控设备选项,以及能够呈现出照片级逼真效果的渲染功能。
2025-02-23 00:24:34
1594
4

原创 DeepSeek-R1 本地电脑部署 Linux系统 【轻松简易】
本文分享在自己的本地电脑部署 DeepSeek,而且轻松简易,快速上手。这里借助Ollama工具,在Windows系统中进行大模型部署~ 本文的成功部署了DeepSeek-R1的1.5b、8b、14b、32b等版本
2025-02-09 07:10:59
3057

原创 DeepSeek-R1 本地电脑部署 Windows系统 【轻松简易】
本文分享在自己的本地电脑部署 DeepSeek,而且轻松简易,快速上手。借助Ollama工具,在Windows系统中进行大模型部署~
2025-02-06 22:58:14
6135
9

原创 【机器人】SceneGrasp 同时支持3D物体重建、6D位姿估计、抓取点估计
本文分享SceneGrasp,它来自IROS2023,同时支持物体分类、3D物体重建、6D位姿估计、抓取点估计。它是一种快速、高效且同时处理多个任务的方法,能够使机器人更好地理解和操作其环境。同时处理多个任务,实现任务之间共享信息,而且速度达到30 FPS。
2025-01-13 18:35:43
1977
1

原创 【机器人】01 强化学习、模仿学习和运动规划 仿真平台ISAAC Lab安装与使用
ISAAC Lab是 NVIDIA 提供的一个 GPU 加速的开源框架,专为简化机器人研究工作流程而设计,特别是在和等领域。它基于 NVIDIA 的 ISAAC Sim 构建,结合了高精度的物理和传感器,成为了从仿真到现实应用的理想选择。本文会分享ISAAC Lab的安装和使用,通过和进行安装的,适用于windows系统,带大家规避一些坑。
2024-12-03 01:11:19
4269
4

原创 YOLO11 图像缩放 | 图像填充 | 自适应不同尺寸的图片
本文分享YOLO中的图像缩放、填充,实现任意图像训练和推理的基础,是图像预处理中的工作。本文的代码和示例,适合YOLO11、YOLOv8和YOLOv5等版本。
2024-10-26 15:11:01
6231
1

原创 一篇文章快速认识YOLO11 | 旋转目标检测 | 原理分析 | 模型训练 | 模型推理
本文分享YOLO11的旋转目标检测任务,在原始目标检测中,添加多一个角度预测,实现定向边界框检测。包括1、旋转目标检测概述;2、YOLO11中的OBB数据格式;3、分析模型配置参数;4、分析检测头代码;5、编写模型训练;6、开始训练;7、模型推理
2024-10-24 19:30:12
10477
17

原创 YOLO11 目标检测 | 自动标注 | 预标注 | 标签格式转换 | 手动校正标签
本文分享使用YOLO11进行目标检测时,实现模型推理预标注、自动标注、标签格式转换、以及使用Labelme手动校正标签等功能。
2024-10-20 11:36:56
6984
1

原创 YOLO11 目标检测 | 导出ONNX模型 | ONNX模型推理
本文分享YOLO11中,从xxx.pt权重文件转为.onnx文件,然后使用.onnx文件,进行任务的。用,便于算法到开发板或芯片的部署。备注:本文是使用Python,编写ONNX模型推理代码的。
2024-10-17 19:20:37
14167
14

原创 YOLO11 实例分割 | 导出ONNX模型 | ONNX模型推理
本文分享YOLO11中,从xxx.pt权重文件转为.onnx文件,然后使用.onnx文件,进行实例分割任务的模型推理。用ONNX模型推理,便于算法到开发板或芯片的部署。备注:本文是使用Python,编写ONNX模型推理代码的。
2024-10-15 18:37:52
6975
8

原创 YOLO11 实例分割 | 自动标注 | 预标注 | 标签格式转换 | 手动校正标签
本文分享使用YOLO11进行实例分割时,实现模型推理预标注、自动标注、标签格式转换、以及使用Labelme手动校正标签等功能。
2024-10-14 19:11:18
7842
6

原创 一篇文章快速认识 YOLO11 | 实例分割 | 模型训练 | 自定义数据集
本文分享YOLO11的实例分割,通过自定义数据集、数据标注、标签格式转换、模型训练、模型推理和验证。目录1、数据标注2、Labelme的json转为YOLO的txt3、配置YOLO11代码工程4、数据集yaml配置文件5、YOLO11模型结构配置文件6、编写训练代码7、开始训练模型8、YOLO11模型训练——代码浅析。
2024-10-12 20:27:42
12703
8

原创 YOLO11模型训练 | 目标检测与跟踪 | 实例分割 | 关键点姿态估计
本文分享YOLO11的模型推理,检测任务包括物体分类、目标检测与跟踪、实例分割 、关键点姿态估计、旋转目标检测等。安装方式支持:默认的使用pip进行安装;也支持直接调用YOLO11源码,灵活便捷修改源码。本文支持自定义数据集,并提供详细训练参数的train.py版本,方便大家训练测试。
2024-10-11 06:00:00
8565
3

原创 YOLO11模型推理 | 目标检测与跟踪 | 实例分割 | 关键点估计 | OBB旋转目标检测
本文分享YOLO11的模型推理,检测任务包括物体分类、目标检测与跟踪、实例分割 、关键点估计、旋转目标检测等。
2024-10-09 21:50:43
10022
3

原创 一篇文章快速认识YOLO11 | 关键改进点 | 安装使用 | 模型训练和推理
本文分享YOLO11的关键改进点、性能对比、安装使用、模型训练和推理等内容。YOLO11 是 Ultralytics 最新的实时目标检测器,凭借更高的精度、速度和效率重新定义了可能性。除了传统的目标检测外,YOLO11 还支持目标跟踪、实例分割、关键点姿态估计、OBB定向物体检测(旋转目标检测)等视觉任务。1. YOLOv3:核心改进:YOLOv3 是 YOLO 系列的第三代,由 Joseph Redmon 于 2018 年发布,标志着 YOLO 从原始的单尺度检测进化到多尺度检测。
2024-10-08 23:26:27
29988
9

原创 CVPR2024 合成异常数据 工业异常检测 RealNet
本文分享一个基于扩散模型的异常检测框架,用于检测工业场景的缺陷检测或异常检测。强度可控扩散异常合成:基于扩散过程的合成策略,能够生成不同强度的异常样本,模仿真实异常样本的分布。异常感知特征选择:选择代表性和判别性的预训练特征子集,以提高异常检测性能并控制计算成本。重建残差选择:自适应选择判别性残差,用于全面识别各级异常区域。强度可控扩散异常合成,简称为SDAS,生成的异常图像,如下图所示。这些异常图像,都是基于正常图像生成的。
2024-05-31 23:08:56
6482
1

原创 3D工业视觉
本文主要介绍3D视觉技术、工业领域的应用、市场格局等。3D视觉技术满足工业领域更高精度、更高速度、更柔性化的需求,扩大工业自动化的场景。移动机器人视觉引导是一个前景的场景,主要技术包括结构光、ToF、立体视觉。从深度学习到通用视觉大模型,AI助力机器视觉提升效率,拓展应用场景。
2024-05-23 20:51:03
3892
3

原创 【6D位姿估计】SAM-6D 当分割一切遇到位姿估计 CVPR2024
本文介绍6D位姿估计的方法SAM-6D,来自CVPR 2024的论文。它是一个用于零样本6D位姿估计的框架,在测试新物体时,无需进行微调,直接进行检测。通过结合实例分割模型和姿态估计模型,实现对新物体的6D姿态估计。
2024-05-17 19:09:37
5141
7

原创 【6D位姿估计】FoundationPose 支持6D位姿估计和跟踪 CVPR 2024
本文介绍6D位姿估计的方法FoundationPose,是CVPR 2024的满分论文,支持6D位姿估计和跟踪。通过大规模的合成数据训练,具有强大的泛化能力,在测试新物体时,无需进行微调。支持输入一些物体的RGBD图片,模型进行3D物体构建;生成多个假设的姿态,进行评分和排序得到最精准的姿态。
2024-05-09 00:16:09
15331
7

原创 【多模态融合】MetaBEV 解决传感器故障 3D检测、BEV分割任务
本文介绍多模态融合中,如何解决传感器故障问题;基于激光雷达和相机,融合为BEV特征,实现3D检测和BEV分割,提高系统容错性和稳定性。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-04-06 19:42:09
2805

原创 【多模态融合】SuperFusion 激光雷达与相机多层次融合 远距离高清地图预测 ICRA 2024
本文介绍激光雷达与相机进行多层次融合,包括数据级融合、特征级融合和BEV级融合。融合后的BEV特征可以支持不同的任务头,包括语义分割、实例编码和方向预测,最后进行后处理生成高清地图预测,它是来自ICRA 2024的。会讲解论文整体思路、模型框架、论文核心点、损失函数、实验与测试效果等。
2024-03-26 01:45:35
9409
1

原创 【多模态融合】CRN 多视角相机与Radar融合 实现3D检测、目标跟踪、BEV分割 ICCV2023
本文介绍使用雷达与多视角相机融合,实现3D目标检测、3D目标跟踪、道路环境BEV分割,它是来自ICCV2023的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等。
2024-03-03 13:13:29
2767

原创 4D毫米波雷达——ADCNet 原始雷达数据 目标检测与可行驶区域分割
本文介绍使用4D毫米波雷达,基于原始雷达数据,实现目标检测与可行驶区域分割,它是来自2023-12的论文。ADCNet只使用雷达信息,实现车辆检测和可行驶区域分割。输入:原始雷达数据;即ADC数据,由4D毫米波雷达生成。信号处理模块:用一个可学习的信号处理层,来处理原始ADC数据。RD特征:信号处理层将ADC数据,转为RD特征,范围-多普勒信息,包含距离和速度信息。主干网络:进一步编码RD特征,隐式地估算目标的方位角。任务头:首先进行RAD张量预训练。在预训练完后,进行微调检测任务头和分割任务头
2024-01-30 00:24:41
3258

原创 4D毫米波雷达——FFT-RadNet 目标检测与可行驶区域分割 CVPR2022
本文介绍使用4D毫米波雷达,实现目标检测与可行驶区域分割,它是来自CVPR2022的。会讲解论文整体思路、输入数据分析、模型框架、设计理念、损失函数等,还有结合代码进行分析。输入是“范围-多普勒”信息,即RD图;由4D毫米波雷达生成。经过主干网络和FPN提取特征信息,并进一步编码形成“范围-角度”信息”。然后接两个任务头:车辆检测任务、可行驶区域分割任务。
2024-01-21 17:59:54
4572
4

原创 4D毫米波雷达——原理、对比、优势、行业现状
4D 毫米波雷达是传统毫米波雷达的升级版,4D指的是速度、距离、水平角度、垂直高度四个维度。相比传统 3D 毫米波雷达,4D 毫米波雷达增加了“高度”的探测,将第四个维度整合到传统毫米波雷达中。4D毫米波雷达被视为未来车载雷达的一种可能的标准配置,因为它在多方面优于传统的毫米波雷达和低线激光雷达,能与高线激光雷达互补。预计这种雷达将被广泛应用于各种车型中。与传统雷达产品相比,4D毫米波雷达能够突破在静止目标识别横向移动检测高度识别区分邻近物体和探测隐藏车辆等方面的限制。
2024-01-18 00:02:47
17282
1

原创 【占用网络】SurroundOcc:基于环视相机实现3D语义占用预测 ICCV 2023
本文分享“占用网络”方案中,来自ICCV 2023的SurroundOcc,它基于环视相机实现3D语义占用预测。使用空间交叉注意力将多相机图像信息提升到3D体素特征,即3D体素Query到2D图像中查询融合特征的思想。然后使用3D卷积逐步对体素特征进行上采样,并在多个层次特征图上进行损失监督。同时,SurroundOcc介绍了如何通过多帧点云,构建稠密的3D语义占用栅格数据集,这部分也是挺重要的。清华大学云盘。
2024-01-10 23:57:01
1900

原创 【占用网络】VoxFormer 基于视觉的3D语义场景方案 CVPR 2023
本文分享“占用网络”方案中,来自CVPR2023的VoxFormer,它基于视觉实现3D语义场景补全。使用Deformable Attention从图像数据中,预测三维空间中的体素占用情况和类别信息。VoxFromer是一个两阶段的框架第一个阶段:预测每个像素的深度值,将像素投影三维空间中,2D图像到3D空间的思想。然后预测每个三维网格是否被占用,生成稀疏体素特征。最后选择其中是“占用”的体素作为“体素查询特征”进入第二阶段。这个阶段只预测占用情况,选择一些值得分析的体素。第二个阶段。
2024-01-04 00:43:57
2673
CVPR 2022 Tutorial Denoising Diffusion-based Generative Model
2023-11-11
整理近年来《人工智能》的标准和评估规范
2020-11-19
宝马:深度学习在自动驾驶中的应用及部署过程.pdf
2020-04-05
“2019年中国自动驾驶行业发展研究报告-前瞻产业研究院-2019.8”.pdf
2020-04-05
VScode+opencv3.4+mingw5.3+cmake-3.9.0.rar
2020-04-03
apollo_demo_2.0.bag数据包
2020-01-13
apollo__demo_1.5.bag数据包
2020-01-13
apollo--demo_1.0数据包
2020-01-13
decawave_trek1000_arm2.10_pc3.6.zip
2019-07-22
ZigBee各类传感器模块-例程及使用手册说明.zip
2019-07-19
bazel-0.27.1-installer-linux-x86_64.sh
2019-07-10
Win32DiskImager-0.9.5-install 树莓派和电脑传输文件
2019-02-25
全国大学生电子设计竞赛 培训资料
2018-10-21
CC2530 (zigbee) 中文数据手册完全版
2018-10-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人