- 博客(7)
- 收藏
- 关注
原创 带pitch角的单目测距(附C++代码)
yh的获取方式:点的物理世界坐标为(x, y, z, 1),无穷远点z=∞,同除z,得(x/z, y/z, 1, 1/z) = (x/∞, y/∞, 1, 1/∞) = (0, 0, 1, 0)。假设相机内参为K,外参为[R, t]。由于平行假设,光心对准地面无穷远点,车是贴地的,不会高于地面无穷远点,反应到像素上yb一定比cy大。摄像头P,焦距f,摄像头高度H,和障碍物B、C的距离分别是Z1、Z2。误差结论:640x480分辨率的图像,90m的测距误差比例为10%左右,45m的测距误差比例为5%左右。
2025-05-16 19:00:00
229
原创 相机和激光雷达后融合效果展示
跟踪:ByteTrack(激光为自己改造的ByteTrack)检测:相机yolo11n,激光雷达pointpillars。近期,ros2技能++,标定理论++视频上传太麻烦,搬运自己的知乎。
2025-04-25 17:54:39
136
2
原创 Autoware感知融合
子对象(雷达或相机)通常比主导对象(LiDAR)具有更高的频率。表示子跟踪对象用于补充主要对象。通常,主要跟踪对象来自 LiDAR,子跟踪对象来自 Radar 或 Camera。在 decorative_tracker_merger 中,我们假设对象分为两类:主导跟踪对象和子跟踪对象。如果概率>publish_probability_threshold,且上次更新时间<max_dt,则对象发布。如果概率<publish_probability_threshold,且上次更新时间<max_dt,则对象删除。
2025-03-26 18:37:44
800
原创 旋转目标GIoU计算原理与C++代码实现
2D目标表示为(x, y, w, h, yaw)。3D目标表示为(x, y, z, w, h, l, yaw)。其中 x,y(,z) 为中心点,yaw为偏航角。xyz方向为右前上,yaw为车头边与x正向夹角,取值为[-π, π]。
2025-02-12 19:04:42
753
原创 Apollo感知融合(部分)源码解读
文件:modules\perception\multi_sensor_fusion\multi_sensor_fusion_component.cc。激光雷达(lidar)、毫米波雷达(radar)、相机(camera)均有各自的检测、过滤和跟踪模块。各传感器处理结果统一交给融合模块(multi_sensor_fusion)处理,再进行后续预测和规划。猜想:背景目标只从激光雷达中获取,因此track_id是一致的,都是激光雷达跟踪的id。(一帧目标的集合) → SensorFrame (指定传感器) →。
2025-01-24 10:41:02
823
原创 Mac环境下jupyter notebook导出为pdf(含中文解决方案)
第一步安装pandoc(https://github.com/jgm/pandoc/releases/tag/2.5)和MacTex(https://tug.org/mactex/),MacTex会比较大,大概3G左右。ps. 有一些教程让下载BisicTex(MacTex的精简版本),但后续要自己安装很多内容,可能安装以后还会缺失很多文件 。建议直接下载MacTex,用空间换取时间。第二步...
2018-12-23 09:48:47
5644
原创 XGBoost相关知识、理论与重要参数
先导知识1. 决策树举个粗糙一点的例子:给你一堆人的某些特征,如“性别”、“年龄”、“收入”等,然后让你预测这个人是否能购买得起一台车。那么决策树就是挑一个特征,把所有样本按这个特征分为几拨,每拨样本根据一个规则为它们打一个标签作为输出。比如将所有样本按“性别”分为“男”和“女”,将所有性别是“男”的人放在一个叶子结点上,所有性别是“女”的人放在一个叶子结点上,“男”的叶子结点的输出结果就...
2018-10-23 10:27:45
519
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人