6D位姿估计Point Pair Feature (PPF)算法详解

作者丨丁洪凯@知乎

来源丨https://zhuanlan.zhihu.com/p/94952276

编辑丨3D视觉工坊

一、论文解读

论文: Drost et al. Model Globally, Match Locally: Efficient and Robust 3D Object Recognition. CVPR, 2010.

http://campar.in.tum.de/pub/drost2010CVPR/drost2010CVPR.pdf

Model Globally, Match Locally 论文名字用 4 个词高度总结了 PPF 算法的精髓:“整体建模,局部匹配”。下面研读一下摘要(Abstarct):

[1] This paper addresses the problem of recognizing free form 3D objects in point clouds.

第一句话表明论文的研究方向与问题:3D物体点云(free form)的识别

[2] Compared to traditional approaches based on point descriptors, which depend on local information around points, we propose a novel method that creates a global model description based on oriented point pair features and matches that model locally using a fast voting scheme.

第二句话既表明论文的创新点(与前人方法的区别),又用一句话总结本文的中心思想。

·Model Globally: creates a global model description based on oriented point pair features

·Match Locally: matches that model locally using a fast voting scheme

[3] The global model description consists of all model point pair features and represents a mapping from the point pair feature space to the model, where similar features on the model are grouped together.

第三句话紧接着解释了什么是 global model description

[4] Such representation allows using much sparser object and scene point clouds, resulting in very fast performance.

第四句话说明这种 representation 的优点:稀疏采样,提升算法速度

[5] Recognition is done locally using an efficient voting scheme on a reduced two-dimensional search space.

第五句话表明如何实现 recognition:使用有效的投票机制在二维搜索空间里做局部匹配

[6] We demonstrate the efficiency of our approach and show its high recognition performance in the case of noise, clutter and partial occlusion.

第六句话表明本文算法针对的场景问题:干扰、堆叠、部分遮挡

[7] Compared to state of the art approaches we achieve better recognition rates, and demonstrate that with a slight or even no sacrifice of the recognition performance our method is much faster then the current state of the art approaches.

第七句话说明通过与 SOTA 方法的对比,文中提出的方法既保证了高的识别率,又在不牺牲识别性能的情况下提升了算法的速度。

接下来看一下论文的算法:

1. Model Globally

首先定义两个词:scene 和 model ,scene 是我们测得的真实场景(点云),model 是物体的真实模型(点云)。

Both the scene and the model are represented as a finite set of oriented points, where a normal is associated with each point.

符号表示:

  •  points in the scene

  •  points in the model

(1)Point Pair Feature (PPF)

Model Gobally 的本质是通过定义 Point Pair Feature,来构建特征矢量的集合以及每个特征矢量对应的点对集,作为 Global Model Desciption。所以,首先先定义 PPF。

PPF 描述了两个有向点(oriented points)的相对位置和姿态。

假设有两个点  和  ,法向量(normals)分别为  和  ,  ,则 PPF 定义为:

注:  为两个矢量的夹角,且  是非对称的。PPF 示意图见 Figure2.(a)。

有了 Point Pair Feature,就可以用其来定义 Global Model Description。

(2)Global Model Description

注:Global Model Description 是离线(in the off-line phase)构建的

先看原文:

The model is represented by a set of point pair features with similar feature vectors being grouped together.

实现方法:

第一步:计算 model 表面所有 point pairs 的特征矢量  ,其中 distances 和 angles 分别以  和  的步长做采样;

第二步:构建哈希表(hash table),将具有相同 feature vector  的 point pair 放在一起,即哈希表的键(key )为 feature vector  ,值(value)为具有相同特征矢量的点对集  ,如 Figure2.(b) 所示。

The global model description is a mapping from the sampled point pair feature space to the model.

2. Match Locally

当定义好全局模型描述(Global Model Description)后,就可以考虑局部匹配了。

All model features  that are similar to a given scene feature  can then be searched in constant time by using  as a key to access the hash table.

(1)Local Coordinates

局部匹配的大概思路如下:

·从 scene 中选取任意一个参考点  ,假设它在物体的表面上,若假设正确,则在 model 存在一个点  与  对应;

·将这两个参考点配准,需同时将点的位置和法向量对齐;

·让 model 绕  的法向轴转动一定角度与 scene 配准

由此看来,从 model space 到 scene space 的刚体变换可以由 model 中的一点和转动角度  来描述,将这个 pair  定义为 model 相对于参考点  的Local Coordinates 。

现在明确一下思路:

·给定参考点  ,选取与 scene 点对  具有相似 fecture vector (same distance and relative orientation)的 model 点对  ;

·通过变换矩阵  将  移动到 Local Coordinates 的原点,并且转动 model,使其法向轴  与 Local Coordinates 的  轴重合;

·同理,通过  对 scene 做相同操作;

·最后,将 model 中的一点  绕  轴转动  与  配准

通过上述描述,可以将从 model 到 scene 的 transformation 定义为:  ,如 Figure 3 所示。

(2)Voting Scheme

现在我们可以将研究问题定义如下:

前面我们定义了 local coordinates,现在只需要通过一种方法找到最优的 local coordinates 使得 scene 中落在 model 表面的点最多,即可求出物体 pose。

论文通过投票机制实现,定义一个二维的 accumulator array,行(rows)数  为 model 采样点  的个数,列(columns)数  为按采样步长  的旋转角  的个数。

This accumulator array represents the discrete space of local coordinates for a fixed reference point.

具体实现:

·对于 scene 的参考点  ,与 scene 中所有其他的点组成点对  ,对每一个点对,计算  ;

·将  作为 key,搜索 global model description 的哈希表,找到与  类似(distance & normal)的 model 特征矢量  和点对  ;

·对于每个匹配的 model 点对  ,通过之前的公式  可以算出旋转角  ;

·对  与二维数组中离散  对应的位置投票(+1);

·全部计算完后,我们就可以得到参考点  的最大得票所对应的  和  ,即最优的 local coordinates 

(3)Efficient Voting Loop

对每个点对都要求解  ,为了加速计算,将  分解:  ,这样就可以分别计算  和  了。

根据  和  ,求得:

注:

·对于 model 或者 scene 中的每个点对,  都是唯一的

·对于 model 中的每个点对,  可以在离线阶段求解

·对于 scene 中的每个点对,  只需要算一次

(4)Pose Clustering

之前的算法基于我们的假设:参考点是在物体表面的。因此,我们需要在 scene 点云中采样多个参考点  ,保证至少有一个参考点能在物体表面。

每个参考点可能返回多个位姿(投票相同),返回的位姿(retrieved poses)是否逼近 ground truth,取决于 model 和 scene 点的采样率和旋转角的采样。

我们对所有返回的位姿做聚类,每个 clutter 中位姿的位置、姿态的差异不超过设定的阈值,然后每个聚类的得分是其包含的所有位姿的总得分,找出得分最高的 clutter,则最终的位姿 为得分最高的 clutter 里面包含位姿的平均值。

如果场景中存在物体的多个实例,则会返回多个 clutters。

二、 OpenCV 实现

opencv_contrib 代码:

https://github.com/opencv/opencv_contrib/tree/master/modules/surface_matching

文档 Documentation:

https://docs.opencv.org/3.0-beta/modules/surface_matching/doc/surface_matching.html

测试数据集:

http://staffhome.ecm.uwa.edu.au/~00053650/recognition.html

注意:

·Mian数据集 ply 文件不含 normal 信息,需先计算法向量

·可视化使用的 open3d(颜色渲染:z coordinate as color)

测试结果:

model

scene

将经过位姿转换的 model 点云与 scene 点云叠加的效果:

transformed model & scene

三、Matlab 实现

Github Project:

https://github.com/guglu/ppf-matching

注:

代码中 mex 可执行文件应该是在 windows 平台下编译的,而我是在 ubuntu 系统中使用 matlab,所以需要重新编译一下,在 command line 中运行:

mex mex/computePPFmex.cpp
mex mex/computePPFmex.cpp
mex mex/MurmurHash3.cpp

运行 test_detector.m 脚本即可。

model

scene

结果:

四、PCL 实现

PCL 中关于 PPF 的示例代码如下:

https://github.com/PointCloudLibrary/pcl/blob/master/apps/src/ppf_object_recognition.cpp

PCL 中定义了:

PPFSignature:ppf 特征,定义在 point_types.hpp 中,是一种数据类型;

PPFHashMapSearch:哈希表搜索模板类

PPFRegistration:ppf 配准模板类

建议在 PPF 之后用 ICP 迭代优化。

效果如下:

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值