首页 理论教育角点检测在F16、T60和汽车模型上的应用效果

角点检测在F16、T60和汽车模型上的应用效果

【摘要】:我们从普林斯顿模型库中挑选出一个飞机模型F16、一个坦克模型T60、一辆汽车模型用来进行与角点检测相关的实验。

1.实验环境

(1)硬件环境

普通DELL台式计算机一台,基本配置为P(R)D/3.4GHz/1.00G/160G/19in[1]

(2)软件环境

WindowsXP操作系统,Visual Studio C++6.0开发平台,OpenCV函数库。

2.实验数据来源

Caltech101图像库共有101类目标,每类目标有40~800幅图像,图像大小为300×200像素;普林斯顿大学三维模型库(Princeton Shape Benchmark)[2]中的模型可以投影为2D图像,模拟相应物体分割后的二维灰度图像。我们从普林斯顿模型库中挑选出一个飞机模型F16、一个坦克模型T60、一辆汽车模型用来进行与角点检测相关的实验。

978-7-111-38182-2-Chapter04-55.jpg

图4-9 图像局部特征的提取与表示

a)建筑物与人 b)汽车与树 c)建筑物与人的特征点 d)汽车与树的特征点 e)建筑物与人的特征描述 f)汽车与树的特征描述

实验1:DoG特征点检测与SIFT特征描述子表示

如图4-9c和4.9d所示,DoG检测算子是稀疏选取法的典型代表,其检测出的特征区域数量一般在200~3000个,其主要优点是简洁、紧致,图像的特征点远远少于图像的像素,使得后面的识别过程能大大加速。但很多特征区域检测算法往往和图像的特性相关,应用到通用目标识别时,可能会有一定的局限。图4-9e和4-9f为SIFT描述子的向量表示方式,箭头的起点代表该特征点的位置,箭头的长度代表该特征点所处的尺度,箭头的方向代表该特征点的主方向。

实验2:直线投影和SUSAN角点检测

如图4-10所示,直线投影法相对来说简单实用,具有较高的检测精度和稳定性,由于把角点定义在目标的轮廓线上,必须先分割图像并进行二值化,这样一来对前期的图像分割有很大的依赖性,而图像分割本身运算比较复杂,分割过程中出现的任何错误都有可能影响到检测结果。SUSAN算法则不需计算梯度,不需插值且不依赖于前期图像分割的结果,直接对像素的邻域灰度值比较即可检测出角点,速度比较快,通过自适应阈值的改进之后,该算法的抗噪声干扰能力有所加强,角点检测效果比较理想。

978-7-111-38182-2-Chapter04-56.jpg

图4-10 二值图像的角点检测效果

978-7-111-38182-2-Chapter04-57.jpg

图4-10 二值图像的角点检测效果(续)