ORB在图像边缘附近找不到关键点,我也不知道为什么。 SIFT和SURF似乎更糟,我期望相反。
如果我理解正确,那么SIFT / SURF会在测试点周围分别使用16x16和20x20的正方形块,因此我希望他们不会从边缘找到8和10像素的关键点。 FAST / ORB在测试点周围使用直径为7的圆,因此我希望它可以找到更靠近边缘的关键点,也许最接近4个像素(尽管我认为用于描述关键点的关联算法“BRIEF”使用较大的窗口)因此这将删除一些关键点)。
实验使我的预言毫无意义。在我的实验中,距边缘的最小距离随正方形的大小和间距而变化,但示例如下:
谁能解释为什么?
我使用的代码如下。我绘制了一个正方形网格并应用了高斯模糊。我希望算法能够锁定在角上,但是他们找到了正方形的中心和一些伪像。
import numpy as np
import cv2
size = 501; border = 51; step = 10
image = np.zeros( (size,size), np.uint8 )
# fill with disjoint squares
def drawsquare(img,i,j):
restsize = step//5
cv2.rectangle(img,(i-restsize,j-restsize),(i+restsize,j+restsize),255,-1)
for i in range(0,size,step):
for j in range(0,size,step):
drawsquare(image,i,j)
# blank out the middle
image[border:size-border,border:size-border] = 0
# and blur
image = cv2.GaussianBlur(image,(5,5),0)
imgcopy = image.copy()
descriptor = cv2.xfeatures2d.SIFT_create(nfeatures=2000)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SIFT keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,0,255))
cv2.imshow( "SIFT(red)", imgcopy )
cv2.waitKey()
descriptor = cv2.xfeatures2d.SURF_create()
kps, descs = descriptor.detectAndCompute(image,None)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SURF keypoints , min coord is {}".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,255))
cv2.imshow( "SIFT(red)+SURF(yellow)", imgcopy )
cv2.waitKey()
descriptor = cv2.ORB_create(nfeatures=800)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} ORB keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,0))
cv2.imshow( "SIFT(red)+SURF(yellow)+ORB-detect(green)", imgcopy )
cv2.waitKey()
kps, descs = descriptor.compute(image,kps)
minpt = min([k.pt[0] for k in kps]+[k.pt[1] for k in kps])
print("#{} ORB described keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(255,0,0))
cv2.imshow( "SIFT(red)+SURF(yelow)+ORB-compute(blue)", imgcopy )
cv2.waitKey()
cv2.imwrite("/tmp/grid-with-keypoints.png",imgcopy)
程序的输出为#2000 SIFT keypoints, min coord is 5.140756607055664
#1780 SURF keypoints , min coord is 15.0
#592 ORB keypoints, min coord is 39.60000228881836
#592 ORB described keypoints, min coord is 39.60000228881836
和图像是附录
Grillteller回答了我的问题,并在ORB检测器的创建代码中给了我一个额外的参数。如果我写
descriptor = cv2.ORB_create(nfeatures=800,edgeThreshold=0)
然后我得到输出#950 ORB keypoints, min coord is 9.953282356262207
最佳答案
通常,图像边缘的关键点对于大多数应用程序没有用。考虑例如行驶中的汽车或飞机以拍摄航拍图像。在下一帧中,通常看不到图像边框上的点。在大多数情况下,当计算对象的3D重建时,感兴趣的对象位于图像的中心。同样,您提到的事实是,大多数特征检测器都可以与像素周围的感兴趣区域一起使用,这一点很重要,因为这些区域可能会在图像边界处产生不良影响。
进入OpenCV ORB(848-849)的源代码时会使用带有edgeThreshold
的函数,该函数可以使用cv::ORB::create()
进行定义,并设置为默认值31像素。 “这是未检测到特征的边框的大小。它应该与patchSize参数大致匹配。”
// Remove keypoints very close to the border
KeyPointsFilter::runByImageBorder(keypoints, img.size(), edgeThreshold);
该函数定义为:void KeyPointsFilter::runByImageBorder( std::vector<KeyPoint>& keypoints, Size imageSize, int borderSize )
{
if( borderSize > 0)
{
if (imageSize.height <= borderSize * 2 || imageSize.width <= borderSize * 2)
keypoints.clear();
else
keypoints.erase( std::remove_if(keypoints.begin(), keypoints.end(),
RoiPredicate(Rect(Point(borderSize, borderSize),
Point(imageSize.width - borderSize, imageSize.height - borderSize)))),
keypoints.end() );
}
}
并使用keypoints.erase()
移除边缘附近的关键点。对于SIFT,相关行(92-93)可以找到here:
// width of border in which to ignore keypoints
static const int SIFT_IMG_BORDER = 5;
我假设SURF使用类似的参数(= 15?),但是据我所知,SIFT和SURF中的这些参数不能像在ORB中那样简单地在函数调用中进行更改。关于python - 为什么FAST/ORB不利于在图像边缘附近找到关键点,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/63651619/