给定两个转换为cv::Mat灰度的占用栅格图,我使用了ORB特征描述符并匹配了从两个图像中提取的特征。大多数都是误报。在下面,我仅显示了一种关系,以表明这确实是一个误报。
最终,我想做的是在两个乘员网格图之间找到正确的变换,以便将其 map 合并到一个全局一致的 map 中。我拥有的当前代码如下所示:
// Load the two maps
nav_msgs::OccupancyGrid map1;
initOccupancyGridMap1(map1);
nav_msgs::OccupancyGrid map2;
initOccupancyGridMap2(map2);
// Convert the two maps to grayscale images
cv::Mat im1 = cvtMapToMat(map1);
cv::Mat im2 = cvtMapToMat(map2);
// Feature Descriptor Extraction
cv::OrbFeatureDetector featureDetector;
cv::OrbDescriptorExtractor featureExtractor;
std::vector<cv::KeyPoint> kp1;
std::vector<cv::KeyPoint> kp2;
cv::Mat d1;
cv::Mat d2;
std::vector<cv::DMatch> matches;
cv::BFMatcher dematc(cv::NORM_HAMMING, false);
// 1. Detect keypoints
featureDetector.detect(im1, kp1);
featureDetector.detect(im2, kp2);
// 2. Extract descriptors
featureExtractor.compute(im1, kp1, d1);
featureExtractor.compute(im2, kp2, d2);
// 3. Match keypoints
dematc.match(d1, d2, matches);
for (int i = 0; i < matches.size(); i++){
std::vector<cv::DMatch> match(1,matches[i]);
std::cout << "Distance: " << match[0].distance << std::endl;
cv::Mat img_show;
drawMatches(im1, kp1, im2, kp2, match, img_show);
imshow("Matches", img_show);
cv::waitKey(0);
}
最佳答案
为了删除非常相似的点,我使用了第二近邻。如果一个点匹配的点几乎等于另一个点,则不能确保匹配正确。
例如,如果您的A点与B点和C点相匹配,则如果B点相差至少25%(您选择的是该差异,但可以尝试其他数字),则可以认为B是一个很好的匹配点。 。
代码如下:
// 2. Extract descriptors
featureExtractor.compute(im1, kp1, d1);
featureExtractor.compute(im2, kp2, d2);
// 3. Match keypoints
std::vector<cv::DMatch> goodMatches;
// Instead match only one point, try to match with 2.
matcher.knnMatch( d1, d2, matches, 2 );
for(int i = 0; i< matches.size(); i++){ // matches from matcher
//with this condition we check that the points are at least 25% diferent.
if(matches[i].at(0).distance< 0.75*matches[i].at(1).distance){
goodMatches.push_back(matches[i].at(0));
}
}
关于opencv - 消除特征描述符中的误报,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/23432920/