本文主要介绍下opencv中怎样使用hog算法,因为在opencv中已经集成了hog这个类。其实使用起来是很简单的,从后面的代码就可以看出来。本文参考的资料为opencv自带的sample

  关于opencv中hog的源码分析,可以参考本人的另一篇博客:opencv源码解析之(6):hog源码分析

  开发环境:opencv2.4.2+Qt4.8.2+ubuntu12.04+QtCreator2.5.

  实验功能:

  单击Open Image按钮,选择需要进行人检测的一张图片,确定后自动显示出来。该图片的大小没限制。

  单击People Detect按钮,则程序会自动对该图片进行行人检测,且将检测到的效果显示出来,即用1个矩形框将行人框出来。

  单击Close按钮,退出程序。

  实验说明:

  1. hog描述子在opencv中为HOGDescriptor

  2. 可以调用该描述子setSVMDetector方法给用于对hog特征进行分类的svm模型的系数赋值,这里的参数为HOGDescriptor::getDefaultPeopleDetector()时表示采用系统默认的参数,因为这些参数是用很多图片训练而来的。  

  3.对输入图片进行行人检测时由于图片的大小不一样,所以要用到多尺度检测。这里是用hog类的方法detectMultiScale。参数解释如下:

HOGDescriptor::detectMultiScale(const GpuMat& img, vector<Rect>& found_locations, doublehit_threshold=0, Size win_stride=Size(), Size padding=Size(), double scale0=1.05, int group_threshold=2)

  该函数表示对输入的图片img进行多尺度行人检测 img为输入待检测的图片;found_locations为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即滑动窗口每次增加的比例;参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。

   4.  最后对检测出来的目标矩形框,要采用一些方法处理,比如说2个目标框嵌套着,则选择最外面的那个框。
5. 因为hog检测出的矩形框比实际人体框要稍微大些,所以需要对这些矩形框大小尺寸做一些调整。 实验结果:
图片1效果:

  hog行人检测-LMLPHP


图片2效果:

  hog行人检测-LMLPHP


图片3效果:

  hog行人检测-LMLPHP


图片4效果:

  hog行人检测-LMLPHP


实验主要部分代码(附录有工程code下载链接):
hog行人检测-LMLPHP
#include "dialog.h"
#include "ui_dialog.h"
#include <QtCore>
#include <QtGui> Dialog::Dialog(QWidget *parent) :
QDialog(parent),
ui(new Ui::Dialog)
{
ui->setupUi(this);
} Dialog::~Dialog()
{
delete ui;
} void Dialog::on_openButton_clicked()
{
QString img_mame = QFileDialog::getOpenFileName(this, "Open img", "../people", tr("Image Files(*.png *.jpg *.bmp *.jpeg)"));
img = imread( img_mame.toAscii().data() );
imwrite("../hog_test.jpg", img);
ui->textBrowser->setFixedSize(img.cols, img.rows);
ui->textBrowser->append("<img src=../hog_test.jpg>");
} void Dialog::on_detectButton_clicked()
{
vector<Rect> found, found_filtered;
cv::HOGDescriptor people_dectect_hog;
//采用默认的已经训练好了的svm系数作为此次检测的模型
people_dectect_hog.setSVMDetector(cv::HOGDescriptor::getDefaultPeopleDetector());
//对输入的图片img进行多尺度行人检测
//img为输入待检测的图片;found为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;
//参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即测试图片每次尺寸缩放增加的比例;
//参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。
people_dectect_hog.detectMultiScale(img, found, 0, Size(8, 8), Size(32, 32), 1.05, 2); //从源码中可以看出:
//#define __SIZE_TYPE__ long unsigned int
//typedef __SIZE_TYPE__ size_t;
//因此,size_t是一个long unsigned int类型
size_t i, j;
for (i = 0; i < found.size(); i++ )
{
Rect r = found[i]; //下面的这个for语句是找出所有没有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的
//话,则取外面最大的那个矩形框放入found_filtered中
for(j = 0; j <found.size(); j++)
if(j != i && (r&found[j])==r)
break;
if(j == found.size())
found_filtered.push_back(r);
} //在图片img上画出矩形框,因为hog检测出的矩形框比实际人体框要稍微大些,所以这里需要
//做一些调整
for(i = 0; i <found_filtered.size(); i++)
{
Rect r = found_filtered[i];
r.x += cvRound(r.width*0.1);
r.width = cvRound(r.width*0.8);
r.y += cvRound(r.height*0.07);
r.height = cvRound(r.height*0.8);
rectangle(img, r.tl(), r.br(), Scalar(0, 255, 0), 3);
}
imwrite("../hog_test_result.jpg", img);
ui->textBrowser->clear();
ui->textBrowser->append("<img src=../hog_test_result.jpg>"); } void Dialog::on_closeButton_clicked()
{
close();
}
hog行人检测-LMLPHP

实验总结:

从实验的结果来看,图片检测的准确率一般,当人体遮挡情况比较严重,且背景比较复杂时,有些误检和漏检。不过程序的检查速度还行,因为源码中用做了些优化处理。

 附:工程code下载

05-19 12:12