我已经训练了自己的模型来识别模式,该模式以.svm的形式存在,并且在没有良好跟踪时通过跟踪运动来支持该模式。这很有效,但是我遇到的问题是有时我会得到误报,有时会覆盖最近启动的运动轨迹。
我尝试使用dir()
记录检测器,但找不到任何置信度字段,并检查了引用,但是我找不到如何使此跟踪器输出其置信度的方法。
我想做的基本上是为系统愿意使用的轨道质量设置一个阈值,该阈值会随着时间的流逝逐渐降低。 IE,如果它丢失了我的图案的轨迹,并立即选择了图像的某个随机角以使其具有低置信度轨迹,它将不会覆盖我最近的(因此是质量)运动轨迹。而如果运动轨迹已经运行了很长时间,则它很可能会滑落,并且我更倾向于信任低质量的轨迹。
TL; DR;如何获得此探测器的置信度?非常感谢您可能会给我的任何帮助。
我在下面附加了代码以显示上下文
import os
import sys
import glob
import dlib
import cv2
detector_path = sys.argv[1] #first point towards the detector to use
video_path = sys.argv[2] #then point it towards a folder filled with images. Doesn't need to be drawn from video
win = dlib.image_window()
files_to_test = os.listdir(video_path)
detector = dlib.simple_object_detector(detector_path)
tracker = None
tracker_age = 0
for file in files_to_test:
img = dlib.load_rgb_image(video_path + "/" + file)
dets = detector(img)
print("Number of faces detected: {}".format(len(dets)))
for k, d in enumerate(dets):
print("Detection {}: Left: {} Top: {} Right: {} Bottom: {}".format(
k, d.left(), d.top(), d.right(), d.bottom()))
if len(dets) > 0:
tracker = dlib.correlation_tracker()
d = dets[0]
print(dir(d))
x = d.left()
y = d.top()
x2 = d.right()
y2 = d.bottom()
rect = dlib.rectangle(x,y,x2,y2)
tracker.start_track(img,rect)
tracker_age = 0
win.clear_overlay()
win.add_overlay(dets)
else:
print("relying on motion track for the past {} frames".format(tracker_age))
if not tracker == None:
tracker.update(img)
pos = tracker.get_position()
startX = int(pos.left())
startY = int(pos.top())
endX = int(pos.right())
endY = int(pos.bottom())
# draw the bounding box from the correlation object tracker
cv2.rectangle(img, (startX, startY), (endX, endY),
(0, 255, 0), 2)
win.set_image(img)
dlib.hit_enter_to_continue()
最佳答案
使用dlib.simple_object_detector
您将无法获得所需的东西,请尝试以下函数:[boxes, confidences, detector_idxs] = dlib.fhog_object_detector.run_multiple(detectors, image, upsample_num_times=1, adjust_threshold=0.0)
有关更多信息,请参见http://dlib.net/train_object_detector.py.html。