我正在使用直方图背投来检测摄像头视频提要中的手掌。
我完全掌握了手掌的轮廓。问题是我的脸和其他“肤色”之类的物体也被检测到。
如何使直方图仅检测我的手掌而不检测其他任何东西(提高直方图的准确性)?

在运行程序之前,我使用手掌图像的区域来计算直方图。
python - 开放式CV手部识别-使手掌的backProjection更准确?-LMLPHP

注意在后台检测到门和脸:

cap = cv2.VideoCapture(0)
while True:
    _, frame = cap.read()
    frame = cv2.flip(frame, 1)
    cv2.putText(frame, "Place region of the {} inside the box".format(objectName), (30,50), cv2.FONT_HERSHEY_SIMPLEX, 0.85, (255,0,105), 1, cv2.LINE_AA)
    cv2.rectangle(frame, (100, 100), (150, 150), (255, 0 , 255), 2)
    cv2.imshow("Video Feed", frame)
    key = cv2.waitKey(10)
    if key == 108:
        objectColor = frame[100:150, 100:150]
        break
    if key == 27:
        cv2.destroyAllWindows()
        cap.release()
        break
hsvObjectColor = cv2.cvtColor(objectColor, cv2.COLOR_BGR2HSV)
objectHist = cv2.calcHist([hsvObjectColor], [0,1], None, [12,15], [0,180,0,256])
cv2.normalize(objectHist, objectHist, 0,255,cv2.NORM_MINMAX)

以下代码段使用上述直方图检测手掌。
hsvFrame = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV)

objectSegment = cv2.calcBackProject([hsvFrame], [0,1], objectHist, [0,180,0,256], 1)
disc = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (5,5))
cv2.filter2D(objectSegment, -1, disc, objectSegment)
_, threshObjectSegment = cv2.threshold(objectSegment,70,255,cv2.THRESH_BINARY)

threshObjectSegment = cv2.merge((threshObjectSegment,threshObjectSegment,threshObjectSegment))
locatedObject = cv2.bitwise_and(frame, threshObjectSegment)

locatedObjectGray = cv2.cvtColor(locatedObject, cv2.COLOR_BGR2GRAY)
_, locatedObjectThresh = cv2.threshold(locatedObjectGray, 70, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)
locatedObject = cv2.medianBlur(locatedObjectThresh, 5)

最佳答案

由于您正在使用颜色直方图,因此很难防止其他类似的颜色对象被分割。因此,一旦完成图像分割并分割了手和其他东西,u就可以使用连接的组件,然后分离出手区域(通过特征匹配{手的特征将与噪声特征不同)。

您可以探索的另一件事是时间超像素匹配。如果可以在第一帧中找到手的确切边界,则可以使用直方图将其分割为连续的帧,然后通过在时间上匹配超像素来定位手区域。

09-04 23:29