我正在使用深度学习执行整页脱机手写识别。

主要思想是建立一个模型,该模型可以采用一行文本图像并为其提供相应的文本。对于此主要任务,是对页面中的每一行进行线分割并将其发送到模型。

但是,我通过稍微修改看到的here在下面应用此代码。这里出现的主要问题是,它随机裁剪了图像的线条,我将其串行保存为segment_no_1,2,3...。

当我将这样的分段线(随机地)传递给模型时,它将无法生成相应的串行数字文本。

是否有合适的方法或算法可以像在原始图像中那样使用OpenCV串行执行线段分割。我已经在深度学习中找到了行细分,但是我不想使用它。

我的代码:

import cv2
import numpy as np
#import image
image = cv2.imread('input2.png')
#cv2.imshow('orig',image)
#cv2.waitKey(0)

#grayscale
gray = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)
cv2.imshow('gray',gray)
cv2.waitKey(0)

#binary
ret,thresh = cv2.threshold(gray,127,255,cv2.THRESH_BINARY_INV)
cv2.imshow('second',thresh)
cv2.waitKey(0)

#dilation
kernel = np.ones((5,100), np.uint8)
img_dilation = cv2.dilate(thresh, kernel, iterations=1)
cv2.imshow('dilated',img_dilation)
cv2.waitKey(0)

#find contours
im2,ctrs, hier = cv2.findContours(img_dilation.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)

#sort contours
sorted_ctrs = sorted(ctrs, key=lambda ctr: cv2.boundingRect(ctr)[0])

for i, ctr in enumerate(sorted_ctrs):
    # Get bounding box
    x, y, w, h = cv2.boundingRect(ctr)

    # Getting ROI
    roi = image[y:y+h, x:x+w]

    # show ROI
    cv2.imshow('segment no:'+str(i),roi)
    cv2.imwrite("segment_no_"+str(i)+".png",roi)
    cv2.rectangle(image,(x,y),( x + w, y + h ),(90,0,255),2)
    cv2.waitKey(0)

cv2.imwrite('final_bounded_box_image.png',image)
cv2.imshow('marked areas',image)
cv2.waitKey(0)

python - 使用OpenCV串行执行线段分割(裁剪)-LMLPHP

作为第一行段的segment_no_1.png可以从中间或有时倒数第二个找到,依此类推。

因此,应该进行哪些修改才能找到与原始图像相同的(顺序上)正确的分段线。

我对代码的任何改进也受到高度赞赏。提前致谢。

最佳答案

我认为您应该遵循this,其中显示了使用Python和OpenCV对轮廓进行排序。

我遵循的基本步骤是:

  • 模糊图像,必要时先转换为灰度。
  • 应用Canny边缘检测算法来查找每个字符的轮廓。
  • 将边缘检测到的图像传递给自适应算法,该算法在考虑相邻点的情况下效果更好。
  • 执行扩张,这在行分割上表现更好。
  • 对膨胀图像的副本执行线分割,该分割随机产生分段。
  • 最后按照“从上到下”的顺序对段进行排序。
  • 关于python - 使用OpenCV串行执行线段分割(裁剪),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/53962171/

    10-16 09:24