目录
  • 背景减除法
    • (1)BackgroundSubtractorMOG
    • (2)BackgroundSubtractorMOG2
    • (3)BackgroundSubtractorGMG
  • 帧差法

    最近做opencv项目时,使用肤色分割的方法检测目标物体时,背景带来的干扰非常让人头痛。于是先将背景分割出去,将影响降低甚至消除。由于初次接触opencv,叙述不当的地方还请指正。

    背景减除法

    (以下文字原文来源于https://docs.opencv.org/3.4.7/d8/d38/tutorial_bgsegm_bg_subtraction.html)
    背景减除法是很多基于视觉的应用的一个主要预处理步骤。例如使用一个静止的摄像头拍摄进出房间的人数,或是交通摄像头捕获车辆信息等。在以上的例子中,首先你需要单独把人和交通工具提取出来。从技术上来说,你需要从静止的背景中提取移动前景目标。

    通常情况下,我们的背景往往是未知的,因此需要通过一定的方法得到视频背景,然后用新的图像减去背景图片即可。

    在opencv中提供了几种背景减除的方法:

    (1)BackgroundSubtractorMOG

    这是基于高斯混合模型的算法,混合模型表示了观测数据在总体中的概率分布,高斯分布即正态分布,正态分布如下图:
    (图片来源于网络)

    详解opencv去除背景算法的方法比较

    而高斯混合模型就是使用高斯分布的混合模型,由于高斯分布具有良好的数学性质和计算性能,它的概率分布遵循高斯分布。

    cv2.bgsegm.createBackgroundSubtractorMOG()使用时可以不用传入参数

    import cv2
    
    cap = cv2.VideoCapture(0)
    fgbg = cv2.bgsegm.createBackgroundSubtractorMOG()
    se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))
    
    while cap.isOpened():
        ret, frame = cap.read()
        
        # 用于计算前景掩模
        fgmask = fgbg.apply(frame)
        _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
        binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
        res = cv2.bitwise_and(frame, frame, mask=binary)
        cv2.imshow("res", res)
    
        if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
            break
    
    cap.release()
    cv2.destroyAllWindows()
    

    运行结果:

    详解opencv去除背景算法的方法比较

    (2)BackgroundSubtractorMOG2

    它是改进的高斯混合模型,为各个参数设置了一些合适的值。

    import cv2
    
    cap = cv2.VideoCapture(0)
    fgbg = cv2.createBackgroundSubtractorMOG2()
    se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))
    
    while cap.isOpened():
        ret, frame = cap.read()
        fgmask = fgbg.apply(frame)
        _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
        binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
        backImage = fgbg.getBackgroundImage()
        res = cv2.bitwise_and(frame, frame, mask=binary)
        cv2.imshow("backImage", backImage)
        cv2.imshow("res", res)
        
        if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
            break
    
    cap.release()
    cv2.destroyAllWindows()
    

    运行结果:

    详解opencv去除背景算法的方法比较

    (3)BackgroundSubtractorGMG

    GMG:Geometric Multigid,几何多重网格。它默认使用前120帧图像进行建模,使用贝叶斯推断方法判断可能的前景物体。

    import cv2
    
    cap = cv2.VideoCapture(0)
    fgbg = cv2.bgsegm.createBackgroundSubtractorGMG()
    se = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3))
    
    while cap.isOpened():
        ret, frame = cap.read()
        fgmask = fgbg.apply(frame)
        _, binary = cv2.threshold(fgmask, 215, 255, cv2.THRESH_BINARY)
        binary = cv2.morphologyEx(binary, cv2.MORPH_OPEN, se)
        res = cv2.bitwise_and(frame, frame, mask=binary)
        cv2.imshow("res", res)
        
        if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
            break
    
    cap.release()
    cv2.destroyAllWindows()
    

    运行结果:

    详解opencv去除背景算法的方法比较

    以上这三种方法对于检测运动物体行之有效,但如果检测静态物体就不适合了。

    帧差法

    在可以确定背景时采用帧差法,此方法不仅可以用于动态目标检测,也能检测静态目标。
    帧差法需要一个变量来检测当前是第几帧。即通过后面的帧减去第一帧得到所需前景。

    import cv2
    
    cap = cv2.VideoCapture(0)
    frameNum = 0
    
    while cap.isOpened():
        ret, frame = cap.read()
        frameNum += 1
        tmp = frame.copy()
        
        if frameNum == 1:
        	bgFrame = cv2.cvtColor(tmp, cv2.COLOR_BGR2GRAY)
        elif frameNum > 1:
        	foreFrame = cv2.cvtColor(tmp, cv2.COLOR_BGR2GRAY)
        	foreFrame = cv2.absdiff(foreFrame, bgFrame)
        	_, thresh = cv2.threshold(foreFrame, 30, 255, cv2.THRESH_BINARY)
        	gaussian = cv2.GaussianBlur(thresh, (3, 3), 0)
        	cv2.imshow('gaussian', foreFrame)
    
    	if cv2.waitKey(1000 // 12) & 0xff == ord('q'):
        break
    
    cap.release()
    cv2.destroyAllWindows()
    

    运行结果:

    详解opencv去除背景算法的方法比较

    上述除了使用滤波的方法,也可以直接用cv2.subtract()进行图像减法运算。

     到此这篇关于详解opencv去除背景算法的方法比较的文章就介绍到这了,更多相关opencv去除背景算法内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。