经过背景建模的方法,对源图像中的动态人物前景进行分割,再将目标图像做为背景,进行合成操做,得到一个可用的合成影像。python
实现步骤以下。算法
BackgroundSubtractorMOG2是一个以高斯混合模型为基础的背景前景分割算法,数组
分布几率是K个高斯分布的和,每一个高斯分布有属于本身的 \(\mu\) 和 \(\sigma\) 参数,以及对应的权重参数,权重值必须为正数,全部权重的和必须等于1,以确保公式给出数值是合理的几率密度值。换句话说若是咱们把该公式对应的输入空间合并起来,结果将等于1。app
回到原算法,它的一个特色是它为每个像素选择一个合适数目的高斯分布。基于高斯模型的指望和标准差来判断混合高斯模型模型中的哪一个高斯模型更有可能对应这个像素点,若是不符合就会被断定为前景。ide
face_cascade = cv2.CascadeClassifier() face_cascade.load( '/usr/local/anaconda3/envs/OpenCV/lib/python3.8/site-packages/cv2/data/haarcascade_frontalface_default.xml')
使用OpenCV自带的级联分类器,加载OpenCV的基础人像识别数据。测试
faces = face_cascade.detectMultiScale(gray, 1.3, 5)
# 形态学开运算去噪点 fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel) for i in range(15): fgmask = cv2.dilate(fgmask, kernel, iterations=1)
经过开操做去掉前景图像数组中的噪点,而后重复进行膨胀,填充前景轮廓。spa
def resolve(o_img, mask, faces): if len(faces) == 0: return (x, y, w, h) = faces[0] rgb_mask_front = cv2.cvtColor(mask, cv2.COLOR_GRAY2BGR) rgb_mask_front = cv2.bitwise_not(rgb_mask_front) cv2.circle(rgb_mask_front, (int(x + w / 2), int(y + h / 2)), int((w + h) / 4), (0, 0, 0), thickness=-1) o_img = cv2.subtract(o_img, rgb_mask_front) return o_img
将分割出来的部分取反再与源图像进行减操做,至关于用一个Mask从原图中抠出一部分。code
再与背景进行加操做orm
out = resolve(frame, fgmask, faces) out = cv2.add(out, c_frame)
import numpy as np import cv2 import os # 经典的测试视频 camera = cv2.VideoCapture('./source/background_test2.avi') cap = cv2.VideoCapture('./source/camera_test2.avi') face_cascade = cv2.CascadeClassifier() face_cascade.load( os.getcwd()+'/source/haarcascade_frontalface_default.xml') # 形态学操做须要使用 kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3)) # 建立混合高斯模型用于背景建模 fgbg = cv2.createBackgroundSubtractorMOG2(detectShadows=False) def resolve(o_img, mask, faces): if len(faces) == 0: return (x, y, w, h) = faces[0] rgb_mask_front = cv2.cvtColor(mask, cv2.COLOR_GRAY2BGR) rgb_mask_front = cv2.bitwise_not(rgb_mask_front) cv2.circle(rgb_mask_front, (int(x + w / 2), int(y + h / 2)), int((w + h) / 4), (0, 0, 0), thickness=-1) o_img = cv2.subtract(o_img, rgb_mask_front) return o_img while True: ret, frame = cap.read() c_ret, c_frame = camera.read() gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) fgmask = fgbg.apply(frame) # 形态学开运算去噪点 fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel) gray_camera = cv2.cvtColor(c_frame, cv2.COLOR_BGR2GRAY) for i in range(15): fgmask = cv2.dilate(fgmask, kernel, iterations=1) faces = face_cascade.detectMultiScale(gray, 1.3, 5) out = resolve(frame, fgmask, faces) out = cv2.add(out, c_frame) cv2.imshow('Result', out) cv2.imshow('Mask', fgmask) k = cv2.waitKey(150) & 0xff if k == 27: break out.release() camera.release() cap.release() cv2.destroyAllWindows()