前言
目标检测:咱们不只要用算法判断图片中是否是猫仍是狗, 还要在图片中标记出它的位置, 用边框或红色方框把猫狗圈起来, 这就是目标检测问题。其中“定位”的意思是判断猫狗在图片中的具体位置。python
目标检测有两类任务:单一目标 ,多目标。算法
能力差,电气专业,又未怎么深刻研究cv.
因此本文先探讨单一目标。
数组
HOG+SVM实现行人检测
先讲解 opencv自带的行人检测例子
HOG原理见
计算机视觉:图像特征与描述大全 ,有代码(一篇博文带你简单了解完图像特征提取技术)
app
很少说,上代码机器学习
import cv2 as cv # 读取图像 src = cv.imread("duoren.jpg") cv.imshow("input", src) # HOG + SVM hog = cv.HOGDescriptor() hog.setSVMDetector(cv.HOGDescriptor_getDefaultPeopleDetector()) # Detect people in the image (rects, weights) = hog.detectMultiScale(src,winStride=(4, 4), padding=(8, 8),scale=1.25,useMeanshiftGrouping=False) # 矩形框 for (x, y, w, h) in rects: cv.rectangle(src, (x, y), (x + w, y + h), (0, 255, 0), 2) # 显示[添加连接描述](https://blog.csdn.net/kobeyu652453/article/details/107382227) cv.imshow("result", src) cv.waitKey(0) cv.destroyAllWindows()

图像定位实现
python +keras实现图像分类(入门级例子讲解)
opencv进阶学习笔记12:轮廓发现和对象测量
ide
目标检测算法很复杂。
我尝试用 图像分类+对象测量 来实现单目标的图像检测。
函数
图像分类 对象测量 很少说了,参考上面给的连接。学习
1读取图片并去噪ui
import cv2 as cv image= cv.imread("catdog/dog/dog.77.jpg") image=cv.resize(image,None,fx=0.5,fy=0.5) blurred = cv.GaussianBlur(image, (5, 5), 0) # 去噪
2二值化图像spa
gray = cv.cvtColor(blurred, cv.COLOR_BGR2GRAY) ret, binary = cv.threshold(gray, 0, 255, cv.THRESH_BINARY | cv.THRESH_OTSU)
3绘制轮廓边缘
contours, hireachy = cv.findContours(binary, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
cv2.findContours()函数第一个参数是要检索的图片,必须是为二值图,即黑白的(不是灰度图),因此读取的图像要先转成灰度的,再转成二值图,
参数讲解
contours,hierarchy=cv2.findContours(image,mode,method)
contours:轮廓
hierarchy:图像的拓扑信息(轮廓层次)(存储上一个轮廓,父轮廓…)
image:二值图像
mode:轮廓检索方式
method:轮廓的近似方法


4求得包含点集最小面积的矩形,这个矩形是能够有偏转角度的,能够与图像的边界不平行。
c = sorted(contours, key=cv.contourArea, reverse=True)[0] rect = cv.minAreaRect(c) box = np.int0( cv.boxPoints(rect)) # draw a bounding box arounded the detected barcode and display the image cv.drawContours(image, [box], -1, (0, 255, 0), 3)
讲解
double cvContourArea( const CvArr* contour, CvSlice slice=CV_WHOLE_SEQ );
contour:轮廓(顶点的序列或数组)。
slice:感兴趣区轮廓部分的起点和终点,默认计算整个轮廓的面积。
c = sorted(contours, key=cv.contourArea, reverse=True)[0]
取出最大的轮廓面积,有些轮廓为噪声。
最大轮廓通常状况下能取到咱们想要的目标物。
minAreaRect函数返回矩形的中心点坐标,长宽,旋转角度[-90,0),当矩形水平或竖直时均返回-90
使用cv2.boxPoints()可获取该矩形的四个顶点坐标。 浮点型数据
np.int0 取整
r=cv2.drawContours(image, contours, contourIdx, color[, thickness])
r:目标图像
image:原始图像
contours: 全部的输入轮廓边缘数组
contourIdx :须要绘制的边缘索引,若是所有绘制为-1。若是有多个目标,能够绘制第一个目标0,第二个目标1,第三个目标2.。。
color:绘制的颜色,为BGR格式的SCalar
thickness:可选,绘制的密度,即轮廓的画笔粗细
5找出四个顶点的x,y坐标的最大最小值。矩形框的高=maxY-minY,宽=maxX-minX。
因为前面的提到的 包含点集最小面积的矩形 有的矩形不与图像平行,是斜着的,以下图。咱们调整矩形框。
Xs = [i[0] for i in box] Ys = [i[1] for i in box] x1 = min(Xs) x2 = max(Xs) y1 = min(Ys) y2 = max(Ys) hight = y2 - y1 width = x2 - x1 cropImg = image[y1:y1 + hight, x1:x1 + width] cv.rectangle(image, (x1, y1), (x1 + width, y1 +hight ), (0, 0, 255), 2) # 在原图上,给轮廓绘制矩形 cv.imshow('result',image)

全部代码
import cv2 as cv import numpy as np src= cv.imread("dog.16.jpg") src=cv.resize(src,None,fx=0.5,fy=0.5) image=src.copy() #去噪 blurred = cv.GaussianBlur(image, (5, 5), 0) # 去噪 #灰度转换 gray = cv.cvtColor(blurred, cv.COLOR_BGR2GRAY) #二值化 ret, binary = cv.threshold(gray, 0, 255, cv.THRESH_BINARY | cv.THRESH_OTSU) #轮廓发现 contours, hireachy = cv.findContours(binary, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE) #取出最大轮廓 c = sorted(contours, key=cv.contourArea, reverse=True)[0] #找到最大轮廓的最小外接矩形 rect = cv.minAreaRect(c) #取出最小外接矩形的四个顶点 box = np.int0( cv.boxPoints(rect)) #绘制矩形框 Xs = [i[0] for i in box] Ys = [i[1] for i in box] x1 = min(Xs) x2 = max(Xs) y1 = min(Ys) y2 = max(Ys) hight = y2 - y1 width = x2 - x1 cropImg = image[y1:y1 + hight, x1:x1 + width] cv.rectangle(image, (x1, y1), (x1 + width, y1 + hight), (0, 0, 255), 2) # 在原图上,给轮廓绘制矩形 #显示 cv.imshow("input image", src) cv.imshow('result', image) cv.waitKey(0) cv.destroyAllWindows()

图像分类定位实现
我应用图像分类 加前面提到的定位 结合起来作 单目标的图像监测。
图像分类前面给出了连接,这里再也不给啦,博文太多连接了,会被显示待审核。
PYQT 封装吧。
#!/usr/bin/env python3 # -*- coding: utf-8 -*- # @Author: yudengwu # @Date : 2020/8/1 import sys from PyQt5 import QtWidgets, QtCore, QtGui from PyQt5.QtGui import * from PyQt5.QtWidgets import * from PyQt5.QtCore import * import cv2 import keras from keras .models import load_model import numpy as np import re class picture(QWidget): def __init__(self): super(picture, self).__init__() self.resize(600, 400) self.setWindowTitle("猫狗分类") self.btn = QPushButton() self.btn.setText("打开图片") self.btn.clicked.connect(self.openimage) self.label = QLabel() self.label.setText('图片路径') self.labelimage = QLabel() self.labelimage.setText("显示图片") #self.labelimage.setFixedSize(500, 400)#设置尺寸 self.labelimage.setStyleSheet("QLabel{background:white;}" "QLabel{color:rgb(300,300,300,120);font-size:10px;font-weight:bold;font-family:宋体;}" ) #预测按钮 self.btnclass=QPushButton() self.btnclass.setText('点击预测分类') self.btnclass.clicked.connect(self.fenlei) self.labelclass=QLabel() self.labelclass.setText('预测类别') self.labelclass.setStyleSheet("font:16pt '楷体';border-width:2px;border-style: inset;border-color:gray") layout1=QVBoxLayout() layout1.addWidget(self.btn) layout1.addWidget(self.label) layout1.addWidget(self.labelimage) layout2 = QVBoxLayout() layout2.addWidget(self.btnclass) layout2.addWidget(self.labelclass) layout=QVBoxLayout() layout.addLayout(layout1) layout.addLayout(layout2) self.setLayout(layout) def openimage(self): imgName, imgType = QFileDialog.getOpenFileName(self, "打开图片", "", "*.jpg;;*.png;;All Files(*)") #jpg = QtGui.QPixmap(imgName).scaled(self.labelimage.width(), self.label.height())#适应labelimage尺寸,前提是label设置了尺寸 jpg = QtGui.QPixmap(imgName) self.labelimage.setPixmap(jpg) self.label.setText(str(imgName)) def fenlei(self): biaoqian = {'1': '猫', '0': '狗'} path=self.label.text() newName = re.sub('(D:/机器学习/学习草稿/)','', path) #print(newName) img = cv2.imread(str(newName)) img = cv2.resize(img, (100, 100)) # 使尺寸大小同样 img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) img = np.array(img) / 255 img = img.astype(np.float64) img = img.reshape(-1, 100, 100, 1) model = load_model('猫狗分类.h5') predict_y = model.predict(img) pred_y = int(np.round(predict_y)) #print(pred_y) self.labelclass.setText(biaoqian[str(pred_y)]) ########图像定位 src = cv2.imread(str(newName)) src = cv2.resize(src, None, fx=0.5, fy=0.5) image = src.copy() # 去噪 blurred = cv2.GaussianBlur(image, (5, 5), 0) # 去噪 # 灰度转换 gray = cv2.cvtColor(blurred, cv2.COLOR_BGR2GRAY) # 二值化 ret, binary = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY | cv2.THRESH_OTSU) # 轮廓发现 contours, hireachy = cv2.findContours(binary, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) # 取出最大轮廓 c = sorted(contours, key=cv2.contourArea, reverse=True)[0] # 找到最大轮廓的最小外接矩形 rect = cv2.minAreaRect(c) # 取出最小外接矩形的四个顶点 box = np.int0(cv2.boxPoints(rect)) # 绘制矩形框 Xs = [i[0] for i in box] Ys = [i[1] for i in box] x1 = min(Xs) x2 = max(Xs) y1 = min(Ys) y2 = max(Ys) hight = y2 - y1 width = x2 - x1 cropImg = image[y1:y1 + hight, x1:x1 + width] cv2.rectangle(image, (x1, y1), (x1 + width, y1 + hight), (0, 0, 255), 2) # 在原图上,给轮廓绘制矩形 #显示在lableimage上 res = image res = cv2.resize(res, (400, 300), interpolation=cv2.INTER_CUBIC) # 用cv2.resize设置图片大小 img2 = cv2.cvtColor(res, cv2.COLOR_BGR2RGB) # opencv读取的bgr格式图片转换成rgb格式 _image = QtGui.QImage(img2[:], img2.shape[1], img2.shape[0], img2.shape[1] * 3, QtGui.QImage.Format_RGB888) # pyqt5转换成本身能放的图片格式 jpg_out = QtGui.QPixmap(_image) # 转换成QPixmap self.labelimage.setPixmap(jpg_out) # 设置图片显示 cv2.waitKey() cv2.destroyAllWindows() if __name__ == "__main__": app = QtWidgets.QApplication(sys.argv) my = picture() my.show() sys.exit(app.exec_())
说明:
model = load_model(‘猫狗分类.h5’)
导入训练好的分类模型
在PYQT中显示opencv图 核心代码
def setImage(self): img = cv2.imread('test.jpg') #opencv读取图片 img2 = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) #opencv读取的bgr格式图片转换成rgb格式 _image = QtGui.QImage(img2[:], img2.shape[1], img2.shape[0], img2.shape[1] * 3, QtGui.QImage.Format_RGB888) #pyqt5转换成本身能放的图片格式 jpg_out = QtGui.QPixmap(_image).scaled(self.imgLabel.width(), self.imgLabel.height()) #设置图片大小 self.imgLabel.setPixmap(jpg_out) #设置图片显示
结果演示


本文给出的方法不是纯粹的目标检测算法。定位有的图有所缺陷。
只是图像分类+对象测量 来实现单一目标检测功能
等我有时间研究下目标检测算法后,再来写博文。
电气专业的计算机萌新,写博文不容易,若是你以为本文对你有用,请点个赞支持下,谢谢。