在上一篇文章中,咱们学习了如何安装配置OpenCV和Python,而后写了些代码玩玩人脸检测。如今咱们要进行下一步了,即搞一我的脸识别程序,就是不仅是检测还须要识别到人是谁。python
要搞一我的脸识别程序,首先咱们须要先用提早裁剪好的标注好的人脸照片训练一个识别器。好比说,咱们的识别器须要识别两我的,一我的的id是1,而另外一个的id是2,因而在数据集里面,1号人的全部照片会有id 1号,2号人同理。而后咱们就会使用这些数据集照片去训练识别器,再从一个视频中识别出1号人。shell
咱们把要作的事分红三部分:数组
在本文中,咱们会尝试写一个程序来生成数据集。ide
咱们来写一个数据集生成脚本。学习
首先打开咱们的Python环境,无论是Pycharm等IDE,仍是简单的记事本都行。须要提早准备的是在目录中放好haarcascade_frontalface_default.xml
,上一篇也有用到过这个XML文件,就是OpenCV自带的。ui
接下来使用cv2获取摄像头数据以及XML文件:spa
import cv2 cam = cv2.VideoCapture(0) detector=cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
咱们的数据集须要先从摄像头采集一些人脸例子照片,固然,只能是同一我的的。而后程序会给这些例子照片添加id,并将照片保存在一个文件夹中,这个文件夹咱们就将它命名为dataSet吧。code
来,咱们在py脚本的同目录下建立一个dataSet的文件夹。为了避免会将不一样的人脸照片弄混,咱们须要定一个命名规则,用于给照片命名。视频
例如,命名规则为User.[ID].[SampleNumber].jpg
。若是是2号人的第十张照片,咱们能够将它命名为User.2.10.jpg
。xml
为何要定义这样的格式呢?由于这样,在加载照片训练的时候,咱们就能够只经过照片的文件名,就能简单地判断是几号用户的人脸照片。
接下来,咱们尝试用比较简单的方法,经过shell输入,来获取人的id,而且初始化计算器变量来存储人们的例子数。
Id = raw_input('enter your id: ') sampleNum = 0
而后咱们加入一个主循环,咱们会从视频流中输入20个例子,而后把例子都保存在已经建立好的dataSet文件夹。
这是以前写过的代码版本,用于人脸检测:
while True: ret, img = cap.read() gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = detector.detectMultiScale(gray, 1.3, 5) for (x, y, w, h) in faces: cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2) cv2.imshow('frame', img) if cv2.waitKey(1) & 0xFF == ord('q'): break
如今咱们将它改形成数据集生成程序:
while True: ret, img = cap.read() gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = detector.detectMultiScale(gray, 1.3, 5) for (x, y, w, h) in faces: cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2) # 增长例子数 sampleNum = sampleNum + 1 # 把照片保存到数据集文件夹 cv2.imwrite("dataSet/user." + str(Id) + '.' + str(sampleNum) + ".jpg", gray[y:y + h, x:x + w]) cv2.imshow('frame', img) if cv2.waitKey(1) & 0xFF == ord('q'): break
咱们添加了两行代码,用以计算例子数,以及将人脸照片按照咱们的命名规则保存为jpg格式。
其中有一个值得注意的地方,就是gray[y : y + h, x : x + w]
。此处咱们是把一张灰度图片当作一个二维数组(或二维矢量),而后使用python中[]
截取OpenCV检测出来的人脸区域。
不过这样的代码会在一秒内快速地生成许多照片,好比说20张。咱们不想要那么快,咱们须要的是更好的素材,好比说从不一样角度拍摄出来的照片,这样的话,要求慢一点。
为了慢一点,咱们须要提升一下两次拍摄之间的延迟。同时,咱们素材不须要太多,20张就好。
while True: ret, img = cap.read() gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = detector.detectMultiScale(gray, 1.3, 5) for (x, y, w, h) in faces: cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2) # 增长例子数 sampleNum = sampleNum + 1 # 把照片保存到数据集文件夹 cv2.imwrite("dataSet/User." + str(Id) + '.' + str(sampleNum) + ".jpg", gray[y:y + h, x:x + w]) # cv2.imshow('frame', img) # 延迟100毫秒 if cv2.waitKey(100) & 0xFF == ord('q'): break # 超过20张就能够停了 elif sampleNum > 20: break
好,继续,如今的代码就会在两个拍摄间延迟100毫秒,100毫秒足够让咱们去移动咱们人脸的角度了(时间不够长就再加)。并且,在拍摄20张后就中止了。
最后记得释放资源:
cap.release() cv2.destroyAllWindows()
放出完整代码:
import cv2 detector = cv2.CascadeClassifier('haarcascade_frontalface_default.xml') cap = cv2.VideoCapture(0) sampleNum = 0 Id = raw_input('enter your id: ') while True: ret, img = cap.read() gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = detector.detectMultiScale(gray, 1.3, 5) for (x, y, w, h) in faces: cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2) # incrementing sample number sampleNum = sampleNum + 1 # saving the captured face in the dataset folder cv2.imwrite("dataSet/User." + str(Id) + '.' + str(sampleNum) + ".jpg", gray[y:y + h, x:x + w]) # cv2.imshow('frame', img) # wait for 100 miliseconds if cv2.waitKey(100) & 0xFF == ord('q'): break # break if the sample number is morethan 20 elif sampleNum > 20: break cap.release() cv2.destroyAllWindows()
如图,已经生成了一堆训练素材了。
先这样吧