用OpenCV在浏览器进行人脸检测

最近picojs上了Github Trending,这是一个小巧的人脸检测库,200行JS,2K大小,性能很好,效果也还还行。因而我想有没其余的能在浏览器跑的人脸检测库,一查才发现OpenCV已经支持编译到WebAssembly,也就能够直接在浏览器里使用了。python

在Bing搜美女,结果:)

编译OpenCV.js

安装Emscripten SDK:git

git clone https://github.com/juj/emsdk.git
cd emsdk
./emsdk update-tags
./emsdk install latest
./emsdk activate latest
source ./emsdk_env.sh

Emscripten能够把C/C++程序编译成asm.js,而后经过binaryen的asm2wasm转成WebAssembly。github

接着就能够编译OpenCV了:canvas

wget https://github.com/opencv/opencv/archive/3.4.1.zip
unzip 3.4.1.zip
cd opencv-3.4.1
python ./platforms/js/build_js.py build_wasm --build_wasm

编译的成果在build_wasm/bin浏览器

$ ls -lh build_wasm/bin/
total 5.5M
-rw-r--r-- 1 lyp lyp 263K Apr 26 22:10 opencv.js
-rw-r--r-- 1 lyp lyp 262K Apr 26 22:10 opencv_js.js
-rw-r--r-- 1 lyp lyp 5.0M Apr 26 22:10 opencv_js.wasm

咱们只须要其中的opencv.jsopencv_js.wasm,能够复制到其余地方使用,而opencv_js.js是中间生成的asm.js,能够忽略。markdown

加载OpenCV

咱们能够直接在HTML页面里引用opencv.js,它会自动加载opencv_js.wasm而后完成编译。遇到的第一个问题是,opencv.js默认会加载根目录的opencv_js.wasm,而咱们一般会把js文件放在二级目录里。第二个问题是,咱们的代码必须在OpenCV编译完成以后才能调用,不会代码就直接出错了。async

更新2018-08-20:在Emscripten v1.38.9locateFile行为已经修改,不须要这个hack了。ide

为了解决以上的问题,要经过Module进行配置:post

<script>
var Module = {
    locateFile: function (name) {
        let files = {
            "opencv_js.wasm": '/opencv/opencv_js.wasm'
        }
        return files[name]
    },
    preRun: [() => {
        Module.FS_createPreloadedFile("/", "face.xml", "data/haarcascade_frontalface_default.xml",
            true, false);
    }],
    postRun: [
        run
    ]
};

</script>
<script async src="opencv/opencv.js"></script>

Module是Emscripten生成的全局对象,经过它能够配置和调用Emscripten的API。例如locateFile用配置文件的实际URL。性能

preRun会在初始化前前调用,在这个时候,OpenCV还没初始化,咱们能够先用Emscripten的文件系统API预加载以后会用的文件,这里我加载了一个预训练好的模型data/haarcascade_frontalface_default.xml,存放在Emscripten文件系统的"/face.xml"。

postRun会在初始化完成以后执行,这时候OpenCV编译完成,能够使用cv模块了。

获取摄像头图像

<video  width="640" height="480" id="video" style="display:none"></video>
<canvas width="640" height="480" id="outputCanvas"></canvas>

首先咱们须要一个video标签,而后打开摄像头:

async function startCamera() {
    let video = document.getElementById("video");
    let stream = await navigator.mediaDevices.getUserMedia({
            video: {
                width: {
                    exact: videoWidth
                },
                height: {
                    exact: videoHeight
                }
            },
            audio: false
        })
    video.srcObject = stream;
    video.play();
}

而后咱们就能够用cv.VideoCapture来读取摄像头了:

// 建立VideoCapture
let cap = new cv.VideoCapture(video);
// 建立存放图像的Mat
let src = new cv.Mat(videoHeight, videoWidth, cv.CV_8UC4);
// 读一帧图像
cap.read(src);

Haar Cascades人脸检测

建立人脸检测器:

faceCascade = new cv.CascadeClassifier();
faceCascade.load("face.xml")

接着就能够循环读取图像,检查人脸,显示了:

// Capture a frame
cap.read(src)

// Convert to greyscale
cv.cvtColor(src, gray, cv.COLOR_RGBA2GRAY);

// Downsample
let downSampled = new cv.Mat();
cv.pyrDown(gray, downSampled);
cv.pyrDown(downSampled, downSampled);

// Detect faces
let faces = new cv.RectVector();
faceCascade.detectMultiScale(downSampled, faces)

// Draw boxes
let size = downSampled.size();
let xRatio = videoWidth / size.width;
let yRatio = videoHeight / size.height;
for (let i = 0; i < faces.size(); ++i) {
    let face = faces.get(i);
    let point1 = new cv.Point(face.x * xRatio, face.y * yRatio);
    let point2 = new cv.Point((face.x + face.width) * xRatio, (face.y + face.height) * xRatio);
    cv.rectangle(src, point1, point2, [255, 0, 0, 255])
}

// Show image
cv.imshow(outputCanvas, src)

// Cleanup
downSampled.delete()
faces.delete()

性能在30FPS左右,效果要比picojs好,代价是须要加载很大的JS和wasm,初始化慢。

完整代码:learn_ml/opencv.js

相关文章
相关标签/搜索