若是你们对HMS ML Kit 人脸检测功能有所了解,相信已经动手调用咱们提供的接口编写本身的APP啦。目前就有小伙伴在调用接口的过程当中反馈,不太清楚HMS ML Kit 文档中的MLMaxSizeFaceTransactor这个接口的使用方法。为了让你们更加深入的了解咱们的接口,方便在场景中使用,在这篇文章中小编准备抛砖引玉,你们能够打开思路,多多尝试。若是有小伙伴想要深刻的了解更加全面具体的功能,请你们移步https://developer.huawei.com/consumer/cn/hms/huawei-mlkit。html
相信你们都有在五1、十一出去游玩的经历,是否是都是这样的people mountain people sea.java
好不容易找我的少的地方,结果拍出来的照片是这样的。android
这样的android-studio
还有这样的网络
不看不知道,原来个人面部表情这么丰富。。是否是很心累?每次想要发个出去浪的朋友圈,都要在白天拍的成百上千张相似款的照片里,花上一小时才能找到一张能看的照片。。。app
为了解决相似问题,HMS ML Kit 提供了追踪识别画面中最大脸的接口,可以识别图像中的最大脸,方便对跟踪图像中的”重点目标“作相关操做和处理。本文中就简单的调用MLMaxSizeFaceTransactor这个接口,实现最大脸微笑抓拍的功能。机器学习
很简单,下载安装便可。具体下载连接:
Android studio 官网下载连接:https://developer.android.com/studio
Android studio安装流程参考连接:http://www.javashuo.com/article/p-wamzpmfl-bo.htmlmaven
打开AndroidStudio项目级build.gradle文件ide
增量添加以下maven地址:学习
buildscript { { maven {url 'http://developer.huawei.com/repo/'} } } allprojects { repositories { maven { url 'http://developer.huawei.com/repo/'} } }
要使应用程序可以在用户从华为应用市场安装您的应用程序后,自动将最新的机器学习模型更新到用户设备,请将如下语句添加到该应用程序的AndroidManifest.xml文件中:
<manifest ... <meta-data android:name="com.huawei.hms.ml.DEPENDENCY" android:value= " face"/> ... </manifest>
<!--相机权限--> <uses-feature android:name="android.hardware.camera" /> <uses-permission android:name="android.permission.CAMERA" /> <!--写权限--> <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
@Override public void onCreate(Bundle savedInstanceState) { …… if (!allPermissionsGranted()) { getRuntimePermissions(); }
能够经过人脸识别检测配置器“MLFaceAnalyzerSetting”建立人脸识别检测器。
MLFaceAnalyzerSetting setting = new MLFaceAnalyzerSetting.Factory() .setFeatureType(MLFaceAnalyzerSetting.TYPE_FEATURES) .setKeyPointType(MLFaceAnalyzerSetting.TYPE_UNSUPPORT_KEYPOINTS) .setMinFaceProportion(0.1f) .setTracingAllowed(true) .create();
经过MLMaxSizeFaceTransactor.Creator建立“MLMaxSizeFaceTransactor”对象用于处理检测到的最大脸,其中objectCreateCallback()方法是在检测到对象的时候调用的,objectUpdateCallback()方法是在对象更新了的时候调用的,在方法里经过Overlay在识别到的最大人脸上标记了一个方块,并经过检测结果获取MLFaceEmotion来识别微笑表情触发拍照。
MLMaxSizeFaceTransactor transactor = new MLMaxSizeFaceTransactor.Creator(analyzer, new MLResultTrailer<MLFace>() { @Override public void objectCreateCallback(int itemId, MLFace obj) { LiveFaceAnalyseActivity.this.overlay.clear(); if (obj == null) { return; } LocalFaceGraphic faceGraphic = new LocalFaceGraphic(LiveFaceAnalyseActivity.this.overlay, obj, LiveFaceAnalyseActivity.this); LiveFaceAnalyseActivity.this.overlay.addGraphic(faceGraphic); MLFaceEmotion emotion = obj.getEmotions(); if (emotion.getSmilingProbability() > smilingPossibility) { safeToTakePicture = false; mHandler.sendEmptyMessage(TAKE_PHOTO); } } @Override public void objectUpdateCallback(MLAnalyzer.Result<MLFace> var1, MLFace obj) { LiveFaceAnalyseActivity.this.overlay.clear(); if (obj == null) { return; } LocalFaceGraphic faceGraphic = new LocalFaceGraphic(LiveFaceAnalyseActivity.this.overlay, obj, LiveFaceAnalyseActivity.this); LiveFaceAnalyseActivity.this.overlay.addGraphic(faceGraphic); MLFaceEmotion emotion = obj.getEmotions(); if (emotion.getSmilingProbability() > smilingPossibility && safeToTakePicture) { safeToTakePicture = false; mHandler.sendEmptyMessage(TAKE_PHOTO); } } @Override public void lostCallback(MLAnalyzer.Result<MLFace> result) { LiveFaceAnalyseActivity.this.overlay.clear(); } @Override public void completeCallback() { LiveFaceAnalyseActivity.this.overlay.clear(); } }).create(); this.analyzer.setTransactor(transactor);
this.mLensEngine = new LensEngine.Creator(context, this.analyzer).setLensType(this.lensType) .applyDisplayDimension(640, 480) .applyFps(25.0f) .enableAutomaticFocus(true) .create();
this.mPreview.start(this.mLensEngine, this.overlay);
往期连接:快服务常见TOP3审核雷区,再不过审就要崩溃啦!
内容来源:https://developer.huawei.com/consumer/cn/forum/topicview?tid=0201256372685820478&fid=18 原做者:littlewhite