最近几个月,军用 AI 和主动攻击型武器的问题闹得沸沸扬扬,不少 AI 研究者联名反对这项技术的军事化。算法
但使人无奈的是,AI 的不少特征确实可以与极端复杂环境相结合,相似技术很难在民用市场找到落脚点,军用 AI 也就瓜熟蒂落做为了技术加持的方向。可是换个角度想一想,若是军用 AI 容易引起广泛恐慌,那么切换到警用会不会好不少?数据库
用 AI 来加持公共安全,提高警方的工做效率,彷佛是个不错的主意?安全
固然,咱们距离影片《机器战警》中描绘的世界还有很长的路要走。但在咱们平时不多关心的警用技术世界里,AI 从未缺席,甚至不少技术很是前沿,有点科幻味道的技术已经投身到了实战中。网络
就像众多 AI 应用领域同样,在 AI+ 公共安全的旅程上,争议和焦虑感也是必不可少的话题。今天让咱们来盘点一下警用 AI 的发展方向、层次和背后引发的争论。框架
在不少警匪片中,咱们常常会分不清卧底和警察。说不定将来某一天,咱们也会分不清执法的是真人警察仍是 AI 警察。想一想也是蛮有意思的。机器学习
工利其器:从警具开始的 AI 进化工具
罗马不是一天建成的,AI 警察也不可能立刻取代人类。在现实世界里,AI 的首要任务是升级警察叔叔手里的警具,让他们不用那么辛苦。学习
美国电影中,警察用发射带电飞镖的泰瑟枪制服嫌犯(有时候是主角)的画面可谓深刻人心。而泰瑟枪的制造商 Axon 现在已经开始了全面的 AI 化转型。好比他们就把 AI 技术用到了执法记录仪中。大数据
已经被美国多地警方装配的 AI 执法记录仪,能够经过摄像头背后的算法识别和分类功能,来对执法信息进行全自动编辑和存档。这个功能原理等同于咱们手机中的图片识别,但要创建在海量数据库和针对警用信息的强化机器学习基础上。有了这个能力,执法警员就没必要再对拍摄的资料进行大量剪辑、归档,从而节省工做时间。设计
依靠警用设备起家的 Axon,现在已经将企业目标全面设定为 AI。他们但愿经过 AI 带来的识别、判断和主动分析能力,来取代警察全部的文书和资料编辑工做。
假如你以为只是取代文书工做不太给力,那固然还有更强悍的。好比用 AI 来配合审讯。
日立和麻省理工合做推出过一个 AI 摄像头解决方案,能够精准识别出被拍摄人的心跳、脉搏等数据。这项技术的一个应用场景就是在审讯时,监控嫌疑人的生理情况和脸色变化等,并得出嫌疑人可能说谎或者精神高度紧张等结论。其实就至关因而一个 AI 测谎机。
这项技术的价值在于它并无收集太多嫌疑人资料,而是将一个审讯员察言观色的能力集成到了 AI 上,为审讯提供辅助。固然了,目前这类技术才刚刚开始出现。
另外还有一个很大的市场——警车。就在不久以前,美国媒体披露福特申请了一项新的自动驾驶警车专利。根据相关信息,福特的新警车不只可以自动驾驶,还能够经过车载摄像头和传感器发现街上其余车辆的违规信息,同时它还能链接到公共摄像头等设备,组成立体化的车辆自动执法体系。
根据专利信息,这种警车能够在不用人类介入的状况下本身开出罚单,甚至还能根据事态来主动追踪甚至跟踪嫌疑车辆。
你的违章罚单居然是一辆警车给开出来的,这听起来够神的吧?然而福特只是自动驾驶警车众多玩家中的一个而已,随着自动驾驶产业的发展中,警车市场恐怕也会成为老牌车厂和新造车公司的必争之地。
我是城市的眼睛和耳朵:摄像头背后的超级 AI 警察
以上说的那些 AI,放在警匪片里显然都是配角。可是演主角的心是每一个人都有的,AI 大概也不例外。
若是 AI 可以为咱们作一些人类警察作不到的事情,那么它们固然也就顺势上位了。好比说,同时看完城市中无数个摄像头的拍摄数据。在城市摄像头网络与公众安全这幕大戏中,AI 已经准备做为一名“超级警察”粉墨登场。
城市摄像头背后的 AI,第一个任务固然是从人海中找出逃犯。记得当年抓周克华的时候,警方出动了大量警员日夜不停的看监控,假如 AI 可以快速完成这项工做,那固然是一大善举。
以今天人脸识别技术的完成度来看,近距离认出逃犯并不难。难点是要在城市摄像头拍摄到的人山人海中精准识别出某我的脸数据。好比欧洲一个叫作 Indect 的摄像头+人脸定位项目,就号称能在足球场定位观众席里的嫌犯。用摄像头+人脸识别抓捕逃犯的技术在中国也获得了飞速发展,不少机器视觉公司提供相似的算法解决方案。
另外一个摄像头背后的 AI 安全应用,是预判人流密集度,从而实时示警引导人群疏散。咱们这样的人口大国,在人群密集时发生踩踏事故是严重的社会安全隐患。用 AI 识别人流拥挤程度是有效的解决方案。在今天中国不少一二线城市里,城市摄像头背后的 AI 预警装置已经开始上岗工做。
与人流控制类似,车流控制也是城市安全 AI 的一个主攻方向。好比经过摄像头判断车祸发生从而第一时间报警,甚至经过车辆行驶轨迹异常来判断酒驾和疲劳驾驶。这些都已经在部分中国城市中获得了应用。
比较好玩的是,负责城市安全的警用 AI 不只能“看见”,还能“听见”。
硅谷一个创业公司开发了名叫 ShotSpotter 的城市警用系统,它的能力是经过麦克风,借助 AI 能力在复杂的城市声音中识别出枪声。一旦听见枪响,系统就会自动向警方报警,并准肯定位枪击事发地。
固然了,能看能听以外,还能想就最好了。别急,这个 AI 也能作到。2016 年,富士通与日本电子通信大学公布了一个合做项目,内容是经过城市摄像头监控到犯罪事件以后,AI 系统自动规划出警方案和警力调配计划。其算法包括就近警力分配原则、预判嫌犯逃跑路线,还能设计出封闭道路和设置路障的方案。目前这个系统在人口密集、地形复杂的东京,已经能够在五分钟内给出一个警力调配方案。
躲在摄像头背后的 AI 警察,已经开始在全世界上班,注视着城市的一举一动。假如你以为这仍是不够厉害,那预测犯罪了解一下?
《少数派报告》看过没?大预测术已经在路上
不知道今天提《少数派报告》是否是一件暴露年龄的事,但一说到 AI 预测犯罪,仍是会联想起电影里的“先知”。
提起预测犯罪,就不能不提到警用科技界赫赫有名的 PredPol 公司。虽然 IBM、摩托罗拉等企业都涉足预防犯罪系统这个市场,但 2012 年才创建的 PredPol 已经覆盖了全美上百个地区的警局,在下降犯罪率上给出了很强势的数据反馈。
PredPol 的业务提及来没那么神秘。它的基本逻辑是根据过往犯罪率曲线和不断变化的犯罪事件时间、地点等数据,经过大数据分析算法,来得出哪一个街区犯罪事件高发、哪条街道抢劫事件较多、哪一个时间段城市比较危险这样的结论。再经过这些结论,来指导警方调整巡逻路线和巡逻时间,把更多警力投入到犯罪率偏高的时间地点上去。
这好像听起来也没什么,任何警员确定都知道重点巡逻这件事。但之前重点巡逻靠的是我的经验,并且整个警队难以统筹协调。PredPol 在 6 年间扩大了几十倍的使用率,已经在某种程度上说明了这种“犯罪预测”是有效的。
相似方案已经开始从美国拓展到其余国家。好比前几天日本神奈川县警方刚向财政部门申请研究经费,但愿能为 2020 年东京奥运会创建一个预测性治安体系。结合大数据体系和 AI 分析能力来设定更严密的安全保护机制。
若是以为已经投入使用的系统不够神,那咱们应该看看更前沿的研究。PredPol 最先并非一个警用科技创业项目,而是两名科学家的研究成果。站在 PredPol 背后的其中一个男人,就是加州大学洛杉矶分校的杰夫·布兰汀汉姆教授,他是今天“预测犯罪”领域的先驱和表明人物。
不久以前,杰夫·布兰汀汉姆团队在名为 Partially Generative Neural Networks for Gang Crime Classification 的论文中提出了这样一种设想:用深度学习网络来识别帮派犯罪的特征,从而将帮派分子从人群中找出来。
事情到了这里,大概有一点“科幻”的味道了。
在布兰汀汉姆团队的研究中,他们收集了洛杉矶警局 2014 年到 2016 年全部关于黑帮犯罪的数据,输入到一个深度学习神经网络中,由算法自动生成对于帮派犯罪的特征理解和行为框架。不少案件中缺失的证据环节也将有 AI 来主动补完。通过长时间的训练,AI 开始掌握了一套对帮派犯罪和黑帮分子的独特理解。回到现实中,当警方把新的嫌犯信息输入进 AI 系统后,就能够由 AI 来判断该人是否是参加了帮派组织和帮派犯罪。
布兰汀汉姆团队提出的城市时空犯罪预测模型
研究人员表示,这项研究的将来目标是在缺乏不少数据的状况下,依旧能判断嫌疑人是否参加了帮派……能够说是很是激进的技术了。
千万不要觉得这项技术仅仅是科学家搞着玩的,人家但是明确拿到美国国防部的资助,目标是以时空博弈论和机器学习技术打击极端主义。在帮派犯罪预测以后,布兰汀汉姆团队还将在具体犯罪种类预测和实时预测犯罪上展开进一步探索。
显然,无论你愿不肯意,AI 预测犯罪的“大预言术”已经向现实逼近。而一路伴随他的,是关于隐私、歧视和不靠谱的争议。
要安全仍是要隐私:警用 AI 的原罪博弈
去年,谷歌曾经发长文指出,中国某高校用人脸数据来预测罪犯的研究十分不靠谱。缘由是这项研究分析了犯罪分子数据库,从而得出了“某种面部特征的人更容易犯罪”,显然是把两种不相关的信息强行结合到了一块儿。
这场相似于“相面”的 AI 闹剧告诉咱们这样一种可能:咱们太想知道将来,也过度愿意作数据归因。不少看似神奇的结果,可能都是在这两种有问题的心理下被强行得出的。
好比就有批评者指责上文提到的 AI 帮派犯罪预测。因为其数据来源彻底是洛杉矶警察局提供的案件信息和警察得出的结论。那么 AI 想要判断准确,就必须创建在洛杉矶警察局全部判断都正确的基础上,而对于帮派犯罪来讲,这显然不可能。
数据关系之间的牵强,让不少预测类的警用 AI 从一开始就备受质疑。而其深度学习过程当中的黑箱性也是观察家和民众批评的焦点:研究者都不明白 AI 是怎么预测犯罪的,竟然就敢说我有问题?
更无奈的是,技术问题还仅仅是警用 AI 科技面临的第一重困境而已。向上一层则会撞上很是难办的歧视问题和隐私问题,在道德困境面前,技术会更加一筹莫展。
好比说前面说过的 AI 预测重点巡逻地区。这件事在日本还没开始,就已经有媒体担心这颇有可能加大警方对某几个具体区域的巡逻强度,从而让这个区域的居民和店铺产生不满。
在美国,这种不满早就体现出来了。2016 年美国公民自由联盟曾经联合十几我的权组织发表声明,认为警方用 AI 做为巡逻,甚至审讯和逮捕的工具并不恰当。其背后隐藏着警察系统对某些社区甚至某些族裔居民严重的偏见。
也有媒体比较阴谋论地认为,加州不少城市的警方过分热爱搞一下 AI 预测犯罪的技术,或许含有警方但愿在缺乏或者没有证据的状况下实施执法。
而关于隐私的争论就更严重了,城市摄像头追逃按说已是比较“温柔”的技术,但仍是有不少声音批评这些可以高高在上认出街上每个人的技术,实际上是对居民隐私的侵犯。“不被认出来”也是隐私权力之一,更况且数据如何应用居民也没法自主。
当警方手里的识别工具愈来愈强力,犯罪分子的活动空间固然会愈来愈小,但普通居民感到的隐私压抑感也会随之上升。在 AI 识别能力爆炸式发展的今天,这可能会是一个没法圆满解释的矛盾。
在的警用 AI 科技领域,强调公众安全仍是强调居民隐私,优先考虑技术的妥善度仍是应用效率,处在一场无止境的博弈里。
AI 历来都是一把双刃剑,这一点在安全领域尤为明显。