个人业务要不要用人工智能?引入AI前你须要评估的(四)

这是一个系列文章,从各个角度来评估一个问题:“个人业务要不要用 AI ?能不能用 AI?”

本期评估角度——黑箱html

黑箱是人工智能的缺点

并不是全部人工智能都是黑箱的,你们说的黑箱主要指当下最热门、效果也最好的「深度学习」。算法

在我以前写的《一文看懂深度学习》中,举过一个水龙头的例子,从那个例子就能够看出:深度学习的工做原理不是讲逻辑(基于规则),而是大力出奇迹(基于统计)segmentfault

大力出奇迹会致使几个结果:iphone

  1. 深度学习只能告诉你「是什么」,可是不能告诉你「为何」
  2. 没人能预知在什么状况下会出现错误

下面的图片就会展现一些人工智能所犯下的「低级错误」。学习

而最可怕的是:当咱们发现问题时,并不能针对具体问题来对症下药。优化

咱们过去的计算机科学大部分是基于规则的,很像一台汽车,咱们很清楚的知道这台车是如何组装起来的,因此发现螺丝松了就柠紧,哪一个零件老化了就换一个。彻底能够作到对症下药。人工智能

而深度学习则彻底不同,当咱们发现问题时,不能作到对症下药,只能全局优化(好比灌更多的数据)。spa

扩展阅读:翻译

深度 | Nature:咱们能打开人工智能的“黑箱”吗?3d

打破人工智能算法黑箱

哪些问题不适合「依赖」 AI ?

因为深度学习的黑箱特性,并不是全部问题都适合用深度学习来解决。

咱们评估哪些问题适合,哪些问题不适合的时候,能够从2个角度来评估:

  1. 是否须要解释
  2. 错误容忍度

咱们先从这2个角度来看看普及率较高的AI应用:

案例 是否须要解释 错误容忍度
语音识别 用户只关心效果好很差,并不关心背后的原理是什么 偶尔出现一些错误并不影响对整句话的理解。少许出错是能够接受的。
人脸识别 同上 相比语音识别,用户对出错的容忍度要低一些,由于须要从新刷脸。
机器翻译 同上 跟语音识别相似,只要大面上准确,并不影响总体的理解。

咱们再看一些 AI 和人力结合的具体应用:

案例 是否须要解释 错误容忍度
智能客服 用户不关心是人工服务仍是机器服务,只要能解决个人问题就行 若是机器客服不能理解个人意图,没法帮我解决问题,用户会很不满意。因此当机器搞不定 的时候须要人工来补位
内容审核 对于审核不经过的内容,须要解释缘由。经过的内容不须要解释为何。 有一种职业叫「鉴黄师」,目前正在逐步被机器替代,可是并无彻底替代,由于有时候机器会拿不许,这个时候人工来复审

最后看一些不适合AI落地的场景:

案例 是否须要解释 错误容忍度
推导定理 科学是绝对严谨的,必定是从逻辑上推导出来的,而不是统计出来的。 若是有例外就不能称做定理,必定是绝对正确没有错误的。
写论文 人工智能已经能够写小说,诗歌,散文。可是论文这种文体要求很是严谨的上下文逻辑。 论文里是不容许有错误的,全文的逻辑要很是清晰,哪怕一个细节出现了逻辑问题,也会形成整篇论文没有价值。

若是咱们把上面提到的案例所有放在象限中,大体以下:

案例在2个评估象限中的位置

因此,在评估的时候有3条原则:

  1. 解决方案越须要解释背后的缘由,越不适合用深度学习
  2. 对错误的容忍度越低,越不适合使用深度学习
  3. 上面2条并不是绝对判断标准,还须要看商业价值和性价比,自动驾驶和医疗就是反例。

案例分析:医疗

人工智能在医疗行业的应用被你们普遍看好,由于医疗行业有不少痛点:

  1. 医疗资源不足,尤为是优质的医生
  2. 医疗资源的分配极度不均衡,中国不少疾病只有北京能治
  3. 其实医生的误诊率也很高(恶性肿瘤误诊率40%,器官异位误诊率60%)

目前的人工智能已经能够帮助人类作诊断并提供治疗手段。

奇怪的是:不管是从可解释性仍是从错误的容忍度上来说,医疗诊断都不适合用人工智能。

但当咱们将人工智能做为一种辅助,最终仍是靠人类来作判断和下决定时。人类和机器能够造成很好的互补。

工厂的发展也是相似的路径:

  • 一开始机器只作辅助,人力是最重要的
  • 机械化和自动化的程度愈来愈高,机器的做用愈来愈大
  • 最终实现无人工厂(已经实现)

因此从「可解释性」和「错误容忍度」上能够评估出来哪些问题不适合「彻底依赖人工智能」。

但只要商业价值足够大,仍是有解决方案的——人类和机器相互配合,共同解决问题。而且随着技术的进步,不断减小对人力的需求。

扩展阅读:

人工智能辅助医生“阅片”:诊断准确率已超过95%

人工智能可以帮助快速诊断疾病  但却没法取代临床医生

2019中国人工智能医疗白皮书发布(附下载)
本文首发自 产品经理的 AI 学习库 easyai.tech

相关文章
相关标签/搜索