近日,由开放原子开源基金会与 Linux 基金会联合开源中国共同举办的首届“GOTC 全球开源技术峰会”在上海世博中心圆满落幕。做为LF AI & Data子基金会的理事会成员之一,OPPO数智工程系统资深技术专家Liam Zheng在GOTC「AI大数据与数字经济」分论坛发表了名为《下一代人工智能:逻辑理解?物理理解?》的演讲。本文经过对Liam的访谈,向你们分享他对下一代人工智能的见解与理解。算法
Q1:在本次GOTC分论坛上发表《下一代人工智能的核心是逻辑理解和物理理解》这一演讲的背景是什么呢?
OPPO加入了LF AI &Data子基金会,咱们期待与其合做开源项目,在咱们的开源项目出来以前,咱们也须要一些预热。此外,人工智能发展到当前阶段,你们发如今实际部署上线后遇到好多badcase,可是又没法很方便的去修改模型,一般须要大量标定数据,从新训练模型。为了解决上述问题,个人观点是人工智能下一代应该是从逻辑层面和物理层面去深度地改造算法,而不能只是简单的去添加数据或把模型作大。安全
Q2:那您主要从哪些方面去介绍这个问题呢?
当时主要是讲了4部分,第一部分是目前人工智能面临的瓶颈;第二部分是介绍了业内大咖对下一代人工智能的一些观点;第三部分是我针对人类智能和人工智能进行对比分析;最后得出下一代人工智能的核心应该是逻辑理解和物理理解的观点。网络
Q3:目前与人类智能相比,您认为人工智能处于哪一个阶段呢?
人类智能实际上是有八个领域,目前人工智能只涉及了其中2-3个领域的工做。大部分的领域的数据表征都尚未涉及到。因此如今的人工智能其实处于婴儿时期,它远远没有达到特别全面,特别完备的一个阶段。机器学习
Q4:刚刚提到了人工智能的瓶颈,您认为最大的瓶颈是什么呢?
最主要的两点,一个是鲁棒性差,我举了个例子:好比分类一张熊猫图片,加了些随机噪声就变成了其余类别。就是微小的扰动,模型判断的结果就会差别很大,甚至能够控制模型误判到某个特定类别。
另外一点是可解释性欠缺。好比说有时候这个模型可能表现特别好,有些状况又表现比较糟糕,可是定位不到具体哪一个特征哪一个层形成这个模型表现差。
以上两点,在何积丰院士的《安全可信人工智能》讲演里也有提到。学习
Q5:对下一代人工智能业内是什么样的见解呢?
演讲中我介绍了几个大咖的见解。测试
一是Geoffrey E. Hinton提出了胶囊网络的这个视角,他认为cv模型不该该是Invariant,应该是equivariant,就是能反映出图像的结构;如今的卷积模型不可以反映出图像里面的结构信息,把某个部件放在任何一个位置,而后得出来的结果都不变,好比人的眼睛随便乱放也会得出是一张人脸。但若是人本身来看的话,人眼睛若是位置偏移的比较厉害的话,就彻底不像一张脸。大数据
二是Yan LeCun,他提出下一代人工智能主要依靠自监督学习;这个观点我是基本赞成的,经过自监督学习来逻辑的物理的初始化模型空间,当前机器学习主要依靠监督学习,而在我看来,这只是机器学习中的一小部分ui
三是朱松纯教授的观点,他认为下一代人工智能应该是乌鸦范式,经过小样本多任务学习解决实际问题;人工智能
最后还有Yoshua Bengio,他认为人工智能目前是感知阶段,下一阶段是认知阶段,但我认为感知阶段还远没有结束。图片
Q6:为何说“下一代人工智能的核心是逻辑理解和物理理解”?
机器学习训练集和测试集是基于IID(独立同分布)的假设,实际上线后预估的数据经常是OOD(与训练集分布不一样)。IID和OOD都是指表征上的分布,好的表征会有好的OOD效果。虽然深度学习泛化能力比传统机器学习要好些,可是一样面临OOD问题。当样本空间很大时,训练集永远只是总体的微小部分,和整体的分布会有很大差别。在微小训练集上作简单的监督学习只会学会训练样本的局部模式,由于只靠局部模式表征就能够取得训练集和测试集的IID效果了,而局部模式表征和局部模式远远不能知足上线后的OOD状况。总之,OOD是形成当前人工智能鲁棒性差的本质缘由。
下一代人工智能迫切要解决感知的鲁棒性,关键在于表征和训练的逻辑理解和物理理解,而不是超大模型超大数据。
获取更多精彩内容,关注[OPPO互联网技术]公众号