深度学习先驱 Yann LeCun 被骂到封推!AI 偏见真该甩锅数据集?

整理 | 夕颜
php

出品 | CSDN(ID:CSDNnews)算法

最近,人工智能领域又发生了一次热热闹闹的争论,随后演变成一场偏离轨道的争吵,目前以 Yann 道歉封推暂告一段落......
编程

 

                           

争论前因后果
微信

 

此次争论的主角是图灵奖得主、人工智能标杆性人物 Yann LeCun,争论源自于 Yann 针对一篇 CVPR 论文提出的 PULSE 算法发表的一句观点。网络

 

PULSE 算法是美国杜克大学研究人员发明的一种新的图像识别算法,它能够将低分辨图片变成高清图片,细致到毛孔、头发都能神还原,即便是被打了马赛克的图片,也能够经过该算法“脑补”出清晰地图片。因而一张引发争议的图片诞生了:架构

            

有人用做者在论文中开源的代码进行了模型推理,使用美国前总统奥巴马的打码图像进行了试验,结果发现奥巴马被还原成了白人。 机器学习

                           

为了证实还原照片不是假的,还有人用本身和更多人的照片作了对比实验,能够很清楚地看到,生成照片中的人都具备了白人的特征。分布式

 

一石激起千层浪,尤为是在这个特殊时期,有色人种被还原成白人的事挑起了你们对于 AI 系统产生偏见(bias)的批判,也再次警醒人们,AI 技术带有偏见所带来的潜在危机。ide

 

而 Yann 此时在 Twitter 上发表了本身的观点:   函数

                

推文大意是,当数据集有偏见时,机器学习系统也随之产生偏见。这个系统之因此让生成图片看起来都是白人是由于系统在只包含白人图像的 FlickFaceHQ 数据集上进行预训练,换成一个来自塞内加尔的数据集,同一个系统生成的图像看起来就是非洲人了。

 

就是这样一句话引发了争议,有人说,机器学习系统产生偏见不该只归咎于数据集,这种甩锅的作法是不公平的,还有人的缘由、观念的缘由,等等,最后评论区的声音很快偏离轨道,没有多少人关心关于偏见的学术和技术讨论,而是转移到具备煽动性的种族话题讨论中, Yann 也终于疲于应对指责,发布了一条道歉推文,宣布本身今后将再也不在推特发表重要观点。

 

PULSE 算法如何产生偏见?

 

抛开不理智的声音,此次陷入争论中心的 AI 系统偏见实际上是一个存在好久热度很高的话题,今天咱们就来看一下,还原马赛克图片背后的PULSE 算法到底是怎么回事,为何会产生偏见。

 

PULSE 算法背后的团队来自杜克大学,阐述这一算法的论文入选了 CVPR 2020 大会。

 

论文地址:https://arxiv.org/pdf/2003.03808.pdf

 

简单来讲,该算法利用了“放大(upscaling)”技术来处理图像中的像素,其工做原理相似于将低分辨率电影高清化,就是在放大画面后加强细节。问题是,马赛克图片缺乏了不少像素细节,PULSE 算法必须借助机器学习技术来填补像素不足的地方,也就是说,还原后的图像实际上并非说复原图像原本真实的样子,而是算法经过数据记得训练,“脑补”出新的图像。

而“脑补”的过程,就须要用到英伟达的 StyleGAN。PULSE 算法进一步利用了 StyleGAN 的想象力。论文做者在文章中也指出,虽然用 PULSE 用 StyleGAN(在FFHQ上训练)做为生成模型生成了使人印象深入的图像质量,但他们注意到当在测试之外的人脸天然图像上进行实验时会产生偏见,而他们认为 PULSE 的偏见继承自 StyleGAN 的一些固有偏见,并提出了这种偏见的来源:

  • 从潜在空间约束继承的误差:若是为StyleGAN有色人种分布在隐空间较低密度的区域会产生偏见,这是由于PULSE对潜在空间的的必要限制,以持续生成高分辨率图像。

  • 没法收敛:在GitHub上发布的初始代码中,当在优化结束时 PULSE 仍未找到正确缩小的图像(在内)时,PULSE 没法返回“找不到图像”。所以,可能的问题是,在 StyleGAN 的输出中很难找到有色人种要比白人人少的图像。

  • 从优化继承而来:这意味着受约束的潜在空间包含各类有色人种的图像,但PULSE的优化程序未找到它们。可是,若是是这种状况,那么咱们应该可以在受约束的潜在空间中找到具备足够随机初始化的图像。可是通过试验彷佛并不奏效。

  • 从StyleGAN继承:一些人指出,彷佛在StyleGAN的加强的潜在空间中能够生成更多元化的图像。可是,这与StyleGAN自己在训练后生成的图像集并不类似,例如,在同一篇论文中,做者展现了嵌入的不相关领域(例如猫)的图像也很成功。在他们的工做中,PULSE仅限于StyleGAN认为是真实的人脸图像。

 

正如算法的建立者在 GitHub 上的说明:“看起来 PULSE 生成白人面孔的频率确实比其余有色人种高不少,这种偏见极可能是从 StyleGAN 训练时使用的数据集继承而来的,也可能存在咱们不知道的其余因素,”

 

AI 艺术家 Mario Klingemann 认为,这个问题应该归结于 PULSE 算法自己,在选择像素的逻辑上出现了偏见,而不全是训练数据的问题。Mario 强调本身能够利用 StyleGAN,从相同的低分辨率奥巴马图像中生成非白人特征的图片。

 

在论文中,PULSE 的做者在附录中的model card中也讨论了模型偏见,写道相比于 CelebA HQ(基于公众人物(名人)的人脸数据集),FairFace或许是评估模型时的更好选择。    

              

偏见都甩锅给数据集对吗?

在这个案例中,AI 艺术家 Mario Klingemann 认为,算法产生偏见其实应该归结于 PULSE 算法自己在选择像素的逻辑上出现了偏见,而不全是训练数据的问题,指出本身利用 StyleGAN,从相同的低分辨率奥巴马图像中能够生成非白人特征的图片。

             

其实 Yann 在推特中已经很明确地表示,他的本意并非说问题都出在数据集上,只是针对这篇论文中 PULSE 算法在特定场景下,换个数据集就能解决问题,但并非说全部的机器学习系统偏见都来源于数据集。

              

机器学习系统中致使社会偏见的缘由不少(这里不谈论更通常的概括偏置):

1.如何收集数据和格式化 

2.特征设计

3.模型的架构

4.目标函数

5.部署方式 

摒弃偏见,还能从哪里入手?

 

其实,关于 去 AI 偏见的研究早就已经有了,各类方法各有利弊,可是也代表了你们对这一问题的重视。固然,最重要的思路仍是从训练数据集自己入手,尽可能使用不带偏见的数据集,从源头上摒弃偏见。然而,世界上不可能存在彻底不带任何偏见的数据集,还需从其余角度提出解决的方案。

 

好比 2019 年 MIT 就提出了一种纠偏算法,能够经过从新采样来自动消除数据偏见,借助无监督神经网络 VAE (变分自编码器)学习训练数据的潜在结构,用学到的潜在分布为数据点加权,从而解决偏见问题。

 

这并非人们第一次提出解决 AI 偏见问题。早在 2018 年,Facebook 曾发布Fairness Flow,会在算法因种族、性别、年龄等因素作出不公正判断时发出警告以提醒开发者。

 

宾夕法尼亚州立大学的研究人员开发了一种人工智能工具,用于识别人工智能系统或人类决策者对受保护属性(如性别或种族)的歧视,该工具基于因果关系的概念,即一件事(一个缘由)致使另外一件事(一个结果),同时利用反事实推理算法来达到最优猜想。

 

再好比,南加州大学信息科学研究所(ISI)的AI研究人员研究团队发表了论文《经过对抗遗忘实现不变表示》,提出了一种被称为对抗性遗忘的机制,能够首先训练神经网络来表示所分析数据的全部潜在方面,忘记指定的偏见。举例来讲,用机器学习模型预测某我的的信用卡限额,使用这个机制能够教会银行的算法预测限额,同时忘记或不改变与性别或种族有关的特定数据,这意味着它可用于训练神经网络,使其与训练数据集中的已知误差保持不变,反过来,这将致使训练有素的模型在作出决策时不会受到偏见。

 

奥哈拉说,记住,鉴别力衰弱时,偏见就会占上风。对于人类创造出来的 AI 系统来讲也是如此,系统怎样才能具有强大的鉴别力,还须要咱们继续探索。条条大路通罗马,但愿在不久的未来,咱们能找到那个摒弃 AI 偏见的金手指。

推荐阅读
你点的每一个“在看”,我都认真当成了AI