本文由 「AI前线」原创,原文连接: 宅男福音deepfakes开源了
策划编辑|Tina
做者| MMA GREY ELLIS
编译 | Debra,Vincent
编辑|Emily
AI 前线导读:”互联网每每会产生一些很差的副产品,好比把 Facebook 推上风口浪尖的假新闻,以及最近很火的 AI 虚假色情视频。有人用机器学习 AI 技术把明星的脸部与色情视频表演者的脸部进行交换,几乎能够达到以假乱真的效果,好比演员 Daisy Ridley、 Gal Gadot、Scarlett Johansson 和 Taylor Swift 等都是这种技术的早期受害者。如今,居然又有人作成了 app,GitHub 上也已经被开源。这大大下降了这项技术的门槛,无疑会让这些虚假的视频传播更加普遍。然而,当普通人的脸部图像被用于虚假色情视频时,法律并不能向受害者伸出援手,这是为何呢?”python
GitHub 开源工具 deepfakesgit
想必你还记得“神奇女侠”盖尔·加朵的脸被贴在了一个爱情动做电影女主的脸上,令无数宅男神往的女神就这么“脱了”,当时新闻一出在网络上引发了不小的轰动。据了解,这家电影公司采用的就是这个名为 deepfake 的深度学习技术,这款工具原本的用途是用来识别和交换图片、视频中人物脸部图像的工具 (灵感源自 Reddit 上超级火爆的不可描述社区 deepfakes),可是就有这么一群不安分的人,非要把一项本该获得很好利用的技术用在某些迷之领域,╮(╯▽╰)╭为了拍片儿、看片儿煞费苦心,也真是难为他们了。程序员
虽然以前有一些 app 能制做这样的视频,可是如今程序员也能够在家研究一下代码,本身动手,丰衣足食,得到更加“完美”的体验了(此处打马赛克)。具体该怎么操做呢?如下是一份动手指南:github
概览算法
该项目有多个入口,你须要作的事:docker
提取数据库
运行您文件夹中的 python faceswap.py extract。这一步将把图像从 src 文件放到提取文件夹中。bash
训练网络
运行您安装文件中的 python faceswap.py 训练。这一步训练模型将两组照片保存到模型文件夹内。app
转换
运行您文件中的 python faceswap.py 转换。这一步将把原始文件夹中的照片应用到修改后的文件夹中。
通常注意事项:
全部提到的脚本都带有 -h / - 帮助选项,以及能够接收的库。你很聪明,能够弄清楚它的工做原理,对吗?注意:如今视频尚未开始转换。您可使用 MJPG 将视频转换为照片,处理图像并将图像转换回视频。
训练数据
这是整个程序包,包含训练图像和已通过训练的模型(〜300MB):
如何建立和运行此程序
建立
fork 设置库,设置本身的环境,而后用 Dockerfile 启动。或者你能够 Dockerfiles 中的依赖关系手动进行设置。可查看
../blob/master/INSTALL.md 和../blob/master/USAGE.md
了解如何配置 virtualenv 和运行该程序的基本信息。
为了达到最佳性能,您还须要一个具备 CUDA 支持的现代 GPU。
注意:
Docker
若是您更喜欢使用 Docker,则可使用如下方法启动程序:
建立:docker build -t deepfakes 。
运行:
docker run --rm --name deepfakes -v [src_folder]:/ srv -it deepfakes bash。bash
能够用命令行替换。请注意,Dockerfile 并不能知足全部的需求,因此它可能致使在一些 python 3 命令失败。另外请注意,它没有 GUI 输出,因此 train.py 可能会发生显示图像失败的状况。您能够对此进行注释,或将其另存为文件。
如何做贡献
对生成模型感兴趣的人
欢迎到“faceswap-model”来讨论 / 建议 / 提交当前算法的替代方案。
开发者
非开发高级用户
终端用户
反对者
这是一个什么样的数据库?
这是一个为活跃用户开放的数据库。
为何是这个库?
joshua-wu 库彷佛不太活跃。像网址前缺乏 http:// 这个问题到如今都没解决。
为何叫作“deepfakes”,而不是 /u/deepfakes?
关于机器学习
计算机如何识别 / 塑造一张脸?机器学习工做原理是什么?什么是神经网络?
这个问题的答案很复杂。如下视频能够帮你更好地理解机器学习:
法律帮不了假视频受害者?
有人会问,这样使用别人的图像作这种视频和图像不会被人告吗?然而事实上,法律可能还真制裁不了这种行为。这是为何呢?
据迈阿密大学法学院教授 Mary Anne Franks 说,她以前所作的推进性犯罪定性的工做可能帮不了 AI 色情视频的受害者。Franks 制定了美国现有的大部分关于将非自愿色情定为刑事犯罪的法律。
Franks 和立法者并非没有考虑到对其余人的图像进行操做的不合理之处,而是目前全部立法的前提是非自愿色情内容侵犯了受害者的隐私。但用 AI 技术进行的面部图像交换并不构成侵犯隐私,由于不一样于裸体照片等,这些视频素材自己就是假的。你不能由于有人曝光了本不是你生活中的私密就起诉某人。
并且,这些视频的创做者很狡猾,他们会用到一些处理技巧以逃避法律的追究。
这样看起来好像法律没法向受害者伸出援手,那就没有解决的办法了吗?答案是否认的。好比名人明星能够非法使用肖像权得到商业利益的途径提起诉讼。但对于普通人来讲,最好仍是经过名誉损毁法。当 Franks 意识到惩罚色情的法律不包括关于虚假图像的条文时,她建议立法者修更名誉损毁法来解决这个问题,但目前尚未取得太大的进展。
从长期来看,解决这个问题最可行的方法是从技术这个突破口开始,即应用程序。美国的《联邦贸易委员会法》禁止“商业活动中,或对商业活动产生影响的不正当或欺骗性行为”。“若是咱们可以在这点上动一点心思,应用程序开发者恐怕就得担点责任了。这个应用程序正在将某我的的数据转换为其余人的数据。“(Google 曾在 2013 年违反了相同的规定。)
另外,企业组织也能够贡献一些力量,好比谷歌曾表示其将会把非自愿色情搜索结果与受害者的名字隔离。
一样地,在线平台也能够加大打击力度,至少能够将假视频打上虚假的标签。另外,“用 AI 来检测这些通过编辑处理的色情视频也是小事一桩,”马里兰大学计算机科学家 Jen Golbeck 表示。
由此看来,验证视频的真实性(或缺少视频)只会随着这项技术的普及而变得更加剧要。
反响
这篇文章在 reddit 上也引发了网友的热烈讨论,不少人关注的是此技术引发的道德和法律方面的问题,但也有很多人相信这项技术背后潜在价值,但愿这门技术不会被负面的消息影响。如下是选取的一部分网友的留言,从中能够大概反映出两个对立的观点:
网友 1: 色情门只是表面问题。这项具备开创性的技术正处于得到突破的边缘,它的发展速度将会比咱们想象的快得多,请多想一想将来的可能性和它将带来的成果吧。谢谢您嘞。
回复:之后一我的就能够演一部戏,明星们能够不演戏了,他们可让 Joe schmoe 来演,而后把明星的脸贴上去就好了。
网友 2: 您以为会有啥突破呢?
回复 1:就像假新闻能够传播伪造的录音同样,想象一下假视频里希拉里开玩笑说从投资银行拿了贿赂,或者普京认可她的邮件是他偷的。这很难证实是真是假啊。
回复 2: 对的,换脸算法真的颇有趣,我认为和最初的图片转换技术同样,人们之后会开发出更多追踪此类信息的技术。
网友 3: 将来几年,法庭上全部的视频和音频资料都将变得不可信。至少在人们的内心会永远对事情的真相存疑。
网友 4;我认为这是将来 AI 会如何影响咱们生活的一个很好的例子。也许将来 AI 的角色并非终结者那样的机器人,而是技术的突破会对人类道德和社会结构产生深入的影响。
网友 5: 我看大家不少人关注的是道德和法律方面的影响,难道只有我一我的以为很酷吗?这项技术真是太棒了,无缝的修改技术简直完美,这才是最重要的不是吗?
原文连接:
更多干货内容,可关注AI前线,ID:ai-front,后台回复「AI」、「TF」、「大数据」可得到《AI前线》系列PDF迷你书和技能图谱。