本周AI热点回顾:英特尔芯片后门实锤;Adobe等新研究把「自拍」变「他拍」;Kaggle上线arXiv完整数据集...

点击左上方蓝字关注咱们python

01算法

脑洞大开!Adobe等新研究把「自拍」变「他拍」,魔幻修图效果感人sql

智能手机的出现,让摄影变成了一项大众艺术,也让愈来愈多的人爱上「自拍」。但自拍照经常存在构图问题,好比不天然的肩膀姿式、占据一小半镜头的手臂,或者极其诡异的视角。json

要想解决这个问题,能够选择随身携带三脚架或自拍杆,也能够选择随身携带一个朋友做为摄影师(该方法对单身狗极其不友好)。或者,你还能够选择相信后期修图的艺术。近日,来自 Adobe 研究院、UC 伯克利、鲁汶大学的研究者开发了一种「自拍」变「他拍」的新技术,经过识别目标的姿式并生成身体的纹理,在给定的自拍背景中完善和合成人物。c#

研究者提出了一种叫作 「Unselfie(非自拍)」的图片转换方法,可以将自拍照中的人物,转变为手臂、肩膀、躯干都比较放松舒展的“他拍图像”。它会把全部举起的手臂调整为向下,而后调整服装细节,最后填充好全部暴露出来的背景区域。网络

除了用来修饰社交媒体上的自拍照,这项技术还有不少应用方式,若是你急需一张证件照,而无人能帮你拍摄,那这项技术就能派上用场。框架

总的来讲,「自拍」转「他拍」存在三大挑战:ide

  1. 没有成对的训练数据(自拍 - 他拍图像对);工具

  2. 一个自拍姿式可能对应多个他拍姿式;学习

  3. 改变姿式会在背景中留下空洞,所以在转换过程当中要填补这些空洞。

所以,他们提出借助合成「自拍 - 他拍」图像对和自监督学习的方法来解决上述问题。下图代表,与以前的 DPIG 和 PATN 方法相比,Unselfie 方法生成了更逼真的人体姿式和背景。

信息来源:机器之心

02

英特尔CPU机密数据大量泄露:芯片后门实锤,下一代CPU原理图曝光

英特尔自从7月24日发布财报以来,可谓厄运连连:7nm制程被推迟、半个月内股价跌去2成、首席工程师离职。

更惨的是,今天他们有20GB的数据被黑客泄露了。

泄露内容可谓触目惊心,不只包括英特尔还未发布的Tiger Lake笔记本CPU的原理图、固件,还有各类芯片的开发调试工具包,等于把英特尔家底彻底暴露。

你们一直怀疑英特尔的CPU是否有后门,经过此次泄露事件获得了证明。得到这份文件的工程师用关键词“backdoor”搜索,发现英特尔竟然将其赫然写在代码注释里。

目前已经公开的17GB文件包含各类CPU芯片的设计数据,其中的测试文档、源代码和演示文稿可追溯到2018年甚至更早。

数据中有至强(Xeon)平台的Verilog代码。看过文档的技术人员表示,若是其余CPU厂商看到这份数据,可能会对CPU的研发大有帮助。

文件中不只包含英特尔过往的核心数据,还有即将发布的两大CPU平台的详细信息。

好比,即将发布的Tiger Lake移动CPU的原理图、文档、工具和固件,将于2020年末发布的第11代桌面级CPU——Rocket Lake——的仿真器。

有专业人士表示,这些代码虽然已经泄露,但不能被当作开源代码使用,以前微软的泄露事件就是前车可鉴。因此,虽然黑客公开了大量技术文档,可是其余厂商像AMD都必须极力避嫌,不然将面临英特尔的律师函警告。

信息来源:量子位

03

用Dota2“最强”算法PPO完成CarPole和四轴飞行器悬浮任务

2019年Dota 2比赛中,OpenAI Five完胜世界冠队伍OG。

那么OpenAI Five应用了什么技术,实如今Dota中完胜世界冠军的呢?那就是Proximal Policy Optimization(PPO)算法

PPO算法将游戏中全部的状态做为数据输入,经过数据分析计算,由PPO优化的智能体Agent作出相应的动做,智能体Agent的思考过程以下图所示。

智能体Agent在Env中不断学习,根据环境的状态State(也能够为观察到的observation,下文统一用State)来执行动做Action,过程当中会根据反馈的Reward来选择效果更好的动做。

优化的目标是策略的指望回报,即全部轨迹的回报与对应轨迹发生几率的加权和。当N足够大时,经过采样N个轨迹求平均的方式近似表达,简单理解就是所得Reward的平均值。每次都让网络来拟合以前Reward的平均值,一般优化策略越好,Reward会越高,不过也不是绝对的

先了解强化学习经常使用的两种训练方式:On-policy和Off-policy。

  • On-policy:训练的agent一边互动一边学习(互动的agent就是训练的agent);

  • Off-policy:训练的agent一边看一边学习(互动的agent不是训练的agent)。

举例来讲,古代杰出帝王都须要深刻了解民间百姓的真实生活,这两种策略就相似帝王们获取信息的途径。皇帝能够选择微服出巡(On-policy),虽然眼见为实,但毕竟皇帝本人分身乏术,掌握状况不全;也能够选择派不一样的官员去了解状况,再向皇帝汇报(Off-policy)。

在网络训练过程当中,经过采样更新权重很是耗时,每更新一个参数就须要采样一次,所以咱们须要把On-policy训练方式转化成Off-policy。

基于飞桨PARL,使用PPO实现四轴飞行器悬浮任务。您只须要获取以下文件,并在终端安装parl和rlschool后,运行python train.py,便可查看实践效果。

  • mujoco_model.py

  • mujoco_agent.py

  • scaler.py

  • train.py

.py文件获取路径:

https://aistudio.baidu.com/aistudio/projectdetail/632270

实践效果

在rlschool环境下 四轴飞行器悬浮任务 Evaluate reward一直在上涨,达到了7107。

完整项目地址:

https://aistudio.baidu.com/aistudio/projectdetail/632270

信息来源:飞桨PaddlePaddle

04

Facebook开发玩德州扑克的AI,大比分击败顶尖人类选手!

继百度词法分析工具 LAC 2.0开源以后,8月4日,百度 NLP 又重磅发布了中文依存句法分析工具——DDParser!

DDParser 是什么 :

DDParser(Baidu Dependency Parser)是百度 NLP 基于大规模标注数据和深度学习平台飞桨研发的中文依存句法分析工具,可帮助用户直接获取输入文本中的关联词对、长距离依赖词对等。

如图1所示,输入文本经过 DDParser 输出其对应的句法分析树,其中,两词之间的弧表示两个词具备依赖关系,由核心词指向依存词,弧上的标签表示依存词对核心词的关系。

 图1

DDParser 能作什么:

经过依存句法分析可直接获取输入文本中的关联词对、长距离依赖词对等,其对事件抽取、情感分析、问答等任务均有帮助。

如图1所示实例,在事件抽取任务中,咱们经过依存分析结果可提取句子中所包含的各类粒度的事件,如“纳达尔击败梅德韦杰夫”、“纳达尔夺得冠军”、“纳达尔夺得2019年美网男单冠军”。

相应的,在问答任务中,咱们根据问题的句法树与答案所在文本的句法树进行基于树的结构匹配,可获取对应的答案。例如,问题“谁夺得了2019年美网男单冠军”,句法树见图2,其答案所在文本的句法树见图1,咱们经过两棵树的对应部分匹配,可得出答案为“纳达尔”。

 图2

依存分析将句子表示为一棵树,提供了词之间的依赖关系和关联路径,其在句子序列基础上提供了更多的句子结构信息,可帮助其余任务从句子结构角度获取所需信息。

 DDParser 的优点 

1. 基于大规模优质标注数据:

DDParser 训练数据近百万,包含搜索 query、网页文本、语音输入数据等,覆盖了新闻、论坛等多种场景。从应用的角度出发,为了方便用户快速上手,DDParser 共设计了14种依存关系,并着重凸显实词间的关系,在随机数据上 LAS 可达到86.9%。

2. 基于深度学习框架,不依赖繁复的特征工程:

首先,DDParser 采用 bilinear attention mechanism 对句子语义进行表示,代替复杂的特征工程模式。其次,其输入层加入了词的 char 级别表示,缓解粒度不一样带来的效果降低,网络结构如图5所示。

▲ 图5

3. 调用便捷:

DDParser 支持 Python 一键安装,方便用户快速使用。DDParser 支持 pip 一键安装,兼容 Windows、Linux 和 MacOS,调用方法以下所示:

pip install ddparserfrom ddparser import DDParserddp = DDParser()ddp.parse("百度是一家高科技公司")

具体安装方法参见 GitHub 的 README 文档中的快速开始。

信息来源:百度AI

05

170多万篇论文,存储量达1.1 TB,Kaggle上线arXiv完整数据集

众所周知,arXiv 是咱们搜索、浏览和下载学术论文的重要工具。arXiv 上研究论文数量之多有利也有弊。一方面,对于在自身研究领域迅速成长的研究生,以及致力于用科研为公众提供服务的研究者而言,这一丰富的信息库能够提供极有效的助力。另外一方面,arXiv 有时在搜索时也有不便。

近期,为了让 arXiv 可用度更高,康奈尔大学和其余一些开发者在 kaggle 上建立了一个免费、开放的 arXiv 数据集。该数据集是一个含有 170 多万篇学术论文的存储库,用户能够获取论文的标题、做者、类别、摘要、全文 pdf 等。

这是一个包含 170 多万篇理工科(STEM)学术论文的 arXiv 数据集和元数据。目前,开发者已经更新了 5 个版本,从初版的 arXiv 元数据集(arXiv metadata)到最新版本的 arXiv 数据集,包含的论文数量愈来愈多,范围也更广。该数据集将每周更新一次。

初版的 arXiv 元数据。

该数据集是原始 arXiv 数据的镜像,存储量高达 1.1TB,而且还会继续增长。数据集仅提供了 json 格式的元数据文件,它包含每篇论文的相关条目,具体以下:

  • id:arXiv ID,可用于访问论文;

  • submitter:论文提交者;

  • authors:论文做者;

  • title:论文标题;

  • comments:论文页数和图表等其余信息;

  • journal-ref:论文发表的期刊;

  • doi:数字对象标识符;

  • abstract:论文摘要;

  • categories:论文在 arXiv 系统的所属类别或标签;

  • versions:论文版本。

此外,用户能够经过如下两个连接直接在 arXiv 上访问每篇论文:

  • https://arxiv.org/abs/{id}:包含摘要和进一步连接的论文页面;

  • https://arxiv.org/pdf/{id}:论文 PDF 下载页面。

信息来源:机器之心

END