人工智能顶会中的蚂蚁金服,不只仅是商用场景的落地。web
2020年2月7日,人工智能顶级会议AAAI 2020(第34届AAAI大会)在美国纽约举行。做为今年在国际人工智能大会的首秀,蚂蚁金服在AAAI 2020中表现不俗,多篇论文被收录。算法

人工智能的发展历史不短,但近年来发展迅猛。AAAI的英文全称是 Association for the Advance of Artificial Intelligence——美国人工智能协会。在人工智能国际性大会中,AAAI大会被公认为人工智能领域最重磅的会议之一,被誉为人工智能领域科研的风向标。在国内,由中国计算机学会的国际学术会议排名以及清华大学新发布的计算机科学推荐学术会议和期刊列表中,AAAI 均被列为人工智能领域的 A 类顶级会议。
微信
值得一提的是,受国内疫情影响,约800名中国大陆学者缺席这次大会,可是官方容许远程参会,所以开年的这场人工智能顶会,热闹不减。中国在人工智能领域的学术贡献也至关亮眼,这次大会录用的论文37%来自中国,连续三年占据榜首位置。在这股浩浩荡荡的AI大潮中,蚂蚁金服也紧跟技术风向,持续输出新能量。网络
技术在这个时代吹亮了号角,AI成为这股科技生产力中的主力军之一。随着AI产业生态链布局完善,AI逐渐实现了在商用场景的落地,而蚂蚁金服在AI技术领域也连年有所突破,像支付宝这样与人们平常生活息息相关的应用,日渐完善和增强了其自己的功能,提高了用户的体验感觉。这些不易觉察的改善正是蚂蚁金服技术团队在AI领域不断精进的结果。app
AAAI 2020已经公布了全部已被接收的论文列表,地址为:机器学习
https://aaai.org/Conferences/AAAI-20/wp-content/uploads/2020/01/AAAI-20-Accepted-Paper-List.pdf布局
大会官方曾于去年11月中旬公布了今年论文的收录信息:共收到超过8800篇有效论文,进入评审环节的有7737篇,最终收录了1591篇,接收率为20.6%。如下为蚂蚁金服技术团队被收入的6篇论文的简要介绍。性能
论文1学习
Dynamic Network Pruning with Interpretable Layerwise Channel Selection(基于可解释性通道选择的动态网络剪枝方法)优化
论文2
Pruning from Scratch(无语预训练的网络剪枝技术)
在本文中咱们经过实证发现,一个有效的剪枝结构无需从预训练权重获得。实际上预训练权重获得的剪枝结构每每是同质缺少多样性的,这颇有可能限制了更好性能结构的探索。咱们发现直接从随机初始化权重便可以剪枝获得更多样且最终性能更好的剪枝结构。这不只极大的加速了模型剪枝流程,减小费时繁重的训练过程,同时也为模型剪枝领域提供了一个强有力的基准结果。
论文3
自动车险定损系统:像专业定损员同样读取和理解视频
目前有相关工做在用户拍摄的照片上进行车险定损,拍摄照片对拍摄距离有较高的要求,用户交互复杂。也有采用远程视频会议系统,由专业定损员在控制中心指导拍摄过程并进行定损。本系统采用拍摄视频的方式在云端自动定损,简化了用户交互过程,下降了定损成本。
论文4
Long Short-Term Sample Distillation(基于长短时间老师的样本蒸馏方法)
在这篇文章中,咱们提出了Long Short-Term Sample Distillation(LSTSD)方法来从两方面提高深度神经网络的效果。一方面,LSTSD将历史训练过程的信息分为两部分:长期信号和短时间信号。长期信号来自于n(n>1)训练周期以前,并在较长的一段时间内保持稳定,从而保证学生模型和老师模型之间的差别性。短时间信号来自于上一个训练周期,并在每一个周期都更新为最新的信息,从而保证老师模型的质量。另外一方面,每个样本的老师信号都来自于不一样的历史训练时刻,所以在训练的每一个时刻,模型都是同时向多个历史时刻的模型学习,集百家之所长,从而获得更好的训练效果。咱们在天然 语言处理和计算机视觉的多个任务上进行了实验,实验结果证实咱们提出的LSTSD的有效性。
论文5
Span-based Neural Buffer: Towards Efficient and Effective Utilization of Long-distance Context for Neural Sequence Models(面向超长文本分析的天然语言处理)
内容简介:传统的序列编码模型因为其线性输入输出假设的特质而存在短视问题,即不能很好地利用远距离的上下文信息(有实验说明,LSTM的编码能力大概在200个词左右)。在这个工做中,咱们提出了一种基于块的张量缓冲,它经过按块存储上下文高效地提升了线性生成模型的编码容量。具体地说,其有效性源于可以经过存储文本块建模超长上下文;其高效性源于经过块状存储下降了检索时耗。
然而,在实验过程当中,咱们发现因为样本误差(大部分的句子结构简单,即经过局部上下文就能够预测得很好了),模型不能很好地利用张量缓冲的信息。为了解决这个问题,咱们提出了一个基于自适应奖励的策略梯度以鼓励模型探索上下文和一个退火最大似然估计充分训练张量缓冲相关的参数。
咱们在语言模型的两个数据集:Penn Treebank 和 WikiText-2 上作了大量的实验。包括用张量缓冲提升以前每一个基线模型的效果以及一些定性实验。它们都有力地说明了咱们的方法在处理超长上下文时很是有效。
论文6
经过结构化反事实推断实现成本高效的激励权益发放
在这篇论文中,不一样于以前的部分反馈学习工做,咱们考虑一种全新的反事实反馈估计场景,将激励权益的成本与用户反馈结合考虑,设计了一个全新的两步方法求解带预算约束的反事实反馈策略优化:首先将用户的反事实反馈的估计问题转化为一个带额外结构的定义域适配(Domain Adaptation)问题,再利用该估计结果进行约束优化。咱们经过理论分析给出该算法的偏差上界,并经过模拟数据和真实数据上的实验证实咱们的算法相比已有算法实现了显著的提高。

本文分享自微信公众号 - 支付宝技术(Ant-Techfin)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。