本周AI热点回顾:GPT-3开始探索付费使用;这个视频「橡皮擦」让你瞬间消失;英伟达最强消费级显卡RTX 3090出炉...

点击左上方蓝字关注咱们算法

01c#

服贸会来了!百度飞桨发布最新成果,获“科技创新服务示范案例”网络

这周末要被“黑科技”十足的服贸会承包了!今年服贸会以“科技办会”的理念,展现了人工智能、5G、加强现实和虚拟现实等最新的科技成果。本次服贸会共有148个国家和地区的1.8万家企业和机构、10万人报名参展参会,也是疫情发生以来,我国举办的第一场重大国际经贸活动,为全球经济和全球贸易复苏注入了一针“强心剂”。架构

9月5日,百度参加了2020年中国国际服务贸易交易会,在数字贸易发展趋势和前沿高峰论坛中,百度 CTO 王海峰出席并发表主题演讲,他表示:“做为人工智能平台型公司,百度将持续加大在人工智能等前沿领域的技术研发与落地实践,进一步携手服务业等产业发展新业态、新模式,增强在国际贸易中的竞争力与吸引力,有效带动国内国际经济发展的‘双循环’、助力中国经济实现高质量发展的同时,为推进世界经济复苏贡献力量。”并发

此外,百度多项核心 AI 内容也在会中备受瞩目。飞桨和 Apollo 智能车联带来最新成果发布,飞桨入选“科技创新示范案例”,百度还在信息服务、文化服务、北京新视听3大展区设置了超200平米的综合展台……框架

这次服贸会吸引了1.8万家境内外企业及机构前来参展,更以“科技办会”的理念,展现了人工智能、5G、加强现实和虚拟现实等“硬核”科技力量。在服贸会成果发布中,百度等企业展现了最新的人工智能技术,秀出了中国数字贸易交流的重要名片。现场,百度深度学习技术平台部高级总监马艳军分享了飞桨的实践成果与最新进展。他表示,“深度学习平台是人工智能核心的基础平台,绝大多数人工智能应用都是基于深度学习平台所开发的,而飞桨正是这样的平台,也是国内最先开源开放、服务开发者数量最多的深度学习平台。”ide

此外,飞桨做为百度自主研发,国内首个开源开放、技术领先、功能完备的产业级深度学习平台,通过层层筛选,从众多优秀案例中脱颖而出,被评为“科技创新服务示范案例”。“科技创新示范案例”属于服贸会组委会开展“服务示范案例”遴选活动的其中之一,旨在经过自主研发,创造性地将新知识、新技术应用于各种服务领域,切实推进产业升级与发展的创新案例。这与百度飞桨持续为开发者、企业提供创新技术、模型和产品等的初衷不谋而合,它做为人工智能产业的基础平台,更能有效促进数字贸易。
模块化

飞桨能支持不一样领域的应用需求,是百度深厚的 AI 技术积累所促成的。飞桨以百度多年的深度学习技术研究和业务应用为基础,具备开发便捷的深度学习框架、支持超大规模深度学习模型训练、多端多平台部署的高性能推理引擎和产业级开源模型库四大领先技术。基于百度领先的 AI 实力,飞桨拥有大量业界领先的技术创新,在深度学习模型开发、训练、预测和部署等方面,飞桨已可比肩 TensorFlow、PyTorch 等国际主流框架。函数

当下,中国已成为世界上最具创新力的国家之一,服贸会搭建了展现中国前沿技术成果的平台,为创新发展、产业优化升级带来机遇。百度飞桨做为百度 AI 新型基础设施的重要一环,持续进行领先技术研发、产业智能化推动、产业生态建设、人才培养,正在成为中国科技创新的基础底座之一,更是中国在全球服务贸易交流中的“新名片”。性能

信息来源:百家号

02

性能翻倍,英伟达最强消费级显卡RTX  3090出炉:半价买泰坦

本周,一样是在自家厨房,英伟达创始人黄仁勋向世人发布了最新一代消费级显卡 GeForce RTX 30 系列的最初三个型号 GeForce RTX 3070、RTX 3080、RTX 3090。

「不管性能仍是能效,安培架构 GPU 都是图灵的两倍,」黄仁勋说道。「从架构、定制流程设计、电路、逻辑、封装、series IO、显存、供电、散热、软件和算法…… 咱们在全部层面压榨 GPU 的性能,最终实现了世界水平。」

关于此次发布,网上早已有各种信息提早曝光。但你们最为关心的就是 GeForce RTX 30 系列的性能与报价。用老黄的话说就是,与 2080 价位相同,但速度提高了一倍。而 3090 更是 GPU 中的猛兽,黄仁勋称之为 BFGPU(big ferocious)。

这些公版GPU的国行价格也第一时间出如今了英伟达中国官网上:

当今最强 GPU

在深度学习、光线追踪的一系列热场后,黄仁勋忽然从放置抹刀的瓶子后,拿出了了一块 RTX 3080,开始正式介绍 RTX30 系列。

整体来讲,GeForce RTX 30 系列确实占据了 GPU 界的多项「第一」:首款有着 24GB  GDDR6X 显存的游戏图形卡;首批支持 HDMI 2.1 的 GPU,一块显卡便可实现 4k 高刷新率或 8k 游戏;首批支持 AV1 编译码器的独立 GPU,实现以更少的带宽观看更高分辨率的视频流。

除了制程提升,安培架构还有一些针对 AI 计算特有的机制,其中的三代 Tensor Core 会对稀疏张量运算进行特别加速:执行速度提升一倍,也支持 TF3二、FP1六、BFLOAT1六、INT8 和 INT4 等精度的加速——系统会自动将数据转为 TF32 格式加速运算,如今你无需修改任何代码量化了,直接自动训练便可。

最终在跑 AI 模型时,若是用 PyTorch 框架,相比上一代 V100 芯片,A100 在 BERT 模型的训练上性能提高 6 倍,BERT 推断时性能提高 7 倍。

AI 是目前科技领域最强大的技术力量,可让计算机从大量数据中学习知识,甚至据此编写出软件。在图形领域,咱们仍然能够经过 Tensor Core 的力量加强视频的画面。「咱们如今能够只计算低分辨率图像的光追,再用 Tensor Core 经过 DLSS 将其还原成高分辨率,同时还能提升画面帧率。」黄仁勋说道。

信息来源:机器之心

03

百度飞桨PaddleDetection威力再显,助力得到两项ECCV目标检测冠军

近日,百度视觉团队借助PaddleDetection在计算机视觉顶会ECCV 2020 (European Conference on Computer Vision,欧洲计算机视觉国际会议)比赛中,斩获两个赛道冠军,分别是Tiny Object Detection和目标检测领域最权威的比赛COCO。

PaddleDetection是基于飞桨核心框架构建的目标检测开发套件,覆盖主流目标检测算法,并提供丰富的预训练模型,帮助开发者快速搭建出各类检测任务框架,高质量完成各种目标检测任务。PaddleDetection采用模块化设计,解耦了检测经常使用的组件,很是方便开发者按需组合并扩展新的算法。

PaddleDetection产品结构

通过不断打磨优化,PaddleDetection的YOLO v3系列模型性能大幅加强,新增多款IoU(Interp over Union)、损失函数、以及多种强大的目标检测模型,套件总体丰富度再次提高。下面咱们一块儿深度探究一下冠军团队的模型优化思路。

小目标检测任务使用TinyPerson数据集,包括794张训练图片,每张图片中包括上百个小目标人物。任务的目标是评估测试图片中Tiny大小(20*20~40*40像素)的人体目标的AP(Average Precision)。

百度视觉团队的开发同窗研究了几种常见的两阶段检测器:Faster R-CNN、FPN、Deformable R-CNN、Cascade R-CNN等,从而探查其对不一样IoU阈值的检测标准的适合性。

算法优化方法主要分为四个部分:数据加强、训练策略改进、模型改进和模型融合

1. 数据加强

一般无人机采集的人群数据集,如Semantic Drone Dataset、Stanford Drone Dataset ,因为数据集数量较小,很难达到快速收敛和较好的检测效果。百度视觉团队采用额外的同类数据来进行同尺度预训练,从而提升模型对同等先验知识的理解,提升模型的检测能力。经过加入数据加强策略,提高2%至3%。

2. 训练策略改进

对于无人机航拍收集的数据,不一样图像的原始尺寸和目标的相对尺寸有所不一样,致使检测器对有些图像的理解困难。在训练过程当中,咱们随机地将输入图像的大小调整为原始大小的0.五、1.5倍、1.5倍,解决尺度差别问题。在改进训练策略之后,由57.9%提高至65.38%。

3. 模型改进

对于传统的二阶段检测器,如R-CNN和FPN系列,一般使用ResNet系列网络做为骨干网络。为了改进此种系列检测器,对于FPN检测器,P3层为微小物体的检测提供了相对应尺度的特征。然而,P3层的不足在于它具备较少的语义信息。所以用PAFPN代替FPN,提升了网络的语义识别能力。与普通的FPN相比,PAFPN增长了一条自下而上的路径,从而提升了基于提议的实例分割框架中的信息流。此外,在下采样模块中,使用“carafe”下采样方法代替原来的卷积模块下采样方法,而后使用可变形卷积模块。在上采样模块中,还使用可变形卷积模块代替原来的卷积模块对特征进行上采样。改进后的PAFPN,提高了1.5%。

4. 模型融合

对于难度较大的无人机航拍的小目标检测任务,单尺度单模型显然没法知足图像的复杂以及低信噪比特性,所以,百度视觉团队考虑使用多尺度多模型实现高精度检测。对于模型融合方法,采用具备不一样骨干网络(Res2Net, ResNet200,ResNeXt101,SENet154等)的Cascade R-CNN检测器进行融合。对于每一个模型,预测了NMS后的边界框。给每一个模型一个0到1区间的标量权重。全部权重总和为1,每一个模型的盒子的可信度分数乘以其权重,最后合并来自全部模型的框并运行原始的NMS,添加来自不一样模型的分数而不是只保留最高的一个。依次顺序使用NMS的修改合并了不一样IoU阈值的预测框。最终,模型的达到了72.23%。

经过以上的优化策略,百度视觉团队在Tiny Object Detection比赛中得到冠军,领先第二名0.8%。

信息来源:飞桨PaddlePaddle

04

好好的人,说没就没了:这个视频「橡皮擦」让你瞬间消失,头发丝都不留

画面中的人物,骑着白马飞驰,却在跨栏的一瞬间忽然消失,这必定是穿越时空才有的情节?

在公园中旋转起舞的女孩,转身间消失无踪:

近日,弗吉尼亚理工大学和 Facebook 的研究者提出了一种基于流的视频补全新方法,在视频去水印、物体移除、画面扩展等方面均有着出色的表现。该研究已入选 ECCV 2020。

视频补全(video completion)任务是用新合成的内容填充给定的时空区域。它有不少具体应用,包括修复(去除划痕)、视频编辑、特效处理(去除不须要的对象)、去水印以及视频稳定化等。新合成的内容应该无缝嵌入视频中,使得更改不被察觉。

视频补全任务是具备挑战性的,须要确保补全后的视频在时间上是连贯的(不会闪烁),同时还要保留动态摄像机的运动和视频中复杂的物体运动。

直到几年前,大多数方法都还使用基于补丁的合成技术。这些方法一般合成速度很慢,而且合成合成新内容的能力有限,由于它们只能从新混合视频中已有的补丁。

近来,基于学习的技术实现了更合理的合成效果。可是因为视频占用的内存较高,基于 3D 时空核的方法存在分辨率上的问题。迄今为止,最成功的方法是基于流的。他们一块儿合成色彩和流,沿着流的轨迹传播颜色,以提高视频的时间连贯性。从而减轻内存占用问题并实现高分辨率输出。这项新研究也采用了这种通用方法。

使用基于流的方法得到良好结果的关键是准确的流补全,尤为是沿着目标边缘合成高度精确的流边缘。可是,以前的方法都没法作到这一点,常会产生过分平滑的结果。尽管使用这种方法在背景平坦的状况下能够顺利地删除整个目标,但若是状况复杂一点,这些方法就会崩溃。例如,现有的方法难以很好地补所有分可见的动态对象(图 1b–c)。值得注意的是,这种状况在补全静态屏幕空间掩码时常常发生。

图灵奖得主 Yann LeCun 也在推特上推荐了这项研究:

论文连接:

https://arxiv.org/pdf/2009.01835.pdf

信息来源:量子位

05

GPT-3开始探索付费使用:每个月给个700块,写得比莎士比亚还多

10月1日起,若是想要使用GPT-3接口的话,恐怕得收费了。

固然,若是你的使用程度在每月100次如下,大几率上仍是能够蹭蹭免费的API。不过若是要大规模使用、或者用来作实验的话,那么交钱是不可避免的。

目前的收费方式,是按输入输出的词(token,包括单词、符号和标点)数量计价,若是每月花费700元的话,就能得到GPT-3接近3000页小说的输出。

有网友在社交媒体上po出了一张表单,目前来看,若是在3个月试用期之内、或是每月用不到100k词的话,GPT-3接口是免费的。

不过,只要输入词,GPT-3输出的词量基本都在1k左右。计算下来,每月使用GPT-3超过100次的话,就绝对要花钱了。

往上走的话,大约每1000个词,须要花6-8美分不等,用得越多,价格也会越便宜。

从表格中的数据来看,若是每月须要200万词,所须要的价格是100美圆(折合人民币约700元)而若是用到1000万词的数据量,所须要的价格是400美圆(折合人民币约2800元)

从表格中来看,收费状况下,还能得到更高优先级的支持?

听起来真有点订阅产品的味道了。

举个例子,莎翁的所有著做大约有90万字,算上标点符号后,一共有120万个词。

也就是说,不到700元,GPT-3写出来的东西比莎士比亚的所有著做还多。

目前来看,10月1日起的收费状况依旧针对内测用户,也就是说,暂时还不会面向公众开放。

息来源HyperAI超神经

END