摘要:MindSpore不少新特性与你们见面了,不管是在效率提高、易用性,仍是创新方面,都是干货满满。
本文分享自华为云社区《MindSpore开源一年的新特性介绍》,原文做者:简单坚持。html
最近,AI计算框架是业界的热点,各大厂商纷纷投身AI框架的自研发,究其缘由:AI框架在整我的工智能方案里,就像计算机的OS同样,得AI框架者得天下,得什么呢? 生态!算法
下面咱们来介绍下MindSpore开源一周年后,有哪些牛B的特性发布。(MindSpore已集成到华为云全流程AI开发平台ModelArts里,开发者能够很是方便的在华为云ModelArts里体验MindSpore新特性)。服务器
一、大幅提高动态图下分布式训练的效率:
在深度学习中,当数据集和参数量的规模愈来愈大,训练所需的时间和硬件资源会随之增长,最后会变成制约训练的瓶颈。分布式并行训练,能够下降对内存、计算性能等硬件的需求,是进行训练的重要优化手段。当前 MindSpore 动态图模式已经支持数据并行,经过对数据按 batch 维度进行切分,将数据分配到各个计算单元中进行模型训练,从而缩短训练时间。网络
基于 ResNet50 v1.5+ImageNet 数据集测试,昇腾算力,MindSpore 动态图模式分布式的表现,能够达到 PyTorch 典型分布式场景的 1.6 倍, 静态图模式分布式的表现也能够达到 TensorFlow 典型分布式场景的 2 倍。框架
PyNative 快速入门: https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/debug_in_pynative_mode.html机器学习
二、数据预处理加速 Dvpp:
数据是机器学习的基础。在网络推理场景中,咱们须要针对不一样的数据进行数据的预处理,从中过滤出核心信息放入咱们训练好的模型中进行推理预测。在实际应用场景中,咱们每每须要对大量的原始数据进行推理,好比实时的视频流等。所以,咱们在昇腾推理平台引入了 Dvpp 模块,来针对网络推理数据预处理流程进行加速。分布式
Dvpp 数据预处理模块提供 C++ 接口,提供图片的解码、缩放,中心抠图、标准化等功能。在 Dvpp 模块的设计中,考虑到总体的易用性,其功能与 MindData 现有 CPU 算子有重叠,咱们将其 API 统一,经过推理执行接口设置运行设备来进行区分。用户能够根据自身硬件设备环境来选择最佳的执行算子。Dvpp 数据预处理流程以下图所示:模块化
咱们在一台昇腾推理服务器上测试了 Dvpp 系列算子的性能收益。该服务器拥有 128 个主频为 2.6GHz 的 CPU 核心,以及 128Gb 的内存空间。在实验中,咱们选取 yoloV3 网络,同时选取 coco2017 推理数据集 40504 张图片进行推理,最终获得模型输入尺寸为 [416, 416] 的图片。工具
咱们分别使用 Dvpp 算子和 CPU 算子进行数据预处理,获得以下性能对比:性能
能够看到 Dvpp 系列算子相较于 CPU 算子在处理大量数据时性能优点明显,在本实验中处理 40504 张图片性能 FPS 提高 129%。
查看教程: https://www.mindspore.cn/tutorial/inference/zh-CN/r1.2/multi_platform_inference_ascend_310_mindir.html#ascend-310
三、分子模拟库(SPONGE),来自社区分子动力学工做组:
MindSpore 版的 SPONGE 是在社区中的分子动力学工做组 (MM WG) 中,由北大、深圳湾实验室高毅勤课题组与华为 MindSpore 团队联合开发的分子模拟库,具备高性能、模块化等特性。
-
为什么须要开发 SPONGE?
分子动力学模拟是用牛顿定律近似来描述微观原子和分子尺度演化的计算机模拟方法。其既可用于基础科学研究也可用于工业实际应用。在基础科学领域,分子动力学方法有助于科研学者从微观研究体系的物理化学性质。
在工业生产中,其能够利用大规模计算的能力辅助药物分子的设计和蛋白靶点的搜寻 [1,2]。因为模拟的时间和空间尺度限制,传统分子动力学软件的应用范围受到较大限制。科研工做者也在不断的开发新的力场模型[3,4]、抽样方法[5,6] 以及尝试结合新兴的人工智能 [7,8] 来进一步拓展分子动力学模拟的适用领域。
由此,新一代的分子动力学软件就须要被提上日程。其应该具备模块化的特性,可以支持科学家高效的创造和搭建出可以验证其理论模型的结构。同时,它还须要兼顾传统模拟方法的高效性,可以兼容其在传统领域上的使用。此外,为实现分子模拟 + 机器学习的天然融合,其还应该拥有嵌入人工智能框架的形态。SPONGE 就是基于这些理念而被创造出的全新的,彻底自主的分子模拟软件。
相比于以前在传统分子模拟软件上结合 SITS 方法进行生物分子加强抽样[9],SPONGE 原生支持 SITS 并对计算流程进行优化使得其使用 SITS 方法模拟生物体系更加高效。针对极化体系,传统分子模拟采用结合量化计算等方式来解决电荷浮动等问题[10]。即便采用机器学习下降计算量也会浪费大量时间在程序数据传送的问题上。而 SPONGE 利用模块化的特色可支持内存上直接与机器学习程序通讯大大下降了总体计算时间。
图 1:结合 SITS 等方法可进行 Na[CpG], Lys 生物分子模拟
图 2:机器学习 + 分子模拟方法可更快更准确地模拟极化体系,图为[C1MIm]Cl 离子液体模拟
-
MindSpore + SPONGE
基于 MindSpore 自动并行、图算融合等特性,SPONGE 可高效地完成传统分子模拟过程。SPONGE 利用 MindSpore 自动微分的特性,能够将神经网络等 AI 方法与传统分子模拟进行结合。
SPONGE 模块化设计结构图
随 MindSpore1.2 版本开源的 SPONGE 具有如下优点:
一、全模块化分子模拟。模块化构建分子模拟算法,易于领域研发人员进行理论和算法的快速实现,并为外部开发人员贡献子模块提供友好的开源社区环境。
二、传统分子模拟与 MindSpore 结合的人工智能算法的全流程实现。在 MindSpore 中,研发人员能便利的将 AI 方法做用于分子模拟中。全算子化的 SPONGE 将与 MindSpore 进一步结合成为新一代端到端可微的分子模拟软件,实现人工智能与分子模拟的天然融合。
教程文档: https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/hpc_sponge.html
-
MindSpore+SPONGE 展望
近期展望:在后续的版本更新中会陆续加入已经理论验证好的 MetaITS 模块、有限元计算模块等功能。这些模块将帮助 SPONGE 能更好的从事相变和金属表面相关的模拟。同时,MindSpore 版 SPONGE 各模块逐步支持自动微分和自动并行,对于衔接机器学习方案提供更友好的支持。
远期展望:拓展 SPONGE 的各类特点模块,使其可以描述大部分微观体系并同时具备较高的计算和采样效率。对特定工业需求,如药物筛选或晶型预测,将基于 SPONGE 衍生出完整的流程化计算方案,可以知足大规模并行计算的需求。在 MindSpore 框架下,SPONGE 具备元优化功能,从而实现更准确和更快的力场拟合。
四、量子机器学习(MindQuantum),来自社区量子力学工做组:
MindQuantum 是结合 MindSpore 和 HiQ 开发的量子机器学习框架,支持多种量子神经网络的训练和推理。得益于华为 HiQ 团队的量子计算模拟器和 MindSpore 高性能自动微分能力,MindQuantum 可以高效处理量子机器学习、量子化学模拟和量子优化等问题,性能达到业界 TOP1(Benchmark),为广大的科研人员、老师和学生提供了快速设计和验证量子机器学习算法的高效平台。
MindQuantum vs TF Quantum/Paddle Quantum 性能对比
查看教程:https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/parameterized_quantum_circuit.html
五、多跳知识推理问答(TPRR):
TPRR 是解决开放域多跳问题的通用模型。相比于传统问答仅需从单个文档中检索答案,多跳知识推理问答须要从多个佐证文档获得最终答案,并返回问题到答案的推理链。TPRR 基于 MindSpore 混合精度特性,能够高效地完成多跳问答推理过程。
-
全路径建模:
TPRR 模型在多跳问题推理链的每个环节中基于所有推理路径的条件几率建模,模型以 「全局视角」 进行知识推理。
-
动态样本选取:
TPRR 模型采用动态样本的建模方式,经过更强的对比学习提高模型多跳问答的能力。
算法流程图以下:
TPRR 模型在国际权威的多跳问答榜单 HotpotQA 评测中荣登榜首,榜单图以下:
查看教程: https://www.mindspore.cn/tutorial/inference/zh-CN/r1.2/nlp_tprr.html
六、一键模型迁移(MindConverter):
脚本迁移工具(MindConverter)旨在帮助算法工程师将存量的基于三方框架开发的模型快速迁移至 MindSpore 生态。根据用户提供的 TensorFlow PB 或 ONNX 模型文件,工具经过对模型的计算图(Computational Graph)解析,生成一份具有可读性的 MindSpore Python 模型定义脚本(.py)以及相应的模型权重(.ckpt)。
-
一键迁移:
经过 MindConverter CLI 命令便可一键将模型迁移为 MindSpore 下模型定义脚本以及相应权重文件,省去模型重训以及模型定义脚本开发时间;
-
100% 迁移率:
在 MindConverter 具有跨框架间算子映射的状况下,迁移后脚本可直接用于推理,实现 100% 迁移率;
-
支持模型列表:
目前工具已支持计算机视觉领域典型模型、天然语言处理 BERT 预训练模型脚本及权重的迁移,详细模型列表见 README。
BERT 模型定义迁移结果展现(部分代码):
查看教程: https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/migrate_3rd_scripts_mindconverter.html?highlight=mindconverter
七、鲁棒性评测工具助力 OCR 服务达成首个 AI C4 鲁棒性标准要求:
MindSpore 鲁棒性测试工具 MindArmour,基于黑白盒对抗样本(20 + 方法)、天然扰动(10 + 方法)等技术提供高效的鲁棒性评测方案,帮助客户评估模型的鲁棒性性,识别模型脆弱点。
OCR 是指利用光学设备去捕获图像并识别文字,减小人工成本,快速提高工做效率;若是攻击者经过对待识别的文字作出人眼不易察觉的修改,而模型没法对其正确识别或处理,就会致使 OCR 服务对文字识别的准确率降低,且使用人员不清楚问题背后的缘由。测评团队使用 MindArmour 对 OCR 服务的鲁棒性进行测评,发现 OCR 服务中部分模型对天然扰动和对抗样本的防护能力较差,如文本框检测模型在校验噪声、PGD、PSO(粒子群)等攻击算法下准确率小于 66%;并以此指导模型开发团队经过对抗样本检测、数据加强训练等技术,使得模型对恶意样本的识别准确率达到 95+%,提升了模型及 OCR 服务的鲁棒性。
AI C4 标准连接: https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/CloudComputing/AIC4/AI-Cloud-Service-Compliance-Criteria-Catalogue_AIC4.html