阿里重磅开源首款自研科学计算引擎Mars,揭秘超大规模科学计算

日前,阿里巴巴正式对外发布了分布式科学计算引擎 Mars 的开源代码地址,开发者们能够在pypi上自主下载安装,或在Github上获取源代码并参与开发。git

此前,早在2018年9月的杭州云栖大会上,阿里巴巴就公布了这项开源计划。Mars 突破了现有大数据计算引擎的关系代数为主的计算模型,将分布式技术引入科学计算/数值计算领域,极大地扩展了科学计算的计算规模和效率。目前已应用于阿里巴巴及其云上客户的业务和生产场景。本文将为你们详细介绍Mars的设计初衷和技术架构。github

概述数组

科学计算即数值计算,是指应用计算机处理科学研究和工程技术中所遇到的数学计算问题。好比图像处理、机器学习、深度学习等不少领域都会用到科学计算。有不少语言和库都提供了科学计算工具。这其中,Numpy以其简洁易用的语法和强大的性能成为佼佼者,并以此为基础造成了庞大的技术栈。(下图所示)session

图片描述

Numpy的核心概念多维数组是各类上层工具的基础。多维数组也被称为张量,相较于二维表/矩阵,张量具备更强大的表达能力。所以,如今流行的深度学习框架也都普遍的基于张量的数据结构。
图片描述数据结构

随着机器学习/深度学习的热潮,张量的概念已逐渐为人所熟知,对张量进行通用计算的规模需求也与日俱增。但现实是如Numpy这样优秀的科学计算库仍旧停留在单机时代,没法突破规模瓶颈。当下流行的分布式计算引擎也并不是为科学计算而生,上层接口不匹配致使科学计算任务很难用传统的SQL/MapReduce编写,执行引擎自己没有针对科学计算优化更使得计算效率难以使人满意。多线程

基于以上科学计算现状,由阿里巴巴统一大数据计算平台MaxCompute研发团队,历经1年多研发,打破大数据、科学计算领域边界,完成第一个版本并开源。 Mars,一个基于张量的统一分布式计算框架。使用 Mars 进行科学计算,不只使得完成大规模科学计算任务从MapReduce实现上千行代码下降到Mars数行代码,更在性能上有大幅提高。目前,Mars 实现了 tensor 的部分,即numpy 分布式化, 实现了 70% 常见的 numpy 接口。后续,在 Mars 0.2 的版本中, 正在将 pandas 分布式化,即将提供彻底兼容 pandas 的接口,以构建整个生态。 架构

Mars做为新一代超大规模科学计算引擎,不只普惠科学计算进入分布式时代,更让大数据进行高效的科学计算成为可能。框架

Mars的核心能力dom

符合使用习惯的接口
Mars 经过 tensor 模块提供兼容 Numpy 的接口,用户能够将已有的基于 Numpy 编写的代码,只需替换 import,就可将代码逻辑移植到 Mars,并直接得到比原来大数万倍规模,同时处理能力提升数十倍的能力。目前,Mars 实现了大约 70% 的常见 Numpy 接口。
图片描述机器学习

充分利用GPU加速
除此以外,Mars 还扩展了 Numpy,充分利用了GPU在科学计算领域的已有成果。建立张量时,经过指定 gpu=True 就可让后续计算在GPU上执行。好比:
a = mt.random.rand(1000, 2000, gpu=True) # 指定在 GPU 上建立
(a + 1).sum(axis=1).execute()

稀疏矩阵
Mars 还支持二维稀疏矩阵,建立稀疏矩阵的时候,经过指定 sparse=True 便可。以eye 接口为例,它建立了一个单位对角矩阵,这个矩阵只有对角线上有值,其余位置上都是 0,因此,咱们能够用稀疏的方式存储。
a = mt.eye(1000, sparse=True) # 指定建立稀疏矩阵
(a + 1).sum(axis=1).execute()

系统设计
接下来介绍 Mars 的系统设计,让你们了解 Mars 是如何让科学计算任务自动并行化并拥有强大的性能。

分而治之—tile
Mars 一般对科学计算任务采用分而治之的方式。给定一个张量,Mars 会自动将其在各个维度上切分红小的 Chunk 来分别处理。对于 Mars 实现的全部的算子,都支持自动切分任务并行。这个自动切分的过程在Mars里被称为 tile。
好比,给定一个 1000 2000 的张量,若是每一个维度上的 chunk 大小为 500,那么这个张量就会被 tile 成 2 4 一共 8 个 chunk。对于后续的算子,好比加法(Add)和求和(SUM),也都会自动执行 tile 操做。一个张量的运算的 tile 过程以下图所示。

延迟执行和 Fusion 优化
目前 Mars 编写的代码须要显式调用 execute 触发,这是基于 Mars 的延迟执行机制。用户在写中间代码时,并不会须要任何的实际数据计算。这样的好处是能够对中间过程作更多优化,让整个任务的执行更优。目前 Mars 里主要用到了 fusion 优化,即把多个操做合并成一个执行。
对于前面一个图的例子,在 tile 完成以后,Mars 会对细粒度的 Chunk 级别图进行 fusion 优化,好比8个 RAND+ADD+SUM,每一个能够被分别合并成一个节点,一方面能够经过调用如 numexpr 库来生成加速代码,另外一方面,减小实际运行节点的数量也能够有效减小调度执行图的开销。

多种调度方式
Mars 支持多种调度方式:
| 多线程模式:Mars 可使用多线程来在本地调度执行 Chunk 级别的图。对于 Numpy 来讲,大部分算子都是使用单线程执行,仅使用这种调度方式,也可使得 Mars 在单机便可得到 tile 化的执行图的能力,突破 Numpy 的单机内存限制,同时充分利用单机全部 CPU/GPU 资源,得到比 Numpy 快数倍的性能。

| 单机集群模式: Mars 能够在单机启动整个分布式运行时,利用多进程来加速任务的执行;这种模式适合模拟面向分布式环境的开发调试。

| 分布式 : Mars 能够启动一个或者多个 scheduler,以及多个 worker,scheduler 会调度 Chunk 级别的算子到各个 worker 去执行。

下图是 Mars 分布式的执行架构:

图片描述

Mars 分布式执行时会启动多个 scheduler 和 多个 worker,图中是3个 scheduler 和5个 worker,这些 scheduler 组成一致性哈希环。用户在客户端显式或隐式建立一个 session,会根据一致性哈希在其中一个 scheduler 上分配 SessionActor,而后用户经过 execute 提交了一个张量的计算,会建立 GraphActor 来管理这个张量的执行,这个张量会在 GraphActor 中被 tile 成 chunk 级别的图。这里假设有3个 chunk,那么会在 scheduler 上建立3个 OperandActor 分别对应。这些 OperandActor 会根据本身的依赖是否完成、以及集群资源是否足够来提交到各个 worker 上执行。在全部 OperandActor 都完成后会通知 GraphActor 任务完成,而后客户端就能够拉取数据来展现或者绘图。

向内和向外伸缩
Mars 灵活的 tile 化执行图配合多种调度模式,可使得相同的 Mars 编写的代码随意向内(scale in)和向外(scale out)伸缩。向内伸缩到单机,能够利用多核来并行执行科学计算任务;向外伸缩到分布式集群,能够支持到上千台 worker 规模来完成单机不管如何都难以完成的任务。

Benchmark

在一个真实的场景中,咱们遇到了巨型矩阵乘法的计算需求,须要完成两个均为千亿元素,大小约为2.25T的矩阵相乘。Mars经过5行代码,使用1600 CU(200个 worker,每 worker 为 8核 32G内存),在2个半小时内完成计算。在此以前,同类计算只能使用 MapReduce 编写千余行代码模拟进行,完成一样的任务须要动用 9000 CU 并耗时10个小时。

让咱们再看两个对比。下图是对36亿数据矩阵的每一个元素加一再乘以二,红色的叉表示 Numpy 的计算时间,绿色的实线是 Mars 的计算时间,蓝色虚线是理论计算时间。能够看到单机 Mars 就比 Numpy 快数倍,随着 Worker 的增长,能够得到几乎线性的加速比。

图片描述

下图是进一步扩大计算规模,把数据扩大到144亿元素,对这些元素加一乘以二之后再求和。这时候输入数据就有 115G,单机的 Numpy 已经没法完成运算,Mars 依然能够完成运算,且随着机器的增多能够得到还不错的加速比。

图片描述

开源地址

Mars 已经在 Github 开源:https://github.com/mars-proje... ,且后续会所有在 Github 上使用标准开源软件的方式来进行开发,欢迎你们使用 Mars,并成为 Mars 的 contributor。

相关文章
相关标签/搜索