不一样来源的异构数据间存在着千丝万缕的关联,这种数据之间隐藏的关联关系和网络结构特性对于数据分析相当重要,图计算就是以图做为数据模型来表达问题并予以解决的过程。java
1、背景
随着网络信息技术的飞速发展,数据逐渐向多源异构化方向发展,且不一样来源的异构数据之间也存在的千丝万缕的关联,这种数据之间隐藏的关联关系和网络结构特性对于数据分析相当重要。但传统关系型数据库在分析大规模数据关联特性时存在性能缺陷、表达有限等问题,所以有着更强大表达能力的图数据受到业界极大重视,图计算就是以图做为数据模型来表达问题并予以解决的过程。图能够融合多源多类型的数据,除了能够展现数据静态基础特性以外,还可经过图计算展现隐藏在数据之间的图结构特性和点对关联关系,成为社交网络、推荐系统、知识图谱、金融风控、网络安全、文本检索等领域重要的分析手段。git
2、算法应用
为了支撑大规模图计算的业务需求,Nebula Graph 基于 GraphX 提供了 PageRank 和 Louvain 社区发现的图计算算法,容许用户经过提交 Spark 任务的形式执行算法应用。此外,用户也能够经过 Spark Connector 编写 Spark 程序调用 GraphX 自带的其余图算法,如 LabelPropagation、ConnectedComponent 等。github
PageRank
PageRank 是谷歌提出的用于解决连接分析中网页排名问题的算法,目的是为了对互联网中数以亿计的网页进行排名。算法
PageRank 简介
美国斯坦福大学的 Larry Page 和 Sergey Brin 在研究网页排序问题时采用学术界评判论文重要性的方法,即看论文的引用量以及引用该论文的论文质量,对应于网页的重要性有两个假设:shell
- 数量假设:若是一个网页 A 被不少其余网页连接到,则该网页比较重要;
- 质量假设:若是一个很重要的网页连接到网页 A,则该网页的重要性会被提升。
并基于这两个假设提出 PageRank 算法。数据库
PageRank 应用场景
社交应用的类似度内容推荐
在对微博、微信等社交平台进行社交网络分析时,能够基于 PageRank 算法根据用户一般浏览的信息以及停留时间实现基于用户的类似度的内容推荐;apache
分析用户社交影响力
在社交网络分析时根据用户的 PageRank 值进行用户影响力分析;安全
文献重要性研究
根据文献的 PageRank 值评判该文献的质量,PageRank 算法就是基于评判文献质量的想法来实现设计。微信
此外 PageRank 在数据分析和挖掘中也有不少的应用。网络
算法思路
GraphX 的 PageRank 算法是基于 Pregel 计算模型的,该算法流程包括 3 步骤:
- 为图中每一个节点(网页)设置一个一样的初始 PageRank 值;
- 第一次迭代:沿边发送消息,每一个节点收到全部关联边上对点的信息,获得一个新的 PageRank 值;
- 第二次迭代:用这组新的 PageRank 按不一样算法模式对应的公式造成节点本身新的 PageRank。
Louvain 社区发现
Louvain 是用来进行社会网络挖掘的社区发现算法,属于图的聚类算法。
Louvain 算法介绍
Louvain 是基于模块度(Modularity)的社区发现算法,经过模块度来衡量一个社区的紧密程度。若是一个节点加入到某一社区中会使得该社区的模块度相比其余社区有最大程度的增长,则该节点就应当属于该社区。若是加入其它社区后没有使其模块度增长,则留在本身当前社区中。
模块度
模块度公式
模块度 Q 的物理意义:社区内节点的连边数与随机状况下的边数之差,定义函数以下:
其中
:节点 i 和节点 j 之间边的权重
:全部与节点 i 相连的边的权重之和
:节点 i 所属的社区
: 图中全部边的权重之和
模块度公式变形
在此公式中,只有节点 i 和节点 j 属于同一社区,公式才有意义,因此该公式是衡量的某一社区内的紧密度。对于该公式的简化变形以下:
表示: 社区 c 内的边的权重之和
表示: 全部与社区 c 内节点相连的边的权重之和(由于 i 属于社区 c)包括社区内节点与节点 i 的边和社区外节点与节点 i 的边。
表示: 全部与社区 c 内节点相连的边的权重之和(由于 j 属于社区 c)包括社区内节点与节点 j 的边和社区外节点与节点 j 的边。
代替
和
。(即社区 c 内边权重和 + 社区 c 与其余社区连边的权重和)
求解模块度变化
在 Louvain 算法中不须要求每一个社区具体的模块度,只须要比较社区中加入某个节点以后的模块度变化,因此须要求解 △Q。
将节点 i 分配到某一社区中,社区的模块度变化为:
其中
: 社区内全部节点与节点 i 连边权重之和(对应新社区的实际内部权重和乘以 2,由于
对于社区内全部的顶点 i,每条边其实被计算了两次)
: 全部与节点 i 相连的边的权重之和 故实现算法时只需求
便可。
Louvain 应用场景
- 金融风控
在金融风控场景中,能够根据用户行为特征进行团伙识别;
- 社交网络
能够基于网络关系中点对之间关联的广度和强度进行社交网络划分;对复杂网络分析、电话网络分析人群之间的联系密切度;
- 推荐系统
基于用户兴趣爱好的社区发现,能够根据社区并结合协同过滤等推荐算法进行更精确有效的个性化推荐。
Louvain 算法思路
Louvain 算法包括两个阶段,其流程就是这两个阶段的迭代过程。
阶段一:不断地遍历网络图中的节点,经过比较节点给每一个邻居社区带来的模块度的变化,将单个节点加入到可以使 Modularity 模块度有最大增量的社区中。 (好比节点 v 分别加入到社区 A、B、C 中,使得三个社区的模块度增量为-1, 1, 2, 则节点 v 最终应该加入到社区 C 中)
阶段二:对第一阶段进行处理,将属于同一社区的顶点合并为一个大的超点从新构造网络图,即一个社区做为图的一个新的节点。此时两个超点之间边的权重是两个超点内全部原始顶点之间相连的边权重之和,即两个社区之间的边权重之和。
下面是对第一二阶段的实例介绍。
第一阶段遍历图中节点加入到其所属社区中,获得中间的图,造成四个社区;
第二节点对社区内的节点进行合并成一个超级节点,社区节点有自连边,其权重为社区内部全部节点间相连的边的权重之和的 2 倍,社区之间的边为两个社区间顶点跨社区相连的边的权重之和,如红色社区和浅绿色社区之间经过(8,11)、(10,11)、(10,13)相连,因此两个社区之间边的权重为 3。
注:社区内的权重为全部内部结点之间边权重的两倍,由于 Kin 的概念是社区内全部节点与节点 i 的连边和,在计算某一社区的 Kin 时,实际上每条边都被其两端的顶点计算了一次,一共被计算了两次。
整个 Louvain 算法就是不断迭代第一阶段和第二阶段,直到算法稳定(图的模块度再也不变化)或者到达最大迭代次数。
3、算法实践
演示环境
- 三台虚拟机,环境以下:
- Cpu name:Intel(R) Xeon(R) Platinum 8260M CPU @ 2.30GHz
- Processors:32
- CPU Cores:16
- Memory Size:128G
- 软件环境
- Spark:spark-2.4.6-bin-hadoop2.7 三个节点集群
- yarn V2.10.0:三个节点集群
- Nebula Graph V1.1.0:分布式部署,默认配置
测试数据
- 建立图空间
CREATE SPACE algoTest(partition_num=100, replica_factor=1);
- 建立点边 Schema
CREATE TAG PERSON() CREATE EDGE FRIEND(likeness double);
- 导入数据
利用 Exchange 工具将数据离线导入 Nebula Graph。
- 测试结果
Spark 任务的资源分配为 --driver-memory=20G --executor-memory=100G --executor-cores=3
- PageRank 在一亿数据集上的执行时间为 21min(PageRank 算法执行时间)
- Louvain 在一亿数据集上的执行时间为 1.3h(Reader + Louvain 算法执行时间)
如何使用 Nebula Graph 的算法
- 下载 nebula-algorithm 项目并打成 jar 包
$ git clone git@github.com:vesoft-inc/nebula-java.git $ cd nebula-java/tools/nebula-algorithm $ mvn package -DskipTests
- 配置项目中的
src/main/resources/application.conf
{ # Spark relation config spark: { app: { # not required, default name is the algorithm that you are going to execute. name: PageRank # not required partitionNum: 12 } master: local # not required conf: { driver-memory: 8g executor-memory: 8g executor-cores: 1g cores-max:6 } } # Nebula Graph relation config nebula: { # metadata server address addresses: "127.0.0.1:45500" user: root pswd: nebula space: algoTest # partition specified while creating nebula space, if you didn't specified the partition, then it's 100. partitionNumber: 100 # nebula edge type labels: ["FRIEND"] hasWeight: true # if hasWeight is true,then weightCols is required, and weghtCols' order must be corresponding with labels. # Noted: the graph algorithm only supports isomorphic graphs, # so the data type of each col in weightCols must be consistent and all numeric types. weightCols: [“likeness”] } algorithm: { # the algorithm that you are going to execute,pick one from [pagerank, louvain] executeAlgo: louvain # algorithm result path path: /tmp # pagerank parameter pagerank: { maxIter: 20 resetProb: 0.15 # default 0.15 } # louvain parameter louvain: { maxIter: 20 internalIter: 10 tol: 0.5 } } }
-
确保用户环境已安装 Spark 并启动 Spark 服务
-
提交 nebula-algorithm 应用程序:
spark-submit --master xxx --class com.vesoft.nebula.tools.algorithm.Main /your-jar-path/nebula-algorithm-1.0.1.jar -p /your-application.conf-path/application.conf
若是你对上述内容感兴趣,欢迎用 nebula-algorithm 试试^^
References
- Nebula Graph:https://github.com/vesoft-inc/nebula
- GraphX:https://github.com/apache/spark/tree/master/graphx
- Spark-connector:https://github.com/vesoft-inc/nebula-java/tree/master/tools/nebula-spark
- Exchange:https://github.com/vesoft-inc/nebula-java/blob/master/doc/tools/exchange/ex-ug-toc.md
- nebula-algorithm:https://github.com/vesoft-inc/nebula-java/tree/master/tools/nebula-algorithm
做者有话说:Hi,我是安祺,Nebula Graph 研发工程师,若是你对本文有任何疑问,欢迎来论坛和我交流:https://discuss.nebula-graph.com.cn/