干货:基于Spark Mllib的SparkNLP库。

干货:基于Spark Mllib的SparkNLP库。

 浪尖 浪尖聊大数据 shell

图片

引言apache

这是来自John Snow Labs工程团队的社区博客和工做,解释了他们对开源Apache Spark天然语言处理(NLP)库的贡献。框架

Apache Spark是一个通用的集群计算框架,它支持分布式SQL,流式处理,图处理和机器学习。如今,Spark生态系统还有一个Spark Natural Language Processing库。机器学习

John Snow Labs NLP库是在Scala编写的Apache 2.0以上,不依赖于其余NLP或ML库。它本地扩展了Spark ML管道API。该框架提供了注释器的概念,并带出了如下内容:分布式

  • 标记生成器ide

  •  规范化函数

  • 词干提取学习

  •  Lemmatizer测试

  • 实体提取器大数据

  • 日期提取器

  • Part of Speech Tagger

  • 命名实体识别

  • 句子边界检测

  • 情感分析

  • 拼写检查器

另外,因为与Spark ML的紧密集成,在构建NLP管道时,您能够直接使用Spark的更多功能。这包括词语嵌入,主题建模,停用词移除,各类特征工程功能(tf-idf,n-gram,类似性度量等)以及在机器学习工做流中使用NLP注释做为特征。若是您不熟悉这些术语,那么理解NLP任务的指南是一个好的开始。

图片

Spark ML提供了一套机器学习应用程序,它的逻辑由两个主要组件组成:估计器(Estimators)和 变换器(Transformers)。首先,有一个称为fit()的方法,将一段数据保存并传递给这样的应用程序,Transformer(通常是拟合过程的结果)将更改应用于目标数据集。这些组件已嵌入到适用于Spark NLP。 管道是容许单个工做流程中包含多个估计器和变换器的机制,容许沿机器学习任务进行多个连接转换。

注释(Annotation)

注释是Spark-NLP操做结果的基本形式。它的结构是由:

  • annotatorType: 哪一个注释器生成了这个注释

  • begin: 匹配的内容相对于原始文本的开始。

  • end: 匹配的内容相对于原始文本的结尾

  • metadata: 匹配结果的内容和附加信息

该对象在转换处理结束后由注释器自动生成。不须要手动参与。但为了有效地使用它,必须按照顺序理解。

注解器(Annotators)

注解器是SparkNLP中NLP功能的先锋。有两种形式的注释器

  • 注解器方法:表明Spark ML Estimator并须要一个训练stage。他们有一个称为fit(data)的函数,它根据一些数据来训练一个模型。他们生产第二种类型的注释器,它是一个注释器模型或转换器(transformer)。

  • Annotator模型:它们是spark模型或转换器(transformer),意味着它们具备一个transform(data)函数,它接受一个数据集并添加一个带有这个标注结果的列。全部转换器(transformer)都是附加的,这意味着它们附加到当前数据,决不会替换或删除之前的信息。

这两种形式的注释器均可以包含在Pipeline中,而且会自动按照提供的顺序遍历全部阶段并相应地转换数据。在fit()阶段以后,Pipeline变成了PipelineModel。不管是以前仍是以后,能够随时保存到磁盘并从新从磁盘加载。

公共函数

setInputCols(column_names):获取此注释器所需的注释列名称

setOutputCol( column_name):定义包含此注释器结果的列的名称。使用此名称做为其余注释器的输入,须要注释这个注释器。

例子分析

1 注释器类型

每一个注释器都有一个类型。这些共享类型的注释器能够互换使用,这意味着您能够在须要时使用它们中的任何一个。例如,当另外一个注释器(如情感分析注释器)须要令牌类型注释器时,能够提供标normalized token或lemma,由于二者都是类型标记。

2 使用spark读入数据

咱们例子测试采用的是spark-shell的方式,spark-2.1.1版本以上,本文采用的是spark2.1.2,scala版本2.11.8,启动:

spark-shell --jars /opt/jars/spark-nlp-1.2.3.jar

3 加载数据并测试,

image.png

咱们这里是先把数据赋值为名为data的变量

val data = spark.read.parquet("file:///opt/datas/*")

image.png

4 DocumentAssembler:获取数据

为什么贯穿NLP处理过程,咱们须要将原始数据进行标注。有一个特殊的transformer为咱们作这件事情:DocumentAssembler,它会建立第一个类型为Document的注释,该注释会被之后的注解器使用。

import com.johnsnowlabs.nlp._

import com.johnsnowlabs.nlp.annotators._

import org.apache.spark.ml.Pipeline


val documentAssembler = new DocumentAssembler()

   .setInputCol("text")

   .setOutputCol("document")

5 句子检测及分词

在这个快速的例子中,咱们如今开始在每一个文档行中标识句子。SentenceDetectorModel须要一个由DocumentAssembler输出提供的Document注释,它自己是一个Document类型标记。RegexTokenizer须要一个Document注释类型,这意味着它与DocumentAssemblerSentenceDetector输出一块儿工做,在这里,咱们使用句子输出。

importcom.johnsnowlabs.nlp.annotators.sbd.pragmatic.SentenceDetectorModel

val sentenceDetector = new SentenceDetectorModel()

   .setInputCols(Array("document"))

   .setOutputCol("sentence")


val regexTokenizer = new RegexTokenizer()

   .setInputCols(Array("sentence"))

   .setOutputCol("token")

6 使用管道(pipeline)

如今咱们要把全部这些放在一块儿并检索结果,咱们使用Pipeline来作到这一点。咱们还包含另外一个特殊的变形器,称为“ Finisher”,以人类语言显示标记

val finisher = new Finisher()

   .setInputCols("token")

   .setCleanAnnotations(false)


val pipeline = new Pipeline()

   .setStages(Array(

       documentAssembler,

       sentenceDetector,

       regexTokenizer,

       finisher

   ))


pipeline

   .fit(data)

   .transform(data)

   .show()

image.png


也能够按照spark的输出文件的格式保存结果,好比:

pipeline.fit(data).transform(data).toJSON.write.text("file:///opt/output")

7 输出为

image.png

相关文章
相关标签/搜索