天天看点

《Spark核心技术与高级应用》——1.2节Spark的重要扩展

本节书摘来自华章社区《spark核心技术与高级应用》一书中的第1章,第1.2节spark的重要扩展,作者于俊 向海 代其锋 马海平,更多章节内容可以访问云栖社区“华章社区”公众号查看

1.2 spark的重要扩展

大家知道,在hadoop中完成即席查询(ad-hoc queries)、批处理(batch processing),流式处理(stream processing),需要构建不同的团队,每个团队需要不同的技术和经验,很难做到共享。而spark实现了平台融合,一个基础平台解决所有的问题,一个团队拥有相同的技术和经验完成所有的任务。

基于spark的基础平台扩展了5个主要的spark库,包括支持结构化数据的spark sql、处理实时数据的spark streaming、用于机器学习的mllib、用于图计算的graphx、用于统计分析的sparkr,各种程序库与spark核心api高度整合在一起,并在持续不断改进。

1.2.1 spark sql和dataframe

spark sql是spark的一个处理结构化数据的模块,提供一个dataframe编程抽象。它可以看作是一个分布式sql查询引擎,主要由catalyst优化、spark sql内核、hive支持三部分组成。

相对于传统的mapreduce api,spark的rdd api有了数量级的飞跃,从spark sql 1.3.0开始,在原有schemardd的基础上提供了与r风格类似的dataframe api。

dataframe是以指定列(named columns)组织的分布式数据集合,在spark sql中,相当于关系数据库的一个表,或r/python的一个数据框架,但后台更加优化。

dataframes支持多种数据源构建,包括:结构化数据文件(parquet、json)加载、hive表读取、外部数据库读取、现有rdd转化,以及sqlcontext运行sql查询结果创建dataframe,如图1-4所示。

《Spark核心技术与高级应用》——1.2节Spark的重要扩展

新的dataframe api一方面大幅度降低了开发者学习门槛,同时支持scala、java、python和r语言,且支持通过spark shell、pyspark shell和sparkr shell提交任务。由于来源于schemardd,dataframe天然适用于分布式大数据场景。

关于spark sql更具体的内容和案例会在后面第6章详细介绍。

1.2.2 spark streaming

spark streaming属于核心spark api的扩展,它支持高吞吐量和容错的实时流数据处理,它可以接受来自kafka、flume、twitter、zeromq或tcp socket的数据源,使用复杂的算法表达和高级功能来进行处理,如map、reduce、join、window等,处理的结果数据能够存入文件系统、数据库。还可以直接使用内置的机器学习算法、图形处理算法来处理数据,数据输入/输出示意图如图1-5所示。

《Spark核心技术与高级应用》——1.2节Spark的重要扩展

spark streaming提供一种名为离散流(dstream)的高级抽象连续数据流。dstream直接支持kafka、flume的数据源创建,或者通过高级操作其他dstream创建,一个dstream是一个序列化的rdd。

关于spark streaming更具体的内容和案例会在第7章详细介绍。

1.2.3 spark mllib和ml

mllib是spark对常用的机器学习算法的实现库,同时包括相关的测试和数据生成器。mllib目前支持4种常见的机器学习问题:二元分类、回归、聚类和协同过滤,以及一个底层的梯度下降优化基础算法。

mllib基于rdd,天生就可以与spark sql、graphx、spark streaming无缝集成,mllib是mlbase的一部分,mlbase通过边界定义,力图将mlbase打造成一个机器学习平台,让机器学习开发的门槛更低,让一些并不了解机器学习的用户也能方便地使用mlbase这个工具来处理自己的数据。

mllib支持将本地向量和矩阵存储在单个机器中,也包括有一个或更多的rdd支持的分布式矩阵。在目前的实现中,本地向量和矩阵都是为公共接口服务的简单数据模式,mllib使用了线性代数包breeze。在监督学习中使用到的样本在mllib中成为标记点。

spark mllib架构由底层基础、算法库和应用程序三部分构成。底层基础包括spark的运行库、进行线性代数相关技术的矩阵库和向量库。算法库包括spark mllib实现的具体机器学习算法,以及为这些算法提供的各类评估方法;主要实现算法包括建立在广义线性回归模型的分类和回归,以及协同过滤、聚类和决策树。在最新的spark 1.5.0版本中还新增了基于前馈神经网络的分类器算法multilayerperceptronclassif?ier(mlpc),频繁项挖掘算法pref?ixspan、associationrules,实现kolmogorov-smirnov检验等等算法,随着版本的演进,算法库也会越来越强大。应用程序包括测试数据的生成以及外部数据的加载等功能。

spark的ml库基于dataframe提供高性能api,帮助用户创建和优化实用的机器学习流水线(pipeline),包括特征转换独有的pipelines api。相比较mllib,变化主要体现在:

1)从机器学习的library开始转向构建一个机器学习工作流的系统,ml把整个机器学习的过程抽象成pipeline,一个pipeline是由多个stage组成,每个stage是transformer或者estimator。

2)ml框架下所有的数据源都是基于dataframe,所有模型也尽量都基于spark的数据类型表示,ml的api操作也从rdd向dataframe全面转变。

关于mllib和ml库更具体的内容和案例会在第8章详细介绍。

1.2.4 graphx

从社交网络到语言建模,图数据规模和重要性的不断增长,推动了数不清的新型并行图系统(例如,giraph和graphlab)的发展。通过限制可以表达的计算类型和引入新的技术来分割和分发图,这些系统可以以高于普通的数据并行系统几个数量级的速度执行复杂的图算法,如图1-7所示。

《Spark核心技术与高级应用》——1.2节Spark的重要扩展

graphx是用于图和并行图计算的新spark api。从上层来看,graphx通过引入弹性分布式属性图(resilient distributed property graph)扩展了spark rdd。这种图是一种伪图,图中的每个边和节点都有对应的属性。

为了支持图计算,graphx给出了一系列基础的操作(例如,subgraph、joinvertices、和mapreducetriplets)以及基于pregel api的优化变体。除此之外,graphx还包含了一个不断扩展的图算法和构建器集合,以便简化图分析的任务。

关于graphx更具体的内容和案例会在第9章中详细介绍。

1.2.5 sparkr

sparkr是amplab发布的一个r开发包,为apache spark提供了轻量的前端。sparkr提供了spark中弹性分布式数据集(rdd)的api,用户可以在集群上通过r shell交互性地运行job。例如,我们可以在hdfs上读取或写入文件,也可以使用lapply函数进行方法调用,定义对应每一个rdd元素的运算。

spark具有快速(fast)、可扩展(scalable)、交互(interactive)的特点,r具有统计(statistics)、绘图(plots)的优势,r和spark的有效结合,解决了r语言中无法级联扩展的难题,也极大地丰富了spark在机器学习方面能够使用的lib库。

除了常见的rdd函数式算子reduce、reducebykey、groupbykey和collect之外,sparkr也支持利用lapplywithpartition对每个rdd的分区进行操作。sparkr也支持常见的闭包(closure)功能:用户定义的函数中所引用到的变量会自动被发送到集群中的其他的机器上。

sparkr的工作原理如图1-8所示,首先加载r方法包和rjava包,然后通过sparkr初始化sparkcontext。

《Spark核心技术与高级应用》——1.2节Spark的重要扩展

关于sparkr处理数据挖掘更具体的内容和案例会在第10章详细介绍。

继续阅读