天天看点

Spark(一)Spark简介

官网地址:​​http://spark.apache.org/​​

Spark(一)Spark简介

apache spark 是专为大规模数据处理而设计的快速通用的计算引擎。spark是uc berkeley amp lab (加州大学伯克利分校的amp实验室)所开源的类hadoop mapreduce的通用并行计算框架,spark拥有hadoop mapreduce所具有的优点;但不同于mapreduce的是job中间输出结果可以保存在内存中,从而不再需要读写hdfs,因此spark能更好地适用于数据挖掘与机器学习等需要迭代的mapreduce的算法。

问题

工具只在解决了一些问题时才有用,对吧!那么让我们来讨论一下 spark 能解决的问题。

我们需要(快速获取)答案

在批处理过程中,长时间等待运行作业的结果是意料中的事,在如今的企业中,需要快速(“近实时”)获取答案。大数据的属性(速度、数据量和种类)使得业务问题越来越难获得答案,但快速获取这些答案非常重要。

数据如此之多

数据源数不胜数且仍在增加。从 iot 设备、实时交易、单击流、应用到社交媒体等,数据源在不断增加。所有数据都需要经过一定的处理,这样分析师才能理解并从中获取业务价值。现在您需要能处理所有这些数据,以便将它们转化为某种能使用的信息。能够以越来越快的速度处理从越来越多来源传入的海量数据,这一点很重要!

a 与 b(以及 c、d 等等)有何关联?

您拥有所有这些有用的数据,从客户交易、社交媒体交互到地理空间数据等等。现在您需要了解所有这些维度如何相互关联。重要的是能看到对这个数据图的全面分析结果,从而确定哪些数据维至关重要,哪些毫无价值。

我们需要知道(何时)将会发生什么

您拥有所有这些宝贵的历史数据。太棒了!现在您需要分析它们,了解发生了什么和发生的原因,以便能预测接下来会发生什么。重要的是能够分析所有这些数据,以便预测将会发生的业务事件。

apache spark 不是什么

我们常常(且很容易)合并解决一组类似问题的两种或更多相关技术,而且在不能互换使用它们时互换使用了它们。为了避免在 spark 上犯这种错误,让我们讨论一下它不是什么。

hadoop

hadoop 是一种大数据文件存储和数据处理框架,它使用一种称为 mapreduce 的技术从一个庞大的磁盘集群读取数据,转换数据,并将数据写回磁盘。另一方面,spark 使用有向非循环图 (dag) 通过一系列步骤处理内存中的数据,这些步骤之间相互依赖(gradle 也使用了一种 dag),而且不会像 hadoop(通过 hadoop 分布式文件系统,hdfs)那样处理文件存储本身。

mapreduce

人们很容易将 spark core 与 mapreduce 混淆,因为它们在大数据领域都很重要。mapreduce 基本来讲是一种单通算法:读入数据,mapreduce 转换它,然后将数据写回到磁盘。如果需要另一次转换,则会重复这些步骤。另一方面,spark 在内存中执行所有处理工作(如有必要,还会执行多次迭代),并使用 dag 确定要执行步骤的最佳顺序。

与 hadoop 相互排斥

spark 被设计为与 hadoop 兼容,所以 hadoop 和 spark 可以紧密协作。事实上,spark 下载包含用于使用 hdfs(用于存储管理)和 yarn(用于资源管理和调度)的 hadoop 客户端库。

解决方案

在一开始的时候,我就介绍了 spark 能解决的一些问题。现在我将展示 spark 如何解决这些问题。

近实时的分析在一段时间内需要高性能。spark 处理来自内存的数据,所以处理速度很快。spark 的核心库支持轻松地编写优化的代码来获得最快的结果。最多比 mapreduce 快 100 倍!

或许使用 spark 的最大好处是它能处理实时流数据。来自交易场所、社交媒体单击流和 iot 设备的数据必须在传输到磁盘之前快速转换。使用 hadoop hdfs 时,需要将数据写入磁盘,然后读回进行 map/reduce 转换处理,接着再写回磁盘,然后才能交到分析师手中。

spark streaming 允许在内存中处理传入的数据,然后写入磁盘供以后扩充(如有必要)和进一步分析。

来自多个来源的数据(比如交易数据、社交媒体数据、单击流等)拥有隐藏的关联,梳理这些关联有助于发现数据中的新见解和洞察 - 它们从表面上看似乎处于完全不同的维度,但实际上却紧密关联。但要以有意义的方式实现此目的,需要灵活地转换数据(速度快没有坏处,对吧?),以便找到正确的方向。

spark graphx 结合了二者的优势:多个算法的灵活性,以及以各种不同方式转换和合并数据的速度。

在预测未来时,拥有一批历史数据是一笔非常宝贵的资产。但预测分析需要严谨的软件(当然还有硬件)。

spark 的 mlib 具有很高的性能(惊讶吧?)机器学习 (ml) 库采用了大量经过实践检验的算法(比如分类、回归和聚类)、特制技术(比如转换和降维)和实用工具(比如线性代数和统计学)。

都是分布式计算框架,spark基于内存,mr基于hdfs。spark处理数据的能力一般是mr的十倍以上,spark中除了基于内存计算外,还有dag有向无环图来切分任务的执行先后顺序。

官网介绍spark运行速度提高100倍。apache spark使用最先进的dag调度程序,查询优化程序和物理执行引擎,实现批量和流式数据的高性能。

spark支持java、scala,python和r的api,还支持超过80种高级算法,使用户可以快速构建不同的应用。而且spark支持交互式的python和scala的shell,可以非常方便地在这些shell中使用spark集群来验证解决问题的方法。

spark提供了统一的解决方案。spark可以用于批处理、交互式查询(spark sql)、实时流处理(spark streaming)、机器学习(spark mllib)和图计算(graphx)。这些不同类型的处理都可以在同一个应用中无缝使用。spark统一的解决方案非常具有吸引力,毕竟任何公司都想用统一的平台去处理遇到的问题,减少开发和维护的人力成本和部署平台的物力成本。

spark可以非常方便地与其他的开源产品进行融合。比如,spark可以使用hadoop的yarn和apache mesos作为它的资源管理和调度器,并且可以处理所有hadoop支持的数据,包括hdfs、hbase和cassandra等。这对于已经部署hadoop集群的用户特别重要,因为不需要做任何数据迁移就可以使用spark的强大处理能力。spark也可以不依赖于第三方的资源管理和调度器,它实现了standalone作为其内置的资源管理和调度框架,这样进一步降低了spark的使用门槛,使得所有人都可以非常容易地部署和使用spark。此外,spark还提供了在ec2上部署standalone的spark集群的工具。

Spark(一)Spark简介

sparkcore:将分布式数据抽象为弹性分布式数据集(rdd),实现了应用任务调度、rpc、序列化和压缩,并为运行在其上的上层组件提供api。

sparksql:spark sql 是spark来操作结构化数据的模块,可以使用sql语句的方式来查询数据,spark支持多种数据源,如hdfs,flume,kafka等。

sparkstreaming: 是spark提供的实时数据进行流式计算的组件。

mllib:提供常用机器学习算法的实现库。

graphx:提供一个分布式图计算框架,能高效进行图计算。

blinkdb:用于在海量数据上进行交互式sql的近似查询引擎。

tachyon:以内存为中心高容错的的分布式文件系统。

<col>

运行环境

模式

描述

local

本地模式

常用于本地开发测试,如在eclipse,idea中写程序测试等。本地还分为local单线程和local-cluster多线程

standalone

集群模式

spark自带的一个资源调度框架,支持完全分布式。存在的master单点故障可由zookeeper来实现ha

yarn

运行在yarn资源管理器框架之上,由yarn负责资源管理,spark负责任务调度和计算

mesos

运行在mesos资源管理器框架之上,由mesos负责资源管理,spark负责任务调度和计算

kubernetes

运行在kubernetes资源管理的集群上,目前kubernetes调度程序是实验性的

术语

 application       

spark的应用程序,包含一个driver program和若干executor

 sparkcontext   

spark应用程序的入口,负责调度各个运算资源,协调各个worker node上的executor

 driver program

运行application的main()函数并且创建sparkcontext

 executor

是为application运行在worker node上的一个进程,该进程负责运行task,并且负责将数据存在内存或者磁盘上。

每个application都会申请各自的executor来处理任务

 clustermanager

在集群上获取资源的外部服务(例如:standalone、mesos、yarn)

 worker node

集群中任何可以运行application代码的节点,运行一个或多个executor进程

 task

运行在executor上的工作单元

 job

sparkcontext提交的具体action操作,常和action对应

 stage

每个job会被拆分很多组task,每组任务被称为stage,也称taskset

 rdd

是resilient distributed datasets的简称,中文为弹性分布式数据集;是spark最核心的模块和类

 dagscheduler

根据job构建基于stage的dag,并提交stage给taskscheduler

 taskscheduler

将taskset提交给worker node集群运行并返回结果

 transformations

是spark api的一种类型,transformation返回值还是一个rdd, 所有的transformation采用的都是懒策略,

如果只是将transformation提交是不会执行计算的

 action

是spark api的一种类型,action返回值不是一个rdd,而是一个scala集合;计算只有在action被提交的时候计算才 被触发。

Spark(一)Spark简介
Spark(一)Spark简介

继续阅读