天天看点

从源码中进行详细剖析什么是RDD

1 源码地址

  • 源码地址,这里建议搭建使用maven进行项目构建,方便查看源码。

2 什么是RDD

下图给出了源码中的一段注释:

从源码中进行详细剖析什么是RDD

可以理解为:是弹性分布式数据集,是spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合;这个数据集的全部或部分可以缓存在内存中,在多次计算间重用。

1. Resilient:是指在任何时候都能进行重算,是一种有容错机制的特殊集合。(这样当集群中的一台机器挂掉而导致存储在其上的RDD丢失后,Spark还可以重新计算出这部分的分区的数据。但用户感觉不到这部分的内容丢失过。这样RDD数据集就像块带有弹性的海绵一样,不管怎样挤压(分区遭到破坏)都是完整的。)

2. Distributed:它的数据分布式存储,并且可以做分布式的计算;

3. Dataset:一个数据集,简单的理解为用于存放数据的集合。

3 RDD的五大特性

从源码中进行详细剖析什么是RDD

1. A list of partitions (每个RDD都有一个分区列表)

2. A function for computing each split (作用在每个分区上面的函数)

3. A list of dependencies on other RDDs (一个RDD依赖其他多个RDD,这个特性很重要,rdd的容错机制就是根据这个特性而来的)

4. Optionally, a Partitioner for key-value RDDs (e.g. to say that the RDD is hash-partitioned) [可选项:针对于 kv 键值对的RDD才具有该分区特性]

5.Optionally, a list of preferred locations to compute each split on (e.g. block locations foran HDFS file) [可选项 : 数据本地性,数据最优,选择尽量存储在worker节点上的数据节点。]

  • 进一步剖析

1)一组分片(Partition),即数据集的基本组成单位。

对于RDD来说,每个分片都会被一个计算任务处理,并决定并行计算的粒度。用户可以在创建RDD时指定RDD的分片个数,如果没有指定,那么就会采用默认值。默认值 就是程序所分配到的CPU Core的数目。

2)一个计算每个分区的函数。

Spark中RDD的计算是以分片为单位的,每个RDD都会实现compute函数以达到这个目的。compute函数会对迭代器进行复合,不需要保存每次计算的结果。

3)RDD之间的依赖关系。

RDD的每次转换都会生成一个新的RDD,所以RDD之间就会形成类似于流水线一样的前后依赖关系。在部分分区数据丢失时,Spark可以通过这个依赖关系重新计算丢失的分区数据,而不是对RDD的所有分区进行重新计算。

4)一个Partitioner,即RDD的分片函数。

当前Spark中实现了两种类型的分片函数,一个是基于哈希的HashPartitioner,另外一个是基于范围的RangePartitioner。只有对于于key-value的RDD,才会有Partitioner, 非key-value的RDD的Parititioner的值是None。Partitioner函数不但决定了RDD本身的分片数量,也决定了parent RDD Shuffle输出时的分片数量。

5)一个列表,存储存取每个Partition的优先位置(preferred location)。

对于一个HDFS文件来说,这个列表保存的就是每个Partition所在的块的位置。按照“移动数据不如移动计算”的理念,Spark在进行任务调度的时候,会尽可能地将计算任务分配到其所要处理数据块的存储位置。

继续阅读