天天看点

Hadoop - reduce任务的数量

reduce任务的数量并非由输入数据的大小决定,而是特别指定的。

如有多个reduce任务,则每个map任务都会对其输出进行分区(partition),即为每个reduce任务建一个分区。每个分区由许多键(及其对应值),但每个键对应的 键/值对 记录都在同一个分区中。分区由用户定义的分区函数控制,但通常用默认的分区器(partitioner,也称为“分区函数”)通过哈希函数来分区,这种方法很高效。

继续阅读