重写HashPartitioner类

来源:互联网 发布:一张图入门python 编辑:程序博客网 时间:2024/06/10 04:57

Hadoop中,Map的结果会通过partition分发到Reducer上hadoop的reduce中。这个partition默认为HashPartitioner。

public class HashPartitioner<K, V> extends Partitioner<K, V> {  public int getPartition(K key, V value,                          int numReduceTasks) {    return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;  }}

可以看到,(key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;将key均匀分布在ReduceTasks上,举例如果Key为Text的话,Text的hashcode方法跟String的基本一致,都是采用的Horner公式计算,得到一个int,string太大的话这个int值可能会溢出变成负数,所以与上Integer.MAX_VALUE(即0111111111111111),然后再对reduce个数取余,这样就可以让key均匀分布在reduce上。可以通过重写这个类达到一个变换map key的效果,可以自定义指定如何进行分发。
比如:

public static class NewPartitioner extends            HashPartitioner<Text, IntWritable> {        public int getPartition(Text key, IntWritable value, int numReduceTasks) {            String term = new String();            term = key.toString().split("#")[0]; // <term#docid>=>term            //还是调用父类的getPartition方法,但是计算使用单词,而非单词#词频,更改了key            //return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;            return super.getPartition(new Text(term), value, numReduceTasks);        }    }
0 0
原创粉丝点击