map的数量
map的数量通常是由hadoop集群的dfs块大小确定的,也就是输入文件的总块数,正常的map数量的并行规模大致是每一个node是10~100个,对于cpu消耗较小的作业可以设置map数量为300个左右,但是由于hadoop的每一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。具体的数据分片是这样的,inputformat在默认情况下会根据hadoop集群的dfs块大小进行分片,每一个分片会由一个map任务来进行处理,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设置。还有一个重要参数就是mapred.map.tasks,这个参数设置的map数量仅仅是一个提示,只有当inputformat 决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,map任务的个数也能通过使用jobconf 的conf.setnummaptasks(int num)方法来手动地设置。这个方法能够用来增加map任务的个数,但是不能设定任务的个数小于hadoop系统通过分割输入数据得到的值。当然为了提高集群的并发效率,可以设置一个默认的map数量,当用户的map数量较小或者比本身自动分割的值还小时可以使用一个相对交大的默认值,从而提高整体hadoop集群的效率。
2 reduece的数量
reduce在运行时往往需要从相关map端复制数据到reduce节点来处理,因此相比于map任务。reduce节点资源是相对比较缺少的,同时相对运行较慢,正确的reduce任务的个数应该是0.95或者1.75 *(节点数 ×mapred.tasktracker.tasks.maximum参数值)。如果任务数是节点个数的0.95倍,那么所有的reduce任务能够在 map任务的输出传输结束后同时开始运行。如果任务数是节点个数的1.75倍,那么高速的节点会在完成他们第一批reduce任务计算之后开始计算第二批 reduce任务,这样的情况更有利于负载均衡。同时需要注意增加reduce的数量虽然会增加系统的资源开销,但是可以改善负载匀衡,降低任务失败带来的负面影响。同样,reduce任务也能够与 map任务一样,通过设定jobconf 的conf.setnumreducetasks(int num)方法来增加任务个数。
3 reduce数量为0
有些作业不需要进行归约进行处理,那么就可以设置reduce的数量为0来进行处理,这种情况下用户的作业运行速度相对较高,map的输出会直接写入到 setoutputpath(path)设置的输出目录,而不是作为中间结果写到本地。同时hadoop框架在写入文件系统前并不对之进行排序。
job.split中包含split的个数由fileinputformat.getsplits计算出,方法的逻辑如下:
1. 读取参数mapred.map.tasks,这个参数默认设置为0,生产系统中很少修改。
2. 计算input文件的总字节数,总字节数/(mapred.map.tasks==0 ? 1: mapred.map.tasks )=goalsize
3. 每个split的最小值minsize由mapred.min.split.size参数设置,这个参数默认设置为0,生产系统中很少修改。
4. 调用computesplitsize方法,计算出splitsize= math.max(minsize, math.min(goalsize, blocksize)),通常这个值=blocksize,输入的文件较小,文件字节数之和小于blocksize时,splitsize=输入文件字节数之和。
5. 对于input的每个文件,计算split的个数。
a) 文件大小/splitsize>1.1,创建一个split,这个split的字节数=splitsize,文件剩余字节数=文件大小-splitsize
b) 文件剩余字节数/splitsize<1.1,剩余的部分作为一个split
举例说明:
1. input只有一个文件,大小为100m,splitsize=blocksize,则split数为2,第一个split为64m,第二个为36m
2. input只有一个文件,大小为65m,splitsize=blocksize,则split数为1,split大小为65m
3. input只有一个文件,大小为129m,splitsize=blocksize,则split数为2,第一个split为64m,第二个为65m(最后一个split的大小可能超过splitsize)
4. input只有一个文件,大小为20m ,splitsize=blocksize,则split数为1,split大小为20m
5. input有两个文件,大小为100m和20m,splitsize=blocksize,则split数为3,第一个文件分为两个split,第一个split为64m,第二个为36m,第二个文件为一个split,大小为20m
6. input有两个文件,大小为25m和20m,splitsize=blocksize,则split数为2,第一个文件为一个split,大小为25m,第二个文件为一个split,大小为20m
假设一个job的input大小固定为100m,当只包含一个文件时,split个数为2,maptask数为2,但当包含10个10m的文件时,maptask数为10。
下面来分析reducetask,纯粹的mapreduce task的reduce task数很简单,就是参数mapred.reduce.tasks的值,hadoop-site.xml文件中和mapreduce job运行时不设置的话默认为1。
在hive中运行sql的情况又不同,hive会估算reduce task的数量,估算方法如下:
通常是ceil(input文件大小/1024*1024*1024),每1gb大小的输入文件对应一个reduce task。
特殊的情况是当sql只查询count(*)时,reduce task数被设置成1。
map的数量
map的数量通常是由hadoop集群的dfs块大小确定的,也就是输入文件的总块数,正常的map数量的并行规模大致是每一个node是10~100个,对于cpu消耗较小的作业可以设置map数量为300个左右,但是由于hadoop的每一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。具体的数据分片是这样的,inputformat在默认情况下会根据hadoop集群的dfs块大小进行分片,每一个分片会由一个map任务来进行处理,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设置。还有一个重要参数就是mapred.map.tasks,这个参数设置的map数量仅仅是一个提示,只有当inputformat 决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,map任务的个数也能通过使用jobconf 的conf.setnummaptasks(int num)方法来手动地设置。这个方法能够用来增加map任务的个数,但是不能设定任务的个数小于hadoop系统通过分割输入数据得到的值。当然为了提高集群的并发效率,可以设置一个默认的map数量,当用户的map数量较小或者比本身自动分割的值还小时可以使用一个相对交大的默认值,从而提高整体hadoop集群的效率。
hadoop|
apache pig|
apache kafka|
apache storm|
impala|
zookeeper|
sas|
tensorflow|
人工智能基础|
apache kylin|
openstack|
flink|
mapreduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....