框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理
io.sort.mb:环形缓存区大小
sort.spill.percent:达到多少表示满,百分比(80%)
增大触发spill的内存上限,减少spill次数,从而减少磁盘IO
io.sort.factor:增大每次合并文件的个数,这样减少merge次数
调整slowstart.completedmaps参数,使Map运行到一定程度后,Reduce也开始运行,减少Reduce的等待时间
在不需要使用Reduce时,就不要使用,这样减少shuffle
默认情况下,数据达到一个阈值时,Buffer中的数据就会写入磁盘,然后Reduce会从磁盘中获得所有得数据,也就是说Buffer和Reduce是没有直接得关联得,可以通过设置参数,使Buffer中得一部分数据可以直接输送到Reduce,从而减少I/O开销
mapreduce.reduce.input.buffer.percent默认为0.0,
大于0时,会保留指定比例得内存读Buffer中得数据直接拿给Reduce使用
安装Snappy和LZO压缩编码器
数据频率倾斜——某一个区域的数据量要远远大于其他区域。
数据大小倾斜——部分记录的大小远远大于平均值。
可以通过对原始数据进行抽样得到的结果集来预设分区边界值
基于输出键的背景知识进行自定义分区。例如,如果Map输出键的单词来源于一本书。且其中某几个专业词汇较多。那么就可以自定义分区将这这些专业词汇发送给固定的一部分Reduce实例。而将其他的都发送给剩余的Reduce实例
使用Combine可以大量地减小数据倾斜。在可能的情况下,Combine的目的就是聚合并精简数据
mapreduce.map.memory.mb:一个MapTask可使用的资源上限(单位:MB),默认为1024。如果MapTask实际使用的资源量超过该值,则会被强制杀死。
mapreduce.reduce.memory.mb:一个ReduceTask可使用的资源上限(单位:MB),默认为1024。如果ReduceTask实际使用的资源量超过该值,则会被强制杀死。
mapreduce.map.cpu.vcores:每个MapTask可使用的最多cpu core数目,默认值: 1
mapreduce.reduce.cpu.vcores:每个ReduceTask可使用的最多cpu core数目,默认值: 1
mapreduce.reduce.shuffle.parallelcopies:每个Reduce去Map中取数据的并行数。默认值是5
mapreduce.reduce.shuffle.merge.percentBuffer:中的数据达到多少比例开始写入磁盘。默认值0.66
mapreduce.reduce.shuffle.input.buffer.percentBuffer:大小占Reduce可用内存的比例。默认值0.7
mapreduce.reduce.input.buffer.percent:指定多少比例的内存用来存放Buffer中的数据,默认值是0.0
yarn.scheduler.minimum-allocation-mb:给应用程序Container分配的最小内存,默认值:1024
yarn.scheduler.maximum-allocation-mb:给应用程序Container分配的最大内存,默认值:8192
yarn.scheduler.minimum-allocation-vcores:每个Container申请的最小CPU核数,默认值:1
yarn.scheduler.maximum-allocation-vcores:每个Container申请的最大CPU核数,默认值:32
yarn.nodemanager.resource.memory-mb:给Containers分配的最大物理内存,默认值:8192
mapreduce.task.io.sort.mb:Shuffle的环形缓冲区大小,默认100m
mapreduce.map.sort.spill.percent:环形缓冲区溢出的阈值,默认80%
mapreduce.map.maxattempts:每个Map Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。
mapreduce.reduce.maxattempts:每个Reduce Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。
mapreduce.task.timeoutTask:超时时间,经常需要设置的一个参数,该参数表达的意思为:如果一个Task在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该Task处于Block状态,可能是卡住了,也许永远会卡住,为了防止因为用户程序永远Block住不退出,则强制设置了一个该超时时间(单位毫秒),默认是600000。如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0Timed out after 300 secsContainer killed by the ApplicationMaster.”。
HDFS上每个文件都要在NameNode上建立一个索引,这个索引的大小约为150byte,这样当小文件比较多的时候,就会产生很多的索引文件,一方面会大量占用NameNode的内存空间,另一方面就是索引文件过大使得索引速度变慢。
小文件的优化无非以下几种方式:
(1)在数据采集的时候,就将小文件或小批数据合成大文件再上传HDFS。
(2)在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。
(3)在MapReduce处理时,可采用CombineTextInputFormat提高效率。
1.HadoopArchive
是一个高效地将小文件放入HDFS块中的文件存档工具,它能够将多个小文件打包成一个HAR文件,这样就减少了NameNode的内存使用。
2.SequenceFile
SequenceFile由一系列的二进制key/value组成,如果key为文件名,value为文件内容,则可以将大批小文件合并成一个大文件。
3、CombineFileInputFormat
CombineFileInputFormat是一种新的InputFormat,用于将多个文件合并成一个单独的Split,另外,它会考虑数据的存储位置。
4、开启JVM重用
对于大量小文件Job,可以开启JVM重用会减少45%运行时间。
JVM重用原理:一个Map运行在一个JVM上,开启重用的话,该Map在JVM上运行完毕后,JVM继续运行其他Map,减少开启时间
具体设置:mapreduce.job.jvm.numtasks值在10-20之间。