设为首页 加入收藏

TOP

Spark性能调优-数据本地性
2018-12-29 13:23:54 】 浏览:47
Tags:Spark 性能 数据 本地
性能调优


数据本地性


Spark在Driver上,对Application的每一个stage的task,进行分配之前,都会计算出每个task要计算的
是哪个分片数据,RDD的某个partition;Spark的task分配算法,优先,会希望每个task正好分配到它要
计算的数据所在的节点,这样的话,就不用在网络间传输数据;


但是呢,通常来说,有时,事与愿违,可能task没有机会分配到它的数据所在的节点,为什么呢,
可能那个节点的计算资源和计算能力都满了;所以呢,这种时候,通常来说,Spark会等待一段时间,
默认情况下是3s钟(不是绝对的,还有很多种情况,对不同的本地化级别,可以设置不同的等待时长),默认重试5次,到最后,实在是等待不了了,就会选择一个比较差的本地化级别,比如说,将task分配到靠它要计算的数据
所在节点,比较近的一个节点,然后进行计算。


但是对于第二种情况,通常来说,肯定是要发生数据传输,task会通过其所在节点的BlockManager来
获取数据,BlockManager发现自己本地没有数据,会通过一个getRemote()方法,通过TransferService
(网络数据传输组件)从数据所在节点的BlockManager中,获取数据,通过网络传输回task所在节点。


对于我们来说,当然不希望是类似于第二种情况的了。最好的,当然是task和数据在一个节点上,
直接从本地executor的BlockManager中获取数据,纯内存,或者带一点磁盘IO;如果要通过网络传输
数据的话,那么实在是,性能肯定会下降的,大量网络传输,以及磁盘IO,都是性能的杀手。


如果可以从数据所在的位置拿到数据,那就是最佳情况,直接在一个executor进程内,走内存速度最佳
如果数据所在的机器资源被占用,超过3秒,就会放到离数据近的其他机器上面去,那样Task任务会找
它自己本地的BlockManager要数据,没有就会通过BlockManager来管附近的BlockManager就是数据所在
机器的要数据,可能不在一个节点,要走网络传输,当然你要是说俩个executor都在一个节点里面,那
这种情况,也还算不错,就在一个节点,走进程间数据传输即可


还有一种情况,最差的就是这种跨机架拉取数据的方式了。速度非常慢,对性能的影响,相当大。


spark里面数据本地化级别都有哪几种?


PROCESS_LOCAL:进程本地化,代码和数据在同一个进程中,也就是在同一个executor中;
计算数据的task由executor执行,数据在executor的BlockManager中;性能最好
NODE_LOCAL:节点本地化,代码和数据在同一个节点中;比如说,数据作为一个HDFS block块,
就在节点上,而task在节点上某个executor中运行;或者是,数据和task在一个节点上的不同executor中;
数据需要在进程间进行传输
NO_PREF:对于task来说,数据从哪里获取都一样,没有好坏之分,比如从数据库中获取数据
RACK_LOCAL:机架本地化,数据和task在一个机架的两个节点上;数据需要通过网络在节点之间进行传输
ANY:数据和task可能在集群中的任何地方,而且不在一个机架中,性能最差


spark.locality.wait,默认是3s


我们什么时候要调节这个参数?


观察日志,spark作业的运行日志,推荐大家在测试的时候,先用client模式,在本地就直接可以
看到比较全的日志。日志里面会显示,starting task。。。,PROCESS LOCAL、NODE LOCAL
观察大部分task的数据本地化级别


如果大多都是PROCESS_LOCAL,那就不用调节了
如果是发现,好多的级别都是RACK_LOCAL、ANY,那么最好就去调节一下数据本地化的等待时长
调节完,应该是要反复调节,每次调节完以后,再来运行,观察日志
看看大部分的task的本地化级别有没有提升;看看,整个spark作业的运行时间有没有缩短


你别本末倒置,本地化级别倒是提升了,但是因为大量的等待时长,spark作业的运行时间反而增加了,
那就还是不要调节了


怎么调节?


spark.locality.wait,默认是3s;6s,10s


默认情况下,下面3个的等待时长,都是跟上面那个是一样的,都是3s
spark.locality.wait.process
spark.locality.wait.node
spark.locality.wait.rack


new SparkConf()
.set("spark.locality.wait", "10")
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇kylin2.0之spark构建cube 下一篇Spark SQL的ThriftServer服务和图..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目