Spark中executor-memory参数详解

更新时间:2023-05-04 11:16:42 阅读: 评论:0

站长统计
Spark中executor-memory参数详解
我们知道,spark执⾏的时候,可以通过 --executor-memory 来设置executor执⾏时所需的memory。但如果设置的过⼤,程序是会报错的,如下
555.png
那么这个值最⼤能设置多少呢?本⽂来分析⼀下。 ⽂中安装的是Spark1.6.1,安装在hadoop2.7上。
1、相关的2个参数
1.1 ya rn.sc heduler.ma xim um-a llo c a tio n-mb
r n.sc heduler.m a ximum-a
这个参数表⽰每个container小国家有哪些 能够申请到的最⼤内存,⼀般是集晚唐 群统⼀配置。Spark中的executor进程是跑在container中,所以container的最⼤内存会直接影响到executor的最⼤可⽤内存。当你设置⼀个⽐较⼤的内存时,⽇志中会报错,同时会打印这个参数的值。如下图 ,6144MB,即6G。
666.png
1.2 spa r k.ya o r yOverhea d
ryOverhea
executor执⾏的时候,⽤的内存可能会超轮滑运动 过executor-memoy,所以会为executor额外预留⼀部分内存。
spark.yaabc是什么银行 Overhead代表了这部分内存。大学生恋爱 这个参数如果没有设置,会有⼀个⾃动计算公式(位于Cl南京旅游攻略二日游 ientArguments.scala 中),代码如下:
777.png

本文发布于:2023-05-04 11:16:42,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/89/855800.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:内存   参数   能够   设置   报错   统计
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图