spark-submit工具参数说明
执行时需要传入的参数说明
Usage: spark-submit [options] <app jar | python file> [app options]helpout
参数名称含义
--master MASTER_URL可以是spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local --deploy-mode DEPLOY_MODE Driver程序运行的地方,client或者cluster --class CLASS_NAME主类名称,含包名
gridon
--name NAME Application名称
我爱英语--jars JARS Driver依赖的第三方jar包update是什么意思
expand
leg--py-files PY_FILES用逗号隔开的放置在Python应用程序PYTHONPATH上的.zip, .egg, .py文件列表--files FILES用逗号隔开的要放置在每个executor工作目录的文件列表--properties-file FILE设置应用程序属性的文件路径,默认是f
--driver-memory MEM Driver程序使用内存大小
新手学开车
--driver-java-options
--driver-library-path Driver程序的库路径
旅游英语作文
--driver-class-path Driver程序的类路径yacare
--executor-memory MEM executor内存大小,默认1G
--driver-cores NUM Driver程序的使用CPU个数,仅限于Spark Alone模式--supervi失败后是否重启Driver,仅限于Spark Alone模式--total-executor-cores NUM executor使用的总核数,仅限于Spark Alone、Spark on Mesos模式--executor-cores NUM每个executor使用的内核数,默认为1,仅限于Spark on Yarn模式
--queue QUEUE_NAME提交应用程序给哪个YARN的队列,默认是default队列,仅限于Spark on Yarn模式--num-executors NUM启动的executor数量,默认是2个,仅限于Spark on Yarn模式
--archives ARCHIVES仅限于Spark on Yarn模式
>thedays