文章大纲
spark作业配置
作业配置的三种方式
1.读取指定配置文件,默认为conf/spark-defaults.conf。
2.在程序中的SparkConf中指定,如conf.setAppName(“myspark”)。
3.spark-submit中使用参数。
这三种方式的优先级为SparkConf>spark-submit>配置文件。可以在spark-submit中使用–verbos参数查看起作用的配置来自上述哪种方式。
spark-submit参数说明
参数 | 说明 |
---|---|
–master | 集群的master地址。如:spark://host:port,mesos://host:port,yarn-client,yarn-cluster,local[k]本地以k个worker线程执行,k一般为cpu的内核数,local[*]以尽可能多的线程数执行。 |
–deploy-mode | driver运行的模式,client或者cluster模式,默认为client |
–class | 应用程序的主类( |