0
我想同时在四个不同的文件上运行spark wordcount应用程序。跨应用程序的火花调度
我有4个工作节点的独立群集,每个节点有一个核心和1GB内存。
火花工作在独立模式... 1.4worker节点 2.1内核为每个工作节点 3.1GB的内存为每个节点 4.core_max设置为1
./conf/spark-env。 SH
**
export SPARK_MASTER_OPTS="-Dspark.deploy.defaultCores=1"
export SPARK_WORKER_OPTS="-Dspark.deploy.defaultCores=1"
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_INSTANCES=4
**
我一直在使用sh文件
执行./bin/spark-submit --master spark://-Aspire-E5-001:7077 ./wordcount.R txt1 &
./bin/spark-submit --master spark://-Aspire-E5-001:7077 ./wordcount.R txt2 &
./bin/spark-submit --master spark://-Aspire-E5-001:7077 ./wordcount.R txt3 &
./bin/spark-submit --master spark://-Aspire-E5-001:7077 ./wordcount.R txt4
这是一个并行提交应用程序的正确方法吗?
运行时,它需要2秒这样的一个应用程序(仅使用一个核心) 4时同时申请,然后给每一个应用程序需要超过4秒多...... 如何运行在平行不同的文件火花应用程序?