我正在使用独立群集模式1.5.2。Spark忽略SPARK_WORKER_MEMORY?
尽管我在spark-env.sh
中设置了SPARK_WORKER_MEMORY
,但它看起来像忽略了这个设置。
我在bin/sbin
下的脚本找不到-Xms/-Xmx
设置的任何指示。
如果我使用ps
命令工人pid
,它看起来像内存设置为1G
:
[[email protected] spark-1.5.2-bin-hadoop2.6]$ ps -ef | grep 20232
hadoop 20232 1 0 02:01 ? 00:00:22 /usr/java/latest//bin/java
-cp /workspace/3rd-party/spark/spark-1.5.2-bin-hadoop2.6/sbin/../conf/:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/spark-assembly-1.5.2-hadoop2.6.0.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-api-jdo-3.2.6.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar:/workspace/
3rd-party/spark/spark-1.5.2-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar:/workspace/
3rd-party/hadoop/2.6.3//etc/hadoop/ -Xms1g -Xmx1g org.apache.spark.deploy.worker.Worker
--webui-port 8081 spark://10.52.39.92:7077
火花defaults.conf:
spark.master spark://10.52.39.92:7077
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.executor.memory 2g
spark.executor.cores 1
spark-env.sh:
export SPARK_MASTER_IP=10.52.39.92
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=12g
我错过了什么吗?
谢谢。
我做我的星火第一步,希望我措辞是正确的:我有5个节点集群,而不是由纱/ mesos管理,它不是独立的集群模式吗?我确实将SPARK_WORKER_MEMORY设置为12G,它确实在web ui中报告为12g,但从命令行看来,jvm仅配置为1G,正如您可以在问题的ps输出中看到的一样。 – Seffy
您正在群集模式下运行,因此您正在使用以下设置:spark://10.52.39.92:7077 –
不确定我明白。鉴于原来的问题更新,我使用正确的设置?为什么ps仍然会报告1G? – Seffy