2017-10-10 48 views
1

SnappyData文档就如何提交一个罐子到群集的例子:SnappyData提交罐子参数集群

https://snappydatainc.github.io/snappydata/howto/run_spark_job_inside_cluster/

但是,如果我需要与同一类CreatePartitionedRowTable 提交罐子什么多次,但有不同的参数,说不同的后缀追加到创建的表名称,我该怎么做?

UPDATE:

更确切地说,说我要提交使用不同的参数罐子时,我提交的罐子,像这样

bin/snappy-job.sh submit 
    --app-name CreatePartitionedRowTable 
    --class org.apache.spark.examples.snappydata.CreatePartitionedRowTable 
    --app-jar examples/jars/quickstart.jar 
    --lead localhost:8090 
    --CustomeParam suffix 

附加

--CustomeParam suffix 

将被传递给作业,并且代码可以获取此参数后缀,并将后缀附加到要创建的表名,以便我不必每次都修改我的代码我希望提交具有不同后缀的jar。

更新2:

我只是通过实例去,发现了一个实例: https://github.com/SnappyDataInc/snappydata/blob/master/examples/src/main/scala/org/apache/spark/examples/snappydata/CreateColumnTable.scala

所以基本上像这样运行:

* bin/snappy-job.sh submit 
* --app-name CreateColumnTable 
* --class org.apache.spark.examples.snappydata.CreateColumnTable 
* --app-jar examples/jars/quickstart.jar 
* --lead [leadHost:port] 
* --conf data_resource_folder=../../quickstart/src/main/resources 

和使用的配置来获得该定制参数。

回答

1

每次你用snappy-job.sh提交你的应用jar时,它都会创建一个新的Job并运行它。它可以是具有不同内容的相同罐子。你是否看到任何异常或修改的类(CreatePartitionedRowTable)没有被拾取?

+0

感谢您的回复,我明白多次提交jar会导致新的工作,请参阅我的更新 – user3230153

+0

问题看起来问题已解决? – jagsr