在Hadoop/YARN世界中,您始终需要客户端计算机上的配置文件。所以,你需要在本地获取它们。但是,你通常需要其中的一些,而不是全部。在大多数情况下,如果我没有弄错,只要有hdfs-site.xml,core-site.xml和yarn-site.xml就足够了。为了安全起见,将它们全部复制到本地目录中。
然后在机器上的flink-conf.yaml文件中配置以下参数,该参数将扮演客户机的角色,即aka。你将从你的工作开始。
fs.hdfs.hadoopconf: path_to_hadoop_conf_dir
那么你应该能够告诉弗林克工具来使用的纱线主作为作业管理器推出纱线的工作。
flink run -m yarn-cluster -yn <num_task_managers> -yjm <job_manager_memory> -ytm <task_manager_memory -c <main_class> <jar>
如果已经配置在弗林克-conf.yaml以上内存参数,它应该有可能通过省略所有这些详细参数
flink run -m yarn-cluster -n <num_task_managers> -c <main_class> <jar>
作为为默认值来启动工作快速测试,你可以尝试在YARN上启动一个Scala shell。
start-scala-shell.sh yarn -n <num_task_managers> -nm test_job