2016-04-02 82 views
2

我有一个haddop 2.6.4环境运行良好,并使用start-dfs.shstart-yarn.sh来启动它。如何在启动时启动hadoop?

如何在启动时使用此脚本启动haddop?周围的一些技巧是使用start-all.sh,但它已被弃用。

我必须在init.d中创建两项服务吗?那么所有EXPORT的东西呢?所有节点都必须先进入吗?

谢谢。

+0

也许一个更好的地方问是http://askubuntu.com/ – Gianluca

+0

我不这么认为。我知道如何在init.d中创建启动服务。这种情况是hadoop特定的,因为我需要知道这个过程的意义(节点和服务器启动顺序,服务启动顺序,以及如果我需要逐个启动,如果有一种方法来替换过时的'start-all .sh'一次启动所有服务 –

回答

1

您将使用init.d并在您的init.d脚本中首先导出所需的任何env变量。然后你可以调用你的2个启动脚本,或者你可以把这2个脚本封装到一个中并使用它。在init.d中查看示例。

+0

启动顺序重要吗?我的意思是,如果首先启动纱线,它就ok了? –

+0

Hadoop有很多组件,基于您提到的2个脚本。您想先启动DFS,然后启动YARN你可以参考已弃用的start-all.sh脚本来了解更早使用的启动顺序,它没有改变,节点和HDFS首先启动,一般由资源管理器启动 – apesa

+0

我问这个是因为我不能依赖如果我为这两个脚本创建了两个服务,我不知道为什么'start-all.sh'会被弃用。为什么'start-all.sh'会被抛弃?不知道它是否必须 这条路。 –