我有一个haddop 2.6.4环境运行良好,并使用start-dfs.sh
和start-yarn.sh
来启动它。如何在启动时启动hadoop?
如何在启动时使用此脚本启动haddop?周围的一些技巧是使用start-all.sh
,但它已被弃用。
我必须在init.d
中创建两项服务吗?那么所有EXPORT
的东西呢?所有节点都必须先进入吗?
谢谢。
我有一个haddop 2.6.4环境运行良好,并使用start-dfs.sh
和start-yarn.sh
来启动它。如何在启动时启动hadoop?
如何在启动时使用此脚本启动haddop?周围的一些技巧是使用start-all.sh
,但它已被弃用。
我必须在init.d
中创建两项服务吗?那么所有EXPORT
的东西呢?所有节点都必须先进入吗?
谢谢。
您将使用init.d并在您的init.d脚本中首先导出所需的任何env变量。然后你可以调用你的2个启动脚本,或者你可以把这2个脚本封装到一个中并使用它。在init.d中查看示例。
启动顺序重要吗?我的意思是,如果首先启动纱线,它就ok了? –
Hadoop有很多组件,基于您提到的2个脚本。您想先启动DFS,然后启动YARN你可以参考已弃用的start-all.sh脚本来了解更早使用的启动顺序,它没有改变,节点和HDFS首先启动,一般由资源管理器启动 – apesa
我问这个是因为我不能依赖如果我为这两个脚本创建了两个服务,我不知道为什么'start-all.sh'会被弃用。为什么'start-all.sh'会被抛弃?不知道它是否必须 这条路。 –
也许一个更好的地方问是http://askubuntu.com/ – Gianluca
我不这么认为。我知道如何在init.d中创建启动服务。这种情况是hadoop特定的,因为我需要知道这个过程的意义(节点和服务器启动顺序,服务启动顺序,以及如果我需要逐个启动,如果有一种方法来替换过时的'start-all .sh'一次启动所有服务 –