0
我需要在hadoop集群中运行一个简单的基于Java的deeplearning4j示例,并且我找到一个here。我需要指定来自命令行的输入(应该是HDFS上的路径)并且输出应该发送到HDFS,以供日后查看简单的deeplearning4J Java基于Spark的例子?
但是,在该示例中没有提及,它对来自本地文件系统和输出转到本地文件系统。
任何人都可以帮助我吗?
我需要在hadoop集群中运行一个简单的基于Java的deeplearning4j示例,并且我找到一个here。我需要指定来自命令行的输入(应该是HDFS上的路径)并且输出应该发送到HDFS,以供日后查看简单的deeplearning4J Java基于Spark的例子?
但是,在该示例中没有提及,它对来自本地文件系统和输出转到本地文件系统。
任何人都可以帮助我吗?
也许在我们的例子最近这次拉要求的某种组合: https://github.com/deeplearning4j/dl4j-examples/pull/384
和Spring的Hadoop可以帮助你? http://projects.spring.io/spring-hadoop/
我的意思是概念上你所要做的就是更改文件系统类型。
hadoop中的FileSystem api可以指向本地或hdfs url,所以不应该有太多的改变。