2017-08-02 27 views
0

我想从HDFS的spark代码中创建一个目录,并在其中写入一个文件。但是在编写它时会出现以下错误。在运行时设置目录权限scala spark

Permission denied: user=root, access=WRITE, 
inode="/root/test/_temporary/0":hdfs:hadoop:drwxr-xr-x 

我们如何在运行时在scala中设置目录权限?

UPDATE

我使用这些命令授予对创建的目录权限。

dir.canExecute() 
    dir.canRead() 
    dir.canWrite() 

    dir.setWritable(true, false) 
    dir.setReadable(true,false) 
    dir.setExecutable(true, false) 
+0

你是如何创建该目录的?当你执行'dir.canWrite()'时你会得到什么? – philantrovert

回答

0

感谢philantrovert采取看看这个,但我意识到,即使我成功地在运行时dir.canWrite()创建目录返回真,这是电子病历,目录是在服务器上创建的,但Spark实际上是试图写入HDFS,而不存在这样的文件夹。 - :)