0
我想从HDFS的spark代码中创建一个目录,并在其中写入一个文件。但是在编写它时会出现以下错误。在运行时设置目录权限scala spark
Permission denied: user=root, access=WRITE,
inode="/root/test/_temporary/0":hdfs:hadoop:drwxr-xr-x
我们如何在运行时在scala中设置目录权限?
UPDATE
我使用这些命令授予对创建的目录权限。
dir.canExecute()
dir.canRead()
dir.canWrite()
dir.setWritable(true, false)
dir.setReadable(true,false)
dir.setExecutable(true, false)
你是如何创建该目录的?当你执行'dir.canWrite()'时你会得到什么? – philantrovert