• 以下场景均在 root 用户下测试通过。

  • 如以非 root 用户比如用户 ubuntu 运行 Spark on YARN jobHive on Spark job,需要先运行如下命令:

     /opt/hadoop/bin/hdfs dfs -mkdir -p /user/ubuntu/
    
     /opt/hadoop/bin/hdfs dfs -chown -R ubuntu:ubuntu  /user/ubuntu/
  • 如以非 root 用户运行 MapReduce job 或者上传文件到 HDFS ,也需要具有相应目录的读写权限。