创建目录
bash
hadoop fs -mkdir -p /training/qiang
查看当前根目录下文件
bash
hadoop fs -ls /

bash
hadoop fs -ls /training/

目录授权
bash
hadoop fs -chmod -R 777 /training/qm
777是最大权限,读写 4、2、1
上传文件
先创建文件
bash
echo "Hello Hadoop File System" > file01
然后将文件上传到刚刚创建的目录当中。将本地文件上传到远程分布式文件系统中。
bash
hadoop fs -put file01 /training/qm

移动文件
将文件/training/qm/file01 移动到/training/中
bash
hadoop fs -mv /training/qm/file01 /training/
拷贝文件
bash
hadoop fs -cp /training/file01 /training/qm/

删除文件
bash
hadoop fs -rm /training/file01
加-R可以删除目录

下载文件
把文件/training/qm/file01下载到本地,命名为file02
bash
hadoop fs -get /training/qm/file01 file02
