1.创建目录
hadoop dfs -mkdir /data
hadoop dfs -mkdir -p /data/data1 创建多级目录
2.查看文件
hadoop dfs -ls /
3.上传文件
hadoop dfs -put /usr/local/data/ /data
4.下载文件 get,将hdfs文件下载到linux本地
hadoop dfs -get /data/data/students.txt 下载到当前目录
5. 复制 cp
hadoop dfs -cp /data/data/students.txt /data
6. 查看文件内容 cat , 如果数据量比较大,不能使用
hadoop dfs -cat /data/data/students.txt
7. 移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)
hadoop dfs -mv /data/data/students.txt /
8. 删除文件或者目录 rmr 但其实并没有真正删除,只是一个mv放到了回收站,回收站会自动清理
hadoop dfs -rmr /data/student.txt
etc下的hadoop配置文件中 cat core-site.xml
手动删除回收站
Hadoop dfs -rmr /user/root/.Trash/Current
强制删除,-skipTrash 当需要删除的文件比较大的时候
hadoop dfs -rmr -skipTrash /a
9. 查看文件末尾 tail -f ; 一直等待查看
hadoop dfs -tail /data/data/students.txt
10. 查看文件的大小
hadoop dfs -du -h /data
11.hdfs中的文件都是保存datanode子节点上,在子节点上的位置
usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current/BP-626788496-192.168.163.110-163187979/current/finalized/subdir0/subdir0
12.安全模式(在安全模式不能进行修改操作,可以查看)
hadoop dfsadmin -safemode get 用来查看当前hadoop安全模式的开关状态
hadoop dfsadmin -safemode enter 命令是打开安全模式
hadoop dfsadmin -safemode leave 命令是离开安全模式
欢迎关注微信或公众号!!!
PS:如果你觉得文章对你有所帮助,别忘了推荐或者分享,因为有你的支持,才是我续写下篇的动力和源泉!
作者:
程序猿Knight
出处:
https://www.cnblogs.com/xjknight/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
#psDiv { 100%; margin: 30px 0px 8px 0px; font-size: 14px; color: red }
#psDiv span { font-weight: bolder }
#psDiv span[class=”tjSpan”] { cursor: pointer }
#bqDiv { border: 2px solid orange; float: left }