十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
注意:"# ./hdfs dfs -ls /"命令前的"#"代表当前登录用户是root。运行路径位于hadoop目录中的bin文件夹下。命令中的"."代表当前目录。命令中涉及的info文件需要提前创建好。如下图所示:
我们提供的服务有:成都网站制作、网站建设、外贸网站建设、微信公众号开发、网站优化、网站认证、碑林ssl等。为1000多家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的碑林网站制作公司
# ./hdfs dfs -ls /
drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbase
drwxr-xr-x - root supergroup 0 2018-06-23 15:22 /output
drwx------ - root supergroup 0 2018-07-31 00:32 /tmp
drwxr-xr-x - root supergroup 0 2018-07-31 00:41 /user
-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
# ./hdfs dfs -mkdir /wanhe
# ./hdfs dfs -ls /
drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbase
drwxr-xr-x - root supergroup 0 2018-06-23 15:22 /output
drwx------ - root supergroup 0 2018-07-31 00:32 /tmp
drwxr-xr-x - root supergroup 0 2018-07-31 00:41 /user
drwxr-xr-x - root supergroup 0 2018-09-12 18:00 /wanhe
-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
# ./hdfs dfs -put info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 38 2018-09-12 18:10 /wanhe/info
# rm -rf info
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -get /wanhe/info ./
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd info mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -rm /wanhe/info
# ./hdfs dfs -ls /wanhe
空
# ./hdfs dfs -moveFromLocal info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 38 2018-09-12 22:04 /wanhe/info
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -cat /wanhe/info
jiangsuwanhe
# ./hdfs dfs -appendToFile info /wanhe/info
# ./hdfs dfs -cat /wanhe/info
jiangsuwanhe
jiangsuwanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 51 2018-09-12 22:13 /wanhe/info
# ./hdfs dfs -chmod 777 /wanhe/info
# ./hdfs dfs -ls /wanhe
-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /wanhe/info
将/wanhe/info拷贝到/tmp下:
# ./hdfs dfs -cp /wanhe/info /tmp/
# ./hdfs dfs -ls /tmp
-rw-r--r-- 2 root supergroup 51 2018-09-12 22:20 /tmp/info
将/wanhe/info移动到 /user下
# ./hdfs dfs -mv /wanhe/info /user/
# ./hdfs dfs -ls /wanhe
空
# ./hdfs dfs -ls /user
-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /user/info
# ./hdfs dfs -df -h /
Filesystem Size Used Available Use%
hdfs://master:9000 17.5 G 352 K 11.4 G 0%
# ./hdfs dfs -du /user
51 /user/info
# ./hdfs dfs -count /user
2 1 51 /user
第一列2表示/user/下文件夹的数量,第二列1表示/user/下文件的个数。51表示/user/目录下所有文件占用的磁盘容量(不计算副本个数)。
HDFS中的命令行操作类似于linux命令,熟练使用linux命令便可以熟练的使用命令行操作HDFS。后面我们将连载大数据系列博客,欢迎关注和交流。