快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

hadoop【HDFS的基本命令】

1.先进入到Hadoop用户下,然后:cd  /usr/local/hadoop-0.20.2-cdh4u5/

创新互联主要从事网页设计、PC网站建设(电脑版网站建设)、wap网站建设(手机版网站建设)、自适应网站建设、程序开发、网站优化、微网站、小程序设计等,凭借多年来在互联网的打拼,我们在互联网网站建设行业积累了丰富的成都做网站、网站制作、网站设计、网络营销经验,集策划、开发、设计、营销、管理等多方位专业化运作于一体。

 

ls一下

 

这时候会看见一个bin目录,bin目录下的,都是我们的命令。像JDK里面,bin目录里面不也是我们的命令嘛,像Java、javac。所以同样的,我们的Hadoop命令也在bin目录下。

 

2.cd  bin

 

ls一下

 

Start-all.sh(开启集群的意思),stop-all.sh(关闭所有集群),start-dfs.sh(开启HDFS的所有进程),stop-dfs.sh(关闭HDFS的所有进程),hadoop-damon.sh(开启指定的一台机器),hadoop-damons.sh(开启多台机器)。

 

3.要输入Hadoop的命令,必须要进入到Hadoop的bin目录下,格式为:hadoop fs ,

为参数命令。

 

4.Bin目录下执行脚本,必须是./    这样才能运行,别忘了,我的天啊,你肯定会忘的,并且是  ./hadoop    ./和Hadoop这个单词是连在一起,不是分开有空格的。

 

5.好了,接下来就是实际命令了:

./hadoop  fs  -ls  hdfs://h203:9000/

(fs表示文件系统,-ls后面接的就是你要查看的哪个目录下的内容,9000后面的斜杠/表示是我的目录)

但是我又换一种写法写:./hadoop  fs  -ls  /

(这输出的结果是一样的,因为我的主机名就是h203,只要在我的集群上,ls空格后面的/,默认就是我的全路径hdfs://h203:9000/,所以这两种命令都是一样的)

 

6.但是要是有人质问你,这样处理的结果tmp不是你本地的嘛,但这不是的,因为只有 :ls  /   

这个命令,出来的才是本地的系统文件,比如srv,tmp啥的。

 

 

7.创建目录:./hadoop  fs  -mkdir  /user(创建的一个user的目录)

./hadoo  fs  -ls  /                   (查看一下,是不是就有了)

记住,这是Hadoop里,不是ls一下就可以了,是./hadoop  fs  -ls  /    这样的

 

 

8.这时user创建了,单我还想在user在创建一个,那命令是:./hadoop  fs  -mkdir  /user/hadoop(一级一级的创建)。

注意了,我要是还像用上个命令 ./hadoop fs -ls /    查看能看到吗,当然不能,只能看到user目录,所以我就要用./hadoop  fs  -ls  /user  这个命令才能查看。

为什么说刚才创建的Hadoop是目录呢,就是因为出来的是“drwxr-xr-x”,d就是目录的意思。

 

9.上传文件:

(1.先在本地创建个文件:vi  a.txt

(2.编写

(3.Cat a.txt

(4.先在要把它上传到集群user下的Hadoop下

(5.上传命令:./hadoop  fs  -put  a.txt  /user/hadoop

(6.这时再来查看一下:./hadoop  fs  -ls  /user/hadoop/

(7.这时候就上传了,但是我上传之后怎么看是个文件,那就看前面“-rw-r--r--”,-r就是文件的意思

(8.接下来我要查看文件里的内容:./hadoop  fs  -cat  /user/hadoop/a.txt

(9.要是有人说,这a.txt是本地的,那把本地文件删除:rm  -rf  a.txt,本地文件是没有了,可是我仍然./hadoop  fs  -cat  /user/hadoop/a.txt,仍然是能看见的,这也足以证明,我这个a.txt文件已经上传到我的集群里。

 

 

10.本地的a.txt删除了吧,我想把集群里的文件下载到本地:./hadoop  fs  -get  /user/hadoop/a.txt  ./  ,这时候cat  a.txt,就看见已经在本地里了。

 

11.删除文件:./hadoop  fs  -rm  /user/hadoop/a.txt

回车后:DELETE hdfs:,,,,,,,,,这就是删除了。

 

 

12.在home下创建一个目录:./hadoop  fs  -mkdir  /user/hadoop/aaaa

查看目录:./hadoop  fs  -ls  /user/hadoop/

 

 

13.删除目录:./hadoop  fs  -rmr  /user/hadoop/aaaa

 

14.删除我的Hadoop的目录:./hadoop  fs  -rmr  /user/hadoop

 

(-rm是删除文件的命令,-rmr是删除文件和目录的命令,通用的)!

 

15.再给他创建回来:./hadoop  fs  -mkdir  /user/hadoop/aaaa

  查看创建好了吗,./hadoop  fs  -ls  /user/hadoop(所以可以一下创建2级)

 


当前名称:hadoop【HDFS的基本命令】
标题路径:http://6mz.cn/article/ijscgo.html

其他资讯