十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
这篇文章主要介绍了HDFS格式化的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
目前创新互联已为上千多家的企业提供了网站建设、域名、雅安服务器托管、网站运营、企业网站设计、高邑网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。
不管怎么样,我们来看看 新版本 2.5.1中的HDFS的格式化吧。
编译好的目录在:~/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1
进去是不是看到了很多熟悉的文件?!
为了方便,我们建立一个软链接如下:
ln -s ~/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1 hadoop-2.5.1-run
----------------------------------------------------------------------------------------------------------------------
root@idc100:~# cd hadoop-2.5.1-run
root@idc100:~/hadoop-2.5.1-run# ls
bin hadoop-2.5.1-run lib LICENSE.txt README.txt share
etc include libexec NOTICE.txt sbin
root@idc100:~/hadoop-2.5.1-run#
------------------------------------------------------------------------------------------------------------------
执行 ./bin/hdfs namenode -format 是没有问题的。
然后我们从./bin/hdfs脚本入手来一点一点研究格式化的过程。
------------------------------------------------------------------------------------------
经过漫长的shell脚本研究(其实也没多久,一个晚上吧)
具体分析的细节我就不说了,说起来都是泪
自己在shell脚本里加echo查看各个变量的值,export的值
反正最终就是执行这么一句:
----------------------
通过echo,我们可以看到最终的结果就是执行:
/usr/lib/jvm/jdk1.7.0_21/bin/java -Dproc_namenode -Xmx1000m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Djava.library.path=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.hdfs.server.namenode.NameNode -format
感谢你能够认真阅读完这篇文章,希望小编分享的“HDFS格式化的示例分析”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,更多相关知识等着你来学习!