快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

阿里云服务器搭建hadoop集群补充

1 阿里云服务器选配


首先附上官网链接:阿里云官网

成都创新互联公司成立于2013年,我们提供高端重庆网站建设成都网站制作成都网站设计、网站定制、全网营销推广小程序制作、微信公众号开发、成都网站推广服务,提供专业营销思路、内容策划、视觉设计、程序开发来完成项目落地,为成都门窗定制企业提供源源不断的流量和订单咨询。

点击上边链接,注册后登陆官网,选择产品选项,然后选择云服务器ECS,就进入云服务器ECS购买界面。绵阳电信机房

进入云服务ECS购买界面,点击立即购买,在界面中分为一键购买和自定义购买,如何对配置没有概念,感觉太麻烦,推荐使用一键购买。本文以一键购买为例,主要是从以下几个方面进行选购:成都服务器托管

  • 地域及可用性
  • 实例规格
  • 镜像
  • 网络类型(公网带宽)
  • 购买数量(购买时长)

地域及可用性:选择离自己比较近的地域,如我在上海,选择华东2(上海),搭建hadoop集群的时候,购买的多台服务器一定要选择在同一个区域,避免后续配置麻烦。

实例规格: 选择CPU,及CPU运行内存,搭建hadoop集群的时候,master主机的运行内存必须是2G以上,其他节点可以为1G。我选购的3台云服务器的配置为:master:1 vCPU 2GiB,slave1:1 vCPU 1GiB,slave2:1 vCPU 1GiB。

镜像:选择服务器的系统和系统版本,系统可以选择CentOS和Ubuntu,版本无要求,我选择是 CentOS 8.0 64位。
网络类型(公网带宽):选择带宽,1-200Mbps都可以选择,我选择是1Mbps。

-购买数量(购买时长):选择购买数量和购买时长之后,付完款,就可以登陆了。配置越高费用越高。我选择的最低配置一个月:60元。

购买完成后,进入实例。选择远程登陆,输入自己的密码,即可进入系统。进入为命令行模式(黑窗口),不是图形化界面。绵阳电信机房登陆云服务器的方法,可以通过官网登陆,也可以通过SecureCRT或者Xshell等软件进行登陆,输入的IP地址(外网IP地址)和密码即可。

官网上的一个活动,有想法的可以参与一下。
阿里云大礼包领取

2 使用WEB界面访问hadoop集群


使用WEB界面访问HDFS和Yarn,该端口分别为50070和18088,这两个端口在这个文件中hdfs-site.xml、yarn-site.xml设置的。忘记的可以参考上一篇文章:阿里云搭建hadoop集群

使用WEB界面访问HDFS和Yarn的两个条件:成都服务器托管

  • 关闭防火墙
  • 云服务器安全组配置端口

关闭防火墙命令:成都服务器托管

1
2
3
4
5
6
7
8
9
10
11
12
13
#查看防火墙开启状态
systemctl status firewalld
#关闭防火墙
systemctl stop firewalld
#禁止开机启动防火墙
systemctl disable firewalld
#开启防火墙
systemctl start firewalld
#设置开机启动防火墙
systemctl enable firewalld
#重启防火墙
systemctl restart firewalld
123456789101112

云服务器安全组配置端口:成都服务器托管

进入控制台,选择自己已经开通的云服务器ECS产品,选择网络与安全,点击安全组,选择配置规则,然后选择手动添加,添加如上两个端口。成都机柜租用

WEB界面访问HDFS和Yarn,直接在浏览器中输入外网IP地址:50070访问HDFS,外网IP地址:18088访问Yarn。

3 hadoop集群验证功能


HDFS功能测试:
上传本地文件到HDFS根目录,命令如下:成都服务器托管

1
2
3
hdfs dfs -put spark-3.0.1-bin-hadoop3.2.tgz hdfs://master:9000/
#也可去掉hdfs://master:9000,core-site.xml中设置的hdfs名字。
hdfs dfs -put spark-3.0.1-bin-hadoop3.2.tgz /

本地文件上传到HDFS成功的话,会在web端UtilitiesBrowse the file system中看到上传的文件,以及文件备份数,文件块大小,文件块的存放位置。

Yarn功能测试
运行一个jar任务,计算pi(圆周率)大小,命令如下:成都服务器托管

1
hadoop jar /usr/local/hadoop-3.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar pi 10 10

找到hadoop文件下的mapreduce例子运行,会在web端看到job历史。

不求点赞 只求有用


当前标题:阿里云服务器搭建hadoop集群补充
网页网址:http://6mz.cn/article/sihsg.html