十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:
创新互联建站是一家集网站建设,民权企业网站建设,民权品牌网站建设,网站定制,民权网站建设报价,网络营销,网络优化,民权网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。1 | DEV-HADOOP-01 | 192.168.9.110 |
2 | DEV-HADOOP-02 | 192.168.9.111 |
3 | DEV-HADOOP-03 | 192.168.9.112 |
配置集群间hadoop用户的无密码登录
配置每台机器的/etc/hosts
安装JDK1.8.0_60
安装scala
下载scala-2.11.7.tar
把scala-2.11.7.tar解压到/data/server目录
设置环境变量 /etc/profile
export SCALA_HOME=/usr/scala/scala-2.11.7
使配置生效 source /etc/profile
安装spark
下载spark-1.5.0.tar
把spark-1.5.0.tar解压到/data/server目录
配置环境变量 /etc/profile
export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
使配置生效 source /etc/profile
修改spark配置文件
spark-env.sh配置文件
export SCALA_HOME=/data/server/scala-2.11.7
export JAVA_HOME=/usr/java/jdk1.8.0_60/
export SPARK_MASTER_IP=DEV-HADOOP-01
export SPARK_WORKER_MEMORY=2048m
slaves配置文件
DEV-HADOOP-02
DEV-HADOOP-03
启动spark集群
sbin/start-all.sh
集群启动验证
执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程
查看Spark UI
http://192.168.9.110:8080/
关闭集群
sbin/stop-all.sh
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。