十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
第一步:新建一个maven工程
第二部:命名工程名
第三步:新建一个文件夹,并设置为sources root
第四步:pom编写
4.0.0 com.cn.spark spark-day01 1.0-SNAPSHOT 8 8 org.apache.hadoop hadoop-client 2.7.1 org.apache.maven.plugins maven-compiler-plugin 3.6.1 1.8 UTF-8
第五步:新建一个Scala类
注意:此步可能找不到Scala,需要引入
具体步骤为
1.项目构建
2.点击+
3.添加Scala,如果有Scala环境,会默认识别版本
最后会引入Scala,如下
第六步:引入spark相关jar包
选择自己的spark安装包,里边有jar包目录
第七步:新建一个Scala
第八步:编写代码验证
package com.cn.wordcount
import org.apache.spark.{SparkConf, SparkContext}
object Driver {def main(args: Array[String]): Unit = {val conf = new SparkConf().setMaster("local").setAppName("wordCount")
val sc = new SparkContext(conf)
val data = sc.textFile("hdfs://hadoop01:9000/data", 2)
val result=data.flatMap{line=>line.split(" ")}.map{word=>(word,1)}.reduceByKey((x,y)=>x+y)
// result.foreach(line=>println(line))
result.saveAsTextFile("hdfs://hadoop01:9000/result03")
}
}
第九步:运行结果(打印到控制台,并且将数据存储到Hadoop中hdfs中)
你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧