十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
本篇内容主要讲解“spark中使用partitioner的实例代码”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“spark中使用partitioner的实例代码”吧!
在华龙等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供成都网站设计、成都网站制作 网站设计制作按需定制,公司网站建设,企业网站建设,品牌网站设计,成都营销网站建设,成都外贸网站制作,华龙网站建设费用合理。
import org.apache.spark._ import SparkContext._ import org.apache.spark.SparkConf import java.util.Date import java.text.SimpleDateFormat import org.apache.hadoop.io.Text import org.apache.hadoop.mapred.TextOutputFormat import org.apache.spark.Partitioner object partitioner { def main(args: Array[String]): Unit = { val time = new SimpleDateFormat("MMddHHmm").format(new Date()); val sparkConf = new SparkConf().setAppName("wordcount_"+time) sparkConf.set("mapreduce.framework.name", "yarn"); val sc =new SparkContext(sparkConf) val textFile = sc.textFile( "hdfs://namenode:9000/data/mapreduce/chuping/test_in_1/new5", 1).cache() val result = textFile.flatMap (line => line.split("\t") ). map (word => (word,1)).reduceByKey(new testPartitioner, _+_) result.saveAsTextFile("hdfs://namenode:9000/data/zk/test/partitioner"+time) sc.stop() } } class testPartitioner extends Partitioner{ val numPartitions = 3 def getPartition(key: Any)=1 指定到第几个reduce }
这里的程序只是一个测试的程序,使用的也是一个count而已,无法体现partitioner的实际作用,但是在实际生产中,partitioner的运用比比皆是
到此,相信大家对“spark中使用partitioner的实例代码”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!