摘要:本篇Windows运维将教你搭建spark,看完这篇文章会让你有更加清晰的操作。
本篇Windows运维将教你搭建spark,看完这篇文章会让你有更加清晰的操作。
安装环境
JDK 1.7
scala 2.11.7
hadoop-winutils 2.6.0
spark 1.3.1
安装步骤
1.安装JDK、scala解释器、hadoop-winutils、spark
2.配置JAVA_HOME、SCALA_HOME、HADOOP_HOME环境变量
3.运行spark目录下/bin/spark-shell.cmd
测试代码
用这里的wordCount代码,在spark-shell上运行
$ spark-shell
scala> val file = sc.textFile("<input file>")
scala> val counts = file.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
scala> counts.saveAsTextFile("<output file>")
可以在<output file>/part-00000(可能不只一个输出结果文件)中看到结果
希望这篇文章可以帮助到你。总之,同学们,你想要的职坐标IT频道都能找到!
您输入的评论内容中包含违禁敏感词
我知道了
请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号