关于IDEA创建spark maven项目并连接远程spark集群问题

网友投稿 308 2022-12-13

关于IDEA创建spark maven项目并连接远程spark集群问题

环境:

scala:2.12.10

spark:3.0.3

1、创建scala maven项目,如下图所示:

不同版本scala编译参数可能略有不同,笔者使用的scala版本是2.12.10,scala-archetype-simple插件生成的pom文件

org.scala-tools

maven-scala-plugin

2.15.0

compile

testCompile

-make:transitive

-dependencyfile

${project.build.directory}/.scala_dependencies&lthttp://;/arg>

要去除-make:transitive这个参数,否则会报错。

3、创建SparkPi Object类

object SparkPi {

def main(args: Array[String]): Unit = {

val spark = SparkSession

.builder

.appName("Spark Pi")

.master("spark://172.21.212.114:7077")

.config("spark.jars","E:\\worqtYrZCESrvk\\polaris\\polaris-spark\\spark-scala\\target\\spark-scala-1.0.0.jar")

.config("spark.executor.memory","2g")

.config("http://spark.cores.max","2")

.config("spark.driver.host", "172.21.58.28")

.config("spark.driver.port", "9089")

.getOrCreate()

//spark = new SparkContext(conf).

val slices = if (args.length > 0) args(0).toInt else 2

val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow

val count = spark.sparkContext.parallelize(1 until n, slices).map { i =>

val x = random * 2 - 1

val y = random * 2 - 1

if (x*x + y*y <= 1) 1 else 0

}.reduce(_ + _)

println(s"Pi is roughly ${4.0 * count / (n - 1)}")

spark.stop()

}

}

4、执行打包命令:

5、点击Idea Run执行即可:

6、结果如下所示:

PS:

1、创建SparkSession时需要指定Idea所在机器ip地址,因为默认会把Spark Driver所在机器域名发送过去,导致无法解析(在spark 服务器上配置IDEA所在机器域名也可以,但是这样太不灵活)

2、spark-3.0.3默认使用的scala版本是2.12.10,所以要注意IDEA使用scala版本,否则会出现SerailizableId不一致的兼容问题

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Java字节码的增强技术
下一篇:springboot启动feign项目报错:Service id not legal hostnam的解决
相关文章

 发表评论

暂时没有评论,来抢沙发吧~