【Spark】报错:Only one SparkContext may be running in this JVM (see SPARK-2243).


报错

在这里插入图片描述


分析

object partOne1 {

  // 创建环境
  val conf = new SparkConf()
    .setAppName("hdfs")
    .setMaster("local[6]")
  val sc = new SparkContext(conf)
  // 设置日志级别
  sc.setLogLevel("ERROR")

  def main(args: Array[String]): Unit = {

    // 创建环境
    val conf = new SparkConf().setMaster("local[6]").setAppName("HDFS")
    val sc = new SparkContext(conf)

    // hdfs读取数据
    val hdfs = sc.textFile("hdfs://192.168.64.178:9000/spark/zhaopin.csv")
    // 展示数据集
    hdfs.foreach(println(_))

}

出现这个问题的原因就是你创建了多个 SparkContext ,很显然,在main方法之外我已经创建了一个SparkContext,所以main里面的就可以删除了。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

骑着蜗牛ひ追导弹'

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值