大数据Spark SparkSession的3种创建方式 Scala语言实现

1、什么是SparkSession

SparkSession是Apache Spark 2.0版本引入的一个编程接口,用于与Spark进行交互。它是Spark应用程序的入口点,提供了一种方便的方式来创建DataFrame、DataSet和SQLContext等数据结构,并且可以配置各种Spark应用程序的选项。SparkSession还管理了Spark应用程序的运行环境,包括Spark集群的连接,以及将数据加载到内存中进行处理等任务。
2、创建SparkSession的几种方法
在Scala中,创建SparkSession有以下几种方法:
先引入SparkSession类

import org.apache.spark.sql.SparkSession

(1) 使用默认配置创建SparkSession:

val spark = SparkSession.builder().appName("SparkDemo").getOrCreate()

appName用于设置名称

(2) 指定Master和AppName创建SparkSession

val spark = SparkSession.builder()
  .appName("SparkDemo") 
  .master("local[*]")  
  .getOrCreate()

master(“local[*]”) 表示本地运行
(3) 添加自定义配置项创建SparkSession

val spark = SparkSession.builder()
  .appName("SparkDemo")
  .config("spark.driver.allowMultipleContexts", "true")
  .getOrCreate()

(4) 指定Spark集群的连接信息创建SparkSession

val spark = SparkSession.builder()
  .appName("SparkDemo")
  .config("spark.master", "spark://192.168.1.2:7077")
  .getOrCreate()

(5) 操作hive方式

val spark = SparkSession.builder()
  .appName("SparkDemo")
.master("local")
.enableHiveSupport()
.getOrCreate()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值