SparkSQL实现对mysql数据库的对接

该博客演示了如何使用SparkSession的read和write方法从MySQL数据库读取和写入数据。示例中提供了多种配置选项,包括URL、驱动、用户名、密码和数据库表名。此外,还展示了通过Java Properties对象进行连接的方法。注意,如果表有主键,写入时可能会遇到问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

object JDBC {

    def main(args: Array[String]): Unit = {

        val sparkSession: SparkSession = SparkSession.builder().config(new SparkConf().setMaster("local[*]").setAppName("mysql-jdbc")).getOrCreate()

        // 通用的load读取
        sparkSession.read.format("jdbc")
                .option("url","jdbc:mysql://hadoop001:3306/spark-sql")
                .option("driver","com.mysql.jdbc.Driver")
                .option("user","root")
                .option("password","rootroot")
                .option("dbtable","user")
                .load().show

        // 通用的load方法,参数另一种
        // jdbc:mysql://hadoop001:3306/spark-sql?user=root&password=rootroot
        val dataFrame: DataFrame = sparkSession.read.format("jdbc")
                .options(Map("url" -> "jdbc:mysql://hadoop001:3306/spark-sql",
                    "driver" -> "com.mysql.jdbc.Driver",
                    "user" -> "root",
                    "password" -> "rootroot",
                    "dbtable" -> "user")).load()

        // 通过jdbc的方法来连接
        val pro = new Properties()
        pro.setProperty("user","root")
        pro.setProperty("password","rootroot")
        sparkSession.read.jdbc("jdbc:mysql://hadoop001:3306/spark-sql","user1",pro).show

        // 写入mysql(通用方法)
        // ?useUnicode=true&characterEncoding=utf8设置字符集解决乱码问题
        dataFrame.write.format("jdbc")
                .options(Map(
                    "url" -> "jdbc:mysql://hadoop001:3306/spark-sql?user=root&password=rootroot&useUnicode=true&characterEncoding=utf8",
                    "driver" -> "com.mysql.jdbc.Driver",
                    "user" -> "root",
                    "password" -> "rootroot",
                    "dbtable" -> "user1"
                )).mode(SaveMode.Append).save()

        // jdbc的方式写入mysql
        val prop = new Properties()
        prop.setProperty("user","root")
        prop.setProperty("password","rootroot")
        dataFrame.write.mode(SaveMode.Append).jdbc("jdbc:mysql://hadoop001:3306/spark-sql","user1",prop)

        sparkSession.close()
    }

}

注意添加的表有主键可能会导致添加失败

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值