[spark] dataframe的数据导入Mysql5.6
2023-12-28 11:20:20
在 Spark 项目中使用 Scala 连接 MySQL 5.6 并将 DataFrame 中的数据保存到 MySQL 中的步骤如下:
-
添加 MySQL 连接驱动依赖:
在 Spark 项目中,你需要在项目的构建工具中添加 MySQL 连接驱动的依赖。如果使用 Maven,可以在
pom.xml
文件中添加以下行:<dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <version>5.1.48</version> </dependency>
然后,确保重新构建项目以获取新的依赖。
-
连接 MySQL 并读取数据到 DataFrame:
使用 SparkSession 来连接 MySQL 并读取数据到 DataFrame。以下是一个简单的示例:import org.apache.spark.sql.{SparkSession, SaveMode} val spark = SparkSession.builder .appName("Spark MySQL Example") .master("local") .getOrCreate() // MySQL 连接信息 val jdbcUrl = "jdbc:mysql://your_mysql_host:3306/your_database" val connectionProperties = new java.util.Properties() connectionProperties.put("user", "your_username") connectionProperties.put("password", "your_password") connectionProperties.put("driver", "com.mysql.jdbc.Driver") connectionProperties.put("characterEncoding", "UTF-8") // 读取 MySQL 数据到 DataFrame val df = spark.read.jdbc(jdbcUrl, "your_table_name", connectionProperties) // 显示 DataFrame 数据 df.show() // 关闭 SparkSession spark.stop()
请替换以下内容:
your_mysql_host
:MySQL 主机地址your_database
:数据库名称your_username
:MySQL 用户名your_password
:MySQL 密码your_table_name
:要读取的表名
-
将 DataFrame 中的数据保存到 MySQL:
使用write.jdbc
将 DataFrame 中的数据保存到 MySQL。以下是一个示例:// 将 DataFrame 写入 MySQL(Overwrite 模式,可以根据需求选择其他模式) df.write .mode(SaveMode.Overwrite) .jdbc(jdbcUrl, "your_table_name", connectionProperties)
请根据你的需求调整保存模式和表名。
这样,你就可以在 Spark 项目中使用 Scala 连接 MySQL 5.6 并进行数据的读取和写入。
文章来源:https://blog.csdn.net/qq_44810930/article/details/135258519
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!