Mysql
 sql >> Datenbank >  >> RDS >> Mysql

Wie konvertiert man eine 500-GB-SQL-Tabelle in Apache Parquet?

Dazu kann Apache Spark verwendet werden:

1.load your table from mysql via jdbc
2.save it as a parquet file

Beispiel:

from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()
df = spark.read.jdbc("YOUR_MYSQL_JDBC_CONN_STRING",  "YOUR_TABLE",properties={"user": "YOUR_USER", "password": "YOUR_PASSWORD"})
df.write.parquet("YOUR_HDFS_FILE")