Mysql
 sql >> Database >  >> RDS >> Mysql

La conversione della tabella MySQL in Spark dataset è molto lenta rispetto allo stesso file CSV

Questo problema è stato trattato più volte su StackOverflow:

e da fonti esterne:

quindi solo per ribadire - per impostazione predefinita DataFrameReader.jdbc non distribuisce dati o legge. Utilizza un thread singolo, un singolo esecutore.

Per distribuire le letture:

  • usa gli intervalli con lowerBound / upperBound :

    Properties properties;
    Lower
    
    Dataset<Row> set = sc
        .read()
        .option("partitionColumn", "foo")
        .option("numPartitions", "3")
        .option("lowerBound", 0)
        .option("upperBound", 30)
        .option("url", url)
        .option("dbtable", this.tableName)
        .option("driver","com.mysql.jdbc.Driver")
        .format("jdbc")
        .load();
    
  • predicates

    Properties properties;
    Dataset<Row> set = sc
        .read()
        .jdbc(
            url, this.tableName,
            {"foo < 10", "foo BETWWEN 10 and 20", "foo > 20"},
            properties
        )