Sie haben einfach einen Datenrahmen erstellt, der eine Vorschrift für die zu erledigende Arbeit darstellt, aber Sie haben ihn nicht ausgeführt. Zur Ausführung müssen Sie .compute()
aufrufen auf das Ergebnis.
Beachten Sie, dass die Ausgabe hier nicht wirklich ein Datenrahmen ist, jede Partition wird als None
ausgewertet (weil to_sql
hat keine Ausgabe), daher könnte es sauberer sein, dies mit df.to_delayed
auszudrücken , etwas wie
dto_sql = dask.delayed(pd.DataFrame.to_sql)
out = [dto_sql(d, 'table_name', db_url, if_exists='append', index=True)
for d in ddf.to_delayed()]
dask.compute(*out)
Beachten Sie auch, dass es vom Datenbanktreiber und dem Datensystem selbst abhängt, ob Sie eine gute Parallelität erhalten.