Utilizzo di Postgres 9.6.1, sqlachemy 1.1.4 e psycopg2 2.6.2:
-
Converti la tua struttura dati in un dizionario. Da Pandas è
import pandas from sqlalchemy import MetaData from sqlalchemy.dialects.postgresql import insert import psycopg2 # The dictionary should include all the values including index values insrt_vals = df.to_dict(orient='records')
-
Connettiti al database tramite sqlalchemy . Prova invece il driver psycog2 sottostante e la funzione COPY nativa, che bypassa tutta l'indicizzazione postgres.
csv_data = os.path.realpath('test.csv') con = psycopg2.connect(database = 'db01', user = 'postgres') cur = con.cursor() cur.execute("\copy stamm_data from '%s' DELIMITER ';' csv header" % csv_data) con.commit()
-
Esegui
results = engine.execute(do_nothing_stmt) # Get number of rows inserted rowcount = results.rowcount
Avviso:
Questo metodo non funziona con NaT
è fuori dagli schemi.
Tutto insieme
tst_df = pd.DataFrame({'colA':['a','b','c','a','z', 'q'],
'colB': pd.date_range(end=datetime.datetime.now() , periods=6),
'colC' : ['a1','b2','c3','a4','z5', 'q6']})
insrt_vals = tst_df.to_dict(orient='records')
engine = sqlalchemy.create_engine("postgresql://user:[email protected]/postgres")
connect = engine.connect()
meta = MetaData(bind=engine)
meta.reflect(bind=engine)
table = meta.tables['tstbl']
insrt_stmnt = insert(table).values(insrt_vals)
do_nothing_stmt = insrt_stmnt.on_conflict_do_nothing(index_elements=['colA','colB'])
results = engine.execute(do_nothing_stmt)
Invece dei passaggi 2 e 3 , usando psycog2
driver con il comando copy in postgres è più veloce per file più grandi (che si avvicinano a un gig) perché disattiva tutta l'indicizzazione della tabella.
csv_data = os.path.realpath('test.csv')