Ci sono probabilmente mille modi per importare file XML in PostgreSQL, ma qui c'è un'alternativa che trovo abbastanza facile da implementare ed è già testata con documenti XML di grandi dimensioni (120 GB+)
A seconda della dimensione del tuo file XML, considera la possibilità di dividerlo. Uno strumento eccezionale per farlo è xml_split
. Questo comando divide file.xml
in file più piccoli con un massimo di 100 MB:
xml_split -n 5 -l 1 -s 100MB file.xml
Una volta che i tuoi file sono stati suddivisi in una dimensione ragionevole, puoi iniziare a importarli senza correre il rischio di esaurire la memoria.
Consideriamo la seguente struttura di file XML ...
<?xml version="1.0"?>
<t>
<foo>
<id j="a">1</id>
<val>bar1</val>
</foo>
<foo>
<id j="b">8</id>
<val>bar1</val>
</foo>
<foo>
<id j="c">5</id>
<val>bar1</val>
</foo>
<foo>
<id j="b">2</id>
</foo>
</t>
... e la seguente tabella di destinazione, dove inseriremo i record XML.
CREATE TABLE t (id TEXT, entry XML);
Il codice seguente importa i file XML in un non registrato
table e unnest
nella tabella t
utilizzando un CTE
(ovvero clausola WITH) dal nodo <foo>
. Il comando perl -pe 's/\n/\\n/g'
sostituisce i caratteri di nuova riga con \\n
in modo da non ricevere una Premature end of data
eccezione:
#!/bin/bash
psql testdb -c "CREATE UNLOGGED TABLE tmp (entry xml);"
for f in /path/to/your/files/;do
cat $f | perl -pe 's/\n/\\n/g' |psql testdb -c "COPY tmp FROM STDIN;"
psql testdb -c "
WITH j AS (
SELECT UNNEST(XPATH('//t/foo',entry)) AS entry FROM tmp
)
INSERT INTO t
SELECT XPATH('//foo/id/text()',j.entry),j.entry FROM j;
TRUNCATE TABLE tmp;"
done
psql testdb -c "DROP TABLE tmp;"
Ed ecco i tuoi dati:
testdb=# SELECT * FROM t;
id | entry
-----+--------------------------
{1} | <foo> +
| <id j="a">1</id>+
| <val>bar1</val> +
| </foo>
{8} | <foo> +
| <id j="b">8</id>+
| <val>bar1</val> +
| </foo>
{5} | <foo> +
| <id j="c">5</id>+
| <val>bar1</val> +
| </foo>
{2} | <foo> +
| <id j="b">2</id>+
| </foo>
(4 Zeilen)