Probablemente hay miles de formas de importar archivos XML a PostgreSQL, pero aquí hay una alternativa que encuentro bastante fácil de implementar y ya está probada con documentos xml grandes (más de 120 GB)
Dependiendo del tamaño de su archivo XML, considere dividirlo. Una excelente herramienta para hacerlo es xml_split
. Este comando divide file.xml
en archivos más pequeños con un máximo de 100 MB:
xml_split -n 5 -l 1 -s 100MB file.xml
Una vez que haya dividido sus archivos en un tamaño razonable, puede comenzar a importarlos sin correr el riesgo de quedarse sin memoria.
Consideremos la siguiente estructura de archivos XML...
<?xml version="1.0"?>
<t>
<foo>
<id j="a">1</id>
<val>bar1</val>
</foo>
<foo>
<id j="b">8</id>
<val>bar1</val>
</foo>
<foo>
<id j="c">5</id>
<val>bar1</val>
</foo>
<foo>
<id j="b">2</id>
</foo>
</t>
... y la siguiente tabla de destino, donde insertaremos los registros XML.
CREATE TABLE t (id TEXT, entry XML);
El siguiente código importa archivos XML en un t
usando un CTE
(también conocido como cláusula WITH) por el nodo <foo>
. El comando perl -pe 's/\n/\\n/g'
reemplaza los caracteres de nueva línea con \\n
para que no obtenga un Premature end of data
excepción:
#!/bin/bash
psql testdb -c "CREATE UNLOGGED TABLE tmp (entry xml);"
for f in /path/to/your/files/;do
cat $f | perl -pe 's/\n/\\n/g' |psql testdb -c "COPY tmp FROM STDIN;"
psql testdb -c "
WITH j AS (
SELECT UNNEST(XPATH('//t/foo',entry)) AS entry FROM tmp
)
INSERT INTO t
SELECT XPATH('//foo/id/text()',j.entry),j.entry FROM j;
TRUNCATE TABLE tmp;"
done
psql testdb -c "DROP TABLE tmp;"
Y aquí están sus datos:
testdb=# SELECT * FROM t;
id | entry
-----+--------------------------
{1} | <foo> +
| <id j="a">1</id>+
| <val>bar1</val> +
| </foo>
{8} | <foo> +
| <id j="b">8</id>+
| <val>bar1</val> +
| </foo>
{5} | <foo> +
| <id j="c">5</id>+
| <val>bar1</val> +
| </foo>
{2} | <foo> +
| <id j="b">2</id>+
| </foo>
(4 Zeilen)