アイテムを分割せずに大容量ファイルをチャンクに分割する

アイテムを分割せずに大容量ファイルをチャンクに分割する

UIEE形式のかなり大きな.msgファイルがあります。

$ wc -l big_db.msg
8726593 big_db.msg

デフォルトでは、ファイルは次のようにさまざまな長さの項目で構成されます。

UR|1
AA|Condon, Richard
TI|Prizzi's Family
CN|Collectable- Good/Good
MT|FICTION
PU|G.P. Putnam & Sons
DP|1986
ED|First Printing.
BD|Hard Cover
NT|0399132104
KE|MAFIA
KE|FICTION
PR|44.9
XA|4
XB|1
XC|BO
XD|S

UR|10
AA|Gariepy, Henry
TI|Portraits of Perseverance
CN|Good/No Jacket
MT|SOLD
PU|Victor Books
DP|1989
BD|Mass Market Paperback
NT|1989 tpb g 100 meditations from the Book of Job "This book...help you
NT| persevere through the struggles of your life..."
KE|Bible
KE|religion
KE|Job
KE|meditations
PR|28.4
XA|4
XB|5
XC|BO
XD|S

これは、空白行で区切られた2つの項目の例です。 1つのアイテムを2つのファイルに分割せずに、この大きなファイルをより小さなファイルに分割したいと思います。

ファイル内の個々の項目は改行文字(完全に空白行)で区切られます。この870万行のファイルを15個のファイルに分割したいと思います。同様のツールがあることを知っていますが、splitファイルを分割する方法はわかりませんが、単一の項目が複数のファイルに分割されないように改行でのみ可能です。

答え1

次の提案を使用してくださいcsplit

行番号に分割

$ csplit file.txt <num lines> "{repetitions}"

はい

1000行のファイルがあるとしましょう。

$ seq 1000 > file.txt

$ csplit file.txt 100 "{8}"
288
400
400
400
400
400
400
400
400
405

結果は次のファイルです。

$ wc -l xx*
  99 xx00
 100 xx01
 100 xx02
 100 xx03
 100 xx04
 100 xx05
 100 xx06
 100 xx07
 100 xx08
 101 xx09
   1 xx10
1001 total

特定のファイルの行数に基づいて反復回数を事前に計算して、反復回数を指定する必要がある静的制限を回避できます。

$ lines=100
$ echo $lines 
100

$ rep=$(( ($(wc -l file.txt | cut -d" " -f1) / $lines) -2 ))
$ echo $rep
8

$ csplit file.txt 100 "{$rep}"
288
400
400
400
400
400
400
400
400
405

空行に分割する

一方、ファイルに含まれる空白行にファイルを単純に分割するには、次のバージョンを使用できますsplit

$ csplit file2.txt '/^$/' "{*}"

はい

上記の4行の空行を追加してfile.txtファイルを作成したとしますfile2.txt。以下のように手動で追加されたものが表示されます。

$ grep -A1 -B1 "^$" file2.txt
20

21
--
72

73
--
112

113
--
178

179

上記は、サンプルファイルの対応する数値の間に追加したものを示しています。これでcsplitコマンドを実行すると、次のようになります。

$ csplit file2.txt '/^$/' "{*}"
51
157
134
265
3290

これで、空の行で区切られた4つのファイルがあることがわかります。

$ grep -A1 -B1 '^$' xx0*
xx01:
xx01-21
--
xx02:
xx02-73
--
xx03:
xx03-113
--
xx04:
xx04-179

引用する

答え2

レコードの順序に興味がない場合は、次のようにできます。

gawk -vRS= '{printf "%s", $0 RT > "file.out." (NR-1)%15}' file.in

それ以外の場合は、各出力ファイルにどれだけのレコードを入れるべきかを知るために、最初にレコード数を取得する必要があります。

gawk -vRS= -v "n=$(gawk -vRS= 'END {print NR}' file.in)" '
  {printf "%s", $0 RT > "file.out." int((NR-1)*15/n)}' file.in

答え3

考えられる解決策は次のとおりです。

seq 1 $(((lines=$(wc -l </tmp/file))/16+1)) $lines |
sed 'N;s|\(.*\)\(\n\)\(.*\)|\1d;\1,\3w /tmp/uptoline\3\2\3|;P;$d;D' |
sed -ne :nl -ne '/\n$/!{N;bnl}' -nf - /tmp/file

sed最初のものは2番目のスクリプトを許可することで動作しますsed。 2番目は、sed最初に空の行に出会うまで、すべての入力行を収集します。次に、すべての出力行をファイルに書き込みます。 1つ目は、sed2番目のスクリプトを作成して出力を作成する場所を示します。私のテストケースでは、スクリプトは次のようになります。

1d;1,377w /tmp/uptoline377
377d;377,753w /tmp/uptoline753
753d;753,1129w /tmp/uptoline1129
1129d;1129,1505w /tmp/uptoline1505
1505d;1505,1881w /tmp/uptoline1881
1881d;1881,2257w /tmp/uptoline2257
2257d;2257,2633w /tmp/uptoline2633
2633d;2633,3009w /tmp/uptoline3009
3009d;3009,3385w /tmp/uptoline3385
3385d;3385,3761w /tmp/uptoline3761
3761d;3761,4137w /tmp/uptoline4137
4137d;4137,4513w /tmp/uptoline4513
4513d;4513,4889w /tmp/uptoline4889
4889d;4889,5265w /tmp/uptoline5265
5265d;5265,5641w /tmp/uptoline5641

これが私がテストした方法です:

printf '%s\nand\nmore\nlines\nhere\n\n' $(seq 1000) >/tmp/file

これにより、次の6000行のファイルが提供されます。

<iteration#>
and
more
lines
here
#blank

...1000回繰り返します。

上記のスクリプトを実行した後:

set -- /tmp/uptoline*
echo $# total splitfiles
for splitfile do
    echo $splitfile
    wc -l <$splitfile
    tail -n6 $splitfile
done    

出力

15 total splitfiles
/tmp/uptoline1129
378
188
and
more
lines
here

/tmp/uptoline1505
372
250
and
more
lines
here

/tmp/uptoline1881
378
313
and
more
lines
here

/tmp/uptoline2257
378
376
and
more
lines
here

/tmp/uptoline2633
372
438
and
more
lines
here

/tmp/uptoline3009
378
501
and
more
lines
here

/tmp/uptoline3385
378
564
and
more
lines
here

/tmp/uptoline3761
372
626
and
more
lines
here

/tmp/uptoline377
372
62
and
more
lines
here

/tmp/uptoline4137
378
689
and
more
lines
here

/tmp/uptoline4513
378
752
and
more
lines
here

/tmp/uptoline4889
372
814
and
more
lines
here

/tmp/uptoline5265
378
877
and
more
lines
here

/tmp/uptoline5641
378
940
and
more
lines
here

/tmp/uptoline753
378
125
and
more
lines
here

答え4

努力するawk

awk 'BEGIN{RS="\n\n"}{print $0 > FILENAME"."FNR}' big_db.msg

関連情報