複数のファイルを含むフォルダがあります。これらのファイルは.xml
または.zip
ファイルです。これらの.zip
ファイルには.xml
および/または.zip
ファイルが含まれています。これには、またはなども.zip
含まれます...最終的にファイルが見つかるまで。.xml
.zip
.xml
つまり、私の.xml
ファイルを見つける前に複数の「レベル」のzipを持つことができます(下記の例を参照)。
私の要件は何を検出することです根ZIPファイルには、100Mbを超える1つ以上のXMLファイルが含まれています。 ZIPファイルがこの状況にある場合は、別のディレクトリ(たとえば~/big-files
)に移動する必要があります。また、圧縮されていない.xml
ファイルが100 Mbを超える場合は、このディレクトリに移動する必要があります。
たとえば、
foo1.xml
foo2.xml
baz.xml [MORE THAN 100Mb]
one.zip
+- foo.xml
+- bar.xml [MORE THAN 100Mb]
+- foo.xml
two.zip
+- foo.xml
+- zip-inside1.zip
| +- bar.xml [MORE THAN 100Mb]
+- foo.xml
three.zip
+- foo.xml
+- zip-inside2.zip
| +- zip-inside3.zip
| +- foo.xml
| +- bar.xml [MORE THAN 100Mb]
+- foo.xml
four.zip
+- foo.xml
+- zip-inside1.zip
+- foo.xml
この例ではbaz.xml、a.zip、Two.zipそしてThree.zip~/big-files
少なくとも100 Mbを超えるXMLファイルをホストするので、に移動する必要があります。4.zip。
Bashシェルでこれをどのように達成できますか?
ありがとうございます。
答え1
まずインストールしてくださいAVFS、アーカイブ内に透過的なアクセスを提供し、コマンドを実行するファイルシステムですmountavfs
。バラより圧縮アーカイブを再帰的にgrepする方法は?背景。
それ以降は、/path/to/archive.zip
認識されたアーカイブの場合、~/.avfs/path/to/archive.zip#
そのアーカイブの内容を含むように見えるディレクトリです。
has_large_file_rec
引数として渡されたzipファイル内で大きなXMLファイルを見つけ、含まれている各zipファイルから自分自身を再帰的に呼び出すヘルパースクリプトを作成します。スクリプトが大きなXMLファイルを見つけると、いくつかの出力が生成されます。大きなXMLファイルを見つけると検索を停止できるため、効率を上げるために出力が切り捨てられます。
#!/bin/sh
## auxiliary script has_large_file_rec
find "$1#" -name '*.zip' -type f -exec has_large_file_rec {} \; \
-o -name '*.xml' -type f -size +1024k -print | head -n 1
最上位レベルで大容量ファイルが見つかった場合は、そのファイルを大容量ファイルディレクトリに移動します。
find "~/.avfs$PWD" \
-name '*.zip' -sh -c '
a=$(has_large_file_rec "$0")
if [ -n "$a" ]; then mv "$0" ~/big-files/; fi
' {} \; -o \
-name '*.xml' -type f -size +1024k -exec mv {} ~/big-files/ \;
答え2
1つの方法はを使用することですperl
。
コンテンツscript.pl
:
use warnings;
use strict;
use Archive::Extract;
use List::Util qw|first|;
use File::Copy qw|move|;
use File::Spec;
use File::Path qw|remove_tree|;
## Path to save 'xml' and 'zip' files.
my $big_files_dir = qq|$ENV{HOME}/big_files/|;
## Temp dir to extract files of 'zips'.
my $zips_path = qq|/tmp/zips$$/|;
## Size in bytes to check 'xml' files.
my $file_max_size_bytes = 100 * 1024 * 1024;
my (@zips_to_move, $orig_zip);
## Get files to process.
my @files = <*.xml *.zip>;
## From previous list, copy 'xml' files bigger than size limit.
for my $file ( @files ) {
if ( substr( $file, -4 ) eq q|.xml| and -s $file > $file_max_size_bytes ) {
move $file, $big_files_dir;
}
}
## Process now 'zip' files. For each one remove temp dir to avoid mixing files
## from different 'zip' files.
for ( grep { m/\.zip\Z/ } @files ) {
remove_tree $zips_path;
$orig_zip = $_;
handle_zip_file( $orig_zip );
}
## Copy 'zip' files got until now.
for my $zip_file ( @zips_to_move ) {
move $zip_file, $big_files_dir;
}
## Traverse recursively each 'zip file. It will look for 'zip' file in the
## subtree and will extract all 'xml' files to a temp dir. Base case is when
## a 'zip' file only contains 'xml' files, then I will read size of all 'xmls'
## and will copy the 'zip' if at least one of them if bigger than the size limit.
## To avoid an infinite loop searching into 'zip' files, I delete them just after
## the extraction of its content.
sub handle_zip_file {
my ($file) = @_;
my $ae = Archive::Extract->new(
archive => $file,
type => q|zip|,
);
$ae->extract(
to => $zips_path,
);
## Don't check fails. I don't worry about them, ¿perhaps should I?
unlink( File::Spec->catfile(
(File::Spec->splitpath( $zips_path ))[1],
(File::Spec->splitpath( $file ))[2],
)
);
my $zip = first { substr( $_, -4 ) eq q|.zip| } <$zips_path/*>;
if ( ! $zip ) {
for my $f ( <$zips_path/*.xml> ) {
if ( substr( $f, -4 ) eq q|.xml| and -s $f > $file_max_size_bytes ) {
push @zips_to_move, $orig_zip;
last;
}
}
return;
}
handle_zip_file( $zip );
}
いくつかの問題:
xml
zip
一時ディレクトリにコピーすると、ファイルサブツリー内の同じ名前のファイルが上書きされます。- プログラムは同じツリー内のすべてのzipファイルの内容を抽出し、そのファイルが
xml
100 MBを超えることを確認します。 zipファイルを解凍するたびに確認する方が高速です。改善することができます。 - 複数回処理されるzipファイルはキャッシュされません。
~/big_files
存在し、書き込み可能でなければなりません。- スクリプトはパラメータを受け入れません。
zip
とファイルと同じディレクトリで実行する必要がありますxml
。
前のポイントからわかるように完璧ではありませんが、テストでは機能しました。私はそれがあなたに役立つことを願っています。
次のように実行します。
perl script.pl