ハッシュ合計に基づいてファイルの重複を削除する簡単な方法はありますか(たとえば、SHA1が高速です)。私の音楽ファイルは少しめちゃくちゃです。
答え1
Linuxにはfdupesパッケージがあります(たとえば、debianリポジトリにあります)。 md5sumsとバイト単位の比較を使用して、一連のディレクトリで重複ファイルを見つけます。 -dオプションを使用して重複エントリを削除することもできますが、私はそのオプションを使用したことがありません。出力ファイルからgrepまたはsedを使用してディスクから削除することもできます。
答え2
答え3
liten2
http://code.google.com/p/liten2/Mac OSXでも動作します!
テストの実行、インタラクティブな削除など、非常に便利な機能がたくさんあるPythonスクリプト
で、非常に高速です。