1つの大きなドライブを使用するRAID 2つの小さなドライブ

1つの大きなドライブを使用するRAID 2つの小さなドライブ

RAIDアレイをリセットする必要があり、サイズが異なるいくつかのディスクに直面しました。 2x 5TBドライブと1つの8TBドライブを使用してRAID 1ミラーを作成したいと思います。これを行う最良の方法はわかりません。

これまで思い出させる2つのオプション...

1. LVM 2x 5TBおよび他の8TBディスクを使用してmdadm raid 1に追加

次に、8TBに2つのパーティションを作成し、2つのraid1パーティションを作成してLVMにマージします。

結局、1つのパーティションだけをマウントしたいと思います。状況をより複雑にするために、RAIDではなくRSYNCを介した手動バックアップである可能性がある別のディスクを追加しようとしています。このディスクをRAID1を使用してシングルインストールにプロビジョニングしたいので、LVMを使用して最終RAIDをプロビジョニングすることもできます。

オプション1の私の興味は、LVMをRAID 1 / dev / md0に追加し、次に/ dev / md0 +別のディスクを別のLVMに追加することです。

データを大幅に変更し、入力内容を見つけるのが少し心配です。問題を分析するために、私は主にraid1に3つのディスクを使用することに関するこの質問に焦点を当てています。それでは次の部分に集中できます。

ありがとうございます。追加情報が必要な場合はお知らせください。

修正する:

新しいツールを学ぶために、mdadmでZFSを使用することを検討しています。たとえば、LVMを使用して2x 5TBプールを作成し、lvm + 8tb HDDのZFSプールを作成します。大丈夫ですか? > ZFSがディスクへの直接のrawアクセスを期待していることを読んでいましたが、この場合LVMが機能できるかどうか疑問に思います。

答え1

このようにZFSの使用は「推奨」されませんが、正常に動作します。 mdadmを使用して2つの5Tbドライブを一緒に接続し、デバイスをZFSに転送することは完全に可能です。

大規模な実稼働システムに ZFS を適用する方法については、多くのアドバイスがありますが、これらの提案は、データ整合性を保護するために ZFS を使用しようとする小規模ユーザーには適していません。

私はあなたが最新のLinux distoを使用していると仮定します。この場合:

mdadm --create /dev/md/twosmall /dev/disk/by-id/small1 /dev/disk/by-id/small2 --level=0 --raid-devices=2

/dev/md/twosmallに10Tbデバイスが作成されます。それから:

zpool create -f eight mirror /dev/md/twosmall /dev/disk/by-id/large

zfs プールは組み合わせで作成されます。

-fここに注意してください。それ以外の場合は、zpool createデバイスのサイズが異なるため、コマンドは失敗します。-f他のエラーメッセージがないことを確認するには、まず使用せずに実行することをお勧めします。

twosmalleightmdadm raidおよびzfsプールに対してランダムに選択された名前であるため、適切な/dev/disk/by-id名前に置き換える必要があります。私はこのコマンドを使用して、ls -l /dev/disk/by-id | grep -v part | grep -v wwn | sort -k 11/dev/sd?でソートされたシステムのドライブのリストを取得します。ショートカット。

答え2

結局私がしたことは、Linuxで猫のスキンを作る方法はいくつかありました。同じサイズのドライブが2つ必要だと言った人は創造的ではありませんでした!

注:ZFSにはディスク全体が必要なので、パーティションでディスクを使用すると一部の機能が失われるため、調査してみてください。しかし、ホームサーバー/データストアプールの場合は、これは大丈夫だと確信しています。

ZFSを使用して、次のようにパーティションを作成しました。

1x4TB /dev/sda1
1x1TB /dev/sda2

1x4TB /dev/sdb1
1x1TB /dev/sdb2

1x4TB /dev/sdc1
1x4TB /dev/sdc2

次に、ZFSを使用して次のようにイメージを作成します。

/dev/sda1 /dev/sdc1 # 8TB
/dev/sdb1 /dev/sdc2 # 8TB
/dev/sda2 /dev/sdb2 # That leftover 1TB, might as well not waste it!

結局のところ、私はMergeFSを使ってすべてを「OS / End User」の単一のマウントポイントとして提示しました。

注:mhddfs私はmergefs

関連情報