Solaris-CBEのraid-z実験の間、私はこれを得ました。
raid-zプールを作成しました。
zpool create pool1 raidz c4t3d0 c4t5d0 c4t4d0
その後、ディスクを追加したいと思います。
zpool add pool1 c5t0d0
戻りエラー(pool1はraid-z、vdevはディスク、-f..を使用)
-f(強制)を使用します。
zpool add -f pool1 c5t0d0
効果がある!
zpool status pool1
pool: pool1
ID: 8550511546950241199
state: ONLINE
NAME STATE READ WRITE CKSUM
pool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c4t3d0 ONLINE 0 0 0
c4t5d0 ONLINE 0 0 0
c4t4d0 ONLINE 0 0 0
c5t0d0 ONLINE 0 0 0
私の質問は:これはどのような構成ですか? c5t0d0はpool1のサブミラーですか、それとも別のものですか?
答え1
私はそれについて自分で答えます。 2つのサブミラー(最初はraidz 1-0、2番目は別々のディスク)を含むプール(pool1)です。プール構文は正確ですが、冗長性が正しくありません。冗長性がないため、孤独なディスク(c5t0d0)は間違っています。より多くのスペースが必要な場合は、別のraidzミラーまたはraid1を追加できます。このような
zpool add pool1 raidz c5t0d0 c5t1d0 c5t2d0
単一ディスクでもデータはすべてのディスクに書き込まれますが(冗長性が無効です)、4つのディスクイメージ(Solaris 11 cbeはLinuxホストの仮想マシン)が増加しているという証拠です。
du -shc .local/share/libvirt/images/vol*
2,1G .local/share/libvirt/images/vol1.img
2,1G .local/share/libvirt/images/vol2.img
2,1G .local/share/libvirt/images/vol3.img
2,1G .local/share/libvirt/images/vol4.img
しばらくデータを書き込んだ後...
du -shc .local/share/libvirt/images/vol*
2,7G .local/share/libvirt/images/vol1.img
2,7G .local/share/libvirt/images/vol2.img
2,7G .local/share/libvirt/images/vol3.img
2,7G .local/share/libvirt/images/vol4.img
11G total
10分後...
du -shc .local/share/libvirt/images/vol*
8,5G .local/share/libvirt/images/vol1.img
8,5G .local/share/libvirt/images/vol2.img
8,5G .local/share/libvirt/images/vol3.img
8,5G .local/share/libvirt/images/vol4.img
別の証拠は、重複していないサブミラーを取り除くとアレイが再構成されることである。
NAME STATE READ WRITE CKSUM
pool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c4t3d0 ONLINE 0 0 0
c4t5d0 ONLINE 0 0 0
c4t4d0 ONLINE 0 0 0
c5t0d0 REMOVING 0 0 0
$VDEV-1151C5D8F59CFF79 REMOVING 0 0 0