oVirtマネージドブロックストレージサイズは適用されません。
ブロックストレージ管理のように、Cephでプールを作成し、oVirtでプールを追加しました。ただし、oVirtはマネージドブロックストレージのサイズを取得できません。なぜ? ...
ブロックストレージ管理のように、Cephでプールを作成し、oVirtでプールを追加しました。ただし、oVirtはマネージドブロックストレージのサイズを取得できません。なぜ? ...
私たちの会社では、Ceph-ansibleをディストリビュータ(アップグレード、拡張タスクなど)として使用し、長年Cephを使用してきました。最近では、インストールと2日目の作業のために「cephadm」に移行するという任務を受けました。 POCの実行中に2つの問題に直面しましたが、そのうちの1つが他のものよりも正確でした。 ceph-ansibleに関連するさまざまな独立したネットワークがあります。 ㅏ。 SSH 関連ネットワークを構成し、Ceph 関連ホスト (mons/osds/clients を持つノード) からリモートでジョブを実行します。 b...
私はcephに初めて触れたので、これが常識なら許してくれますが見つかりません。これは簡単な質問のように見えますが、確かな答えが見つかりません。 2017年にECプールのRBDが最初に実装されたときにECプールに実際のデータを保存するには、RBDメタデータを保存するための別々の複製プールが必要です。 まだ本当ですか?それとも、rbdを作成するために2つのプールを管理する必要がないように、メタデータを同じec_poolに保存する方法はありますか? ...
CephFSのクォータ制限にxattrsを設定しました。 $ setfattr -n ceph.quota.max_bytes -v 1100000000 /mnt/cephfs/data/ このプロパティの価値を得ることができます。 $ getfattr -n ceph.quota.max_bytes /mnt/cephfs/data/ getfattr: Removing leading '/' from absolute path names # file: mnt/cephfs/data/ ceph.quota.max_bytes="110000...
10個のノードクラスタがあります。レプリケートされていないプール(レプリケーション1)を作成し、これについていくつかの質問をしたいと思います。 ユースケースをお知らせします。 データ損失には興味がありません。 私のすべてのデータはゴミです。これらのゴミファイルは通常1KBから32MBの間です。 そのファイルは5日以内に削除されます。 書き込み可能スペースとI / O速度がより重要です。 書き込み/読み取り/削除ボリュームが1日あたり200 GB以上高い。 問題が発生すると、クラスタ全体にアクセスできなくなるのではないかと心配されます。データが失われるのは...
CephプールからDRBDを直接実行できますか? ファイルがディスクに直接保存されるバックアップシステムがあります。 Cephは、オフサイトバックアップシステムのすべてのディスクにインストールおよび構成されています。 オフサイトのバックアップシステムにバックアップデータの2番目のコピーをしたいのですが、DRBDとCephが実行されている「レイヤ」については少し混乱しています。オフサイトバックアップシステムでRBDプールを作成し、ここに直接DRBDを設定できますか?それとも、Cephを使用してVMを実行し、VMでDRBDを抽象化層として構成する必要がありますか...
cephadmブートストラップを使用してcephクラスタをインストールしました。 インベントリを介してディスクを表示できますが、デバイスリストには表示されません。なぜですか?クラスタにディスクを追加するには? root@RX570:~# ceph-volume inventory Device Path Size rotates available Model name /dev/sdl 7.28 TB True True USB3.0 /dev/sdm...
いくつかのノードといくつかのOSDを含むcephクラスターを実行しています。 ODSを削除/削除しようとしましたが、私のクラスタはまだいくつかの古いメタデータを知っているようです。既存のOSDを再追加することはできません。 デバイスのリストを確認すると、マイディスクが使用可能としてマークされます。 $ sudo ceph orch device ls HOST PATH TYPE DEVICE ID SIZE AVAILABLE REFRESHED ...
2つのディスク(SSD 500G)を持つCephノードがあります。 /dev/sdaオペレーティングシステム用(Debian 11) Ceph OSDで2番目のSSDをインストールしたいです。しかし、Cephは2番目のディスクを認識しません。 呼ぶ $ sudo cephadm ceph-volume inventory 結果は空のリストです。ディスクが認識されません。ただし、コマンドはlsblkディスクが存在することを示します。 $ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:...
ceph -sエラー図は次のとおりです。 また、デプロイディレクトリでceph-deploy admin xxNodeコマンドを実行してみましたが、結果は理想的ではありませんでした。入力したディレクトリが展開ディレクトリであるかどうかはわかりません。 エラーコードは次のとおりです。 ...
単一のNICに新しいクラスタを設定しましたが、複製用に追加のcephadmNICを追加しましたcluster_network。これはcephadmを設定したものですが、うまくいきません。 $ ceph config set global cluster_network 192.168.1.0/24 構成の表示 $ ceph config get mon cluster_network 192.168.1.0/24 $ ceph config get mon public_network 10.73.3.0/24 確認する $ ceph osd metada...
ラボではceph Storageを使用しており、サーバーもあり、MON、OSD、MDSなどのすべてのサービスを単一のシステムにインストールしようとしています。 loopdeviceを使って2つのディスクを作成しました。 (サーバーにSSDディスクがあるため、非常に高速です。) root@ceph2# losetup -a /dev/loop1: [64769]:26869770 (/root/100G-2.img) /dev/loop0: [64769]:26869769 (/root/100G-1.img) これが私ceph -sの出力の外観です roo...
これは妥当ですか? 3ノード設定で可能ですか?圧着ルールはどのように見えますか?これが現状です。これに対するアイデアは、複数のosdブレークを補償することです(たとえば、ノードごとに3つのosdが失敗する)。 # rules rule replicated_rule { id 0 type replicated min_size 1 max_size 10 step take default step chooseleaf firstn 0 type host step emit } ...
質問 偽のブロックデバイス(大容量ファイル/ディスクイメージを使用)をフォーマットされていない正当なディスクとして作成してマウントする方法は? 背景ストーリー 設定しようとしています。車そしてセファロスポリン(分散ストレージシステム)私の趣味はkubernetesクラスターにあります。Cephにはフォーマットされていないブロックデバイスが必要です。必要に応じて分割され、保存に使用されます。 空きディスクがないので、次のように考えました。 ループバックデバイスを作成して使用するとどうなりますか? 私のホストOSディスクには十分な空き容量があるので、その中に大き...
テスト用に単一の仮想マシンにCephをインストールしました(ceph自体をテストするのではなく、実行するツールのcephエンドポイントが必要です)。インストールはとても簡単でしたが、ceph fs volume create tank私が作成しようとしていたcephfsファイルシステム()を使用できるようになるまでに長い時間がかかりました(ここで、「ever」は「今まで少なくとも20分」を意味します)。実行中のceph mds statusプログラム: tank:1 {0=tank.ceph.znlhma=up:creating} 1 up:standby ...