ネットワークの中央リポジトリで変更不可能なデータを共有します。

ネットワークの中央リポジトリで変更不可能なデータを共有します。

machine001.

このデータにアクセスする必要がある他のコンピュータが200台あります。読み取り専用目的。

このデータを最も速く読み取れるように、他のすべてのコンピュータと共有する最良の方法は何ですか? (私はUbuntu Linuxを使用しています)

最速の読み方でうまく機能する他のスキームはありますか?

答え1

NFSが確かな答えです。

クライアントにキャッシュスペースがあり、データが頻繁に更新されない場合は、バージョン管理システムにデータを保存したり、ミラーリングにrsyncを使用したりするなど、さまざまなタスクを実行できます。

答え2

NFSはUDPを使用します。ファイルが失われないようにするには、追加のエンコードが必要になる場合があります。私はそれが好きではなく、すべてのオペレーティングシステムがそれを完全にサポートしているわけではありません。

FTPよりも速いソフトウェアはないので、おそらくFTPは速い読み取りと速い転送のための答えです。

ところで総サイズが500GB程度になると言いましたね。どのファイルを更新する必要があるかを知るために、チェックサムを使用していくつかのVCSを実装できますが、これにはより多くのエンコーディングが必要です。しかし、移植性が必要な場合は、FTPが最善の方法であり、読み取りアクセスがすべてのもののコピーを意味するわけではありません。それでもFTPが最速です。

VCSが欲しいなら、移動するファイルだけあればいいし速度も速いです。すべてのコンピュータにUnixシリーズシステムがある場合は、次のものをインストールできます。消化管git pull、リポジトリを更新するために使用されます。誰もあなたのリポジトリに書き込むことができず、必要なファイルだけをすばやく更新できます。

答え3

読み取りを高速化する究極の方法は、すべてのデータをすべてのクライアントに一度にコピーすることですが、そのスペースを無駄にしたくないようです。

人々は特定のクライアントから同じファイルに複数回アクセスできますか?それでは、積極的なキャッシュを使用する簡単なアプローチを使用します。 WebDAVやFTPサーバーなど、ヒューズダブまたはカルフトププスクライアントのキャッシュHTTPプロキシ(イカまたはwwwoffle)。

関連情報