ブロックするボットのリストがあるので、このタイプのタスクでは、mod_securityがより効果的であることに気づくまで、fall2banが解決策になる可能性があると思いました。
膨大な数のボットがあるため、設定ファイルには長いリストが含まれています。
私の質問はパフォーマンス(メモリ、プロセッサ、ディスクなど)についてです。
ブロックするボットの数が多いと、トラフィックの多いサイトでApacheのパフォーマンスに影響しますか?
答え1
パフォーマンスは問題ではありません。ローカルDNSキャッシュと組み合わせたModSecurityの@rbl機能を確認すると、DNSが違反者を追跡し、特定の接続を許可またはブロックすることを決定したときにそのDNSゾーンを参照として使用できます。
答え2
長いボットリストを管理するのではなく、ユーザーエージェント文字列内のいくつかのキーワードに基づいてボットをフィルタリングし、特定のボットのみを通過させることができます。
私のサイトをクロールしたくないすべてのスパイダー/ボットをブロックするためにこの機能を使用します。その後、サイトのインデックス作成に興味がある人にのみ許可します。他のすべてはファイアウォールによってブロックされます。
これは今まで私によく行われています。
sudo nohup tail -f /var/log/apache2/access.log | awk -F' - |\"' 'tolower($7) ~ /bot|crawler|spider/ && tolower($7) !~ /google|yahoo|bing|msn|ask|aol|duckduckgo/{system(" sudo ufw deny from "$1" to any comment \""$7"\"")}' > /dev/null &