Logging
OpenShift Container Platform でのログの設定と使用
概要
第1章 リリースノート
1.1. Logging 5.9
Logging は、コアの OpenShift Container Platform とは異なるリリースサイクルで、インストール可能なコンポーネントとして提供されます。Red Hat OpenShift Container Platform ライフサイクルポリシー は、リリースの互換性を概説しています。
stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。
1.1.1. Logging 6.0.2
このリリースには RHBA-2024:10051 が含まれています。
1.1.1.1. バグ修正
1.1.1.2. CVE
1.1.2. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.1.2.1. バグ修正
-
この更新前は、Loki Operator はすべての
AlertingRule
リソースにデフォルトのnamespace
ラベルを追加できなかったため、User-Workload-Monitoring Alertmanager がこれらのアラートのルーティングをスキップしていました。この更新では、すべてのアラートルールおよび記録ルールにルール namespace がラベルとして追加されます。これにより問題が解決され、Alertmanager での適切なアラートルーティングが復元されます。(LOG-6402) - この更新前は、LokiStack ルーラーコンポーネントビューが適切に初期化されず、ルーラーコンポーネントが無効になっているときに無効フィールドエラーが発生しました。この更新により、コンポーネントビューが空の値で初期化されるようになり、問題は解決されます。(LOG-6402)
-
今回の更新以前は、ES 認証設定の下にある
vector.toml
ファイルの LF 文字が原因で、コレクター Pod がクラッシュしていました。この更新により、ユーザー名とパスワードのフィールドから改行文字が削除され、問題が解決されました。(LOG-6402) -
今回の更新以前は、
ClusterLogForwarder
カスタムリソースの.containerLimit.maxRecordsPerSecond
パラメーターを0
に設定できました。これにより、Vector の起動中に例外が発生する可能性がありました。今回の更新により、適用される前に設定が検証され、無効な値(ゼロ以下)は拒否されます。(LOG-6402)
1.1.2.2. CVE
1.1.3. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.1.3.1. バグ修正
-
今回の更新以前は、Fluentd がコレクタータイプとして使用された場合に
clusterlogforwarder.spec.outputs.http.timeout
パラメーターは Fluentd 設定に適用されず、HTTP タイムアウトが誤って設定されていました。今回の更新により、clusterlogforwarder.spec.outputs.http.timeout
パラメーターが正しく適用され、Fluentd が指定されたタイムアウトを受け入れ、ユーザーの設定に応じて HTTP 接続を処理するようになりました。(LOG-6402) -
この更新の前は、ブローカー URL スキーマを検証せずに TLS セクションが追加され、URL が
tls
で開始されなかった場合に SSL 接続エラーが発生していました。今回の更新により、ブローカー URL がtls
で始まる場合にのみ TLS セクションが追加され、SSL 接続エラーが発生しなくなりました。(LOG-6402)
1.1.3.2. CVE
Red Hat のセキュリティー評価の詳細は、重大度評価 を参照してください。
1.1.4. Logging 5.9.6
このリリースには、OpenShift ロギングバグ修正リリース 5.9.6 が含まれています。
1.1.4.1. バグ修正
- この更新前は、コレクターのデプロイメントでシークレットの変更が無視され、レシーバーがログを拒否していました。この更新により、シークレット値の変更時にシステムが新しい Pod をロールアウトし、コレクターが更新されたシークレットをリロードするようになりました。(LOG-5525)
-
この更新前は、Vector が 1 つのドル記号 (
$
) を含むフィールド値を正しく解析できませんでした。この更新により、1 つのドル記号を含むフィールド値が自動的に 2 つのドル記号 ($$
) に変更され、Vector により適切に解析されるようになりました。(LOG-5602) -
この更新前は、ドロップフィルターが文字列以外の値 (例:
.responseStatus.code: 403
) を処理できませんでした。この更新により、ドロップフィルターがこれらの値を適切に扱うようになりました。(LOG-5815) - この更新前は、コレクターが出力レシーバーからのバックロードを処理せずに、デフォルト設定を使用して監査ログを収集していました。この更新により、監査ログを収集するプロセスが改善され、ファイル処理とログの読み取り効率がより適切に管理されるようになりました。(LOG-5866)
-
この更新前は、Azure Resource Manager (ARM) や PowerPC などの AMD64 以外のアーキテクチャーのクラスターで、
must-gather
ツールが失敗していました。この更新により、ツールが実行時にクラスターアーキテクチャーを検出し、アーキテクチャーに依存しないパスと依存関係を使用するようになりました。この検出により、must-gather
が ARM や PowerPC などのプラットフォームでスムーズに実行できるようになります。(LOG-5997) - この更新前は、不明確な構造化キーワードと非構造化キーワードの組み合わせを使用してログレベルが設定されていました。この更新により、ログレベルが構造化キーワードから始まる、ドキュメントのとおりの明確な順序に従うようになりました。(LOG-6016)
-
この更新前は、
ClusterLogForwarder
のデフォルト出力に書き込む複数の名前のないパイプラインによって、自動生成された名前が重複するため、検証エラーが発生していました。この更新により、パイプライン名が重複せずに生成されるようになりました。(LOG-6033) -
この更新前は、コレクター Pod に
PreferredScheduling
アノテーションがありませんでした。この更新により、コレクターのデーモンセットにPreferredScheduling
アノテーションが追加されました。(LOG-6023)
1.1.4.2. CVE
1.1.5. Logging 5.9.5
このリリースには OpenShift ロギングバグ修正リリース 5.9.5 が含まれています。
1.1.5.1. バグ修正
- この更新の前は、LokiStack リソースステータスの重複条件により、Loki Operator からのメトリクスが無効になっていました。この更新により、Operator はステータスから重複した条件を削除します。(LOG-5855)
- この更新の前は、Loki Operator は検証の失敗によりログイベントをドロップしたときにアラートをトリガーしませんでした。この更新では、Loki Operator に、検証の失敗により Loki がログイベントをドロップした場合にアラートをトリガーする新しいアラート定義が含まれるようになりました。(LOG-5895)
- この更新の前は、Loki Operator が LokiStack Route リソース上のユーザーアノテーションを上書きし、カスタマイズが削除されていました。この更新により、Loki Operator は Route アノテーションを上書きしなくなり、問題が修正されました。(LOG-5945)
1.1.5.2. CVE
なし。
1.1.6. Logging 5.9.4
このリリースには、OpenShift Logging バグ修正リリース 5.9.4 が含まれています。
1.1.6.1. バグ修正
- この更新の前は、タイムアウト設定の形式が正しくなかったために OCP プラグインがクラッシュしていました。この更新では、検証によってクラッシュが回避され、ユーザーに誤った設定が通知されます。(LOG-5373)
-
この更新の前は、ラベルに
-
が含まれるワークロードにより、ログエントリーを正規化するときにコレクターでエラーが発生しました。この更新では、設定の変更により、コレクターが正しい構文を使用するようになります。(LOG-5524) - この更新の前は、ログが生成された場合でも、存在しなくなった Pod を選択できないという問題がありました。この更新ではこの問題が修正され、このような Pod を選択できるようになりました。(LOG-5697)
-
この更新の前は、
cloud-credentials-operator
のない環境でCredentialRequest
仕様が登録されると、Loki Operator がクラッシュしていました。この更新により、CredentialRequest
仕様は、cloud-credentials-operator
が有効になっている環境にのみ登録されます。(LOG-5701) - この更新の前は、Logging Operator はクラスター全体のすべての config map を監視および処理していました。この更新により、ダッシュボードコントローラーはログ記録ダッシュボードの config map のみを監視するようになりました。(LOG-5702)
-
この更新の前は、
ClusterLogForwarder
によって、RFC3164
仕様に準拠しないメッセージペイロードに余分なスペースが導入されていました。この更新により、余分なスペースが削除され、問題が修正されました。(LOG-5707) -
この更新の前は、(LOG-5308) の一部として
grafana-dashboard-cluster-logging
のシードを削除すると、ダッシュボードのない新しいグリーンフィールドデプロイメントが壊れていました。この更新により、Logging Operator は最初にダッシュボードをシードし、変更に応じて更新し続けます。(LOG-5747) -
この更新の前は、LokiStack に Volume API のルートがなく、
404 not found
エラーが発生しました。この更新により、LokiStack は Volume API を公開し、問題を解決しました。(LOG-5749)
1.1.6.2. CVE
1.1.7. Logging 5.9.3
このリリースには、OpenShift Logging バグ修正リリース 5.9.3 が含まれています。
1.1.7.1. バグ修正
-
この更新前は、Loki Operator が
1x.demo
サイズのログ先行書き込みreplay_memory_ceiling
を 0 バイトに設定していたため、LokiStack
を設定するときに Ingester の再起動に遅延が発生していました。この更新により、遅延を回避するためにreplay_memory_ceiling
に使用される最小値が増加されました。(LOG-5614) - この更新の前は、Vector コレクターの出力バッファーの状態を監視することはできませんでした。この更新により、Vector コレクターの出力バッファーサイズの監視とアラートが可能になり、観測機能が向上し、システムを最適に実行し続けることができるようになります。(LOG-5586)
1.1.7.2. CVE
1.1.8. Logging 5.9.2
このリリースには、OpenShift Logging バグ修正リリース 5.9.2 が含まれています。
1.1.8.1. バグ修正
-
この更新前は、ロギング Operator への変更により、
ClusterLogForwarder
CR の設定が正しくなかったためにエラーが発生しました。その結果、logging へのアップグレードによりデーモンセットコレクターが削除されました。この更新により、Logging Operator は、Not authorized to collect
エラーが発生した場合を除き、コレクターデーモンセットを再作成します。(LOG-4910) - この更新前は、Vector ログコレクターの設定が正しくなかったため、一部のシナリオでは、ローテーションされたインフラストラクチャーログファイルがアプリケーションインデックスに送信されていました。この更新により、Vector ログコレクター設定では、ローテーションされたインフラストラクチャーログファイルの収集が回避されます。(LOG-5156)
-
この更新前は、Logging Operator は
grafana-dashboard-cluster-logging
config map の変更を監視していませんでした。この更新により、Logging Operator はConfigMap
オブジェクトの変更を監視し、システムが同期された状態を維持し、config map の変更に効果的に応答するようになります。(LOG-5308) - この更新前は、Logging Operator のメトリクス収集コードの問題により、古いテレメトリーメトリクスが報告されていました。この更新により、Logging Operator は古いテレメトリーメトリクスを報告しなくなりました。(LOG-5426)
-
この変更前は、Fluentd
out_http
プラグインはno_proxy
環境変数を無視していました。この更新により、Fluentd は ruby のHTTP#start
メソッドにパッチを適用してno_proxy
環境変数が使用されるようになりました。(LOG-5466)
1.1.8.2. CVE
1.1.9. Logging 5.9.1
このリリースには、OpenShift Logging バグ修正リリース 5.9.1 が含まれています。
1.1.9.1. 機能拡張
- この更新前は、Loki Operator は、廃止された Amazon Simple Storage Service (S3) に対してパスベースのスタイルのアクセスを使用するように Loki を設定していました。この更新により、Loki Operator は、ユーザーが設定を変更しなくても、デフォルトで仮想ホストスタイルになります。(LOG-5401)
-
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイントを検証していませんでした。この更新により、検証プロセスによって S3 エンドポイントが有効な S3 URL であることが保証され、
LokiStack
ステータスが更新されて無効な URL が示されるようになります。(LOG-5395)
1.1.9.2. バグ修正
- この更新前は、LogQL 解析のバグにより、クエリーから一部の行フィルターが除外されていました。この更新により、元のクエリーが変更されることなく、すべての行フィルターが解析に含まれるようになりました。(LOG-5268)
-
この更新前は、
pruneFilterSpec
が定義されていないプルーニングフィルターによってセグメント違反が発生していました。この更新により、プルーニングフィルターにpuneFilterSpec
が定義されていない場合に検証エラーが発生します。(LOG-5322) -
この更新前は、
dropTestsSpec
が定義されていないドロップフィルターによってセグメント違反が発生していました。この更新により、プルーニングフィルターにpuneFilterSpec
が定義されていない場合に検証エラーが発生します。(LOG-5323) -
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイント URL 形式を検証していませんでした。この更新により、S3 エンドポイント URL には、
LokiStack
のステータスを反映する検証手順が実施されるようになります。(LOG-5397) -
この更新前は、監査ログレコード内のタイムスタンプフィールドの形式が適切でなかったために、Red Hat OpenShift Logging Operator ログに
WARN
メッセージが表示されていました。この更新により、タイムスタンプフィールドが再マップ変換で適切にフォーマットされるようになります。(LOG-4672) -
この更新の前は、
ClusterLogForwarder
リソース名と namespace の検証中に出力されたエラーメッセージは、正しいエラーに対応していませんでした。この更新により、システムは同じ名前のClusterLogForwarder
リソースが同じ namespace に存在するかどうかを確認します。そうでない場合は、正しいエラーに対応します。(LOG-5062) - この更新前は、設計上 URL が必要ない Amazon CloudWatch や Google Cloud ロギングなどのサービスであっても、出力設定の検証機能には TLS URL が必要でした。この更新により、URL のないサービスの検証ロジックが改善され、エラーメッセージの情報がよりわかりやすくなりました。(LOG-5307)
- この更新前は、インフラストラクチャー入力タイプを定義しても、ログ記録ワークロードがコレクションから除外されませんでした。この更新により、フィードバックループを回避するために、コレクションからログサービスが除外されます。(LOG-5309)
1.1.9.3. CVE
CVE はありません。
1.1.10. Logging 5.9.0
このリリースには、OpenShift Logging バグ修正リリース 5.9.0 が含まれています。
1.1.10.1. 削除通知
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。以前のロギングリリースの OpenShift Elasticsearch Operator のインスタンスは、ロギングリリースの EOL までサポートされます。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
1.1.10.2. 非推奨のお知らせ
- Logging 5.9 では、Fluentd および Kibana が非推奨となり、Logging 6.0 で削除される予定です。Logging 6.0 は、今後の OpenShift Container Platform リリースに同梱される見込みです。Red Hat は、現行リリースのライフサイクルにおいて、該当コンポーネントの「重大」以上の CVE に対するバグ修正とサポートを提供しますが、機能拡張は提供しません。Red Hat OpenShift Logging Operator が提供する Vector ベースのコレクターと、Loki Operator が提供する LokiStack は、ログの収集と保存に推奨される Operator です。Vector および Loki ログスタックは今後強化される予定であるため、すべてのユーザーに対しこのスタックの採用が推奨されます。
-
Logging 5.9 では、Splunk 出力タイプの
Fields
オプションが実装されていません。現在、このオプションは非推奨となっています。これは今後のリリースで削除されます。
1.1.10.3. 機能拡張
1.1.10.3.1. ログの収集
-
この機能拡張により、ワークロードのメタデータを使用して、その内容に基づいてログを
drop
またはprune
することで、ログ収集のプロセスを改善する機能が追加されます。さらに、ジャーナルログやコンテナーログなどのインフラストラクチャーログ、およびkube api
ログやovn
ログなどの監査ログを収集して、個々のソースのみを収集することもできます。(LOG-2155) - この機能拡張により、新しいタイプのリモートログレシーバーである syslog レシーバーが導入されます。これにより、ネットワーク経由でポートを公開するように設定し、外部システムが rsyslog などの互換性のあるツールを使用して syslog ログを送信することができます。(LOG-3527)
-
この更新により、
ClusterLogForwarder
API は Azure Monitor ログへのログ転送をサポートするようになり、ユーザーのモニタリング機能が向上します。この機能により、ユーザーは最適なシステムパフォーマンスを維持し、Azure Monitor のログ分析プロセスを合理化できるため、問題解決が迅速化され、運用効率が向上します。(LOG-4605) -
この機能拡張により、コレクターを 2 つのレプリカを持つデプロイメントとしてデプロイすることで、コレクターリソースの使用率が向上します。これは、すべてのノードでデーモンセットを使用するのではなく、
ClusterLogForwarder
カスタムリソース (CR) で定義されている唯一の入力ソースがレシーバー入力である場合に発生します。さらに、この方法でデプロイされたコレクターは、ホストファイルシステムをマウントしません。この機能拡張を使用するには、ClusterLogForwarder
CR に、logging.openshift.io/dev-preview-enable-collector-as-deployment
アノテーションを付ける必要があります。(LOG-4779) - この機能拡張により、サポートされているすべての出力にわたって、カスタムテナント設定の機能が導入され、ログレコードを論理的に整理できるようになります。ただし、管理対象ストレージのロギングに対するカスタムテナント設定は許可されません。(LOG-4843)
-
この更新により、
default
、openshift*
、kube*
などの 1 つ以上のインフラストラクチャー namespace を使用してアプリケーション入力を指定するClusterLogForwarder
CR には、collect-infrastructure-logs
ロールを持つサービスアカウントが必要になりました。(LOG-4943) -
この機能拡張により、圧縮、再試行期間、最大ペイロードなどの出力設定を、受信者の特性に合わせて調整する機能が導入されました。さらに、この機能には、管理者がスループットとログの耐久性を選択できる配信モードが含まれています。たとえば、
AtLeastOnce
オプションは、収集されたログのディスクバッファーリングを最小限に設定し、コレクターが再起動後にそれらのログを配信できるようにします。(LOG-5026) - この機能拡張により、Elasticsearch、Fluentd、Kibana の廃止についてユーザーに警告する 3 つの新しい Prometheus アラートが追加されました。(LOG-5055)
1.1.10.3.2. ログのストレージ
- LokiStack のこの機能拡張により、新しい V13 オブジェクトストレージ形式を使用し、デフォルトで自動ストリームシャーディングを有効にすることで、OTEL のサポートが向上します。これにより、コレクターは今後の機能拡張や設定にも備えることができます。(LOG-4538)
-
この機能拡張により、STS 対応の OpenShift Container Platform 4.14 以降のクラスターで、Azure および AWS ログストアにおける有効期間の短いトークンワークロードアイデンティティーフェデレーションのサポートが導入されます。ローカルストレージには、LokiStack CR の
spec.storage.secret
の下にCredentialMode: static
アノテーションを追加する必要があります。(LOG-4540) - この更新により、Azure ストレージシークレットの検証が拡張され、特定のエラー状態に対する早期警告が可能になりました。(LOG-4571)
- この更新により、Loki は、GCP ワークロードアイデンティティーフェデレーションメカニズムのアップストリームおよびダウンストリームサポートを追加するようになりました。これにより、対応するオブジェクトストレージサービスへの認証および承認されたアクセスが可能になります。(LOG-4754)
1.1.10.4. バグ修正
-
この更新前は、ロギングの must-gather は FIPS 対応のクラスターでログを収集できませんでした。この更新により、
cluster-logging-rhel9-operator
で新しいoc
クライアントが利用できるようになり、must-gather が FIPS クラスターで適切に動作するようになりました。(LOG-4403) - この更新前は、LokiStack ルーラー Pod は、Pod 間通信に使用される HTTP URL で IPv6 Pod IP をフォーマットできませんでした。この問題により、Prometheus と互換性のある API を介したルールとアラートのクエリーが失敗していました。この更新により、LokiStack ルーラー Pod は IPv6 Pod IP を角かっこでカプセル化し、問題を解決しています。現在、Prometheus と互換性のある API を介したルールとアラートのクエリーは、IPv4 環境の場合と同じように機能するようになりました。(LOG-4709)
- この修正前は、ロギングの must-gather からの YAML コンテンツが 1 行でエクスポートされていたため、判読不能でした。この更新により、YAML の空白が保持され、ファイルが適切にフォーマットされるようになります。(LOG-4792)
-
この更新前は、
ClusterLogForwarder
CR が有効になっていると、ClusterLogging.Spec.Collection
が nil のときに Red Hat OpenShift Logging Operator で nil ポインター例外が発生する可能性がありました。この更新により、この問題は Red Hat OpenShift Logging Operator で解決されました。(LOG-5006) -
この更新前は、特定のコーナーケースで、
ClusterLogForwarder
CR ステータスフィールドを置き換えると、Status
条件のタイムスタンプが変更されるため、resourceVersion
が常に更新されていました。この状況により、無限の調整ループが発生しました。この更新により、すべてのステータス条件が同期されるため、条件が同じであればタイムスタンプは変更されません。(LOG-5007) -
この更新前は、コレクターによるメモリー消費量の増加に対処するために、
drop_newest
で内部バッファーリング動作が行われ、大量のログ損失が発生していました。この更新により、動作はコレクターのデフォルトを使用するようになりました。(LOG-5123) -
この更新前は、
openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、静的トークンと CA ファイルを認証に使用していました。そのため、ServiceMonitor
設定の User Workload Monitoring 仕様の Prometheus Operator でエラーが発生していました。この更新により、openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、LocalReference
オブジェクトによってサービスアカウントトークンシークレットを参照するようになりました。このアプローチにより、Prometheus Operator の User Workload Monitoring 仕様が Loki Operator のServiceMonitor
を正常に処理できるようになり、Prometheus が Loki Operator メトリクスを収集できるようになりました。(LOG-5165) -
この更新前は、Loki Operator の
ServiceMonitor
の設定が多くの Kubernetes サービスと一致することがありました。その結果、Loki Operator のメトリクスが複数回収集されることがありました。この更新により、ServiceMonitor
の設定が専用のメトリクスサービスのみと一致するようになりました。(LOG-5212)
1.1.10.5. 既知の問題
なし。
1.1.10.6. CVE
1.2. Logging 5.8
Logging は、コアの OpenShift Container Platform とは異なるリリースサイクルで、インストール可能なコンポーネントとして提供されます。Red Hat OpenShift Container Platform ライフサイクルポリシー は、リリースの互換性を概説しています。
stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。
1.2.1. Logging 6.0.2
このリリースには、RHBA-2024:10052 および RHBA-2024:10053 が含まれます。
1.2.1.1. バグ修正
1.2.1.2. CVE
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-6119
- CVE-2024-6232
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
1.2.2. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.2.1. バグ修正
-
今回の更新以前は、
ClusterLogForwarder
カスタムリソースの.containerLimit.maxRecordsPerSecond
パラメーターを0
に設定できました。これにより、Vector の起動中に例外が発生する可能性がありました。今回の更新により、適用される前に設定が検証され、無効な値(ゼロ以下)は拒否されます。(LOG-6402) -
この更新の前は、Loki Operator はデフォルトの
namespace
ラベルをすべてのアラートルールに自動的に追加しなかったため、ユーザー定義プロジェクトの Alertmanager インスタンスがそのようなアラートのルーティングを省略していました。今回の更新により、すべてのアラートルールおよび記録ルールにはnamespace
ラベルがあり、Alertmanager はこれらのアラートを正しくルーティングするようになりました。(LOG-6402) - この更新の前は、LokiStack ルーラーコンポーネントビューが適切に初期化されなかったため、ルーラーコンポーネントが無効であったときに無効なフィールドエラーが発生していました。今回の更新により、この問題は、空の値で初期化されるコンポーネントビューによって解決されました。(LOG-6402)
1.2.2.2. CVE
Red Hat のセキュリティー評価の詳細は、重大度評価 を参照してください。
1.2.3. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.3.1. バグ修正
-
今回の更新以前は、Fluentd がコレクタータイプとして使用された場合に
clusterlogforwarder.spec.outputs.http.timeout
パラメーターは Fluentd 設定に適用されず、HTTP タイムアウトが誤って設定されていました。今回の更新により、clusterlogforwarder.spec.outputs.http.timeout
パラメーターが正しく適用され、Fluentd が指定されたタイムアウトを受け入れ、ユーザーの設定に応じて HTTP 接続を処理するようになりました。(LOG-6402) - 今回の更新以前は、Elasticsearch Operator は今後の削除についてユーザーに通知するアラートを発行しず、既存のインストールは通知なしにサポートされていませんでした。今回の更新により、Elasticsearch Operator は OpenShift Container Platform バージョン 4.16 以降で継続的なアラートがトリガーされ、2025 年 11 月のカタログからの削除をユーザーに通知します。(LOG-6402)
- 今回の更新以前は、Red Hat OpenShift Logging Operator は OpenShift Container Platform バージョン 4.16 以降で利用できず、Telco のお客様は今後の Logging 6.0 リリースの認定を完了できませんでした。今回の更新により、Red Hat OpenShift Logging Operator が OpenShift Container Platform バージョン 4.16 および 4.17 で利用できるようになりました。(LOG-6402)
- 今回の更新以前は、Elasticsearch Operator は OpenShift Container Platform バージョン 4.17 および 4.18 で利用できず、ServiceMesh、Kiali、および分散トレースがインストールされませんでした。今回の更新では、Elasticsearch Operator プロパティーが OpenShift Container Platform バージョン 4.17 および 4.18 に対して拡張され、問題を解決し、ServiceMesh、Kiali、および分散 Tracing Operator がスタックをインストールできるようになりました。(LOG-6402)
1.2.3.2. CVE
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-6104
- CVE-2024-6119
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-34397
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-39331
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-45490
- CVE-2024-45491
- CVE-2024-45492
- CVE-2024-2398
- CVE-2024-22201
- CVE-2024-6232
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-39331
- CVE-2024-45490
- CVE-2024-45491
- CVE-2024-45492
Red Hat のセキュリティー評価の詳細は、重大度評価 を参照してください。
1.2.4. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.4.1. バグ修正
-
この更新の前は、コレクターは
drop_newest
設定で内部バッファリングを使用して、メモリー使用率が高いため、ログが大幅に失われていました。今回の更新により、コレクターは default behavior に戻ります。この場合、sink<>.buffer
はカスタマイズされません。(LOG-6402)
1.2.4.2. CVE
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-2398
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-37370
- CVE-2024-37371
- CVE-2024-37891
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
1.2.5. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.5.1. バグ修正
-
この更新の前は、ブローカー URL スキーマを検証せずに TLS セクションが追加され、URL が
tls
で開始されなかった場合に SSL 接続エラーが発生していました。今回の更新により、ブローカー URL がtls
で始まる場合にのみ TLS セクションが追加され、SSL 接続エラーが発生しなくなりました。(LOG-6402) - この更新の前は、Loki Operator は検証の失敗によりログイベントをドロップしたときにアラートをトリガーしませんでした。この更新では、Loki Operator に、検証の失敗により Loki がログイベントをドロップした場合にアラートをトリガーする新しいアラート定義が含まれるようになりました。(LOG-6402)
- 今回の更新以前は、4.16 GA カタログには Elasticsearch Operator 5.8 が含まれておらず、Service Mesh、Kiali、Tracing などの製品のインストールが妨げられていました。今回の更新では、Elasticsearch Operator 5.8 が 4.16 で利用可能になり、問題を解決し、これらの製品に対する Elasticsearch ストレージのみをサポートするようになりました。(LOG-6402)
- この更新の前は、LokiStack リソースステータスの重複条件により、Loki Operator からのメトリクスが無効になっていました。この更新により、Operator はステータスから重複した条件を削除します。(LOG-6402)
- この更新の前は、Loki Operator が LokiStack Route リソース上のユーザーアノテーションを上書きし、カスタマイズが削除されていました。この更新により、Loki Operator は Route アノテーションを上書きしなくなり、問題が修正されました。(LOG-6402)
1.2.5.2. CVE
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-36270
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
1.2.6. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.6.1. 既知の問題
- この更新の前は、保持を有効にすると、Loki Operator は無効な設定を生成していました。その結果、Loki が適切に起動しませんでした。今回の更新により、Loki Pod が保持を設定できるようになりました。(LOG-6402)
1.2.6.2. バグ修正
-
この更新の前は、
ClusterLogForwarder
によって、RFC3164
仕様に準拠しないメッセージペイロードに余分なスペースが導入されていました。この更新により、余分なスペースが削除され、問題が修正されました。(LOG-6402)
1.2.6.3. CVE
1.2.7. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.7.1. バグ修正
- この更新の前は、ログが生成された場合でも、存在しなくなった Pod を選択できないという問題がありました。この更新ではこの問題が修正され、このような Pod を選択できるようになりました。(LOG-6402)
-
この更新の前は、LokiStack にボリューム API のルートがないため、次のエラーが発生しました:
404 not found
。この更新により、LokiStack は Volume API を公開し、問題を解決しました。(LOG-6402) -
この更新の前は、Elasticsearch Operator は、所有権を考慮せずにすべてのサービスアカウントアノテーションを上書きしていました。その結果、
kube-controller-manager
は、所有するサービスアカウントへのリンクをログに記録したため、サービスアカウントシークレットを再作成します。今回の更新により、Elasticsearch Operator はアノテーションをマージし、問題が解決されました。(LOG-6402)
1.2.7.2. CVE
1.2.8. Logging 5.8.8
このリリースには、OpenShift Logging バグ修正リリース 5.8.8 と OpenShift Logging バグ修正リリース 5.8.8 が含まれています。
1.2.8.1. バグ修正
-
この更新前は、Loki Operator が
1x.demo
サイズのログ先行書き込みreplay_memory_ceiling
を 0 バイトに設定していたため、LokiStack
を設定するときに Ingester の再起動に遅延が発生していました。この更新により、遅延を回避するためにreplay_memory_ceiling
に使用される最小値が増加されました。(LOG-5615)
1.2.8.2. CVE
- CVE-2020-15778
- CVE-2021-43618
- CVE-2023-6004
- CVE-2023-6597
- CVE-2023-6918
- CVE-2023-7008
- CVE-2024-0450
- CVE-2024-2961
- CVE-2024-22365
- CVE-2024-25062
- CVE-2024-26458
- CVE-2024-26461
- CVE-2024-26642
- CVE-2024-26643
- CVE-2024-26673
- CVE-2024-26804
- CVE-2024-28182
- CVE-2024-32487
- CVE-2024-33599
- CVE-2024-33600
- CVE-2024-33601
- CVE-2024-33602
1.2.9. Logging 5.8.7
このリリースには、OpenShift Logging バグ修正リリース 5.8.7 セキュリティー更新 と OpenShift Logging バグ修正リリース 5.8.7 が含まれています。
1.2.9.1. バグ修正
-
この更新前は、
<type>
ログ (監査、インフラストラクチャー、またはアプリケーション) が収集されていない場合、elasticsearch-im-<type>-*
Pod は失敗していました。この更新により、<type>
ログが収集されない場合に Pod が失敗しなくなりました。(LOG-4949) - この更新前は、設計上 URL が必要ない Amazon CloudWatch や Google Cloud ロギングなどのサービスであっても、出力設定の検証機能には SSL/TLS URL が必要でした。この更新により、URL のないサービスの検証ロジックが改善され、エラーメッセージの情報がよりわかりやすくなりました。(LOG-5467)
- この更新前は、Logging Operator のメトリクス収集コードの問題により、古いテレメトリーメトリクスが報告されていました。この更新により、Logging Operator は古いテレメトリーメトリクスを報告しなくなりました。(LOG-5471)
-
この更新前は、ロギング Operator への変更により、
ClusterLogForwarder
CR の設定が正しくなかったためにエラーが発生しました。その結果、logging へのアップグレードによりデーモンセットコレクターが削除されました。この更新により、Logging Operator は、Not authorized to collect
エラーが発生した場合を除き、コレクターデーモンセットを再作成します。(LOG-5514)
1.2.9.2. CVE
- CVE-2020-26555
- CVE-2021-29390
- CVE-2022-0480
- CVE-2022-38096
- CVE-2022-40090
- CVE-2022-45934
- CVE-2022-48554
- CVE-2022-48624
- CVE-2023-2975
- CVE-2023-3446
- CVE-2023-3567
- CVE-2023-3618
- CVE-2023-3817
- CVE-2023-4133
- CVE-2023-5678
- CVE-2023-6040
- CVE-2023-6121
- CVE-2023-6129
- CVE-2023-6176
- CVE-2023-6228
- CVE-2023-6237
- CVE-2023-6531
- CVE-2023-6546
- CVE-2023-6622
- CVE-2023-6915
- CVE-2023-6931
- CVE-2023-6932
- CVE-2023-7008
- CVE-2023-24023
- CVE-2023-25193
- CVE-2023-25775
- CVE-2023-28464
- CVE-2023-28866
- CVE-2023-31083
- CVE-2023-31122
- CVE-2023-37453
- CVE-2023-38469
- CVE-2023-38470
- CVE-2023-38471
- CVE-2023-38472
- CVE-2023-38473
- CVE-2023-39189
- CVE-2023-39193
- CVE-2023-39194
- CVE-2023-39198
- CVE-2023-40745
- CVE-2023-41175
- CVE-2023-42754
- CVE-2023-42756
- CVE-2023-43785
- CVE-2023-43786
- CVE-2023-43787
- CVE-2023-43788
- CVE-2023-43789
- CVE-2023-45288
- CVE-2023-45863
- CVE-2023-46862
- CVE-2023-47038
- CVE-2023-51043
- CVE-2023-51779
- CVE-2023-51780
- CVE-2023-52434
- CVE-2023-52448
- CVE-2023-52476
- CVE-2023-52489
- CVE-2023-52522
- CVE-2023-52529
- CVE-2023-52574
- CVE-2023-52578
- CVE-2023-52580
- CVE-2023-52581
- CVE-2023-52597
- CVE-2023-52610
- CVE-2023-52620
- CVE-2024-0565
- CVE-2024-0727
- CVE-2024-0841
- CVE-2024-1085
- CVE-2024-1086
- CVE-2024-21011
- CVE-2024-21012
- CVE-2024-21068
- CVE-2024-21085
- CVE-2024-21094
- CVE-2024-22365
- CVE-2024-25062
- CVE-2024-26582
- CVE-2024-26583
- CVE-2024-26584
- CVE-2024-26585
- CVE-2024-26586
- CVE-2024-26593
- CVE-2024-26602
- CVE-2024-26609
- CVE-2024-26633
- CVE-2024-27316
- CVE-2024-28834
- CVE-2024-28835
1.2.10. Logging 5.8.6
このリリースには、OpenShift Logging バグ修正リリース 5.8.6 セキュリティー更新 と OpenShift Logging バグ修正リリース 5.8.6 が含まれています。
1.2.10.1. 機能拡張
-
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイントを検証していませんでした。この更新により、検証プロセスによって S3 エンドポイントが有効な S3 URL であることが保証され、
LokiStack
ステータスが更新されて無効な URL が示されるようになります。(LOG-5392) - この更新前は、Loki Operator は、廃止された Amazon Simple Storage Service (S3) に対してパスベースのスタイルのアクセスを使用するように Loki を設定していました。この更新により、Loki Operator は、ユーザーが設定を変更しなくても、デフォルトで仮想ホストスタイルになります。(LOG-5402)
1.2.10.2. バグ修正
-
この更新前は、
openshift-operators-redhat
namespace の Elastisearch OperatorServiceMonitor
は認証に静的トークンと証明機関 (CA) ファイルを使用していたため、ServiceMonitor
設定のユーザーワークロードモニタリング仕様の Prometheus Operator でエラーが発生しました。この更新により、openshift-operators-redhat
namespace の Elastisearch Operator のServiceMonitor
が、LocalReference
オブジェクトによってサービスアカウントトークンシークレットを参照するようになりました。このアプローチにより、Prometheus Operator のユーザーワークロードモニタリング仕様が Elastisearch OperatorServiceMonitor
を正常に処理できるようになります。これにより、Prometheus は Elastisearch Operator メトリクスをスクレイピングできるようになります。(LOG-5164) -
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイント URL 形式を検証していませんでした。この更新により、S3 エンドポイント URL には、
LokiStack
のステータスを反映する検証手順が実施されるようになります。(LOG-5398)
1.2.10.3. CVE
1.2.11. Logging 5.8.5
このリリースには、OpenShift Logging バグ修正リリース 5.8.5 が含まれています。
1.2.11.1. バグ修正
-
この更新前は、Loki Operator の
ServiceMonitor
の設定が多くの Kubernetes サービスと一致することがありました。その結果、Loki Operator のメトリクスが複数回収集されることがありました。この更新により、ServiceMonitor
の設定が専用のメトリクスサービスのみと一致するようになりました。(LOG-5250) - この更新前は、Red Hat のビルドパイプラインが Loki ビルドの既存のビルド詳細を使用せず、リビジョン、ブランチ、バージョンなどの情報を省略していました。この更新により、Red Hat のビルドパイプラインがこれらの詳細を Loki ビルドに追加するようになり、問題が修正されました。(LOG-5201)
-
この更新前は、
LokiStack
の準備ができているかどうかを判断するために、Pod が実行中かどうかを Loki Operator がチェックしていました。この更新により、Pod の準備ができているかどうかも Loki Operator がチェックするようになり、LokiStack
の準備状況がそのコンポーネントの状態を反映するようになりました。(LOG-5171) - この更新前は、ログメトリクスのクエリーを実行すると、ヒストグラムでエラーが発生していました。この更新により、ヒストグラムの切り替え機能とグラフが無効になり、非表示になりました。ヒストグラムはログメトリクスでは機能しないためです。(LOG-5044)
-
この更新前は、Loki および Elasticsearch バンドルの
maxOpenShiftVersion
が間違っていました。その結果、IncompatibilityOperatorsInstalled
アラートが発生していました。この更新により、バンドルのmaxOpenShiftVersion
プロパティーとして 4.16 が追加され、問題が修正されました。(LOG-5272) -
この更新前は、ビルドパイプラインにビルド日付のリンカーフラグが含まれていなかったため、Loki ビルドの
buildDate
とgoVersion
に空の文字列が表示されていました。この更新により、欠落していたリンカーフラグがビルドパイプラインに追加され、問題が修正されました。(LOG-5274) - この更新前は、LogQL 解析のバグにより、クエリーから一部の行フィルターが除外されていました。この更新により、元のクエリーが変更されることなく、すべての行フィルターが解析に含まれるようになりました。(LOG-5270)
-
この更新前は、
openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、静的トークンと CA ファイルを認証に使用していました。そのため、ServiceMonitor
設定の User Workload Monitoring 仕様の Prometheus Operator でエラーが発生していました。この更新により、openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、LocalReference
オブジェクトによってサービスアカウントトークンシークレットを参照するようになりました。このアプローチにより、Prometheus Operator の User Workload Monitoring 仕様が Loki Operator のServiceMonitor
を正常に処理できるようになり、Prometheus が Loki Operator メトリクスを収集できるようになりました。(LOG-5240)
1.2.11.2. CVE
1.2.12. Logging 5.8.4
このリリースには、OpenShift Logging バグ修正リリース 5.8.4 が含まれています。
1.2.12.1. バグ修正
- この更新まで、開発者コンソールのログでは現在の namespace が考慮されなかったため、クラスター全体のログアクセスを持たないユーザーのクエリーが拒否されていました。今回の更新により、サポートされているすべての OCP バージョンで、正しい namespace が確実に含まれるようになりました。(LOG-4905)
-
この更新まで、Cluster Logging Operator は、デフォルトのログ出力が LokiStack の場合にのみ、LokiStack デプロイメントをサポートする
ClusterRoles
をデプロイしていました。今回の更新により、このロールは読み取りおよび書き込みの 2 つのグループに分割されました。書き込みロールは、これまで使用されていたすべてのロールと同様に、デフォルトのログストレージ設定に基づきデプロイされます。読み取りロールは、ロギングコンソールプラグインがアクティブかどうかに基づきデプロイされます。(LOG-4987) -
この更新まで、1 つのサービスで
ownerReferences
が変更されると、同じ出力レシーバー名を定義する複数のClusterLogForwarder
はサービスを延々と調整していました。今回の更新により、各レシーバー入力には、<CLF.Name>-<input.Name>
の規則に準じて名付けられた独自のサービスが追加されます。(LOG-5009) -
この更新まで、
ClusterLogForwarder
は、シークレットなしでログを cloudwatch に転送する際にエラーを報告しませんでした。今回の更新により、シークレットなしでログを cloudwatch に転送すると、secret must be provided for cloudwatch output
のエラーメッセージが表示されるようになりました。(LOG-5021) -
この更新まで、
log_forwarder_input_info
にはapplication
、infrastructure
、audit
の入力メトリクスポイントが含まれていました。今回の更新により、http
もメトリクスポイントとして追加されました。(LOG-5043)
1.2.12.2. CVE
- CVE-2021-35937
- CVE-2021-35938
- CVE-2021-35939
- CVE-2022-3545
- CVE-2022-24963
- CVE-2022-36402
- CVE-2022-41858
- CVE-2023-2166
- CVE-2023-2176
- CVE-2023-3777
- CVE-2023-3812
- CVE-2023-4015
- CVE-2023-4622
- CVE-2023-4623
- CVE-2023-5178
- CVE-2023-5363
- CVE-2023-5388
- CVE-2023-5633
- CVE-2023-6679
- CVE-2023-7104
- CVE-2023-27043
- CVE-2023-38409
- CVE-2023-40283
- CVE-2023-42753
- CVE-2023-43804
- CVE-2023-45803
- CVE-2023-46813
- CVE-2024-20918
- CVE-2024-20919
- CVE-2024-20921
- CVE-2024-20926
- CVE-2024-20945
- CVE-2024-20952
1.2.13. Logging 5.8.3
このリリースには、Logging Bug Fix 5.8.3 と Logging Security Fix 5.8.3 が含まれます。
1.2.13.1. バグ修正
- この更新前は、カスタム S3 認証局を読み取るように設定されている場合、ConfigMap の名前または内容が変更されても、Loki Operator は設定を自動的に更新しませんでした。今回の更新により、Loki Operator は ConfigMap への変更を監視し、生成された設定を自動的に更新します。(LOG-4969)
- この更新前は、設定された Loki 出力に有効な URL がない場合にコレクター Pod がクラッシュしていました。今回の更新により、出力は URL 検証の対象となり、問題が解決されました。(LOG-4822)
- この更新前は、Cluster Logging Operator は、サービスアカウントのベアラートークンを使用するためのシークレットを指定していない出力に対してコレクター設定フィールドを生成していました。今回の更新により、出力に認証が不要になり、問題が解決されました。(LOG-4962)
-
この更新前は、シークレットが定義されていない場合、出力の
tls.insecureSkipVerify
フィールドの値がtrue
に設定されませんでした。今回の更新により、この値を設定するためのシークレットは必要なくなりました。(LOG-4963) - この更新より前の出力設定では、セキュアではない (HTTP) URL と TLS 認証の組み合わせが許可されていました。今回の更新により、TLS 認証用に設定された出力にはセキュアな (HTTPS) URL が必要になります。(LOG-4893)
1.2.13.2. CVE
1.2.14. Logging 5.8.2
このリリースには、OpenShift Logging バグ修正リリース 5.8.2 が含まれています。
1.2.14.1. バグ修正
- この更新まで、LokiStack ルーラー Pod は、Pod 間通信に使用される HTTP URL の IPv6 Pod IP をフォーマットしなかったため、Prometheus 互換 API を介したルールとアラートのクエリーが失敗していました。この更新により、LokiStack ルーラー Pod は IPv6 Pod IP を角かっこでカプセル化して、問題を解決しました。(LOG-4890)
- この更新まで、開発者コンソールログは現在の namespace を考慮しなかったため、クラスター全体のログアクセスを持たないユーザーのクエリーが拒否されていました。今回の更新により、namespace の追加が修正され、問題が解決されました。(LOG-4947)
- この更新まで、OpenShift Container Platform Web コンソールのロギングビュープラグインは、カスタムのノード配置または toleration を許可しませんでした。今回の更新により、カスタムのノード配置と toleration の定義が OpenShift Container Platform Web コンソールのロギングビュープラグインに追加されました。(LOG-4912)
1.2.14.2. CVE
1.2.15. Logging 5.8.1
このリリースには、OpenShift Logging のバグ修正リリース 5.8.1 および OpenShift Logging のバグ修正リリース 5.8.1 Kibana が含まれています。
1.2.15.1. 機能拡張
1.2.15.1.1. ログの収集
1.2.15.2. バグ修正
-
この更新前は、JSON ログの解析を有効にすると、
ClusterLogForwarder
が、ロールオーバー条件が満たされていない場合でも、空のインデックスを作成していました。今回の更新により、write-index
が空の場合、ClusterLogForwarder
はロールオーバーをスキップするようになりました。(LOG-4452) -
この更新前は、Vector が
default
ログレベルを誤って設定していました。この更新により、ログレベル検出のための正規表現 (regexp
) の機能拡張により、正しいログレベルが設定されるようになりました。(LOG-4480) -
この更新前は、インデックスパターンの作成プロセス中に、各ログ出力の初期インデックスからデフォルトのエイリアスが欠落していました。その結果、Kibana ユーザーは OpenShift Elasticsearch Operator を使用してインデックスパターンを作成できませんでした。この更新により、不足しているエイリアスが OpenShift Elasticsearch Operator に追加され、問題が解決されます。Kibana ユーザーは、
{app,infra,audit}-000001
インデックスを含むインデックスパターンを作成できるようになりました。(LOG-4683) -
この更新前は、IPv6 クラスター上の Prometheus サーバーのバインドが原因で、Fluentd コレクター Pod が
CrashLoopBackOff
状態になっていました。この更新により、コレクターが IPv6 クラスター上で適切に動作するようになりました。(LOG-4706) -
この更新前は、
ClusterLogForwarder
に変更があるたびに Red Hat OpenShift Logging Operator が何度も調整を受けていました。この更新により、Red Hat OpenShift Logging Operator が、調整をトリガーしたコレクターデーモンセットのステータス変更を無視するようになりました。(LOG-4741) -
この更新前は、IBM Power マシン上で Vector ログコレクター Pod が
CrashLoopBackOff
状態のままになっていました。この更新により、Vector ログコレクター Pod が IBM Power アーキテクチャーマシン上で正常に起動するようになりました。(LOG-4768) -
この更新前は、従来のフォワーダーを使用して内部 LokiStack に転送すると、Fluentd コレクター Pod の使用により SSL 証明書エラーが発生していました。この更新により、ログコレクターサービスアカウントがデフォルトで認証に使用され、関連するトークンと
ca.crt
が使用されるようになりました。(LOG-4791) -
この更新前は、従来のフォワーダーを使用して内部 LokiStack に転送すると、Vector コレクター Pod の使用による SSL 証明書エラーが発生していました。この更新により、ログコレクターサービスアカウントがデフォルトで認証に使用され、関連するトークンと
ca.crt
も使用されるようになりました。(LOG-4852) - この修正が行われる前は、プレースホルダーに対して 1 つ以上のホストが評価された後、IPv6 アドレスが正しく解析されませんでした。この更新により、IPv6 アドレスが正しく解析されるようになりました。(LOG-4811)
-
この更新前は、HTTP レシーバー入力の監査権限を収集するために
ClusterRoleBinding
を作成する必要がありました。この更新により、ClusterRoleBinding
を作成する必要がなくなりました。エンドポイントがすでにクラスター認証局に依存しているためです。(LOG-4815) - この更新前は、Loki Operator がカスタム CA バンドルをルーラー Pod にマウントしませんでした。その結果、アラートルールまたは記録ルールを評価するプロセス中に、オブジェクトストレージへのアクセスが失敗していました。この更新により、Loki Operator がカスタム CA バンドルをすべてのルーラー Pod にマウントするようになりました。ルーラー Pod は、オブジェクトストレージからログをダウンロードして、アラートルールまたは記録ルールを評価できます。(LOG-4836)
-
この更新前は、
ClusterLogForwarder
のinputs.receiver
セクションを削除しても、HTTP 入力サービスとそれに関連するシークレットが削除されませんでした。この更新により、HTTP 入力リソースが、不要な場合に削除されるようになりました。(LOG-4612) -
この更新前は、
ClusterLogForwarder
のステータスに検証エラーが示されていても、出力とパイプラインのステータスにその問題が正確に反映されていませんでした。この更新により、出力、入力、またはフィルターが正しく設定されていない場合に、パイプラインステータスに検証失敗の理由が正しく表示されるようになりました。(LOG-4821) -
この更新前は、時間範囲や重大度などのコントロールを使用する
LogQL
クエリーを変更すると、ラベルマッチャー演算子が正規表現のように定義されて変更されました。この更新により、クエリーの更新時に正規表現演算子が変更されなくなりました。(LOG-4841)
1.2.15.3. CVE
- CVE-2007-4559
- CVE-2021-3468
- CVE-2021-3502
- CVE-2021-3826
- CVE-2021-43618
- CVE-2022-3523
- CVE-2022-3565
- CVE-2022-3594
- CVE-2022-4285
- CVE-2022-38457
- CVE-2022-40133
- CVE-2022-40982
- CVE-2022-41862
- CVE-2022-42895
- CVE-2023-0597
- CVE-2023-1073
- CVE-2023-1074
- CVE-2023-1075
- CVE-2023-1076
- CVE-2023-1079
- CVE-2023-1206
- CVE-2023-1249
- CVE-2023-1252
- CVE-2023-1652
- CVE-2023-1855
- CVE-2023-1981
- CVE-2023-1989
- CVE-2023-2731
- CVE-2023-3138
- CVE-2023-3141
- CVE-2023-3161
- CVE-2023-3212
- CVE-2023-3268
- CVE-2023-3316
- CVE-2023-3358
- CVE-2023-3576
- CVE-2023-3609
- CVE-2023-3772
- CVE-2023-3773
- CVE-2023-4016
- CVE-2023-4128
- CVE-2023-4155
- CVE-2023-4194
- CVE-2023-4206
- CVE-2023-4207
- CVE-2023-4208
- CVE-2023-4273
- CVE-2023-4641
- CVE-2023-22745
- CVE-2023-26545
- CVE-2023-26965
- CVE-2023-26966
- CVE-2023-27522
- CVE-2023-29491
- CVE-2023-29499
- CVE-2023-30456
- CVE-2023-31486
- CVE-2023-32324
- CVE-2023-32573
- CVE-2023-32611
- CVE-2023-32665
- CVE-2023-33203
- CVE-2023-33285
- CVE-2023-33951
- CVE-2023-33952
- CVE-2023-34241
- CVE-2023-34410
- CVE-2023-35825
- CVE-2023-36054
- CVE-2023-37369
- CVE-2023-38197
- CVE-2023-38545
- CVE-2023-38546
- CVE-2023-39191
- CVE-2023-39975
- CVE-2023-44487
1.2.16. Logging 5.8.0
このリリースには、OpenShift Logging のバグ修正リリース 5.8.0 および OpenShift Logging のバグ修正リリース 5.8.0 Kibana が含まれています。
1.2.16.1. 非推奨のお知らせ
Logging 5.8 で、Elasticsearch、Fluentd、および Kibana が非推奨となりました。これらは今後の OpenShift Container Platform リリースに同梱される見込みの Logging 6.0 で削除される予定です。Red Hat は、現行リリースのライフサイクルにおいて、該当コンポーネントの「重大」以上の CVE に対するバグ修正とサポートを提供しますが、機能拡張は提供しません。Red Hat OpenShift Logging Operator が提供する Vector ベースのコレクターと、Loki Operator が提供する LokiStack は、ログの収集と保存に推奨される Operator です。Vector および Loki ログスタックは今後強化される予定であるため、すべてのユーザーに対しこのスタックの採用が推奨されます。
1.2.16.2. 機能拡張
1.2.16.2.1. ログの収集
-
今回の更新により、LogFileMetricExporter はデフォルトでコレクターを使用してデプロイされなくなりました。実行中のコンテナーによって生成されたログからメトリクスを生成するには、
LogFileMetricExporter
カスタムリソース (CR) を手動で作成する必要があります。LogFileMetricExporter
CR を作成しない場合、OpenShift Container Platform Web コンソールのダッシュボードの Produced Logs に No datapoints found というメッセージが表示される場合があります。(LOG-3819) この更新により、RBAC で保護された複数の分離された
ClusterLogForwarder
カスタムリソース (CR) インスタンスを任意の namespace にデプロイできるようになります。これにより、独立したグループは、設定を他のコレクターデプロイメントから分離したまま、任意のログを任意の宛先に転送できます。(LOG-1343)重要openshift-logging
namespace 以外の追加の namespace でマルチクラスターログ転送をサポートするには、すべての namespace を監視するように Red Hat OpenShift Logging Operator を更新する必要があります。この機能は、新しい Red Hat OpenShift Logging Operator バージョン 5.8 インストールでデフォルトでサポートされています。- この更新により、フロー制御またはレート制限メカニズムを使用して、過剰なログレコードを削除することで収集または転送できるログデータの量を制限できるようになります。入力制限により、低パフォーマンスのコンテナーによる Logging の過負荷が防止され、出力制限により、指定されたデータストアへのログ送信レートに上限が設定されます。(LOG-884)
- この更新により、HTTP 接続を検索し、Webhook とも呼ばれる HTTP サーバーとしてログを受信するように、ログコレクターを設定できるようになりました。(LOG-4562)
- この更新により、監査ポリシーを設定して、ログコレクターによって転送される Kubernetes および OpenShift API サーバーイベントを制御できるようになりました。(LOG-3982)
1.2.16.2.2. ログのストレージ
- この更新により、LokiStack 管理者は、namespace ごとにログへのアクセスを許可することで、誰がどのログにアクセスできるかをより詳細に制御できるようになりました。(LOG-3841)
-
この更新では、Loki Operator によって LokiStack デプロイメントに
PodDisruptionBudget
設定が導入されました。その結果、OpenShift Container Platform クラスターの再起動中も、取り込みとクエリーパスの可用性が維持され、通常の操作を行えるようになりました。(LOG-3839) - この更新では、デフォルトのアフィニティーおよび非アフィニティーポリシーのセットを適用することで、既存の LokiStack インストールの信頼性がシームレスに向上しました。(LOG-3840)
- この更新により、ゾーンに障害が発生した場合の信頼性を高めるために、LokiStack で管理者としてゾーン対応のデータレプリケーションを管理できるようになりました。(LOG-3266)
- この更新により、いくつかのワークロードと小規模な取り込みボリューム (最大 100 GB/日) をホストする OpenShift Container Platform クラスターに、新しくサポートされた小規模な LokiStack サイズである 1x.extra-small が導入されました。(LOG-4329)
- この更新により、LokiStack 管理者は公式 Loki ダッシュボードにアクセスして、ストレージのパフォーマンスと各コンポーネントの正常性を検査できるようになりました。(LOG-4327)
1.2.16.2.3. ログコンソール
1.2.16.3. 既知の問題
現在、Red Hat OpenShift Logging Operator のバージョン 5.8 にアップグレードした後、Splunk ログ転送が機能しない場合があります。この問題は、OpenSSL バージョン 1.1.1 からバージョン 3.0.7 に移行することによって発生します。新しい OpenSSL バージョンでは、デフォルトの動作が変更され、TLS 1.2 エンドポイントへの接続は、RFC 5746 エクステンションを公開しない場合は拒否されます。
回避策として、Splunk HEC (HTTP Event Collector) エンドポイントの前にある TLS 終端ロードバランサーで TLS 1.3 サポートを有効にします。Splunk はサードパーティーシステムであるため、これは Splunk 側から設定する必要があります。
-
現在、HTTP/2 プロトコルでの多重化ストリームの処理には、新しい多重化ストリームを繰り返しリクエストし、直後に
RST_STREAM
フレームを送信してキャンセルできるという欠陥があります。これにより、サーバーのセットアップで余分な作業が発生し、ストリームが切断され、サーバーのリソース消費を原因とするサービス拒否が発生します。現在、この問題に対する回避策はありません。(LOG-4609) -
現在、FluentD をコレクターとして使用すると、コレクター Pod は OpenShift Container Platform IPv6 対応クラスター上で起動できません。Pod ログでは、
fluentd pod [error]: unexpected error error_class=SocketError error="getaddrinfo: Name or service not known
エラーが生成されます。現在、この問題に対する回避策はありません。(LOG-4706) - 現在、ログアラートは IPv6 対応クラスターで利用できません。現在、この問題に対する回避策はありません。(LOG-4709)
-
現在、
must-gather
は FIPS 対応クラスター上のログを収集できません。これは、必要な OpenSSL ライブラリーがcluster-logging-rhel9-operator
で使用できないためです。現在、この問題に対する回避策はありません。(LOG-4403) -
現在、FIPS 対応クラスターに Logging バージョン 5.8 をデプロイする場合に、FluentD をコレクターとして使用する間は、コレクター Pod を起動できず、
CrashLoopBackOff
ステータスでスタックします。現在、この問題に対する回避策はありません。(LOG-3933)
1.2.16.4. CVE
1.3. Logging 5.7
Logging は、コアの OpenShift Container Platform とは異なるリリースサイクルで、インストール可能なコンポーネントとして提供されます。Red Hat OpenShift Container Platform ライフサイクルポリシー は、リリースの互換性を概説しています。
stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。
1.3.1. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.3.1.1. バグ修正
-
この更新前は、Loki Operator が
1x.demo
サイズのログ先行書き込みreplay_memory_ceiling
を 0 バイトに設定していたため、LokiStack
を設定するときに Ingester の再起動に遅延が発生していました。この更新により、遅延を回避するためにreplay_memory_ceiling
に使用される最小値が増加されました。(LOG-6402)
1.3.1.2. CVE
- CVE-2024-22201
- CVE-2020-15778
- CVE-2024-22201
- CVE-2021-43618
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2023-6004
- CVE-2024-22201
- CVE-2023-6597
- CVE-2023-6918
- CVE-2023-7008
- CVE-2023-43785
- CVE-2023-43786
- CVE-2023-43787
- CVE-2023-43788
- CVE-2023-43789
- CVE-2023-52439
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2023-52578
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2023-52610
- CVE-2024-22201
- CVE-2024-0450
- CVE-2024-22365
- CVE-2024-22201
- CVE-2024-25062
- CVE-2024-22201
- CVE-2024-26458
- CVE-2024-26461
- CVE-2024-26593
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-26642
- CVE-2024-26643
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-22201
- CVE-2024-28834
- CVE-2024-33599
- CVE-2024-33600
- CVE-2024-33601
- CVE-2024-33602
1.3.2. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.3.2.1. バグ修正
- この更新前は、Logging Operator のメトリクス収集コードの問題により、古いテレメトリーメトリクスが報告されていました。この更新により、Logging Operator は古いテレメトリーメトリクスを報告しなくなりました。(LOG-6402)
1.3.2.2. CVE
1.3.3. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.3.3.1. 機能拡張
- この更新前は、Loki Operator は、廃止された Amazon Simple Storage Service (S3) に対してパスベースのスタイルのアクセスを使用するように Loki を設定していました。この更新により、Loki Operator は、ユーザーが設定を変更しなくても、デフォルトで仮想ホストスタイルになります。(LOG-6402)
-
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイントを検証していませんでした。この更新により、検証プロセスによって S3 エンドポイントが有効な S3 URL であることが保証され、
LokiStack
ステータスが更新されて無効な URL が示されるようになります。(LOG-6402)
1.3.3.2. バグ修正
-
この更新前は、
openshift-operators-redhat
namespace の Elastisearch OperatorServiceMonitor
は認証に静的トークンと証明機関 (CA) ファイルを使用していたため、ServiceMonitor
設定のユーザーワークロードモニタリング仕様の Prometheus Operator でエラーが発生しました。この更新により、openshift-operators-redhat
namespace の Elastisearch Operator のServiceMonitor
が、LocalReference
オブジェクトによってサービスアカウントトークンシークレットを参照するようになりました。このアプローチにより、Prometheus Operator のユーザーワークロードモニタリング仕様が Elastisearch OperatorServiceMonitor
を正常に処理できるようになります。これにより、Prometheus は Elastisearch Operator メトリクスをスクレイピングできるようになります。(LOG-6402) -
この更新前は、Loki Operator はストレージシークレットで使用される Amazon Simple Storage Service (S3) エンドポイント URL 形式を検証していませんでした。この更新により、S3 エンドポイント URL には、
LokiStack
のステータスを反映する検証手順が実施されるようになります。(LOG-6402)
1.3.3.3. CVE
1.3.4. Logging 6.0.2
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
1.3.4.1. バグ修正
-
この更新前は、
LokiStack
の準備ができているかどうかを判断するために、Pod が実行中かどうかを Loki Operator がチェックしていました。この更新により、Pod の準備ができているかどうかも Loki Operator がチェックするようになり、LokiStack
の準備状況がそのコンポーネントの状態を反映するようになりました。(LOG-6402) - この更新前は、Red Hat のビルドパイプラインが Loki ビルドの既存のビルド詳細を使用せず、リビジョン、ブランチ、バージョンなどの情報を省略していました。この更新により、Red Hat のビルドパイプラインがこれらの詳細を Loki ビルドに追加するようになり、問題が修正されました。(LOG-6402)
-
この更新前は、Loki Operator の
ServiceMonitor
の設定が多くの Kubernetes サービスと一致することがありました。その結果、Loki Operator のメトリクスが複数回収集されることがありました。この更新により、ServiceMonitor
の設定が専用のメトリクスサービスのみと一致するようになりました。(LOG-6402) -
この更新前は、ビルドパイプラインにビルド日付のリンカーフラグが含まれていなかったため、Loki ビルドの
buildDate
とgoVersion
に空の文字列が表示されていました。この更新により、欠落していたリンカーフラグがビルドパイプラインに追加され、問題が修正されました。(LOG-6402) -
この更新前は、
openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、静的トークンと CA ファイルを認証に使用していました。そのため、ServiceMonitor
設定の User Workload Monitoring 仕様の Prometheus Operator でエラーが発生していました。この更新により、openshift-operators-redhat
namespace の Loki Operator のServiceMonitor
が、LocalReference
オブジェクトによってサービスアカウントトークンシークレットを参照するようになりました。このアプローチにより、Prometheus Operator の User Workload Monitoring 仕様が Loki Operator のServiceMonitor
を正常に処理できるようになり、Prometheus が Loki Operator メトリクスを収集できるようになりました。(LOG-6402)
1.3.4.2. CVE
- CVE-2021-35937
- CVE-2021-35938
- CVE-2021-35939
- CVE-2022-3545
- CVE-2022-41858
- CVE-2023-1073
- CVE-2024-22201
- CVE-2023-2166
- CVE-2023-2176
- CVE-2023-4623
- CVE-2024-22201
- CVE-2023-5717
- CVE-2023-6135
- CVE-2023-6356
- CVE-2023-6535
- CVE-2023-6536
- CVE-2023-6606
- CVE-2023-6610
- CVE-2023-6817
- CVE-2023-7104
- CVE-2023-27043
- CVE-2023-40283
- CVE-2023-45871
- CVE-2023-46813
- CVE-2023-48795
- CVE-2023-51385
- CVE-2024-0553
- CVE-2024-0646
- CVE-2024-24786
1.3.5. Logging 5.7.11
このリリースには、ログのバグ修正 5.7.11 が含まれています。
1.3.5.1. バグ修正
-
この更新前は、カスタム S3 認証局を読み取るように設定されている場合、
ConfigMap
オブジェクトの名前または内容が変更されても、Loki Operator は設定を自動的に更新しませんでした。今回の更新により、Loki Operator はConfigMap
オブジェクトへの変更を監視し、生成された設定を自動的に更新するようになりました。(LOG-4968)
1.3.5.2. CVE
1.3.6. Logging 5.7.10
このリリースには、OpenShift Logging バグ修正リリース 5.7.10 が含まれています。
1.3.6.1. バグ修正
この更新まで、LokiStack ルーラー Pod は、Pod 間通信に使用される HTTP URL の IPv6 Pod IP をフォーマットしなかったため、Prometheus 互換 API を介したルールとアラートのクエリーが失敗していました。この更新により、LokiStack ルーラー Pod は IPv6 Pod IP を角かっこでカプセル化して、問題を解決しました。(LOG-4891)
1.3.6.2. CVE
- CVE-2007-4559
- CVE-2021-43975
- CVE-2022-3594
- CVE-2022-3640
- CVE-2022-4285
- CVE-2022-4744
- CVE-2022-28388
- CVE-2022-38457
- CVE-2022-40133
- CVE-2022-40982
- CVE-2022-41862
- CVE-2022-42895
- CVE-2022-45869
- CVE-2022-45887
- CVE-2022-48337
- CVE-2022-48339
- CVE-2023-0458
- CVE-2023-0590
- CVE-2023-0597
- CVE-2023-1073
- CVE-2023-1074
- CVE-2023-1075
- CVE-2023-1079
- CVE-2023-1118
- CVE-2023-1206
- CVE-2023-1252
- CVE-2023-1382
- CVE-2023-1855
- CVE-2023-1989
- CVE-2023-1998
- CVE-2023-2513
- CVE-2023-3138
- CVE-2023-3141
- CVE-2023-3161
- CVE-2023-3212
- CVE-2023-3268
- CVE-2023-3446
- CVE-2023-3609
- CVE-2023-3611
- CVE-2023-3772
- CVE-2023-3817
- CVE-2023-4016
- CVE-2023-4128
- CVE-2023-4132
- CVE-2023-4155
- CVE-2023-4206
- CVE-2023-4207
- CVE-2023-4208
- CVE-2023-4641
- CVE-2023-4732
- CVE-2023-5678
- CVE-2023-22745
- CVE-2023-23455
- CVE-2023-26545
- CVE-2023-28328
- CVE-2023-28772
- CVE-2023-30456
- CVE-2023-31084
- CVE-2023-31436
- CVE-2023-31486
- CVE-2023-33203
- CVE-2023-33951
- CVE-2023-33952
- CVE-2023-35823
- CVE-2023-35824
- CVE-2023-35825
- CVE-2023-38037
- CVE-2024-0443
1.3.7. Logging 5.7.9
このリリースには、OpenShift Logging バグ修正リリース 5.7.9 が含まれています。
1.3.7.1. バグ修正
- この修正が行われる前は、プレースホルダーに対して 1 つ以上のホストが評価された後、IPv6 アドレスが正しく解析されませんでした。この更新により、IPv6 アドレスが正しく解析されるようになりました。(LOG-4281)
-
この更新が行われる前は、Vector が IPv4 専用ノードで起動に失敗していました。その結果、メトリクスエンドポイントのリスナーの作成に失敗し、
Failed to start Prometheus exporter: TCP bind failed: Address family not supported by protocol (os error 97)
というエラーが発生していました。この更新により、Vector が IPv4 専用ノードで正常に動作するようになりました。(LOG-4589) -
この更新前は、インデックスパターンの作成プロセス中に、各ログ出力の初期インデックスからデフォルトのエイリアスが欠落していました。その結果、Kibana ユーザーは OpenShift Elasticsearch Operator を使用してインデックスパターンを作成できませんでした。この更新により、不足しているエイリアスが OpenShift Elasticsearch Operator に追加され、問題が解決されます。Kibana ユーザーは、
{app,infra,audit}-000001
インデックスを含むインデックスパターンを作成できるようになりました。(LOG-4806) - この更新が行われる前は、Loki Operator がカスタム CA バンドルをルーラー Pod にマウントしませんでした。その結果、アラートルールまたは記録ルールを評価するプロセス中に、オブジェクトストレージへのアクセスが失敗していました。この更新により、Loki Operator がカスタム CA バンドルをすべてのルーラー Pod にマウントするようになりました。ルーラー Pod は、オブジェクトストレージからログをダウンロードして、アラートルールまたは記録ルールを評価できます。(LOG-4837)
- この更新が行われる前は、時間範囲や重大度などのコントロールを使用して LogQL クエリーを変更すると、正規表現のように定義される場合と同じようにラベルマッチャー演算子が変更されました。この更新により、クエリーの更新時に正規表現演算子が変更されなくなりました。(LOG-4842)
- この更新が行われる前は、Vector コレクターのデプロイメントが、デフォルトの再試行およびバッファーリング動作に依存していました。そのため、出力の可用性が不安定な場合、配信パイプラインがすべてのメッセージを配信しようとしてバックアップを作成していました。この更新により、Vector コレクターのデプロイメントがメッセージの再試行の数を制限し、しきい値を超えた後にメッセージを破棄するようになりました。(LOG-4536)
1.3.7.2. CVE
- CVE-2007-4559
- CVE-2021-43975
- CVE-2022-3594
- CVE-2022-3640
- CVE-2022-4744
- CVE-2022-28388
- CVE-2022-38457
- CVE-2022-40133
- CVE-2022-40982
- CVE-2022-41862
- CVE-2022-42895
- CVE-2022-45869
- CVE-2022-45887
- CVE-2022-48337
- CVE-2022-48339
- CVE-2023-0458
- CVE-2023-0590
- CVE-2023-0597
- CVE-2023-1073
- CVE-2023-1074
- CVE-2023-1075
- CVE-2023-1079
- CVE-2023-1118
- CVE-2023-1206
- CVE-2023-1252
- CVE-2023-1382
- CVE-2023-1855
- CVE-2023-1981
- CVE-2023-1989
- CVE-2023-1998
- CVE-2023-2513
- CVE-2023-3138
- CVE-2023-3141
- CVE-2023-3161
- CVE-2023-3212
- CVE-2023-3268
- CVE-2023-3609
- CVE-2023-3611
- CVE-2023-3772
- CVE-2023-4016
- CVE-2023-4128
- CVE-2023-4132
- CVE-2023-4155
- CVE-2023-4206
- CVE-2023-4207
- CVE-2023-4208
- CVE-2023-4641
- CVE-2023-4732
- CVE-2023-22745
- CVE-2023-23455
- CVE-2023-26545
- CVE-2023-28328
- CVE-2023-28772
- CVE-2023-30456
- CVE-2023-31084
- CVE-2023-31436
- CVE-2023-31486
- CVE-2023-32324
- CVE-2023-33203
- CVE-2023-33951
- CVE-2023-33952
- CVE-2023-34241
- CVE-2023-35823
- CVE-2023-35824
- CVE-2023-35825
1.3.8. Logging 5.7.8
このリリースには、OpenShift Logging バグ修正リリース 5.7.8 が含まれています。
1.3.8.1. バグ修正
-
この更新前は、
ClusterLogForwarder
カスタムリソース (CR) のoutputRefs
パラメーターとinputRefs
パラメーターに同じ名前が使用されている場合、競合が発生することがありました。その結果、コレクター Pod がCrashLoopBackOff
ステータスになりました。この更新により、出力ラベルとパイプライン名を確実に区別するために、出力ラベルに接頭辞OUTPUT_
が含まれるようになりました。(LOG-4383) -
この更新前は、JSON ログパーサーの設定中に、クラスターログオペレーターの
structuredTypeKey
パラメーターまたはstructuredTypeName
パラメーターを設定しなかった場合、無効な設定に関するアラートが表示されませんでした。この更新により、Cluster Logging Operator が設定の問題を通知するようになりました。(LOG-4441) -
この更新前は、Splunk 出力に指定されたシークレットで
hecToken
キーが欠落しているか正しくない場合、Vector がトークンなしでログを Splunk に転送するため、検証が失敗していました。この更新により、hecToken
キーが見つからないか正しくない場合、検証は失敗し、A non-empty hecToken entry is required
というエラーメッセージが表示されるようになりました。(LOG-4580) -
この更新前は、ログの
Custom time range
から日付を選択すると、Web コンソールでエラーが発生していました。この更新により、Web コンソールで時間範囲モデルから日付を正常に選択できるようになりました。(LOG-4684)
1.3.8.2. CVE
1.3.9. Logging 5.7.7
このリリースには、OpenShift Logging バグ修正リリース 5.7.7 が含まれています。
1.3.9.1. バグ修正
- この更新前は、FluentD は Vector とは異なる方法で EventRouter によって出力されたログを正規化していました。この更新により、Vector は一貫した形式でログレコードを生成します。(LOG-4178)
- この更新前は、Cluster Logging Operator によって作成されたメトリクスダッシュボードの FluentD Buffer Availability グラフに使用されるクエリーに、最小バッファー使用量が表示されるため、エラーがありました。今回の更新により、グラフの最大バッファー使用量が表示され、名前が FluentD Buffer Usage に変更になりました。(LOG-4555)
-
この更新前は、IPv6 のみまたはデュアルスタックの OpenShift Container Platform クラスターに LokiStack をデプロイすると、LokiStack メンバーリストの登録が失敗していました。その結果、ディストリビューター Pod はクラッシュループに陥りました。この更新により、管理者は
lokistack.spec.hashRing.memberlist.enableIPv6:
値をtrue
に設定することで IPv6 を有効にできるようになり、問題は解決されました。(LOG-4569) - この更新前は、ログコレクターはデフォルトの設定をもとに、コンテナーのログ行を読み取っていました。その結果、ログコレクターはローテーションされたファイルを効率的に読み取ることができませんでした。今回の更新により、読み取りバイト数が増加し、ログコレクターがローテーションされたファイルを効率的に処理できるようになりました。(LOG-4575)
- この更新前は、Event Router 内の未使用のメトリクスにより、過剰なメモリー使用量が原因でコンテナーが失敗する原因となっていました。この更新により、未使用のメトリクスが削除され、イベントルーターのメモリー使用量が削減されました。(LOG-4686)
1.3.9.2. CVE
1.3.10. Logging 5.7.6
このリリースには、OpenShift Logging バグ修正リリース 5.7.6 が含まれています。
1.3.10.1. バグ修正
- この更新前は、コレクターはデフォルトの設定をもとに、コンテナーのログ行を読み取っていました。その結果、コレクターはローテーションされたファイルを効率的に読み取ることができませんでした。今回の更新により、読み取りバイト数が増加し、コレクターがローテーションされたファイルを効率的に処理できるようになりました。(LOG-4501)
- この更新前は、ユーザーが事前定義されたフィルターを含む URL を貼り付けた場合、一部のフィルターは反映されませんでした。今回の更新により、UI には URL 内のすべてのフィルターを反映します。(LOG-4459)
- この更新前は、Fluentd から Vector に切り替えるときに、カスタムラベルを使用して Loki に転送するとエラーが発生していました。今回の更新により、Vector 設定は Fluentd と同じ方法でラベルをサニタイズし、コレクターが確実に起動してラベルを正しく処理できるようになりました。(LOG-4460)
- この更新前は、Observability Logs コンソールの検索フィールドではエスケープする必要がある特殊文字を使用できませんでした。今回の更新により、クエリーで特殊文字を適切にエスケープするようになりました。(LOG-4456)
-
この更新前は、Splunk へのログの送信中に、
Timestamp was not found.
という警告メッセージが表示されました。今回の更新では、タイムスタンプの取得に使用されるログフィールドの名前が変更により上書きされ、警告なしに Splunk に送信されます。(LOG-4413) -
今回の更新が行われる前は、Vector の CPU とメモリーの使用量が時間の経過とともに増加していました。今回の更新により、Vector 設定に
expire_metrics_secs=60
設定が含まれるようになり、メトリクスの有効期間を制限し、関連する CPU 使用率とメモリーフットプリントが制限されます。(LOG-4171) - 今回の更新が行われる前は、LokiStack ゲートウェイは承認されたリクエストを非常に広範囲にキャッシュしていました。その結果、誤った認証結果が発生しました。今回の更新により、LokiStack ゲートウェイは詳細にキャッシュを行うようになり、この問題が解決されました。(LOG-4393)
- この更新前は、Fluentd ランタイムイメージには、実行時には不要なビルダーツールが含まれていました。今回の更新により、ビルダーツールが削除され、問題が解決されました。(LOG-4467)
1.3.10.2. CVE
1.3.11. Logging 5.7.4
このリリースには、OpenShift Logging バグ修正リリース 5.7.4 が含まれています。
1.3.11.1. バグ修正
-
この更新前は、ログを CloudWatch に転送するときに、
namespaceUUID
値がlogGroupName
フィールドに追加されませんでした。この更新では、namespaceUUID
値が含まれるため、CloudWatch のlogGroupName
はlogGroupName: vectorcw.b443fb9e-bd4c-4b6a-b9d3-c0097f9ed286
として表示されます。(LOG-2701) - この更新前は、HTTP 経由でログをクラスター外の宛先に転送する場合、プロキシー URL に正しい認証情報が指定されていたとしても、Vector コレクターはクラスター全体の HTTP プロキシーに対して認証できませんでした。この更新により、Vector ログコレクターはクラスター全体の HTTP プロキシーに対して認証できるようになりました。(LOG-3381)
- この更新前は、Fluentd コレクターが出力として Splunk を使用して設定されている場合、この設定がサポートされていないため、Operator は失敗していました。今回の更新により、設定検証でサポートされていない出力が拒否され、問題が解決されました。(LOG-4237)
-
この更新前は、Vector コレクターが更新されると、AWS Cloudwatch ログと GCP Stackdriver の TLS 設定の
enabled = true
値によって設定エラーが発生しました。この更新により、これらの出力のenabled = true
値が削除され、問題が解決されます。(LOG-4242) -
この更新前は、Vector コレクターに、ログに
thread 'vector-worker' panicked at 'all branches are disabled and there is no else branch', src/kubernetes/reflector.rs:26:9
エラーメッセージでパニックを発生させることがありました。今回の更新により、このエラーは解決されました。(LOG-4275) -
この更新前は、Loki Operator の問題により、Operator がそのテナントの追加オプションで設定されている場合、アプリケーションテナントの
alert-manager
設定が表示されなくなりました。今回の更新により、生成された Loki 設定にはカスタム設定と自動生成された設定の両方が含まれるようになりました。(LOG-4361) - この更新前は、AWS Cloudwatch 転送で STS を使用した認証に複数のロールが使用されていた場合、最近の更新により認証情報が一意でなくなりました。この更新により、STS ロールと静的認証情報の複数の組み合わせを再び AWS Cloudwatch での認証に使用できるようになりました。(LOG-4368)
- この更新前は、Loki はアクティブなストリームのラベル値をフィルタリングしていましたが、重複を削除しなかったため、Grafana の Label Browser が使用できなくなりました。今回の更新により、Loki はアクティブなストリームの重複するラベル値をフィルターで除外し、問題を解決しました。(LOG-4389)
-
ClusterLogForwarder
カスタムリソース (CR) でname
フィールドが指定されていないパイプラインが、OpenShift Logging 5.7 へのアップグレード後に機能しなくなりました。今回の更新により、このエラーは解決されました。(LOG-4120)
1.3.11.2. CVE
1.3.12. Logging 5.7.3
このリリースには、OpenShift Logging バグ修正リリース 5.7.3 が含まれています。
1.3.12.1. バグ修正
- この更新前は、OpenShift Container Platform Web コンソール内でログを表示する際に、キャッシュされたファイルが原因でデータがリフレッシュされませんでした。今回の更新により、ブートストラップファイルはキャッシュされなくなり、問題は解決しました。(LOG-4100)
- この更新前は、設定の問題が特定しにくい方法で Loki Operator がエラーをリセットしていました。今回の更新により、設定エラーが解決されるまでエラーが持続するようになりました。(LOG-4156)
-
この更新前は、
RulerConfig
カスタムリソース (CR) を変更すると LokiStack ルーラーが再起動しませんでした。今回の更新により、Loki Operator はRulerConfig
CR の更新後にルーラー Pod を再起動するようになりました。(LOG-4161) -
この更新前は、入力一致ラベル値の
ClusterLogForwarder
内に/
文字が含まれる場合は、vector コレクターが予期せず終了していました。今回の更新では、一致ラベルを引用符で囲み、コレクターがログを開始および収集できるようにすることで問題が解決されました。(LOG-4176) -
この更新前は、
LokiStack
CR がグローバル制限ではなくテナント制限を定義している場合、Loki Operator が予期せず終了していました。今回の更新では、Loki Operator がグローバル制限なしでLokiStack
CR を処理できるようになり、問題が解決されました。(LOG-4198) - この更新前は、提供された秘密鍵がパスフレーズで保護されていた場合、Fluentd はログを Elasticsearch クラスターに送信しませんでした。今回の更新では、Fluentd は Elasticsearch との接続を確立する際に、パスフレーズで保護される秘密鍵を適切に処理するようになりました。(LOG-4258)
-
この更新前は、8,000 を超える namespace を持つクラスターの場合、namespace のリストが
http.max_header_size
設定よりも大きくなるため Elasticsearch がクエリーを拒否していました。今回の更新では、ヘッダーサイズのデフォルト値が引き上げられ、問題が解決されました。(LOG-4277) -
この更新前は、
ClusterLogForwarder
CR 内に/
の文字を含むラベル値が原因で、コレクターが予期せず終了していました。今回の更新では、スラッシュがアンダースコアに置き換えられ、問題が解決されました。(LOG-4095) -
この更新前は、unmanaged 状態に設定された Cluster Logging Operator が予期せず終了していました。今回の更新では、
ClusterLogForwarder
CR の調整を開始する前にClusterLogging
リソースが適切な Management 状態にあることを確認するチェックが実施されるようになり、問題が解決されました。(LOG-4177) - この更新前は、OpenShift Container Platform Web コンソール内でログを表示するときに、ヒストグラムをドラッグして時間範囲を選択しても、Pod 詳細内の集約ログビューでは機能しませんでした。今回の更新では、このビューのヒストグラムをドラッグして時間範囲を選択できるようになりました。(LOG-4108)
- この更新前は、OpenShift Container Platform Web コンソール内でログを表示すると、30 秒を超えるクエリーがタイムアウトになりました。今回の更新では、configmap/logging-view-plugin でタイムアウト値を設定できるようになりました。(LOG-3498)
- この更新前は、OpenShift Container Platform Web コンソール内でログを表示する際に more data available オプションをクリックすると、初回クリック時にのみ、より多くのログエントリーがロードされました。今回の更新では、クリックごとにさらに多くのエントリーが読み込まれるようになりました。(OU-188)
- この更新前は、OpenShift Container Platform Web コンソール内でログを表示する際に streaming オプションをクリックすると、実際のログは表示されず、streaming logs メッセージのみが表示されました。今回の更新により、メッセージとログストリームの両方が正しく表示されるようになりました。(OU-166)
1.3.12.2. CVE
1.3.13. Logging 5.7.2
このリリースには、OpenShift Logging Bug Fix Release 5.7.2 が含まれています。
1.3.13.1. バグ修正
-
この更新前は、保留中のファイナライザーが存在するため、
openshift-logging
namespace を直接削除できませんでした。今回の更新により、ファイナライザーが使用されなくなり、namespace を直接削除できるようになりました。(LOG-3316) -
この更新前は、OpenShift Container Platform のドキュメントに従って変更された場合、
run.sh
スクリプトは誤ったchunk_limit_size
値を表示していました。ただし、環境変数$BUFFER_SIZE_LIMIT
を使用してchunk_limit_size
を設定すると、このスクリプトで正しい値が表示されていました。今回の更新により、どちらのシナリオでもrun.sh
スクリプトで正しいchunk_limit_size
値が表示されるようになりました。(LOG-3330) - この更新前は、OpenShift Container Platform Web コンソールのロギングビュープラグインはカスタムのノード配置または toleration を許可しませんでした。今回の更新により、ロギングビュープラグインのノード配置および toleration を定義する機能が追加されました。(LOG-3749)
-
この更新前は、Fluentd HTTP プラグインを介して DataDog にログを送信しようとすると、Cluster Logging Operator で Unsupported Media Type 例外が発生していました。今回の更新により、ユーザーは HTTP ヘッダー Content-Type を設定して、ログ転送用のコンテンツタイプをシームレスに割り当てることができるようになりました。指定された値は、プラグイン内の
content_type
パラメーターに自動的に割り当てられ、ログの送信が正常に行われます。(LOG-3784) -
この更新前は、
ClusterLogForwarder
カスタムリソース (CR) でdetectMultilineErrors
フィールドがtrue
に設定されている場合に、PHP マルチラインエラーが別のログエントリーとして記録され、スタックトレースが複数のメッセージに分割されていました。今回の更新により、PHP のマルチラインエラー検出が有効になり、スタックトレース全体が単一のログメッセージに含まれるようになりました。(LOG-3878) -
この更新前は、名前にスペースが含まれる
ClusterLogForwarder
パイプラインが原因で、Vector コレクター Pod が継続的にクラッシュしていました。今回の更新により、パイプラインの名前に含まれるすべてのスペース、ダッシュ (-)、およびドット (.) がアンダースコア (_) に置き換えられました。(LOG-3945) -
この更新前は、
log_forwarder_output
メトリクスにhttp
パラメーターが含まれていませんでした。今回の更新で、不足しているパラメーターがメトリクスに追加されました。(LOG-3997) - この更新前は、コロンで終わる場合に Fluentd は一部のマルチライン JavaScript クライアント例外を特定しませんでした。今回の更新により、Fluentd バッファー名の前にアンダースコアが付けられ、問題は解決しました。(LOG-4019)
- この更新前は、ペイロード内のキーに一致する Kafka 出力トピックに書き込むようにログ転送を設定すると、エラーが原因でログが破棄されていました。今回の更新により、Fluentd のバッファー名の前にアンダースコアが付けられ、問題は解決しました。(LOG-4027)
- この更新前は、LokiStack ゲートウェイはユーザーのアクセス権を適用せずに namespace のラベル値を返していました。今回の更新により、LokiStack ゲートウェイはパーミッションをラベル値のリクエストに適用するようになり、問題は解決しました。(LOG-4049)
この更新前は、
tls.insecureSkipVerify
オプションがtrue
に設定されている場合に、Cluster Logging Operator API にはシークレットにより提供される証明書が必要でした。今回の更新により、そのような場合でも Cluster Logging Operator API はシークレットに証明書の提供を求めなくなりました。次の設定が Operator の CR に追加されました。tls.verify_certificate = false tls.verify_hostname = false
(LOG-3445)
-
この更新前は、LokiStack ルート設定が原因で、クエリーの実行時間が 30 秒を超えるとタイムアウトが発生していました。今回の更新で、LokiStack global および per-tenant
queryTimeout
の設定によりルートタイムアウトの設定が影響を受け、問題は解決しました。(LOG-4052) -
この更新前は、修正として
collection.type
のデフォルトを削除したことで、Operator はリソース、ノードの選択、toleration に関する非推奨の仕様を受け入れなくなりました。今回の更新により、Operator の動作が変更され、collection
はなくcollection.logs
の仕様が必ず優先されるようになりました。これは、優先フィールドと非推奨フィールドの両方を使用できる以前の動作とは異なりますが、collection.type
が指定されている場合に非推奨フィールドを無視します。(LOG-4185) - この更新前は、ブローカー URL が出力で指定されていない場合、Vector ログコレクターはログを複数の Kafka ブローカーに転送するための TLS 設定を生成しませんでした。今回の更新により、複数のブローカーに対して TLS 設定が適切に生成されるようになりました。(LOG-4163)
- この更新前は、Kafka へのログ転送のパスフレーズを有効にするオプションは使用できませんでした。この制限により、機密情報が公開される可能性があるため、セキュリティーリスクが発生していました。今回の更新により、ユーザーは Kafka へのログ転送用にパスフレーズを有効にするシームレスなオプションを使用できるようになりました。(LOG-3314)
-
この更新前は、Vector ログコレクターは送信 TLS 接続の
tlsSecurityProfile
設定を受け入れませんでした。この更新後、Vector は TLS 接続設定を適切に処理します。(LOG-4011) -
この更新前は、
log_forwarder_output_info
メトリクスに利用可能なすべての出力タイプが含まれていませんでした。今回の更新により、以前は含まれていなかった Splunk および Google Cloud Logging データが含まれるようになりました。(LOG-4098) -
この更新前は、
follow_inodes
がtrue
に設定されている場合、Fluentd コレクターはファイルローテーション時にクラッシュする可能性がありました。今回の更新により、follow_inodes
設定が原因でコレクターがクラッシュしなくなりました。(LOG-4151) - この更新前は、ファイルの追跡方法が原因で、Fluentd コレクターが監視する必要があるファイルを誤って閉じる可能性がありました。今回の更新で、追跡パラメーターが修正されました。(LOG-4149)
この更新前は、Vector コレクターでログを転送し、
ClusterLogForwarder
インスタンスの名前をaudit
、application
、infrastructure
のいずれかにすると、コレクター Pod がCrashLoopBackOff
状態のままになり、次のエラーがコレクターログに記録されました。ERROR vector::cli: Configuration error. error=redefinition of table transforms.audit for key transforms.audit
今回の更新の後は、パイプライン名が予約された入力名と競合しなくなり、パイプラインの名前を
audit
、application
またはinfrastructure
にできます。(LOG-4218)-
この更新前は、Vector コレクターを使用してログを syslog 宛先に転送し、
addLogSource
フラグをtrue
に設定すると、転送されたメッセージにnamespace_name=
、container_name=
、pod_name=
の空のフィールドが追加されました。今回の更新により、これらのフィールドはジャーナルログに追加されなくなりました。(LOG-4219) -
この更新前は、
structuredTypeKey
が見つからず、structuredTypeName
が指定されていない場合、ログメッセージは引き続き構造化オブジェクトに解析されていました。今回の更新により、ログの解析が想定どおりになりました。(LOG-4220)
1.3.13.2. CVE
- CVE-2021-26341
- CVE-2021-33655
- CVE-2021-33656
- CVE-2022-1462
- CVE-2022-1679
- CVE-2022-1789
- CVE-2022-2196
- CVE-2022-2663
- CVE-2022-3028
- CVE-2022-3239
- CVE-2022-3522
- CVE-2022-3524
- CVE-2022-3564
- CVE-2022-3566
- CVE-2022-3567
- CVE-2022-3619
- CVE-2022-3623
- CVE-2022-3625
- CVE-2022-3627
- CVE-2022-3628
- CVE-2022-3707
- CVE-2022-3970
- CVE-2022-4129
- CVE-2022-20141
- CVE-2022-25147
- CVE-2022-25265
- CVE-2022-30594
- CVE-2022-36227
- CVE-2022-39188
- CVE-2022-39189
- CVE-2022-41218
- CVE-2022-41674
- CVE-2022-42703
- CVE-2022-42720
- CVE-2022-42721
- CVE-2022-42722
- CVE-2022-43750
- CVE-2022-47929
- CVE-2023-0394
- CVE-2023-0461
- CVE-2023-1195
- CVE-2023-1582
- CVE-2023-2491
- CVE-2023-22490
- CVE-2023-23454
- CVE-2023-23946
- CVE-2023-25652
- CVE-2023-25815
- CVE-2023-27535
- CVE-2023-29007
1.3.14. Logging 5.7.1
このリリースには、OpenShift Logging Bug Fix Release 5.7.1 が含まれています。
1.3.14.1. バグ修正
- この更新前は、Cluster Logging Operator Pod ログ内に多数のノイズの多いメッセージが存在するため、ログの可読性が低下し、重要なシステムイベントを識別することが困難になりました。この更新により、Cluster Logging Operator Pod ログ内のノイズの多いメッセージが大幅に削減されることで、この問題が解決されました。(LOG-3482)
-
この更新前は、カスタムリソースで別の値が使用されている場合でも、API サーバーは
CollectorSpec.Type
フィールドの値をVector
にリセットしていました。この更新では、CollectorSpec.Type
フィールドのデフォルトが削除され、以前の動作が復元されます。(LOG-4086) - この更新が行われるまでは、OpenShift Container Platform Web コンソールでログのヒストグラムをクリックしてドラッグしても時間範囲を選択できませんでした。今回の更新により、クリックとドラッグを使用して時間範囲を正常に選択できるようになりました。(LOG-4501)
- この更新前は、OpenShift Container Platform Web コンソールで Show Resources リンクをクリックしても何の効果もありませんでした。この更新では、ログエントリーごとにリソースの表示を切り替える「リソースの表示」リンクの機能を修正することで、この問題が解決されました。(LOG-3218)
1.3.14.2. CVE
1.3.15. Logging 5.7.0
このリリースには、OpenShift Logging Bug Fix Release 5.7.0 が含まれています。
1.3.15.1. 機能拡張
今回の更新により、ロギングを有効にして複数行の例外を検出し、それらを 1 つのログエントリーに再アセンブルできるようになりました。
ロギングを有効にして複数行の例外を検出し、それらを 1 つのログエントリーに再アセンブルできるようにする場合は、ClusterLogForwarder
カスタムリソース (CR) に、値が true
の detectMultilineErrors
フィールドが含まれていることを確認します。
1.3.15.2. 既知の問題
なし。
1.3.15.3. バグ修正
-
今回の更新以前は、LokiStack の Gateway コンポーネントの
nodeSelector
属性は、ノードのスケジューリングに影響を与えませんでした。今回の更新により、nodeSelector
属性が想定どおりに機能するようになりました。(LOG-3713)
1.3.15.4. CVE
第2章 Logging 6.0
2.1. リリースノート
2.1.1. Logging 6.0.2
このリリースには RHBA-2024:10051 が含まれています。
2.1.1.1. バグ修正
- この更新前は、Loki が一部の設定を正しくロードしなかったため、Alibaba Cloud または IBM Cloud オブジェクトストレージを使用するときに問題が発生していました。この更新により、Loki の設定読み込みコードが修正され、問題が解決されます。(LOG-5325)
- この更新前は、コレクターが設定されたしきい値を超えた監査ログメッセージを破棄していました。この更新により、最大行サイズと読み取りサイクル中に読み取られるバイト数の監査設定しきい値が変更されます。(LOG-5998)
- この更新前は、Cluster Logging Operator が、以前のリリースのように ClusterLogForwarder のインスタンスに関連付けられたリソースを監視および調整していませんでした。この更新により、Operator が変更され、所有および作成するすべてのリソースを監視および調整するようになります。(LOG-6264)
- この更新前は、重大度レベルが不明なログイベントが Google Cloud Logging に送信されると、Vector コレクターで警告がトリガーされ、重大度がデフォルトで 'DEFAULT' に設定されていました。この更新により、ログの重大度レベルが Google Cloud Logging 仕様に合わせて標準化され、監査ログに 'INFO' の重大度が割り当てられるようになりました。(LOG-6296)
-
この更新前は、インフラストラクチャー namespace がアプリケーション入力に含まれている場合、
log_type
がapplication
に設定されていました。この更新により、アプリケーション入力に含まれるインフラストラクチャー namespace のlog_type
が、infrastructure
に設定されるようになります。(LOG-6354) -
この更新前は、ClusterLogForwarder の
syslog.enrichment
フィールドに値を指定すると、コンテナー以外のログのメッセージにnamespace_name
、container_name
、およびpod_name
が追加されていました。この更新により、syslog.enrichment
が設定されている場合に、コンテナーログのメッセージにのみnamespace_name
、container_name
、およびpod_name
が含まれるようになります。(LOG-6402)
2.1.1.2. CVE
2.1.2. Logging 6.0.1
このリリースには、OpenShift Logging バグ修正リリース 6.0.1 が含まれています。
2.1.2.1. バグ修正
- この更新により、コレクターのデフォルトのメモリー制限が 1024 Mi から 2024 Mi に増加します。ただし、ユーザーはクラスターの仕様とニーズに応じてリソース制限を調整する必要があります。(LOG-6180)
-
この更新前は、Loki Operator はすべての
AlertingRule
リソースにデフォルトのnamespace
ラベルを追加できなかったため、User-Workload-Monitoring Alertmanager がこれらのアラートのルーティングをスキップしていました。この更新では、すべてのアラートルールおよび記録ルールにルール namespace がラベルとして追加されます。これにより問題が解決され、Alertmanager での適切なアラートルーティングが復元されます。(LOG-6151) - この更新前は、LokiStack ルーラーコンポーネントビューが適切に初期化されず、ルーラーコンポーネントが無効になっているときに無効フィールドエラーが発生しました。この更新により、コンポーネントビューが空の値で初期化されるようになり、問題は解決されます。(LOG-6129)
-
この更新前は、prune フィルターで
log_source
を設定でき、そのためにログデータの一貫性が失われる可能性がありました。この更新により、設定は適用前に検証され、prune フィルターにlog_source
が含まれる設定はすべて拒否されます。(LOG-6202)
2.1.2.2. CVE
2.1.3. Logging 6.0.0
このリリースには、Logging for Red Hat OpenShift バグ修正リリース 6.0.0 が含まれています。
Logging は、コアの OpenShift Container Platform とは異なるリリースサイクルで、インストール可能なコンポーネントとして提供されます。Red Hat OpenShift Container Platform ライフサイクルポリシー は、リリースの互換性を概説しています。
Logging バージョン | コンポーネントのバージョン | |||||
---|---|---|---|---|---|---|
Operator |
|
|
|
|
|
|
6.0 | 0.4 | 1.1 | 3.1.0 | 0.1 | 0.1 | 0.37.1 |
2.1.4. 削除通知
elasticsearch-operator によって管理される Elasticsearch と Kibana を引き続き使用するには、管理者は ClusterLogging リソースを削除する前に、それらのオブジェクトの ownerRefs を変更する必要があります。
2.1.5. 新機能および機能拡張
-
この機能は、ストレージ、視覚化、収集などのコンポーネントの責任を関連する Operator に移すことで、Red Hat OpenShift のロギング用の新しいアーキテクチャーを導入します。ログの収集および転送用の
ClusterLogForwarder.observability.openshift.io
API を導入します。ClusterLogging.logging.openshift.io
およびClusterLogForwarder.logging.openshift.io
API のサポートと、Red Hat Managed Elastic スタック (Elasticsearch および Kibana) のサポートが削除されました。ログの保存には Red HatLokiStack
への移行が推奨されます。既存の Managed Elasticsearch デプロイメントは、限られた期間使用できます。ログ収集の自動移行は提供されていないため、管理者は新しい ClusterLogForwarder.observability.openshift.io 仕様を作成して、以前のカスタムリソースを置き換える必要があります。詳細は、公式の製品ドキュメントを参照してください。(LOG-3493) - このリリースにより、ロギングビュープラグインのデプロイの責任が Red Hat OpenShift Logging Operator から Cluster Observability Operator (COO) に移行します。視覚化が必要な新しいログストレージのインストールでは、Cluster Observability Operator と関連する UIPlugin リソースをデプロイする必要があります。詳細は、製品ドキュメントの Cluster Observability Operator の概要 を参照してください。(LOG-5461)
- この機能拡張により、Vector ドキュメントの推奨事項に基づいて、Vector コレクターのデプロイメントのメモリーと CPU 使用量のデフォルトの要求と制限が設定されます。(LOG-4745)
- この機能拡張により、アップストリームバージョン v0.37.1 に合わせて Vector が更新されます。(LOG-5296)
- この機能拡張により、ログコレクターがログをノードのファイルシステムにバッファーし、利用可能な領域の 15% 超を使用する場合にトリガーするアラートが導入され、バックプレッシャーの問題の可能性を示すようになりました。(LOG-5381)
- この機能拡張により、すべてのコンポーネントのセレクターが更新され、共通の Kubernetes ラベルが使用されます。(LOG-5906)
- この機能拡張により、コレクター設定がシークレットではなく ConfigMap としてデプロイされるように変更され、ClusterLogForwarder が Unmanaged に設定されている場合にユーザーが設定を表示および編集できるようになります。(LOG-5599)
- この機能拡張により、trace、debug、info、warn、error、または off などのオプションと共に、ClusterLogForwarder のアノテーションを使用して Vector コレクターログレベルを設定する機能が追加されました。(LOG-5372)
- この機能拡張により、Amazon CloudWatch 出力で複数の AWS ロールが使用される設定を拒否するための検証が追加され、誤ったログルーティングが防止されます。(LOG-5640)
- この機能拡張により、メトリクスダッシュボードから Log Bytes Collected および Log Bytes Sent グラフが削除されます。(LOG-5964)
- この機能拡張により、must-gather 機能が更新され、ClusterLogForwarder.observability.openshift.io リソースから Red Hat Managed LokiStack など、Logging 6.0 コンポーネントを検査するための情報のみがキャプチャーされるようになりました。(LOG-5949)
- この機能拡張により、特定のエラー状態に対する早期警告が提供され、Azure ストレージシークレットの検証が改善されます。(LOG-4571)
2.1.6. テクノロジープレビュー機能
- このリリースでは、OpenTelemetry を使用したログ転送のテクノロジープレビュー機能が導入されています。新しい出力タイプ `OTLP` を使用すると、OpenTelemetry データモデルとリソースのセマンティック規則を使用して、JSON でエンコードされたログレコードを送信できます。(LOG-4225)
2.1.7. バグ修正
-
この更新前は、
CollectorHighErrorRate
およびCollectorVeryHighErrorRate
アラートがまだ存在していました。この更新により、両方のアラートが logging 6.0 リリースで削除されましたが、今後のリリースで復活する可能性はあります。(LOG-3432)
2.1.8. CVE
2.2. Logging 6.0
ClusterLogForwarder
カスタムリソース (CR) は、ログの収集と転送の中心的な設定ポイントです。
2.2.1. 入力および出力
入力では、転送するログのソースを指定します。Logging には、クラスターのさまざまな部分からログを選択する組み込みの入力タイプ (application
、infrastructure
、および audit
) が用意されています。namespace または Pod ラベルに基づいてカスタム入力を定義し、ログの選択を微調整することもできます。
出力は、ログが送信される宛先を定義します。各出力タイプには独自の設定オプションセットがあり、動作と認証設定をカスタマイズできます。
2.2.2. レシーバー入力タイプ
レシーバー入力タイプにより、Logging システムは外部ソースからのログを受け入れることができます。ログを受信するための 2 つの形式 (http
と syslog
) がサポートされます。
ReceiverSpec
は、レシーバー入力の設定を定義します。
2.2.3. パイプラインとフィルター
パイプラインは、入力から出力へのログのフローを決定します。パイプラインは、1 つ以上の入力参照、出力参照、およびオプションのフィルター参照で構成されます。フィルターを使用して、パイプライン内のログメッセージを変換または削除できます。フィルターは順番に適用されるため、フィルターの順序は重要であり、最初の方のフィルターを使用すると、ログメッセージが後のステージに到達するのを防ぐことができます。
2.2.4. Operator の行動
Cluster Logging Operator は、managementState
フィールドに基づいて、コレクターのデプロイメントと設定を管理します。
-
Managed
(デフォルト) に設定すると、Operator は仕様で定義された設定に一致するように、ロギングリソースをアクティブに管理します。 -
Unmanaged
に設定すると、Operator はアクションを実行せず、ロギングコンポーネントを手動で管理できます。
2.2.5. 検証
ロギングには、スムーズでエラーのない設定エクスペリエンスを確保するために、広範な検証ルールやデフォルト値が含まれます。ClusterLogForwarder
リソースは、必須フィールド、フィールド間の依存関係、および入力値の形式の検証チェックを強制します。特定のフィールドにはデフォルト値が提供されるため、一般的なシナリオで明示的な設定を行う必要性が軽減されます。
2.2.5.1. クイックスタート
前提条件
- クラスター管理者のパーミッション。
手順
-
OperatorHub から
OpenShift Logging
およびLoki
Operator をインストールします。 openshift-logging
namespace にLokiStack
カスタムリソース (CR) を作成します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: managementState: Managed size: 1x.extra-small storage: schemas: - effectiveDate: '2022-06-01' version: v13 secret: name: logging-loki-s3 type: s3 storageClassName: gp3-csi tenants: mode: openshift-logging
コレクターのサービスアカウントを作成します。
$ oc create sa collector -n openshift-logging
コレクター用の
ClusterRole
を作成します。apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: logging-collector-logs-writer rules: - apiGroups: - loki.grafana.com resourceNames: - logs resources: - application - audit - infrastructure verbs: - create
ClusterRole
をサービスアカウントにバインドします。$ oc adm policy add-cluster-role-to-user logging-collector-logs-writer -z collector
- Cluster Observability Operator をインストールします。
Observe タブの Log セクションを有効にするには、
UIPlugin
を作成します。apiVersion: observability.openshift.io/v1alpha1 kind: UIPlugin metadata: name: logging spec: type: Logging logging: lokiStack: name: logging-loki
コレクターサービスアカウントにロールを追加します。
$ oc project openshift-logging $ oc adm policy add-cluster-role-to-user collect-application-logs -z collector $ oc adm policy add-cluster-role-to-user collect-audit-logs -z collector $ oc adm policy add-cluster-role-to-user collect-infrastructure-logs -z collector
ログ転送を設定するには、
ClusterLogForwarder
CR を作成します。apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: collector namespace: openshift-logging spec: serviceAccount: name: collector outputs: - name: default-lokistack type: lokiStack lokiStack: target: name: logging-loki namespace: openshift-logging authentication: token: from: serviceAccount tls: ca: key: service-ca.crt configMapName: openshift-service-ca.crt pipelines: - name: default-logstore inputRefs: - application - infrastructure outputRefs: - default-lokistack
- OpenShift Web コンソールの Observe タブの Log セクションにログが表示されていることを確認します。
2.3. Logging 6.0 へのアップグレード
Logging v6.0 は以前のリリースからの大幅なアップグレードであり、Cluster Logging の長年の目標のいくつかを達成しています。
- ロギングコンポーネント (collectors、storage、visualization など) を管理するための個別の Operator の導入。
- Elastic 製品 (Elasticsearch、Kibana など) に基づく管理ログストレージと視覚化のサポートが削除されました。
- Fluentd ログコレクター実装の非推奨化。
-
ClusterLogging.logging.openshift.io
およびClusterLogForwarder.logging.openshift.io
リソースのサポートが削除されました。
cluster-logging-operator は、自動アップグレードプロセスを提供しません。
ログの収集、転送、およびストレージのさまざまな設定を指定すると、cluster-logging-operator によって自動アップグレードは提供されません。このドキュメントは、管理者が既存の ClusterLogging.logging.openshift.io
および ClusterLogForwarder.logging.openshift.io
仕様を新しい API に変換する際に役立ちます。一般的なユースケース向けに移行された ClusterLogForwarder.observability.openshift.io
リソースの例が含まれています。
2.3.1. oc explain
コマンドの使用
oc explain
コマンドは、カスタムリソース (CR) 内のフィールドの詳細な説明を提供する OpenShift CLI oc
の重要なツールです。このコマンドは、OpenShift クラスターのリソースを設定またはトラブルシューティングする管理者および開発者にとって非常に重要です。
2.3.1.1. リソースの説明
oc explain
は、特定のオブジェクトに関連するすべてのフィールドの詳細な説明を提供します。これには、Pod やサービスなどの標準リソースだけでなく、ステートフルセットや Operator によって定義されたカスタムリソースなどのより複雑なエンティティーも含まれます。
ClusterLogForwarder
カスタムリソースの outputs
フィールドのドキュメントを表示するには、以下を使用します。
$ oc explain clusterlogforwarders.observability.openshift.io.spec.outputs
clusterlogforwarder
の代わりに、短い形式の obsclf
を使用できます。
これにより、これらのフィールドの詳細情報 (タイプ、デフォルト値、関連するサブフィールドなど) が表示されます。
2.3.1.2. 階層構造
このコマンドは、リソースフィールドの構造を階層形式で表示し、さまざまな設定オプション間の関係を明確にします。
たとえば、LokiStack
カスタムリソースの storage
設定をドリルダウンする方法を次に示します。
$ oc explain lokistacks.loki.grafana.com $ oc explain lokistacks.loki.grafana.com.spec $ oc explain lokistacks.loki.grafana.com.spec.storage $ oc explain lokistacks.loki.grafana.com.spec.storage.schemas
各コマンドは、リソース仕様のより深いレベルを表示し、構造を明確にします。
2.3.1.3. タイプ情報
oc explain
は、各フィールドのタイプ (文字列、整数、ブール値など) も示すため、リソース定義で正しいデータタイプが使用されていることを確認できます。
以下に例を示します。
$ oc explain lokistacks.loki.grafana.com.spec.size
これは、整数値を使用して size
を定義する必要があることを示しています。
2.3.1.4. デフォルト値
該当する場合は、コマンドはフィールドのデフォルト値を表示し、明示的に指定されていない場合に使用される値に関する洞察を提供します。
ここでも、例として lokistacks.loki.grafana.com
を使用します。
$ oc explain lokistacks.spec.template.distributor.replicas
出力例
GROUP: loki.grafana.com KIND: LokiStack VERSION: v1 FIELD: replicas <integer> DESCRIPTION: Replicas defines the number of replica pods of the component.
2.3.2. ログのストレージ
このリリースで利用できる唯一のマネージドログストレージソリューションは、loki-operator によって管理される Lokistack です。以前は Managed Elasticsearch オファリングの優先される代替手段として利用可能だったこのソリューションは、デプロイメントプロセスで変更されないままとなります。
elasticsearch-operator によって提供される既存の Red Hat Managed Elasticsearch または Kibana デプロイメントを引き続き使用するには、openshift-logging
namespace の elasticsearch
という名前の Elasticsearch
リソースと kibana
という名前の Kibana
リソースから所有者参照を削除してから、同じ namespace の instance
という名前の ClusterLogging
リソースを削除します。
ClusterLogging を一時的に
Unmanaged
状態に設定します。$ oc -n openshift-logging patch clusterlogging/instance -p '{"spec":{"managementState": "Unmanaged"}}' --type=merge
Elasticsearch リソースから ClusterLogging
ownerReferences
を削除します。次のコマンドは、ClusterLogging が Elasticsearch リソースを所有していないことを確認します。ClusterLogging リソースの
logStore
フィールドが更新されても、Elasticsearch リソースには影響しなくなります。$ oc -n openshift-logging patch elasticsearch/elasticsearch -p '{"metadata":{"ownerReferences": []}}' --type=merge
Kibana リソースから ClusterLogging
ownerReferences
を削除します。次のコマンドは、ClusterLogging が Kibana リソースを所有していないことを確認します。ClusterLogging リソースの
visualization
フィールドが更新されても、Kibana リソースには影響しなくなります。$ oc -n openshift-logging patch kibana/kibana -p '{"metadata":{"ownerReferences": []}}' --type=merge
-
ClusterLogging を
Managed
に設定します。
$ oc -n openshift-logging patch clusterlogging/instance -p '{"spec":{"managementState": "Managed"}}' --type=merge
2.3.3. ログの視覚化
ログ視覚化用の OpenShift コンソール UI プラグインは、cluster-logging-operator から cluster-observability-operator に移動されました。
2.3.4. ログの収集および転送
ログ収集と転送の設定は、observability.openshift.io
API グループの一部である新しい API で指定されるようになりました。次のセクションでは、古い API リソースとの違いを説明します。
Vector は唯一のサポートされているコレクター実装です。
2.3.5. 管理、リソース割り当て、ワークロードのスケジュール
管理状態 (マネージド、マネージド以外など)、リソース要求と制限、toleration、およびノード選択の設定が、新しい ClusterLogForwarder API の一部になりました。
以前の設定
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" spec: managementState: "Managed" collection: resources: limits: {} requests: {} nodeSelector: {} tolerations: {}
現在の設定
apiVersion: "observability.openshift.io/v1" kind: ClusterLogForwarder spec: managementState: Managed collector: resources: limits: {} requests: {} nodeSelector: {} tolerations: {}
2.3.6. 入力仕様
入力仕様は、ClusterLogForwarder 仕様のオプション部分です。管理者は引き続き、application、infrastructure、audit の定義済み値を使用して、これらのソースを収集できます。
2.3.6.1. アプリケーション入力
namespace とコンテナーの包含と除外が 1 つのフィールドに統合されました。
5.9 namespace とコンテナーの包含と除外を含むアプリケーション入力
apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder spec: inputs: - name: application-logs type: application application: namespaces: - foo - bar includes: - namespace: my-important container: main excludes: - container: too-verbose
6.0 namespace とコンテナーの包含と除外を含むアプリケーション入力
apiVersion: "observability.openshift.io/v1" kind: ClusterLogForwarder spec: inputs: - name: application-logs type: application application: includes: - namespace: foo - namespace: bar - namespace: my-important container: main excludes: - container: too-verbose
application、infrastructure、audit は予約語であり、入力を定義する際は名前として使用できません。
2.3.6.2. Input Receiver
Input Receiver への変更は次のとおりです。
- レシーバーレベルでのタイプの明示的な設定。
- ポート設定がレシーバーレベルに移動されました。
5.9 Input Receiver
apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder spec: inputs: - name: an-http receiver: http: port: 8443 format: kubeAPIAudit - name: a-syslog receiver: type: syslog syslog: port: 9442
6.0 Input Receiver
apiVersion: "observability.openshift.io/v1" kind: ClusterLogForwarder spec: inputs: - name: an-http type: receiver receiver: type: http port: 8443 http: format: kubeAPIAudit - name: a-syslog type: receiver receiver: type: syslog port: 9442
2.3.7. 出力仕様
出力仕様に対する高レベルの変更には以下が含まれます。
- URL 設定が各出力タイプの仕様に移動されました。
- チューニングパラメーターが各出力タイプの仕様に移動されました。
- TLS 設定と認証の分離。
- TLS および認証用のキーとシークレット/configmap の明示的な設定。
2.3.8. シークレットと TLS 設定
シークレットと TLS 設定は、各出力の認証と TLS 設定に分離されました。管理者が認識されたキーを使用してシークレットを定義するのではなく、仕様で明示的に定義する必要があります。TLS と認可設定をアップグレードするには、管理者は既存のシークレットを引き続き使用するために、以前に認識されたキーを理解する必要があります。次のセクションの例では、ClusterLogForwarder シークレットを設定して、既存の Red Hat 管理のログストレージソリューションに転送する方法を詳しく説明します。
2.3.9. Red Hat Managed Elasticsearch
v5.9 Red Hat Managed Elasticsearch への転送
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: logStore: type: elasticsearch
v6.0 Red Hat Managed Elasticsearch への転送
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputs: - name: default-elasticsearch type: elasticsearch elasticsearch: url: https://elasticsearch:9200 version: 6 index: <log_type>-write-{+yyyy.MM.dd} tls: ca: key: ca-bundle.crt secretName: collector certificate: key: tls.crt secretName: collector key: key: tls.key secretName: collector pipelines: - outputRefs: - default-elasticsearch - inputRefs: - application - infrastructure
この例では、アプリケーションログは app-write
ではなく application-write
エイリアス/インデックスに書き込まれます。
2.3.10. Red Hat Managed LokiStack
v5.9 Red Hat Managed LokiStack への転送
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: logStore: type: lokistack lokistack: name: lokistack-dev
v6.0 Red Hat Managed LokiStack への転送
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputs: - name: default-lokistack type: lokiStack lokiStack: target: name: lokistack-dev namespace: openshift-logging authentication: token: from: serviceAccount tls: ca: key: service-ca.crt configMapName: openshift-service-ca.crt pipelines: - outputRefs: - default-lokistack - inputRefs: - application - infrastructure
2.3.11. フィルターとパイプラインの設定
パイプライン設定では、入力ソースから出力先へのルーティングのみが定義され、必要な変換はフィルターとして個別に設定されるようになりました。以前のリリースのパイプラインのすべての属性は、このリリースではフィルターに変換されています。個々のフィルターは filters
仕様で定義され、パイプラインによって参照されます。
5.9 Filters
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder spec: pipelines: - name: application-logs parse: json labels: foo: bar detectMultilineErrors: true
6.0 Filter の設定
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder spec: filters: - name: detectexception type: detectMultilineException - name: parse-json type: parse - name: labels type: openshiftLabels openshiftLabels: foo: bar pipelines: - name: application-logs filterRefs: - detectexception - labels - parse-json
2.3.12. 検証とステータス
ほとんどの検証は、リソースが作成または更新されたときに実行され、即時のフィードバックが提供されます。これは、作成後に検証が行われ、リソースのステータスを検査する必要があった以前のリリースからの移行になります。作成時または更新時に検証できない場合は、引き続き作成後に一部の検証が行われます。
Operator がログコレクターをデプロイする前に、ClusterLogForwarder.observability.openshift.io
のインスタンスが、Authorized、Valid、Ready の条件を満たしている必要があります。これらの条件の例は次のとおりです。
6.0 ステータス条件
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder status: conditions: - lastTransitionTime: "2024-09-13T03:28:44Z" message: 'permitted to collect log types: [application]' reason: ClusterRolesExist status: "True" type: observability.openshift.io/Authorized - lastTransitionTime: "2024-09-13T12:16:45Z" message: "" reason: ValidationSuccess status: "True" type: observability.openshift.io/Valid - lastTransitionTime: "2024-09-13T12:16:45Z" message: "" reason: ReconciliationComplete status: "True" type: Ready filterConditions: - lastTransitionTime: "2024-09-13T13:02:59Z" message: filter "detectexception" is valid reason: ValidationSuccess status: "True" type: observability.openshift.io/ValidFilter-detectexception - lastTransitionTime: "2024-09-13T13:02:59Z" message: filter "parse-json" is valid reason: ValidationSuccess status: "True" type: observability.openshift.io/ValidFilter-parse-json inputConditions: - lastTransitionTime: "2024-09-13T12:23:03Z" message: input "application1" is valid reason: ValidationSuccess status: "True" type: observability.openshift.io/ValidInput-application1 outputConditions: - lastTransitionTime: "2024-09-13T13:02:59Z" message: output "default-lokistack-application1" is valid reason: ValidationSuccess status: "True" type: observability.openshift.io/ValidOutput-default-lokistack-application1 pipelineConditions: - lastTransitionTime: "2024-09-13T03:28:44Z" message: pipeline "default-before" is valid reason: ValidationSuccess status: "True" type: observability.openshift.io/ValidPipeline-default-before
条件が満たされ、適用可能な場合の "ステータス" 値は "True" になります。ステータスが "True" 以外の条件は、理由と問題を説明するメッセージを提供します。
2.4. ログ転送の設定
ClusterLogForwarder
(CLF) を使用すると、ユーザーはさまざまな宛先へのログの転送を設定できます。さまざまなソースからログメッセージを選択し、それらを変換またはフィルタリングできるパイプラインを介して送信して、1 つ以上の出力に転送する柔軟な方法を提供します。
ClusterLogForwarder の主な機能
- 入力を使用してログメッセージを選択する
- 出力を使用してログを外部の宛先に転送する
- フィルターを使用してログメッセージをフィルタリング、変換、およびドロップする
- 入力、フィルター、出力を接続するログ転送パイプラインを定義する
2.4.1. ログ収集のセットアップ
このリリースの Cluster Logging では、管理者が ClusterLogForwarder に関連付けられたサービスアカウントにログ収集権限を明示的に付与する必要があります。これは、ClusterLogging およびオプションで ClusterLogForwarder.logging.openshift.io リソースで構成されるレガシーロギングシナリオでは、以前のリリースでは必要ありませんでした。
Red Hat OpenShift Logging Operator は、collect-audit-logs
、collect-application-logs
、collect-infrastructure-logs
クラスターロールを提供します。これにより、コレクターは監査ログ、アプリケーションログ、およびインフラストラクチャーログをそれぞれ収集できます。
必要なクラスターロールをサービスアカウントにバインドして、ログ収集をセットアップします。
2.4.1.1. レガシーサービスアカウント
既存のレガシーサービスアカウント logcollector
を使用するには、次の ClusterRoleBinding を作成します。
$ oc adm policy add-cluster-role-to-user collect-application-logs system:serviceaccount:openshift-logging:logcollector $ oc adm policy add-cluster-role-to-user collect-infrastructure-logs system:serviceaccount:openshift-logging:logcollector
さらに、監査ログを収集する場合は、次の ClusterRoleBinding を作成します。
$ oc adm policy add-cluster-role-to-user collect-audit-logs system:serviceaccount:openshift-logging:logcollector
2.4.1.2. サービスアカウントの作成
前提条件
-
Red Hat OpenShift Logging Operator が
openshift-logging
namespace にインストールされている。 - 管理者権限がある。
手順
- コレクターのサービスアカウントを作成します。認証にトークンを必要とするストレージにログを書き込む場合は、サービスアカウントにトークンを含める必要があります。
適切なクラスターロールをサービスアカウントにバインドします。
バインドコマンドの例
$ oc adm policy add-cluster-role-to-user <cluster_role_name> system:serviceaccount:<namespace_name>:<service_account_name>
2.4.1.2.1. サービスアカウントのクラスターロールバインディング
role_binding.yaml ファイルは、ClusterLogging Operator の ClusterRole を特定の ServiceAccount にバインドし、クラスター全体で Kubernetes リソースを管理できるようにします。
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: manager-rolebinding roleRef: 1 apiGroup: rbac.authorization.k8s.io 2 kind: ClusterRole 3 name: cluster-logging-operator 4 subjects: 5 - kind: ServiceAccount 6 name: cluster-logging-operator 7 namespace: openshift-logging 8
- 1
- roleRef: バインディングが適用される ClusterRole を参照します。
- 2
- apiGroup: RBAC API グループを示し、ClusterRole が Kubernetes の RBAC システムの一部であることを指定します。
- 3
- kind: 参照されるロールがクラスター全体に適用される ClusterRole であることを指定します。
- 4
- name: ServiceAccount にバインドされる ClusterRole の名前 (ここでは cluster-logging-operator)。
- 5
- subjects: ClusterRole から権限が付与されるエンティティー (ユーザーまたはサービスアカウント) を定義します。
- 6
- kind: サブジェクトが ServiceAccount であることを指定します。
- 7
- Name: 権限が付与される ServiceAccount の名前。
- 8
- namespace: ServiceAccount が配置されている namespace を示します。
2.4.1.2.2. アプリケーションログの書き込み
write-application-logs-clusterrole.yaml ファイルは、Loki ロギングアプリケーションにアプリケーションログを書き込む権限を付与する ClusterRole を定義します。
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: cluster-logging-write-application-logs rules: 1 - apiGroups: 2 - loki.grafana.com 3 resources: 4 - application 5 resourceNames: 6 - logs 7 verbs: 8 - create 9 Annotations <1> rules: Specifies the permissions granted by this ClusterRole. <2> apiGroups: Refers to the API group loki.grafana.com, which relates to the Loki logging system. <3> loki.grafana.com: The API group for managing Loki-related resources. <4> resources: The resource type that the ClusterRole grants permission to interact with. <5> application: Refers to the application resources within the Loki logging system. <6> resourceNames: Specifies the names of resources that this role can manage. <7> logs: Refers to the log resources that can be created. <8> verbs: The actions allowed on the resources. <9> create: Grants permission to create new logs in the Loki system.
2.4.1.2.3. 監査ログの書き込み
write-audit-logs-clusterrole.yaml ファイルは、Loki ロギングシステムに監査ログを作成する権限を付与する ClusterRole を定義します。
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: cluster-logging-write-audit-logs rules: 1 - apiGroups: 2 - loki.grafana.com 3 resources: 4 - audit 5 resourceNames: 6 - logs 7 verbs: 8 - create 9
- 1 1
- rules: この ClusterRole によって付与される権限を定義します。
- 2 2
- apiGroups: API グループ loki.grafana.com を指定します。
- 3 3
- loki.grafana.com: Loki ロギングリソースを管理する API グループ。
- 4 4
- resources: このロールが管理するリソースタイプ (この場合は audit) を指します。
- 5 5
- audit: ロールが Loki 内の監査ログを管理することを指定します。
- 6 6
- resourceNames: ロールがアクセスできる特定のリソースを定義します。
- 7 7
- logs: このロールで管理できるログを指します。
- 8 8
- verbs: リソースで許可されるアクション。
- 9 9
- create: 新しい監査ログを作成する権限を付与します。
2.4.1.2.4. インフラストラクチャーログの書き込み
write-infrastructure-logs-clusterrole.yaml ファイルは、Loki ロギングシステムにインフラストラクチャーログを作成する権限を付与する ClusterRole を定義します。
YAML 例
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: cluster-logging-write-infrastructure-logs rules: 1 - apiGroups: 2 - loki.grafana.com 3 resources: 4 - infrastructure 5 resourceNames: 6 - logs 7 verbs: 8 - create 9
- 1
- ルール: この ClusterRole が付与する権限を指定します。
- 2
- apiGroups: Loki 関連リソースの API グループを指定します。
- 3
- loki.grafana.com: Loki ロギングシステムを管理する API グループ。
- 4
- resources: このロールが対話できるリソースタイプを定義します。
- 5
- infrastructure: このロールが管理するインフラストラクチャー関連のリソースを指します。
- 6
- resourceNames: このロールが管理できるリソースの名前を指定します。
- 7
- logs: インフラストラクチャーに関連するログリソースを指します。
- 8
- verbs: このロールによって許可されるアクションです。
- 9
- create: Loki システムにインフラストラクチャーログを作成する権限を付与します。
2.4.1.2.5. ClusterLogForwarder 編集者ロール
clusterlogforwarder-editor-role.yaml ファイルは、ユーザーが OpenShift で ClusterLogForwarders を管理できるようにする ClusterRole を定義します。
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: clusterlogforwarder-editor-role rules: 1 - apiGroups: 2 - observability.openshift.io 3 resources: 4 - clusterlogforwarders 5 verbs: 6 - create 7 - delete 8 - get 9 - list 10 - patch 11 - update 12 - watch 13
- 1
- ルール: この ClusterRole が付与する権限を指定します。
- 2
- apiGroups: OpenShift 固有の API グループを指します。
- 3
- obervability.openshift.io: ロギングなどの可観測性リソースを管理するための API グループ。
- 4
- resources: このロールが管理できるリソースを指定します。
- 5
- clusterlogforwarders: OpenShift のログ転送リソースを指します。
- 6
- verbs: ClusterLogForwarders で許可されるアクションを指定します。
- 7
- create: 新しい ClusterLogForwarders を作成する権限を付与します。
- 8
- delete: 既存の ClusterLogForwarders を削除する権限を付与します。
- 9
- get: 特定の ClusterLogForwarders に関する情報を取得する権限を付与します。
- 10
- list: すべての ClusterLogForwarders のリスト表示を許可します。
- 11
- patch: ClusterLogForwarders を部分的に変更する権限を付与します。
- 12
- update: 既存の ClusterLogForwarders を更新する権限を付与します。
- 13
- watch: ClusterLogForwarders への変更を監視する権限を付与します。
2.4.2. コレクターのログレベルの変更
コレクターでログレベルを変更するには、observability.openshift.io/log-level
アノテーションを trace
、debug
、info
、warn
、error
、および off
に設定します。
ログレベルアノテーションの例
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: collector annotations: observability.openshift.io/log-level: debug # ...
2.4.3. Operator の管理
ClusterLogForwarder
リソースには、Operator がリソースをアクティブに管理するか、管理対象外のままにするかを制御する managementState
フィールドがあります。
- Managed
- (デフォルト) Operator は、CLF 仕様の目的の状態に一致するようにロギングリソースを駆動します。
- 管理対象外
- Operator は、ロギングコンポーネントに関連するアクションを一切実行しません。
これにより、管理者は managementState
を Unmanaged
に設定して、ログ転送を一時的に停止できます。
2.4.4. ClusterLogForwarder の構造
CLF には、次の主要コンポーネントを含む spec
セクションがあります。
- Inputs
-
転送するログメッセージを選択します。組み込みの入力タイプである
application
、infrastructure
、およびaudit
は、クラスターのさまざまな部分からログを転送します。カスタム入力を定義することもできます。 - 出力
- ログを転送する宛先を定義します。各出力には、一意の名前とタイプ固有の設定があります。
- Pipelines
- ログが入力からフィルターを経由して出力されるまでのパスを定義します。パイプラインには一意の名前があり、入力名、出力名、フィルター名のリストで構成されます。
- Filters
- パイプライン内のログメッセージを変換またはドロップします。ユーザーは、特定のログフィールドに一致するフィルターを定義し、メッセージをドロップまたは変更できます。フィルターはパイプラインで指定された順序で適用されます。
2.4.4.1. Inputs
入力は spec.inputs
の下の配列で設定されます。組み込みの入力タイプは 3 つあります。
- application
-
default
、openshift
などのインフラストラクチャー namespace や、kube-
またはopenshift-
の接頭辞を持つ namespace 内のログを除いた、すべてのアプリケーションコンテナーからログを選択します。 - infrastructure
-
default
およびopenshift
namespace とノードログで実行されているインフラストラクチャーコンポーネントからログを選択します。 - audit
- OpenShift API サーバー監査ログ、Kubernetes API サーバー監査ログ、ovn 監査ログ、および auditd からのノード監査ログからログを選択します。
ユーザーは、特定の namespace からログを選択するか、または Pod ラベルを使用してログを選択する application
のカスタム入力を定義できます。
2.4.4.2. 出力
出力は spec.outputs
の下の配列で構成されます。各出力には一意の名前とタイプが必要です。サポートされているタイプは次のとおりです。
- azureMonitor
- ログを Azure Monitor に転送します。
- cloudwatch
- ログを AWS CloudWatch に転送します。
- elasticsearch
- ログを外部の Elasticsearch インスタンスに転送します。
- googleCloudLogging
- ログを Google Cloud Logging に転送します。
- http
- ログを汎用 HTTP エンドポイントに転送します。
- kafka
- ログを Kafka ブローカーに転送します。
- loki
- ログを Loki ロギングバックエンドに転送します。
- lokistack
- ログを、OpenShift Container Platform 認証インテグレーションによる Loki と Web プロキシーのロギングがサポートされている組み合わせに転送します。LokiStack のプロキシーは、OpenShift Container Platform 認証を使用してマルチテナンシーを適用します。
- otlp
- OpenTelemetry プロトコルを使用してログを転送します。
- splunk
- ログを Splunk に転送します。
- syslog
- ログを外部の syslog サーバーに転送します。
各出力タイプには独自の設定フィールドがあります。
2.4.4.3. Pipelines
パイプラインは spec.pipelines
の下の配列で設定されます。各パイプラインには一意の名前があり、次の要素で構成される必要があります。
- inputRefs
- このパイプラインにログを転送する入力の名前。
- outputRefs
- ログを送信する出力の名前。
- filterRefs
- (オプション) 適用するフィルターの名前。
filterRef の順序は、順次適用されるため重要です。以前のフィルターは、後のフィルターで処理されないメッセージをドロップする可能性があります。
2.4.4.4. Filters
フィルターは spec.filters
の下の配列で設定されます。構造化フィールドの値に基づいて受信ログメッセージを照合し、変更または削除できます。
管理者は次のタイプのフィルターを設定できます。
2.4.4.5. 複数行の例外検出の有効化
コンテナーログの複数行のエラー検出を有効にします。
この機能を有効にすると、パフォーマンスに影響が出る可能性があり、追加のコンピューティングリソースや代替のロギングソリューションが必要になる場合があります。
ログパーサーは頻繁に、同じ例外の個別の行を別々の例外として誤って識別します。その結果、余分なログエントリーが発生し、トレースされた情報が不完全または不正確な状態で表示されます。
Java 例外の例
java.lang.NullPointerException: Cannot invoke "String.toString()" because "<param1>" is null at testjava.Main.handle(Main.java:47) at testjava.Main.printMe(Main.java:19) at testjava.Main.main(Main.java:10)
-
ロギングを有効にして複数行の例外を検出し、それらを 1 つのログエントリーに再アセンブルできるようにする場合は、
ClusterLogForwarder
カスタムリソース (CR) に.spec.filters
の下のdetectMultilineErrors
フィールドが含まれていることを確認します。
ClusterLogForwarder CR の例
apiVersion: "observability.openshift.io/v1" kind: ClusterLogForwarder metadata: name: <log_forwarder_name> namespace: <log_forwarder_namespace> spec: serviceAccount: name: <service_account_name> filters: - name: <name> type: detectMultilineException pipelines: - inputRefs: - <input-name> name: <pipeline-name> filterRefs: - <filter-name> outputRefs: - <output-name>
2.4.4.5.1. 詳細
ログメッセージが例外スタックトレースを形成する連続したシーケンスとして表示される場合、それらは単一の統合ログレコードに結合されます。最初のログメッセージの内容は、シーケンス内のすべてのメッセージフィールドの連結コンテンツに置き換えられます。
コレクターは次の言語をサポートしています。
- Java
- JS
- Ruby
- Python
- golang
- PHP
- Dart
2.4.4.6. 不要なログレコードを削除するコンテンツフィルターの設定
drop
フィルターが設定されている場合、ログコレクターは転送する前にフィルターに従ってログストリームを評価します。コレクターは、指定された設定に一致する不要なログレコードを削除します。
手順
フィルターの設定を
ClusterLogForwarder
CR のfilters
仕様に追加します。以下の例は、正規表現に基づいてログレコードを削除するように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: serviceAccount: name: <service_account_name> filters: - name: <filter_name> type: drop 1 drop: 2 - test: 3 - field: .kubernetes.labels."foo-bar/baz" 4 matches: .+ 5 - field: .kubernetes.pod_name notMatches: "my-pod" 6 pipelines: - name: <pipeline_name> 7 filterRefs: ["<filter_name>"] # ...
- 1
- フィルターのタイプを指定します。
drop
フィルターは、フィルター設定に一致するログレコードをドロップします。 - 2
drop
フィルターを適用するための設定オプションを指定します。- 3
- ログレコードが削除されるかどうかを評価するために使用されるテストの設定を指定します。
- テストに指定されたすべての条件が true の場合、テストは合格し、ログレコードは削除されます。
-
drop
フィルター設定に複数のテストが指定されている場合、いずれかのテストに合格すると、レコードは削除されます。 - 条件の評価中にエラーが発生した場合 (たとえば、評価対象のログレコードにフィールドがない場合)、その条件は false と評価されます。
- 4
- ドットで区切られたフィールドパス (ログレコード内のフィールドへのパス) を指定します。パスには、英数字とアンダースコア (
a-zA-Z0-9_
) を含めることができます (例:.kubernetes.namespace_name
)。セグメントにこの範囲外の文字が含まれている場合、セグメントを引用符で囲む必要があります (例:.kubernetes.labels."foo.bar-bar/baz")
。1 つのtest
設定に複数のフィールドパスを含めることができますが、テストに合格してdrop
フィルターを適用するには、すべてのフィールドパスが true と評価される必要があります。 - 5
- 正規表現を指定します。ログレコードがこの正規表現と一致する場合は、破棄されます。単一の
field
パスに対してmatches
またはnotMatches
条件のいずれかを設定できますが、両方を設定することはできません。 - 6
- 正規表現を指定します。ログレコードがこの正規表現に一致しない場合、破棄されます。単一の
field
パスに対してmatches
またはnotMatches
条件のいずれかを設定できますが、両方を設定することはできません。 - 7
drop
フィルターが適用されるパイプラインを指定します。
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
追加例
次の例は、優先度の高いログレコードのみを保持するように drop
フィルターを設定する方法を示しています。
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: serviceAccount: name: <service_account_name> filters: - name: important type: drop drop: - test: - field: .message notMatches: "(?i)critical|error" - field: .level matches: "info|warning" # ...
単一の test
設定に複数のフィールドパスを追加する以外に、OR チェックとして扱われる追加のテストも追加できます。次の例では、いずれかの test
設定が true と評価されるとレコードが削除されます。ただし、2 番目の test
設定では、true と評価されるためには、両方のフィールド仕様が true である必要があります。
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: serviceAccount: name: <service_account_name> filters: - name: important type: drop drop: - test: - field: .kubernetes.namespace_name matches: "^open" - test: - field: .log_type matches: "application" - field: .kubernetes.pod_name notMatches: "my-pod" # ...
2.4.4.7. API 監査フィルターの概要
OpenShift API サーバーは、API 呼び出しごとに、リクエスト、レスポンス、リクエスターの ID の詳細を示す監査イベントを生成するため、大量のデータが生成されます。API 監査フィルターはルールを使用して、重要でないイベントを除外してイベントサイズを減少できるようにし、監査証跡をより管理しやすくします。ルールは順番にチェックされ、最初の一致でチェックが停止します。イベントに含まれるデータの量は、level
フィールドの値によって決まります。
-
None
: イベントはドロップされます。 -
Metadata
: 監査メタデータが含まれ、リクエストおよびレスポンスの本文は削除されます。 -
Request
: 監査メタデータとリクエスト本文が含まれ、レスポンス本文は削除されます。 -
RequestResponse
: メタデータ、リクエスト本文、レスポンス本文のすべてのデータが含まれます。レスポンス本文が非常に大きくなる可能性があります。たとえば、oc get pods -A
はクラスター内のすべての Pod の YAML 記述を含むレスポンス本文を生成します。
ClusterLogForwarder
カスタムリソース (CR) は、以下の追加機能を提供しますが、標準の Kubernetes 監査ポリシー と同じ形式を使用します。
- ワイルドカード
-
ユーザー、グループ、namespace、およびリソースの名前には、先頭または末尾に
*
アスタリスク文字を付けることができます。たとえば、namespaceopenshift-\*
はopenshift-apiserver
またはopenshift-authentication
に一致します。リソース\*/status
は、Pod/status
またはDeployment/status
と一致します。 - デフォルトのルール
ポリシーのルールに一致しないイベントは、以下のようにフィルターされます。
-
get
、list
、watch
などの読み取り専用システムイベントは削除されます。 - サービスアカウントと同じ namespace 内で発生するサービスアカウント書き込みイベントはドロップされます。
- 他のすべてのイベントは、設定されたレート制限に従って転送されます。
-
これらのデフォルトを無効にするには、level
フィールドのみが含まれるルールでルールリストを終了するか、空のルールを追加します。
- 応答コードが省略される
-
省略する整数ステータスコードのリスト。イベントが作成されない HTTP ステータスコードをリストする
OmitResponseCodes
フィールドを使用して、応答で HTTP ステータスコードに基づいてイベントをドロップできます。デフォルト値は[404, 409, 422, 429]
です。値が空のリスト[]
の場合、ステータスコードは省略されません。
ClusterLogForwarder
CR の監査ポリシーは、OpenShift Container Platform の監査ポリシーに加えて動作します。ClusterLogForwarder
CR 監査フィルターは、ログコレクターが転送する内容を変更し、verb、user、group、namespace、または resource でフィルタリングする機能を提供します。複数のフィルターを作成して、同じ監査ストリームの異なるサマリーを異なる場所に送信できます。たとえば、詳細なストリームをローカルクラスターログストアに送信し、詳細度の低いストリームをリモートサイトに送信できます。
監査ログを収集するには、クラスターロール collect-audit-logs
が必要です。提供されている例は、監査ポリシーで可能なルールの範囲を示すことを目的としており、推奨される設定ではありません。
監査ポリシーの例
apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> namespace: <log_forwarder_namespace> spec: serviceAccount: name: <service_account_name> pipelines: - name: my-pipeline inputRefs: audit 1 filterRefs: my-policy 2 filters: - name: my-policy type: kubeAPIAudit kubeAPIAudit: # Don't generate audit events for all requests in RequestReceived stage. omitStages: - "RequestReceived" rules: # Log pod changes at RequestResponse level - level: RequestResponse resources: - group: "" resources: ["pods"] # Log "pods/log", "pods/status" at Metadata level - level: Metadata resources: - group: "" resources: ["pods/log", "pods/status"] # Don't log requests to a configmap called "controller-leader" - level: None resources: - group: "" resources: ["configmaps"] resourceNames: ["controller-leader"] # Don't log watch requests by the "system:kube-proxy" on endpoints or services - level: None users: ["system:kube-proxy"] verbs: ["watch"] resources: - group: "" # core API group resources: ["endpoints", "services"] # Don't log authenticated requests to certain non-resource URL paths. - level: None userGroups: ["system:authenticated"] nonResourceURLs: - "/api*" # Wildcard matching. - "/version" # Log the request body of configmap changes in kube-system. - level: Request resources: - group: "" # core API group resources: ["configmaps"] # This rule only applies to resources in the "kube-system" namespace. # The empty string "" can be used to select non-namespaced resources. namespaces: ["kube-system"] # Log configmap and secret changes in all other namespaces at the Metadata level. - level: Metadata resources: - group: "" # core API group resources: ["secrets", "configmaps"] # Log all other resources in core and extensions at the Request level. - level: Request resources: - group: "" # core API group - group: "extensions" # Version of group should NOT be included. # A catch-all rule to log all other requests at the Metadata level. - level: Metadata
2.4.4.8. ラベル式または一致するラベルキーと値を含む入力時でのアプリケーションログのフィルタリング
input
セレクターを使用して、ラベル式または照合するラベルキーとその値に基づいてアプリケーションログを含めることができます。
手順
ClusterLogForwarder
CR のinput
仕様にフィルターの設定を追加します。以下の例は、ラベル式または一致したラベルキー/値に基づいてログを組み込むように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder # ... spec: serviceAccount: name: <service_account_name> inputs: - name: mylogs application: selector: matchExpressions: - key: env 1 operator: In 2 values: ["prod", "qa"] 3 - key: zone operator: NotIn values: ["east", "west"] matchLabels: 4 app: one name: app1 type: application # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
2.4.4.9. ログレコードを削除するコンテンツフィルターの設定
prune
フィルターが設定されると、ログコレクターは転送前にフィルターをもとにログレベルを評価します。コレクターは、Pod アノテーションなどの値の低いフィールドを削除してログレコードを整理します。
手順
フィルターの設定を
ClusterLogForwarder
CR のprune
仕様に追加します。次の例は、フィールドパスに基づいてログレコードを削除するように
ClusterLogForwarder
CR を設定する方法を示しています。重要両方が指定されている場合、最初に
notIn
配列に基づいてレコードが整理され、in
配列よりも優先されます。notIn
配列を使用してレコードが整理された後、in
配列を使用してレコードが整理されます。ClusterLogForwarder
CR の例apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: serviceAccount: name: <service_account_name> filters: - name: <filter_name> type: prune 1 prune: 2 in: [.kubernetes.annotations, .kubernetes.namespace_id] 3 notIn: [.kubernetes,.log_type,.message,."@timestamp"] 4 pipelines: - name: <pipeline_name> 5 filterRefs: ["<filter_name>"] # ...
- 1
- フィルターのタイプを指定します。
prune
フィルターでは、設定されたフィールドでログレコードをプルーニングします。 - 2
prune
フィルターを適用するための設定オプションを指定します。in
フィールドとnotIn
フィールドは、ログレコード内のフィールドへのパスであるドット区切りのフィールドパスの配列として指定されます。これらのパスには、英数字とアンダースコア (a-zA-Z0-9_
) を含めることができます (例:.kubernetes.namespace_name
)。セグメントにこの範囲外の文字が含まれている場合、セグメントを引用符で囲む必要があります (例:.kubernetes.labels."foo.bar-bar/baz")
。- 3
- オプション: この配列で指定されたフィールドはすべてログレコードから削除されます。
- 4
- オプション: この配列で指定されていないフィールドはログレコードから削除されます。
- 5
prune
フィルターを適用するパイプラインを指定します。
注記フィルターは、
log_type
、.log_source
、および.message
フィールドを除外します。次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
2.4.5. ソースによる監査およびインフラストラクチャーログ入力のフィルタリング
input
セレクターを使用して、ログを収集する audit
および infrastructure
ソースのリストを定義できます。
手順
ClusterLogForwarder
CR にaudit
およびinfrastructure
ソースを定義する設定を追加します。次の例は、
ClusterLogForwarder
CR を設定してaudit
およびinfrastructure
ソースを定義する方法を示しています。ClusterLogForwarder
CR の例apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder # ... spec: serviceAccount: name: <service_account_name> inputs: - name: mylogs1 type: infrastructure infrastructure: sources: 1 - node - name: mylogs2 type: audit audit: sources: 2 - kubeAPI - openshiftAPI - ovn # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
2.4.6. namespace またはコンテナー名を含めるか除外して入力時にアプリケーションログをフィルタリングする手順
input
セレクターを使用して、namespace とコンテナー名に基づいてアプリケーションログを含めたり除外したりできます。
手順
ClusterLogForwarder
CR に namespace とコンテナー名を含めるか除外するかの設定を追加します。以下の例は、namespace およびコンテナー名を含めるか、除外するように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: observability.openshift.io/v1 kind: ClusterLogForwarder # ... spec: serviceAccount: name: <service_account_name> inputs: - name: mylogs application: includes: - namespace: "my-project" 1 container: "my-container" 2 excludes: - container: "other-container*" 3 namespace: "other-namespace" 4 type: application # ...
注記excludes
フィールドはincludes
フィールドよりも優先されます。次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
2.5. LokiStack でログを保存する
アプリケーション、監査、インフラストラクチャー関連のログを保存するように LokiStack
CR を設定できます。
2.5.1. 前提条件
- CLI または Web コンソールを使用して Loki Operator をインストールしている。
-
ClusterLogForwarder
を作成するのと同じ namespace にserviceAccount
がある。 -
serviceAccount
にcollect-audit-logs
、collect-application-logs
、collect-infrastructure-logs
のクラスターロールが割り当てられている。
2.5.1.1. コアのセットアップと設定
ロールベースのアクセス制御、基本的なモニタリング、および Loki をデプロイするための Pod の配置。
2.5.2. LokiStack ルールの RBAC 権限の認可
管理者は、クラスターロールをユーザー名にバインドすることで、ユーザーが独自のアラートおよび記録ルールを作成および管理できるようにすることができます。クラスターロールは、ユーザーに必要なロールベースのアクセス制御 (RBAC) 権限を含む ClusterRole
オブジェクトとして定義されます。
LokiStack では、アラートおよび記録ルール用の次のクラスターロールが利用できます。
ルール名 | 説明 |
---|---|
|
このロールを持つユーザーは、アラートルールを管理する管理レベルのアクセス権を持ちます。このクラスターロールは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、記録ルールを管理する管理レベルのアクセス権を持ちます。このクラスターロールは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
2.5.2.1. 例
ユーザーにクラスターロールを適用するには、既存のクラスターロールを特定のユーザー名にバインドする必要があります。
クラスターロールは、使用するロールバインディングの種類に応じて、クラスタースコープまたは namespace スコープにすることができます。RoleBinding
オブジェクトを使用する場合は、oc adm policy add-role-to-user
コマンドを使用する場合と同様に、クラスターロールが指定した namespace にのみ適用されます。ClusterRoleBinding
オブジェクトを使用する場合は、oc adm policy add-cluster-role-to-user
コマンドを使用する場合と同様に、クラスターロールがクラスター内のすべての namespace に適用されます。
次のコマンド例では、指定したユーザーに、クラスター内の特定の namespace のアラートルールに対する作成、読み取り、更新、および削除 (CRUD) 権限を付与します。
特定の namespace のアラートルールに対する CRUD 権限を付与するクラスターロールバインディングコマンドの例
$ oc adm policy add-role-to-user alertingrules.loki.grafana.com-v1-admin -n <namespace> <username>
次のコマンドは、指定したユーザーに、すべての namespace のアラートルールに対する管理者権限を付与します。
管理者権限を付与するクラスターロールバインディングコマンドの例
$ oc adm policy add-cluster-role-to-user alertingrules.loki.grafana.com-v1-admin <username>
2.5.3. Loki を使用したログベースのアラートルールの作成
AlertingRule
CR には、単一の LokiStack
インスタンスのアラートルールグループを宣言するために使用する、仕様および Webhook 検証定義のセットが含まれます。Webhook 検証定義は、ルール検証条件もサポートします。
-
AlertingRule
CR に無効なinterval
期間が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に無効なfor
期間が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に無効な LogQLexpr
が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に同じ名前のグループが 2 つ含まれる場合、無効なアラートルールです。 - 上記のいずれも該当しない場合、アラートルールは有効とみなされます。
テナントタイプ | AlertingRule CR の有効な namespace |
---|---|
application |
|
audit |
|
infrastructure |
|
手順
AlertingRule
カスタムリソース (CR) を作成します。インフラストラクチャー
AlertingRule
CR の例apiVersion: loki.grafana.com/v1 kind: AlertingRule metadata: name: loki-operator-alerts namespace: openshift-operators-redhat 1 labels: 2 openshift.io/<label_name>: "true" spec: tenantID: "infrastructure" 3 groups: - name: LokiOperatorHighReconciliationError rules: - alert: HighPercentageError expr: | 4 sum(rate({kubernetes_namespace_name="openshift-operators-redhat", kubernetes_pod_name=~"loki-operator-controller-manager.*"} |= "error" [1m])) by (job) / sum(rate({kubernetes_namespace_name="openshift-operators-redhat", kubernetes_pod_name=~"loki-operator-controller-manager.*"}[1m])) by (job) > 0.01 for: 10s labels: severity: critical 5 annotations: summary: High Loki Operator Reconciliation Errors 6 description: High Loki Operator Reconciliation Errors 7
- 1
- この
AlertingRule
CR が作成される namespace には、LokiStackspec.rules.namespaceSelector
定義に一致するラベルが必要です。 - 2
labels
ブロックは、LokiStack のspec.rules.selector
定義と一致する必要があります。- 3
infrastructure
テナントのAlertingRule
CR は、openshift-*
、kube-\*
、またはdefault
namespaces でのみサポートされます。- 4
kubernetes_namespace_name:
の値は、metadata.namespace
の値と一致する必要があります。- 5
- この必須フィールドの値は、
critical
、warning
、またはinfo
である必要があります。 - 6
- このフィールドは必須です。
- 7
- このフィールドは必須です。
アプリケーション
AlertingRule
CR の例apiVersion: loki.grafana.com/v1 kind: AlertingRule metadata: name: app-user-workload namespace: app-ns 1 labels: 2 openshift.io/<label_name>: "true" spec: tenantID: "application" groups: - name: AppUserWorkloadHighError rules: - alert: expr: | 3 sum(rate({kubernetes_namespace_name="app-ns", kubernetes_pod_name=~"podName.*"} |= "error" [1m])) by (job) for: 10s labels: severity: critical 4 annotations: summary: 5 description: 6
- 1
- この
AlertingRule
CR が作成される namespace には、LokiStackspec.rules.namespaceSelector
定義に一致するラベルが必要です。 - 2
labels
ブロックは、LokiStack のspec.rules.selector
定義と一致する必要があります。- 3
kubernetes_namespace_name:
の値は、metadata.namespace
の値と一致する必要があります。- 4
- この必須フィールドの値は、
critical
、warning
、またはinfo
である必要があります。 - 5
- この必須フィールドの値は、ルールの概要です。
- 6
- この必須フィールドの値は、ルールの詳細な説明です。
AlertingRule
CR を適用します。$ oc apply -f <filename>.yaml
2.5.4. メンバーリストの作成の失敗を許容する Loki の設定
OpenShift Container Platform クラスターでは、管理者は通常、非プライベート IP ネットワーク範囲を使用します。その結果、LokiStack メンバーリストはデフォルトでプライベート IP ネットワークのみを使用するため、LokiStack メンバーリストの設定は失敗します。
管理者は、メンバーリスト設定の Pod ネットワークを選択できます。LokiStack
カスタムリソース (CR) を変更して、hashRing
仕様で podIP
アドレスを使用できます。LokiStack
CR を設定するには、以下のコマンドを使用します。
$ oc patch LokiStack logging-loki -n openshift-logging --type=merge -p '{"spec": {"hashRing":{"memberlist":{"instanceAddrType":"podIP"},"type":"memberlist"}}}'
podIP
を含める LokiStack の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... hashRing: type: memberlist memberlist: instanceAddrType: podIP # ...
2.5.5. Loki でストリームベースの保持の有効化
ログストリームに基づいて保持ポリシーを設定できます。これらのルールは、グローバル、テナントごと、またはその両方で設定できます。両方で設定すると、グローバルルールの前にテナントルールが適用されます。
s3 バケットまたは LokiStack カスタムリソース (CR) に保存期間が定義されていない場合、ログは削除されず、s3 バケットに永久に残り、s3 ストレージがいっぱいになる可能性があります。
スキーマ v13 が推奨されます。
手順
LokiStack
CR を作成します。次の例に示すように、ストリームベースの保持をグローバルに有効にします。
AWS のグローバルストリームベースの保持の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: 1 retention: 2 days: 20 streams: - days: 4 priority: 1 selector: '{kubernetes_namespace_name=~"test.+"}' 3 - days: 1 priority: 1 selector: '{log_type="infrastructure"}' managementState: Managed replicationFactor: 1 size: 1x.small storage: schemas: - effectiveDate: "2020-10-11" version: v13 secret: name: logging-loki-s3 type: aws storageClassName: gp3-csi tenants: mode: openshift-logging
- 1
- すべてのログストリームの保持ポリシーを設定します。注記: このフィールドは、オブジェクトストレージに保存されたログの保持期間には影響しません。
- 2
- このブロックが CR に追加されると、クラスターで保持が有効になります。
- 3
- ログ stream.spec: 制限を定義するために使用される LogQL クエリー が含まれます。
次の例に示すように、テナントごとにストリームベースの保持を有効にします。
AWS のテナントごとのストリームベースの保持の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: retention: days: 20 tenants: 1 application: retention: days: 1 streams: - days: 4 selector: '{kubernetes_namespace_name=~"test.+"}' 2 infrastructure: retention: days: 5 streams: - days: 1 selector: '{kubernetes_namespace_name=~"openshift-cluster.+"}' managementState: Managed replicationFactor: 1 size: 1x.small storage: schemas: - effectiveDate: "2020-10-11" version: v13 secret: name: logging-loki-s3 type: aws storageClassName: gp3-csi tenants: mode: openshift-logging
- 1
- テナントごとの保持ポリシーを設定します。有効なテナントタイプは、
application
、audit
、およびinfrastructure
です。 - 2
- ログストリームの定義に使用される LogQL クエリー が含まれています。
LokiStack
CR を適用します。$ oc apply -f <filename>.yaml
注記これは、保存されたログの保持を管理するためのものではありません。保存されたログのグローバルな保持期間 (最大 30 日間までサポート) は、オブジェクトストレージで設定します。
2.5.6. Loki Pod の配置
Pod の toleration またはノードセレクターを使用して、Loki Pod が実行するノードを制御し、他のワークロードがそれらのノードを使用しないようにできます。
LokiStack カスタムリソース (CR) を使用して toleration をログストア Pod に適用し、ノード仕様を使用して taint をノードに適用できます。ノードの taint は、taint を容認しないすべての Pod を拒否するようノードに指示する key:value
ペアです。他の Pod にはない特定の key:value
ペアを使用すると、ログストア Pod のみがそのノードで実行できるようになります。
ノードセレクターを使用する LokiStack の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: 1 nodeSelector: node-role.kubernetes.io/infra: "" 2 distributor: nodeSelector: node-role.kubernetes.io/infra: "" gateway: nodeSelector: node-role.kubernetes.io/infra: "" indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" ingester: nodeSelector: node-role.kubernetes.io/infra: "" querier: nodeSelector: node-role.kubernetes.io/infra: "" queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" ruler: nodeSelector: node-role.kubernetes.io/infra: "" # ...
ノードセレクターと toleration を使用する LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved distributor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ingester: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved querier: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ruler: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved gateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved # ...
LokiStack (CR) の nodeSelector
フィールドと tolerations
フィールドを設定するには、oc explain
コマンドを使用して、特定のリソースの説明とフィールドを表示します。
$ oc explain lokistack.spec.template
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: template <Object> DESCRIPTION: Template defines the resource/limits/tolerations/nodeselectors per component FIELDS: compactor <Object> Compactor defines the compaction component spec. distributor <Object> Distributor defines the distributor component spec. ...
詳細情報用に、特定のフィールドを追加できます。
$ oc explain lokistack.spec.template.compactor
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: compactor <Object> DESCRIPTION: Compactor defines the compaction component spec. FIELDS: nodeSelector <map[string]string> NodeSelector defines the labels required by a node to schedule the component onto it. ...
2.5.6.1. 信頼性とパフォーマンスの向上
実稼働環境における Loki の信頼性と効率性を確保するための設定。
2.5.7. 有効期間の短いトークンを使用したクラウドベースのログストアへの認証の有効化
ワークロードアイデンティティーフェデレーションを使用すると、有効期間の短いトークンを使用してクラウドベースのログストアに対して認証できます。
手順
認証を有効にするには、次のいずれかのオプションを使用します。
-
OpenShift Container Platform Web コンソールを使用して Loki Operator をインストールすると、有効期間が短いトークンを使用するクラスターが自動的に検出されます。プロンプトが表示され、ロールを作成するように求められます。また、Loki Operator が
CredentialsRequest
オブジェクトを作成するのに必要なデータを提供するように求められます。このオブジェクトにより、シークレットが設定されます。 OpenShift CLI (
oc
) を使用して Loki Operator をインストールする場合は、次の例に示すように、ストレージプロバイダーに適したテンプレートを使用してSubscription
オブジェクトを手動で作成する必要があります。この認証ストラテジーは、指定のストレージプロバイダーでのみサポートされます。Azure サンプルサブスクリプションの例
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat spec: channel: "stable-6.0" installPlanApproval: Manual name: loki-operator source: redhat-operators sourceNamespace: openshift-marketplace config: env: - name: CLIENTID value: <your_client_id> - name: TENANTID value: <your_tenant_id> - name: SUBSCRIPTIONID value: <your_subscription_id> - name: REGION value: <your_region>
AWS サンプルサブスクリプションの例
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat spec: channel: "stable-6.0" installPlanApproval: Manual name: loki-operator source: redhat-operators sourceNamespace: openshift-marketplace config: env: - name: ROLEARN value: <role_ARN>
-
OpenShift Container Platform Web コンソールを使用して Loki Operator をインストールすると、有効期間が短いトークンを使用するクラスターが自動的に検出されます。プロンプトが表示され、ロールを作成するように求められます。また、Loki Operator が
2.5.8. ノードの障害を許容するための Loki の設定
Loki Operator は、同じコンポーネントの Pod がクラスター内の異なる使用可能なノードにスケジュールされるように要求する Pod アンチアフィニティールールの設定をサポートしています。
アフィニティーとは、スケジュールするノードを制御する Pod の特性です。非アフィニティーとは、Pod がスケジュールされることを拒否する Pod の特性です。
OpenShift Container Platform では、Pod のアフィニティー と Pod の非アフィニティー によって、他の Pod のキー/値ラベルに基づいて、Pod のスケジュールに適したノードを制限できます。
Operator は、すべての Loki コンポーネント (compactor
、distributor
、gateway
、indexGateway
、ingester
、querier
、queryFrontend
、および ruler
コンポーネントを含む) に対してデフォルトの優先 podAntiAffinity
ルールを設定します。
requiredDuringSchedulingIgnoredDuringExecution
フィールドに必要な設定を指定して、Loki コンポーネントの希望の podAntiAffinity
設定を上書きできます。
インジェスターコンポーネントのユーザー設定の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: ingester: podAntiAffinity: # ... requiredDuringSchedulingIgnoredDuringExecution: 1 - labelSelector: matchLabels: 2 app.kubernetes.io/component: ingester topologyKey: kubernetes.io/hostname # ...
2.5.9. クラスターの再起動中の LokiStack 動作
OpenShift Container Platform クラスターが再起動されると、LokiStack の取り込みとクエリーパスは、ノードで使用可能な CPU およびメモリーリソース内で引き続き動作します。つまり、OpenShift Container Platform クラスターの更新中に LokiStack でダウンタイムは発生しません。この動作は、PodDisruptionBudget
リソースを使用して実現されます。Loki Operator は、Loki に PodDisruptionBudget
リソースをプロビジョニングするため、特定の条件下で通常の動作を保証するためにコンポーネントごとに必要最小限、使用可能な Pod 数が決定されます。
2.5.9.1. 高度なデプロイメントとスケーラビリティー
高可用性、スケーラビリティー、エラー処理のための特殊な設定。
2.5.10. ゾーン対応のデータレプリケーション
Loki Operator は、Pod トポロジーの分散制約を通じて、ゾーン対応のデータレプリケーションのサポートを提供します。この機能を有効にすると、信頼性が向上し、1 つのゾーンで障害が発生した場合のログ損失に対する保護が強化されます。デプロイメントサイズを 1x.extra.small
、1x.small
、または 1x.medium
に設定すると、replication.factor
フィールドは自動的に 2 に設定されます。
適切なレプリケーションを実現するには、少なくともレプリケーション係数で指定されているのと同じ数のアベイラビリティーゾーンが必要です。レプリケーション係数より多くのアベイラビリティーゾーンを設定することは可能ですが、ゾーンが少ないと書き込みエラーが発生する可能性があります。最適な運用を実現するには、各ゾーンで同じ数のインスタンスをホストする必要があります。
ゾーンレプリケーションが有効になっている LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: replicationFactor: 2 1 replication: factor: 2 2 zones: - maxSkew: 1 3 topologyKey: topology.kubernetes.io/zone 4
2.5.11. 障害が発生したゾーンからの Loki Pod の回復
OpenShift Container Platform では、特定のアベイラビリティーゾーンのリソースにアクセスできなくなると、ゾーン障害が発生します。アベイラビリティーゾーンは、冗長性とフォールトトレランスを強化することを目的とした、クラウドプロバイダーのデータセンター内の分離されたエリアです。OpenShift Container Platform クラスターがこの問題を処理するように設定されていない場合、ゾーン障害によりサービスまたはデータの損失が発生する可能性があります。
Loki Pod は StatefulSet の一部であり、StorageClass
オブジェクトによってプロビジョニングされた永続ボリューム要求 (PVC) が付属しています。各 Loki Pod とその PVC は同じゾーンに存在します。クラスターでゾーン障害が発生すると、StatefulSet コントローラーが、障害が発生したゾーン内の影響を受けた Pod の回復を自動的に試みます。
次の手順では、障害が発生したゾーン内の PVC とそこに含まれるすべてのデータを削除します。完全なデータ損失を回避するには、LokiStack
CR のレプリケーション係数フィールドを常に 1 より大きい値に設定して、Loki が確実にレプリケートされるようにする必要があります。
前提条件
-
LokiStack
CR のレプリケーション係数が 1 より大きいことを確認している。 - コントロールプレーンによってゾーン障害が検出され、障害が発生したゾーン内のノードがクラウドプロバイダー統合によってマークされている。
StatefulSet コントローラーは、障害が発生したゾーン内の Pod を自動的に再スケジュールしようとします。関連する PVC も障害が発生したゾーンにあるため、別のゾーンへの自動再スケジュールは機能しません。新しいゾーンでステートフル Loki Pod とそのプロビジョニングされた PVC を正常に再作成できるようにするには、障害が発生したゾーンの PVC を手動で削除する必要があります。
手順
次のコマンドを実行して、
Pending
中ステータスの Pod をリスト表示します。$ oc get pods --field-selector status.phase==Pending -n openshift-logging
oc get pods
の出力例NAME READY STATUS RESTARTS AGE 1 logging-loki-index-gateway-1 0/1 Pending 0 17m logging-loki-ingester-1 0/1 Pending 0 16m logging-loki-ruler-1 0/1 Pending 0 16m
- 1
- これらの Pod は、障害が発生したゾーンに対応する PVC があるため、
Pending
ステータスになっています。
次のコマンドを実行して、
Pending
ステータスの PVC をリストします。$ oc get pvc -o=json -n openshift-logging | jq '.items[] | select(.status.phase == "Pending") | .metadata.name' -r
oc get pvc
の出力例storage-logging-loki-index-gateway-1 storage-logging-loki-ingester-1 wal-logging-loki-ingester-1 storage-logging-loki-ruler-1 wal-logging-loki-ruler-1
次のコマンドを実行して Pod の PVC を削除します。
$ oc delete pvc <pvc_name> -n openshift-logging
次のコマンドを実行して Pod を削除します。
$ oc delete pod <pod_name> -n openshift-logging
これらのオブジェクトが正常に削除されると、使用可能なゾーンでオブジェクトが自動的に再スケジュールされます。
2.5.11.1. terminating 状態の PVC のトラブルシューティング
PVC メタデータファイナライザーが kubernetes.io/pv-protection
に設定されている場合、PVC が削除されずに terminating 状態でハングする可能性があります。ファイナライザーを削除すると、PVC が正常に削除されるようになります。
以下のコマンドを実行して各 PVC のファイナライザーを削除し、削除を再試行します。
$ oc patch pvc <pvc_name> -p '{"metadata":{"finalizers":null}}' -n openshift-logging
2.5.12. Loki レート制限エラーのトラブルシューティング
Log Forwarder API がレート制限を超える大きなメッセージブロックを Loki に転送すると、Loki により、レート制限 (429
) エラーが生成されます。
これらのエラーは、通常の動作中に発生する可能性があります。たとえば、すでにいくつかのログがあるクラスターにロギングを追加する場合、ロギングが既存のログエントリーをすべて取り込もうとするとレート制限エラーが発生する可能性があります。この場合、新しいログの追加速度が合計レート制限よりも低い場合、履歴データは最終的に取り込まれ、ユーザーの介入を必要とせずにレート制限エラーが解決されます。
レート制限エラーが引き続き発生する場合は、LokiStack
カスタムリソース (CR) を変更することで問題を解決できます。
LokiStack
CR は、Grafana がホストする Loki では利用できません。このトピックは、Grafana がホストする Loki サーバーには適用されません。
条件
- Log Forwarder API は、ログを Loki に転送するように設定されている。
システムは、次のような 2MB を超えるメッセージのブロックを Loki に送信する。以下に例を示します。
"values":[["1630410392689800468","{\"kind\":\"Event\",\"apiVersion\":\ ....... ...... ...... ...... \"received_at\":\"2021-08-31T11:46:32.800278+00:00\",\"version\":\"1.7.4 1.6.0\"}},\"@timestamp\":\"2021-08-31T11:46:32.799692+00:00\",\"viaq_index_name\":\"audit-write\",\"viaq_msg_id\":\"MzFjYjJkZjItNjY0MC00YWU4LWIwMTEtNGNmM2E5ZmViMGU4\",\"log_type\":\"audit\"}"]]}]}
oc logs -n openshift-logging -l component=collector
と入力すると、クラスター内のコレクターログに、次のいずれかのエラーメッセージを含む行が表示されます。429 Too Many Requests Ingestion rate limit exceeded
Vector エラーメッセージの例
2023-08-25T16:08:49.301780Z WARN sink{component_kind="sink" component_id=default_loki_infra component_type=loki component_name=default_loki_infra}: vector::sinks::util::retries: Retrying after error. error=Server responded with an error: 429 Too Many Requests internal_log_rate_limit=true
Fluentd エラーメッセージの例
2023-08-30 14:52:15 +0000 [warn]: [default_loki_infra] failed to flush the buffer. retry_times=2 next_retry_time=2023-08-30 14:52:19 +0000 chunk="604251225bf5378ed1567231a1c03b8b" error_class=Fluent::Plugin::LokiOutput::LogPostError error="429 Too Many Requests Ingestion rate limit exceeded for user infrastructure (limit: 4194304 bytes/sec) while attempting to ingest '4082' lines totaling '7820025' bytes, reduce log volume or contact your Loki administrator to see if the limit can be increased\n"
このエラーは受信側にも表示されます。たとえば、LokiStack 取り込み Pod で以下を行います。
Loki 取り込みエラーメッセージの例
level=warn ts=2023-08-30T14:57:34.155592243Z caller=grpc_logging.go:43 duration=1.434942ms method=/logproto.Pusher/Push err="rpc error: code = Code(429) desc = entry with timestamp 2023-08-30 14:57:32.012778399 +0000 UTC ignored, reason: 'Per stream rate limit exceeded (limit: 3MB/sec) while attempting to ingest for stream
手順
LokiStack
CR のingestionBurstSize
およびingestionRate
フィールドを更新します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: ingestion: ingestionBurstSize: 16 1 ingestionRate: 8 2 # ...
- 1
ingestionBurstSize
フィールドは、ディストリビューターレプリカごとに最大ローカルレート制限サンプルサイズを MB 単位で定義します。この値はハードリミットです。この値を、少なくとも 1 つのプッシュリクエストで想定される最大ログサイズに設定します。ingestionBurstSize
値より大きい単一リクエストは使用できません。- 2
ingestionRate
フィールドは、1 秒あたりに取り込まれるサンプルの最大量 (MB 単位) に対するソフト制限です。ログのレートが制限を超えているにもかかわらず、コレクターがログの送信を再試行すると、レート制限エラーが発生します。合計平均が制限よりも少ない場合に限り、システムは回復し、ユーザーの介入なしでエラーが解決されます。
2.6. ロギングの可視化
ロギングの可視化は、Cluster Observability Operator の Logging UI プラグイン をデプロイすることで提供されます。そのためには Operator のインストールが必要です。
現在は テクノロジープレビュー (TP) 機能である Cluster Observability Operator (COO) の一般提供 (GA) リリースが近づくまで、Red Hat は、OpenShift Container Platform 4.14 以降の Logging UI プラグインの COO で Logging 6.0 以降を使用しているお客様にサポートを提供します。COO にはいくつかの独立した機能が含まれており、その一部はまだテクノロジープレビュー機能であるため、このサポート例外は一時的なものです。ただし、Logging UI プラグインは GA の準備が完了しています。
第3章 サポート
このドキュメントで説明されている設定オプションのみがロギングでサポートされています。
他の設定オプションはサポートされていないため、使用しないでください。設定のパラダイムが OpenShift Container Platform リリース間で変更される可能性があり、このような変更は、設定のすべての可能性が制御されている場合のみ適切に対応できます。Operator は相違点を調整するように設計されているため、このドキュメントで説明されている以外の設定を使用すると、変更は上書きされます。
OpenShift Container Platform ドキュメントで説明されていない設定を実行する必要がある場合は、Red Hat OpenShift Logging Operator を Unmanaged
に設定する必要があります。管理外のロギングインスタンスはサポートされていないため、ステータスを Managed
に戻すまで更新は受信されません。
Logging は、コアの OpenShift Container Platform とは異なるリリースサイクルで、インストール可能なコンポーネントとして提供されます。Red Hat OpenShift Container Platform ライフサイクルポリシー は、リリースの互換性を概説しています。
Red Hat OpenShift Logging は、アプリケーション、インフラストラクチャー、および監査ログの独自のコレクターおよびノーマライザーです。これは、サポートされているさまざまなシステムにログを転送するために使用することを目的としています。
Logging は、以下ではありません。
- 大規模なログ収集システム
- セキュリティー情報およびイベント監視 (SIEM) に準拠
- 履歴または長期のログの保持または保管
- 保証されたログシンク
- 安全なストレージ - 監査ログはデフォルトでは保存されません
3.1. サポート対象の API カスタムリソース定義
LokiStack は開発中です。現在、一部の API はサポートされていません。
CustomResourceDefinition (CRD) | ApiVersion | サポートの状態 |
---|---|---|
LokiStack | lokistack.loki.grafana.com/v1 | 5.5 でサポート |
RulerConfig | rulerconfig.loki.grafana/v1 | 5.7 でサポート |
AlertingRule | alertingrule.loki.grafana/v1 | 5.7 でサポート |
RecordingRule | recordingrule.loki.grafana/v1 | 5.7 でサポート |
3.2. サポートされない設定
以下のコンポーネントを変更するには、Red Hat OpenShift Logging Operator を Unmanaged
(管理外) の状態に設定する必要があります。
-
Elasticsearch
カスタムリソース (CR) - Kibana デプロイメント
-
fluent.conf
ファイル - Fluentd デーモンセット
Elasticsearch デプロイメントファイルを変更するには、OpenShift Elasticsearch Operator を 非管理
状態に設定する必要があります。
明示的にサポート対象外とされているケースには、以下が含まれます。
- デフォルトのログローテーションの設定。デフォルトのログローテーション設定は変更できません。
-
収集したログの場所の設定。ログコレクターの出力ファイルの場所を変更することはできません。デフォルトは
/var/log/fluentd/fluentd.log
です。 - ログコレクションのスロットリング。ログコレクターによってログが読み取られる速度を調整して減速することはできません。
- 環境変数を使用したロギングコレクターの設定。環境変数を使用してログコレクターを変更することはできません。
- ログコレクターによってログを正規化する方法の設定。デフォルトのログの正規化を変更することはできません。
3.3. 管理外の Operator のサポートポリシー
Operator の 管理状態 は、Operator が設計通りにクラスター内の関連するコンポーネントのリソースをアクティブに管理しているかどうかを定めます。Operator が unmanaged 状態に設定されていると、これは設定の変更に応答せず、更新を受信しません。
これは非実稼働クラスターやデバッグ時に便利ですが、管理外の状態の Operator はサポートされず、クラスター管理者は個々のコンポーネント設定およびアップグレードを完全に制御していることを前提としています。
Operator は以下の方法を使用して管理外の状態に設定できます。
個別の Operator 設定
個別の Operator には、それらの設定に
managementState
パラメーターがあります。これは Operator に応じてさまざまな方法でアクセスできます。たとえば、Red Hat OpenShift Logging Operator は管理するカスタムリソース (CR) を変更することによってこれを実行しますが、Cluster Samples Operator はクラスター全体の設定リソースを使用します。managementState
パラメーターをUnmanaged
に変更する場合、Operator はそのリソースをアクティブに管理しておらず、コンポーネントに関連するアクションを取らないことを意味します。Operator によっては、クラスターが破損し、手動リカバリーが必要になる可能性があるため、この管理状態に対応しない可能性があります。警告個別の Operator を
Unmanaged
状態に変更すると、特定のコンポーネントおよび機能がサポート対象外になります。サポートを継続するには、報告された問題をManaged
状態で再現する必要があります。Cluster Version Operator (CVO) のオーバーライド
spec.overrides
パラメーターを CVO の設定に追加すると、管理者はコンポーネントの CVO の動作に対してオーバーライドの一覧を追加できます。コンポーネントのspec.overrides[].unmanaged
パラメーターをtrue
に設定すると、クラスターのアップグレードがブロックされ、CVO のオーバーライドが設定された後に管理者にアラートが送信されます。Disabling ownership via cluster version overrides prevents upgrades. Please remove overrides before continuing.
警告CVO のオーバーライドを設定すると、クラスター全体がサポートされない状態になります。サポートを継続するには、オーバーライドを削除した後に、報告された問題を再現する必要があります。
3.4. Logging UI プラグインのサポート例外
現在は テクノロジープレビュー (TP) 機能である Cluster Observability Operator (COO) の一般提供 (GA) リリースが近づくまで、Red Hat は、OpenShift Container Platform 4.14 以降の Logging UI プラグインの COO で Logging 6.0 以降を使用しているお客様にサポートを提供します。COO にはいくつかの独立した機能が含まれており、その一部はまだテクノロジープレビュー機能であるため、このサポート例外は一時的なものです。ただし、Logging UI プラグインは GA の準備が完了しています。
3.5. Red Hat サポート用のロギングデータの収集
サポートケースを作成する際、ご使用のクラスターのデバッグ情報を Red Hat サポートに提供していただくと Red Hat のサポートに役立ちます。
must-gather
ツール を使用すると、プロジェクトレベルのリソース、クラスターレベルのリソース、および各ロギングコンポーネントの診断情報を収集できます。
迅速なサポートを得るには、OpenShift Container Platform とロギングの両方の診断情報を提供してください。
hack/logging-dump.sh
スクリプトは使用しないでください。このスクリプトはサポートされなくなり、データを収集しません。
3.5.1. must-gather ツールについて
oc adm must-gather
CLI コマンドは、問題のデバッグに必要となる可能性のあるクラスターからの情報を収集します。
ロギングの場合、must-gather
は次の情報を収集します。
- プロジェクトレベルの Pod、config map、サービスアカウント、ロール、ロールバインディングおよびイベントを含むプロジェクトレベルのリソース
- クラスターレベルでのノード、ロール、およびロールバインディングを含むクラスターレベルのリソース
-
ログコレクター、ログストア、およびログビジュアライザーなどの
openshift-logging
およびopenshift-operators-redhat
namespace の OpenShift Logging リソース
oc adm must-gather
を実行すると、新しい Pod がクラスターに作成されます。データは Pod で収集され、must-gather.local
で始まる新規ディレクトリーに保存されます。このディレクトリーは、現行の作業ディレクトリーに作成されます。
3.5.2. ロギングデータの収集
oc adm must-gather
CLI コマンドを使用して、ロギングに関する情報を収集できます。
手順
must-gather
でロギング情報を収集するには、以下を実行します。
-
must-gather
情報を保存する必要のあるディレクトリーに移動します。 ログイメージに対して
oc adm must-gather
コマンドを実行します。$ oc adm must-gather --image=$(oc -n openshift-logging get deployment.apps/cluster-logging-operator -o jsonpath='{.spec.template.spec.containers[?(@.name == "cluster-logging-operator")].image}')
must-gather
ツールは、現行ディレクトリー内のmust-gather.local
で始まる新規ディレクトリーを作成します。例:must-gather.local.4157245944708210408
作成された
must-gather
ディレクトリーから圧縮ファイルを作成します。たとえば、Linux オペレーティングシステムを使用するコンピューターで以下のコマンドを実行します。$ tar -cvaf must-gather.tar.gz must-gather.local.4157245944708210408
- 圧縮ファイルを Red Hat カスタマーポータル で作成したサポートケースに添付します。
第4章 ロギングのトラブルシューティング
4.1. ロギングステータスの表示
Red Hat OpenShift Logging Operator およびその他のロギングコンポーネントのステータスを表示できます。
4.1.1. Red Hat OpenShift Logging Operator のステータス表示
Red Hat OpenShift Logging Operator のステータスを表示できます。
前提条件
- Red Hat OpenShift Logging Operator と OpenShift Elasticsearch Operator がインストールされている。
手順
次のコマンドを実行して、
openshift-logging
プロジェクトに変更します。$ oc project openshift-logging
次のコマンドを実行して、
ClusterLogging
インスタンスのステータスを取得します。$ oc get clusterlogging instance -o yaml
出力例
apiVersion: logging.openshift.io/v1 kind: ClusterLogging # ... status: 1 collection: logs: fluentdStatus: daemonSet: fluentd 2 nodes: collector-2rhqp: ip-10-0-169-13.ec2.internal collector-6fgjh: ip-10-0-165-244.ec2.internal collector-6l2ff: ip-10-0-128-218.ec2.internal collector-54nx5: ip-10-0-139-30.ec2.internal collector-flpnn: ip-10-0-147-228.ec2.internal collector-n2frh: ip-10-0-157-45.ec2.internal pods: failed: [] notReady: [] ready: - collector-2rhqp - collector-54nx5 - collector-6fgjh - collector-6l2ff - collector-flpnn - collector-n2frh logstore: 3 elasticsearchStatus: - ShardAllocationEnabled: all cluster: activePrimaryShards: 5 activeShards: 5 initializingShards: 0 numDataNodes: 1 numNodes: 1 pendingTasks: 0 relocatingShards: 0 status: green unassignedShards: 0 clusterName: elasticsearch nodeConditions: elasticsearch-cdm-mkkdys93-1: nodeCount: 1 pods: client: failed: notReady: ready: - elasticsearch-cdm-mkkdys93-1-7f7c6-mjm7c data: failed: notReady: ready: - elasticsearch-cdm-mkkdys93-1-7f7c6-mjm7c master: failed: notReady: ready: - elasticsearch-cdm-mkkdys93-1-7f7c6-mjm7c visualization: 4 kibanaStatus: - deployment: kibana pods: failed: [] notReady: [] ready: - kibana-7fb4fd4cc9-f2nls replicaSets: - kibana-7fb4fd4cc9 replicas: 1
4.1.1.1. 状態メッセージ (condition message) のサンプル
以下は、ClusterLogging
インスタンスの Status.Nodes
セクションに含まれる状態メッセージの例です。
以下のようなステータスメッセージは、ノードが設定された低基準値を超えており、シャードがこのノードに割り当てられないことを示します。
出力例
nodes: - conditions: - lastTransitionTime: 2019-03-15T15:57:22Z message: Disk storage usage for node is 27.5gb (36.74%). Shards will be not be allocated on this node. reason: Disk Watermark Low status: "True" type: NodeStorage deploymentName: example-elasticsearch-clientdatamaster-0-1 upgradeStatus: {}
以下のようなステータスメッセージは、ノードが設定された高基準値を超えており、シャードが他のノードに移動させられることを示します。
出力例
nodes: - conditions: - lastTransitionTime: 2019-03-15T16:04:45Z message: Disk storage usage for node is 27.5gb (36.74%). Shards will be relocated from this node. reason: Disk Watermark High status: "True" type: NodeStorage deploymentName: cluster-logging-operator upgradeStatus: {}
以下のようなステータスメッセージは、CR の Elasticsearch ノードセレクターがクラスターのいずれのノードにも一致しないことを示します。
出力例
Elasticsearch Status: Shard Allocation Enabled: shard allocation unknown Cluster: Active Primary Shards: 0 Active Shards: 0 Initializing Shards: 0 Num Data Nodes: 0 Num Nodes: 0 Pending Tasks: 0 Relocating Shards: 0 Status: cluster health unknown Unassigned Shards: 0 Cluster Name: elasticsearch Node Conditions: elasticsearch-cdm-mkkdys93-1: Last Transition Time: 2019-06-26T03:37:32Z Message: 0/5 nodes are available: 5 node(s) didn't match node selector. Reason: Unschedulable Status: True Type: Unschedulable elasticsearch-cdm-mkkdys93-2: Node Count: 2 Pods: Client: Failed: Not Ready: elasticsearch-cdm-mkkdys93-1-75dd69dccd-f7f49 elasticsearch-cdm-mkkdys93-2-67c64f5f4c-n58vl Ready: Data: Failed: Not Ready: elasticsearch-cdm-mkkdys93-1-75dd69dccd-f7f49 elasticsearch-cdm-mkkdys93-2-67c64f5f4c-n58vl Ready: Master: Failed: Not Ready: elasticsearch-cdm-mkkdys93-1-75dd69dccd-f7f49 elasticsearch-cdm-mkkdys93-2-67c64f5f4c-n58vl Ready:
以下のようなステータスメッセージは、要求された PVC が PV にバインドされないことを示します。
出力例
Node Conditions: elasticsearch-cdm-mkkdys93-1: Last Transition Time: 2019-06-26T03:37:32Z Message: pod has unbound immediate PersistentVolumeClaims (repeated 5 times) Reason: Unschedulable Status: True Type: Unschedulable
以下のようなステータスメッセージは、ノードセレクターがいずれのノードにも一致しないため、Fluentd Pod をスケジュールできないことを示します。
出力例
Status: Collection: Logs: Fluentd Status: Daemon Set: fluentd Nodes: Pods: Failed: Not Ready: Ready:
4.1.2. ロギングコンポーネントのステータスの表示
数多くのロギングコンポーネントのステータスを表示できます。
前提条件
- Red Hat OpenShift Logging Operator と OpenShift Elasticsearch Operator がインストールされている。
手順
openshift-logging
プロジェクトに切り替えます。$ oc project openshift-logging
ロギング環境のステータスを表示します。
$ oc describe deployment cluster-logging-operator
出力例
Name: cluster-logging-operator .... Conditions: Type Status Reason ---- ------ ------ Available True MinimumReplicasAvailable Progressing True NewReplicaSetAvailable .... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal ScalingReplicaSet 62m deployment-controller Scaled up replica set cluster-logging-operator-574b8987df to 1----
ロギングレプリカセットのステータスを表示します。
レプリカセットの名前を取得します。
出力例
$ oc get replicaset
出力例
NAME DESIRED CURRENT READY AGE cluster-logging-operator-574b8987df 1 1 1 159m elasticsearch-cdm-uhr537yu-1-6869694fb 1 1 1 157m elasticsearch-cdm-uhr537yu-2-857b6d676f 1 1 1 156m elasticsearch-cdm-uhr537yu-3-5b6fdd8cfd 1 1 1 155m kibana-5bd5544f87 1 1 1 157m
レプリカセットのステータスを取得します。
$ oc describe replicaset cluster-logging-operator-574b8987df
出力例
Name: cluster-logging-operator-574b8987df .... Replicas: 1 current / 1 desired Pods Status: 1 Running / 0 Waiting / 0 Succeeded / 0 Failed .... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal SuccessfulCreate 66m replicaset-controller Created pod: cluster-logging-operator-574b8987df-qjhqv----
4.2. ログ転送のトラブルシューティング
4.2.1. Fluentd Pod の再デプロイ
ClusterLogForwarder
カスタムリソース (CR) の作成時に、Red Hat OpenShift Logging Operator により Fluentd Pod が自動的に再デプロイされない場合は、Fluentd Pod を削除して、強制的に再デプロイできます。
前提条件
-
ClusterLogForwarder
カスタムリソース (CR) オブジェクトを作成している。
手順
次のコマンドを実行し、Fluentd Pod を削除して強制的に再デプロイします。
$ oc delete pod --selector logging-infra=collector
4.2.2. Loki レート制限エラーのトラブルシューティング
Log Forwarder API がレート制限を超える大きなメッセージブロックを Loki に転送すると、Loki により、レート制限 (429
) エラーが生成されます。
これらのエラーは、通常の動作中に発生する可能性があります。たとえば、すでにいくつかのログがあるクラスターにロギングを追加する場合、ロギングが既存のログエントリーをすべて取り込もうとするとレート制限エラーが発生する可能性があります。この場合、新しいログの追加速度が合計レート制限よりも低い場合、履歴データは最終的に取り込まれ、ユーザーの介入を必要とせずにレート制限エラーが解決されます。
レート制限エラーが引き続き発生する場合は、LokiStack
カスタムリソース (CR) を変更することで問題を解決できます。
LokiStack
CR は、Grafana がホストする Loki では利用できません。このトピックは、Grafana がホストする Loki サーバーには適用されません。
条件
- Log Forwarder API は、ログを Loki に転送するように設定されている。
システムは、次のような 2MB を超えるメッセージのブロックを Loki に送信する。以下に例を示します。
"values":[["1630410392689800468","{\"kind\":\"Event\",\"apiVersion\":\ ....... ...... ...... ...... \"received_at\":\"2021-08-31T11:46:32.800278+00:00\",\"version\":\"1.7.4 1.6.0\"}},\"@timestamp\":\"2021-08-31T11:46:32.799692+00:00\",\"viaq_index_name\":\"audit-write\",\"viaq_msg_id\":\"MzFjYjJkZjItNjY0MC00YWU4LWIwMTEtNGNmM2E5ZmViMGU4\",\"log_type\":\"audit\"}"]]}]}
oc logs -n openshift-logging -l component=collector
と入力すると、クラスター内のコレクターログに、次のいずれかのエラーメッセージを含む行が表示されます。429 Too Many Requests Ingestion rate limit exceeded
Vector エラーメッセージの例
2023-08-25T16:08:49.301780Z WARN sink{component_kind="sink" component_id=default_loki_infra component_type=loki component_name=default_loki_infra}: vector::sinks::util::retries: Retrying after error. error=Server responded with an error: 429 Too Many Requests internal_log_rate_limit=true
Fluentd エラーメッセージの例
2023-08-30 14:52:15 +0000 [warn]: [default_loki_infra] failed to flush the buffer. retry_times=2 next_retry_time=2023-08-30 14:52:19 +0000 chunk="604251225bf5378ed1567231a1c03b8b" error_class=Fluent::Plugin::LokiOutput::LogPostError error="429 Too Many Requests Ingestion rate limit exceeded for user infrastructure (limit: 4194304 bytes/sec) while attempting to ingest '4082' lines totaling '7820025' bytes, reduce log volume or contact your Loki administrator to see if the limit can be increased\n"
このエラーは受信側にも表示されます。たとえば、LokiStack 取り込み Pod で以下を行います。
Loki 取り込みエラーメッセージの例
level=warn ts=2023-08-30T14:57:34.155592243Z caller=grpc_logging.go:43 duration=1.434942ms method=/logproto.Pusher/Push err="rpc error: code = Code(429) desc = entry with timestamp 2023-08-30 14:57:32.012778399 +0000 UTC ignored, reason: 'Per stream rate limit exceeded (limit: 3MB/sec) while attempting to ingest for stream
手順
LokiStack
CR のingestionBurstSize
およびingestionRate
フィールドを更新します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: ingestion: ingestionBurstSize: 16 1 ingestionRate: 8 2 # ...
- 1
ingestionBurstSize
フィールドは、ディストリビューターレプリカごとに最大ローカルレート制限サンプルサイズを MB 単位で定義します。この値はハードリミットです。この値を、少なくとも 1 つのプッシュリクエストで想定される最大ログサイズに設定します。ingestionBurstSize
値より大きい単一リクエストは使用できません。- 2
ingestionRate
フィールドは、1 秒あたりに取り込まれるサンプルの最大量 (MB 単位) に対するソフト制限です。ログのレートが制限を超えているにもかかわらず、コレクターがログの送信を再試行すると、レート制限エラーが発生します。合計平均が制限よりも少ない場合に限り、システムは回復し、ユーザーの介入なしでエラーが解決されます。
4.3. ログアラートのトラブルシューティング
次の手順を使用して、クラスター上のログアラートのトラブルシューティングを行うことができます。
4.3.1. Elasticsearch クラスターの健全性ステータスが赤になっている
1 つ以上のプライマリーシャードとそのレプリカがノードに割り当てられません。このアラートのトラブルシューティングを行うには、次の手順を使用します。
このドキュメントの一部のコマンドは、$ES_POD_NAME
シェル変数を使用して Elasticsearch Pod を参照します。このドキュメントからコマンドを直接コピーして貼り付ける場合は、この変数を Elasticsearch クラスターに有効な値に設定する必要があります。
次のコマンドを実行すると、利用可能な Elasticsearch Pod をリスト表示できます。
$ oc -n openshift-logging get pods -l component=elasticsearch
リストされている Pod のいずれかを選択し、次のコマンドを実行して $ES_POD_NAME
変数を設定します。
$ export ES_POD_NAME=<elasticsearch_pod_name>
コマンドで $ES_POD_NAME
変数を使用できるようになりました。
手順
次のコマンドを実行して、Elasticsearch クラスターの健全性をチェックし、クラスターの
status
の色が赤であることを確認します。$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME -- health
次のコマンドを実行して、クラスターに参加しているノードをリスト表示します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cat/nodes?v
次のコマンドを実行して、Elasticsearch Pod をリストし、前のステップのコマンド出力のノードと比較します。
$ oc -n openshift-logging get pods -l component=elasticsearch
一部の Elasticsearch ノードがクラスターに参加していない場合は、以下の手順を実行します。
次のコマンドを実行し、出力を確認して、Elasticsearch にマスターノードが選択されていることを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cat/master?v
次のコマンドを実行して出力を確認し、選択されたマスターノードの Pod ログに問題がないか確認します。
$ oc logs <elasticsearch_master_pod_name> -c elasticsearch -n openshift-logging
次のコマンドを実行して出力を確認し、クラスターに参加していないノードのログに問題がないか確認します。
$ oc logs <elasticsearch_node_name> -c elasticsearch -n openshift-logging
すべてのノードがクラスターに参加している場合は、次のコマンドを実行して出力を観察し、クラスターが回復中かどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cat/recovery?active_only=true
コマンドの出力がない場合は、リカバリープロセスが保留中のタスクによって遅延しているか、停止している可能性があります。
次のコマンドを実行し、出力を確認して、保留中のタスクがあるかどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- health | grep number_of_pending_tasks
- 保留中のタスクがある場合は、そのステータスを監視します。そのステータスが変化し、クラスターがリカバリー中の場合は、そのまま待機します。リカバリー時間は、クラスターのサイズや他の要素により異なります。保留中のタスクのステータスが変更されない場合は、リカバリーが停止していることがわかります。
リカバリーが停止しているように見える場合は、次のコマンドを実行して出力を確認し、
cluster.routing.allocation.enable
値がnone
に設定されているかどうかを確認します。$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cluster/settings?pretty
cluster.routing.allocation.enable
値がnone
に設定されている場合は、次のコマンドを実行してall
に設定します。$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cluster/settings?pretty \ -X PUT -d '{"persistent": {"cluster.routing.allocation.enable":"all"}}'
次のコマンドを実行して出力を確認し、まだ赤いインデックスがあるかどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cat/indices?v
インデックスがまだ赤い場合は、以下の手順を実行して赤のインデックスをなくします。
次のコマンドを実行してキャッシュをクリアします。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name>/_cache/clear?pretty
次のコマンドを実行して、割り当ての最大再試行回数を増やします。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name>/_settings?pretty \ -X PUT -d '{"index.allocation.max_retries":10}'
次のコマンドを実行して、すべてのスクロール項目を削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_search/scroll/_all -X DELETE
次のコマンドを実行してタイムアウトを増やします。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name>/_settings?pretty \ -X PUT -d '{"index.unassigned.node_left.delayed_timeout":"10m"}'
前述の手順で赤色のインデックスがなくならない場合は、インデックスを個別に削除します。
次のコマンドを実行して、赤いインデックス名を特定します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cat/indices?v
次のコマンドを実行して、赤いインデックスを削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_red_index_name> -X DELETE
赤色のインデックスがなく、クラスターのステータスが赤の場合は、データノードで継続的に過剰な処理負荷がかかっていないかを確認します。
次のコマンドを実行して、Elasticsearch JVM ヒープの使用率が高いかどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_nodes/stats?pretty
コマンド出力で
node_name.jvm.mem.heap_used_percent
フィールドを確認し、JVM ヒープ使用量を判別します。- 使用量が多い CPU がないかを確認します。CPU 使用率の詳細は、OpenShift Container Platform ドキュメント「モニタリングダッシュボードの確認」を参照してください。
4.3.2. Elasticsearch クラスターの正常性が黄色である
1 つ以上のプライマリーシャードのレプリカシャードがノードに割り当てられません。ClusterLogging
カスタムリソース (CR) の nodeCount
値を調整して、ノード数を増やします。
4.3.3. Elasticsearch ノードのディスクの最低水準点に達した
Elasticsearch は、最低水準点に達するノードにシャードを割り当てません。
このドキュメントの一部のコマンドは、$ES_POD_NAME
シェル変数を使用して Elasticsearch Pod を参照します。このドキュメントからコマンドを直接コピーして貼り付ける場合は、この変数を Elasticsearch クラスターに有効な値に設定する必要があります。
次のコマンドを実行すると、利用可能な Elasticsearch Pod をリスト表示できます。
$ oc -n openshift-logging get pods -l component=elasticsearch
リストされている Pod のいずれかを選択し、次のコマンドを実行して $ES_POD_NAME
変数を設定します。
$ export ES_POD_NAME=<elasticsearch_pod_name>
コマンドで $ES_POD_NAME
変数を使用できるようになりました。
手順
次のコマンドを実行して、Elasticsearch がデプロイされているノードを特定します。
$ oc -n openshift-logging get po -o wide
次のコマンドを実行して、未割り当てのシャードがあるかどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cluster/health?pretty | grep unassigned_shards
未割り当てのシャードがある場合は、次のコマンドを実行して、各ノードのディスク容量を確認します。
$ for pod in `oc -n openshift-logging get po -l component=elasticsearch -o jsonpath='{.items[*].metadata.name}'`; \ do echo $pod; oc -n openshift-logging exec -c elasticsearch $pod \ -- df -h /elasticsearch/persistent; done
コマンド出力で、
Use
列を確認して、そのノードで使用されているディスクの割合を確認します。出力例
elasticsearch-cdm-kcrsda6l-1-586cc95d4f-h8zq8 Filesystem Size Used Avail Use% Mounted on /dev/nvme1n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-2-5b548fc7b-cwwk7 Filesystem Size Used Avail Use% Mounted on /dev/nvme2n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-3-5dfc884d99-59tjw Filesystem Size Used Avail Use% Mounted on /dev/nvme3n1 19G 528M 19G 3% /elasticsearch/persistent
使用済みディスクの割合が 85% を超える場合は、ノードは低基準値を超えており、シャードがこのノードに割り当てられなくなります。
現在の
redundancyPolicy
を確認するには、次のコマンドを実行します。$ oc -n openshift-logging get es elasticsearch \ -o jsonpath='{.spec.redundancyPolicy}'
クラスターで
ClusterLogging
リソースを使用している場合は、次のコマンドを実行します。$ oc -n openshift-logging get cl \ -o jsonpath='{.items[*].spec.logStore.elasticsearch.redundancyPolicy}'
クラスター
redundancyPolicy
値がSingleRedundancy
値より大きい場合は、それをSingleRedundancy
値に設定し、この変更を保存します。前述の手順で問題が解決しない場合は、古いインデックスを削除します。
次のコマンドを実行して、Elasticsearch 上のすべてのインデックスのステータスを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME -- indices
- 古いインデックスで削除できるものを特定します。
次のコマンドを実行してインデックスを削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name> -X DELETE
4.3.4. Elasticsearch ノードのディスク最高水準点に達した
Elasticsearch は、高基準値に達したノードから、基準値のしきい値制限を超えていないディスク使用量の低いノードにシャードを再配置しようとします。
シャードを特定のノードに割り当てるには、そのノード上のスペースを解放する必要があります。ディスク容量を増やすことができない場合は、新しいデータノードをクラスターに追加するか、クラスターの合計冗長性ポリシーを減らしてみてください。
このドキュメントの一部のコマンドは、$ES_POD_NAME
シェル変数を使用して Elasticsearch Pod を参照します。このドキュメントからコマンドを直接コピーして貼り付ける場合は、この変数を Elasticsearch クラスターに有効な値に設定する必要があります。
次のコマンドを実行すると、利用可能な Elasticsearch Pod をリスト表示できます。
$ oc -n openshift-logging get pods -l component=elasticsearch
リストされている Pod のいずれかを選択し、次のコマンドを実行して $ES_POD_NAME
変数を設定します。
$ export ES_POD_NAME=<elasticsearch_pod_name>
コマンドで $ES_POD_NAME
変数を使用できるようになりました。
手順
次のコマンドを実行して、Elasticsearch がデプロイされているノードを特定します。
$ oc -n openshift-logging get po -o wide
各ノードのディスク容量を確認します。
$ for pod in `oc -n openshift-logging get po -l component=elasticsearch -o jsonpath='{.items[*].metadata.name}'`; \ do echo $pod; oc -n openshift-logging exec -c elasticsearch $pod \ -- df -h /elasticsearch/persistent; done
クラスターがリバランスされているかどうかを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_cluster/health?pretty | grep relocating_shards
コマンド出力にシャードの再配置が示されている場合は、最高水準点を超えています。最高水準点のデフォルト値は 90% です。
- すべてのノードのディスク容量を増やします。ディスク容量を増やすことができない場合は、新しいデータノードをクラスターに追加するか、クラスターの合計冗長性ポリシーを減らしてみてください。
現在の
redundancyPolicy
を確認するには、次のコマンドを実行します。$ oc -n openshift-logging get es elasticsearch \ -o jsonpath='{.spec.redundancyPolicy}'
クラスターで
ClusterLogging
リソースを使用している場合は、次のコマンドを実行します。$ oc -n openshift-logging get cl \ -o jsonpath='{.items[*].spec.logStore.elasticsearch.redundancyPolicy}'
クラスター
redundancyPolicy
値がSingleRedundancy
値より大きい場合は、それをSingleRedundancy
値に設定し、この変更を保存します。前述の手順で問題が解決しない場合は、古いインデックスを削除します。
次のコマンドを実行して、Elasticsearch 上のすべてのインデックスのステータスを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME -- indices
- 古いインデックスで削除できるものを特定します。
次のコマンドを実行してインデックスを削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name> -X DELETE
4.3.5. Elasticsearch ノードのディスクがいっぱいの基準値に達した
Elasticsearch は、両条件が含まれるすべてのインデックスに対して読み取り専用のインデックスブロックを強制的に適用します。
- 1 つ以上のシャードがノードに割り当てられます。
- 1 つ以上のディスクが いっぱいの段階 を超えています。
このアラートのトラブルシューティングを行うには、次の手順を使用します。
このドキュメントの一部のコマンドは、$ES_POD_NAME
シェル変数を使用して Elasticsearch Pod を参照します。このドキュメントからコマンドを直接コピーして貼り付ける場合は、この変数を Elasticsearch クラスターに有効な値に設定する必要があります。
次のコマンドを実行すると、利用可能な Elasticsearch Pod をリスト表示できます。
$ oc -n openshift-logging get pods -l component=elasticsearch
リストされている Pod のいずれかを選択し、次のコマンドを実行して $ES_POD_NAME
変数を設定します。
$ export ES_POD_NAME=<elasticsearch_pod_name>
コマンドで $ES_POD_NAME
変数を使用できるようになりました。
手順
Elasticsearch ノードのディスク領域を取得します。
$ for pod in `oc -n openshift-logging get po -l component=elasticsearch -o jsonpath='{.items[*].metadata.name}'`; \ do echo $pod; oc -n openshift-logging exec -c elasticsearch $pod \ -- df -h /elasticsearch/persistent; done
コマンド出力で、
Avail
列を確認して、そのノード上の空きディスク容量を確認します。出力例
elasticsearch-cdm-kcrsda6l-1-586cc95d4f-h8zq8 Filesystem Size Used Avail Use% Mounted on /dev/nvme1n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-2-5b548fc7b-cwwk7 Filesystem Size Used Avail Use% Mounted on /dev/nvme2n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-3-5dfc884d99-59tjw Filesystem Size Used Avail Use% Mounted on /dev/nvme3n1 19G 528M 19G 3% /elasticsearch/persistent
- すべてのノードのディスク容量を増やします。ディスク容量を増やすことができない場合は、新しいデータノードをクラスターに追加するか、クラスターの合計冗長性ポリシーを減らしてみてください。
現在の
redundancyPolicy
を確認するには、次のコマンドを実行します。$ oc -n openshift-logging get es elasticsearch \ -o jsonpath='{.spec.redundancyPolicy}'
クラスターで
ClusterLogging
リソースを使用している場合は、次のコマンドを実行します。$ oc -n openshift-logging get cl \ -o jsonpath='{.items[*].spec.logStore.elasticsearch.redundancyPolicy}'
クラスター
redundancyPolicy
値がSingleRedundancy
値より大きい場合は、それをSingleRedundancy
値に設定し、この変更を保存します。前述の手順で問題が解決しない場合は、古いインデックスを削除します。
次のコマンドを実行して、Elasticsearch 上のすべてのインデックスのステータスを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME -- indices
- 古いインデックスで削除できるものを特定します。
次のコマンドを実行してインデックスを削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name> -X DELETE
ディスク領域の解放と監視を続けます。使用されているディスク容量が 90% を下回ったら、次のコマンドを実行して、このノードへの書き込みのブロックを解除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=_all/_settings?pretty \ -X PUT -d '{"index.blocks.read_only_allow_delete": null}'
4.3.6. Elasticsearch JVM ヒープ使用量が多い
Elasticsearch ノードの Java 仮想マシン (JVM) ヒープメモリーの使用量が 75% を超えています。ヒープサイズを増やす ことを検討してください。
4.3.7. 集計ロギングシステムの CPU が高い
ノード上のシステムの CPU 使用量が高くなります。クラスターノードの CPU を確認します。ノードへ割り当てる CPU リソースを増やすことを検討してください。
4.3.8. Elasticsearch プロセスの CPU が高い
ノードでの Elasticsearch プロセスの CPU 使用量が高くなります。クラスターノードの CPU を確認します。ノードへ割り当てる CPU リソースを増やすことを検討してください。
4.3.9. Elasticsearch ディスク領域が不足している
現在のディスク使用量に基づいて、Elasticsearch は今後 6 時間以内にディスク容量が不足すると予測されています。このアラートのトラブルシューティングを行うには、次の手順を使用します。
手順
Elasticsearch ノードのディスク領域を取得します。
$ for pod in `oc -n openshift-logging get po -l component=elasticsearch -o jsonpath='{.items[*].metadata.name}'`; \ do echo $pod; oc -n openshift-logging exec -c elasticsearch $pod \ -- df -h /elasticsearch/persistent; done
コマンド出力で、
Avail
列を確認して、そのノード上の空きディスク容量を確認します。出力例
elasticsearch-cdm-kcrsda6l-1-586cc95d4f-h8zq8 Filesystem Size Used Avail Use% Mounted on /dev/nvme1n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-2-5b548fc7b-cwwk7 Filesystem Size Used Avail Use% Mounted on /dev/nvme2n1 19G 522M 19G 3% /elasticsearch/persistent elasticsearch-cdm-kcrsda6l-3-5dfc884d99-59tjw Filesystem Size Used Avail Use% Mounted on /dev/nvme3n1 19G 528M 19G 3% /elasticsearch/persistent
- すべてのノードのディスク容量を増やします。ディスク容量を増やすことができない場合は、新しいデータノードをクラスターに追加するか、クラスターの合計冗長性ポリシーを減らしてみてください。
現在の
redundancyPolicy
を確認するには、次のコマンドを実行します。$ oc -n openshift-logging get es elasticsearch -o jsonpath='{.spec.redundancyPolicy}'
クラスターで
ClusterLogging
リソースを使用している場合は、次のコマンドを実行します。$ oc -n openshift-logging get cl \ -o jsonpath='{.items[*].spec.logStore.elasticsearch.redundancyPolicy}'
クラスター
redundancyPolicy
値がSingleRedundancy
値より大きい場合は、それをSingleRedundancy
値に設定し、この変更を保存します。前述の手順で問題が解決しない場合は、古いインデックスを削除します。
次のコマンドを実行して、Elasticsearch 上のすべてのインデックスのステータスを確認します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME -- indices
- 古いインデックスで削除できるものを特定します。
次のコマンドを実行してインデックスを削除します。
$ oc exec -n openshift-logging -c elasticsearch $ES_POD_NAME \ -- es_util --query=<elasticsearch_index_name> -X DELETE
4.3.10. Elasticsearch FileDescriptor の使用量が高い
現在の使用傾向に基づいて、ノードで予測されるファイル記述子の数は十分ではありません。Elasticsearch ファイル記述子 のドキュメントの説明に従って、各ノードの max_file_descriptors
の値を確認します。
4.4. Elasticsearch ログストアのステータスの表示
OpenShift Elasticsearch Operator のステータスや、数多くの Elasticsearch コンポーネントを表示できます。
4.4.1. Elasticsearch ログストアのステータスの表示
Elasticsearch ログストアのステータスを表示できます。
前提条件
- Red Hat OpenShift Logging Operator と OpenShift Elasticsearch Operator がインストールされている。
手順
次のコマンドを実行して、
openshift-logging
プロジェクトに変更します。$ oc project openshift-logging
ステータスを表示するには、以下を実行します。
次のコマンドを実行して、Elasticsearch ログストアインスタンスの名前を取得します。
$ oc get Elasticsearch
出力例
NAME AGE elasticsearch 5h9m
次のコマンドを実行して、Elasticsearch ログストアのステータスを取得します。
$ oc get Elasticsearch <Elasticsearch-instance> -o yaml
以下に例を示します。
$ oc get Elasticsearch elasticsearch -n openshift-logging -o yaml
出力には、以下のような情報が含まれます。
出力例
status: 1 cluster: 2 activePrimaryShards: 30 activeShards: 60 initializingShards: 0 numDataNodes: 3 numNodes: 3 pendingTasks: 0 relocatingShards: 0 status: green unassignedShards: 0 clusterHealth: "" conditions: [] 3 nodes: 4 - deploymentName: elasticsearch-cdm-zjf34ved-1 upgradeStatus: {} - deploymentName: elasticsearch-cdm-zjf34ved-2 upgradeStatus: {} - deploymentName: elasticsearch-cdm-zjf34ved-3 upgradeStatus: {} pods: 5 client: failed: [] notReady: [] ready: - elasticsearch-cdm-zjf34ved-1-6d7fbf844f-sn422 - elasticsearch-cdm-zjf34ved-2-dfbd988bc-qkzjz - elasticsearch-cdm-zjf34ved-3-c8f566f7c-t7zkt data: failed: [] notReady: [] ready: - elasticsearch-cdm-zjf34ved-1-6d7fbf844f-sn422 - elasticsearch-cdm-zjf34ved-2-dfbd988bc-qkzjz - elasticsearch-cdm-zjf34ved-3-c8f566f7c-t7zkt master: failed: [] notReady: [] ready: - elasticsearch-cdm-zjf34ved-1-6d7fbf844f-sn422 - elasticsearch-cdm-zjf34ved-2-dfbd988bc-qkzjz - elasticsearch-cdm-zjf34ved-3-c8f566f7c-t7zkt shardAllocationEnabled: all
- 1
- 出力の
status
スタンザに、クラスターステータスのフィールドが表示されます。 - 2
- Elasticsearch ログストアのステータス:
- アクティブなプライマリーシャードの数
- アクティブなシャードの数
- 初期化されるシャードの数
- Elasticsearch ログストアのデータノードの数
- Elasticsearch ログストアのノードの合計数
- 保留中のタスクの数
-
Elasticsearch ログストアのステータス:
green
、red
、yellow
- 未割り当てのシャードの数。
- 3
- ステータス状態 (ある場合)。Elasticsearch ログストアのステータスは、Pod を配置できなかった場合にスケジューラーからの理由を示します。以下の状況に関連したイベントが表示されます。
- Elasticsearch ログストアおよびプロキシーコンテナーの両方をコンテナーが待機している。
- Elasticsearch ログストアとプロキシーコンテナーの両方でコンテナーが終了した。
- Pod がスケジュール対象外である。また、いくつかの問題に関する条件も示されています。詳細は、状態メッセージのサンプル を参照してください。
- 4
- Elasticsearch ログには、
upgradeStatus
のクラスター内のノードが保存されます。 - 5
- クラスター内にある Elasticsearch ログストアのクライアント、データ、およびマスター Pod。
failed
、notReady
、またはready
状態の下にリスト表示されます。
4.4.1.1. 状態メッセージ (condition message) のサンプル
以下は、Elasticsearch インスタンスの Status
セクションからの一部の状態メッセージの例になります。
以下のステータスメッセージは、ノードが設定された低基準値を超えており、シャードがこのノードに割り当てられないことを示します。
status: nodes: - conditions: - lastTransitionTime: 2019-03-15T15:57:22Z message: Disk storage usage for node is 27.5gb (36.74%). Shards will be not be allocated on this node. reason: Disk Watermark Low status: "True" type: NodeStorage deploymentName: example-elasticsearch-cdm-0-1 upgradeStatus: {}
以下のステータスメッセージは、ノードが設定された高基準値を超えており、シャードが他のノードに移動させられることを示します。
status: nodes: - conditions: - lastTransitionTime: 2019-03-15T16:04:45Z message: Disk storage usage for node is 27.5gb (36.74%). Shards will be relocated from this node. reason: Disk Watermark High status: "True" type: NodeStorage deploymentName: example-elasticsearch-cdm-0-1 upgradeStatus: {}
次のステータスメッセージは、カスタムリソース (CR) の Elasticsearch ログストアのノードセレクターがクラスター内のどのノードとも一致しないことを示します。
status: nodes: - conditions: - lastTransitionTime: 2019-04-10T02:26:24Z message: '0/8 nodes are available: 8 node(s) didn''t match node selector.' reason: Unschedulable status: "True" type: Unschedulable
次のステータスメッセージは、Elasticsearch ログストア CR が存在しない永続ボリューム要求 (PVC) を使用していることを示します。
status: nodes: - conditions: - last Transition Time: 2019-04-10T05:55:51Z message: pod has unbound immediate PersistentVolumeClaims (repeated 5 times) reason: Unschedulable status: True type: Unschedulable
次のステータスメッセージは、Elasticsearch ログストアクラスターに冗長性ポリシーをサポートするのに十分なノードがないことを示します。
status: clusterHealth: "" conditions: - lastTransitionTime: 2019-04-17T20:01:31Z message: Wrong RedundancyPolicy selected. Choose different RedundancyPolicy or add more nodes with data roles reason: Invalid Settings status: "True" type: InvalidRedundancy
このステータスメッセージは、クラスターにコントロールプレーンノードが多すぎることを示しています。
status: clusterHealth: green conditions: - lastTransitionTime: '2019-04-17T20:12:34Z' message: >- Invalid master nodes count. Please ensure there are no more than 3 total nodes with master roles reason: Invalid Settings status: 'True' type: InvalidMasters
以下のステータスメッセージは、加えようとした変更が Elasticsearch ストレージでサポートされないことを示します。
以下に例を示します。
status: clusterHealth: green conditions: - lastTransitionTime: "2021-05-07T01:05:13Z" message: Changing the storage structure for a custom resource is not supported reason: StorageStructureChangeIgnored status: 'True' type: StorageStructureChangeIgnored
reason
および type
フィールドは、サポート対象外の変更のタイプを指定します。
StorageClassNameChangeIgnored
- ストレージクラス名の変更がサポートされていません。
StorageSizeChangeIgnored
- ストレージサイズの変更がサポートされていません。
StorageStructureChangeIgnored
一時ストレージと永続ストレージ構造間での変更がサポートされていません。
重要一時ストレージから永続ストレージに切り替えるように
ClusterLogging
CR を設定しようとすると、OpenShift Elasticsearch Operator は永続ボリューム要求 (PVC) を作成しますが、永続ボリューム (PV) は作成しません。StorageStructureChangeIgnored
ステータスを削除するには、ClusterLogging
CR への変更を元に戻し、PVC を削除する必要があります。
4.4.2. ログストアコンポーネントのステータスの表示
数多くのログストアコンポーネントのステータスを表示できます。
- Elasticsearch インデックス
Elasticsearch インデックスのステータスを表示できます。
Elasticsearch Pod の名前を取得します。
$ oc get pods --selector component=elasticsearch -o name
出力例
pod/elasticsearch-cdm-1godmszn-1-6f8495-vp4lw pod/elasticsearch-cdm-1godmszn-2-5769cf-9ms2n pod/elasticsearch-cdm-1godmszn-3-f66f7d-zqkz7
インデックスのステータスを取得します。
$ oc exec elasticsearch-cdm-4vjor49p-2-6d4d7db474-q2w7z -- indices
出力例
Defaulting container name to elasticsearch. Use 'oc describe pod/elasticsearch-cdm-4vjor49p-2-6d4d7db474-q2w7z -n openshift-logging' to see all of the containers in this pod. green open infra-000002 S4QANnf1QP6NgCegfnrnbQ 3 1 119926 0 157 78 green open audit-000001 8_EQx77iQCSTzFOXtxRqFw 3 1 0 0 0 0 green open .security iDjscH7aSUGhIdq0LheLBQ 1 1 5 0 0 0 green open .kibana_-377444158_kubeadmin yBywZ9GfSrKebz5gWBZbjw 3 1 1 0 0 0 green open infra-000001 z6Dpe__ORgiopEpW6Yl44A 3 1 871000 0 874 436 green open app-000001 hIrazQCeSISewG3c2VIvsQ 3 1 2453 0 3 1 green open .kibana_1 JCitcBMSQxKOvIq6iQW6wg 1 1 0 0 0 0 green open .kibana_-1595131456_user1 gIYFIEGRRe-ka0W3okS-mQ 3 1 1 0 0 0
- ログストア Pod
ログストアをホストする Pod のステータスを表示できます。
Pod の名前を取得します。
$ oc get pods --selector component=elasticsearch -o name
出力例
pod/elasticsearch-cdm-1godmszn-1-6f8495-vp4lw pod/elasticsearch-cdm-1godmszn-2-5769cf-9ms2n pod/elasticsearch-cdm-1godmszn-3-f66f7d-zqkz7
Pod のステータスを取得します。
$ oc describe pod elasticsearch-cdm-1godmszn-1-6f8495-vp4lw
出力には、以下のようなステータス情報が含まれます。
出力例
.... Status: Running .... Containers: elasticsearch: Container ID: cri-o://b7d44e0a9ea486e27f47763f5bb4c39dfd2 State: Running Started: Mon, 08 Jun 2020 10:17:56 -0400 Ready: True Restart Count: 0 Readiness: exec [/usr/share/elasticsearch/probe/readiness.sh] delay=10s timeout=30s period=5s #success=1 #failure=3 .... proxy: Container ID: cri-o://3f77032abaddbb1652c116278652908dc01860320b8a4e741d06894b2f8f9aa1 State: Running Started: Mon, 08 Jun 2020 10:18:38 -0400 Ready: True Restart Count: 0 .... Conditions: Type Status Initialized True Ready True ContainersReady True PodScheduled True .... Events: <none>
- ログストレージ Pod デプロイメント設定
ログストアのデプロイメント設定のステータスを表示できます。
デプロイメント設定の名前を取得します。
$ oc get deployment --selector component=elasticsearch -o name
出力例
deployment.extensions/elasticsearch-cdm-1gon-1 deployment.extensions/elasticsearch-cdm-1gon-2 deployment.extensions/elasticsearch-cdm-1gon-3
デプロイメント設定のステータスを取得します。
$ oc describe deployment elasticsearch-cdm-1gon-1
出力には、以下のようなステータス情報が含まれます。
出力例
.... Containers: elasticsearch: Image: registry.redhat.io/openshift-logging/elasticsearch6-rhel8 Readiness: exec [/usr/share/elasticsearch/probe/readiness.sh] delay=10s timeout=30s period=5s #success=1 #failure=3 .... Conditions: Type Status Reason ---- ------ ------ Progressing Unknown DeploymentPaused Available True MinimumReplicasAvailable .... Events: <none>
- ログストアのレプリカセット
ログストアのレプリカセットのステータスを表示できます。
レプリカセットの名前を取得します。
$ oc get replicaSet --selector component=elasticsearch -o name replicaset.extensions/elasticsearch-cdm-1gon-1-6f8495 replicaset.extensions/elasticsearch-cdm-1gon-2-5769cf replicaset.extensions/elasticsearch-cdm-1gon-3-f66f7d
レプリカセットのステータスを取得します。
$ oc describe replicaSet elasticsearch-cdm-1gon-1-6f8495
出力には、以下のようなステータス情報が含まれます。
出力例
.... Containers: elasticsearch: Image: registry.redhat.io/openshift-logging/elasticsearch6-rhel8@sha256:4265742c7cdd85359140e2d7d703e4311b6497eec7676957f455d6908e7b1c25 Readiness: exec [/usr/share/elasticsearch/probe/readiness.sh] delay=10s timeout=30s period=5s #success=1 #failure=3 .... Events: <none>
4.4.3. Elasticsearch クラスターのステータス
OpenShift Container Platform Web コンソールのObserveセクションにあるダッシュボードには、Elasticsearch クラスターのステータスが表示されます。
OpenShift Elasticsearch クラスターのステータスを取得するには、OpenShift Container Platform Web コンソールのObserveセクションにあるダッシュボード <cluster_url>/monitoring/dashboards/grafana-dashboard-cluster-logging
にアクセスします。
Elasticsearch ステータスフィールド
eo_elasticsearch_cr_cluster_management_state
Elasticsearch クラスターがマネージドか、マネージド外かをを示します。以下に例を示します。
eo_elasticsearch_cr_cluster_management_state{state="managed"} 1 eo_elasticsearch_cr_cluster_management_state{state="unmanaged"} 0
eo_elasticsearch_cr_restart_total
Elasticsearch ノードが証明書の再起動、ローリング再起動、またはスケジュールされた再起動など、再起動した回数を示します。以下に例を示します。
eo_elasticsearch_cr_restart_total{reason="cert_restart"} 1 eo_elasticsearch_cr_restart_total{reason="rolling_restart"} 1 eo_elasticsearch_cr_restart_total{reason="scheduled_restart"} 3
es_index_namespaces_total
Elasticsearch インデックス namespace の総数を表示します。以下に例を示します。
Total number of Namespaces. es_index_namespaces_total 5
es_index_document_count
各 namespace のレコード数を表示します。以下に例を示します。
es_index_document_count{namespace="namespace_1"} 25 es_index_document_count{namespace="namespace_2"} 10 es_index_document_count{namespace="namespace_3"} 5
"Secret Elasticsearch fields are either missing or empty" メッセージ
Elasticsearch に admin-cert
、admin-key
、logging-es.crt
、または logging-es.key
ファイルがない場合、ダッシュボードには次の例のようなステータスメッセージが表示されます。
message": "Secret \"elasticsearch\" fields are either missing or empty: [admin-cert, admin-key, logging-es.crt, logging-es.key]", "reason": "Missing Required Secrets",
第5章 ロギング
クラスター管理者は、OpenShift Container Platform クラスターにロギングをデプロイし、それを使用してノードシステム監査ログ、アプリケーションコンテナーログ、インフラストラクチャーログを収集および集約できます。クラスター上の Red Hat が管理するログストレージなど、選択したログ出力にログを転送できます。デプロイされたログストレージソリューションに応じて、OpenShift Container Platform Web コンソールまたは Kibana Web コンソールで、ログデータを可視化することもできます。
Kibana Web コンソールは現在非推奨となっており、将来のログリリースで削除される予定です。
OpenShift Container Platform クラスター管理者は、Operator を使用してロギングをデプロイできます。詳細は、ロギングのインストール を参照してください。
Operator は、ロギングのデプロイ、アップグレード、および保守を担当します。Operator をインストールした後に、ClusterLogging
カスタムリソース (CR) を作成して、ロギング pod およびロギングをサポートするために必要なその他のリソースをスケジュールできます。ClusterLogForwarder
CR を作成して、収集するログと、その変換方法および転送先を指定することもできます。
内部 OpenShift Container Platform Elasticsearch ログストアは監査ログのセキュアなストレージを提供しないため、デフォルトで監査ログは内部 Elasticsearch インスタンスに保存されません。監査ログをデフォルトの内部 Elasticsearch ログストアに送信する必要がある場合 (Kibana で監査ログを表示するなど) は、監査ログのログストアへの転送 で説明されているように、ログ転送 API を使用する必要があります。
5.1. ロギングアーキテクチャー
ロギングの主なコンポーネントは次のとおりです。
- Collector
コレクターは、Pod を各 OpenShift Container Platform ノードにデプロイするデーモンセットです。各ノードからログデータを収集し、データを変換して、設定された出力に転送します。Vector コレクターまたは従来の Fluentd コレクターを使用できます。
注記Fluentd は非推奨となっており、今後のリリースで削除される予定です。Red Hat は、現在のリリースのライフサイクル中にこの機能のバグ修正とサポートを提供しますが、この機能は拡張されなくなりました。Fluentd の代わりに、Vector を使用できます。
- ログストア
ログストアは分析用のログデータを保存し、ログフォワーダーのデフォルトの出力です。デフォルトの LokiStack ログストア、従来の Elasticsearch ログストアを使用したり、追加の外部ログストアにログを転送したりできます。
注記Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
- 可視化
UI コンポーネントを使用して、ログデータの視覚的表現を表示できます。UI は、保存されたログを検索、クエリー、および表示するためのグラフィカルインターフェイスを提供します。OpenShift Container Platform Web コンソール UI は、OpenShift Container Platform コンソールプラグインを有効にすることで提供されます。
注記Kibana Web コンソールは現在非推奨となっており、将来のログリリースで削除される予定です。
ロギングはコンテナーログとノードログを収集します。これらは次のタイプに分類されます。
- アプリケーションログ
- クラスターで実行される、インフラストラクチャーコンテナーアプリケーションを除くユーザーアプリケーションによって生成されるコンテナーログ。
- インフラストラクチャーログ
-
インフラストラクチャー namespace (
openshift*
、kube*
、またはdefault)
によって生成されたコンテナーのログ、およびノードからの journald メッセージ。 - 監査ログ
-
/var/log/audit/audit.log ファイルに保存されるノード監査システムである auditd によって生成されたログ、
auditd
、kube-apiserver
、openshift-apiserver
サービス、および有効な場合はovn
プロジェクトからのログ。
関連情報
5.2. ロギングのデプロイ
管理者は、OpenShift Container Platform Web コンソールまたは OpenShift CLI (oc
) を使用してロギングをデプロイし、ロギング Operator をインストールできます。Operator は、ロギングのデプロイ、アップグレード、および保守を担当します。
管理者およびアプリケーション開発者は、表示アクセスのあるプロジェクトのログを表示できます。
5.2.1. カスタムリソースのロギング
各 Operator によって実装されたカスタムリソース (CR) YAML ファイルを使用して、ロギングのデプロイメントを設定できます。
Red Hat OpenShift Logging Operator:
-
ClusterLogging
(CL) - Operator をインストールした後に、ClusterLogging
カスタムリソース (CR) を作成して、ロギング pod およびロギングをサポートするために必要なその他のリソースをスケジュールできます。ClusterLogging
CR はコレクターとフォワーダーをデプロイします。現在、これらはどちらも各ノードで実行されているデーモンセットによって実装されています。Red Hat OpenShift Logging Operator はClusterLogging
CR を監視し、それに応じてロギングのデプロイメントを調整します。 -
ClusterLogForwarder
(CLF)- ユーザー設定ごとにログを転送するためのコレクター設定を生成します。
Loki Operator:
-
LokiStack
- Loki クラスターをログストアとして制御し、OpenShift Container Platform 認証統合を使用して Web プロキシーを制御して、マルチテナンシーを強制します。
OpenShift Elasticsearch Operator:
これらの CR は、OpenShift Elasticsearch Operator によって生成および管理されます。Operator によって上書きされない限り、手動で変更はできません。
-
ElasticSearch
- Elasticsearch インスタンスをデフォルトのログストアとして設定し、デプロイします。 -
Kibana
- ログの検索、クエリー、表示を実行するために Kibana インスタンスを設定し、デプロイします。
5.2.2. JSON OpenShift コンテナープラットフォームロギング
JSON ロギングを使用して、JSON 文字列を構造化オブジェクトに解析するようにログ転送 API を設定できます。以下のタスクを実行します。
- JSON ログの解析
- Elasticsearch の JSON ログデータの設定
- JSON ログの Elasticsearch ログストアへの転送
5.2.3. Kubernetes イベントの収集および保存
OpenShift Container Platform イベントルーターは、Kubernetes イベントを監視し、それらを OpenShift Container Platform Logging によって収集できるようにログに記録する Pod です。イベントルーターは手動でデプロイする必要があります。
詳細は、Kubernetes イベントの収集および保存 を参照してください。
5.2.4. OpenShift Container Platform ロギングのトラブルシューティング
次のタスクを実行してログの問題をトラブルシューティングできます。
- ロギングステータスの表示
- ログストアのステータスの表示
- ロギングアラートの理解
- Red Hat サポート用のロギングデータの収集
- Critical Alerts のトラブルシューティング
5.2.5. フィールドのエクスポート
ロギングシステムはフィールドをエクスポートします。エクスポートされたフィールドはログレコードに存在し、Elasticsearch および Kibana から検索できます。
詳細は、フィールドのエクスポート を参照してください。
5.2.6. イベントのルーティングについて
イベントルーターは、ロギングによって収集できるように OpenShift Container Platform イベントを監視する Pod です。イベントルーターはすべてのプロジェクトからイベントを収集し、それらを STDOUT
に書き込みます。Fluentd はそれらのイベントを収集し、それらを OpenShift Container Platform Elasticsearch インスタンスに転送します。Elasticsearch はイベントを infra
インデックスにインデックス化します。
イベントルーターは手動でデプロイする必要があります。
詳細は、Kubernetes イベントの収集および保存 を参照してください。
第6章 ロギングのインストール
OpenShift Container Platform Operator は、カスタムリソース (CR) を使用してアプリケーションとそのコンポーネントを管理します。高レベルの構成と設定は、CR 内でユーザーが指定します。Operator は、Operator のロジック内に組み込まれたベストプラクティスに基づいて、高レベルのディレクティブを低レベルのアクションに変換します。カスタムリソース定義 (CRD) は CR を定義し、Operator のユーザーが使用できるすべての設定をリストします。Operator をインストールすると CRD が作成され、CR の生成に使用されます。
ログストア Operator の 後 に、Red Hat OpenShift Logging Operator をインストールする必要があります。
ロギングをデプロイするには、ログストアを管理するために Loki Operator または OpenShift Elasticsearch Operator をインストールし、次にロギングのコンポーネントを管理するために Red Hat OpenShift Logging Operator をインストールします。ロギングをインストールまたは設定するには、OpenShift Container Platform Web コンソールまたは OpenShift Container Platform CLI のいずれかを使用できます。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
代わりに、すべてのサンプルオブジェクトを適用することもできます。
6.1. Web コンソールを使用して Elasticsearch でロギングをインストールする
OpenShift Container Platform Web コンソールを使用して OpenShift Elasticsearch および Red Hat OpenShift Logging Operator をインストールすることができます。Elasticsearch はメモリー集約型アプリケーションです。デフォルトで、OpenShift Container Platform はメモリー要求および 16 GB の制限を持つ 3 つの Elasticsearch ノードをインストールします。OpenShift Container Platform ノードの最初の 3 つのセットには、Elasticsearch をクラスター内で実行するのに十分なメモリーがない可能性があります。Elasticsearch に関連するメモリーの問題が発生した場合は、既存ノードのメモリーを増やすのではなく、Elasticsearch ノードをクラスターにさらに追加します。
デフォルトの Elasticsearch ログストアを使用しない場合は、内部 Elasticsearch logStore
、Kibana visualization
コンポーネントを ClusterLogging
カスタムリソース (CR) から削除できます。これらのコンポーネントの削除はオプションですが、これによりリソースを節約できます。
前提条件
Elasticsearch の必要な永続ストレージがあることを確認します。各 Elasticsearch ノードには独自のストレージボリュームが必要であることに注意してください。
注記永続ストレージにローカルボリュームを使用する場合は、
LocalVolume
オブジェクトのvolumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。
手順
OpenShift Container Platform Web コンソールを使用して OpenShift Elasticsearch Operator および Red Hat OpenShift Logging Operator をインストールするには、以下を実行します。
OpenShift Elasticsearch Operator をインストールします。
- OpenShift Container Platform Web コンソールで、Operators → OperatorHub をクリックします。
- 利用可能な Operator のリストから OpenShift Elasticsearch Operator を選択し、Install をクリックします。
- All namespaces on the cluster が Installation Mode で選択されていることを確認します。
openshift-operators-redhat が Installed Namespace で選択されていることを確認します。
openshift-operators-redhat
namespace を指定する必要があります。openshift-operators
namespace には信頼されていないコミュニティー Operator が含まれる可能性があり、OpenShift Container Platform メトリックと同じ名前でメトリックを公開する可能性があるため、これによって競合が生じる可能性があります。Enable Operator recommended cluster monitoring on this namespace を選択します。
このオプションは、namespace オブジェクトに
openshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-operators-redhat
namespace を収集できるように、このオプションを選択する必要があります。Update Channel として stable-5.y を選択します。
注記stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。
x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。Approval Strategy を選択します。
- Automatic ストラテジーにより、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。
- Manual ストラテジーには、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。
- Install をクリックします。
- Operators → Installed Operators ページに切り替えて、OpenShift Elasticsearch Operator がインストールされていることを確認します。
- Status が Succeeded の状態で、OpenShift Elasticsearch Operator がすべてのプロジェクトにリスト表示されていることを確認します。
Red Hat OpenShift Logging Operator をインストールします。
- OpenShift Container Platform Web コンソールで、Operators → OperatorHub をクリックします。
- 利用可能な Operator のリストから Red Hat OpenShift Logging を選択し、Install をクリックします。
- A specific namespace on the cluster が Installation Mode で選択されていることを確認します。
- Operator recommended namespace が Installed Namespace で openshift-logging になっていることを確認します。
Enable Operator recommended cluster monitoring on this namespace を選択します。
このオプションは、namespace オブジェクトに
openshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-logging
namespace を収集できるように、このオプションを選択する必要があります。- Update Channel として stable-5.y を選択します。
Approval Strategy を選択します。
- Automatic ストラテジーにより、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。
- Manual ストラテジーには、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。
- Install をクリックします。
- Operators → Installed Operators ページに切り替えて、Red Hat OpenShift Logging Operator がインストールされていることを確認します。
Red Hat OpenShift Logging が Status が Succeeded の状態で openshift-logging プロジェクトにリスト表示されていることを確認します。
Operator がインストール済みとして表示されない場合に、さらにトラブルシューティングを実行します。
- Operators → Installed Operators ページに切り替え、Status 列でエラーまたは失敗の有無を確認します。
-
Workloads → Pods ページに切り替え、
openshift-logging
プロジェクトの Pod で問題を報告しているログの有無を確認します。
OpenShift Logging インスタンスを作成します。
- Administration → Custom Resource Definitions ページに切り替えます。
- Custom Resource Definitions ページで、ClusterLogging をクリックします。
- Custom Resource Definition details ページで、Actions メニューから View Instances を選択します。
ClusterLoggings ページで、Create ClusterLogging をクリックします。
データを読み込むためにページの更新が必要になる場合があります。
YAML フィールドで、コードを以下に置き換えます。
注記このデフォルトの OpenShift Logging 設定は各種の環境をサポートすることが予想されます。OpenShift Logging クラスターに加えることができる変更は、ロギングコンポーネントのチューニングと設定に関するトピックを確認してください。
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging spec: managementState: Managed 2 logStore: type: elasticsearch 3 retentionPolicy: 4 application: maxAge: 1d infra: maxAge: 7d audit: maxAge: 7d elasticsearch: nodeCount: 3 5 storage: storageClassName: <storage_class_name> 6 size: 200G resources: 7 limits: memory: 16Gi requests: memory: 16Gi proxy: 8 resources: limits: memory: 256Mi requests: memory: 256Mi redundancyPolicy: SingleRedundancy visualization: type: kibana 9 kibana: replicas: 1 collection: type: fluentd 10 fluentd: {}
- 1
- 名前は
instance
である必要があります。 - 2
- OpenShift Logging の管理状態。OpenShift Logging のデフォルト値を変更する場合は、これを
Unmanaged
(管理外) に設定することが求められる場合があります。ただし、管理外のデプロイメントは OpenShift Logging がマネージドの状態に戻されるまで更新を受信しません。 - 3
- Elasticsearch の設定に必要な設定。CR を使用してシャードのレプリケーションポリシーおよび永続ストレージを設定できます。
- 4
- Elasticsearch が各ログソースを保持する期間を指定します。整数および時間の指定 (weeks(w)、hour(h/H)、minutes(m)、および seconds(s)) を入力します。たとえば、7 日の場合は
7d
となります。maxAge
よりも古いログは削除されます。各ログソースの保持ポリシーを指定する必要があります。指定しないと、Elasticsearch インデックスはそのソースに対して作成されません。 - 5
- Elasticsearch ノードの数を指定します。このリストに続く注記を確認してください。
- 6
- Elasticsearch ストレージの既存のストレージクラスの名前を入力します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。ストレージクラスを指定しないと、OpenShift Logging は一時ストレージを使用します。
- 7
- 必要に応じて CPU およびメモリー要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるはずです。デフォルト値は、メモリー要求の場合は
16Gi
であり、CPU 要求の場合は1
です。 - 8
- 必要に応じて Elasticsearch プロキシーの CPU およびメモリーの制限および要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるはずです。デフォルト値は、メモリー要求の場合は
256Mi
、CPU 要求の場合は100m
です。 - 9
- Kibana の設定に必要な設定。CR を使用して、冗長性を確保するために Kibana をスケーリングし、Kibana ノードの CPU およびメモリーを設定できます。詳細は、ログビジュアライザーの設定 を参照してください。
- 10
- Fluentd の設定に必要な設定。CR を使用して Fluentd の CPU およびメモリー制限を設定できます。詳細は、「Fluentd の設定」を参照してください。
注記マスターノードの最大数は 3 です。
3
を超えるnodeCount
を指定する場合、OpenShift Container Platform は、マスター、クライアントおよびデータロールを使用して、3 つのマスターとしての適格性のあるノードである Elasticsearch ノードを作成します。追加の Elasticsearch ノードは、クライアントおよびデータロールを使用してデータのみのノードとして作成されます。マスターノードは、インデックスの作成および削除、シャードの割り当て、およびノードの追跡などのクラスター全体でのアクションを実行します。データノードはシャードを保持し、CRUD、検索、および集計などのデータ関連の操作を実行します。データ関連の操作は、I/O、メモリーおよび CPU 集約型の操作です。これらのリソースを監視し、現行ノードがオーバーロードする場合にデータノード追加することが重要です。たとえば、
nodeCount=4
の場合に、以下のノードが作成されます。$ oc get deployment
出力例
cluster-logging-operator-66f77ffccb-ppzbg 1/1 Running 0 7m elasticsearch-cd-tuhduuw-1-f5c885dbf-dlqws 1/1 Running 0 2m4s elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp 2/2 Running 0 2m40s elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc 2/2 Running 0 2m36s elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2 2/2 Running 0 2m4s
-
Create をクリックします。これにより、ロギングコンポーネント、
Elasticsearch
カスタムリソースおよびコンポーネント、および Kibana インターフェイスが作成されます。
インストールを確認します。
- Workloads → Pods ページに切り替えます。
openshift-logging プロジェクトを選択します。
次のリストのように、OpenShift Logging、Elasticsearch、コレクター、Kibana の複数の Pod が表示されます。
出力例
cluster-logging-operator-66f77ffccb-ppzbg 1/1 Running 0 7m elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp 2/2 Running 0 2m40s elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc 2/2 Running 0 2m36s elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2 2/2 Running 0 2m4s collector-587vb 1/1 Running 0 2m26s collector-7mpb9 1/1 Running 0 2m30s collector-flm6j 1/1 Running 0 2m33s collector-gn4rn 1/1 Running 0 2m26s collector-nlgb6 1/1 Running 0 2m30s collector-snpkt 1/1 Running 0 2m28s kibana-d6d5668c5-rppqm 2/2 Running 0 2m39s
6.2. CLI を使用して Elasticsearch でロギングをインストールする
Elasticsearch はメモリー集約型アプリケーションです。デフォルトで、OpenShift Container Platform はメモリー要求および 16 GB の制限を持つ 3 つの Elasticsearch ノードをインストールします。OpenShift Container Platform ノードの最初の 3 つのセットには、Elasticsearch をクラスター内で実行するのに十分なメモリーがない可能性があります。Elasticsearch に関連するメモリーの問題が発生した場合は、既存ノードのメモリーを増やすのではなく、Elasticsearch ノードをクラスターにさらに追加します。
前提条件
Elasticsearch の必要な永続ストレージがあることを確認します。各 Elasticsearch ノードには独自のストレージボリュームが必要であることに注意してください。
注記永続ストレージにローカルボリュームを使用する場合は、
LocalVolume
オブジェクトのvolumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。
手順
OpenShift Elasticsearch Operator の
Namespace
オブジェクトを作成します。Namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-operators-redhat 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-monitoring: "true" 2
次のコマンドを実行して、
Namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Red Hat OpenShift Logging Operator の
Namespace
オブジェクトを作成します。Namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-logging 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-monitoring: "true"
- 1
- バージョン 5.7 以前のログ記録の場合、namespace として
openshift-logging
を指定する必要があります。ログ記録 5.8 以降では、任意の namespace を使用できます。
次のコマンドを実行して、
Namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OpenShift Elasticsearch Operator の
OperatorGroup
オブジェクトを作成します。OperatorGroup
オブジェクトのサンプルapiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: openshift-operators-redhat namespace: openshift-operators-redhat 1 spec: {}
- 1
openshift-operators-redhat
namespace を指定する必要があります。
以下のコマンドを実行して
OperatorGroup
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OpenShift Elasticsearch Operator に namespace をサブスクライブするための
Subscription
オブジェクトを作成します。注記stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。
x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。Subscription
オブジェクトの例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: elasticsearch-operator namespace: openshift-operators-redhat 1 spec: channel: <channel> 2 installPlanApproval: Automatic 3 source: redhat-operators 4 sourceNamespace: openshift-marketplace name: elasticsearch-operator
- 1
openshift-operators-redhat
namespace を指定する必要があります。- 2
- チャネルとして
stable
またはstable-<x.y>
を指定します。 - 3
Automatic
により、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。Manual
には、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。- 4
redhat-operators
を指定します。OpenShift Container Platform クラスターが、非接続クラスターとも呼ばれる制限されたネットワークにインストールされている場合、Operator Lifecycle Manager (OLM) の設定時に作成したCatalogSource
オブジェクトの名前を指定します。
次のコマンドを実行して、サブスクリプションを適用します。
$ oc apply -f <filename>.yaml
次のコマンドを実行して、Operator のインストールを確認します。
$ oc get csv --all-namespaces
出力例
NAMESPACE NAME DISPLAY VERSION REPLACES PHASE default elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded kube-node-lease elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded kube-public elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded kube-system elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-apiserver-operator elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-apiserver elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-authentication-operator elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-authentication elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-cloud-controller-manager-operator elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-cloud-controller-manager elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded openshift-cloud-credential-operator elasticsearch-operator.v5.8.3 OpenShift Elasticsearch Operator 5.8.3 elasticsearch-operator.v5.8.2 Succeeded
Red Hat OpenShift Logging Operator の
OperatorGroup
オブジェクトを作成します。OperatorGroup
オブジェクトのサンプルapiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: cluster-logging namespace: openshift-logging 1 spec: targetNamespaces: - openshift-logging 2
以下のコマンドを実行して
OperatorGroup
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Red Hat OpenShift Logging Operator に namespace をサブスクライブするための
Subscription
オブジェクトを作成します。Subscription
オブジェクトの例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: cluster-logging namespace: openshift-logging 1 spec: channel: stable 2 name: cluster-logging source: redhat-operators 3 sourceNamespace: openshift-marketplace
- 1
- ロギングバージョン 5.7 以前の場合、
openshift-logging
namespace を指定する必要があります。ロギングバージョン 5.8 以降の場合、任意の namespace を使用できます。 - 2
- チャネルとして
stable
またはstable-x.y
を指定します。 - 3
redhat-operators
を指定します。OpenShift Container Platform クラスターが、非接続クラスターとも呼ばれる制限されたネットワークにインストールされている場合、Operator Lifecycle Manager (OLM) の設定時に作成したCatalogSource
オブジェクトの名前を指定します。
以下のコマンドを実行して
subscription
オブジェクトを適用します。$ oc apply -f <filename>.yaml
ClusterLogging
オブジェクトを YAML ファイルとして作成します。ClusterLogging
オブジェクトの例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging spec: managementState: Managed 2 logStore: type: elasticsearch 3 retentionPolicy: 4 application: maxAge: 1d infra: maxAge: 7d audit: maxAge: 7d elasticsearch: nodeCount: 3 5 storage: storageClassName: <storage_class_name> 6 size: 200G resources: 7 limits: memory: 16Gi requests: memory: 16Gi proxy: 8 resources: limits: memory: 256Mi requests: memory: 256Mi redundancyPolicy: SingleRedundancy visualization: type: kibana 9 kibana: replicas: 1 collection: type: fluentd 10 fluentd: {}
- 1
- 名前は
instance
である必要があります。 - 2
- OpenShift Logging の管理状態。OpenShift Logging のデフォルト値を変更する場合は、これを
Unmanaged
(管理外) に設定することが求められる場合があります。ただし、管理外のデプロイメントは OpenShift Logging がマネージドの状態に戻されるまで更新を受信しません。 - 3
- Elasticsearch の設定に必要な設定。CR を使用してシャードのレプリケーションポリシーおよび永続ストレージを設定できます。
- 4
- Elasticsearch が各ログソースを保持する期間を指定します。整数および時間の指定 (weeks(w)、hour(h/H)、minutes(m)、および seconds(s)) を入力します。たとえば、7 日の場合は
7d
となります。maxAge
よりも古いログは削除されます。各ログソースの保持ポリシーを指定する必要があります。指定しないと、Elasticsearch インデックスはそのソースに対して作成されません。 - 5
- Elasticsearch ノードの数を指定します。
- 6
- Elasticsearch ストレージの既存のストレージクラスの名前を入力します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。ストレージクラスを指定しないと、OpenShift Logging は一時ストレージを使用します。
- 7
- 必要に応じて CPU およびメモリー要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるはずです。デフォルト値は、メモリー要求の場合は
16Gi
であり、CPU 要求の場合は1
です。 - 8
- 必要に応じて Elasticsearch プロキシーの CPU およびメモリーの制限および要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるはずです。デフォルト値は、メモリー要求の場合は
256Mi
、CPU 要求の場合は100m
です。 - 9
- Kibana の設定に必要な設定。CR を使用して、冗長性を確保するために Kibana をスケーリングし、Kibana ノードの CPU およびメモリーを設定できます。
- 10
- Fluentd の設定に必要な設定。CR を使用して Fluentd の CPU およびメモリー制限を設定できます。
注記マスターノードの最大数は 3 です。
3
を超えるnodeCount
を指定する場合、OpenShift Container Platform は、マスター、クライアントおよびデータロールを使用して、3 つのマスターとしての適格性のあるノードである Elasticsearch ノードを作成します。追加の Elasticsearch ノードは、クライアントおよびデータロールを使用してデータのみのノードとして作成されます。マスターノードは、インデックスの作成および削除、シャードの割り当て、およびノードの追跡などのクラスター全体でのアクションを実行します。データノードはシャードを保持し、CRUD、検索、および集計などのデータ関連の操作を実行します。データ関連の操作は、I/O、メモリーおよび CPU 集約型の操作です。これらのリソースを監視し、現行ノードがオーバーロードする場合にデータノード追加することが重要です。たとえば、
nodeCount=4
の場合に、以下のノードが作成されます。$ oc get deployment
出力例
cluster-logging-operator-66f77ffccb-ppzbg 1/1 Running 0 7m elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp 2/2 Running 0 2m40s elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc 2/2 Running 0 2m36s elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2 2/2 Running 0 2m4s
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
次のコマンドを実行して、インストールを確認します。
$ oc get pods -n openshift-logging
出力例
NAME READY STATUS RESTARTS AGE cluster-logging-operator-66f77ffccb-ppzbg 1/1 Running 0 7m elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp 2/2 Running 0 2m40s elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc 2/2 Running 0 2m36s elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2 2/2 Running 0 2m4s collector-587vb 1/1 Running 0 2m26s collector-7mpb9 1/1 Running 0 2m30s collector-flm6j 1/1 Running 0 2m33s collector-gn4rn 1/1 Running 0 2m26s collector-nlgb6 1/1 Running 0 2m30s collector-snpkt 1/1 Running 0 2m28s kibana-d6d5668c5-rppqm 2/2 Running 0 2m39s
s3 バケットまたは LokiStack カスタムリソース (CR) に保存期間が定義されていない場合、ログは削除されず、s3 バケットに永久に残り、s3 ストレージがいっぱいになる可能性があります。
6.3. CLI を使用してロギングと Loki Operator をインストールする
OpenShift Container Platform クラスターにログをインストールして設定するには、まずログストレージ用の Loki Operator などの Operator をインストールする必要があります。これは、OpenShift Container Platform CLI から実行できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - サポートされているオブジェクトストアにアクセスできる。例: AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation。
stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。
Loki Operator の
Namespace
オブジェクトを作成します。Namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-operators-redhat 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-monitoring: "true" 2
- 1
openshift-operators-redhat
namespace を指定する必要があります。メトリクスとの競合が発生する可能性を防ぐには、Prometheus のクラスターモニタリングスタックを、openshift-operators
namespace からではなく、openshift-operators-redhat
namespace からメトリクスを収集するように設定する必要があります。openshift-operators
namespace には信頼されていないコミュニティー Operator が含まれる可能性があり、OpenShift Container Platform メトリックと同じ名前でメトリックを公開する可能性があるため、これによって競合が生じる可能性があります。- 2
- クラスターモニタリングが
openshift-operators-redhat
namespace をスクレイピングできるようにするために、示されているラベルを指定する文字列値。
次のコマンドを実行して、
Namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Loki Operator の
Subscription
オブジェクトを作成します。Subscription
オブジェクトの例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat 1 spec: channel: stable 2 name: loki-operator source: redhat-operators 3 sourceNamespace: openshift-marketplace
以下のコマンドを実行して
Subscription
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Red Hat OpenShift Logging Operator の
namespace
オブジェクトを作成します。namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-logging 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-logging: "true" openshift.io/cluster-monitoring: "true" 2
次のコマンドを実行して、
namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OperatorGroup
オブジェクトを作成します。OperatorGroup
オブジェクトのサンプルapiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: cluster-logging namespace: openshift-logging 1 spec: targetNamespaces: - openshift-logging
- 1
openshift-logging
namespace を指定する必要があります。
以下のコマンドを実行して
OperatorGroup
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Subscription
オブジェクトを作成します。apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: cluster-logging namespace: openshift-logging 1 spec: channel: stable 2 name: cluster-logging source: redhat-operators 3 sourceNamespace: openshift-marketplace
以下のコマンドを実行して
Subscription
オブジェクトを適用します。$ oc apply -f <filename>.yaml
LokiStack
CR を作成します。LokiStack
CR の例apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging 2 spec: size: 1x.small 3 storage: schemas: - version: v13 effectiveDate: "<yyyy>-<mm>-<dd>" secret: name: logging-loki-s3 4 type: s3 5 credentialMode: 6 storageClassName: <storage_class_name> 7 tenants: mode: openshift-logging 8
- 1
logging-loki
という名前を使用します。- 2
openshift-logging
namespace を指定する必要があります。- 3
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 4
- ログストアシークレットの名前を指定します。
- 5
- 対応するストレージタイプを指定します。
- 6
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。
static
は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token
は、認証情報ソースから取得される有効期間が短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。Loki がマネージド STS モードで実行されていて、STS/WIF クラスターで CCO を使用している場合、token-cco
がデフォルト値です。 - 7
- 一時ストレージのストレージクラスの名前を指定します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。 - 8
- LokiStack はデフォルトでマルチテナントモードで実行されます。このデフォルト設定は変更できません。ログの種類 (監査ログ、インフラストラクチャーログ、アプリケーションログ) ごとに 1 つのテナントが提供されます。これにより、個々のユーザーおよびユーザーグループのさまざまなログストリームのアクセス制御が可能になります。
次のコマンドを実行して、
LokiStack CR
オブジェクトを適用します。$ oc apply -f <filename>.yaml
ClusterLogging
CR オブジェクトを作成します。ClusterLogging CR オブジェクトの例
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging 2 spec: collection: type: vector logStore: lokistack: name: logging-loki type: lokistack visualization: type: ocp-console ocpConsole: logsLimit: 15 managementState: Managed
次のコマンドを実行して
ClusterLogging CR
オブジェクトを適用します。$ oc apply -f <filename>.yaml
次のコマンドを実行して、インストールを確認します。
$ oc get pods -n openshift-logging
出力例
$ oc get pods -n openshift-logging NAME READY STATUS RESTARTS AGE cluster-logging-operator-fb7f7cf69-8jsbq 1/1 Running 0 98m collector-222js 2/2 Running 0 18m collector-g9ddv 2/2 Running 0 18m collector-hfqq8 2/2 Running 0 18m collector-sphwg 2/2 Running 0 18m collector-vv7zn 2/2 Running 0 18m collector-wk5zz 2/2 Running 0 18m logging-view-plugin-6f76fbb78f-n2n4n 1/1 Running 0 18m lokistack-sample-compactor-0 1/1 Running 0 42m lokistack-sample-distributor-7d7688bcb9-dvcj8 1/1 Running 0 42m lokistack-sample-gateway-5f6c75f879-bl7k9 2/2 Running 0 42m lokistack-sample-gateway-5f6c75f879-xhq98 2/2 Running 0 42m lokistack-sample-index-gateway-0 1/1 Running 0 42m lokistack-sample-ingester-0 1/1 Running 0 42m lokistack-sample-querier-6b7b56bccc-2v9q4 1/1 Running 0 42m lokistack-sample-query-frontend-84fb57c578-gq2f7 1/1 Running 0 42m
6.4. Web コンソールを使用してロギングと Loki Operator をインストールする
OpenShift Container Platform クラスターにログをインストールして設定するには、まずログストレージ用の Loki Operator などの Operator をインストールする必要があります。これは、Web コンソールの Operator Hub から実行できます。
前提条件
- サポートされているオブジェクトストア (AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation) にアクセスできる。
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスできる。
手順
- OpenShift Container Platform Web コンソールの Administrator パースペクティブで、Operators → OperatorHub に移動します。
Filter by keyword フィールドに Loki Operator と入力します。使用可能な Operator のリストで Loki Operator をクリックし、Install をクリックします。
重要Community Loki Operator は Red Hat ではサポートされていません。
Update channel として stable または stable-x.y を選択します。
注記stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。
x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。Loki Operator はグローバルオペレーターグループ namespace である
openshift-operators-redhat
にデプロイする必要があるため、Installation mode と Installed Namespace がすでに選択されています。この namespace がない場合は、自動的に作成されます。Enable Operator-recommended cluster monitoring on this namespace. を選択します。
このオプションは、
Namespace
オブジェクトにopenshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-operators-redhat
namespace を収集できるように、このオプションを選択する必要があります。Update approva で Automatic を選択し、Install をクリックします。
サブスクリプションの承認ストラテジーが Automatic に設定されている場合、アップグレードプロセスは、選択したチャネルで新規 Operator バージョンが利用可能になるとすぐに開始します。承認ストラテジーが Manual に設定されている場合は、保留中のアップグレードを手動で承認する必要があります。
Red Hat OpenShift Logging Operator をインストールします。
- OpenShift Container Platform Web コンソールで、Operators → OperatorHub をクリックします。
- 利用可能な Operator のリストから Red Hat OpenShift Logging を選択し、Install をクリックします。
- A specific namespace on the cluster が Installation Mode で選択されていることを確認します。
- Operator recommended namespace が Installed Namespace で openshift-logging になっていることを確認します。
Enable Operator recommended cluster monitoring on this namespace を選択します。
このオプションは、namespace オブジェクトに
openshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-logging
namespace を収集できるように、このオプションを選択する必要があります。- Update Channel として stable-5.y を選択します。
Approval Strategy を選択します。
- Automatic ストラテジーにより、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。
- Manual ストラテジーには、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。
- Install をクリックします。
- Operators → Installed Operators ページに移動します。All instances タブをクリックします。
- Create new ドロップダウンリストから、LokiStack を選択します。
YAML view を選択し、次のテンプレートを使用して
LokiStack
CR を作成します。LokiStack
CR の例apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging 2 spec: size: 1x.small 3 storage: schemas: - version: v13 effectiveDate: "<yyyy>-<mm>-<dd>" secret: name: logging-loki-s3 4 type: s3 5 credentialMode: 6 storageClassName: <storage_class_name> 7 tenants: mode: openshift-logging 8
- 1
logging-loki
という名前を使用します。- 2
openshift-logging
namespace を指定する必要があります。- 3
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 4
- ログストアシークレットの名前を指定します。
- 5
- 対応するストレージタイプを指定します。
- 6
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。static は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token は、認証情報ソースから取得された有効期間の短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。token-cco は、Loki がマネージド STS モードで実行し、STS/WIF クラスターで CCO を使用している場合のデフォルト値です。
- 7
- 一時ストレージのストレージクラスの名前を指定します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。 - 8
- LokiStack はデフォルトでマルチテナントモードで実行されます。このデフォルト設定は変更できません。ログの種類 (監査ログ、インフラストラクチャーログ、アプリケーションログ) ごとに 1 つのテナントが提供されます。これにより、個々のユーザーおよびユーザーグループのさまざまなログストリームのアクセス制御が可能になります。
重要デプロイメントサイズの
1x
の数は変更できません。- Create をクリックします。
OpenShift Logging インスタンスを作成します。
- Administration → Custom Resource Definitions ページに切り替えます。
- Custom Resource Definitions ページで、ClusterLogging をクリックします。
- Custom Resource Definition details ページで、Actions メニューから View Instances を選択します。
ClusterLoggings ページで、Create ClusterLogging をクリックします。
データを読み込むためにページの更新が必要になる場合があります。
YAML フィールドで、コードを以下に置き換えます。
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging 2 spec: collection: type: vector logStore: lokistack: name: logging-loki type: lokistack visualization: type: ocp-console ocpConsole: logsLimit: 15 managementState: Managed
検証
- Operators → Installed Operators に移動します。
- openshift-logging プロジェクトが選択されていることを確認します。
- Status 列に、緑色のチェックマークおよび InstallSucceeded と、Up to date というテキストが表示されていることを確認します。
インストールが完了する前に、Operator に Failed
ステータスが表示される場合があります。InstallSucceeded
メッセージが表示されて Operator のインストールが完了した場合は、ページを更新します。
第7章 ロギングの更新
ロギングの更新には、マイナーリリース更新 (5.y.z) とメジャーリリース更新 (5.y) の 2 種類があります。
7.1. マイナーリリースの更新
Automatic 更新承認オプションを使用してロギング Operator をインストールした場合、Operator はマイナーバージョンの更新を自動的に受け取ります。手動での更新手順を完了する必要はありません。
Manual 更新承認オプションを使用してロギング Operators をインストールした場合は、マイナーバージョンの更新を手動で承認する必要があります。詳細は、保留中の Operator 更新の手動による承認 を参照してください。
7.2. メジャーリリースの更新
メジャーバージョンを更新するには、いくつかの手順を手動で完了する必要があります。
メジャーリリースバージョンの互換性とサポート情報は、OpenShift Operator Life Cycles を参照してください。
7.3. すべての namespace を監視するための Red Hat OpenShift Logging Operator のアップグレード
Logging 5.7 以前のバージョンでは、Red Hat OpenShift Logging Operator は openshift-logging
namespace のみを監視します。Red Hat OpenShift Logging Operator でクラスター上のすべての namespace を監視する場合は、Operator を再デプロイする必要があります。以下の手順を実行して、ロギングコンポーネントを削除せずに Operator を再デプロイします。
前提条件
-
OpenShift CLI (
oc
) がインストールされている。 - 管理者権限がある。
手順
次のコマンドを実行して、サブスクリプションを削除します。
$ oc -n openshift-logging delete subscription <subscription>
以下のコマンドを実行して Operator グループを削除します。
$ oc -n openshift-logging delete operatorgroup <operator_group_name>
次のコマンドを実行して、クラスターサービスバージョン (CSV) を削除します。
$ oc delete clusterserviceversion cluster-logging.<version>
- 「ロギングのインストール」ドキュメントに従って、Red Hat OpenShift Logging Operator を再デプロイします。
検証
OperatorGroup
リソースのtargetNamespaces
フィールドが存在しないか、空の文字列に設定されていることを確認します。これを行うには、次のコマンドを実行して出力を検査します。
$ oc get operatorgroup <operator_group_name> -o yaml
出力例
apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: openshift-logging-f52cn namespace: openshift-logging spec: upgradeStrategy: Default status: namespaces: - "" # ...
7.4. Red Hat OpenShift Logging Operator の更新
Red Hat OpenShift Logging Operator を新しいメジャーリリースバージョンに更新するには、Operator サブスクリプションの更新チャネルを変更する必要があります。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスでき、Administrator パースペクティブを表示している。
手順
- Operators → Installed Operators に移動します。
- openshift-logging プロジェクトを選択します。
- Red Hat OpenShift Logging Operator をクリックします。
- Subscription をクリックします。Subscription details セクションで、Update channel リンクをクリックします。このリンクテキストは、現在の更新チャネルによっては、安定または stable -5.9 の場合があります。
-
Change Subscription Update Channel ウィンドウで最新のメジャーバージョン更新チャネル stable-5.9 を選択し、Save をクリックします。
cluster-logging.v5.9.<z>
のバージョンをメモします。 -
数秒待ってから Operators → Installed Operators に移動し、Red Hat OpenShift Logging Operator バージョンが最新の
cluster-logging.v5.9.<z> バージョンと一致することを確認し
ます。 - Operators → Installed Operators ページで、Status フィールドが Succeeded を報告するのを待機します。
-
LokiStack
カスタムリソースにv13
スキーマバージョンが含まれているかどうかを確認し、欠落している場合は追加します。v13
スキーマバージョンを正しく追加する場合は、「LokiStack ストレージスキーマのアップグレード」を参照してください。
7.5. Loki Operator の更新
Loki Operator を新しいメジャーリリースバージョンに更新するには、Operator サブスクリプションの更新チャネルを変更する必要があります。
前提条件
- Loki Operator がインストールされている。
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスでき、Administrator パースペクティブを表示している。
手順
- Operators → Installed Operators に移動します。
- openshift-operators-redhat プロジェクトを選択します。
- Loki Operator をクリックします。
- Subscription をクリックします。Subscription details セクションで、Update channel リンクをクリックします。このリンクテキストは、現在の更新チャネルによっては stable または stable-5.y である可能性があります。
-
Change Subscription Update Channel ウィンドウで、最新のメジャーバージョン更新チャネル stable-5.y を選択し、Save をクリックします。
loki-operator.v5.y.z
バージョンに注意してください。 -
数秒待ってから Operators → Installed Operators をクリックします。Loki Operator のバージョンが最新の
loki-operator.v5.y.z
バージョンと一致していることを確認します。 - Operators → Installed Operators ページで、Status フィールドが Succeeded を報告するのを待機します。
-
LokiStack
カスタムリソースにv13
スキーマバージョンが含まれているかどうかを確認し、欠落している場合は追加します。v13
スキーマバージョンを正しく追加する場合は、「LokiStack ストレージスキーマのアップグレード」を参照してください。
7.6. LokiStack ストレージスキーマのアップグレード
Loki Operator で Red Hat OpenShift Logging Operator を使用している場合、Red Hat OpenShift Logging Operator 5.9 以降では LokiStack
カスタムリソースの v13
スキーマバージョンをサポートします。今後サポートされるスキーマバージョンであるため、v13
スキーマバージョンにアップグレードすることを推奨します。
手順
以下のように、
LokiStack
カスタムリソースにv13
スキーマバージョンを追加します。apiVersion: loki.grafana.com/v1 kind: LokiStack # ... spec: # ... storage: schemas: # ... version: v12 1 - effectiveDate: "<yyyy>-<mm>-<future_dd>" 2 version: v13 # ...
ヒントLokiStack
カスタムリソースを編集するには、oc edit
コマンドを実行します。$ oc edit lokistack <name> -n openshift-logging
検証
-
指定された
effectiveDate
の日付後に、Web コンソールの Administrator → Observe → Alerting に LokistackSchemaUpgradesRequired アラートがないことを確認します。
7.7. OpenShift Elasticsearch Operator の更新
OpenShift Elasticsearch Operator を現在のバージョンに更新するには、サブスクリプションを変更する必要があります。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
前提条件
Elasticsearch をデフォルトのログストアとして使用し、Kibana を UI として使用している場合は、Red Hat OpenShift Logging Operator を更新する前に OpenShift Elasticsearch Operator を更新します。
重要Operator を間違った順序で更新すると、Kibana は更新されず、Kibana カスタムリソース (CR) は作成されません。この問題を解決するには、Red Hat OpenShift Logging Operator Pod を削除します。Red Hat OpenShift Logging Operator Pod が再デプロイされると、Kibana CR が作成され、Kibana が再度利用可能になります。
Logging のステータスが正常である。
-
すべての Pod のステータスは
ready
です。 - Elasticsearch クラスターが正常である。
-
すべての Pod のステータスは
- Elasticsearch および Kibana データのバックアップが作成されている。
- 管理者権限がある。
-
検証手順のために OpenShift CLI (
oc
) がインストールされている。
手順
- OpenShift Container Platform Web コンソールで、Operators → Installed Operators をクリックします。
- openshift-operators-redhat プロジェクトを選択します。
- OpenShift Elasticsearch Operator をクリックします。
- Subscription → Channel をクリックします。
-
Change Subscription Update Channel ウィンドウで stable-5.y を選択し、Save をクリックします。
elasticsearch-operator.v5.y.z
バージョンに注意してください。 -
数秒待ってから Operators → Installed Operators をクリックします。OpenShift Elasticsearch Operator のバージョンが最新の
elasticsearch-operator.v5.y.z
バージョンと一致していることを確認します。 - Operators → Installed Operators ページで、Status フィールドが Succeeded を報告するのを待機します。
検証
次のコマンドを入力し、出力を確認して、すべての Elasticsearch Pod が Ready ステータスになっていることを確認します。
$ oc get pod -n openshift-logging --selector component=elasticsearch
出力例
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk 2/2 Running 0 31m elasticsearch-cdm-1pbrl44l-2-5c6d87589f-gx5hk 2/2 Running 0 30m elasticsearch-cdm-1pbrl44l-3-88df5d47-m45jc 2/2 Running 0 29m
以下のコマンドを入力して出力を確認し、Elasticsearch クラスターのステータスが
green
であることを確認します。$ oc exec -n openshift-logging -c elasticsearch elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk -- health
出力例
{ "cluster_name" : "elasticsearch", "status" : "green", }
次のコマンドを入力し、出力を確認して、Elasticsearch cron ジョブが作成されたことを確認します。
$ oc project openshift-logging
$ oc get cronjob
出力例
NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE elasticsearch-im-app */15 * * * * False 0 <none> 56s elasticsearch-im-audit */15 * * * * False 0 <none> 56s elasticsearch-im-infra */15 * * * * False 0 <none> 56s
次のコマンドを入力し、出力を確認して、ログストアが正しいバージョンに更新され、インデックスが
緑色
になっていることを確認します。$ oc exec -c elasticsearch <any_es_pod_in_the_cluster> -- indices
出力に
app-00000x
、infra-00000x
、audit-00000x
、.security
インデックスが含まれることを確認します。例7.1 緑色のステータスのインデックスを含む出力例
Tue Jun 30 14:30:54 UTC 2020 health status index uuid pri rep docs.count docs.deleted store.size pri.store.size green open infra-000008 bnBvUFEXTWi92z3zWAzieQ 3 1 222195 0 289 144 green open infra-000004 rtDSzoqsSl6saisSK7Au1Q 3 1 226717 0 297 148 green open infra-000012 RSf_kUwDSR2xEuKRZMPqZQ 3 1 227623 0 295 147 green open .kibana_7 1SJdCqlZTPWlIAaOUd78yg 1 1 4 0 0 0 green open infra-000010 iXwL3bnqTuGEABbUDa6OVw 3 1 248368 0 317 158 green open infra-000009 YN9EsULWSNaxWeeNvOs0RA 3 1 258799 0 337 168 green open infra-000014 YP0U6R7FQ_GVQVQZ6Yh9Ig 3 1 223788 0 292 146 green open infra-000015 JRBbAbEmSMqK5X40df9HbQ 3 1 224371 0 291 145 green open .orphaned.2020.06.30 n_xQC2dWQzConkvQqei3YA 3 1 9 0 0 0 green open infra-000007 llkkAVSzSOmosWTSAJM_hg 3 1 228584 0 296 148 green open infra-000005 d9BoGQdiQASsS3BBFm2iRA 3 1 227987 0 297 148 green open infra-000003 1-goREK1QUKlQPAIVkWVaQ 3 1 226719 0 295 147 green open .security zeT65uOuRTKZMjg_bbUc1g 1 1 5 0 0 0 green open .kibana-377444158_kubeadmin wvMhDwJkR-mRZQO84K0gUQ 3 1 1 0 0 0 green open infra-000006 5H-KBSXGQKiO7hdapDE23g 3 1 226676 0 295 147 green open infra-000001 eH53BQ-bSxSWR5xYZB6lVg 3 1 341800 0 443 220 green open .kibana-6 RVp7TemSSemGJcsSUmuf3A 1 1 4 0 0 0 green open infra-000011 J7XWBauWSTe0jnzX02fU6A 3 1 226100 0 293 146 green open app-000001 axSAFfONQDmKwatkjPXdtw 3 1 103186 0 126 57 green open infra-000016 m9c1iRLtStWSF1GopaRyCg 3 1 13685 0 19 9 green open infra-000002 Hz6WvINtTvKcQzw-ewmbYg 3 1 228994 0 296 148 green open infra-000013 KR9mMFUpQl-jraYtanyIGw 3 1 228166 0 298 148 green open audit-000001 eERqLdLmQOiQDFES1LBATQ 3 1 0 0 0 0
次のコマンドを入力し、出力を確認して、ログビジュアライザーが正しいバージョンに更新されていることを確認します。
$ oc get kibana kibana -o json
出力に
ready
ステータスの Kibana Pod が含まれることを確認します。例7.2 準備状態にある Kibana Pod の出力例
[ { "clusterCondition": { "kibana-5fdd766ffd-nb2jj": [ { "lastTransitionTime": "2020-06-30T14:11:07Z", "reason": "ContainerCreating", "status": "True", "type": "" }, { "lastTransitionTime": "2020-06-30T14:11:07Z", "reason": "ContainerCreating", "status": "True", "type": "" } ] }, "deployment": "kibana", "pods": { "failed": [], "notReady": [] "ready": [] }, "replicaSets": [ "kibana-5fdd766ffd" ], "replicas": 1 } ]
第8章 ログの可視化
8.1. ログの可視化について
デプロイされたログストレージソリューションに応じて、OpenShift Container Platform Web コンソールまたは Kibana Web コンソールで、ログデータを可視化できます。Kibana コンソールは ElasticSearch ログストアで使用でき、OpenShift Container Platform Web コンソールは ElasticSearch ログストアまたは LokiStack で使用できます。
Kibana Web コンソールは現在非推奨となっており、将来のログリリースで削除される予定です。
8.1.1. ログビジュアライザーの設定
ClusterLogging
カスタムリソース (CR) を変更することで、ロギングで使用するログビジュアライザーのタイプを設定できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - Red Hat OpenShift Logging Operator がインストールされている。
-
ClusterLogging
CR が作成されている。
可視化に OpenShift Container Platform Web コンソールを使用する場合は、ロギングコンソールプラグインを有効にする必要があります。「Web コンソールによるログの可視化」に関するドキュメントを参照してください。
手順
ClusterLogging
CR のvisualization
仕様を変更します。ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: # ... spec: # ... visualization: type: <visualizer_type> 1 kibana: 2 resources: {} nodeSelector: {} proxy: {} replicas: {} tolerations: {} ocpConsole: 3 logsLimit: {} timeout: {} # ...
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
8.1.2. リソースのログの表示
リソースログは、制限されたログ表示機能を提供するデフォルトの機能です。OpenShift CLI (oc
) および Web コンソールを使用して、ビルド、デプロイメント、および Pod などの各種リソースのログを表示できます。
ログの取得と表示のエクスペリエンスを強化するには、ロギングをインストールします。ロギングは、ノードシステムの監査ログ、アプリケーションコンテナーログ、およびインフラストラクチャーログなどの OpenShift Container Platform クラスターからのすべてのログを専用のログストアに集約します。その後、Kibana コンソールまたは OpenShift Container Platform Web コンソールを介してログデータをクエリー、検出、可視化できます。リソースログはロギングのログストアにアクセスしません。
8.1.2.1. リソースログの表示
OpenShift CLI (oc
) および Web コンソールでさまざまなリソースのログを表示できます。ログの末尾から読み取られるログ。
前提条件
-
OpenShift CLI (
oc
) へのアクセスがある。
手順 (UI)
OpenShift Container Platform コンソールで Workloads → Pods に移動するか、調査するリソースから Pod に移動します。
注記ビルドなどの一部のリソースには、直接クエリーする Pod がありません。このような場合は、リソースの Details ページで Logs リンクを特定できます。
- ドロップダウンメニューからプロジェクトを選択します。
- 調査する Pod の名前をクリックします。
- Logs をクリックします。
手順 (CLI)
特定の Pod のログを表示します。
$ oc logs -f <pod_name> -c <container_name>
ここでは、以下のようになります。
-f
- オプション: ログに書き込まれている内容に沿って出力することを指定します。
<pod_name>
- Pod の名前を指定します。
<container_name>
- オプション: コンテナーの名前を指定します。Pod に複数のコンテナーがある場合は、コンテナー名を指定する必要があります。
以下に例を示します。
$ oc logs ruby-58cd97df55-mww7r
$ oc logs -f ruby-57f7f4855b-znl92 -c ruby
ログファイルの内容が出力されます。
特定のリソースのログを表示します。
$ oc logs <object_type>/<resource_name> 1
- 1
- リソースタイプおよび名前を指定します。
以下に例を示します。
$ oc logs deployment/ruby
ログファイルの内容が出力されます。
8.2. Web コンソールによるログの可視化
ロギングコンソールプラグインを設定すると、OpenShift Container Platform Web コンソールを使用してログデータを可視化できます。設定オプションは、Web コンソールでのログのインストール中に利用できます。
すでにロギングをインストールしており、プラグインを設定する場合は、次のいずれかの手順を使用します。
8.2.1. Red Hat OpenShift Logging Operator をインストールした後のロギングコンソールプラグインの有効化
ロギングコンソールプラグインは Red Hat OpenShift Logging Operator のインストール中に有効にできますが、プラグインを無効にして Red Hat OpenShift Logging Operator をインストールした場合も、プラグインを有効にすることができます。
前提条件
- 管理者権限がある。
- Red Hat OpenShift Logging Operator がインストールされており、Console plugin で Disabled が選択されている。
- OpenShift Container Platform Web コンソールにアクセスできる。
手順
- OpenShift Container Platform Web コンソールの Administrator パースペクティブで、Operators → Installed Operators に移動します。
- Red Hat OpenShift Logging をクリックします。Operator の Details ページが表示されます。
- Details ページで、Console plugin オプションの Disabled をクリックします。
- Console plugin enablement ダイアログで、Enable を選択します。
- Save をクリックします。
- Console plugin オプションに Enabled と表示されていることを確認します。
- 変更が適用されると、Web コンソールにポップアップウィンドウが表示されます。ウィンドウに Web コンソールのリロードを求めるプロンプトが表示されます。ポップアップウィンドウが表示されたら、ブラウザーを更新して変更を適用します。
8.2.2. Elasticsearch ログストアと LokiStack がインストールされている場合のロギングコンソールプラグインの設定
ロギングバージョン 5.8 以降では、Elasticsearch ログストアがデフォルトのログストアであるが、LokiStack もインストールされている場合は、次の手順を使用してロギングコンソールプラグインを有効にできます。
前提条件
- 管理者権限がある。
- Red Hat OpenShift Logging Operator、OpenShift Elasticsearch Operator、および Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。 -
ClusterLogging
カスタムリソース (CR) が作成されている。
手順
次のコマンドを実行して、ロギングコンソールプラグインが有効になっていることを確認します。
$ oc get consoles.operator.openshift.io cluster -o yaml |grep logging-view-plugin \ || oc patch consoles.operator.openshift.io cluster --type=merge \ --patch '{ "spec": { "plugins": ["logging-view-plugin"]}}'
次のコマンドを実行して
.metadata.annotations.logging.openshift.io/ocp-console-migration-target: lokistack-dev
アノテーションをClusterLogging
CR に追加します。$ oc patch clusterlogging instance --type=merge --patch \ '{ "metadata": { "annotations": { "logging.openshift.io/ocp-console-migration-target": "lokistack-dev" }}}' \ -n openshift-logging
出力例
clusterlogging.logging.openshift.io/instance patched
検証
次のコマンドを実行し、出力を確認して、アノテーションが正常に追加されたことを確認します。
$ oc get clusterlogging instance \ -o=jsonpath='{.metadata.annotations.logging\.openshift\.io/ocp-console-migration-target}' \ -n openshift-logging
出力例
"lokistack-dev"
これで、ロギングコンソールプラグイン Pod がデプロイされました。ロギングデータを表示するには、OpenShift Container Platform Web コンソールに移動し、Observe → Logs ページを表示します。
8.3. クラスターダッシュボードの表示
OpenShift Container Platform Web コンソールの Logging/Elasticsearch Nodes および Openshift Logging ダッシュボードには、Elasticsearch インスタンスおよび個々の Elasticsearch ノードに関する詳細な情報が含まれており、問題の予防と診断に使用できます。
OpenShift Logging ダッシュボードには、クラスターリソース、ガベージコレクション、クラスターのシャード、Fluentd 統計など、クラスターレベルでの Elasticsearch インスタンスの詳細を表示するチャートが含まれます。
Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch インスタンスの詳細を表示するチャートが含まれます。これらのチャートの多くはノードレベルのものであり、これには、インデックス、シャード、リソースなどの詳細が含まれます。
8.3.1. Elasticsearch および OpenShift Logging ダッシュボードへのアクセス
OpenShift Container Platform Web コンソールで Logging/Elasticsearch Nodes および OpenShift Logging ダッシュボードを表示できます。
手順
ダッシュボードを起動するには、以下を実行します。
- OpenShift Container Platform Web コンソールで、Observe → Dashboards をクリックします。
Dashboards ページで、Dashboard メニューから Logging/Elasticsearch Nodes または OpenShift Logging を選択します。
Logging/Elasticsearch Nodes ダッシュボードの場合は、表示する必要のある Elasticsearch ノードを選択し、データの解像度を設定できます。
適切なダッシュボードが表示され、データの複数のチャートが表示されます。
- 必要に応じて、Time Range メニューおよび Refresh Interval メニューから、データを表示するさまざまな時間の範囲またはデータのリフレッシュレートを選択します。
ダッシュボードチャートの詳細は、OpenShift Logging ダッシュボードについて および Logging/Elastisearch Nodes ダッシュボードについて を参照してください。
8.3.2. OpenShift Logging ダッシュボードについて
OpenShift Logging ダッシュボードには、クラスターレベルで Elasticsearch インスタンスの詳細を表示するチャートが含まれており、これを使用して問題を診断し、予測できます。
メトリクス | 説明 |
---|---|
Elastic Cluster Status (Elastic Cluster のステータス) | Elasticsearch の現行ステータス:
|
Elastic Nodes (Elastic ノード) | Elasticsearch インスタンス内の Elasticsearch ノードの合計数。 |
Elastic Shards (Elastic シャード) | Elasticsearch インスタンス内の Elasticsearch シャードの合計数。 |
Elastic Documents (Elastic ドキュメント) | Elasticsearch インスタンス内の Elasticsearch ドキュメントの合計数。 |
Total Index Size on Disk (ディスク上の合計インデックスサイズ) | Elasticsearch インデックスに使用されるディスク容量の合計。 |
Elastic Pending Tasks (Elastic の保留中のタスク) | インデックスの作成、インデックスのマッピング、シャードの割り当て、シャードの失敗など、完了していない Elasticsearch 変更の合計数。 |
Elastic JVM GC time (Elastic JVM GC 時間) | JVM がクラスターでの Elasticsearch ガベージコレクション操作の実行に費した時間。 |
Elastic JVM GC Rate (Elastic JVM GC レート) | JVM が 1 秒ごとにガベージアクティビティーを実行する合計回数。 |
Elastic Query/Fetch Latency Sum (Elastic クエリー/フェッチのレイテンシーの合計) |
通常、フェッチレイテンシーの時間はクエリーレイテンシーよりも短くなります。フェッチレイテンシーが一貫して増加する場合、これはディスクの速度の低下、データの増加、または結果が多すぎる大規模な要求があることを示している可能性があります。 |
Elastic Query Rate (Elastic クエリーレート) | 各 Elasticsearch ノードの 1 秒あたりに Elasticsearch インスタンスに対して実行されたクエリーの合計。 |
CPU | コンポーネントごとに表示される Elasticsearch、Fluentd、および Kibana によって使用される CPU の量。 |
Elastic JVM Heap Used (Elastic JVM ヒープの使用) | 使用される JVM メモリーの量。正常なクラスターでは、JVM ガベージコレクションによってメモリーが解放されると、グラフは定期的な低下を示します。 |
Elasticsearch Disk Usage (Elasticsearch ディスクの使用) | 各 Elasticsearch ノードの Elasticsearch インスタンスによって使用されるディスク容量の合計。 |
File Descriptors In Use (使用中のファイル記述子) | Elasticsearch、Fluentd、および Kibana によって使用されるファイル記述子の合計数。 |
FluentD emit count (FluentD の生成数) | Fluentd デフォルト出力の 1 秒あたりの Fluentd メッセージの合計数およびデフォルト出力の再試行数。 |
FluentD バッファーの使用法 | チャンクに使用されている Fluentd バッファーの割合。バッファーが一杯になると、Fluentd が受信するログ数を処理できないことを示す可能性があります。 |
Elastic rx bytes (Elastic rx バイト) | Elasticsearch が FluentD、Elasticsearch ノード、およびその他のソースから受信した合計バイト数。 |
Elastic Index Failure Rate (Elastic インデックス失敗率) | Elasticsearch インデックスで失敗した 1 秒あたりの合計回数。レートが高い場合は、インデックスに問題があることを示す可能性があります。 |
FluentD Output Error Rate (FluentD 出力エラー率) | FluentD がログの出力に失敗する 1 秒あたりの合計回数。 |
8.3.3. Logging/Elasticsearch ノードダッシュボードのチャート
Logging/Elasticsearch Nodes ダッシュボードには、追加の診断に使用できる Elasticsearch インスタンスの詳細を表示するチャートが含まれます。これらのチャートの多くはノードレベルのものです。
- Elasticsearch ステータス
- Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch インスタンスのステータスに関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Cluster status (クラスターステータス) | Elasticsearch の green、yellow、および red ステータスを使用する、選択された期間におけるクラスターの正常性ステータス。
|
Cluster nodes (クラスターノード) | クラスター内の Elasticsearch ノードの合計数。 |
Cluster data nodes (クラスターデータノード) | クラスター内の Elasticsearch データノードの数。 |
Cluster pending tasks (クラスターの保留中のタスク) | 終了しておらず、クラスターキューで待機中のクラスター状態変更の数。たとえば、インデックスの作成、インデックスの削除、シャードの割り当てなどがあります。増加傾向は、クラスターが変更に対応できないことを示します。 |
- Elasticsearch クラスターインデックスシャードのステータス
- 各 Elasticsearch インデックスは、永続化されたデータの基本単位である 1 つ以上のシャードの論理グループです。インデックスシャードには、プライマリーシャードとレプリカシャードの 2 つのタイプがあります。ドキュメントがインデックスにインデックス化されると、これはプライマリーシャードのいずれかに保存され、そのシャードのすべてのレプリカにコピーされます。プライマリーシャードの数はインデックスの作成時に指定され、この数はインデックスの有効期間に変更することはできません。レプリカシャードの数はいつでも変更できます。
インデックスシャードは、ライフサイクルフェーズまたはクラスターで発生するイベントに応じて複数の状態に切り替わります。シャードが検索およびインデックス要求を実行できる場合、シャードはアクティブになります。シャードがこれらの要求を実行できない場合、シャードは非アクティブになります。シャードが初期化、再割り当て、未割り当てなどの状態にある場合は、シャードが非アクティブになる可能性があります。
インデックスシャードは、データの物理表現であるインデックスセグメントと呼ばれる多数の小さな内部ブロックで構成されます。インデックスセグメントは、Lucene が新たにインデックス化されたデータをコミットしたときに作成される比較的小さく、イミュータブルな Lucene インデックスです。Lucene (Elasticsearch によって使用される検索ライブラリー) は、バックグラウンドでインデックスセグメントをより大きなセグメントにマージし、セグメントの合計数を低い状態に維持します。セグメントをマージするプロセスが新規セグメントが作成される速度よりも遅くなる場合は、問題があることを示す可能性があります。
Lucene が検索操作などのデータ操作を実行する場合、Lucene は関連するインデックスのインデックスセグメントに対して操作を実行します。そのため、各セグメントには、メモリーにロードされ、マップされる特定のデータ構造が含まれます。インデックスマッピングは、セグメントデータ構造で使用されるメモリーに大きく影響を与える可能性があります。
Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch インデックスシャードに関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Cluster active shards (クラスターのアクティブシャード) | クラスターにおけるアクティブなプライマリーシャードの数と、レプリカを含むシャードの合計数。シャードの数が大きくなると、クラスターのパフォーマンスが低下し始める可能性があります。 |
Cluster initializing shards (クラスターの初期化シャード) | クラスターのアクティブではないシャードの数。アクティブではないシャードは、初期化され、別のノードに再配置されるているシャードや、割り当てられていないシャードを指します。通常、クラスターには短期間アクティブではないシャードがあります。長期間にわたってアクティブではないシャードの数が増える場合は、問題があることを示す可能性があります。 |
Cluster relocating shards (クラスターの再配置シャード) | Elasticsearch が新規ノードに再配置されているシャードの数。Elasticsearch は、ノードでのメモリー使用率が高い場合や新規ノードがクラスターに追加された後などの複数の理由によりノードを再配置します。 |
Cluster unassigned shards (クラスター未割り当てシャード) | 未割り当てのシャードの数。Elasticsearch シャードは、新規インデックスの追加やノードの障害などの理由で割り当てられない可能性があります。 |
- Elasticsearch ノードメトリクス
- 各 Elasticsearch ノードには、タスクの処理に使用できるリソースの量に制限があります。すべてのリソースが使用中で、Elasticsearch が新規タスクの実行を試行する場合、Elasticsearch は一部のリソースが利用可能になるまでタスクをキューに入れます。
Logging/Elasticsearch Nodes ダッシュボードには、選択されたノードのリソース使用状況に関する以下のチャートと Elasticsearch キューで待機中のタスクの数が含まれます。
メトリクス | 説明 |
---|---|
ThreadPool tasks (ThreadPool タスク) | 個別のキューの待機中のタスクの数 (タスクタイプ別に表示されます)。キュー内のタスクの長期間累積した状態は、ノードリソースの不足やその他の問題があることを示す可能性があります。 |
CPU usage (CPU の使用率) | ホストコンテナーに割り当てられる CPU の合計の割合として、選択した Elasticsearch ノードによって使用される CPU の量。 |
メモリー使用量 | 選択した Elasticsearch ノードによって使用されるメモリー量。 |
Disk usage (ディスク使用量) | 選択された Elasticsearch ノードのインデックスデータおよびメタデータに使用されるディスク容量の合計。 |
Documents indexing rate (ドキュメントインデックス化レート) | ドキュメントが選択された Elasticsearch ノードでインデックス化されるレート。 |
Indexing latency (インデックス化レイテンシー) | 選択された Elasticsearch ノードでドキュメントをインデックス化するのに必要となる時間。インデックス化レイテンシーは、JVM ヒープメモリーや全体の負荷などの多くの要素による影響を受ける可能性があります。レイテンシーが増加する場合は、インスタンス内のリソース容量が不足していることを示します。 |
Search rate (検索レート) | 選択された Elasticsearch ノードで実行される検索要求の数。 |
Search latency (検索レイテンシー) | 選択された Elasticsearch ノードで検索要求を完了するのに必要となる時間。検索レイテンシーは、数多くの要因の影響を受ける可能性があります。レイテンシーが増加する場合は、インスタンス内のリソース容量が不足していることを示します。 |
Documents count (with replicas)(ドキュメント数 (レプリカ使用)) | 選択された Elasticsearch ノードに保管される Elasticsearch ドキュメントの数。これには、ノードで割り当てられるプライマリーシャードとレプリカシャードの両方に保存されるドキュメントが含まれます。 |
Documents deleting rate (ドキュメントの削除レート) | 選択された Elasticsearch ノードに割り当てられるいずれかのインデックスシャードから削除される Elasticsearch ドキュメントの数。 |
Documents merging rate (ドキュメントのマージレート) | 選択された Elasticsearch ノードに割り当てられるインデックスシャードのいずれかでマージされる Elasticsearch ドキュメントの数。 |
- Elasticsearch ノードフィールドデータ
- Fielddata はインデックスの用語のリストを保持する Elasticsearch データ構造であり、JVM ヒープに保持されます。fielddata のビルドはコストのかかる操作であるため、Elasticsearch は fielddata 構造をキャッシュします。Elasticsearch は、基礎となるインデックスセグメントが削除されたり、マージされる場合や、すべての fielddata キャッシュに JVM HEAP メモリーが十分にない場合に、fielddata キャッシュをエビクトできます。
Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch fielddata に関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Fielddata memory size (Fielddata メモリーサイズ) | 選択された Elasticsearch ノードの fielddata キャッシュに使用される JVM ヒープの量。 |
Fielddata evictions (Fielddata エビクション) | 選択された Elasticsearch ノードから削除された fielddata 構造の数。 |
- Elasticsearch ノードのクエリーキャッシュ
- インデックスに保存されているデータが変更されない場合、検索クエリーの結果は Elasticsearch で再利用できるようにノードレベルのクエリーキャッシュにキャッシュされます。
Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch ノードのクエリーキャッシュに関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Query cache size (クエリーキャッシュサイズ) | 選択された Elasticsearch ノードに割り当てられるすべてのシャードのクエリーキャッシュに使用されるメモリーの合計量。 |
Query cache evictions (クエリーキャッシュエビクション) | 選択された Elasticsearch ノードでのクエリーキャッシュのエビクション数。 |
Query cache hits (クエリーキャッシュヒット) | 選択された Elasticsearch ノードでのクエリーキャッシュのヒット数。 |
Query cache misses (クエリーキャッシュミス) | 選択された Elasticsearch ノードでのクエリーキャッシュのミス数。 |
- Elasticsearch インデックスのスロットリング
- ドキュメントのインデックスを作成する場合、Elasticsearch はデータの物理表現であるインデックスセグメントにドキュメントを保存します。同時に、Elasticsearch はリソースの使用を最適化する方法として、より小さなセグメントをより大きなセグメントに定期的にマージします。インデックス処理がセグメントをマージする機能よりも高速になる場合は、マージプロセスが十分前もって終了せずに、検索やパフォーマンスに関連した問題が生じる可能性があります。この状況を防ぐために、Elasticsearch はインデックスをスロットリングします。通常、インデックスに割り当てられるスレッド数を 1 つのスレッドに減らすことで制限できます。
Logging/Elasticsearch Nodes ダッシュボードには、Elasticsearch インデックスのスロットリングに関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Indexing throttling (インデックスのスロットリング) | Elasticsearch が選択された Elasticsearch ノードでインデックス操作をスロットリングしている時間。 |
Merging throttling (マージのスロットリング) | Elasticsearch が選択された Elasticsearch ノードでセグメントのマージ操作をスロットリングしている時間。 |
- ノード JVM ヒープの統計
- Logging/Elasticsearch Nodes ダッシュボードには、JVM ヒープ操作に関する以下のチャートが含まれます。
メトリクス | 説明 |
---|---|
Heap used (ヒープの使用) | 選択された Elasticsearch ノードで使用される割り当て済みの JVM ヒープ領域の合計。 |
GC count (GC 数) | 新旧のガベージコレクションによって、選択された Elasticsearch ノードで実行されてきたガベージコレクション操作の数。 |
GC time (GC 時間) | JVM が、新旧のガベージコレクションによって選択された Elasticsearch ノードでガベージコレクションを実行してきた時間。 |
8.4. Kibana によるログの可視化
ElasticSearch ログストアを使用している場合は、Kibana コンソールを使用して収集されたログデータを可視化できます。
Kibana を使用すると、データに対して以下を実行できます。
- Discover タブを使用して、データを検索および参照します。
- Visualize タブを使用して、データをグラフ化およびマッピングします。
- Dashboard タブを使用してカスタムダッシュボードを作成し、表示します。
Kibana インターフェイスの使用および設定は、このドキュメントでは扱いません。インターフェイスの使用に関する詳細は、Kibana ドキュメント を参照してください。
監査ログは、デフォルトでは内部 OpenShift Container Platform Elasticsearch インスタンスに保存されません。Kibana で監査ログを表示するには、ログ転送 API を使用して、監査ログの default
出力を使用するパイプラインを設定する必要があります。
8.4.1. Kibana インデックスパターンの定義
インデックスパターンは、可視化する必要のある Elasticsearch インデックスを定義します。Kibana でデータを確認し、可視化するには、インデックスパターンを作成する必要があります。
前提条件
Kibana で infra および audit インデックスを表示するには、ユーザーには
cluster-admin
ロール、cluster-reader
ロール、または両方のロールが必要です。デフォルトのkubeadmin
ユーザーには、これらのインデックスを表示するための適切なパーミッションがあります。default
、kube-
およびopenshift-
プロジェクトで Pod およびログを表示できる場合に、これらのインデックスにアクセスできるはずです。以下のコマンドを使用して、現在のユーザーが適切なパーミッションを持っているかどうかを確認できます。$ oc auth can-i get pods --subresource log -n <project>
出力例
yes
注記監査ログは、デフォルトでは内部 OpenShift Container Platform Elasticsearch インスタンスに保存されません。Kibana で監査ログを表示するには、ログ転送 API を使用して監査ログの
default
出力を使用するパイプラインを設定する必要があります。- Elasticsearch ドキュメントは、インデックスパターンを作成する前にインデックス化する必要があります。これは自動的に実行されますが、新規または更新されたクラスターでは数分の時間がかかる可能性があります。
手順
Kibana でインデックスパターンを定義し、ビジュアライゼーションを作成するには、以下を実行します。
- OpenShift Container Platform コンソールで、Application Launcher をクリックし、Logging を選択します。
Management → Index Patterns → Create index pattern をクリックして Kibana インデックスパターンを作成します。
-
各ユーザーは、プロジェクトのログを確認するために、Kibana に初めてログインする際にインデックスパターンを手動で作成する必要があります。ユーザーは
app
という名前のインデックスパターンを作成し、@timestamp
時間フィールドを使用してコンテナーログを表示する必要があります。 -
管理ユーザーはそれぞれ、最初に Kibana にログインする際に、
@timestamp
時間フィールドを使用してapp
、infra
およびaudit
インデックスのインデックスパターンを作成する必要があります。
-
各ユーザーは、プロジェクトのログを確認するために、Kibana に初めてログインする際にインデックスパターンを手動で作成する必要があります。ユーザーは
- 新規インデックスパターンから Kibana のビジュアライゼーション (Visualization) を作成します。
8.4.2. Kibana でのクラスターログの表示
Kibana Web コンソールでクラスターのログを表示します。Kibana でデータを表示し、可視化する方法は、このドキュメントでは扱いません。詳細は、Kibana ドキュメント を参照してください。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
- Kibana インデックスパターンが存在する。
Kibana で infra および audit インデックスを表示するには、ユーザーには
cluster-admin
ロール、cluster-reader
ロール、または両方のロールが必要です。デフォルトのkubeadmin
ユーザーには、これらのインデックスを表示するための適切なパーミッションがあります。default
、kube-
およびopenshift-
プロジェクトで Pod およびログを表示できる場合に、これらのインデックスにアクセスできるはずです。以下のコマンドを使用して、現在のユーザーが適切なパーミッションを持っているかどうかを確認できます。$ oc auth can-i get pods --subresource log -n <project>
出力例
yes
注記監査ログは、デフォルトでは内部 OpenShift Container Platform Elasticsearch インスタンスに保存されません。Kibana で監査ログを表示するには、ログ転送 API を使用して監査ログの
default
出力を使用するパイプラインを設定する必要があります。
手順
Kibana でログを表示するには、以下を実行します。
- OpenShift Container Platform コンソールで、Application Launcher をクリックし、Logging を選択します。
OpenShift Container Platform コンソールにログインするために使用するものと同じ認証情報を使用してログインします。
Kibana インターフェイスが起動します。
- Kibana で Discover をクリックします。
左上隅のドロップダウンメニューから作成したインデックスパターン (app、audit、または infra) を選択します。
ログデータは、タイムスタンプ付きのドキュメントとして表示されます。
- タイムスタンプ付きのドキュメントの 1 つをデプロイメントします。
JSON タブをクリックし、ドキュメントのログエントリーを表示します。
例8.1 Kibana のインフラストラクチャーログエントリーのサンプル
{ "_index": "infra-000001", "_type": "_doc", "_id": "YmJmYTBlNDkZTRmLTliMGQtMjE3NmFiOGUyOWM3", "_version": 1, "_score": null, "_source": { "docker": { "container_id": "f85fa55bbef7bb783f041066be1e7c267a6b88c4603dfce213e32c1" }, "kubernetes": { "container_name": "registry-server", "namespace_name": "openshift-marketplace", "pod_name": "redhat-marketplace-n64gc", "container_image": "registry.redhat.io/redhat/redhat-marketplace-index:v4.7", "container_image_id": "registry.redhat.io/redhat/redhat-marketplace-index@sha256:65fc0c45aabb95809e376feb065771ecda9e5e59cc8b3024c4545c168f", "pod_id": "8f594ea2-c866-4b5c-a1c8-a50756704b2a", "host": "ip-10-0-182-28.us-east-2.compute.internal", "master_url": "https://kubernetes.default.svc", "namespace_id": "3abab127-7669-4eb3-b9ef-44c04ad68d38", "namespace_labels": { "openshift_io/cluster-monitoring": "true" }, "flat_labels": [ "catalogsource_operators_coreos_com/update=redhat-marketplace" ] }, "message": "time=\"2020-09-23T20:47:03Z\" level=info msg=\"serving registry\" database=/database/index.db port=50051", "level": "unknown", "hostname": "ip-10-0-182-28.internal", "pipeline_metadata": { "collector": { "ipaddr4": "10.0.182.28", "inputname": "fluent-plugin-systemd", "name": "fluentd", "received_at": "2020-09-23T20:47:15.007583+00:00", "version": "1.7.4 1.6.0" } }, "@timestamp": "2020-09-23T20:47:03.422465+00:00", "viaq_msg_id": "YmJmYTBlNDktMDMGQtMjE3NmFiOGUyOWM3", "openshift": { "labels": { "logging": "infra" } } }, "fields": { "@timestamp": [ "2020-09-23T20:47:03.422Z" ], "pipeline_metadata.collector.received_at": [ "2020-09-23T20:47:15.007Z" ] }, "sort": [ 1600894023422 ] }
8.4.3. Kibana の設定
Kibana コンソールを使用して、ClusterLogging
カスタムリソース (CR) を変更することで設定できます。
8.4.3.1. CPU およびメモリー制限の設定
ロギングコンポーネントは、CPU とメモリーの制限の両方への調整を許可します。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc -n openshift-logging edit ClusterLogging instance
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" namespace: openshift-logging ... spec: managementState: "Managed" logStore: type: "elasticsearch" elasticsearch: nodeCount: 3 resources: 1 limits: memory: 16Gi requests: cpu: 200m memory: 16Gi storage: storageClassName: "gp2" size: "200G" redundancyPolicy: "SingleRedundancy" visualization: type: "kibana" kibana: resources: 2 limits: memory: 1Gi requests: cpu: 500m memory: 1Gi proxy: resources: 3 limits: memory: 100Mi requests: cpu: 100m memory: 100Mi replicas: 2 collection: resources: 4 limits: memory: 736Mi requests: cpu: 200m memory: 736Mi type: fluentd
8.4.3.2. ログビジュアライザーノードの冗長性のスケーリング
冗長性を確保するために、ログビジュアライザーをホストする Pod をスケーリングできます。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc edit ClusterLogging instance
$ oc edit ClusterLogging instance apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" .... spec: visualization: type: "kibana" kibana: replicas: 1 1
- 1
- Kibana ノードの数を指定します。
第9章 ロギングデプロイメントの設定
9.1. ロギングコンポーネントの CPU およびメモリー制限の設定
必要に応じて、それぞれのクラスターロギングコンポーネントの CPU およびメモリー制限の両方を設定できます。
9.1.1. CPU およびメモリー制限の設定
ロギングコンポーネントは、CPU とメモリーの制限の両方への調整を許可します。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc -n openshift-logging edit ClusterLogging instance
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" namespace: openshift-logging ... spec: managementState: "Managed" logStore: type: "elasticsearch" elasticsearch: nodeCount: 3 resources: 1 limits: memory: 16Gi requests: cpu: 200m memory: 16Gi storage: storageClassName: "gp2" size: "200G" redundancyPolicy: "SingleRedundancy" visualization: type: "kibana" kibana: resources: 2 limits: memory: 1Gi requests: cpu: 500m memory: 1Gi proxy: resources: 3 limits: memory: 100Mi requests: cpu: 100m memory: 100Mi replicas: 2 collection: resources: 4 limits: memory: 736Mi requests: cpu: 200m memory: 736Mi type: fluentd
9.2. systemd-journald および Fluentd の設定
Fluentd のジャーナルからの読み取りや、ジャーナルのデフォルト設定値は非常に低く、ジャーナルがシステムサービスからのロギング速度に付いていくことができないためにジャーナルエントリーが失われる可能性があります。
ジャーナルでエントリーが失われるのを防ぐことができるように RateLimitIntervalSec=30s
および RateLimitBurst=10000
(必要な場合はさらに高い値) を設定することが推奨されます。
9.2.1. OpenShift Logging 用の systemd-journald の設定
プロジェクトのスケールアップ時に、デフォルトのロギング環境にはいくらかの調整が必要になる場合があります。
たとえば、ログが見つからない場合は、journald の速度制限を引き上げる必要がある場合があります。一定期間保持するメッセージ数を調整して、OpenShift Logging がログをドロップせずに過剰なリソースを使用しないようにすることができます。
また、ログを圧縮する必要があるかどうか、ログを保持する期間、ログを保存する方法、ログを保存するかどうかやその他の設定を決定することもできます。
手順
必要な設定で
/etc/systemd/journald.conf
ファイルが含まれる Butane 設定ファイル40-worker-custom -journald.bu
を作成します。注記Butane の詳細は、「Butane を使用したマシン設定の作成」を参照してください。
variant: openshift version: 4.14.0 metadata: name: 40-worker-custom-journald labels: machineconfiguration.openshift.io/role: "worker" storage: files: - path: /etc/systemd/journald.conf mode: 0644 1 overwrite: true contents: inline: | Compress=yes 2 ForwardToConsole=no 3 ForwardToSyslog=no MaxRetentionSec=1month 4 RateLimitBurst=10000 5 RateLimitIntervalSec=30s Storage=persistent 6 SyncIntervalSec=1s 7 SystemMaxUse=8G 8 SystemKeepFree=20% 9 SystemMaxFileSize=10M 10
- 1
journald.conf
ファイルのパーミッションを設定します。0644
パーミッションを設定することが推奨されます。- 2
- ログがファイルシステムに書き込まれる前にそれらのログを圧縮するかどうかを指定します。
yes
を指定してメッセージを圧縮するか、no
を指定して圧縮しないようにします。デフォルトはyes
です。 - 3
- ログメッセージを転送するかどうかを設定します。それぞれについて、デフォルトで
no
に設定されます。以下を指定します。-
ForwardToConsole
: ログをシステムコンソールに転送します。 -
ForwardToKMsg
: ログをカーネルログバッファーに転送します。 -
ForwardToSyslog
: syslog デーモンに転送します。 -
ForwardToWall
: メッセージを wall メッセージとしてすべてのログインしているユーザーに転送します。
-
- 4
- ジャーナルエントリーを保存する最大時間を指定します。数字を入力して秒数を指定します。または、"year"、"month"、"week"、"day"、"h" または "m" などの単位を含めます。無効にするには
0
を入力します。デフォルトは1month
です。 - 5
- レート制限を設定します。
RateLimitIntervalSec
で定義される期間に、RateLimitBurst
で指定される以上のログが受信される場合、この期間内の追加のメッセージはすべてこの期間が終了するまでにドロップされます。デフォルト値であるRateLimitIntervalSec=30s
およびRateLimitBurst=10000
を設定することが推奨されます。 - 6
- ログの保存方法を指定します。デフォルトは
persistent
です。-
volatile
:/run/log/journal/
のメモリーにログを保存します。これらのログは再起動後に失われます。 -
persistent
: ログを/var/log/journal/
のディスクに保存します。systemd は存在しない場合はディレクトリーを作成します。 -
auto
: ディレクトリーが存在する場合に、ログを/var/log/journal/
に保存します。存在しない場合は、systemd はログを/run/systemd/journal
に一時的に保存します。 -
none
: ログを保存しません。systemd はすべてのログをドロップします。
-
- 7
- ERR、WARNING、NOTICE、INFO、および DEBUG ログについてジャーナルファイルをディスクに同期させるまでのタイムアウトを指定します。 systemd は、CRIT、ALERT、または EMERG ログの受信後すぐに同期を開始します。デフォルトは
1s
です。 - 8
- ジャーナルが使用できる最大サイズを指定します。デフォルトは
8G
です。 - 9
- systemd が残す必要のあるディスク領域のサイズを指定します。デフォルトは
20%
です。 - 10
/var/log/journal
に永続的に保存される個別のジャーナルファイルの最大サイズを指定します。デフォルトは10M
です。注記レート制限を削除する場合、システムロギングデーモンの CPU 使用率が高くなることがあります。 以前はスロットリングされていた可能性のあるメッセージが処理されるためです。
systemd 設定の詳細は、https://www.freedesktop.org/software/systemd/man/journald.conf.html を参照してください。このページに一覧表示されるデフォルト設定は OpenShift Container Platform には適用されない可能性があります。
Butane を使用して、ノードに配信される設定を含む
MachineConfig
オブジェクトファイル (40-worker-custom-journald.yaml
) を生成します。$ butane 40-worker-custom-journald.bu -o 40-worker-custom-journald.yaml
マシン設定を適用します。以下に例を示します。
$ oc apply -f 40-worker-custom-journald.yaml
コントローラーは新規の
MachineConfig
オブジェクトを検出し、新規のrendered-worker-<hash>
バージョンを生成します。新規のレンダリングされた設定の各ノードへのロールアウトのステータスをモニターします。
$ oc describe machineconfigpool/worker
出力例
Name: worker Namespace: Labels: machineconfiguration.openshift.io/mco-built-in= Annotations: <none> API Version: machineconfiguration.openshift.io/v1 Kind: MachineConfigPool ... Conditions: Message: Reason: All nodes are updating to rendered-worker-913514517bcea7c93bd446f4830bc64e
第10章 ログの収集および転送
10.1. ログの収集と転送
Red Hat OpenShift Logging Operator は、ClusterLogForwarder
リソース仕様に基づいてコレクターをデプロイします。この Operator では、レガシーの Fluentd コレクターと Vector コレクターの 2 つのコレクターオプションがサポートされています。
Fluentd は非推奨となっており、今後のリリースで削除される予定です。Red Hat は、現在のリリースのライフサイクル中にこの機能のバグ修正とサポートを提供しますが、この機能は拡張されなくなりました。Fluentd の代わりに、Vector を使用できます。
10.1.1. ログの収集
ログコレクターは、コンテナーとノードのログを収集するために各 OpenShift Container Platform ノードに Pod をデプロイするデーモンセットです。
デフォルトでは、ログコレクターは以下のソースを使用します。
- システムおよびインフラストラクチャーのログは、オペレーティングシステム、コンテナーランタイム、および OpenShift Container Platform からの journald ログメッセージによって生成されます。
-
すべてのコンテナーログ用の
/var/log/containers/*.log
監査ログを収集するようにログコレクターを設定すると、/var/log/audit/audit.log
から取得されます。
ログコレクターはこれらのソースからログを収集し、ロギングの設定に応じて内部または外部に転送します。
10.1.1.1. ログコレクターのタイプ
Vector は、ロギングの Fluentd の代替機能として提供されるログコレクターです。
ClusterLogging
カスタムリソース (CR) コレクション
仕様を変更して、クラスターが使用するロギングコレクターのタイプを設定できます。
Vector をコレクターとして設定する ClusterLogging CR の例
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: collection: logs: type: vector vector: {} # ...
10.1.1.2. ログ収集の制限
コンテナーランタイムは、プロジェクト、Pod 名、およびコンテナー ID などのログメッセージのソースを特定するための最小限の情報を提供します。この情報だけでは、ログのソースを一意に特定することはできません。ログコレクターがログを処理する前に、指定された名前およびプロジェクトを持つ Pod が削除される場合は、ラベルやアノテーションなどの API サーバーからの情報は利用できない可能性があります。そのため、似たような名前の Pod やプロジェクトからログメッセージを区別したり、ログのソースを追跡できない場合があります。この制限により、ログの収集および正規化は ベストエフォート ベースであると見なされます。
利用可能なコンテナーランタイムは、ログメッセージのソースを特定するための最小限の情報を提供し、個別のログメッセージが一意となる確証はなく、これらのメッセージにより、そのソースを追跡できる訳ではありません。
10.1.1.3. タイプ別のログコレクター機能
機能 | Fluentd | Vector |
---|---|---|
アプリコンテナーのログ | ✓ | ✓ |
アプリ固有のルーティング | ✓ | ✓ |
namespace 別のアプリ固有のルーティング | ✓ | ✓ |
インフラコンテナーログ | ✓ | ✓ |
インフラジャーナルログ | ✓ | ✓ |
Kube API 監査ログ | ✓ | ✓ |
OpenShift API 監査ログ | ✓ | ✓ |
Open Virtual Network (OVN) 監査ログ | ✓ | ✓ |
機能 | Fluentd | Vector |
---|---|---|
Elasticsearch 証明書 | ✓ | ✓ |
Elasticsearch ユーザー名/パスワード | ✓ | ✓ |
Amazon Cloudwatch キー | ✓ | ✓ |
Amazon Cloudwatch STS | ✓ | ✓ |
Kafka 証明書 | ✓ | ✓ |
Kafka のユーザー名/パスワード | ✓ | ✓ |
Kafka SASL | ✓ | ✓ |
Loki ベアラートークン | ✓ | ✓ |
機能 | Fluentd | Vector |
---|---|---|
Viaq データモデル - アプリ | ✓ | ✓ |
Viaq データモデル - インフラ | ✓ | ✓ |
Viaq データモデル - インフラ (ジャーナル) | ✓ | ✓ |
Viaq データモデル - Linux 監査 | ✓ | ✓ |
Viaq データモデル - kube-apiserver 監査 | ✓ | ✓ |
Viaq データモデル - OpenShift API 監査 | ✓ | ✓ |
Viaq データモデル - OVN | ✓ | ✓ |
ログレベルの正規化 | ✓ | ✓ |
JSON 解析 | ✓ | ✓ |
構造化インデックス | ✓ | ✓ |
複数行エラー検出 | ✓ | ✓ |
マルチコンテナー/分割インデックス | ✓ | ✓ |
ラベルのフラット化 | ✓ | ✓ |
CLF 静的ラベル | ✓ | ✓ |
機能 | Fluentd | Vector |
---|---|---|
Fluentd readlinelimit | ✓ | |
Fluentd バッファー | ✓ | |
-chunklimitsize | ✓ | |
- totallimitsize | ✓ | |
- overflowaction | ✓ | |
- flushthreadcount | ✓ | |
- flushmode | ✓ | |
- flushinterval | ✓ | |
- retrywait | ✓ | |
- retrytype | ✓ | |
- retrymaxinterval | ✓ | |
- retrytimeout | ✓ |
機能 | Fluentd | Vector |
---|---|---|
メトリクス | ✓ | ✓ |
ダッシュボード | ✓ | ✓ |
アラート | ✓ | ✓ |
機能 | Fluentd | Vector |
---|---|---|
グローバルプロキシーサポート | ✓ | ✓ |
x86 サポート | ✓ | ✓ |
ARM サポート | ✓ | ✓ |
IBM Power® サポート | ✓ | ✓ |
IBM Z® サポート | ✓ | ✓ |
IPv6 サポート | ✓ | ✓ |
ログイベントのバッファリング | ✓ | |
非接続クラスター | ✓ | ✓ |
10.1.1.4. コレクターの出力
次のコレクターの出力がサポートされています。
機能 | Fluentd | Vector |
---|---|---|
Elasticsearch v6-v8 | ✓ | ✓ |
Fluent 転送 | ✓ | |
Syslog RFC3164 | ✓ | ✓ (Logging 5.7+) |
Syslog RFC5424 | ✓ | ✓ (Logging 5.7+) |
Kafka | ✓ | ✓ |
Amazon Cloudwatch | ✓ | ✓ |
Amazon Cloudwatch STS | ✓ | ✓ |
Loki | ✓ | ✓ |
HTTP | ✓ | ✓ (Logging 5.7+) |
Google Cloud Logging | ✓ | ✓ |
Splunk | ✓ (Logging 5.6+) |
10.1.2. ログ転送
管理者は、収集するログ、その変換方法と転送先を指定する ClusterLogForwarder
リソースを作成できます。
ClusterLogForwarder
リソースは、コンテナー、インフラストラクチャー、監査ログをクラスター内外の特定のエンドポイントに転送するために使用できます。Transport Layer Security (TLS) がサポートされているため、ログを安全に送信するようにログフォワーダーを設定できます。
管理者は、どのサービスアカウントとユーザーがどの種類のログにアクセスして転送できるかを定義する RBAC アクセス許可を承認することもできます。
10.1.2.1. ログ転送の実装
レガシーの実装とマルチログフォワーダー機能という 2 つのログ転送実装を使用できます。
マルチログフォワーダー機能と併用するには、Vector コレクターのみがサポートされます。Fluentd コレクターは、レガシーの実装でのみ使用できます。
10.1.2.1.1. レガシー実装
レガシー実装では、クラスターで 1 つのログフォワーダーのみを使用できます。このモードの ClusterLogForwarder
リソースは、instance
という名前を付け、openshift-logging
namespace に作成する必要があります。ClusterLogForwarder
リソースは、openshift-logging
namespace に、instance
という名前の、対応する ClusterLogging
リソースも必要です。
10.1.2.1.2. マルチログフォワーダー機能
マルチログフォワーダー機能は、Logging 5.8 以降で利用でき、以下の機能が提供されます。
- 管理者は、どのユーザーにログ収集の定義を許可するか、どのユーザーにどのログの収集を許可するかを制御できます。
- 必要な権限が割り当てられたユーザーは、追加のログ収集設定を指定できます。
- 非推奨の Fluentd コレクターから Vector コレクターに移行する管理者は、既存のデプロイメントとは別に新しいログフォワーダーをデプロイできます。既存および新しいログフォワーダーは、ワークロードの移行中に同時に動作します。
マルチログフォワーダーの実装では、ClusterLogForwarder
リソースに対応する ClusterLogging
リソースを作成する必要はありません。任意の名前を使用して、任意の namespace で複数の ClusterLogForwarder
リソースを作成できますが、次の例外があります。
-
instance
という名前のClusterLogForwarder
リソースは、Fluentd コレクターを使用するレガシーのワークフローに対応するログフォワーダー向けに予約されているので、openshift-logging
namespace でこのリソースを作成できません。 -
これはコレクター用に予約されているため、
openshift-logging
namespace にcollector
という名前のClusterLogForwarder
リソースを作成することはできません。
10.1.2.2. クラスターのマルチログフォワーダー機能の有効化
マルチログフォワーダー機能を使用するには、サービスアカウントとそのサービスアカウントのクラスターロールバインディングを作成する必要があります。その後、ClusterLogForwarder
リソース内のサービスアカウントを参照して、アクセス許可を制御できます。
openshift-logging
namespace 以外の追加の namespace でマルチログ転送をサポートするには、すべての namespace を監視するように Red Hat OpenShift Logging Operator を更新 する必要があります。この機能は、新しい Red Hat OpenShift Logging Operator バージョン 5.8 インストールでデフォルトでサポートされています。
10.1.2.2.1. ログ収集の RBAC 権限の認可
Logging 5.8 以降では、Red Hat OpenShift Operator は collect-audit-logs
、collect-application-logs
、および collect-infrastructural-logs
クラスターロールを提供するため、コレクターは監査ログ、アプリケーションログ、インフラストラクチャーログをそれぞれ収集できます。
必要なクラスターロールをサービスアカウントにバインドすることで、ログコレクションの RBAC パーミッションを承認できます。
前提条件
-
Red Hat OpenShift Logging Operator が
openshift-logging
namespace にインストールされている。 - 管理者権限がある。
手順
- コレクターのサービスアカウントを作成します。認証にトークンを必要とするストレージにログを書き込む場合は、サービスアカウントにトークンを含める必要があります。
適切なクラスターロールをサービスアカウントにバインドします。
バインドコマンドの例
$ oc adm policy add-cluster-role-to-user <cluster_role_name> system:serviceaccount:<namespace_name>:<service_account_name>
10.2. ログ出力のタイプ
出力は、ログフォワーダーから送信されるログの宛先を定義します。ClusterLogForwarder
カスタムリソース (CR) で出力タイプを複数定義し、複数の異なるプロトコルをサポートするサーバーにログを送信できます。
10.2.1. サポート対象のログ転送出力
出力は次のいずれかのタイプになります。
出力タイプ | プロトコル | テストで使用 | ロギングバージョン | サポート対象のコレクタータイプ |
---|---|---|---|---|
Elasticsearch v6 | HTTP 1.1 | 6.8.1, 6.8.23 | 5.6+ | Fluentd、Vector |
Elasticsearch v7 | HTTP 1.1 | 7.12.2, 7.17.7, 7.10.1 | 5.6+ | Fluentd、Vector |
Elasticsearch v8 | HTTP 1.1 | 8.4.3, 8.6.1 | 5.6+ | Fluentd [1]、Vector |
Fluent Forward | Fluentd forward v1 | Fluentd 1.14.6、Logstash 7.10.1、Fluentd 1.14.5 | 5.4+ | Fluentd |
Google Cloud Logging | REST over HTTPS | 最新バージョン | 5.7+ | Vector |
HTTP | HTTP 1.1 | Fluentd 1.14.6、Vector 0.21 | 5.7+ | Fluentd、Vector |
Kafka | Kafka 0.11 | Kafka 2.4.1、2.7.0、3.3.1 | 5.4+ | Fluentd、Vector |
Loki | REST over HTTP and HTTPS | 2.3.0、2.5.0、2.7、2.2.1 | 5.4+ | Fluentd、Vector |
Splunk | HEC | 8.2.9, 9.0.0 | 5.6+ | Vector |
Syslog | RFC3164、RFC5424 | Rsyslog 8.37.0-9.el7、rsyslog-8.39.0 | 5.4+ | Fluentd、Vector [2] |
Amazon CloudWatch | REST over HTTPS | 最新バージョン | 5.4+ | Fluentd、Vector |
- Fluentd は、ロギングバージョン 5.6.2 で Elasticsearch 8 をサポートしていません。
- Vector は、ロギングバージョン 5.7 以降で Syslog をサポートします。
10.2.2. 出力タイプの説明
default
クラスター上の、Red Hat が管理するログストア。デフォルトの出力を設定する必要はありません。
注記default
出力名は、クラスター上の Red Hat が管理するログストアを参照するために予約されているため、default
出力を設定するとエラーメッセージが表示されます。loki
- Loki: 水平方向にスケーラブルで可用性の高いマルチテナントログ集計システム。
kafka
-
Kafka ブローカー。
kafka
出力は TCP または TLS 接続を使用できます。 elasticsearch
-
外部 Elasticsearch インスタンス。
elasticsearch
出力では、TLS 接続を使用できます。 fluentdForward
Fluentd をサポートする外部ログ集計ソリューション。このオプションは、Fluentd
forward
プロトコルを使用します。fluentForward
出力は TCP または TLS 接続を使用でき、シークレットにshared_key
フィールドを指定して共有キーの認証をサポートします。共有キーの認証は、TLS の有無に関係なく使用できます。重要fluentdForward
出力は、Fluentd コレクターを使用している場合にのみサポートされます。Vector コレクターを使用している場合はサポートされません。Vector コレクターを使用している場合は、http
出力を使用してログを Fluentd に転送できます。syslog
-
syslog RFC3164 または RFC5424 プロトコルをサポートする外部ログ集計ソリューション。
syslog
出力は、UDP、TCP、または TLS 接続を使用できます。 cloudwatch
- Amazon Web Services (AWS) がホストするモニタリングおよびログストレージサービスである Amazon CloudWatch。
10.3. JSON ログ転送の有効化
ログ転送 API を設定して、構造化されたオブジェクトに対して JSON 文字列を解析できます。
10.3.1. JSON ログの解析
ClusterLogForwarder
オブジェクトを使用すると、JSON ログを解析して構造化オブジェクトにし、サポートされている出力に転送できます。
以下の構造化された JSON ログエントリーがあると想定して、これがどのように機能するか説明します。
構造化された JSON ログエントリーの例
{"level":"info","name":"fred","home":"bedrock"}
JSON ログの解析を有効にするには、以下の例のように、parse: json
を ClusterLogForwarder
CR のパイプラインに追加します。
parse: json
を示すスニペット例
pipelines: - inputRefs: [ application ] outputRefs: myFluentd parse: json
parse: json
を使用して JSON ログの解析を有効にすると、CR は以下の例のように構造化された JSON ログエントリーを structured
フィールドにコピーします。
構造化された JSON ログエントリーを含む 構造化された
出力例
{"structured": { "level": "info", "name": "fred", "home": "bedrock" }, "more fields..."}
ログエントリーに有効な構造化された JSON がない場合、structured
フィールドは表示されません。
10.3.2. Elasticsearch の JSON ログデータの設定
JSON ログが複数のスキーマに従う場合は、それらを 1 つのインデックスに保存すると、タイプの競合やカーディナリティーの問題が発生する可能性があります。これを回避するには、1 つの出力定義に、各スキーマをグループ化するように ClusterLogForwarder
カスタムリソース (CR) を設定する必要があります。これにより、各スキーマが別のインデックスに転送されます。
JSON ログを OpenShift Logging によって管理されるデフォルトの Elasticsearch インスタンスに転送する場合に、設定に基づいて新規インデックスが生成されます。インデックスが多すぎることが原因のパフォーマンスの問題を回避するには、共通のスキーマに標準化して使用できるスキーマの数を保持することを検討してください。
構造化タイプ
ClusterLogForwarder
CR で以下の構造タイプを使用し、Elasticsearch ログストアのインデックス名を作成できます。
structuredTypeKey
はメッセージフィールドの名前です。このフィールドの値はインデックス名の作成に使用されます。-
kubernetes.labels.<key>
は、インデックス名の作成に使用される Kubernetes pod ラベルの値です。 -
openshift.labels.<key>
は、インデックス名の作成に使用されるClusterLogForwarder
CR のpipeline.label.<key>
要素です。 -
kubernetes.container_name
はコンテナー名を使用してインデックス名を作成します。
-
-
structuredTypeName
:structuredTypeKey
フィールドが設定されていない場合、またはそのキーが存在しない場合、structuredTypeName
値が構造化タイプとして使用されます。structuredTypeKey
フィールドとstructuredTypeName
フィールドの両方を一緒に使用すると、structuredTypeKey
フィールドのキーが JSON ログデータにない場合に、structuredTypeName
値によってフォールバックインデックス名が提供されます。
structuredTypeKey
の値を "Log Record Fields" トピックに記載されている任意のフィールドに設定できますが、構造タイプの前に来るリストに最も便利なフィールドが表示されます。
structuredTypeKey: kubernetes.labels.<key> の例
以下と仮定します。
- クラスターが、"apache" および "google" という 2 つの異なる形式で JSON ログを生成するアプリケーション Pod を実行している。
-
ユーザーはこれらのアプリケーション Pod に
logFormat=apache
とlogFormat=google
のラベルを付ける。 -
以下のスニペットを
ClusterLogForwarder
CR YAML ファイルで使用する。
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: # ... outputDefaults: elasticsearch: structuredTypeKey: kubernetes.labels.logFormat 1 structuredTypeName: nologformat pipelines: - inputRefs: - application outputRefs: - default parse: json 2
この場合は、以下の構造化ログレコードが app-apache-write
インデックスに送信されます。
{ "structured":{"name":"fred","home":"bedrock"}, "kubernetes":{"labels":{"logFormat": "apache", ...}} }
また、以下の構造化ログレコードは app-google-write
インデックスに送信されます。
{ "structured":{"name":"wilma","home":"bedrock"}, "kubernetes":{"labels":{"logFormat": "google", ...}} }
A structuredTypeKey: openshift.labels.<key> の例
以下のスニペットを ClusterLogForwarder
CR YAML ファイルで使用すると仮定します。
outputDefaults: elasticsearch: structuredTypeKey: openshift.labels.myLabel 1 structuredTypeName: nologformat pipelines: - name: application-logs inputRefs: - application - audit outputRefs: - elasticsearch-secure - default parse: json labels: myLabel: myValue 2
この場合は、以下の構造化ログレコードが app-myValue-write
インデックスに送信されます。
{ "structured":{"name":"fred","home":"bedrock"}, "openshift":{"labels":{"myLabel": "myValue", ...}} }
その他の考慮事項
- 構造化レコードの Elasticsearch インデックス は、構造化タイプの前に "app-" を、後ろに "-write" を追加することによって形成されます。
- 非構造化レコードは、構造化されたインデックスに送信されません。これらは、通常アプリケーション、インフラストラクチャー、または監査インデックスでインデックス化されます。
-
空でない構造化タイプがない場合は、unstructured レコードを
structured
フィールドなしで転送します。
過剰なインデックスで Elasticsearch を読み込まないようにすることが重要です。各アプリケーションや namespace ごとにではなく、個別のログ形式 のみに特定の構造化タイプを使用します。たとえば、ほとんどの Apache アプリケーションは、LogApache
などの同じ JSON ログ形式と構造化タイプを使用します。
10.3.3. JSON ログの Elasticsearch ログストアへの転送
Elasticsearch ログストアの場合は、JSON ログエントリーが異なるスキーマに従う場合、各 JSON スキーマを 1 つの出力定義にグループ化するように ClusterLogForwarder
カスタムリソース (CR) を設定します。これにより、Elasticsearch はスキーマごとに個別のインデックスを使用します。
異なるスキーマを同じインデックスに転送するとタイプの競合やカーディナリティーの問題を引き起こす可能性があるため、データを Elasticsearch ストアに転送する前にこの設定を実行する必要があります。
インデックスが多すぎることが原因のパフォーマンスの問題を回避するには、共通のスキーマに標準化して使用できるスキーマの数を保持することを検討してください。
手順
以下のスニペットを
ClusterLogForwarder
CR YAML ファイルに追加します。outputDefaults: elasticsearch: structuredTypeKey: <log record field> structuredTypeName: <name> pipelines: - inputRefs: - application outputRefs: default parse: json
-
structuredTypeKey
フィールドを使用して、ログレコードフィールドの 1 つを指定します。 structuredTypeName
フィールドを使用して名前を指定します。重要JSON ログを解析するには、
structuredTypeKey
とstructuredTypeName
フィールドの両方を設定する必要があります。-
inputRefs
の場合は、application
、infrastructure
またはaudit
などのパイプラインを使用して転送するログタイプを指定します。 -
parse: json
要素をパイプラインに追加します。 CR オブジェクトを作成します。
$ oc create -f <filename>.yaml
Red Hat OpenShift Logging Operator がコレクター Pod を再デプロイします。ただし、再デプロイが完了しない場合は、コレクター Pod を削除して強制的に再デプロイします。
$ oc delete pod --selector logging-infra=collector
10.3.4. 同じ Pod 内のコンテナーから別のインデックスへの JSON ログの転送
構造化ログを、同じ Pod 内の異なるコンテナーから別のインデックスに転送できます。この機能を使用するには、複数コンテナーのサポートを使用してパイプラインを設定し、Pod にアノテーションを付ける必要があります。ログは接頭辞が app-
のインデックスに書き込まれます。これに対応するために、エイリアスを使用して Elasticsearch を設定することを推奨します。
ログの JSON 形式は、アプリケーションによって異なります。作成するインデックスが多すぎるとパフォーマンスに影響するため、この機能の使用は、互換性のない JSON 形式のログのインデックスの作成に限定してください。クエリーを使用して、さまざまな namespace または互換性のある JSON 形式のアプリケーションからログを分離します。
前提条件
- Red Hat OpenShift のロギング: 5.5
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputDefaults: elasticsearch: structuredTypeKey: kubernetes.labels.logFormat 1 structuredTypeName: nologformat enableStructuredContainerLogs: true 2 pipelines: - inputRefs: - application name: application-logs outputRefs: - default parse: json
Pod
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: v1 kind: Pod metadata: annotations: containerType.logging.openshift.io/heavy: heavy 1 containerType.logging.openshift.io/low: low spec: containers: - name: heavy 2 image: heavyimage - name: low image: lowimage
この設定により、クラスター上のシャードの数が大幅に増加する可能性があります。
関連情報
10.4. ログ転送の設定
ロギングデプロイメントでは、デフォルトでコンテナーおよびインフラストラクチャーのログは ClusterLogging
カスタムリソース (CR) に定義された内部ログストアに転送されます。
セキュアなストレージを提供しないため、監査ログはデフォルトで内部ログストアに転送されません。お客様の責任において、監査ログを転送するシステムが組織および政府の規制に準拠し、適切に保護されていることを確認してください。
このデフォルト設定が要件を満たす場合、ClusterLogForwarder
CR を設定する必要はありません。ClusterLogForwarder
CR が存在する場合、default
出力を含むパイプラインが定義されている場合を除き、ログは内部ログストアに転送されません。
10.4.1. ログのサードパーティーシステムへの転送
OpenShift Container Platform クラスターの内外の特定のエンドポイントにログを送信するには、ClusterLogForwarder
カスタムリソース (CR) で 出力 と パイプライン の組み合わせを指定します。入力 を使用して、特定のプロジェクトに関連付けられたアプリケーションログをエンドポイントに転送することもできます。認証は Kubernetesシークレットオブジェクトによって提供されます。
- pipeline
1 つのログタイプから 1 つまたは複数の出力への単純なルーティング、または送信するログを定義します。ログタイプは以下のいずれかになります。
-
application
。クラスターで実行される、インフラストラクチャーコンテナーアプリケーションを除くユーザーアプリケーションによって生成されるコンテナーログ。 -
infrastructure
。openshift*
、kube*
、またはdefault
プロジェクトで実行される Pod のコンテナーログおよびノードファイルシステムから取得されるジャーナルログ。 -
audit
ノード監査システム、auditd
、Kubernetes API サーバー、OpenShift API サーバー、および OVN ネットワークで生成される監査ログ。
パイプラインで
key:value
ペアを使用すると、アウトバウンドログメッセージにラベルを追加できます。たとえば、他のデータセンターに転送されるメッセージにラベルを追加したり、タイプ別にログにラベルを付けたりできます。オブジェクトに追加されるラベルもログメッセージと共に転送されます。-
- input
特定のプロジェクトに関連付けられるアプリケーションログをパイプラインに転送します。
パイプラインでは、
inputRef
パラメーターを使用して転送するログタイプと、outputRef
パラメーターを使用してログを転送する場所を定義します。- Secret
-
ユーザー認証情報などの機密データを含む
key:value map
。
以下の点に注意してください。
-
ログタイプのパイプラインを定義しない場合、未定義タイプのログはドロップされます。たとえば、
application
およびaudit
タイプのパイプラインを指定するものの、infrastructure
タイプのパイプラインを指定しないと、infrastructure
ログはドロップされます。 -
ClusterLogForwarder
カスタムリソース (CR) で出力の複数のタイプを使用し、ログを複数の異なるプロトコルをサポートするサーバーに送信できます。
以下の例では、監査ログをセキュアな外部 Elasticsearch インスタンスに転送し、インフラストラクチャーログをセキュアでない外部 Elasticsearch インスタンスに、アプリケーションログを Kafka ブローカーに転送し、アプリケーションログを my-apps-logs
プロジェクトから内部 Elasticsearch インスタンスに転送します。
ログ転送の出力とパイプラインのサンプル
apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: elasticsearch-secure 4 type: "elasticsearch" url: https://elasticsearch.secure.com:9200 secret: name: elasticsearch - name: elasticsearch-insecure 5 type: "elasticsearch" url: http://elasticsearch.insecure.com:9200 - name: kafka-app 6 type: "kafka" url: tls://kafka.secure.com:9093/app-topic inputs: 7 - name: my-app-logs application: namespaces: - my-project pipelines: - name: audit-logs 8 inputRefs: - audit outputRefs: - elasticsearch-secure - default labels: secure: "true" 9 datacenter: "east" - name: infrastructure-logs 10 inputRefs: - infrastructure outputRefs: - elasticsearch-insecure labels: datacenter: "west" - name: my-app 11 inputRefs: - my-app-logs outputRefs: - default - inputRefs: 12 - application outputRefs: - kafka-app labels: datacenter: "south"
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- シークレットとセキュアな URL を使用したセキュアな Elasticsearch 出力の設定。
- 出力を記述する名前。
-
出力のタイプ:
elasticsearch
。 - 接頭辞を含む、有効な絶対 URL としての Elasticsearch インスタンスのセキュアな URL およびポート。
-
TLS 通信のエンドポイントで必要なシークレット。シークレットは
openshift-logging
プロジェクトに存在する必要があります。
- 5
- 非セキュアな Elasticsearch 出力の設定:
- 出力を記述する名前。
-
出力のタイプ:
elasticsearch
。 - 接頭辞を含む、有効な絶対 URL として Elasticsearch インスタンスのセキュアではない URL およびポート。
- 6
- セキュアな URL を介したクライアント認証 TLS 通信を使用した Kafka 出力の設定:
- 出力を記述する名前。
-
出力のタイプ:
kafka
。 - Kafka ブローカーの URL およびポートを、接頭辞を含む有効な絶対 URL として指定します。
- 7
my-project
namespace からアプリケーションログをフィルターするための入力の設定。- 8
- 監査ログをセキュアな外部 Elasticsearch インスタンスに送信するためのパイプラインの設定。
- パイプラインを説明する名前。
-
inputRefs
はログタイプです (例:audit
)。 -
outputRefs
は使用する出力の名前です。この例では、elasticsearch-secure
はセキュアな Elasticsearch インスタンスに転送され、default
は内部 Elasticsearch インスタンスに転送されます。 - オプション: ログに追加する複数のラベル。
- 9
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。"true" などの引用値は、ブール値としてではなく、文字列値として認識されるようにします。
- 10
- インフラストラクチャーログをセキュアでない外部 Elasticsearch インスタンスに送信するためのパイプラインの設定。
- 11
my-project
プロジェクトから内部 Elasticsearch インスタンスにログを送信するためのパイプラインの設定。- パイプラインを説明する名前。
-
inputRefs
は特定の入力my-app-logs
です。 -
outputRefs
はdefault
です。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
- 12
- パイプライン名がない場合にログを Kafka ブローカーに送信するためのパイプラインの設定。
-
inputRefs
はログタイプです (例:application
)。 -
outputRefs
は使用する出力の名前です。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
-
外部ログアグリゲーターが利用できない場合の Fluentd のログの処理
外部ロギングアグリゲーターが利用できず、ログを受信できない場合、Fluentd は継続してログを収集し、それらをバッファーに保存します。ログアグリゲーターが利用可能になると、バッファーされたログを含む、ログの転送が再開されます。バッファーが完全に一杯になると、Fluentd はログの収集を停止します。OpenShift Container Platform はログをローテーションし、それらを削除します。バッファーサイズを調整したり、永続ボリューム要求 (PVC) を Fluentd デーモンセットまたは Pod に追加したりすることはできません。
サポート対象の認証キー
ここでは、一般的なキータイプを示します。出力タイプは追加の特殊キーをサポートするものもあります。出力固有の設定フィールにまとめられています。すべての秘密鍵はオプションです。関連するキーを設定して、必要なセキュリティー機能を有効にします。キーやシークレット、サービスアカウント、ポートのオープン、またはグローバルプロキシー設定など、外部の宛先で必要となる可能性のある追加設定を作成し、維持する必要があります。OpenShift Logging は、認証の組み合わせ間の不一致を検証しません。
- トランスポートレイヤーセキュリティー (Transport Layer Security, TLS)
シークレットなしで TLS URL (
http://...
またはssl://...
) を使用すると、基本的な TLS サーバー側の認証が有効になります。シークレットを含め、次のオプションフィールドを設定すると、追加の TLS 機能が有効になります。-
passphrase
:(文字列) エンコードされた TLS 秘密鍵をデコードするためのパスフレーズ。tls.key
が必要です。 -
ca-bundle.crt
:(文字列) サーバー認証用のカスタマー CA のファイル名。
-
- ユーザー名およびパスワード
-
username
:(文字列) 認証ユーザー名。パスワード
が必要です。 -
password
:(文字列) 認証パスワード。ユーザー名
が必要です。
-
- Simple Authentication Security Layer (SASL)
-
sasl.enable
(boolean)SASL を明示的に有効または無効にします。ない場合は、SASL は、他のsasl.
キーが設定されている場合に自動的に有効になります。 -
sasl.mechanisms
:(配列) 許可された SASL メカニズム名のリスト。欠落しているか空の場合は、システムのデフォルトが使用されます。 -
sasl.allow-insecure
:(ブール値) クリアテキストのパスワードを送信するメカニズムを許可します。デフォルトは false です。
-
10.4.1.1. シークレットの作成
次のコマンドを使用して、証明書とキーファイルを含むディレクトリーにシークレットを作成できます。
$ oc create secret generic -n <namespace> <secret_name> \ --from-file=ca-bundle.crt=<your_bundle_file> \ --from-literal=username=<your_username> \ --from-literal=password=<your_password>
最適な結果を得るには、generic または opaque シークレットを使用することを推奨します。
10.4.2. ログフォワーダーの作成
ログフォワーダーを作成するには、サービスアカウントが収集できるログ入力の種類を指定する ClusterLogForwarder
CR を作成する必要があります。ログを転送できる出力を指定することもできます。マルチログフォワーダー機能を使用している場合は、ClusterLogForwarder
CR でサービスアカウントも参照する必要があります。
クラスターでマルチログフォワーダー機能を使用している場合は、任意の名前を使用して、任意の namespace に ClusterLogForwarder
カスタムリソース (CR) を作成できます。レガシー実装を使用している場合は、ClusterLogForwarder
CR の名前を instance
にし、openshift-logging
namespace に作成する必要があります。
ClusterLogForwarder
CR を作成する namespace の管理者権限が必要です。
ClusterLogForwarder リソースの例
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 pipelines: - inputRefs: - <log_type> 4 outputRefs: - <output_name> 5 outputs: - name: <output_name> 6 type: <output_type> 7 url: <log_output_url> 8 # ...
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 収集されるログのタイプ。このフィールドの値は、監査ログの場合は
audit
、アプリケーションログの場合はapplication
、インフラストラクチャーログの場合はinfrastructure
、またはアプリケーションに定義された指定の入力になります。 - 5 7
- ログの転送先の出力のタイプ。このフィールドの値は、
default
、loki
、kafka
、elasticsearch
、fluentdForward
、syslog
、またはcloudwatch
です。注記default
の出力タイプは、複数のログフォワーダーの実装ではサポートされていません。 - 6
- ログの転送先の出力の名前。
- 8
- ログの転送先の出力の URL。
10.4.3. ログペイロードと配信の調整
Logging 5.9 以降のバージョンでは、ClusterLogForwarder
カスタムリソース (CR) の tuning
仕様により、ログのスループットまたは耐久性のいずれかを優先するようにデプロイメントを設定する手段が提供されます。
たとえば、コレクターの再起動時にログが失われる可能性を減らす必要がある場合や、規制要件をサポートするために収集されたログメッセージがコレクターの再起動後も保持されるようにする必要がある場合は、ログの耐久性を優先するようにデプロイメントを調整できます。受信できるバッチのサイズに厳しい制限がある出力を使用する場合は、ログスループットを優先するようにデプロイメントを調整することを推奨します。
この機能を使用するには、ロギングのデプロイメントが Vector コレクターを使用するように設定されている必要があります。Fluentd コレクターを使用する場合、ClusterLogForwarder
CR の tuning
仕様はサポートされません。
次の例は、ClusterLogForwarder
CR オプションで、こちらを変更してログフォワーダーの出力を調整できます。
ClusterLogForwarder
CR チューニングオプションの例
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: tuning: delivery: AtLeastOnce 1 compression: none 2 maxWrite: <integer> 3 minRetryDuration: 1s 4 maxRetryDuration: 1s 5 # ...
- 1
- ログ転送の配信モードを指定します。
-
AtLeastOnce
配信とは、ログフォワーダーがクラッシュしたり再起動したりした場合に、クラッシュ前に読み取られたが宛先に送信されなかったログが、再送信されることを意味します。クラッシュ後に一部のログが重複している可能性があります。 -
AtMostOnce
配信とは、クラッシュ中に失われたログを、ログフォワーダーが復元しようとしにことを意味します。このモードではスループットが向上しますが、ログの損失が大きくなる可能性があります。
-
- 2
compression
設定を指定すると、データはネットワーク経由で送信される前に圧縮されます。すべての出力タイプが圧縮をサポートしているわけではないことに注意してください。指定された圧縮タイプが出力でサポートされていない場合は、エラーが発生します。この設定に使用可能な値は、none
(圧縮なし)、gzip
、snappy
、zlib
、またはzstd
です。Kafka の出力を使用している場合は、lz4
圧縮も使用できます。詳細は、「チューニング出力でサポートされる圧縮タイプ」の表を参照してください。- 3
- 出力への単一の送信操作の最大ペイロードの制限を指定します。
- 4
- 配信が失敗した後に次に再試行するまでの最小待機時間を指定します。この値は文字列であり、ミリ秒 (
ms
)、秒 (s
)、または分 (m
) を指定できます。 - 5
- 配信が失敗した後に次に再試行するまでの最大待機時間を指定します。この値は文字列であり、ミリ秒 (
ms
)、秒 (s
)、または分 (m
) を指定できます。
圧縮アルゴリズム | Splunk | Amazon Cloudwatch | Elasticsearch 8 | LokiStack | Apache Kafka | HTTP | Syslog | Google Cloud | Microsoft Azure Monitoring |
---|---|---|---|---|---|---|---|---|---|
| X | X | X | X | X | ||||
| X | X | X | X | |||||
| X | X | X | ||||||
| X | X | X | ||||||
| X |
10.4.4. 複数行の例外検出の有効化
コンテナーログの複数行のエラー検出を有効にします。
この機能を有効にすると、パフォーマンスに影響が出る可能性があり、追加のコンピューティングリソースや代替のロギングソリューションが必要になる場合があります。
ログパーサーは頻繁に、同じ例外の個別の行を別々の例外として誤って識別します。その結果、余分なログエントリーが発生し、トレースされた情報が不完全または不正確な状態で表示されます。
Java 例外の例
java.lang.NullPointerException: Cannot invoke "String.toString()" because "<param1>" is null at testjava.Main.handle(Main.java:47) at testjava.Main.printMe(Main.java:19) at testjava.Main.main(Main.java:10)
-
ロギングを有効にして複数行の例外を検出し、それらを 1 つのログエントリーに再アセンブルできるようにする場合は、
ClusterLogForwarder
カスタムリソース (CR) に、値がtrue
のdetectMultilineErrors
フィールドが含まれていることを確認します。
ClusterLogForwarder CR の例
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: pipelines: - name: my-app-logs inputRefs: - application outputRefs: - default detectMultilineErrors: true
10.4.4.1. 詳細
ログメッセージが例外スタックトレースを形成する連続したシーケンスとして表示される場合、それらは単一の統合ログレコードに結合されます。最初のログメッセージの内容は、シーケンス内のすべてのメッセージフィールドの連結コンテンツに置き換えられます。
言語 | Fluentd | Vector |
---|---|---|
Java | ✓ | ✓ |
JS | ✓ | ✓ |
Ruby | ✓ | ✓ |
Python | ✓ | ✓ |
golang | ✓ | ✓ |
PHP | ✓ | ✓ |
Dart | ✓ | ✓ |
10.4.4.2. トラブルシューティング
有効にすると、コレクター設定には detect_exceptions
タイプの新しいセクションが含まれます。
vector 設定セクションの例
[transforms.detect_exceptions_app-logs] type = "detect_exceptions" inputs = ["application"] languages = ["All"] group_by = ["kubernetes.namespace_name","kubernetes.pod_name","kubernetes.container_name"] expire_after_ms = 2000 multiline_flush_interval_ms = 1000
fluentd 設定セクションの例
<label @MULTILINE_APP_LOGS> <match kubernetes.**> @type detect_exceptions remove_tag_prefix 'kubernetes' message message force_line_breaks true multiline_flush_interval .2 </match> </label>
10.4.5. ログの Google Cloud Platform (GCP) への転送
内部のデフォルトの OpenShift Container Platform ログストアに加えて、またはその代わりに、ログを Google Cloud Logging に転送できます。
この機能を Fluentd で使用することはサポートされていません。
前提条件
- Red Hat OpenShift Logging Operator 5.5.1 以降
手順
Google サービスアカウントキー を使用してシークレットを作成します。
$ oc -n openshift-logging create secret generic gcp-secret --from-file google-application-credentials.json=<your_service_account_key_file.json>
以下のテンプレートを使用して、
ClusterLogForwarder
カスタムリソース YAML を作成します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: gcp-1 type: googleCloudLogging secret: name: gcp-secret googleCloudLogging: projectId : "openshift-gce-devel" 4 logId : "app-gcp" 5 pipelines: - name: test-app inputRefs: 6 - application outputRefs: - gcp-1
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- ログを保存する GCP リソース階層 の場所に応じて、
projectId
、folderId
、organizationId
、またはbillingAccountId
フィールドとそれに対応する値を設定します。 - 5
- Log Entry の
logName
フィールドに追加する値を設定します。 - 6
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
、またはaudit
) を指定します。
10.4.6. ログの Splunk への転送
内部のデフォルトの OpenShift Container Platform ログストアに加えて、またはその代わりに、Splunk HTTP Event Collector (HEC) にログを転送できます。
この機能を Fluentd で使用することはサポートされていません。
前提条件
- Red Hat OpenShift Logging Operator 5.6 以降
-
コレクターとして
vector
が指定されたClusterLogging
インスタンス - Base64 でエンコードされた Splunk HEC トークン
手順
Base64 でエンコードされた Splunk HEC トークンを使用してシークレットを作成します。
$ oc -n openshift-logging create secret generic vector-splunk-secret --from-literal hecToken=<HEC_Token>
以下のテンプレートを使用して、
ClusterLogForwarder
カスタムリソース (CR) を作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: splunk-receiver 4 secret: name: vector-splunk-secret 5 type: splunk 6 url: <http://your.splunk.hec.url:8088> 7 pipelines: 8 - inputRefs: - application - infrastructure name: 9 outputRefs: - splunk-receiver 10
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
- HEC トークンが含まれるシークレットの名前を指定します。
- 6
- 出力タイプを
splunk
として指定します。 - 7
- Splunk HEC の URL (ポートを含む) を指定します。
- 8
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
、またはaudit
) を指定します。 - 9
- オプション: パイプラインの名前を指定します。
- 10
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
10.4.7. HTTP 経由でのログ転送
HTTP 経由でのログ転送は、Fluentd と Vector ログコレクターの両方でサポートされています。有効にするには、ClusterLogForwarder
カスタムリソース (CR) の出力タイプを http
に指定します。
手順
以下のテンプレートを使用して、
ClusterLogForwarder
CR を作成または編集します。ClusterLogForwarder CR の例
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: httpout-app type: http url: 4 http: headers: 5 h1: v1 h2: v2 method: POST secret: name: 6 tls: insecureSkipVerify: 7 pipelines: - name: inputRefs: - application outputRefs: - 8
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- ログの宛先アドレス。
- 5
- ログレコードと送信する追加のヘッダー。
- 6
- 宛先認証情報のシークレット名。
- 7
- 値は
true
またはfalse
です。 - 8
- この値は、出力名と同じである必要があります。
10.4.8. Azure Monitor ログへの転送
Logging 5.9 以降では、デフォルトのログストアに加えて、またはデフォルトのログストアの代わりに、Azure Monitor Logs にログを転送できます。この機能は、Vector Azure Monitor Logs sink によって提供されます。
前提条件
-
ClusterLogging
カスタムリソース (CR) インスタンスを管理および作成する方法を熟知している。 -
ClusterLogForwarder
CR インスタンスを管理および作成する方法を熟知している。 -
ClusterLogForwarder
CR 仕様を理解している。 - Azure サービスに関する基本的な知識がある。
- Azure Portal または Azure CLI アクセス用に設定された Azure アカウントがある。
- Azure Monitor Logs のプライマリーセキュリティーキーまたはセカンダリーセキュリティーキーを取得している。
- 転送するログの種類を決定している。
HTTP データコレクター API 経由で Azure Monitor Logs へのログ転送を有効にするには、以下を実行します。
共有キーを使用してシークレットを作成します。
apiVersion: v1
kind: Secret
metadata:
name: my-secret
namespace: openshift-logging
type: Opaque
data:
shared_key: <your_shared_key> 1
- 1
- 要求を行う Log Analytics ワークスペース のプライマリーキーまたはセカンダリーキーを含める必要があります。
共有キー を取得するには、Azure CLI で次のコマンドを使用します。
Get-AzOperationalInsightsWorkspaceSharedKey -ResourceGroupName "<resource_name>" -Name "<workspace_name>”
選択したログに一致するテンプレートを使用して、ClusterLogForwarder
CR を作成または編集します。
すべてのログの転送
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogForwarder" metadata: name: instance namespace: openshift-logging spec: outputs: - name: azure-monitor type: azureMonitor azureMonitor: customerId: my-customer-id 1 logType: my_log_type 2 secret: name: my-secret pipelines: - name: app-pipeline inputRefs: - application outputRefs: - azure-monitor
- 1
- Log Analytics ワークスペースの一意の識別子。必須フィールド。
- 2
- 送信されるデータの Azure レコードタイプ。文字、数字、アンダースコア (_) のみを含めることができ、100 文字を超えることはできません。
アプリケーションログおよびインフラストラクチャーログの転送
apiVersion: "logging.openshift.io/v1"
kind: "ClusterLogForwarder"
metadata:
name: instance
namespace: openshift-logging
spec:
outputs:
- name: azure-monitor-app
type: azureMonitor
azureMonitor:
customerId: my-customer-id
logType: application_log 1
secret:
name: my-secret
- name: azure-monitor-infra
type: azureMonitor
azureMonitor:
customerId: my-customer-id
logType: infra_log #
secret:
name: my-secret
pipelines:
- name: app-pipeline
inputRefs:
- application
outputRefs:
- azure-monitor-app
- name: infra-pipeline
inputRefs:
- infrastructure
outputRefs:
- azure-monitor-infra
- 1
- 送信されるデータの Azure レコードタイプ。文字、数字、アンダースコア (_) のみを含めることができ、100 文字を超えることはできません。
高度な設定オプション
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogForwarder" metadata: name: instance namespace: openshift-logging spec: outputs: - name: azure-monitor type: azureMonitor azureMonitor: customerId: my-customer-id logType: my_log_type azureResourceId: "/subscriptions/111111111" 1 host: "ods.opinsights.azure.com" 2 secret: name: my-secret pipelines: - name: app-pipeline inputRefs: - application outputRefs: - azure-monitor
10.4.9. 特定のプロジェクトからのアプリケーションログの転送
内部ログストアの使用に加えて、またはその代わりに、アプリケーションログのコピーを特定のプロジェクトから外部ログアグリゲータに転送できます。また、外部ログアグリゲーターを OpenShift Container Platform からログデータを受信できるように設定する必要もあります。
アプリケーションログのプロジェクトからの転送を設定するには、プロジェクトから少なくとも 1 つの入力で ClusterLogForwarder
カスタムリソース (CR) を作成し、他のログアグリゲーターのオプション出力、およびそれらの入出力を使用するパイプラインを作成する必要があります。
前提条件
- 指定されたプロトコルまたは形式を使用してロギングデータを受信するように設定されたロギングサーバーが必要です。
手順
ClusterLogForwarder
CR を定義する YAML ファイルを作成または編集します。ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: fluentd-server-secure 3 type: fluentdForward 4 url: 'tls://fluentdserver.security.example.com:24224' 5 secret: 6 name: fluentd-secret - name: fluentd-server-insecure type: fluentdForward url: 'tcp://fluentdserver.home.example.com:24224' inputs: 7 - name: my-app-logs application: namespaces: - my-project 8 pipelines: - name: forward-to-fluentd-insecure 9 inputRefs: 10 - my-app-logs outputRefs: 11 - fluentd-server-insecure labels: project: "my-project" 12 - name: forward-to-fluentd-secure 13 inputRefs: - application 14 - audit - infrastructure outputRefs: - fluentd-server-secure - default labels: clusterId: "C1234"
- 1
ClusterLogForwarder
CR の名前はinstance
である必要があります。- 2
ClusterLogForwarder
CR の namespace はopenshift-logging
である必要があります。- 3
- 出力の名前。
- 4
- 出力タイプ:
elasticsearch
、fluentdForward
、syslog
、またはkafka
。 - 5
- 有効な絶対 URL としての外部ログアグリゲーターの URL とポート。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。
- 6
tls
接頭辞を使用する場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定する必要があります。シークレットはopenshift-logging
プロジェクトに存在し、tls.crt、tls.key、および ca-bundle.crt キーが含まれる必要があります。これらは、それぞれが表す証明書を参照します。- 7
- 指定されたプロジェクトからアプリケーションログをフィルターするための入力の設定。
- 8
- namespace が指定されていない場合、ログはすべての namespace から収集されます。
- 9
- パイプライン設定は、名前付き入力から名前付き出力にログを送信します。この例では、
forward-to-fluentd-insecure
という名前のパイプラインは、my-app-logs
という名前の入力からfluentd-server-insecure
という名前の出力にログを転送します。 - 10
- 入力のリスト。
- 11
- 使用する出力の名前。
- 12
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
- 13
- ログを他のログアグリゲーターに送信するためのパイプラインの設定。
- オプション: パイプラインの名前を指定します。
-
パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - このパイプラインでログを転送する時に使用する出力の名前を指定します。
-
オプション: デフォルトのログストアにログを転送するための
default
出力を指定します。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
- 14
- この設定を使用すると、すべての namespace からのアプリケーションログが収集されることに注意してください。
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
10.4.10. 特定の Pod からのアプリケーションログの転送
クラスター管理者は、Kubernetes Pod ラベルを使用して特定の Pod からログデータを収集し、これをログコレクターに転送できます。
アプリケーションがさまざまな namespace の他の Pod と共に実行される Pod で構成されるとします。これらの Pod にアプリケーションを識別するラベルがある場合は、それらのログデータを収集し、特定のログコレクターに出力できます。
Pod ラベルを指定するには、1 つ以上の matchLabels
のキー/値のペアを使用します。複数のキー/値のペアを指定する場合、Pod は選択されるそれらすべてに一致する必要があります。
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。ファイルで、以下の例が示すようにinputs[].name.application.selector.matchLabels
の下で単純な等価ベース (Equality-based) のセレクターを使用して Pod ラベルを指定します。ClusterLogForwarder
CR YAML ファイルのサンプルapiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: pipelines: - inputRefs: [ myAppLogData ] 3 outputRefs: [ default ] 4 inputs: 5 - name: myAppLogData application: selector: matchLabels: 6 environment: production app: nginx namespaces: 7 - app1 - app2 outputs: 8 - <output_name> ...
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
inputs[].name
から 1 つ以上のコンマ区切りの値を指定します。- 4
outputs[]
から 1 つ以上のコンマ区切りの値を指定します。- 5
- Pod ラベルの一意のセットを持つ各アプリケーションの一意の
inputs[].name
を定義します。 - 6
- 収集するログデータを持つ Pod ラベルのキー/値のペアを指定します。キーだけではなく、キーと値の両方を指定する必要があります。Pod を選択するには、Pod はすべてのキーと値のペアと一致する必要があります。
- 7
- オプション: namespace を 1 つ以上指定します。
- 8
- ログデータを転送する 1 つ以上の出力を指定します。
-
オプション: ログデータの収集を特定の namespace に制限するには、前述の例のように
inputs[].name.application.namespaces
を使用します。 オプション: 異なる Pod ラベルを持つ追加のアプリケーションから同じパイプラインにログデータを送信できます。
-
Pod ラベルの一意の組み合わせごとに、表示されるものと同様の追加の
inputs[].name
セクションを作成します。 -
このアプリケーションの Pod ラベルに一致するように、
selectors
を更新します。 新規の
inputs[].name
値をinputRefs
に追加します。以下に例を示します。- inputRefs: [ myAppLogData, myOtherAppLogData ]
-
Pod ラベルの一意の組み合わせごとに、表示されるものと同様の追加の
CR オブジェクトを作成します。
$ oc create -f <file-name>.yaml
関連情報
-
Kubernetes の
matchLabels
の詳細は、セットベースの要件をサポートするリソース を参照してください。
10.4.11. API 監査フィルターの概要
OpenShift API サーバーは、API 呼び出しごとに、リクエスト、レスポンス、リクエスターの ID の詳細を示す監査イベントを生成するため、大量のデータが生成されます。API 監査フィルターはルールを使用して、重要でないイベントを除外してイベントサイズを減少できるようにし、監査証跡をより管理しやすくします。ルールは順番にチェックされ、最初の一致で停止をチェックします。イベントに含まれるデータ量は、level
フィールドの値によって決定されます。
-
None
: イベントはドロップされます。 -
Metadata
: 監査メタデータが含まれ、リクエストおよびレスポンスの本文は削除されます。 -
Request
: 監査メタデータとリクエスト本文が含まれ、レスポンス本文は削除されます。 -
RequestResponse
: メタデータ、リクエスト本文、レスポンス本文のすべてのデータが含まれます。レスポンス本文が非常に大きくなる可能性があります。たとえば、oc get pods -A
はクラスター内のすべての Pod の YAML 記述を含むレスポンス本文を生成します。
この機能は、ロギングのデプロイメントで Vector コレクターが設定されている場合にのみ使用できます。
ロギング 5.8 以降では、ClusterLogForwarder
カスタムリソース (CR) は標準の Kubernetes 監査ポリシー と同じ形式を使用しますが、次の追加機能を提供します。
- ワイルドカード
-
ユーザー、グループ、namespace、およびリソースの名前には、先頭または末尾に
*
アスタリスク文字を付けることができます。たとえば、namespaceopenshift-\*
はopenshift-apiserver
またはopenshift-authentication
と一致します。リソース\*/status
は、Pod/status
またはDeployment/status
と一致します。 - デフォルトのルール
ポリシーのルールに一致しないイベントは、以下のようにフィルターされます。
-
get
、list
、watch
などの読み取り専用システムイベントは破棄されます。 - サービスアカウントと同じ namespace 内で発生するサービスアカウント書き込みイベントはドロップされます。
- 他のすべてのイベントは、設定されたレート制限に従って転送されます。
-
これらのデフォルトを無効にするには、level
フィールドのみが含まれるルールでルールリストを終了するか、空のルールを追加します。
- 応答コードが省略される
-
省略する整数ステータスコードのリスト。
OmitResponseCodes
フィールドを使用して、イベントが作成されない HTTP ステータスコードのリストを使用して、応答の HTTP ステータスコードに基づいてイベントを削除できます。デフォルト値は[404, 409, 422, 429]
です。値が空のリスト[]
の場合、ステータスコードは省略されません。
ClusterLogForwarder
CR の監査ポリシーは、OpenShift Container Platform の監査ポリシーに加えて動作します。ClusterLogForwarder
CR 監査フィルターは、ログコレクターが転送する内容を変更し、動詞、ユーザー、グループ、namespace、またはリソースでフィルタリングする機能を提供します。複数のフィルターを作成して、同じ監査ストリームの異なるサマリーを異なる場所に送信できます。たとえば、詳細なストリームをローカルクラスターログストアに送信し、詳細度の低いストリームをリモートサイトに送信できます。
提供されている例は、監査ポリシーで可能なルールの範囲を示すことを目的としており、推奨される設定ではありません。
監査ポリシーの例
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: pipelines: - name: my-pipeline inputRefs: audit 1 filterRefs: my-policy 2 outputRefs: default filters: - name: my-policy type: kubeAPIAudit kubeAPIAudit: # Don't generate audit events for all requests in RequestReceived stage. omitStages: - "RequestReceived" rules: # Log pod changes at RequestResponse level - level: RequestResponse resources: - group: "" resources: ["pods"] # Log "pods/log", "pods/status" at Metadata level - level: Metadata resources: - group: "" resources: ["pods/log", "pods/status"] # Don't log requests to a configmap called "controller-leader" - level: None resources: - group: "" resources: ["configmaps"] resourceNames: ["controller-leader"] # Don't log watch requests by the "system:kube-proxy" on endpoints or services - level: None users: ["system:kube-proxy"] verbs: ["watch"] resources: - group: "" # core API group resources: ["endpoints", "services"] # Don't log authenticated requests to certain non-resource URL paths. - level: None userGroups: ["system:authenticated"] nonResourceURLs: - "/api*" # Wildcard matching. - "/version" # Log the request body of configmap changes in kube-system. - level: Request resources: - group: "" # core API group resources: ["configmaps"] # This rule only applies to resources in the "kube-system" namespace. # The empty string "" can be used to select non-namespaced resources. namespaces: ["kube-system"] # Log configmap and secret changes in all other namespaces at the Metadata level. - level: Metadata resources: - group: "" # core API group resources: ["secrets", "configmaps"] # Log all other resources in core and extensions at the Request level. - level: Request resources: - group: "" # core API group - group: "extensions" # Version of group should NOT be included. # A catch-all rule to log all other requests at the Metadata level. - level: Metadata
10.4.12. 外部 Loki ロギングシステムへのログ転送
デフォルトのログストアに加えて、またはその代わりに、外部の Loki ロギングしすてむにログを転送できます。
Loki へのログ転送を設定するには、Loki の出力と、出力を使用するパイプラインで ClusterLogForwarder
カスタムリソース (CR) を作成する必要があります。Loki への出力は HTTP (セキュアでない) または HTTPS (セキュアな HTTP) 接続を使用できます。
前提条件
-
CR の
url
フィールドで指定する URL で Loki ロギングシステムが実行されている必要がある。
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: loki-insecure 4 type: "loki" 5 url: http://loki.insecure.com:3100 6 loki: tenantKey: kubernetes.namespace_name labelKeys: - kubernetes.labels.foo - name: loki-secure 7 type: "loki" url: https://loki.secure.com:3100 secret: name: loki-secret 8 loki: tenantKey: kubernetes.namespace_name 9 labelKeys: - kubernetes.labels.foo 10 pipelines: - name: application-logs 11 inputRefs: 12 - application - audit outputRefs: 13 - loki-secure
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
- タイプを
"loki"
と指定します。 - 6
- Loki システムの URL およびポートを有効な絶対 URL として指定します。
http
(セキュアでない) プロトコルまたはhttps
(セキュアな HTTP) プロトコルを使用できます。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。HTTP(S) 通信用の Loki のデフォルトポートは 3100 です。 - 7
- セキュアな接続では、
シークレット
を指定して、認証するhttps
またはhttp
URL を指定できます。 - 8
https
接頭辞の場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定します。シークレットには、それが表す証明書を指すca-bundle.crt
鍵が含まれている必要があります。それ以外の場合、http
およびhttps
接頭辞の場合は、ユーザー名とパスワードを含むシークレットを指定できます。レガシー実装では、シークレットはopenshift-logging
プロジェクトに存在する必要があります。詳細は、「例: ユーザー名とパスワードを含むシークレットの設定」を参照してください。- 9
- オプション: メタデータキーフィールドを指定して、Loki の
TenantID
フィールドの値を生成します。たとえば、tenantKey: kubernetes.namespace_name
を設定すると、Kubernetes namespace の名前を Loki のテナント ID の値として使用します。他にどのログレコードフィールドを指定できるかを確認するには、以下の「関連情報」セクションの「Log Record Fields」リンクを参照してください。 - 10
- オプション: デフォルトの Loki ラベルを置き換えるメタデータフィールドキーのリストを指定します。loki ラベル名は、正規表現
[a-zA-Z_:][a-zA-Z0-9_:]*
と一致する必要があります。ラベル名を形成するため、メタデータキーの無効な文字は_
に置き換えられます。たとえば、kubernetes.labels.foo
メタデータキーは、Loki ラベルkubernetes_labels_foo
になります。labelKeys
を設定しないと、デフォルト値は[log_type, kubernetes.namespace_name, kubernetes.pod_name, kubernetes_host]
です。Loki で指定可能なラベルのサイズと数に制限があるため、ラベルのセットを小さくします。Configuring Loki, limits_config を参照してください。クエリーフィルターを使用して、ログレコードフィールドに基づいてクエリーを実行できます。 - 11
- オプション: パイプラインの名前を指定します。
- 12
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 13
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
注記Loki ではログストリームを正しくタイムスタンプで順序付ける必要があるため、
labelKeys
には指定しなくてもkubernetes_host
ラベルセットが常に含まれます。このラベルセットが含まれることで、各ストリームが 1 つのホストから発信されるので、ホストのクロック間の誤差が原因でタイムスタンプの順番が乱れないようになります。次のコマンドを実行して、
ClusterLogForwarder
CR オブジェクトを適用します。$ oc apply -f <filename>.yaml
関連情報
10.4.13. 外部 Elasticsearch インスタンスへのログの送信
内部ログストアに加えて、またはその代わりに外部の Elasticsearch インスタンスにログを転送できます。外部ログアグリゲーターを OpenShift Container Platform からログデータを受信するように設定する必要があります。
外部 Elasticsearch インスタンスへのログ転送を設定するには、そのインスタンスへの出力および出力を使用するパイプラインで ClusterLogForwarder
カスタムリソース (CR) を作成する必要があります。外部 Elasticsearch 出力では、HTTP(セキュアでない) または HTTPS(セキュアな HTTP) 接続を使用できます。
外部 Elasticsearch インスタンスと内部 Elasticsearch インスタンスの両方にログを転送するには、出力および外部インスタンスへのパイプライン、および default
出力を使用してログを内部インスタンスに転送するパイプラインを作成します。
ログを内部 Elasticsearch インスタンスのみに転送する必要がある場合は、ClusterLogForwarder
CR を作成する必要はありません。
前提条件
- 指定されたプロトコルまたは形式を使用してロギングデータを受信するように設定されたロギングサーバーが必要です。
手順
ClusterLogForwarder
CR を定義する YAML ファイルを作成または編集します。ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: elasticsearch-example 4 type: elasticsearch 5 elasticsearch: version: 8 6 url: http://elasticsearch.example.com:9200 7 secret: name: es-secret 8 pipelines: - name: application-logs 9 inputRefs: 10 - application - audit outputRefs: - elasticsearch-example 11 - default 12 labels: myLabel: "myValue" 13 # ...
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
elasticsearch
タイプを指定します。- 6
- Elasticsearch バージョンを指定します。これは
6
、7
、または8
のいずれかになります。 - 7
- 外部 Elasticsearch インスタンスの URL およびポートを有効な絶対 URL として指定します。
http
(セキュアでない) プロトコルまたはhttps
(セキュアな HTTP) プロトコルを使用できます。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。 - 8
https
接頭辞の場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定します。シークレットには、それが表す証明書を指すca-bundle.crt
鍵が含まれている必要があります。それ以外の場合、http
およびhttps
接頭辞の場合は、ユーザー名とパスワードを含むシークレットを指定できます。レガシー実装では、シークレットはopenshift-logging
プロジェクトに存在する必要があります。詳細は、「例: ユーザー名とパスワードを含むシークレットの設定」を参照してください。- 9
- オプション: パイプラインの名前を指定します。
- 10
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 11
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
- 12
- オプション: ログを内部 Elasticsearch インスタンスに送信するために
default
出力を指定します。 - 13
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
例: ユーザー名とパスワードを含むシークレットの設定
ユーザー名とパスワードを含むシークレットを使用して、外部 Elasticsearch インスタンスへのセキュアな接続を認証できます。
たとえば、サードパーティーが Elasticsearch インスタンスを操作するため、相互 TLS (mTLS) キーを使用できない場合に、HTTP または HTTPS を使用してユーザー名とパスワードを含むシークレットを設定できます。
以下の例のような
Secret
YAML ファイルを作成します。username
およびpassword
フィールドに base64 でエンコードされた値を使用します。シークレットタイプはデフォルトで opaque です。apiVersion: v1 kind: Secret metadata: name: openshift-test-secret data: username: <username> password: <password> # ...
シークレットを作成します。
$ oc create secret -n openshift-logging openshift-test-secret.yaml
ClusterLogForwarder
CR にシークレットの名前を指定します。kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputs: - name: elasticsearch type: "elasticsearch" url: https://elasticsearch.secure.com:9200 secret: name: openshift-test-secret # ...
注記url
フィールドの値では、接頭辞はhttp
またはhttps
になります。CR オブジェクトを適用します。
$ oc apply -f <filename>.yaml
10.4.14. Fluentd 転送プロトコルを使用したログの転送
Fluentd forward プロトコルを使用して、デフォルトの Elasticsearch ログストアの代わり、またはこれに加えてプロトコルを受け入れるように設定された外部ログアグリゲーターにログのコピーを送信できます。外部ログアグリゲーターを OpenShift Container Platform からログを受信するように設定する必要があります。
forward プロトコルを使用してログ転送を設定するには、Fluentd サーバーに対する 1 つ以上の出力およびそれらの出力を使用するパイプラインと共に ClusterLogForwarder
カスタムリース (CR) を作成します。Fluentd の出力は TCP(セキュアでない) または TLS(セキュアな TCP) 接続を使用できます。
前提条件
- 指定されたプロトコルまたは形式を使用してロギングデータを受信するように設定されたロギングサーバーが必要です。
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: fluentd-server-secure 3 type: fluentdForward 4 url: 'tls://fluentdserver.security.example.com:24224' 5 secret: 6 name: fluentd-secret - name: fluentd-server-insecure type: fluentdForward url: 'tcp://fluentdserver.home.example.com:24224' pipelines: - name: forward-to-fluentd-secure 7 inputRefs: 8 - application - audit outputRefs: - fluentd-server-secure 9 - default 10 labels: clusterId: "C1234" 11 - name: forward-to-fluentd-insecure 12 inputRefs: - infrastructure outputRefs: - fluentd-server-insecure labels: clusterId: "C1234"
- 1
ClusterLogForwarder
CR の名前はinstance
である必要があります。- 2
ClusterLogForwarder
CR の namespace はopenshift-logging
である必要があります。- 3
- 出力の名前を指定します。
- 4
fluentdForward
タイプを指定します。- 5
- 外部 Fluentd インスタンスの URL およびポートを有効な絶対 URL として指定します。
tcp
(セキュアでない) プロトコルまたはtls
(セキュアな TCP) プロトコルを使用できます。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。 - 6
tls
を接頭辞として使用している場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定する必要があります。シークレットはopenshift-logging
プロジェクトに存在する必要があり、それが表す証明書を指すca-bundle.crt
鍵が含まれている必要があります。- 7
- オプション: パイプラインの名前を指定します。
- 8
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 9
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
- 10
- オプション: ログを内部 Elasticsearch インスタンスに転送するために
default
出力を指定します。 - 11
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
- 12
- オプション: サポートされるタイプの他の外部ログアグリゲーターにログを転送するように複数の出力を設定します。
- パイプラインを説明する名前。
-
inputRefs
は、そのパイプラインを使用して転送するログタイプです (application
、infrastructure
、またはaudit
)。 -
outputRefs
は使用する出力の名前です。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
CR オブジェクトを作成します。
$ oc create -f <file-name>.yaml
10.4.14.1. Logstash が fluentd からデータを取り込むためのナノ秒精度の有効化
Logstash が fluentd からログデータを取り込むには、Logstash 設定ファイルでナノ秒精度を有効にする必要があります。
手順
-
Logstash 設定ファイルで、
nanosecond_precision
をtrue
に設定します。
Logstash 設定ファイルの例
input { tcp { codec => fluent { nanosecond_precision => true } port => 24114 } } filter { } output { stdout { codec => rubydebug } }
10.4.15. syslog プロトコルを使用したログの転送
syslog RFC3164 または RFC5424 プロトコルを使用して、デフォルトの Elasticsearch ログストアの代わり、またはこれに加えてプロトコルを受け入れるように設定された外部ログアグリゲーターにログのコピーを送信できます。syslog サーバーなど、外部ログアグリゲーターを OpenShift Container Platform からログを受信するように設定する必要があります。
syslog プロトコルを使用してログ転送を設定するには、syslog サーバーに対する 1 つ以上の出力およびそれらの出力を使用するパイプラインと共に ClusterLogForwarder
カスタムリース (CR) を作成します。syslog 出力では、UDP、TCP、または TLS 接続を使用できます。
前提条件
- 指定されたプロトコルまたは形式を使用してロギングデータを受信するように設定されたロギングサーバーが必要です。
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: rsyslog-east 4 type: syslog 5 syslog: 6 facility: local0 rfc: RFC3164 payloadKey: message severity: informational url: 'tls://rsyslogserver.east.example.com:514' 7 secret: 8 name: syslog-secret - name: rsyslog-west type: syslog syslog: appName: myapp facility: user msgID: mymsg procID: myproc rfc: RFC5424 severity: debug url: 'tcp://rsyslogserver.west.example.com:514' pipelines: - name: syslog-east 9 inputRefs: 10 - audit - application outputRefs: 11 - rsyslog-east - default 12 labels: secure: "true" 13 syslog: "east" - name: syslog-west 14 inputRefs: - infrastructure outputRefs: - rsyslog-west - default labels: syslog: "west"
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
syslog
タイプを指定します。- 6
- オプション: 以下にリスト表示されている syslog パラメーターを指定します。
- 7
- 外部 syslog インスタンスの URL およびポートを指定します。
udp
(セキュアでない)、tcp
(セキュアでない) プロトコル、またはtls
(セキュアな TCP) プロトコルを使用できます。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。 - 8
tls
接頭辞を使用する場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定する必要があります。シークレットには、それが表す証明書を指すca-bundle.crt
鍵が含まれている必要があります。レガシー実装では、シークレットはopenshift-logging
プロジェクトに存在する必要があります。- 9
- オプション: パイプラインの名前を指定します。
- 10
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 11
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
- 12
- オプション: ログを内部 Elasticsearch インスタンスに転送するために
default
出力を指定します。 - 13
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。"true" などの引用値は、ブール値としてではなく、文字列値として認識されるようにします。
- 14
- オプション: サポートされるタイプの他の外部ログアグリゲーターにログを転送するように複数の出力を設定します。
- パイプラインを説明する名前。
-
inputRefs
は、そのパイプラインを使用して転送するログタイプです (application
、infrastructure
、またはaudit
)。 -
outputRefs
は使用する出力の名前です。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
CR オブジェクトを作成します。
$ oc create -f <filename>.yaml
10.4.15.1. メッセージ出力へのログソース情報の追加
AddLogSource
フィールドを ClusterLogForwarder
カスタムリソース (CR) に追加することで、namespace_name
、pod_name
、および container_name
要素をレコードの メッセージ
フィールドに追加できます。
spec: outputs: - name: syslogout syslog: addLogSource: true facility: user payloadKey: message rfc: RFC3164 severity: debug tag: mytag type: syslog url: tls://syslog-receiver.openshift-logging.svc:24224 pipelines: - inputRefs: - application name: test-app outputRefs: - syslogout
この設定は、RFC3164 と RFC5424 の両方と互換性があります。
AddLogSource
を使用しない場合の syslog メッセージ出力の例
<15>1 2020-11-15T17:06:14+00:00 fluentd-9hkb4 mytag - - - {"msgcontent"=>"Message Contents", "timestamp"=>"2020-11-15 17:06:09", "tag_key"=>"rec_tag", "index"=>56}
AddLogSource
を使用した syslog メッセージ出力の例
<15>1 2020-11-16T10:49:37+00:00 crc-j55b9-master-0 mytag - - - namespace_name=clo-test-6327,pod_name=log-generator-ff9746c49-qxm7l,container_name=log-generator,message={"msgcontent":"My life is my message", "timestamp":"2020-11-16 10:49:36", "tag_key":"rec_tag", "index":76}
10.4.15.2. syslog パラメーター
syslog
出力には、以下を設定できます。詳細は、syslog の RFC3164 または RFC5424 RFC を参照してください。
facility: syslog ファシリティー。値には 10 進数の整数または大文字と小文字を区別しないキーワードを使用できます。
-
カーネルメッセージの場合は、
0
またはkern
-
ユーザーレベルのメッセージの場合は、
1
またはuser
。デフォルトです。 -
メールシステムの場合は、
2
またはmail
-
システムデーモンの場合は、
3
またはdaemon
-
セキュリティー/認証メッセージの場合は、
4
またはauth
-
syslogd によって内部に生成されるメッセージの場合は、
5
またはsyslog
-
ラインプリンターサブシステムの場合は、
6
またはlpr
-
ネットワーク news サブシステムの場合は、
7
またはnews
-
UUCP サブシステムの場合は、
8
またはuucp
-
クロックデーモンの場合は、
9
またはcron
-
セキュリティー認証メッセージの場合は、
10
またはauthpriv
-
FTP デーモンの場合は、
11
またはftp
-
NTP サブシステムの場合は、
12
またはntp
-
syslog 監査ログの場合は、
13
またはsecurity
-
syslog アラートログの場合は、
14
またはconsole
-
スケジューリングデーモンの場合は、
15
またはsolaris-cron
-
ローカルに使用される facility の場合は、
16
–23
またはlocal0
–local7
-
カーネルメッセージの場合は、
オプション:
payloadKey
: syslog メッセージのペイロードとして使用するレコードフィールド。注記payloadKey
パラメーターを設定すると、他のパラメーターが syslog に転送されなくなります。- rfc: syslog を使用してログを送信するために使用される RFC。デフォルトは RFC5424 です。
severity: 送信 syslog レコードに設定される syslog の重大度。値には 10 進数の整数または大文字と小文字を区別しないキーワードを使用できます。
-
システムが使用不可であることを示すメッセージの場合は、
0
またはEmergency
-
即時にアクションを実行する必要があることを示すメッセージの場合は、
1
またはAlert
-
重大な状態を示すメッセージの場合は、
2
またはCritical
-
エラーの状態を示すメッセージの場合は、
3
またはError
-
警告状態を示すメッセージの場合は、
4
またはWarning
-
正常であるが重要な状態を示すメッセージの場合は、
5
またはNotice
-
情報を提供するメッセージの場合は、
6
またはInformational
-
デバッグレベルのメッセージを示唆するメッセージの場合は、
7
またはDebug
。デフォルトです。
-
システムが使用不可であることを示すメッセージの場合は、
- tag: タグは、syslog メッセージでタグとして使用するレコードフィールドを指定します。
- trimPrefix: 指定された接頭辞をタグから削除します。
10.4.15.3. 追加の RFC5424 syslog パラメーター
以下のパラメーターは RFC5424 に適用されます。
-
appName: APP-NAME は、ログを送信したアプリケーションを識別するフリーテキストの文字列です。
RFC5424
に対して指定する必要があります。 -
msgID: MSGID は、メッセージのタイプを識別するフリーテキスト文字列です。
RFC5424
に対して指定する必要があります。 -
procID: PROCID はフリーテキスト文字列です。値が変更される場合は、syslog レポートが中断していることを示します。
RFC5424
に対して指定する必要があります。
10.4.16. ログの Kafka ブローカーへの転送
デフォルトのログストアに加えて、またはその代わりに、外部の Kafka ブローカーにログを転送できます。
外部 Kafka インスタンスへのログ転送を設定するには、そのインスタンスへの出力を含む ClusterLogForwarder
カスタムリソース (CR) と、その出力を使用するパイプラインを作成する必要があります。出力に特定の Kafka トピックを追加するか、デフォルトを使用できます。Kafka の出力は TCP(セキュアでない) または TLS(セキュアな TCP) 接続を使用できます。
手順
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: app-logs 4 type: kafka 5 url: tls://kafka.example.devlab.com:9093/app-topic 6 secret: name: kafka-secret 7 - name: infra-logs type: kafka url: tcp://kafka.devlab2.example.com:9093/infra-topic 8 - name: audit-logs type: kafka url: tls://kafka.qelab.example.com:9093/audit-topic secret: name: kafka-secret-qe pipelines: - name: app-topic 9 inputRefs: 10 - application outputRefs: 11 - app-logs labels: logType: "application" 12 - name: infra-topic 13 inputRefs: - infrastructure outputRefs: - infra-logs labels: logType: "infra" - name: audit-topic inputRefs: - audit outputRefs: - audit-logs labels: logType: "audit"
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
kafka
タイプを指定します。- 6
- Kafka ブローカーの URL およびポートを有効な絶対 URL として指定し、オプションで特定のトピックで指定します。
tcp
(セキュアでない) プロトコルまたはtls
(セキュアな TCP) プロトコルを使用できます。CIDR アノテーションを使用するクラスター全体のプロキシーが有効になっている場合、出力は IP アドレスではなくサーバー名または FQDN である必要があります。 - 7
tls
を接頭辞として使用している場合は、TLS 通信のエンドポイントに必要なシークレットの名前を指定する必要があります。シークレットには、それが表す証明書を指すca-bundle.crt
鍵が含まれている必要があります。レガシー実装では、シークレットはopenshift-logging
プロジェクトに存在する必要があります。- 8
- オプション: 非セキュアな出力を送信するには、URL の前に
tcp
の接頭辞を使用します。また、この出力のsecret
キーとそのname
を省略します。 - 9
- オプション: パイプラインの名前を指定します。
- 10
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 11
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
- 12
- オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
- 13
- オプション: サポートされるタイプの他の外部ログアグリゲーターにログを転送するように複数の出力を設定します。
- パイプラインを説明する名前。
-
inputRefs
は、そのパイプラインを使用して転送するログタイプです (application
、infrastructure
、またはaudit
)。 -
outputRefs
は使用する出力の名前です。 - オプション: 文字列。ログに追加する 1 つまたは複数のラベル。
オプション: 単一の出力を複数の Kafka ブローカーに転送するには、次の例に示すように Kafka ブローカーの配列を指定します。
# ... spec: outputs: - name: app-logs type: kafka secret: name: kafka-secret-dev kafka: 1 brokers: 2 - tls://kafka-broker1.example.com:9093/ - tls://kafka-broker2.example.com:9093/ topic: app-topic 3 # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
10.4.17. ログの Amazon CloudWatch への転送
Amazon Web Services (AWS) がホストするモニタリングおよびログストレージサービスである Amazon CloudWatch にログを転送できます。デフォルトのログストアに加えて、またはログストアの代わりに、CloudWatch にログを転送できます。
CloudWatch へのログ転送を設定するには、CloudWatch の出力および出力を使用するパイプラインで ClusterLogForwarder
カスタムリソース (CR) を作成する必要があります。
手順
aws_access_key_id
およびaws_secret_access_key
フィールドを使用するSecret
YAML ファイルを作成し、base64 でエンコードされた AWS 認証情報を指定します。以下に例を示します。apiVersion: v1 kind: Secret metadata: name: cw-secret namespace: openshift-logging data: aws_access_key_id: QUtJQUlPU0ZPRE5ON0VYQU1QTEUK aws_secret_access_key: d0phbHJYVXRuRkVNSS9LN01ERU5HL2JQeFJmaUNZRVhBTVBMRUtFWQo=
シークレットを作成します。以下に例を示します。
$ oc apply -f cw-secret.yaml
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。このファイルに、シークレットの名前を指定します。以下に例を示します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: <service_account_name> 3 outputs: - name: cw 4 type: cloudwatch 5 cloudwatch: groupBy: logType 6 groupPrefix: <group prefix> 7 region: us-east-2 8 secret: name: cw-secret 9 pipelines: - name: infra-logs 10 inputRefs: 11 - infrastructure - audit - application outputRefs: - cw 12
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
- サービスアカウントの名前。サービスアカウントは、ログフォワーダーが
openshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。 - 4
- 出力の名前を指定します。
- 5
cloudwatch
タイプを指定します。- 6
- オプション: ログをグループ化する方法を指定します。
-
logType
は、ログタイプごとにロググループを作成します。 -
namespaceName
は、アプリケーションの namespace ごとにロググループを作成します。また、インフラストラクチャーおよび監査ログ用の個別のロググループも作成します。 -
namespaceUUID
は、アプリケーション namespace UUID ごとに新しいロググループを作成します。また、インフラストラクチャーおよび監査ログ用の個別のロググループも作成します。
-
- 7
- オプション: ロググループの名前に含まれるデフォルトの
infrastructureName
接頭辞を置き換える文字列を指定します。 - 8
- AWS リージョンを指定します。
- 9
- AWS 認証情報が含まれるシークレットの名前を指定します。
- 10
- オプション: パイプラインの名前を指定します。
- 11
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 12
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
CR オブジェクトを作成します。
$ oc create -f <file-name>.yaml
例: Amazon CloudWatch での ClusterLogForwarder の使用
ここでは、ClusterLogForwarder
カスタムリソース (CR) のサンプルと、Amazon CloudWatch に出力するログデータが表示されます。
mycluster
という名前の OpenShift Container Platform クラスターを実行しているとします。以下のコマンドは、クラスターの infrastructureName
を返します。これは、後で aws
コマンドの作成に使用します。
$ oc get Infrastructure/cluster -ojson | jq .status.infrastructureName "mycluster-7977k"
この例のログデータを生成するには、app
という名前の namespace で busybox
pod を実行します。busybox
pod は、3 秒ごとに stdout にメッセージを書き込みます。
$ oc run busybox --image=busybox -- sh -c 'while true; do echo "My life is my message"; sleep 3; done' $ oc logs -f busybox My life is my message My life is my message My life is my message ...
busybox
pod が実行される app
namespace の UUID を検索できます。
$ oc get ns/app -ojson | jq .metadata.uid "794e1e1a-b9f5-4958-a190-e76a9b53d7bf"
ClusterLogForwarder
カスタムリソース (CR) で、インフラストラクチャー
、監査
、および アプリケーションログ
タイプを all-logs
パイプラインへの入力として設定します。また、このパイプラインを cw
出力に接続し、us-east-2
リージョンの CloudWatch インスタンスに転送します。
apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputs: - name: cw type: cloudwatch cloudwatch: groupBy: logType region: us-east-2 secret: name: cw-secret pipelines: - name: all-logs inputRefs: - infrastructure - audit - application outputRefs: - cw
CloudWatch の各リージョンには、3 つのレベルのオブジェクトが含まれます。
ロググループ
ログストリーム
- ログイベント
ClusterLogForwarding
CR の groupBy: logType
の場合に、inputRefs
にある 3 つのログタイプで Amazon Cloudwatch に 3 つのロググループを生成します。
$ aws --output json logs describe-log-groups | jq .logGroups[].logGroupName "mycluster-7977k.application" "mycluster-7977k.audit" "mycluster-7977k.infrastructure"
各ロググループにはログストリームが含まれます。
$ aws --output json logs describe-log-streams --log-group-name mycluster-7977k.application | jq .logStreams[].logStreamName "kubernetes.var.log.containers.busybox_app_busybox-da085893053e20beddd6747acdbaf98e77c37718f85a7f6a4facf09ca195ad76.log"
$ aws --output json logs describe-log-streams --log-group-name mycluster-7977k.audit | jq .logStreams[].logStreamName "ip-10-0-131-228.us-east-2.compute.internal.k8s-audit.log" "ip-10-0-131-228.us-east-2.compute.internal.linux-audit.log" "ip-10-0-131-228.us-east-2.compute.internal.openshift-audit.log" ...
$ aws --output json logs describe-log-streams --log-group-name mycluster-7977k.infrastructure | jq .logStreams[].logStreamName "ip-10-0-131-228.us-east-2.compute.internal.kubernetes.var.log.containers.apiserver-69f9fd9b58-zqzw5_openshift-oauth-apiserver_oauth-apiserver-453c5c4ee026fe20a6139ba6b1cdd1bed25989c905bf5ac5ca211b7cbb5c3d7b.log" "ip-10-0-131-228.us-east-2.compute.internal.kubernetes.var.log.containers.apiserver-797774f7c5-lftrx_openshift-apiserver_openshift-apiserver-ce51532df7d4e4d5f21c4f4be05f6575b93196336be0027067fd7d93d70f66a4.log" "ip-10-0-131-228.us-east-2.compute.internal.kubernetes.var.log.containers.apiserver-797774f7c5-lftrx_openshift-apiserver_openshift-apiserver-check-endpoints-82a9096b5931b5c3b1d6dc4b66113252da4a6472c9fff48623baee761911a9ef.log" ...
各ログストリームにはログイベントが含まれます。busybox
Pod からログイベントを表示するには、application
ロググループからログストリームを指定します。
$ aws logs get-log-events --log-group-name mycluster-7977k.application --log-stream-name kubernetes.var.log.containers.busybox_app_busybox-da085893053e20beddd6747acdbaf98e77c37718f85a7f6a4facf09ca195ad76.log { "events": [ { "timestamp": 1629422704178, "message": "{\"docker\":{\"container_id\":\"da085893053e20beddd6747acdbaf98e77c37718f85a7f6a4facf09ca195ad76\"},\"kubernetes\":{\"container_name\":\"busybox\",\"namespace_name\":\"app\",\"pod_name\":\"busybox\",\"container_image\":\"docker.io/library/busybox:latest\",\"container_image_id\":\"docker.io/library/busybox@sha256:0f354ec1728d9ff32edcd7d1b8bbdfc798277ad36120dc3dc683be44524c8b60\",\"pod_id\":\"870be234-90a3-4258-b73f-4f4d6e2777c7\",\"host\":\"ip-10-0-216-3.us-east-2.compute.internal\",\"labels\":{\"run\":\"busybox\"},\"master_url\":\"https://kubernetes.default.svc\",\"namespace_id\":\"794e1e1a-b9f5-4958-a190-e76a9b53d7bf\",\"namespace_labels\":{\"kubernetes_io/metadata_name\":\"app\"}},\"message\":\"My life is my message\",\"level\":\"unknown\",\"hostname\":\"ip-10-0-216-3.us-east-2.compute.internal\",\"pipeline_metadata\":{\"collector\":{\"ipaddr4\":\"10.0.216.3\",\"inputname\":\"fluent-plugin-systemd\",\"name\":\"fluentd\",\"received_at\":\"2021-08-20T01:25:08.085760+00:00\",\"version\":\"1.7.4 1.6.0\"}},\"@timestamp\":\"2021-08-20T01:25:04.178986+00:00\",\"viaq_index_name\":\"app-write\",\"viaq_msg_id\":\"NWRjZmUyMWQtZjgzNC00MjI4LTk3MjMtNTk3NmY3ZjU4NDk1\",\"log_type\":\"application\",\"time\":\"2021-08-20T01:25:04+00:00\"}", "ingestionTime": 1629422744016 }, ...
例: ロググループ名の接頭辞のカスタマイズ
ロググループ名では、デフォルトの infrastructureName
接頭辞 mycluster-7977k
は demo-group-prefix
のように任意の文字列に置き換えることができます。この変更を加えるには、ClusterLogForwarding
CR の groupPrefix
フィールドを更新します。
cloudwatch: groupBy: logType groupPrefix: demo-group-prefix region: us-east-2
groupPrefix
の値は、デフォルトの infrastructureName
接頭辞を置き換えます。
$ aws --output json logs describe-log-groups | jq .logGroups[].logGroupName "demo-group-prefix.application" "demo-group-prefix.audit" "demo-group-prefix.infrastructure"
例: アプリケーションの namespace 名をもとにロググループの命名
クラスター内のアプリケーション namespace ごとに、名前がアプリケーション namespace 名をもとにする CloudWatch にロググループを作成できます。
アプリケーションの namespace オブジェクトを削除して、同じ名前の新しいオブジェクトを作成する場合は、CloudWatch は以前と同じロググループを使用し続けます。
相互に名前が同じアプリケーション namespace オブジェクトを引き継ぐ予定の場合は、この例で説明されている方法を使用します。それ以外で、生成されるログメッセージを相互に区別する必要がある場合は、代わりに "Naming log groups for application namespace UUIDs" のセクションを参照してください。
アプリケーション namespace 名を基にした名前を指定してアプリケーションロググループを作成するには、ClusterLogForwarder
CR で groupBy
フィールドの値を namespaceName
に設定します。
cloudwatch: groupBy: namespaceName region: us-east-2
groupBy
を namespaceName
に設定すると、アプリケーションロググループのみが影響を受けます。これは、audit
および infrastructure
のロググループには影響しません。
Amazon Cloudwatch では、namespace 名が各ロググループ名の最後に表示されます。アプリケーション namespace ("app") が 1 つであるため、以下の出力は mycluster-7977k.application
ではなく、新しい mycluster-7977k.app
ロググループを示しています。
$ aws --output json logs describe-log-groups | jq .logGroups[].logGroupName "mycluster-7977k.app" "mycluster-7977k.audit" "mycluster-7977k.infrastructure"
この例のクラスターに複数のアプリケーション namespace が含まれる場合は、出力には namespace ごとに複数のロググループが表示されます。
groupBy
フィールドは、アプリケーションロググループだけに影響します。これは、audit
および infrastructure
のロググループには影響しません。
例: アプリケーション namespace UUID をもとにロググループの命名
クラスター内のアプリケーション namespace ごとに、名前がアプリケーション namespace の UUID をもとにする CloudWatch にロググループを作成できます。
アプリケーションの namespace オブジェクトを削除して新規のロググループを作成する場合は、CloudWatch で新しいロググループを作成します。
相互に名前が異なるアプリケーション namespace オブジェクトを引き継ぐ予定の場合は、この例で説明されている方法を使用します。それ以外の場合は、前述の例: "Example: Naming log groups for application namespace names" のセクションを参照してください。
アプリケーション namespace UUID をもとにログエントリーに名前を付けるには、ClusterLogForwarder
CR で groupBy
フィールドの値を namespaceUUID
に設定します。
cloudwatch: groupBy: namespaceUUID region: us-east-2
Amazon Cloudwatch では、namespace UUID が各ロググループ名の最後に表示されます。アプリケーション namespace ("app") が 1 つであるため、以下の出力は mycluster-7977k.application
ではなく、新しい mycluster-7977k.794e1e1a-b9f5-4958-a190-e76a9b53d7bf
ロググループを示しています。
$ aws --output json logs describe-log-groups | jq .logGroups[].logGroupName "mycluster-7977k.794e1e1a-b9f5-4958-a190-e76a9b53d7bf" // uid of the "app" namespace "mycluster-7977k.audit" "mycluster-7977k.infrastructure"
groupBy
フィールドは、アプリケーションロググループだけに影響します。これは、audit
および infrastructure
のロググループには影響しません。
10.4.18. 既存の AWS ロールを使用した AWS CloudWatch のシークレット作成
AWS の既存のロールがある場合は、oc create secret --from-literal
コマンドを使用して、STS で AWS のシークレットを作成できます。
手順
CLI で次のように入力して、AWS のシークレットを生成します。
$ oc create secret generic cw-sts-secret -n openshift-logging --from-literal=role_arn=arn:aws:iam::123456789012:role/my-role_with-permissions
シークレットの例
apiVersion: v1 kind: Secret metadata: namespace: openshift-logging name: my-secret-name stringData: role_arn: arn:aws:iam::123456789012:role/my-role_with-permissions
10.4.19. STS 対応クラスターから Amazon CloudWatch へのログ転送
AWS Security Token Service (STS) が有効になっているクラスターの場合、AWS サービスアカウントを手動で作成するか、Cloud Credential Operator (CCO) ユーティリティー ccoctl
を使用してクレデンシャルのリクエストを作成できます。
- Red Hat OpenShift のロギング: 5.5 以降
手順
以下のテンプレートを使用して、
CredentialsRequest
カスタムリソース YAML を作成します。CloudWatch クレデンシャルリクエストのテンプレート
apiVersion: cloudcredential.openshift.io/v1 kind: CredentialsRequest metadata: name: <your_role_name>-credrequest namespace: openshift-cloud-credential-operator spec: providerSpec: apiVersion: cloudcredential.openshift.io/v1 kind: AWSProviderSpec statementEntries: - action: - logs:PutLogEvents - logs:CreateLogGroup - logs:PutRetentionPolicy - logs:CreateLogStream - logs:DescribeLogGroups - logs:DescribeLogStreams effect: Allow resource: arn:aws:logs:*:*:* secretRef: name: <your_role_name> namespace: openshift-logging serviceAccountNames: - logcollector
ccoctl
コマンドを使用して、CredentialsRequest
CR を使用して AWS のロールを作成します。CredentialsRequest
オブジェクトでは、このccoctl
コマンドを使用すると、特定の OIDC アイデンティティープロバイダーに紐付けされたトラストポリシーと、CloudWatch リソースでの操作実行パーミッションを付与するパーミッションポリシーを指定して IAM ロールを作成します。このコマンドは、/<path_to_ccoctl_output_dir>/manifests/openshift-logging-<your_role_name>-credentials.yaml
に YAML 設定ファイルも作成します。このシークレットファイルには、AWS IAM ID プロバイダーでの認証中に使用されるrole_arn
キー/値が含まれています。$ ccoctl aws create-iam-roles \ --name=<name> \ --region=<aws_region> \ --credentials-requests-dir=<path_to_directory_with_list_of_credentials_requests>/credrequests \ --identity-provider-arn=arn:aws:iam::<aws_account_id>:oidc-provider/<name>-oidc.s3.<aws_region>.amazonaws.com 1
- 1
- <name> は、クラウドリソースのタグ付けに使用される名前であり、STS クラスターのインストール中に使用される名前と一致する必要があります。
作成したシークレットを適用します。
$ oc apply -f output/manifests/openshift-logging-<your_role_name>-credentials.yaml
ClusterLogForwarder
カスタムリソースを作成または編集します。apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: <log_forwarder_name> 1 namespace: <log_forwarder_namespace> 2 spec: serviceAccountName: clf-collector 3 outputs: - name: cw 4 type: cloudwatch 5 cloudwatch: groupBy: logType 6 groupPrefix: <group prefix> 7 region: us-east-2 8 secret: name: <your_secret_name> 9 pipelines: - name: to-cloudwatch 10 inputRefs: 11 - infrastructure - audit - application outputRefs: - cw 12
- 1
- レガシー実装では、CR 名は
instance
である必要があります。マルチログフォワーダー実装では、任意の名前を使用できます。 - 2
- レガシー実装では、CR namespace は
openshift-logging
である必要があります。マルチログフォワーダー実装では、任意の namespace を使用できます。 - 3
clf-collector
サービスアカウントを指定します。サービスアカウントは、ログフォワーダーがopenshift-logging
namespace にデプロイされていない場合、マルチログフォワーダーの実装でのみ必要です。- 4
- 出力の名前を指定します。
- 5
cloudwatch
タイプを指定します。- 6
- オプション: ログをグループ化する方法を指定します。
-
logType
は、ログタイプごとにロググループを作成します。 -
namespaceName
は、アプリケーションの namespace ごとにロググループを作成します。インフラストラクチャーおよび監査ログは影響を受けず、logType
によってグループ化されたままになります。 -
namespaceUUID
は、アプリケーション namespace UUID ごとに新しいロググループを作成します。また、インフラストラクチャーおよび監査ログ用の個別のロググループも作成します。
-
- 7
- オプション: ロググループの名前に含まれるデフォルトの
infrastructureName
接頭辞を置き換える文字列を指定します。 - 8
- AWS リージョンを指定します。
- 9
- AWS 認証情報が含まれるシークレットの名前を指定します。
- 10
- オプション: パイプラインの名前を指定します。
- 11
- パイプラインを使用して転送するログタイプ (
application
、infrastructure
またはaudit
) を指定します。 - 12
- このパイプラインでログを転送する時に使用する出力の名前を指定します。
10.5. ロギングコレクターの設定
Red Hat OpenShift のロギングは、クラスターからオペレーションとアプリケーションログを収集し、Kubernetes Pod とプロジェクトメタデータでデータを拡充します。ログコレクターに対するサポートされるすべての変更は、ClusterLogging
カスタムリソース (CR) の spec.collection
スタンザを使用して実行できます。
10.5.1. ログコレクターの設定
ClusterLogging
カスタムリソース (CR) を変更することで、ロギングで使用するログコレクターのタイプを設定できます。
Fluentd は非推奨となっており、今後のリリースで削除される予定です。Red Hat は、現在のリリースのライフサイクル中にこの機能のバグ修正とサポートを提供しますが、この機能は拡張されなくなりました。Fluentd の代わりに、Vector を使用できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - Red Hat OpenShift Logging Operator がインストールされている。
-
ClusterLogging
CR が作成されている。
手順
ClusterLogging
CR のcollection
仕様を変更します。ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: # ... spec: # ... collection: type: <log_collector_type> 1 resources: {} tolerations: {} # ...
- 1
- ロギングに使用するログコレクターのタイプ。これは、
vector
またはfluentd
にすることができます。
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
10.5.2. LogFileMetricExporter リソースの作成
ロギングバージョン 5.8 以降のバージョンでは、LogFileMetricExporter はデフォルトでコレクターを使用してデプロイされなくなりました。実行中のコンテナーによって生成されたログからメトリクスを生成するには、LogFileMetricExporter
カスタムリソース (CR) を手動で作成する必要があります。
LogFileMetricExporter
CR を作成しない場合、OpenShift Container Platform Web コンソールのダッシュボードの Produced Logs に No datapoints found というメッセージが表示される場合があります。
前提条件
- 管理者権限がある。
- Red Hat OpenShift Logging Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。
手順
LogFileMetricExporter
CR を YAML ファイルとして作成します。LogFileMetricExporter
CR の例apiVersion: logging.openshift.io/v1alpha1 kind: LogFileMetricExporter metadata: name: instance namespace: openshift-logging spec: nodeSelector: {} 1 resources: 2 limits: cpu: 500m memory: 256Mi requests: cpu: 200m memory: 128Mi tolerations: [] 3 # ...
次のコマンドを実行して、
LogFileMetricExporter
CR を適用します。$ oc apply -f <filename>.yaml
検証
logfilesmetricexporter
Pod は、各ノードで collector
Pod と同時に実行されます。
次のコマンドを実行して出力を確認し、
LogFilesmetricExporter
CR を作成した namespace でlogfilesmetricexporter
Pod が実行されていることを確認します。$ oc get pods -l app.kubernetes.io/component=logfilesmetricexporter -n openshift-logging
出力例
NAME READY STATUS RESTARTS AGE logfilesmetricexporter-9qbjj 1/1 Running 0 2m46s logfilesmetricexporter-cbc4v 1/1 Running 0 2m46s
10.5.3. ログコレクター CPU およびメモリー制限の設定
ログコレクターは、CPU とメモリー制限の両方への調整を許可します。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc -n openshift-logging edit ClusterLogging instance
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: collection: type: fluentd resources: limits: 1 memory: 736Mi requests: cpu: 100m memory: 736Mi # ...
- 1
- 必要に応じて CPU、メモリー制限および要求を指定します。表示される値はデフォルト値です。
10.5.4. 入力レシーバーの設定
Red Hat OpenShift Logging Operator は、クライアントがコレクターに書き込めるように、設定された各入力レシーバー用のサービスをデプロイします。このサービスは、入力レシーバーに指定されたポートを公開します。サービス名は、以下に基づいて生成されます。
-
マルチログフォワーダー
ClusterLogForwarder
CR のデプロイメントの場合、サービス名は<ClusterLogForwarder_CR_name>-<input_name>
という形式になります。たとえば、example-http-receiver
などです。 -
従来の
ClusterLogForwarder
CR のデプロイメント (instance
という名前が付けられ、openshift-logging
namespace に配置されているデプロイメント) の場合、サービス名はcollector-<input_name>
という形式になります。たとえば、collector-http-receiver
です。
10.5.4.1. 監査ログを HTTP サーバーとして受信するようにコレクターを設定する
ClusterLogForwarder
カスタムリソース (CR) で http
をレシーバー入力として指定すると、HTTP 接続をリッスンして監査ログを HTTP サーバーとして受信するようにログコレクターを設定できます。これにより、OpenShift Container Platform クラスターの内部と外部の両方から収集された監査ログに共通のログストアを使用できるようになります。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - Red Hat OpenShift Logging Operator がインストールされている。
-
ClusterLogForwarder
CR が作成されている。
手順
ClusterLogForwarder
CR を変更して、http
レシーバー入力の設定を追加します。マルチログフォワーダーデプロイメントを使用している場合の
ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1beta1 kind: ClusterLogForwarder metadata: # ... spec: serviceAccountName: <service_account_name> inputs: - name: http-receiver 1 receiver: type: http 2 http: format: kubeAPIAudit 3 port: 8443 4 pipelines: 5 - name: http-pipeline inputRefs: - http-receiver # ...
従来のデプロイメントを使用している場合の
ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: inputs: - name: http-receiver 1 receiver: type: http 2 http: format: kubeAPIAudit 3 port: 8443 4 pipelines: 5 - inputRefs: - http-receiver name: http-pipeline # ...
次のコマンドを実行して、
ClusterLogForwarder
CR に変更を適用します。$ oc apply -f <filename>.yaml
関連情報
10.5.5. Fluentd ログフォワーダーの高度な設定
Fluentd は非推奨となっており、今後のリリースで削除される予定です。Red Hat は、現在のリリースのライフサイクル中にこの機能のバグ修正とサポートを提供しますが、この機能は拡張されなくなりました。Fluentd の代わりに、Vector を使用できます。
ロギングには、Fluentd ログフォワーダーのパフォーマンスチューニングに使用できる複数の Fluentd パラメーターが含まれます。これらのパラメーターを使用すると、以下の Fluentd の動作を変更できます。
- チャンクおよびチャンクのバッファーサイズ
- チャンクのフラッシュ動作
- チャンク転送の再試行動作
Fluentd は、チャンク という単一の Blob でログデータを収集します。Fluentd がチャンクを作成する際に、チャンクは ステージ にあると見なされます。ここでチャンクはデータで一杯になります。チャンクが一杯になると、Fluentd はチャンクを キュー に移動します。ここでチャンクはフラッシュされる前か、送信先に書き込まれるまで保持されます。Fluentd は、ネットワークの問題や送信先での容量の問題などのさまざまな理由でチャンクをフラッシュできない場合があります。チャンクをフラッシュできない場合、Fluentd は設定通りにフラッシュを再試行します。
OpenShift Container Platform のデフォルトで、Fluentd は 指数関数的バックオフ 方法を使用してフラッシュを再試行します。この場合、Fluentd はフラッシュを再試行するまで待機する時間を 2 倍にします。これは、送信先への接続要求を減らすのに役立ちます。指数バックオフを無効にし、代わりに 定期的な 再試行方法を使用できます。これは、指定の間隔でチャンクのフラッシュを再試行します。
これらのパラメーターは、待ち時間とスループット間のトレードオフを判断するのに役立ちます。
- Fluentd のスループットを最適化するには、これらのパラメーターを使用して、より大きなバッファーおよびキューを設定し、フラッシュを遅延し、再試行の間隔の長く設定することで、ネットワークパケット数を減らすことができます。より大きなバッファーにはノードのファイルシステムでより多くの領域が必要になることに注意してください。
- 待機時間が低い場合に最適化するには、パラメーターを使用してすぐにデータを送信し、バッチの蓄積を回避し、キューとバッファーが短くして、より頻繁にフラッシュおよび再試行を使用できます。
ClusterLogging
カスタムリソース (CR) で以下のパラメーターを使用して、チャンクおよびフラッシュ動作を設定できます。次に、パラメーターは Fluentd で使用するために Fluentd config map に自動的に追加されます。
これらのパラメーターの特徴は以下の通りです。
- ほとんどのユーザーには関連性がありません。デフォルト設定で、全般的に良いパフォーマンスが得られるはずです。
- Fluentd 設定およびパフォーマンスに関する詳しい知識を持つ上級ユーザーのみが対象です。
- パフォーマンスチューニングのみを目的とします。ロギングの機能面に影響を与えることはありません。
パラメーター | 説明 | デフォルト |
---|---|---|
| 各チャンクの最大サイズ。Fluentd はこのサイズに達するとデータのチャンクへの書き込みを停止します。次に、Fluentd はチャンクをキューに送信し、新規のチャンクを開きます。 |
|
| ステージおよびキューの合計サイズであるバッファーの最大サイズ。バッファーサイズがこの値を超えると、Fluentd はデータのチャンクへの追加を停止し、エラーを出して失敗します。チャンクにないデータはすべて失われます。 | ノードディスクの約 15% がすべての出力に分散されます。 |
|
チャンクのフラッシュの間隔。 |
|
| フラッシュを実行する方法:
|
|
| チャンクのフラッシュを実行するスレッドの数。スレッドの数を増やすと、フラッシュのスループットが改善し、ネットワークの待機時間が非表示になります。 |
|
| キューが一杯になると、チャンク動作は以下のようになります。
|
|
|
|
|
| フラッシュに失敗する場合の再試行方法:
|
|
| レコードが破棄される前に再試行を試みる最大時間間隔。 |
|
| 次のチャンクのフラッシュまでの時間 (秒単位)。 |
|
Fluentd チャンクのライフサイクルの詳細は、Fluentd ドキュメントの Buffer Plugins を参照してください。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc edit ClusterLogging instance
以下のパラメーターを追加または変更します。
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: collection: fluentd: buffer: chunkLimitSize: 8m 1 flushInterval: 5s 2 flushMode: interval 3 flushThreadCount: 3 4 overflowAction: throw_exception 5 retryMaxInterval: "300s" 6 retryType: periodic 7 retryWait: 1s 8 totalLimitSize: 32m 9 # ...
- 1
- 各チャンクの最大サイズを指定してから、フラッシュ用にキューに入れます。
- 2
- チャンクのフラッシュの間隔を指定します。
- 3
- チャンクのフラッシュを実行する方法を指定します (
lazy
、interval
、またはimmediate
)。 - 4
- チャンクのフラッシュに使用するスレッドの数を指定します。
- 5
- キューが一杯になる場合のチャンクの動作を指定します (
throw_exception
、block
、またはdrop_oldest_chunk
)。 - 6
exponential_backoff
チャンクのフラッシュ方法について最大の間隔 (秒単位) を指定します。- 7
- チャンクのフラッシュが失敗する場合の再試行タイプ (
exponential_backoff
またはperiodic
) を指定します。 - 8
- 次のチャンクのフラッシュまでの時間 (秒単位) を指定します。
- 9
- チャンクバッファーの最大サイズを指定します。
Flunentd Pod が再デプロイされていることを確認します。
$ oc get pods -l component=collector -n openshift-logging
新規の値が
fluentd
config map にあることを確認します。$ oc extract configmap/collector-config --confirm
fluentd.conf の例
<buffer> @type file path '/var/lib/fluentd/default' flush_mode interval flush_interval 5s flush_thread_count 3 retry_type periodic retry_wait 1s retry_max_interval 300s retry_timeout 60m queued_chunks_limit_size "#{ENV['BUFFER_QUEUE_LIMIT'] || '32'}" total_limit_size "#{ENV['TOTAL_LIMIT_SIZE_PER_BUFFER'] || '8589934592'}" chunk_limit_size 8m overflow_action throw_exception disable_chunk_backup true </buffer>
10.6. Kubernetes イベントの収集および保存
OpenShift Container Platform イベントルーターは、Kubernetes イベントを監視し、それらをロギングによって収集できるようにログに記録する Pod です。イベントルーターは手動でデプロイする必要があります。
イベントルーターはすべてのプロジェクトからイベントを収集し、それらを STDOUT
に書き込みます。次に、コレクターはそれらのイベントを ClusterLogForwarder
カスタムリソース (CR) で定義されたストアに転送します。
イベントルーターは追加の負荷を Fluentd に追加し、処理できる他のログメッセージの数に影響を与える可能性があります。
10.6.1. イベントルーターのデプロイおよび設定
以下の手順を使用してイベントルーターをクラスターにデプロイします。イベントルーターを openshift-logging
プロジェクトに常にデプロイし、クラスター全体でイベントが収集されるようにする必要があります。
Event Router イメージは Red Hat OpenShift Logging Operator の一部ではないため、個別にダウンロードする必要があります。
次の Template
オブジェクトは、イベントルーターに必要なサービスアカウント、クラスターロール、およびクラスターロールバインディングを作成します。テンプレートはイベントルーター Pod も設定し、デプロイします。このテンプレートを変更せずに使用することも、テンプレートを編集してデプロイメントオブジェクトの CPU およびメモリー要求を変更することもできます。
前提条件
- サービスアカウントを作成し、クラスターロールバインディングを更新するには、適切なパーミッションが必要です。たとえば、以下のテンプレートを、cluster-admin ロールを持つユーザーで実行できます。
- Red Hat OpenShift Logging Operator がインストールされている必要があります。
手順
イベントルーターのテンプレートを作成します。
apiVersion: template.openshift.io/v1 kind: Template metadata: name: eventrouter-template annotations: description: "A pod forwarding kubernetes events to OpenShift Logging stack." tags: "events,EFK,logging,cluster-logging" objects: - kind: ServiceAccount 1 apiVersion: v1 metadata: name: eventrouter namespace: ${NAMESPACE} - kind: ClusterRole 2 apiVersion: rbac.authorization.k8s.io/v1 metadata: name: event-reader rules: - apiGroups: [""] resources: ["events"] verbs: ["get", "watch", "list"] - kind: ClusterRoleBinding 3 apiVersion: rbac.authorization.k8s.io/v1 metadata: name: event-reader-binding subjects: - kind: ServiceAccount name: eventrouter namespace: ${NAMESPACE} roleRef: kind: ClusterRole name: event-reader - kind: ConfigMap 4 apiVersion: v1 metadata: name: eventrouter namespace: ${NAMESPACE} data: config.json: |- { "sink": "stdout" } - kind: Deployment 5 apiVersion: apps/v1 metadata: name: eventrouter namespace: ${NAMESPACE} labels: component: "eventrouter" logging-infra: "eventrouter" provider: "openshift" spec: selector: matchLabels: component: "eventrouter" logging-infra: "eventrouter" provider: "openshift" replicas: 1 template: metadata: labels: component: "eventrouter" logging-infra: "eventrouter" provider: "openshift" name: eventrouter spec: serviceAccount: eventrouter containers: - name: kube-eventrouter image: ${IMAGE} imagePullPolicy: IfNotPresent resources: requests: cpu: ${CPU} memory: ${MEMORY} volumeMounts: - name: config-volume mountPath: /etc/eventrouter securityContext: allowPrivilegeEscalation: false capabilities: drop: ["ALL"] securityContext: runAsNonRoot: true seccompProfile: type: RuntimeDefault volumes: - name: config-volume configMap: name: eventrouter parameters: - name: IMAGE 6 displayName: Image value: "registry.redhat.io/openshift-logging/eventrouter-rhel9:v0.4" - name: CPU 7 displayName: CPU value: "100m" - name: MEMORY 8 displayName: Memory value: "128Mi" - name: NAMESPACE displayName: Namespace value: "openshift-logging" 9
- 1
- イベントルーターの
openshift-logging
プロジェクトでサービスアカウントを作成します。 - 2
- ClusterRole を作成し、クラスター内のイベントを監視します。
- 3
- ClusterRoleBinding を作成し、ClusterRole をサービスアカウントにバインドします。
- 4
openshift-logging
プロジェクトで config map を作成し、必要なconfig.json
ファイルを生成します。- 5
openshift-logging
プロジェクトでデプロイメントを作成し、イベントルーター Pod を生成し、設定します。- 6
v0.4
などのタグで識別されるイメージを指定します。- 7
- イベントルーター Pod に割り当てる CPU の最小量を指定します。デフォルトは
100m
に設定されます。 - 8
- イベントルーター Pod に割り当てるメモリーの最小量を指定します。デフォルトは
128Mi
に設定されます。 - 9
- オブジェクトをインストールする
openshift-logging
プロジェクトを指定します。
以下のコマンドを使用してテンプレートを処理し、これを適用します。
$ oc process -f <templatefile> | oc apply -n openshift-logging -f -
以下に例を示します。
$ oc process -f eventrouter.yaml | oc apply -n openshift-logging -f -
出力例
serviceaccount/eventrouter created clusterrole.rbac.authorization.k8s.io/event-reader created clusterrolebinding.rbac.authorization.k8s.io/event-reader-binding created configmap/eventrouter created deployment.apps/eventrouter created
イベントルーターが
openshift-logging
プロジェクトにインストールされていることを確認します。新規イベントルーター Pod を表示します。
$ oc get pods --selector component=eventrouter -o name -n openshift-logging
出力例
pod/cluster-logging-eventrouter-d649f97c8-qvv8r
イベントルーターによって収集されるイベントを表示します。
$ oc logs <cluster_logging_eventrouter_pod> -n openshift-logging
以下に例を示します。
$ oc logs cluster-logging-eventrouter-d649f97c8-qvv8r -n openshift-logging
出力例
{"verb":"ADDED","event":{"metadata":{"name":"openshift-service-catalog-controller-manager-remover.1632d931e88fcd8f","namespace":"openshift-service-catalog-removed","selfLink":"/api/v1/namespaces/openshift-service-catalog-removed/events/openshift-service-catalog-controller-manager-remover.1632d931e88fcd8f","uid":"787d7b26-3d2f-4017-b0b0-420db4ae62c0","resourceVersion":"21399","creationTimestamp":"2020-09-08T15:40:26Z"},"involvedObject":{"kind":"Job","namespace":"openshift-service-catalog-removed","name":"openshift-service-catalog-controller-manager-remover","uid":"fac9f479-4ad5-4a57-8adc-cb25d3d9cf8f","apiVersion":"batch/v1","resourceVersion":"21280"},"reason":"Completed","message":"Job completed","source":{"component":"job-controller"},"firstTimestamp":"2020-09-08T15:40:26Z","lastTimestamp":"2020-09-08T15:40:26Z","count":1,"type":"Normal"}}
また、Elasticsearch
infra
インデックスを使用してインデックスパターンを作成し、Kibana を使用してイベントを表示することもできます。
第11章 ログストレージ
11.1. ログストレージについて
クラスター上の内部 Loki または Elasticsearch ログストアを使用してログを保存したり、ClusterLogForwarder
カスタムリソース (CR) を使用してログを外部ストアに転送したりできます。
11.1.1. ログストレージの種類
Loki は、OpenShift Observability UI で視覚化できる Red Hat OpenShift のログ記録用の GA ログストアとして提供される、水平方向にスケーラブルで可用性の高いマルチテナントログ集約システムです。OpenShift Logging が提供する Loki 設定は、収集されたログを使用してユーザーが迅速にトラブルシューティングを実行できるように設計された短期ログストアです。この目的のために、Loki の Red Hat OpenShift 設定のロギングには短期ストレージがあり、最新のクエリーに最適化されています。長期間にわたる保存やクエリーの場合、ユーザーはクラスター外部のログストアを探す必要があります。
Elasticsearch は、取り込み中に受信ログレコードを完全にインデックス化します。Loki は、取り込み中にいくつかの固定ラベルのみをインデックスに登録し、ログが保存されるまで、より複雑な解析が延期されるのでLoki がより迅速にログを収集できるようになります。
11.1.1.1. Elasticsearch ログストアについて
ロギングの Elasticsearch インスタンスは、約 7 日間の短期間の保存用に最適化され、テストされています。長期間ログを保持する必要がある場合は、データをサードパーティーのストレージシステムに移動することが推奨されます。
Elasticsearch は Fluentd からのログデータをデータストアまたは インデックス に編成し、それぞれのインデックスを シャード と呼ばれる複数の部分に分割します。これは、Elasticsearch クラスターの Elasticsearch ノードセット全体に分散されます。Elasticsearch を、レプリカ と呼ばれるシャードのコピーを作成するように設定できます。Elasticsearch はこれを Elasticsearch ノード全体に分散します。ClusterLogging
カスタムリソース (CR) により、データの冗長性および耐障害性を確保するためにシャードを複製する方法を指定できます。また、ClusterLogging
CR の保持ポリシーを使用して各種のログが保持される期間を指定することもできます。
インデックステンプレートのプライマリーシャードの数は Elasticsearch データノードの数と等しくなります。
Red Hat OpenShift Logging Operator および OpenShift Elasticsearch Operator は、各 Elasticsearch ノードが独自のストレージボリュームを含む一意のデプロイメントを使用してデプロイされるようにします。ClusterLogging
カスタムリソース (CR) を使用して Elasticsearch ノードの数を適宜増やすことができます。ストレージの設定に関する考慮事項は、Elasticsearch ドキュメント を参照してください。
可用性の高い Elasticsearch 環境には 3 つ以上の Elasticsearch ノードが必要で、それぞれが別のホストに置かれる必要があります。
Elasticsearch インデックスに適用されているロールベースアクセス制御 (RBAC) は、開発者のログの制御アクセスを可能にします。管理者はすべてのログに、開発者は各自のプロジェクトのログにのみアクセスできます。
11.1.2. ログストアのクエリー
LogQL ログクエリー言語を使用して Loki にクエリー を実行できます。
11.1.3. 関連情報
11.2. ログストレージのインストール
OpenShift CLI (oc
) または OpenShift Container Platform Web コンソールを使用して、OpenShift Container Platform クラスターにログストアをデプロイできます。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
11.2.1. Loki ログストアのデプロイ
Loki Operator を使用して、OpenShift Container Platform クラスターに内部 Loki ログストアをデプロイできます。Loki Operator をインストールした後、シークレットを作成することで Loki オブジェクトストレージを設定し、LokiStack
カスタムリソース (CR) を作成する必要があります。
11.2.1.1. Loki デプロイメントのサイズ
Loki のサイズは 1x.<size>
の形式に従います。この場合の 1x
はインスタンスの数を、<size>
は性能を指定します。
デプロイメントサイズの 1x
の数は変更できません。
1x.demo | 1x.extra-small | 1x.small | 1x.medium | |
---|---|---|---|---|
Data transfer | デモ使用のみ | 100 GB/日 | 500 GB/日 | 2 TB/日 |
1 秒あたりのクエリー数 (QPS) | デモ使用のみ | 200 ミリ秒で 1 - 25 QPS | 200 ミリ秒で 25 - 50 QPS | 200 ミリ秒で 25 - 75 QPS |
レプリケーション係数 | なし | 2 | 2 | 2 |
合計 CPU 要求 | なし | 仮想 CPU 14 個 | 仮想 CPU 34 個 | 仮想 CPU 54 個 |
ルーラーを使用する場合の合計 CPU リクエスト | なし | 仮想 CPU 16 個 | 仮想 CPU 42 個 | 仮想 CPU 70 個 |
合計メモリー要求 | なし | 31 Gi | 67 Gi | 139 Gi |
ルーラーを使用する場合の合計メモリーリクエスト | なし | 35Gi | 83 Gi | 171 Gi |
合計ディスク要求 | 40Gi | 430 Gi | 430 Gi | 590 Gi |
ルーラーを使用する場合の合計ディスクリクエスト | 80Gi | 750 Gi | 750 Gi | 910Gi |
11.2.1.2. Web コンソールを使用してロギングと Loki Operator をインストールする
OpenShift Container Platform クラスターにログをインストールして設定するには、まずログストレージ用の Loki Operator などの Operator をインストールする必要があります。これは、Web コンソールの Operator Hub から実行できます。
前提条件
- サポートされているオブジェクトストア (AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation) にアクセスできる。
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスできる。
手順
- OpenShift Container Platform Web コンソールの Administrator パースペクティブで、Operators → OperatorHub に移動します。
Filter by keyword フィールドに Loki Operator と入力します。使用可能な Operator のリストで Loki Operator をクリックし、Install をクリックします。
重要Community Loki Operator は Red Hat ではサポートされていません。
Update channel として stable または stable-x.y を選択します。
注記stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。
x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。Loki Operator はグローバルオペレーターグループ namespace である
openshift-operators-redhat
にデプロイする必要があるため、Installation mode と Installed Namespace がすでに選択されています。この namespace がない場合は、自動的に作成されます。Enable Operator-recommended cluster monitoring on this namespace. を選択します。
このオプションは、
Namespace
オブジェクトにopenshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-operators-redhat
namespace を収集できるように、このオプションを選択する必要があります。Update approva で Automatic を選択し、Install をクリックします。
サブスクリプションの承認ストラテジーが Automatic に設定されている場合、アップグレードプロセスは、選択したチャネルで新規 Operator バージョンが利用可能になるとすぐに開始します。承認ストラテジーが Manual に設定されている場合は、保留中のアップグレードを手動で承認する必要があります。
Red Hat OpenShift Logging Operator をインストールします。
- OpenShift Container Platform Web コンソールで、Operators → OperatorHub をクリックします。
- 利用可能な Operator のリストから Red Hat OpenShift Logging を選択し、Install をクリックします。
- A specific namespace on the cluster が Installation Mode で選択されていることを確認します。
- Operator recommended namespace が Installed Namespace で openshift-logging になっていることを確認します。
Enable Operator recommended cluster monitoring on this namespace を選択します。
このオプションは、namespace オブジェクトに
openshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-logging
namespace を収集できるように、このオプションを選択する必要があります。- Update Channel として stable-5.y を選択します。
Approval Strategy を選択します。
- Automatic ストラテジーにより、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。
- Manual ストラテジーには、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。
- Install をクリックします。
- Operators → Installed Operators ページに移動します。All instances タブをクリックします。
- Create new ドロップダウンリストから、LokiStack を選択します。
YAML view を選択し、次のテンプレートを使用して
LokiStack
CR を作成します。LokiStack
CR の例apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging 2 spec: size: 1x.small 3 storage: schemas: - version: v13 effectiveDate: "<yyyy>-<mm>-<dd>" secret: name: logging-loki-s3 4 type: s3 5 credentialMode: 6 storageClassName: <storage_class_name> 7 tenants: mode: openshift-logging 8
- 1
logging-loki
という名前を使用します。- 2
openshift-logging
namespace を指定する必要があります。- 3
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 4
- ログストアシークレットの名前を指定します。
- 5
- 対応するストレージタイプを指定します。
- 6
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。static は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token は、認証情報ソースから取得された有効期間の短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。token-cco は、Loki がマネージド STS モードで実行し、STS/WIF クラスターで CCO を使用している場合のデフォルト値です。
- 7
- 一時ストレージのストレージクラスの名前を指定します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。 - 8
- LokiStack はデフォルトでマルチテナントモードで実行されます。このデフォルト設定は変更できません。ログの種類 (監査ログ、インフラストラクチャーログ、アプリケーションログ) ごとに 1 つのテナントが提供されます。これにより、個々のユーザーおよびユーザーグループのさまざまなログストリームのアクセス制御が可能になります。
重要デプロイメントサイズの
1x
の数は変更できません。- Create をクリックします。
OpenShift Logging インスタンスを作成します。
- Administration → Custom Resource Definitions ページに切り替えます。
- Custom Resource Definitions ページで、ClusterLogging をクリックします。
- Custom Resource Definition details ページで、Actions メニューから View Instances を選択します。
ClusterLoggings ページで、Create ClusterLogging をクリックします。
データを読み込むためにページの更新が必要になる場合があります。
YAML フィールドで、コードを以下に置き換えます。
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging 2 spec: collection: type: vector logStore: lokistack: name: logging-loki type: lokistack visualization: type: ocp-console ocpConsole: logsLimit: 15 managementState: Managed
検証
- Operators → Installed Operators に移動します。
- openshift-logging プロジェクトが選択されていることを確認します。
- Status 列に、緑色のチェックマークおよび InstallSucceeded と、Up to date というテキストが表示されていることを確認します。
インストールが完了する前に、Operator に Failed
ステータスが表示される場合があります。InstallSucceeded
メッセージが表示されて Operator のインストールが完了した場合は、ページを更新します。
11.2.1.3. Web コンソールを使用して Loki オブジェクトストレージのシークレットを作成する
Loki オブジェクトストレージを設定するには、シークレットを作成する必要があります。OpenShift Container Platform Web コンソールを使用してシークレットを作成できます。
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスできる。
- Loki Operator がインストールされている。
手順
- OpenShift Container Platform Web コンソールの Administrator パースペクティブで、Workloads → Secrets に移動します。
- Create ドロップダウンリストから、From YAML を選択します。
access_key_id
フィールドとaccess_key_secret
フィールドを使用して認証情報を指定し、bucketnames
、endpoint
、およびregion
フィールドを使用してオブジェクトの保存場所を定義するシークレットを作成します。次の例では、AWS が使用されています。Secret
オブジェクトの例apiVersion: v1 kind: Secret metadata: name: logging-loki-s3 namespace: openshift-logging stringData: access_key_id: AKIAIOSFODNN7EXAMPLE access_key_secret: wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY bucketnames: s3-bucket-name endpoint: https://s3.eu-central-1.amazonaws.com region: eu-central-1
関連情報
11.2.2. 短期認証情報を使用するクラスターに Loki ログストアのデプロイ
一部のストレージプロバイダーでは、インストール時に CCO ユーティリティー (ccoctl
) を使用して、短期認証情報を実装できます。これらの認証情報は、OpenShift Container Platform クラスターの外部で作成および管理されます。コンポーネントの短期認証情報を使用した手動モード
この認証情報ストラテジーを使用するクラスターでは、Loki Operator の新規インストール中に短期認証情報の認証を設定する必要があります。この機能を使用するために、既存のクラスターが別のクレデンシャルストラテジーを使用するように設定することはできません。
11.2.2.1. ワークロードアイデンティティーフェデレーション
ワークロードアイデンティティーフェデレーションを使用すると、有効期間の短いトークンを使用してクラウドベースのログストアに対して認証できます。
前提条件
- OpenShift Container Platform 4.14 以降
- Logging 5.9 以降
手順
-
OpenShift Container Platform Web コンソールを使用して Loki Operator をインストールすると、有効期間が短いトークンを使用するクラスターが自動的に検出されます。プロンプトが表示され、ロールを作成するように求められます。また、Loki Operator が
CredentialsRequest
オブジェクトを作成するのに必要なデータを提供するように求められます。このオブジェクトにより、シークレットが設定されます。 -
OpenShift CLI (
oc
) を使用して Loki Operator をインストールする場合は、次の例に示すように、ストレージプロバイダーに適したテンプレートを使用してサブスクリプションオブジェクトを手動で作成する必要があります。この認証ストラテジーは、指定のストレージプロバイダーでのみサポートされます。
Azure のサンプルサブスクリプション
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat spec: channel: "stable-5.9" installPlanApproval: Manual name: loki-operator source: redhat-operators sourceNamespace: openshift-marketplace config: env: - name: CLIENTID value: <your_client_id> - name: TENANTID value: <your_tenant_id> - name: SUBSCRIPTIONID value: <your_subscription_id> - name: REGION value: <your_region>
AWS のサンプルサブスクリプション
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat spec: channel: "stable-5.9" installPlanApproval: Manual name: loki-operator source: redhat-operators sourceNamespace: openshift-marketplace config: env: - name: ROLEARN value: <role_ARN>
11.2.2.2. Web コンソールを使用して LokiStack カスタムリソースを作成する
OpenShift Container Platform Web コンソールを使用して、LokiStack
カスタムリソース (CR) を作成できます。
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールにアクセスできる。
- Loki Operator がインストールされている。
手順
- Operators → Installed Operators ページに移動します。All instances タブをクリックします。
- Create new ドロップダウンリストから、LokiStack を選択します。
YAML view を選択し、次のテンプレートを使用して
LokiStack
CR を作成します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging spec: size: 1x.small 2 storage: schemas: - effectiveDate: '2023-10-15' version: v13 secret: name: logging-loki-s3 3 type: s3 4 credentialMode: 5 storageClassName: <storage_class_name> 6 tenants: mode: openshift-logging
- 1
logging-loki
という名前を使用します。- 2
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 3
- ログストレージに使用するシークレットを指定します。
- 4
- 対応するストレージタイプを指定します。
- 5
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。
static
は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token
は、認証情報ソースから取得される有効期間が短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。Loki がマネージド STS モードで実行されていて、STS/WIF クラスターで CCO を使用している場合、token-cco
がデフォルト値です。 - 6
- 一時ストレージのストレージクラスの名前を入力します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。
11.2.2.3. CLI を使用してロギングと Loki Operator をインストールする
OpenShift Container Platform クラスターにログをインストールして設定するには、まずログストレージ用の Loki Operator などの Operator をインストールする必要があります。これは、OpenShift Container Platform CLI から実行できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - サポートされているオブジェクトストアにアクセスできる。例: AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation。
stable チャネルは、Logging の最新リリースを対象とする更新のみを提供します。以前のリリースの更新を引き続き受信するには、サブスクリプションチャネルを stable-x.y に変更する必要があります。x.y
は、インストールしたログのメジャーバージョンとマイナーバージョンを表します。たとえば、stable-5.7 です。
Loki Operator の
Namespace
オブジェクトを作成します。Namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-operators-redhat 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-monitoring: "true" 2
- 1
openshift-operators-redhat
namespace を指定する必要があります。メトリクスとの競合が発生する可能性を防ぐには、Prometheus のクラスターモニタリングスタックを、openshift-operators
namespace からではなく、openshift-operators-redhat
namespace からメトリクスを収集するように設定する必要があります。openshift-operators
namespace には信頼されていないコミュニティー Operator が含まれる可能性があり、OpenShift Container Platform メトリックと同じ名前でメトリックを公開する可能性があるため、これによって競合が生じる可能性があります。- 2
- クラスターモニタリングが
openshift-operators-redhat
namespace をスクレイピングできるようにするために、示されているラベルを指定する文字列値。
次のコマンドを実行して、
Namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Loki Operator の
Subscription
オブジェクトを作成します。Subscription
オブジェクトの例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: loki-operator namespace: openshift-operators-redhat 1 spec: channel: stable 2 name: loki-operator source: redhat-operators 3 sourceNamespace: openshift-marketplace
以下のコマンドを実行して
Subscription
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Red Hat OpenShift Logging Operator の
namespace
オブジェクトを作成します。namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: openshift-logging 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-logging: "true" openshift.io/cluster-monitoring: "true" 2
次のコマンドを実行して、
namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OperatorGroup
オブジェクトを作成します。OperatorGroup
オブジェクトのサンプルapiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: cluster-logging namespace: openshift-logging 1 spec: targetNamespaces: - openshift-logging
- 1
openshift-logging
namespace を指定する必要があります。
以下のコマンドを実行して
OperatorGroup
オブジェクトを適用します。$ oc apply -f <filename>.yaml
Subscription
オブジェクトを作成します。apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: cluster-logging namespace: openshift-logging 1 spec: channel: stable 2 name: cluster-logging source: redhat-operators 3 sourceNamespace: openshift-marketplace
以下のコマンドを実行して
Subscription
オブジェクトを適用します。$ oc apply -f <filename>.yaml
LokiStack
CR を作成します。LokiStack
CR の例apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging 2 spec: size: 1x.small 3 storage: schemas: - version: v13 effectiveDate: "<yyyy>-<mm>-<dd>" secret: name: logging-loki-s3 4 type: s3 5 credentialMode: 6 storageClassName: <storage_class_name> 7 tenants: mode: openshift-logging 8
- 1
logging-loki
という名前を使用します。- 2
openshift-logging
namespace を指定する必要があります。- 3
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 4
- ログストアシークレットの名前を指定します。
- 5
- 対応するストレージタイプを指定します。
- 6
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。
static
は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token
は、認証情報ソースから取得される有効期間が短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。Loki がマネージド STS モードで実行されていて、STS/WIF クラスターで CCO を使用している場合、token-cco
がデフォルト値です。 - 7
- 一時ストレージのストレージクラスの名前を指定します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。 - 8
- LokiStack はデフォルトでマルチテナントモードで実行されます。このデフォルト設定は変更できません。ログの種類 (監査ログ、インフラストラクチャーログ、アプリケーションログ) ごとに 1 つのテナントが提供されます。これにより、個々のユーザーおよびユーザーグループのさまざまなログストリームのアクセス制御が可能になります。
次のコマンドを実行して、
LokiStack CR
オブジェクトを適用します。$ oc apply -f <filename>.yaml
ClusterLogging
CR オブジェクトを作成します。ClusterLogging CR オブジェクトの例
apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance 1 namespace: openshift-logging 2 spec: collection: type: vector logStore: lokistack: name: logging-loki type: lokistack visualization: type: ocp-console ocpConsole: logsLimit: 15 managementState: Managed
次のコマンドを実行して
ClusterLogging CR
オブジェクトを適用します。$ oc apply -f <filename>.yaml
次のコマンドを実行して、インストールを確認します。
$ oc get pods -n openshift-logging
出力例
$ oc get pods -n openshift-logging NAME READY STATUS RESTARTS AGE cluster-logging-operator-fb7f7cf69-8jsbq 1/1 Running 0 98m collector-222js 2/2 Running 0 18m collector-g9ddv 2/2 Running 0 18m collector-hfqq8 2/2 Running 0 18m collector-sphwg 2/2 Running 0 18m collector-vv7zn 2/2 Running 0 18m collector-wk5zz 2/2 Running 0 18m logging-view-plugin-6f76fbb78f-n2n4n 1/1 Running 0 18m lokistack-sample-compactor-0 1/1 Running 0 42m lokistack-sample-distributor-7d7688bcb9-dvcj8 1/1 Running 0 42m lokistack-sample-gateway-5f6c75f879-bl7k9 2/2 Running 0 42m lokistack-sample-gateway-5f6c75f879-xhq98 2/2 Running 0 42m lokistack-sample-index-gateway-0 1/1 Running 0 42m lokistack-sample-ingester-0 1/1 Running 0 42m lokistack-sample-querier-6b7b56bccc-2v9q4 1/1 Running 0 42m lokistack-sample-query-frontend-84fb57c578-gq2f7 1/1 Running 0 42m
11.2.2.4. CLI を使用して Loki オブジェクトストレージのシークレットを作成する
Loki オブジェクトストレージを設定するには、シークレットを作成する必要があります。これは、OpenShift CLI (oc
) を使用して実行できます。
前提条件
- 管理者権限がある。
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。
手順
次のコマンドを使用して、証明書とキーファイルが含まれるディレクトリーにシークレットを作成できます。
$ oc create secret generic -n openshift-logging <your_secret_name> \ --from-file=tls.key=<your_key_file> --from-file=tls.crt=<your_crt_file> --from-file=ca-bundle.crt=<your_bundle_file> --from-literal=username=<your_username> --from-literal=password=<your_password>
最良の結果を得るには、generic または opaque シークレットを使用してください。
検証
次のコマンドを実行して、シークレットが作成されたことを確認します。
$ oc get secrets
関連情報
11.2.2.5. CLI を使用して LokiStack カスタムリソースを作成する
OpenShift CLI (oc
) を使用して、LokiStack
カスタムリソース (CR) を作成できます。
前提条件
- 管理者権限がある。
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。
手順
LokiStack
CR を作成します。LokiStack
CR の例apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging spec: size: 1x.small 2 storage: schemas: - effectiveDate: '2023-10-15' version: v13 secret: name: logging-loki-s3 3 type: s3 4 credentialMode: 5 storageClassName: <storage_class_name> 6 tenants: mode: openshift-logging
- 1
logging-loki
という名前を使用します。- 2
- デプロイメントサイズを指定します。ロギング 5.8 以降のバージョンでは、Loki の実稼働インスタンスでサポートされているサイズオプションは
1x.extra-small
、1x.small
、または1x.medium
です。 - 3
- ログストレージに使用するシークレットを指定します。
- 4
- 対応するストレージタイプを指定します。
- 5
- 任意のフィールド、Logging 5.9 以降。サポートされているユーザー設定値は、次のとおりです。
static
は、シークレットに保存された認証情報を使用する、サポートされているすべてのオブジェクトストレージタイプで使用できるデフォルトの認証モードです。token
は、認証情報ソースから取得される有効期間が短いトークンです。このモードでは、オブジェクトストレージに必要な認証情報が静的設定に格納されません。代わりに、実行時にサービスを使用して認証情報が生成されるため、有効期間が短い認証情報の使用と、よりきめ細かい制御が可能になります。この認証モードは、すべてのオブジェクトストレージタイプでサポートされているわけではありません。Loki がマネージド STS モードで実行されていて、STS/WIF クラスターで CCO を使用している場合、token-cco
がデフォルト値です。 - 6
- 一時ストレージのストレージクラスの名前を入力します。最適なパフォーマンスを得るには、ブロックストレージを割り当てるストレージクラスを指定します。クラスターで使用可能なストレージクラスは、
oc get storageclasses
コマンドを使用してリスト表示できます。
-
次のコマンドを実行して、
LokiStack
CR を適用します。
検証
次のコマンドを実行して出力を観察し、
openshift-logging
プロジェクト内の Pod をリスト表示してインストールを確認します。$ oc get pods -n openshift-logging
次のリストのように、ロギングコンポーネント用の Pod が複数表示されていることを確認します。
出力例
NAME READY STATUS RESTARTS AGE cluster-logging-operator-78fddc697-mnl82 1/1 Running 0 14m collector-6cglq 2/2 Running 0 45s collector-8r664 2/2 Running 0 45s collector-8z7px 2/2 Running 0 45s collector-pdxl9 2/2 Running 0 45s collector-tc9dx 2/2 Running 0 45s collector-xkd76 2/2 Running 0 45s logging-loki-compactor-0 1/1 Running 0 8m2s logging-loki-distributor-b85b7d9fd-25j9g 1/1 Running 0 8m2s logging-loki-distributor-b85b7d9fd-xwjs6 1/1 Running 0 8m2s logging-loki-gateway-7bb86fd855-hjhl4 2/2 Running 0 8m2s logging-loki-gateway-7bb86fd855-qjtlb 2/2 Running 0 8m2s logging-loki-index-gateway-0 1/1 Running 0 8m2s logging-loki-index-gateway-1 1/1 Running 0 7m29s logging-loki-ingester-0 1/1 Running 0 8m2s logging-loki-ingester-1 1/1 Running 0 6m46s logging-loki-querier-f5cf9cb87-9fdjd 1/1 Running 0 8m2s logging-loki-querier-f5cf9cb87-fp9v5 1/1 Running 0 8m2s logging-loki-query-frontend-58c579fcb7-lfvbc 1/1 Running 0 8m2s logging-loki-query-frontend-58c579fcb7-tjf9k 1/1 Running 0 8m2s logging-view-plugin-79448d8df6-ckgmx 1/1 Running 0 46s
11.2.3. Loki オブジェクトストレージ
Loki Operator は、AWS S3 だけでなく、Minio や OpenShift Data Foundation などの他の S3 互換オブジェクトストアもサポートしています。Azure、GCS、および Swift もサポートされています。
Loki ストレージの推奨命名法は、logging-loki-<your_storage_provider>
です。
次の表は、各ストレージプロバイダーの LokiStack
カスタムリソース (CR) 内の type
値を示しています。詳細は、ストレージプロバイダーに関するセクションを参照してください。
ストレージプロバイダー | シークレットの type 値 |
---|---|
AWS | s3 |
Azure | azure |
Google Cloud | gcs |
Minio | s3 |
OpenShift Data Foundation | s3 |
Swift | swift |
11.2.3.1. AWS ストレージ
前提条件
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。 - AWS 上に バケット を作成している。
- AWS IAM ポリシーと IAM ユーザー を作成している。
手順
次のコマンドを実行して、
logging-loki-aws
という名前のオブジェクトストレージシークレットを作成します。$ oc create secret generic logging-loki-aws \ --from-literal=bucketnames="<bucket_name>" \ --from-literal=endpoint="<aws_bucket_endpoint>" \ --from-literal=access_key_id="<aws_access_key_id>" \ --from-literal=access_key_secret="<aws_access_key_secret>" \ --from-literal=region="<aws_region_of_your_bucket>"
11.2.3.1.1. STS 対応クラスターの AWS ストレージ
クラスターで STS が有効になっている場合、Cloud Credential Operator (CCO) によって AWS トークンを使用した短期認証がサポートされます。
次のコマンドを実行すると、Loki オブジェクトストレージシークレットを手動で作成できます。
$ oc -n openshift-logging create secret generic "logging-loki-aws" \
--from-literal=bucketnames="<s3_bucket_name>" \
--from-literal=region="<bucket_region>" \
--from-literal=audience="<oidc_audience>" 1
- 1
- 任意のアノテーション。デフォルト値は
openshift
です。
11.2.3.2. Azure ストレージ
前提条件
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。 - Azure 上に バケット を作成している。
手順
次のコマンドを実行して、
logging-loki-azure
という名前のオブジェクトストレージシークレットを作成します。$ oc create secret generic logging-loki-azure \ --from-literal=container="<azure_container_name>" \ --from-literal=environment="<azure_environment>" \ 1 --from-literal=account_name="<azure_account_name>" \ --from-literal=account_key="<azure_account_key>"
- 1
- サポートされている環境値は、
AzureGlobal
、AzureChinaCloud
、AzureGermanCloud
、AzureUSGovernment
です。
11.2.3.2.1. Microsoft Entra Workload ID 対応クラスター用の Azure ストレージ
クラスターで Microsoft Entra Workload ID が有効になっている場合、Cloud Credential Operator (CCO) は Workload ID を使用した短期認証をサポートします。
次のコマンドを実行すると、Loki オブジェクトストレージシークレットを手動で作成できます。
$ oc -n openshift-logging create secret generic logging-loki-azure \ --from-literal=environment="<azure_environment>" \ --from-literal=account_name="<storage_account_name>" \ --from-literal=container="<container_name>"
11.2.3.3. Google Cloud Platform ストレージ
前提条件
手順
-
GCP から受け取ったサービスアカウントの認証情報を
key.json
という名前のファイルにコピーします。 次のコマンドを実行して、
logging-loki-gcs
という名前のオブジェクトストレージシークレットを作成します。$ oc create secret generic logging-loki-gcs \ --from-literal=bucketname="<bucket_name>" \ --from-file=key.json="<path/to/key.json>"
11.2.3.4. Minio ストレージ
前提条件
手順
次のコマンドを実行して、
logging-loki-minio
という名前のオブジェクトストレージシークレットを作成します。$ oc create secret generic logging-loki-minio \ --from-literal=bucketnames="<bucket_name>" \ --from-literal=endpoint="<minio_bucket_endpoint>" \ --from-literal=access_key_id="<minio_access_key_id>" \ --from-literal=access_key_secret="<minio_access_key_secret>"
11.2.3.5. OpenShift Data Foundation ストレージ
前提条件
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。 - OpenShift Data Foundation がデプロイされている。
- OpenShift Data Foundation クラスターを オブジェクトストレージ用 に設定している。
手順
openshift-logging
namespace にObjectBucketClaim
カスタムリソースを作成します。apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: loki-bucket-odf namespace: openshift-logging spec: generateBucketName: loki-bucket-odf storageClassName: openshift-storage.noobaa.io
次のコマンドを実行して、関連付けられた
ConfigMap
オブジェクトからバケットのプロパティーを取得します。BUCKET_HOST=$(oc get -n openshift-logging configmap loki-bucket-odf -o jsonpath='{.data.BUCKET_HOST}') BUCKET_NAME=$(oc get -n openshift-logging configmap loki-bucket-odf -o jsonpath='{.data.BUCKET_NAME}') BUCKET_PORT=$(oc get -n openshift-logging configmap loki-bucket-odf -o jsonpath='{.data.BUCKET_PORT}')
次のコマンドを実行して、関連付けられたシークレットからバケットアクセスキーを取得します。
ACCESS_KEY_ID=$(oc get -n openshift-logging secret loki-bucket-odf -o jsonpath='{.data.AWS_ACCESS_KEY_ID}' | base64 -d) SECRET_ACCESS_KEY=$(oc get -n openshift-logging secret loki-bucket-odf -o jsonpath='{.data.AWS_SECRET_ACCESS_KEY}' | base64 -d)
次のコマンドを実行して、
logging-loki-odf
という名前のオブジェクトストレージシークレットを作成します。$ oc create -n openshift-logging secret generic logging-loki-odf \ --from-literal=access_key_id="<access_key_id>" \ --from-literal=access_key_secret="<secret_access_key>" \ --from-literal=bucketnames="<bucket_name>" \ --from-literal=endpoint="https://<bucket_host>:<bucket_port>"
11.2.3.6. Swift ストレージ:
前提条件
- Loki Operator がインストールされている。
-
OpenShift CLI (
oc
) がインストールされている。 - Swift 上で バケット を作成している。
手順
次のコマンドを実行して、
logging-loki-swift
という名前のオブジェクトストレージシークレットを作成します。$ oc create secret generic logging-loki-swift \ --from-literal=auth_url="<swift_auth_url>" \ --from-literal=username="<swift_usernameclaim>" \ --from-literal=user_domain_name="<swift_user_domain_name>" \ --from-literal=user_domain_id="<swift_user_domain_id>" \ --from-literal=user_id="<swift_user_id>" \ --from-literal=password="<swift_password>" \ --from-literal=domain_id="<swift_domain_id>" \ --from-literal=domain_name="<swift_domain_name>" \ --from-literal=container_name="<swift_container_name>"
必要に応じて、次のコマンドを実行して、プロジェクト固有のデータ、リージョン、またはその両方を指定できます。
$ oc create secret generic logging-loki-swift \ --from-literal=auth_url="<swift_auth_url>" \ --from-literal=username="<swift_usernameclaim>" \ --from-literal=user_domain_name="<swift_user_domain_name>" \ --from-literal=user_domain_id="<swift_user_domain_id>" \ --from-literal=user_id="<swift_user_id>" \ --from-literal=password="<swift_password>" \ --from-literal=domain_id="<swift_domain_id>" \ --from-literal=domain_name="<swift_domain_name>" \ --from-literal=container_name="<swift_container_name>" \ --from-literal=project_id="<swift_project_id>" \ --from-literal=project_name="<swift_project_name>" \ --from-literal=project_domain_id="<swift_project_domain_id>" \ --from-literal=project_domain_name="<swift_project_domain_name>" \ --from-literal=region="<swift_region>"
11.2.4. Elasticsearch ログストアのデプロイ
OpenShift Elasticsearch Operator を使用して、OpenShift Container Platform クラスターに内部 Elasticsearch ログストアをデプロイできます。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
11.2.4.1. Elasticsearch のストレージに関する考慮事項
永続ボリュームがそれぞれの Elasticsearch デプロイメント設定に必要です。OpenShift Container Platform では、これは永続ボリューム要求 (PVC) を使用して実行されます。
永続ストレージにローカルボリュームを使用する場合は、LocalVolume
オブジェクトの volumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。
OpenShift Elasticsearch Operator は Elasticsearch リソース名を使用して PVC に名前を付けます。
Fluentd は systemd ジャーナル および /var/log/containers/*.log から Elasticsearch にログを送信します。
Elasticsearch では、大規模なマージ操作を実行するのに十分なメモリーが必要です。十分なメモリーがない場合は、応答しなくなります。この問題を回避するには、必要なアプリケーションのログデータの量を評価し、空き容量の約 2 倍を割り当てます。
デフォルトで、ストレージ容量が 85% に達すると、Elasticsearch は新規データのノードへの割り当てを停止します。90% になると、Elasticsearch は可能な場合に既存のシャードをそのノードから他のノードに移動しようとします。ただし、空き容量のレベルが 85% 未満のノードがない場合、Elasticsearch は新規インデックスの作成を拒否し、ステータスは RED になります。
これらの基準値 (高い値および低い値を含む) は現行リリースにおける Elasticsearch のデフォルト値です。これらのデフォルト値は変更できます。アラートは同じデフォルト値を使用しますが、これらの値をアラートで変更することはできません。
11.2.4.2. Web コンソールを使用した OpenShift Elasticsearch Operator のインストール
OpenShift Elasticsearch Operator は、OpenShift Logging によって使用される Elasticsearch クラスターを作成し、管理します。
前提条件
Elasticsearch はメモリー集約型アプリケーションです。それぞれの Elasticsearch ノードには、
ClusterLogging
カスタムリソースで指定しない限り、メモリー要求および制限の両方に 16GB 以上のメモリーが必要です。初期設定の OpenShift Container Platform ノードのセットは、Elasticsearch クラスターをサポートするのに十分な大きさではない場合があります。その場合、推奨されるサイズ以上のメモリー (各 Elasticsearch ノードに最大 64GB) を使用して実行できるようにノードを OpenShift Container Platform クラスターに追加する必要があります。
Elasticsearch ノードはこれより低い値のメモリー設定でも動作しますが、これは実稼働環境には推奨されません。
Elasticsearch の必要な永続ストレージがあることを確認します。各 Elasticsearch ノードには独自のストレージボリュームが必要であることに注意してください。
注記永続ストレージにローカルボリュームを使用する場合は、
LocalVolume
オブジェクトのvolumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。
手順
- OpenShift Container Platform Web コンソールで、Operators → OperatorHub をクリックします。
- 利用可能な Operator のリストから OpenShift Elasticsearch Operator、Install の順にクリックします。
- All namespaces on the cluster が Installation mode で選択されていることを確認します。
openshift-operators-redhat が Installed Namespace で選択されていることを確認します。
openshift-operators-redhat
namespace を指定する必要があります。openshift-operators
namespace にはコミュニティーの Operator が含まれている場合があります。コミュニティーの Operator は信頼されたものではなく、OpenShift Container Platform のメトリクスと同じ名前のメトリクスを公開する可能性があります。これにより、競合が発生することがあります。Enable operator recommended cluster monitoring on this namespace を選択します。
このオプションは、
Namespace
オブジェクトにopenshift.io/cluster-monitoring: "true"
ラベルを設定します。クラスターモニタリングがopenshift-operators-redhat
namespace を収集できるように、このオプションを選択する必要があります。- Update Channel として stable-5.x を選択します。
Update approval strategy を選択します。
- Automatic ストラテジーにより、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。
- Manual ストラテジーには、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。
- Install をクリックします。
検証
- Operators → Installed Operators ページに切り替えて、OpenShift Elasticsearch Operator がインストールされていることを確認します。
- Status が Succeeded の状態で、OpenShift Elasticsearch Operator がすべてのプロジェクトにリスト表示されていることを確認します。
11.2.4.3. CLI を使用して OpenShift Elasticsearch Operator をインストールする
OpenShift CLI (oc
) を使用して、OpenShift Elasticsearch Operator をインストールできます。
前提条件
Elasticsearch の必要な永続ストレージがあることを確認します。各 Elasticsearch ノードには独自のストレージボリュームが必要であることに注意してください。
注記永続ストレージにローカルボリュームを使用する場合は、
LocalVolume
オブジェクトのvolumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。Elasticsearch はメモリー集約型アプリケーションです。デフォルトで、OpenShift Container Platform はメモリー要求および 16 GB の制限を持つ 3 つの Elasticsearch ノードをインストールします。OpenShift Container Platform ノードの最初の 3 つのセットには、Elasticsearch をクラスター内で実行するのに十分なメモリーがない可能性があります。Elasticsearch に関連するメモリーの問題が発生した場合は、既存ノードのメモリーを増やすのではなく、Elasticsearch ノードをクラスターにさらに追加します。
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。
手順
Namespace
オブジェクトを、YAML ファイルとして作成します。apiVersion: v1 kind: Namespace metadata: name: openshift-operators-redhat 1 annotations: openshift.io/node-selector: "" labels: openshift.io/cluster-monitoring: "true" 2
- 1
openshift-operators-redhat
namespace を指定する必要があります。メトリクスとの競合が発生する可能性を防ぐには、Prometheus のクラスターモニタリングスタックを、openshift-operators
namespace からではなく、openshift-operators-redhat
namespace からメトリクスを収集するように設定します。openshift-operators
namespace にはコミュニティーの Operator が含まれている場合があります。コミュニティーの Operator は信頼されたものではなく、メトリクスと同じ名前のメトリクスを公開する可能性があります。これにより、競合が発生することがあります。- 2
- String。クラスターモニタリングが
openshift-operators-redhat
namespace を収集できるように、このラベルを上記のように指定する必要があります。
次のコマンドを実行して、
Namespace
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OperatorGroup
オブジェクトを、YAML ファイルとして作成します。apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: openshift-operators-redhat namespace: openshift-operators-redhat 1 spec: {}
- 1
openshift-operators-redhat
namespace を指定する必要があります。
以下のコマンドを実行して
OperatorGroup
オブジェクトを適用します。$ oc apply -f <filename>.yaml
OpenShift Elasticsearch Operator に namespace をサブスクライブするための
Subscription
オブジェクトを作成します。Subscription の例
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: elasticsearch-operator namespace: openshift-operators-redhat 1 spec: channel: stable-x.y 2 installPlanApproval: Automatic 3 source: redhat-operators 4 sourceNamespace: openshift-marketplace name: elasticsearch-operator
- 1
openshift-operators-redhat
namespace を指定する必要があります。- 2
- チャネルとして
stable
またはstable-x.y
を指定します。以下の注意点を参照してください。 - 3
Automatic
により、Operator Lifecycle Manager (OLM) は新規バージョンが利用可能になると Operator を自動的に更新できます。Manual
には、Operator の更新を承認するための適切な認証情報を持つユーザーが必要です。- 4
redhat-operators
を指定します。OpenShift Container Platform クラスターが、非接続クラスターとも呼ばれるネットワークが制限された環境でインストールされている場合、Operator Lifecycle Manager (OLM) の設定時に作成されるCatalogSource
オブジェクトの名前を指定します。
注記stable
を指定すると、最新の安定したリリースの現行バージョンがインストールされます。stable
をinstallPlanApproval: "Automatic"
とともに使用すると、Operator が最新の安定したメジャーリリースとマイナーリリースに自動的にアップグレードされます。stable-x.y
を指定すると、特定のメジャーリリースの現在のマイナーバージョンがインストールされます。stable-x.y
をinstallPlanApproval: "Automatic"
と併せて使用すると、Operator がメジャーリリース内の最新の stable マイナーリリースに自動的にアップグレードされます。次のコマンドを実行して、サブスクリプションを適用します。
$ oc apply -f <filename>.yaml
OpenShift Elasticsearch Operator は
openshift-operators-redhat
namespace にインストールされ、クラスター内の各プロジェクトにコピーされます。
検証
以下のコマンドを実行します。
$ oc get csv -n --all-namespaces
出力を観察し、OpenShift Elasticsearch Operator の Pod が各 namespace に存在することを確認します。
出力例
NAMESPACE NAME DISPLAY VERSION REPLACES PHASE default elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded kube-node-lease elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded kube-public elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded kube-system elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded non-destructive-test elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded openshift-apiserver-operator elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded openshift-apiserver elasticsearch-operator.v5.8.1 OpenShift Elasticsearch Operator 5.8.1 elasticsearch-operator.v5.8.0 Succeeded ...
11.2.5. ログストレージの設定
ClusterLogging
カスタムリソース (CR) を変更することで、ロギングで使用するログストレージのタイプを設定できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - Red Hat OpenShift Logging Operator と内部ログストア (LokiStack または Elasticsearch) がインストールされている。
-
ClusterLogging
CR が作成されている。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
手順
ClusterLogging
CR のlogStore
仕様を変更します。ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: # ... spec: # ... logStore: type: <log_store_type> 1 elasticsearch: 2 nodeCount: <integer> resources: {} storage: {} redundancyPolicy: <redundancy_type> 3 lokistack: 4 name: {} # ...
LokiStack をログストアとして指定する
ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: managementState: Managed logStore: type: lokistack lokistack: name: logging-loki # ...
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
11.3. LokiStack ログストアの設定
ロギングのドキュメントでは、LokiStack はロギングでサポートされている Loki および Web プロキシーと OpenShift Container Platform 認証統合を組み合わせたものを指します。LokiStack のプロキシーは、OpenShift Container Platform 認証を使用してマルチテナンシーを適用します。Loki では、ログストアを個別のコンポーネントまたは外部ストアと呼んでいます。
11.3.1. cluster-admin ユーザーロールの新規グループの作成
cluster-admin
ユーザーとして複数の namespace のアプリケーションログをクエリーすると、クラスター内のすべての namespace の文字数の合計が 5120 を超え、Parse error: input size too long (XXXX > 5120)
エラーが発生します。LokiStack のログへのアクセスをより適切に制御するには、cluster-admin
ユーザーを cluster-admin
グループのメンバーにします。cluster-admin
グループが存在しない場合は、作成して必要なユーザーを追加します。
次の手順を使用して、cluster-admin
権限のあるユーザー用に、新しいグループを作成します。
手順
以下のコマンドを入力して新規グループを作成します。
$ oc adm groups new cluster-admin
以下のコマンドを実行して、必要なユーザーを
cluster-admin
グループに追加します。$ oc adm groups add-users cluster-admin <username>
以下のコマンドを実行して
cluster-admin
ユーザーロールをグループに追加します。$ oc adm policy add-cluster-role-to-group cluster-admin cluster-admin
11.3.2. クラスターの再起動中の LokiStack 動作
ロギングバージョン 5.8 以降のバージョンでは、OpenShift Container Platform クラスターが再起動されると、LokiStack の取り込みとクエリーパスは、ノードで使用可能な CPU リソースとメモリーリソース内で動作し続けます。つまり、OpenShift Container Platform クラスターの更新中に LokiStack でダウンタイムは発生しません。この動作は、PodDisruptionBudget
リソースを使用して実現されます。Loki Operator は、Loki に PodDisruptionBudget
リソースをプロビジョニングするため、特定の条件下で通常の動作を保証するためにコンポーネントごとに必要最小限、使用可能な Pod 数が決定されます。
11.3.3. ノードの障害を許容するための Loki の設定
ロギング 5.8 以降のバージョンでは、Loki Operator は、同じコンポーネントの Pod がクラスター内の異なる使用可能なノードにスケジュールされるように要求する Pod 非アフィニティールールの設定をサポートします。
アフィニティーとは、スケジュールするノードを制御する Pod の特性です。非アフィニティーとは、Pod がスケジュールされることを拒否する Pod の特性です。
OpenShift Container Platform では、Pod のアフィニティー と Pod の非アフィニティー によって、他の Pod のキー/値ラベルに基づいて、Pod のスケジュールに適したノードを制限できます。
Operator は、すべての Loki コンポーネント (compactor
、distributor
、gateway
、indexGateway
、ingester
、querier
、queryFrontend
、および ruler
コンポーネントを含む) に対してデフォルトの優先 podAntiAffinity
ルールを設定します。
requiredDuringSchedulingIgnoredDuringExecution
フィールドに必要な設定を指定して、Loki コンポーネントの希望の podAntiAffinity
設定を上書きできます。
インジェスターコンポーネントのユーザー設定の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: ingester: podAntiAffinity: # ... requiredDuringSchedulingIgnoredDuringExecution: 1 - labelSelector: matchLabels: 2 app.kubernetes.io/component: ingester topologyKey: kubernetes.io/hostname # ...
11.3.4. ゾーン対応のデータレプリケーション
ロギング 5.8 以降のバージョンでは、Loki Operator は Pod トポロジー分散制約を通じてゾーン対応のデータレプリケーションのサポートを提供します。この機能を有効にすると、信頼性が向上し、1 つのゾーンで障害が発生した場合のログ損失に対する保護が強化されます。デプロイメントサイズを 1x.extra.small
、1x.small
、または 1x.medium
に設定すると、replication.factor
フィールドは自動的に 2 に設定されます。
適切なレプリケーションを実現するには、少なくともレプリケーション係数で指定されているのと同じ数のアベイラビリティーゾーンが必要です。レプリケーション係数より多くのアベイラビリティーゾーンを設定することは可能ですが、ゾーンが少ないと書き込みエラーが発生する可能性があります。最適な運用を実現するには、各ゾーンで同じ数のインスタンスをホストする必要があります。
ゾーンレプリケーションが有効になっている LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: replicationFactor: 2 1 replication: factor: 2 2 zones: - maxSkew: 1 3 topologyKey: topology.kubernetes.io/zone 4
11.3.4.1. 障害が発生したゾーンからの Loki Pod の回復
OpenShift Container Platform では、特定のアベイラビリティーゾーンのリソースにアクセスできなくなると、ゾーン障害が発生します。アベイラビリティーゾーンは、冗長性とフォールトトレランスを強化することを目的とした、クラウドプロバイダーのデータセンター内の分離されたエリアです。OpenShift Container Platform クラスターがこの問題を処理するように設定されていない場合、ゾーン障害によりサービスまたはデータの損失が発生する可能性があります。
Loki Pod は StatefulSet の一部であり、StorageClass
オブジェクトによってプロビジョニングされた永続ボリューム要求 (PVC) が付属しています。各 Loki Pod とその PVC は同じゾーンに存在します。クラスターでゾーン障害が発生すると、StatefulSet コントローラーが、障害が発生したゾーン内の影響を受けた Pod の回復を自動的に試みます。
次の手順では、障害が発生したゾーン内の PVC とそこに含まれるすべてのデータを削除します。完全なデータ損失を回避するには、LokiStack
CR のレプリケーション係数フィールドを常に 1 より大きい値に設定して、Loki が確実にレプリケートされるようにする必要があります。
前提条件
- ロギングバージョン 5.8 以降。
-
LokiStack
CR のレプリケーション係数が 1 より大きいことを確認している。 - コントロールプレーンによってゾーン障害が検出され、障害が発生したゾーン内のノードがクラウドプロバイダー統合によってマークされている。
StatefulSet コントローラーは、障害が発生したゾーン内の Pod を自動的に再スケジュールしようとします。関連する PVC も障害が発生したゾーンにあるため、別のゾーンへの自動再スケジュールは機能しません。新しいゾーンでステートフル Loki Pod とそのプロビジョニングされた PVC を正常に再作成できるようにするには、障害が発生したゾーンの PVC を手動で削除する必要があります。
手順
次のコマンドを実行して、
Pending
中ステータスの Pod をリスト表示します。oc get pods --field-selector status.phase==Pending -n openshift-logging
oc get pods
の出力例NAME READY STATUS RESTARTS AGE 1 logging-loki-index-gateway-1 0/1 Pending 0 17m logging-loki-ingester-1 0/1 Pending 0 16m logging-loki-ruler-1 0/1 Pending 0 16m
- 1
- これらの Pod は、障害が発生したゾーンに対応する PVC があるため、
Pending
ステータスになっています。
次のコマンドを実行して、
Pending
ステータスの PVC をリストします。oc get pvc -o=json -n openshift-logging | jq '.items[] | select(.status.phase == "Pending") | .metadata.name' -r
oc get pvc
の出力例storage-logging-loki-index-gateway-1 storage-logging-loki-ingester-1 wal-logging-loki-ingester-1 storage-logging-loki-ruler-1 wal-logging-loki-ruler-1
次のコマンドを実行して Pod の PVC を削除します。
oc delete pvc __<pvc_name>__ -n openshift-logging
次のコマンドを実行して Pod を削除します。
oc delete pod __<pod_name>__ -n openshift-logging
これらのオブジェクトが正常に削除されると、使用可能なゾーンでオブジェクトが自動的に再スケジュールされます。
11.3.4.1.1. terminating 状態の PVC のトラブルシューティング
PVC メタデータファイナライザーが kubernetes.io/pv-protection
に設定されている場合、PVC が削除されずに terminating 状態でハングする可能性があります。ファイナライザーを削除すると、PVC が正常に削除されるようになります。
以下のコマンドを実行して各 PVC のファイナライザーを削除し、削除を再試行します。
oc patch pvc __<pvc_name>__ -p '{"metadata":{"finalizers":null}}' -n openshift-logging
11.3.5. Loki ログへのアクセスの詳細設定
ロギング 5.8 以降では、Red Hat OpenShift Logging Operator はデフォルトですべてのユーザーにログへのアクセスを許可しません。Operator のアップグレード後に以前の設定を適用していない限り、管理者はユーザーのアクセスを設定する必要があります。設定とニーズに応じて、以下を使用してログへのアクセスを細かく設定できます。
- クラスター全体のポリシー
- スコープ指定が namespace のポリシー
- カスタム管理者グループの作成
管理者は、デプロイメントに適したロールバインディングとクラスターのロールバインディングを作成する必要があります。Red Hat OpenShift Logging Operator には、次のクラスターロールがあります。
-
cluster-logging-application-view
は、アプリケーションログの読み取り権限を付与します。 -
cluster-logging-infrastructure-view
は、インフラストラクチャーログの読み取り権限を付与します。 -
cluster-logging-audit-view
は、監査ログの読み取り権限を付与します。
以前のバージョンからアップグレードした場合、追加のクラスターロール logging-application-logs-reader
と関連するクラスターロールバインディング logging-all-authenticated-application-logs-reader
により下位互換性が提供され、認証されたユーザーに namespace の読み取り権限が許可されます。
namespace ごとのアクセス権を持つユーザーは、アプリケーションログをクエリーする際に namespace を提供する必要があります。
11.3.5.1. クラスター全体のアクセス
クラスターロールバインディングリソースはクラスターロールを参照し、クラスター全体に権限を設定します。
ClusterRoleBinding の例
kind: ClusterRoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: logging-all-application-logs-reader roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: cluster-logging-application-view 1 subjects: 2 - kind: Group name: system:authenticated apiGroup: rbac.authorization.k8s.io
11.3.5.2. namespace アクセス
RoleBinding
リソースを ClusterRole
オブジェクトと使用して、ユーザーまたはグループがログにアクセスできる namespace を定義できます。
RoleBinding の例
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: allow-read-logs
namespace: log-test-0 1
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-logging-application-view
subjects:
- kind: User
apiGroup: rbac.authorization.k8s.io
name: testuser-0
- 1
- この
RoleBinding
が適用される namespace を指定します。
11.3.5.3. カスタム管理者グループのアクセス権
多数のユーザーが広範な権限を必要とする大規模デプロイメントの場合は、adminGroup
フィールドを使用してカスタムグループを作成できます。LokiStack
CR の adminGroups
フィールドで指定されたグループのメンバーであるユーザーは、管理者とみなされます。
cluster-logging-application-view
ロールも割り当てられている管理者ユーザーは、すべての namespace のすべてのアプリケーションログにアクセスできます。
LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: tenants: mode: openshift-logging 1 openshift: adminGroups: 2 - cluster-admin - custom-admin-group 3
11.3.6. Loki でストリームベースの保持の有効化
Logging バージョン 5.6 以降では、ログストリームに基づいて保持ポリシーを設定できます。これらのルールは、グローバル、テナントごと、またはその両方で設定できます。両方で設定すると、グローバルルールの前にテナントルールが適用されます。
s3 バケットまたは LokiStack カスタムリソース (CR) に保存期間が定義されていない場合、ログは削除されず、s3 バケットに永久に残り、s3 ストレージがいっぱいになる可能性があります。
ログバージョン 5.9 以上ではスキーマ v12 がサポートされていますが、v13 が推奨されます。
ストリームベースの保持を有効にするには、
LokiStack
CR を作成します。グローバルなストリームベースの保持の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: 1 retention: 2 days: 20 streams: - days: 4 priority: 1 selector: '{kubernetes_namespace_name=~"test.+"}' 3 - days: 1 priority: 1 selector: '{log_type="infrastructure"}' managementState: Managed replicationFactor: 1 size: 1x.small storage: schemas: - effectiveDate: "2020-10-11" version: v11 secret: name: logging-loki-s3 type: aws storageClassName: standard tenants: mode: openshift-logging
- 1
- すべてのログストリームの保持ポリシーを設定します。注記: このフィールドは、オブジェクトストレージに保存されたログの保持期間には影響しません。
- 2
- このブロックが CR に追加されると、クラスターで保持が有効になります。
- 3
- ログストリームの定義に使用される LogQL クエリー が含まれています。
テナントごとのストリームベースの保持の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: retention: days: 20 tenants: 1 application: retention: days: 1 streams: - days: 4 selector: '{kubernetes_namespace_name=~"test.+"}' 2 infrastructure: retention: days: 5 streams: - days: 1 selector: '{kubernetes_namespace_name=~"openshift-cluster.+"}' managementState: Managed replicationFactor: 1 size: 1x.small storage: schemas: - effectiveDate: "2020-10-11" version: v11 secret: name: logging-loki-s3 type: aws storageClassName: standard tenants: mode: openshift-logging
- 1
- テナントごとの保持ポリシーを設定します。有効なテナントタイプは、
application
、audit
、およびinfrastructure
です。 - 2
- ログストリームの定義に使用される LogQL クエリー が含まれています。
LokiStack
CR を適用します。$ oc apply -f <filename>.yaml
これは、保存されたログの保持を管理するためのものではありません。保存されたログのグローバルな保持期間 (最大 30 日間までサポート) は、オブジェクトストレージで設定します。
11.3.7. Loki レート制限エラーのトラブルシューティング
Log Forwarder API がレート制限を超える大きなメッセージブロックを Loki に転送すると、Loki により、レート制限 (429
) エラーが生成されます。
これらのエラーは、通常の動作中に発生する可能性があります。たとえば、すでにいくつかのログがあるクラスターにロギングを追加する場合、ロギングが既存のログエントリーをすべて取り込もうとするとレート制限エラーが発生する可能性があります。この場合、新しいログの追加速度が合計レート制限よりも低い場合、履歴データは最終的に取り込まれ、ユーザーの介入を必要とせずにレート制限エラーが解決されます。
レート制限エラーが引き続き発生する場合は、LokiStack
カスタムリソース (CR) を変更することで問題を解決できます。
LokiStack
CR は、Grafana がホストする Loki では利用できません。このトピックは、Grafana がホストする Loki サーバーには適用されません。
条件
- Log Forwarder API は、ログを Loki に転送するように設定されている。
システムは、次のような 2MB を超えるメッセージのブロックを Loki に送信する。以下に例を示します。
"values":[["1630410392689800468","{\"kind\":\"Event\",\"apiVersion\":\ ....... ...... ...... ...... \"received_at\":\"2021-08-31T11:46:32.800278+00:00\",\"version\":\"1.7.4 1.6.0\"}},\"@timestamp\":\"2021-08-31T11:46:32.799692+00:00\",\"viaq_index_name\":\"audit-write\",\"viaq_msg_id\":\"MzFjYjJkZjItNjY0MC00YWU4LWIwMTEtNGNmM2E5ZmViMGU4\",\"log_type\":\"audit\"}"]]}]}
oc logs -n openshift-logging -l component=collector
と入力すると、クラスター内のコレクターログに、次のいずれかのエラーメッセージを含む行が表示されます。429 Too Many Requests Ingestion rate limit exceeded
Vector エラーメッセージの例
2023-08-25T16:08:49.301780Z WARN sink{component_kind="sink" component_id=default_loki_infra component_type=loki component_name=default_loki_infra}: vector::sinks::util::retries: Retrying after error. error=Server responded with an error: 429 Too Many Requests internal_log_rate_limit=true
Fluentd エラーメッセージの例
2023-08-30 14:52:15 +0000 [warn]: [default_loki_infra] failed to flush the buffer. retry_times=2 next_retry_time=2023-08-30 14:52:19 +0000 chunk="604251225bf5378ed1567231a1c03b8b" error_class=Fluent::Plugin::LokiOutput::LogPostError error="429 Too Many Requests Ingestion rate limit exceeded for user infrastructure (limit: 4194304 bytes/sec) while attempting to ingest '4082' lines totaling '7820025' bytes, reduce log volume or contact your Loki administrator to see if the limit can be increased\n"
このエラーは受信側にも表示されます。たとえば、LokiStack 取り込み Pod で以下を行います。
Loki 取り込みエラーメッセージの例
level=warn ts=2023-08-30T14:57:34.155592243Z caller=grpc_logging.go:43 duration=1.434942ms method=/logproto.Pusher/Push err="rpc error: code = Code(429) desc = entry with timestamp 2023-08-30 14:57:32.012778399 +0000 UTC ignored, reason: 'Per stream rate limit exceeded (limit: 3MB/sec) while attempting to ingest for stream
手順
LokiStack
CR のingestionBurstSize
およびingestionRate
フィールドを更新します。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: limits: global: ingestion: ingestionBurstSize: 16 1 ingestionRate: 8 2 # ...
- 1
ingestionBurstSize
フィールドは、ディストリビューターレプリカごとに最大ローカルレート制限サンプルサイズを MB 単位で定義します。この値はハードリミットです。この値を、少なくとも 1 つのプッシュリクエストで想定される最大ログサイズに設定します。ingestionBurstSize
値より大きい単一リクエストは使用できません。- 2
ingestionRate
フィールドは、1 秒あたりに取り込まれるサンプルの最大量 (MB 単位) に対するソフト制限です。ログのレートが制限を超えているにもかかわらず、コレクターがログの送信を再試行すると、レート制限エラーが発生します。合計平均が制限よりも少ない場合に限り、システムは回復し、ユーザーの介入なしでエラーが解決されます。
11.3.8. メンバーリストの作成の失敗を許容する Loki の設定
OpenShift クラスターでは、管理者は通常、非プライベート IP ネットワーク範囲を使用します。その結果、LokiStack メンバーリストはデフォルトでプライベート IP ネットワークのみを使用するため、LokiStack メンバーリストの設定は失敗します。
管理者は、メンバーリスト設定の Pod ネットワークを選択できます。hashRing
仕様で podIP
を使用するように LokiStack CR を変更できます。LokiStack CR を設定するには、以下のコマンドを使用します。
$ oc patch LokiStack logging-loki -n openshift-logging --type=merge -p '{"spec": {"hashRing":{"memberlist":{"instanceAddrType":"podIP","type": "memberlist"}}}}'
podIP
を含める LokiStack の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... hashRing: type: memberlist memberlist: instanceAddrType: podIP # ...
11.3.9. 関連情報
11.4. Elasticsearch ログストアの設定
Elasticsearch 6 を使用して、ログデータを保存および整理できます。
ログストアに加えることのできる変更には、以下が含まれます。
- Elasticsearch クラスターのストレージ
- シャードをクラスター内の複数のデータノードにレプリケートする方法 (完全なレプリケーションからレプリケーションなしまで)
- Elasticsearch データへの外部アクセス
11.4.1. ログストレージの設定
ClusterLogging
カスタムリソース (CR) を変更することで、ロギングで使用するログストレージのタイプを設定できます。
前提条件
- 管理者権限がある。
-
OpenShift CLI (
oc
) がインストールされている。 - Red Hat OpenShift Logging Operator と内部ログストア (LokiStack または Elasticsearch) がインストールされている。
-
ClusterLogging
CR が作成されている。
Logging 5.9 リリースに、OpenShift Elasticsearch Operator の更新バージョンは含まれていません。ロギング 5.8 でリリースされた OpenShift Elasticsearch Operator を現在使用している場合、Logging 5.8 の EOL まで引き続き Logging で機能します。OpenShift Elasticsearch Operator を使用してデフォルトのログストレージを管理する代わりに、Loki Operator を使用できます。Logging のライフサイクルの日付の詳細は、Platform Agnostic Operator を参照してください。
手順
ClusterLogging
CR のlogStore
仕様を変更します。ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: # ... spec: # ... logStore: type: <log_store_type> 1 elasticsearch: 2 nodeCount: <integer> resources: {} storage: {} redundancyPolicy: <redundancy_type> 3 lokistack: 4 name: {} # ...
LokiStack をログストアとして指定する
ClusterLogging
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: managementState: Managed logStore: type: lokistack lokistack: name: logging-loki # ...
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
11.4.2. 監査ログのログストアへの転送
ロギングデプロイメントでは、デフォルトでコンテナーおよびインフラストラクチャーのログは ClusterLogging
カスタムリソース (CR) に定義された内部ログストアに転送されます。
セキュアなストレージを提供しないため、監査ログはデフォルトで内部ログストアに転送されません。お客様の責任において、監査ログを転送するシステムが組織および政府の規制に準拠し、適切に保護されていることを確認してください。
このデフォルト設定が要件を満たす場合、ClusterLogForwarder
CR を設定する必要はありません。ClusterLogForwarder
CR が存在する場合、default
出力を含むパイプラインが定義されている場合を除き、ログは内部ログストアに転送されません。
手順
ログ転送 API を使用して監査ログを内部 Elasticsearch インスタンスに転送するには、以下を実行します。
ClusterLogForwarder
CR オブジェクトを定義する YAML ファイルを作成または編集します。すべてのログタイプを内部 Elasticsearch インスタンスに送信するために CR を作成します。変更せずに以下の例を使用できます。
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: pipelines: 1 - name: all-to-default inputRefs: - infrastructure - application - audit outputRefs: - default
- 1
- パイプラインは、指定された出力を使用して転送するログのタイプを定義します。デフォルトの出力は、ログを内部 Elasticsearch インスタンスに転送します。
注記パイプラインの 3 つのすべてのタイプのログをパイプラインに指定する必要があります (アプリケーション、インフラストラクチャー、および監査)。ログの種類を指定しない場合、それらのログは保存されず、失われます。
既存の
ClusterLogForwarder
CR がある場合は、パイプラインを監査ログのデフォルト出力に追加します。デフォルトの出力を定義する必要はありません。以下に例を示します。apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder metadata: name: instance namespace: openshift-logging spec: outputs: - name: elasticsearch-insecure type: "elasticsearch" url: http://elasticsearch-insecure.messaging.svc.cluster.local insecure: true - name: elasticsearch-secure type: "elasticsearch" url: https://elasticsearch-secure.messaging.svc.cluster.local secret: name: es-audit - name: secureforward-offcluster type: "fluentdForward" url: https://secureforward.offcluster.com:24224 secret: name: secureforward pipelines: - name: container-logs inputRefs: - application outputRefs: - secureforward-offcluster - name: infra-logs inputRefs: - infrastructure outputRefs: - elasticsearch-insecure - name: audit-logs inputRefs: - audit outputRefs: - elasticsearch-secure - default 1
- 1
- このパイプラインは、外部インスタンスに加えて監査ログを内部 Elasticsearch インスタンスに送信します。
関連情報
11.4.3. ログ保持時間の設定
デフォルトの Elasticsearch ログストアがインフラストラクチャーログ、アプリケーションログ、監査ログなどの 3 つのログソースのインデックスを保持する期間を指定する 保持ポリシー を設定できます。
保持ポリシーを設定するには、ClusterLogging
カスタムリソース (CR) に各ログソースの maxAge
パラメーターを設定します。CR はこれらの値を Elasticsearch ロールオーバースケジュールに適用し、Elasticsearch がロールオーバーインデックスを削除するタイミングを決定します。
Elasticsearch はインデックスをロールオーバーし、インデックスが以下の条件のいずれかに一致する場合に現在のインデックスを移動し、新規インデックスを作成します。
-
インデックスは
Elasticsearch
CR のrollover.maxAge
の値よりも古い値になります。 - インデックスサイズは、40 GB x プライマリーシャードの数よりも大きくなります。
- インデックスの doc 数は、40960 KB × プライマリーシャードの数よりも大きくなります。
Elasticsearch は、設定する保持ポリシーに基づいてロールオーバーインデックスを削除します。ログソースの保持ポリシーを作成しない場合、ログはデフォルトで 7 日後に削除されます。
前提条件
- Red Hat OpenShift Logging Operator と OpenShift Elasticsearch Operator がインストールされている。
手順
ログの保持時間を設定するには、以下を実行します。
ClusterLogging
CR を編集して、retentionPolicy
パラメーターを追加するか、変更します。apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" ... spec: managementState: "Managed" logStore: type: "elasticsearch" retentionPolicy: 1 application: maxAge: 1d infra: maxAge: 7d audit: maxAge: 7d elasticsearch: nodeCount: 3 ...
- 1
- Elasticsearch が各ログソースを保持する時間を指定します。整数および時間の指定 (weeks(w)、hour(h/H)、minutes(m)、および seconds(s)) を入力します。たとえば、1 日の場合は
1d
になります。maxAge
よりも古いログは削除されます。デフォルトで、ログは 7 日間保持されます。
Elasticsearch
カスタムリソース (CR) で設定を確認できます。たとえば、Red Hat OpenShift Logging Operator は以下の
Elasticsearch
CR を更新し、8 時間ごとにインフラストラクチャーログのアクティブなインデックスをロールオーバーし、ロールオーバーされたインデックスはロールオーバーの 7 日後に削除される設定を含む保持ポリシーを設定するとします。OpenShift Container Platform は 15 分ごとにチェックし、インデックスをロールオーバーする必要があるかどうかを判別します。apiVersion: "logging.openshift.io/v1" kind: "Elasticsearch" metadata: name: "elasticsearch" spec: ... indexManagement: policies: 1 - name: infra-policy phases: delete: minAge: 7d 2 hot: actions: rollover: maxAge: 8h 3 pollInterval: 15m 4 ...
- 1
- 各ログソースについて、保持ポリシーは、そのソースのログを削除/ロールオーバーするタイミングを示します。
- 2
- OpenShift Container Platform がロールオーバーされたインデックスを削除する場合。この設定は、
ClusterLogging
CR に設定するmaxAge
になります。 - 3
- インデックスをロールオーバーする際に考慮する OpenShift Container Platform のインデックス期間。この値は、
ClusterLogging
CR に設定するmaxAge
に基づいて決定されます。 - 4
- OpenShift Container Platform がインデックスをロールオーバーする必要があるかどうかをチェックする場合。この設定はデフォルトであるため、変更できません。
注記Elasticsearch
CR の変更はサポートされていません。保持ポリシーに対するすべての変更はClusterLogging
CR で行う必要があります。OpenShift Elasticsearch Operator は cron ジョブをデプロイし、
pollInterval
を使用してスケジュールされる定義されたポリシーを使用して各マッピングのインデックスをロールオーバーします。$ oc get cronjob
出力例
NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE elasticsearch-im-app */15 * * * * False 0 <none> 4s elasticsearch-im-audit */15 * * * * False 0 <none> 4s elasticsearch-im-infra */15 * * * * False 0 <none> 4s
11.4.4. ログストアの CPU およびメモリー要求の設定
それぞれのコンポーネント仕様は、CPU とメモリー要求の両方への調整を許可します。OpenShift Elasticsearch Operator は環境に適した値を設定するため、これらの値を手動で調整する必要はありません。
大規模なクラスターでは、Elasticsearch プロキシーコンテナーのデフォルトのメモリー制限が不十分な場合があり、これにより、プロキシーコンテナーが OOM による強制終了 (OOMKilled) が生じます。この問題が発生した場合は、Elasticsearch プロキシーのメモリー要求および制限を引き上げます。
各 Elasticsearch ノードはこれより低い値のメモリー設定でも動作しますが、これは実稼働環境でのデプロイメントには推奨 されていません。実稼働環境で使用する場合は、デフォルトの 16Gi よりも小さい値を各 Pod に割り当てることはできません。Pod ごとに割り当て可能な最大値は 64Gi であり、この範囲の中で、できるだけ多くのメモリーを割り当てることを推奨します。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc edit ClusterLogging instance
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" .... spec: logStore: type: "elasticsearch" elasticsearch:1 resources: limits: 2 memory: "32Gi" requests: 3 cpu: "1" memory: "16Gi" proxy: 4 resources: limits: memory: 100Mi requests: memory: 100Mi
- 1
- 必要に応じて CPU およびメモリー要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるはずです。デフォルト値は、メモリー要求の場合は
16Gi
であり、CPU 要求の場合は1
です。 - 2
- Pod が使用できるリソースの最大量。
- 3
- Pod のスケジュールに必要最小限のリソース。
- 4
- 必要に応じて Elasticsearch プロキシーの CPU およびメモリーの制限および要求を指定します。これらの値を空のままにすると、OpenShift Elasticsearch Operator はデフォルト値を設定します。これらのデフォルト値はほとんどのデプロイメントでは問題なく使用できるます。デフォルト値は、メモリー要求の場合は
256Mi
、CPU 要求の場合は100m
です。
Elasticsearch メモリーの量を調整するときは、要求
と 制限
の両方に同じ値を使用する必要があります。
以下に例を示します。
resources: limits: 1 memory: "32Gi" requests: 2 cpu: "8" memory: "32Gi"
Kubernetes は一般的にはノードの設定に従い、Elasticsearch が指定された制限を使用することを許可しません。requests
と limits
に同じ値を設定することにより、Elasticsearch が必要なメモリーを確実に使用できるようにします (利用可能なメモリーがノードにあることを前提とします)。
11.4.5. ログストアのレプリケーションポリシーの設定
Elasticsearch シャードをクラスター内の複数のデータノードにレプリケートする方法を定義できます。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc edit clusterlogging instance
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" .... spec: logStore: type: "elasticsearch" elasticsearch: redundancyPolicy: "SingleRedundancy" 1
- 1
- シャードの冗長性ポリシーを指定します。変更の保存時に変更が適用されます。
- FullRedundancy:Elasticsearch は、各インデックスのプライマリーシャードをすべてのデータノードに完全にレプリケートします。これは最高レベルの安全性を提供しますが、最大量のディスクが必要となり、パフォーマンスは最低レベルになります。
- MultipleRedundancy:Elasticsearch は、各インデックスのプライマリーシャードをデータノードの半分に完全にレプリケートします。これは、安全性とパフォーマンス間の適切なトレードオフを提供します。
- SingleRedundancy:Elasticsearch は、各インデックスのプライマリーシャードのコピーを 1 つ作成します。2 つ以上のデータノードが存在する限り、ログは常に利用可能かつ回復可能です。5 以上のノードを使用する場合は、MultipleRedundancy よりもパフォーマンスが良くなります。このポリシーは、単一 Elasticsearch ノードのデプロイメントには適用できません。
- ZeroRedundancy:Elasticsearch は、プライマリーシャードのコピーを作成しません。ノードが停止または失敗した場合は、ログは利用不可となるか、失われる可能性があります。安全性よりもパフォーマンスを重視する場合や、独自のディスク/PVC バックアップ/復元ストラテジーを実装している場合は、このモードを使用できます。
インデックステンプレートのプライマリーシャードの数は Elasticsearch データノードの数と等しくなります。
11.4.6. Elasticsearch Pod のスケールダウン
クラスター内の Elasticsearch Pod 数を減らすと、データ損失や Elasticsearch のパフォーマンスが低下する可能性があります。
スケールダウンする場合は、一度に 1 つの Pod 分スケールダウンし、クラスターがシャードおよびレプリカのリバランスを実行できるようにする必要があります。Elasticsearch のヘルスステータスが green
に戻された後に、別の Pod でスケールダウンできます。
Elasticsearch クラスターが ZeroRedundancy
に設定される場合は、Elasticsearch Pod をスケールダウンしないでください。
11.4.7. ログストアの永続ストレージの設定
Elasticsearch には永続ストレージが必要です。ストレージが高速になると、Elasticsearch のパフォーマンスも高速になります。
NFS ストレージをボリュームまたは永続ボリュームを使用 (または Gluster などの NAS を使用する) ことは Elasticsearch ストレージではサポートされません。Lucene は NFS が指定しないファイルシステムの動作に依存するためです。データの破損およびその他の問題が発生する可能性があります。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
手順
ClusterLogging
CR を編集してクラスターの各データノードが永続ボリューム要求にバインドされるように指定します。apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" # ... spec: logStore: type: "elasticsearch" elasticsearch: nodeCount: 3 storage: storageClassName: "gp2" size: "200G"
この例では、クラスターの各データノードが、"200G" の AWS General Purpose SSD (gp2) ストレージを要求する永続ボリューム要求にバインドされるように指定します。
永続ストレージにローカルボリュームを使用する場合は、LocalVolume
オブジェクトの volumeMode: block
で記述される raw ブロックボリュームを使用しないでください。Elasticsearch は raw ブロックボリュームを使用できません。
11.4.8. emptyDir ストレージのログストアの設定
ログストアで emptyDir を使用できます。これは、Pod のデータすべてが再起動時に失われる一時デプロイメントを作成します。
emptyDir を使用する場合は、ログストアが再起動するか、再デプロイされる場合にデータが失われます。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
手順
ClusterLogging
CR を編集して emptyDir を指定します。spec: logStore: type: "elasticsearch" elasticsearch: nodeCount: 3 storage: {}
11.4.9. Elasticsearch クラスターのローリング再起動の実行
elasticsearch
config map または elasticsearch-*
デプロイメント設定のいずれかを変更する際にローリング再起動を実行します。
さらにローリング再起動は、Elasticsearch Pod が実行されるノードで再起動が必要な場合に推奨されます。
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
手順
クラスターのローリング再起動を実行するには、以下を実行します。
openshift-logging
プロジェクトに切り替えます。$ oc project openshift-logging
Elasticsearch Pod の名前を取得します。
$ oc get pods -l component=elasticsearch
コレクター Pod をスケールダウンして、Elasticsearch への新しいログの送信を停止します。
$ oc -n openshift-logging patch daemonset/collector -p '{"spec":{"template":{"spec":{"nodeSelector":{"logging-infra-collector": "false"}}}}}'
OpenShift Container Platform es_util ツールを使用してシャードの同期フラッシュを実行して、シャットダウンの前にディスクへの書き込みを待機している保留中の操作がないようにします。
$ oc exec <any_es_pod_in_the_cluster> -c elasticsearch -- es_util --query="_flush/synced" -XPOST
以下に例を示します。
$ oc exec -c elasticsearch-cdm-5ceex6ts-1-dcd6c4c7c-jpw6 -c elasticsearch -- es_util --query="_flush/synced" -XPOST
出力例
{"_shards":{"total":4,"successful":4,"failed":0},".security":{"total":2,"successful":2,"failed":0},".kibana_1":{"total":2,"successful":2,"failed":0}}
OpenShift Container Platform es_util ツールを使用して、ノードを意図的に停止する際のシャードのバランシングを防ぎます。
$ oc exec <any_es_pod_in_the_cluster> -c elasticsearch -- es_util --query="_cluster/settings" -XPUT -d '{ "persistent": { "cluster.routing.allocation.enable" : "primaries" } }'
以下に例を示します。
$ oc exec elasticsearch-cdm-5ceex6ts-1-dcd6c4c7c-jpw6 -c elasticsearch -- es_util --query="_cluster/settings" -XPUT -d '{ "persistent": { "cluster.routing.allocation.enable" : "primaries" } }'
出力例
{"acknowledged":true,"persistent":{"cluster":{"routing":{"allocation":{"enable":"primaries"}}}},"transient":
コマンドが完了したら、ES クラスターのそれぞれのデプロイメントについて、以下を実行します。
デフォルトで、OpenShift Container Platform Elasticsearch クラスターはノードのロールアウトをブロックします。以下のコマンドを使用してロールアウトを許可し、Pod が変更を取得できるようにします。
$ oc rollout resume deployment/<deployment-name>
以下に例を示します。
$ oc rollout resume deployment/elasticsearch-cdm-0-1
出力例
deployment.extensions/elasticsearch-cdm-0-1 resumed
新規 Pod がデプロイされます。Pod に準備状態のコンテナーがある場合は、次のデプロイメントに進むことができます。
$ oc get pods -l component=elasticsearch-
出力例
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-5ceex6ts-1-dcd6c4c7c-jpw6k 2/2 Running 0 22h elasticsearch-cdm-5ceex6ts-2-f799564cb-l9mj7 2/2 Running 0 22h elasticsearch-cdm-5ceex6ts-3-585968dc68-k7kjr 2/2 Running 0 22h
デプロイメントが完了したら、ロールアウトを許可しないように Pod をリセットします。
$ oc rollout pause deployment/<deployment-name>
以下に例を示します。
$ oc rollout pause deployment/elasticsearch-cdm-0-1
出力例
deployment.extensions/elasticsearch-cdm-0-1 paused
Elasticsearch クラスターが
green
またはyellow
状態にあることを確認します。$ oc exec <any_es_pod_in_the_cluster> -c elasticsearch -- es_util --query=_cluster/health?pretty=true
注記直前のコマンドで使用した Elasticsearch Pod でロールアウトを実行した場合、Pod は存在しなくなっているため、ここで新規 Pod 名が必要になります。
以下に例を示します。
$ oc exec elasticsearch-cdm-5ceex6ts-1-dcd6c4c7c-jpw6 -c elasticsearch -- es_util --query=_cluster/health?pretty=true
{ "cluster_name" : "elasticsearch", "status" : "yellow", 1 "timed_out" : false, "number_of_nodes" : 3, "number_of_data_nodes" : 3, "active_primary_shards" : 8, "active_shards" : 16, "relocating_shards" : 0, "initializing_shards" : 0, "unassigned_shards" : 1, "delayed_unassigned_shards" : 0, "number_of_pending_tasks" : 0, "number_of_in_flight_fetch" : 0, "task_max_waiting_in_queue_millis" : 0, "active_shards_percent_as_number" : 100.0 }
- 1
- 次に進む前に、このパラメーターが
green
またはyellow
であることを確認します。
- Elasticsearch config map を変更した場合は、それぞれの Elasticsearch Pod に対してこれらの手順を繰り返します。
クラスターのすべてのデプロイメントがロールアウトされたら、シャードのバランシングを再度有効にします。
$ oc exec <any_es_pod_in_the_cluster> -c elasticsearch -- es_util --query="_cluster/settings" -XPUT -d '{ "persistent": { "cluster.routing.allocation.enable" : "all" } }'
以下に例を示します。
$ oc exec elasticsearch-cdm-5ceex6ts-1-dcd6c4c7c-jpw6 -c elasticsearch -- es_util --query="_cluster/settings" -XPUT -d '{ "persistent": { "cluster.routing.allocation.enable" : "all" } }'
出力例
{ "acknowledged" : true, "persistent" : { }, "transient" : { "cluster" : { "routing" : { "allocation" : { "enable" : "all" } } } } }
新しいログが Elasticsearch に送信されるように、コレクター Pod をスケールアップします。
$ oc -n openshift-logging patch daemonset/collector -p '{"spec":{"template":{"spec":{"nodeSelector":{"logging-infra-collector": "true"}}}}}'
11.4.10. ログストアサービスのルートとしての公開
デフォルトでは、ロギングでデプロイされたログストアはロギングクラスターの外部からアクセスできません。データにアクセスするツールについては、ログストアへの外部アクセスのために re-encryption termination でルートを有効にできます。
re-encrypt ルート、OpenShift Container Platform トークンおよびインストールされたログストア CA 証明書を作成して、ログストアに外部からアクセスすることができます。次に、以下を含む cURL 要求でログストアサービスをホストするノードにアクセスします。
-
Authorization: Bearer ${token}
- Elasticsearch reencrypt ルートおよび Elasticsearch API 要求
内部からは、ログストアクラスター IP を使用してログストアサービスにアクセスできます。これは、以下のコマンドのいずれかを使用して取得できます。
$ oc get service elasticsearch -o jsonpath={.spec.clusterIP} -n openshift-logging
出力例
172.30.183.229
$ oc get service elasticsearch -n openshift-logging
出力例
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE elasticsearch ClusterIP 172.30.183.229 <none> 9200/TCP 22h
以下のようなコマンドを使用して、クラスター IP アドレスを確認できます。
$ oc exec elasticsearch-cdm-oplnhinv-1-5746475887-fj2f8 -n openshift-logging -- curl -tlsv1.2 --insecure -H "Authorization: Bearer ${token}" "https://172.30.183.229:9200/_cat/health"
出力例
% Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 29 100 29 0 0 108 0 --:--:-- --:--:-- --:--:-- 108
前提条件
- Red Hat OpenShift Logging および Elasticsearch Operators がインストールされている必要があります。
- ログにアクセスできるようになるには、プロジェクトへのアクセスが必要です。
手順
ログストアを外部に公開するには、以下を実行します。
openshift-logging
プロジェクトに切り替えます。$ oc project openshift-logging
ログストアから CA 証明書を抽出し、admin-ca ファイルに書き込みます。
$ oc extract secret/elasticsearch --to=. --keys=admin-ca
出力例
admin-ca
ログストアサービスのルートを YAML ファイルとして作成します。
以下のように YAML ファイルを作成します。
apiVersion: route.openshift.io/v1 kind: Route metadata: name: elasticsearch namespace: openshift-logging spec: host: to: kind: Service name: elasticsearch tls: termination: reencrypt destinationCACertificate: | 1
- 1
- 次の手順でログストア CA 証明書を追加するか、コマンドを使用します。一部の re-encrypt ルートで必要とされる
spec.tls.key
、spec.tls.certificate
、およびspec.tls.caCertificate
パラメーターを設定する必要はありません。
以下のコマンドを実行して、前のステップで作成したルート YAML にログストア CA 証明書を追加します。
$ cat ./admin-ca | sed -e "s/^/ /" >> <file-name>.yaml
ルートを作成します。
$ oc create -f <file-name>.yaml
出力例
route.route.openshift.io/elasticsearch created
Elasticsearch サービスが公開されていることを確認します。
要求に使用されるこのサービスアカウントのトークンを取得します。
$ token=$(oc whoami -t)
作成した elasticsearch ルートを環境変数として設定します。
$ routeES=`oc get route elasticsearch -o jsonpath={.spec.host}`
ルートが正常に作成されていることを確認するには、公開されたルート経由で Elasticsearch にアクセスする以下のコマンドを実行します。
curl -tlsv1.2 --insecure -H "Authorization: Bearer ${token}" "https://${routeES}"
以下のような出力が表示されます。
出力例
{ "name" : "elasticsearch-cdm-i40ktba0-1", "cluster_name" : "elasticsearch", "cluster_uuid" : "0eY-tJzcR3KOdpgeMJo-MQ", "version" : { "number" : "6.8.1", "build_flavor" : "oss", "build_type" : "zip", "build_hash" : "Unknown", "build_date" : "Unknown", "build_snapshot" : true, "lucene_version" : "7.7.0", "minimum_wire_compatibility_version" : "5.6.0", "minimum_index_compatibility_version" : "5.0.0" }, "<tagline>" : "<for search>" }
11.4.11. デフォルトの Elasticsearch ログストアを使用しない場合の未使用のコンポーネントの削除
管理者がログをサードパーティーのログストアに転送し、デフォルトの Elasticsearch ログストアを使用しない場合は、ロギングクラスターからいくつかの未使用のコンポーネントを削除できます。
つまり、デフォルトの Elasticsearch ログストアを使用しない場合は、内部 Elasticsearch logStore
、Kibana visualization
コンポーネントを ClusterLogging
カスタムリソース (CR) から削除できます。これらのコンポーネントの削除はオプションですが、これによりリソースを節約できます。
前提条件
ログフォワーダーがログデータをデフォルトの内部 Elasticsearch クラスターに送信しないことを確認します。ログ転送の設定に使用した
ClusterLogForwarder
CR YAML ファイルを検査します。これにはdefault
を指定するoutputRefs
要素が ない ことを確認します。以下に例を示します。outputRefs: - default
ClusterLogForwarder
CR がログデータを内部 Elasticsearch クラスターに転送し、ClusterLogging
CR から logStore
コンポーネントを削除するとします。この場合、内部 Elasticsearch クラスターはログデータを保存するために表示されません。これがないと、データが失われる可能性があります。
手順
openshift-logging
プロジェクトでClusterLogging
カスタムリソース (CR) を編集します。$ oc edit ClusterLogging instance
-
これらが存在する場合は、
logStore
、visualization
スタンザをClusterLogging
CR から削除します。 ClusterLogging
CR のcollection
スタンザを保持します。結果は以下の例のようになります。apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" namespace: "openshift-logging" spec: managementState: "Managed" collection: type: "fluentd" fluentd: {}
コレクター Pod が再デプロイされたことを確認します。
$ oc get pods -l component=collector -n openshift-logging
第12章 ロギングアラート
12.1. デフォルトのロギングアラート
ロギングアラートは、Red Hat OpenShift Logging Operator のインストール中にインストールされます。アラートは、ログ収集およびログストレージバックエンドによってエクスポートされたメトリクスに依存します。これらのメトリクスは、Red Hat OpenShift Logging Operator のインストール時に、Enable Operator recommended cluster monitoring on this namespace オプションを選択した場合に有効になります。
ローカルの Alertmanager インスタンスを無効にしていない限り、デフォルトのロギングアラートは、openshift-monitoring
namespace の OpenShift Container Platform モニタリングスタック Alertmanager に送信されます。
12.1.1. Administrator および Developer パースペクティブでのアラート UI へのアクセス
アラート UI は、OpenShift Container Platform Web コンソールの Administrator および Developer パースペクティブからアクセスできます。
- Administrator パースペクティブで、Observe → Alerting に移動します。このパースペクティブのアラート UI には主要なページが 3 つあり、それが Alerts ページ、Silences ページ、Alerting rules ページです。
- Developer パースペクティブで、Observe → <project_name> → Alerts に移動します。このパースペクティブのアラートでは、サイレンスおよびアラートルールはすべて Alerts ページで管理されます。Alerts ページに表示される結果は、選択されたプロジェクトに固有のものです。
Developer パースペクティブでは、コア OpenShift Container Platform と、Project: <project_name> リスト内のアクセス可能なユーザー定義プロジェクトから選択できます。ただし、クラスター管理者としてログインしていない場合、コア OpenShift Container Platform プロジェクトに関連するアラート、サイレンス、およびアラートルールは表示されません。
12.1.2. ロギングコレクターのアラート
Logging 5.8 以降のバージョンでは、Red Hat OpenShift Logging Operator によって次のアラートが生成されます。これらのアラートは OpenShift Container Platform Web コンソールで表示できます。
アラート名 | メッセージ | 説明 | 重大度 |
---|---|---|---|
CollectorNodeDown |
Prometheus could not scrape | コレクターはスクレイピングできません。 | Critical |
CollectorHighErrorRate |
|
| Critical |
CollectorVeryHighErrorRate |
|
| Critical |
12.1.3. Vector コレクターのアラート
Logging 5.7 以降のバージョンでは、Vector コレクターによって次のアラートが生成されます。これらのアラートは OpenShift Container Platform Web コンソールで表示できます。
アラート | メッセージ | 説明 | 重大度 |
---|---|---|---|
|
| ベクター出力エラーの数は、デフォルトでは直前の 15 分間で 10 分を超えます。 | Warning |
|
| Vector は、Prometheus が特定の Vector インスタンスをスクレイピングできなかったと報告しています。 | Critical |
|
| Vector コンポーネントエラーの数は非常に多く、デフォルトでは過去 15 分間に 25 件を超えています。 | Critical |
|
| Fluentd はキューサイズが増加していることを報告しています。 | Warning |
12.1.4. Fluentd コレクターのアラート
次のアラートは、従来の Fluentd ログコレクターによって生成されます。これらのアラートは OpenShift Container Platform Web コンソールで表示できます。
アラート | メッセージ | 説明 | 重大度 |
---|---|---|---|
|
| FluentD 出力エラーの数は、デフォルトでは直前の 15 分間で 10 分を超えます。 | Warning |
|
| Fluentd は Prometheus が特定の Fluentd インスタンスを収集できなかったことを報告します。 | Critical |
|
| Fluentd はキューサイズが増加していることを報告しています。 | Warning |
|
| FluentD 出力エラーの数は非常に高くなります。デフォルトでは、直前の 15 分間で 25 を超えます。 | Critical |
12.1.5. Elasticsearch アラートルール
これらのアラートルールは、OpenShift Container Platform Web コンソールで表示できます。
アラート | 説明 | 重大度 |
---|---|---|
| クラスターのヘルスステータスは少なくとも 2m の間 RED になります。クラスターは書き込みを受け入れず、シャードが見つからない可能性があるか、マスターノードがまだ選択されていません。 | Critical |
| クラスターのヘルスステータスは少なくとも 20m の間 YELLOW になります。一部のシャードレプリカは割り当てられません。 | Warning |
| クラスターでは、次の 6 時間以内にディスク領域が不足することが予想されます。 | Critical |
| クラスターでは、次の 1 時間以内にファイル記述子が不足することが予想されます。 | Warning |
| 指定されたノードでの JVM ヒープの使用率が高くなっています。 | アラート |
| 指定されたノードは、ディスクの空き容量が少ないために低基準値に達しています。シャードをこのノードに割り当てることはできません。ノードにディスク領域を追加することを検討する必要があります。 | Info |
| 指定されたノードは、ディスクの空き容量が少ないために高基準値に達しています。一部のシャードは可能な場合に別のノードに再度割り当てられる可能性があります。ノードにディスク領域が追加されるか、このノードに割り当てられる古いインデックスをドロップします。 | Warning |
| 指定されたノードは、ディスクの空き容量が少ないために高基準値に達しています。このノードにシャードが割り当てられるすべてのインデックスは、読み取り専用ブロックになります。インデックスブロックは、ディスクの使用状況が高基準値を下回る場合に手動で解放される必要があります。 | Critical |
| 指定されたノードの JVM ヒープの使用率が高すぎます。 | アラート |
| Elasticsearch では、指定されたノードで書き込み拒否が増加しています。このノードはインデックスの速度に追い付いていない可能性があります。 | Warning |
| 指定されたノードのシステムで使用される CPU が高すぎます。 | アラート |
| 指定されたノードで Elasticsearch によって使用される CPU が高すぎます。 | アラート |
12.1.6. 関連情報
12.2. カスタムロギングアラート
Logging 5.7 以降のバージョンでは、ユーザーは、カスタマイズされたアラートと記録されたメトリクスを生成するように LokiStack デプロイメントを設定できます。カスタマイズされた アラートおよび記録ルール を使用する場合は、LokiStack ルーラーコンポーネントを有効にする必要があります。
LokiStack のログベースのアラートと記録されたメトリクスは、LogQL 式をルーラーコンポーネントに提供することによってトリガーされます。Loki Operator は、選択した LokiStack サイズ (1x.extra-small
、1x.small
、または 1x.medium
) に最適化されたルーラーを管理します。
これらの式を提供するには、Prometheus 互換の アラートルール を含む AlertingRule
カスタムリソース (CR)、または Prometheus 互換の 記録ルール を含む RecordingRule
CR を作成する必要があります。
管理者は、application
、audit
、または infrastructure
テナントのログベースのアラートまたは記録されたメトリクスを設定できます。管理者権限のないユーザーは、アクセス権のあるアプリケーションの application
テナントに対してログベースのアラートまたは記録されたメトリクスを設定できます。
アプリケーション、監査、およびインフラストラクチャーのアラートは、ローカルの Alertmanager インスタンスを無効にしていない限り、デフォルトで openshift-monitoring
namespace の OpenShift Container Platform モニタリングスタック Alertmanager に送信されます。openshift-user-workload-monitoring
namespace でユーザー定義プロジェクトの監視に使用される Alertmanager が有効になっている場合、アプリケーションアラートはデフォルトでこの namespace の Alertmanager に送信されます。
12.2.1. ルーラーの設定
LokiStack ルーラーコンポーネントが有効になっている場合、ユーザーはログアラートや記録されたメトリクスをトリガーする LogQL 式のグループを定義できます。
管理者は、LokiStack
カスタムリソース (CR) を変更することでルーラーを有効にできます。
前提条件
- Red Hat OpenShift Logging Operator と Loki Operator がインストールされている。
-
LokiStack
CR が作成されている。 - 管理者権限がある。
手順
LokiStack
CR に次の仕様設定が含まれていることを確認して、ルーラーを有効にします。apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: <name> namespace: <namespace> spec: # ... rules: enabled: true 1 selector: matchLabels: openshift.io/<label_name>: "true" 2 namespaceSelector: matchLabels: openshift.io/<label_name>: "true" 3
12.2.2. LokiStack ルールの RBAC 権限の認可
管理者は、クラスターロールをユーザー名にバインドすることで、ユーザーが独自のアラートおよび記録ルールを作成および管理できるようにすることができます。クラスターロールは、ユーザーに必要なロールベースのアクセス制御 (RBAC) 権限を含む ClusterRole
オブジェクトとして定義されます。
Logging 5.8 以降では、アラートおよび記録ルール用の次のクラスターロールを LokiStack で使用できます。
ルール名 | 説明 |
---|---|
|
このロールを持つユーザーは、アラートルールを管理する管理レベルのアクセス権を持ちます。このクラスターロールは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、記録ルールを管理する管理レベルのアクセス権を持ちます。このクラスターロールは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
|
このロールを持つユーザーは、 |
12.2.2.1. 例
ユーザーにクラスターロールを適用するには、既存のクラスターロールを特定のユーザー名にバインドする必要があります。
クラスターロールは、使用するロールバインディングの種類に応じて、クラスタースコープまたは namespace スコープにすることができます。RoleBinding
オブジェクトを使用する場合は、oc adm policy add-role-to-user
コマンドを使用する場合と同様に、クラスターロールが指定した namespace にのみ適用されます。ClusterRoleBinding
オブジェクトを使用する場合は、oc adm policy add-cluster-role-to-user
コマンドを使用する場合と同様に、クラスターロールがクラスター内のすべての namespace に適用されます。
次のコマンド例では、指定したユーザーに、クラスター内の特定の namespace のアラートルールに対する作成、読み取り、更新、および削除 (CRUD) 権限を付与します。
特定の namespace のアラートルールに対する CRUD 権限を付与するクラスターロールバインディングコマンドの例
$ oc adm policy add-role-to-user alertingrules.loki.grafana.com-v1-admin -n <namespace> <username>
次のコマンドは、指定したユーザーに、すべての namespace のアラートルールに対する管理者権限を付与します。
管理者権限を付与するクラスターロールバインディングコマンドの例
$ oc adm policy add-cluster-role-to-user alertingrules.loki.grafana.com-v1-admin <username>
12.2.3. Loki を使用したログベースのアラートルールの作成
AlertingRule
CR には、単一の LokiStack
インスタンスのアラートルールグループを宣言するために使用する、仕様および Webhook 検証定義のセットが含まれます。Webhook 検証定義は、ルール検証条件もサポートします。
-
AlertingRule
CR に無効なinterval
期間が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に無効なfor
期間が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に無効な LogQLexpr
が含まれる場合、無効なアラートルールです。 -
AlertingRule
CR に同じ名前のグループが 2 つ含まれる場合、無効なアラートルールです。 - 上記のいずれにも当てはまらない場合、アラートルールは有効であるとみなされます。
テナントタイプ | AlertingRule CR の有効な namespace |
---|---|
application | |
audit |
|
infrastructure |
|
前提条件
- Red Hat OpenShift Logging Operator 5.7 以降
- OpenShift Container Platform 4.13 以降
手順
AlertingRule
カスタムリソース (CR) を作成します。インフラストラクチャー AlertingRule CR の例
apiVersion: loki.grafana.com/v1 kind: AlertingRule metadata: name: loki-operator-alerts namespace: openshift-operators-redhat 1 labels: 2 openshift.io/<label_name>: "true" spec: tenantID: "infrastructure" 3 groups: - name: LokiOperatorHighReconciliationError rules: - alert: HighPercentageError expr: | 4 sum(rate({kubernetes_namespace_name="openshift-operators-redhat", kubernetes_pod_name=~"loki-operator-controller-manager.*"} |= "error" [1m])) by (job) / sum(rate({kubernetes_namespace_name="openshift-operators-redhat", kubernetes_pod_name=~"loki-operator-controller-manager.*"}[1m])) by (job) > 0.01 for: 10s labels: severity: critical 5 annotations: summary: High Loki Operator Reconciliation Errors 6 description: High Loki Operator Reconciliation Errors 7
- 1
- この
AlertingRule
CR が作成される namespace には、LokiStackspec.rules.namespaceSelector
定義に一致するラベルが必要です。 - 2
labels
ブロックは、LokiStack のspec.rules.selector
定義と一致する必要があります。- 3
infrastructure
テナントのAlertingRule
CR は、openshift-*
、kube-\*
、またはdefault
namespaces でのみサポートされます。- 4
kubernetes_namespace_name:
の値は、metadata.namespace
の値と一致する必要があります。- 5
- この必須フィールドの値は、
critical
、warning
、またはinfo
である必要があります。 - 6
- このフィールドは必須です。
- 7
- このフィールドは必須です。
アプリケーション AlertingRule CR の例
apiVersion: loki.grafana.com/v1 kind: AlertingRule metadata: name: app-user-workload namespace: app-ns 1 labels: 2 openshift.io/<label_name>: "true" spec: tenantID: "application" groups: - name: AppUserWorkloadHighError rules: - alert: expr: | 3 sum(rate({kubernetes_namespace_name="app-ns", kubernetes_pod_name=~"podName.*"} |= "error" [1m])) by (job) for: 10s labels: severity: critical 4 annotations: summary: 5 description: 6
- 1
- この
AlertingRule
CR が作成される namespace には、LokiStackspec.rules.namespaceSelector
定義に一致するラベルが必要です。 - 2
labels
ブロックは、LokiStack のspec.rules.selector
定義と一致する必要があります。- 3
kubernetes_namespace_name:
の値は、metadata.namespace
の値と一致する必要があります。- 4
- この必須フィールドの値は、
critical
、warning
、またはinfo
である必要があります。 - 5
- この必須フィールドの値は、ルールの概要です。
- 6
- この必須フィールドの値は、ルールの詳細な説明です。
AlertingRule
CR を適用します。$ oc apply -f <filename>.yaml
12.2.4. 関連情報
第13章 パフォーマンスと信頼性のチューニング
13.1. フロー制御メカニズム
ログの生成速度が収集できる速度よりも速い場合、出力に送信されるログの量の予測や制御が困難になることがあります。出力に送信されるログの量を予測または制御できないと、ログが失われる可能性があります。システムの停止が発生し、ユーザーの制御なしにログバッファーが蓄積されると、接続が復元されるときに回復時間と遅延が長くなることもあります。
管理者は、ログのフロー制御メカニズムを設定することで、ログの速度を制限できます。
13.1.1. フロー制御メカニズムの利点
- ログのコストと量をより正確に事前予測できます。
- ノイズの多いコンテナーが無制限に生成するログトラフィックにより、他のコンテナーのログが埋もれることがなくまります。
- 価値の低いログを無視することで、ロギングインフラストラクチャーの負荷が軽減されます。
- レート制限を引き上げることで、値の高いログを値の低いログよりも優先することができます。
13.1.2. レート制限の設定
レート制限はコレクターごとに設定されます。つまり、ログ収集の最大レートはコレクターインスタンスの数にレート制限を掛けたものになります。
ログは各ノードのファイルシステムから収集されるため、各クラスターノードにコレクターがデプロイされます。たとえば、3 ノードクラスターでは、コレクターあたりの最大レート制限が 1 秒あたり 10 レコードの場合、ログ収集の最大レートは 1 秒あたり 30 レコードになります。
出力に書き込まれるレコードの正確なバイトサイズは、変換、エンコーディングの違い、その他の要因によって異なる可能性があるため、レート制限はバイト数ではなくレコード数で設定されます。
ClusterLogForwarder
カスタムリソース (CR) でレート制限を設定するには、次の 2 つの方法があります。
- 出力レート制限
- 出力のネットワークやストレージ容量などに合わせて、選択した出力への送信ログの速度を制限します。出力レート制限では、出力ごとの集約レートを制御します。
- 入力レート制限
- 選択したコンテナーのコンテナーごとのログ収集レートを制限します。
13.1.3. ログフォワーダーの出力レート制限の設定
ClusterLogForwarder
カスタムリソース (CR) を設定することで、送信ログのレートを指定の出力に制限できます。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
手順
特定の出力の
ClusterLogForwarder
CR にmaxRecordsPerSecond
制限値を追加します。次の例は、
kafka-example
という名前の Kafka ブローカー出力のコレクターごとの出力レート制限を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: # ... outputs: - name: kafka-example 1 type: kafka 2 limit: maxRecordsPerSecond: 1000000 3 # ...
ClusterLogForwarder
CR を適用します。コマンドの例
$ oc apply -f <filename>.yaml
関連情報
13.1.4. ログフォワーダーの入力レート制限の設定
ClusterLogForwarder
カスタムリソース (CR) を設定することで、収集される受信ログの速度を制限できます。コンテナーごとまたは namespace ごとに入力制限を設定できます。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
手順
特定の入力の
ClusterLogForwarder
CR にmaxRecordsPerSecond
制限値を追加します。さまざまなシナリオで入力レート制限を設定する方法を以下に例示します。
特定のラベルを持つコンテナーに対してコンテナーごとの制限を設定する
ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: # ... inputs: - name: <input_name> 1 application: selector: matchLabels: { example: label } 2 containerLimit: maxRecordsPerSecond: 0 3 # ...
選択した namespace 内のコンテナーごとに制限を設定する
ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: # ... inputs: - name: <input_name> 1 application: namespaces: [ example-ns-1, example-ns-2 ] 2 containerLimit: maxRecordsPerSecond: 10 3 - name: <input_name> application: namespaces: [ test ] containerLimit: maxRecordsPerSecond: 1000 # ...
ClusterLogForwarder
CR を適用します。コマンドの例
$ oc apply -f <filename>.yaml
13.2. コンテンツによるログのフィルタリング
クラスターからすべてのログを収集すると、大量のデータが生成され、転送や保存にコストがかかる可能性があります。
保存する必要のない優先度の低いデータをフィルタリングすることで、ログデータの容量を削減できます。Logging ではコンテンツフィルターが提供されており、ログデータの量を減らすことができます。
コンテンツフィルターは input
セレクターとは異なります。input
セレクターは、ソースメタデータに基づいてログストリーム全体を選択または無視します。コンテンツフィルターはログストリームを編集して、レコードの内容に基づいてレコードを削除および変更します。
ログデータの量は、次のいずれかの方法を使用して削減できます。
13.2.1. 不要なログレコードを削除するコンテンツフィルターの設定
drop
フィルターが設定されている場合、ログコレクターは転送する前にフィルターに従ってログストリームを評価します。コレクターは、指定された設定に一致する不要なログレコードを削除します。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
-
ClusterLogForwarder
カスタムリソース (CR) を作成した。
手順
フィルターの設定を
ClusterLogForwarder
CR のfilters
仕様に追加します。以下の例は、正規表現に基づいてログレコードを削除するように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: filters: - name: <filter_name> type: drop 1 drop: 2 - test: 3 - field: .kubernetes.labels."foo-bar/baz" 4 matches: .+ 5 - field: .kubernetes.pod_name notMatches: "my-pod" 6 pipelines: - name: <pipeline_name> 7 filterRefs: ["<filter_name>"] # ...
- 1
- フィルターのタイプを指定します。
drop
フィルターは、フィルター設定に一致するログレコードをドロップします。 - 2
drop
フィルターを適用するための設定オプションを指定します。- 3
- ログレコードが削除されるかどうかを評価するために使用されるテストの設定を指定します。
- テストに指定されたすべての条件が true の場合、テストは合格し、ログレコードは削除されます。
-
drop
フィルター設定に複数のテストが指定されている場合、いずれかのテストに合格すると、レコードは削除されます。 - 条件の評価中にエラーが発生した場合 (たとえば、評価対象のログレコードにフィールドがない場合)、その条件は false と評価されます。
- 4
- ドットで区切られたフィールドパス (ログレコード内のフィールドへのパス) を指定します。パスには、英数字とアンダースコア (
a-zA-Z0-9_
) を含めることができます (例:.kubernetes.namespace_name
)。セグメントにこの範囲外の文字が含まれている場合、セグメントを引用符で囲む必要があります (例:.kubernetes.labels."foo.bar-bar/baz")
。1 つのtest
設定に複数のフィールドパスを含めることができますが、テストに合格してdrop
フィルターを適用するには、すべてのフィールドパスが true と評価される必要があります。 - 5
- 正規表現を指定します。ログレコードがこの正規表現と一致する場合は、破棄されます。単一の
field
パスに対してmatches
またはnotMatches
条件のいずれかを設定できますが、両方を設定することはできません。 - 6
- 正規表現を指定します。ログレコードがこの正規表現に一致しない場合、破棄されます。単一の
field
パスに対してmatches
またはnotMatches
条件のいずれかを設定できますが、両方を設定することはできません。 - 7
drop
フィルターが適用されるパイプラインを指定します。
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
追加例
次の例は、優先度の高いログレコードのみを保持するように drop
フィルターを設定する方法を示しています。
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: filters: - name: important type: drop drop: test: - field: .message notMatches: "(?i)critical|error" - field: .level matches: "info|warning" # ...
単一の test
設定に複数のフィールドパスを追加する以外に、OR チェックとして扱われる追加のテストも追加できます。次の例では、いずれかの test
設定が true と評価されるとレコードが削除されます。ただし、2 番目の test
設定では、true と評価されるためには、両方のフィールド仕様が true である必要があります。
apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: filters: - name: important type: drop drop: test: - field: .kubernetes.namespace_name matches: "^open" test: - field: .log_type matches: "application" - field: .kubernetes.pod_name notMatches: "my-pod" # ...
13.2.2. ログレコードを削除するコンテンツフィルターの設定
prune
フィルターが設定されると、ログコレクターは転送前にフィルターをもとにログレベルを評価します。コレクターは、Pod アノテーションなどの値の低いフィールドを削除してログレコードを整理します。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
-
ClusterLogForwarder
カスタムリソース (CR) を作成した。
手順
フィルターの設定を
ClusterLogForwarder
CR のprune
仕様に追加します。次の例は、フィールドパスに基づいてログレコードを削除するように
ClusterLogForwarder
CR を設定する方法を示しています。重要両方が指定されている場合、最初に
notIn
配列に基づいてレコードが整理され、in
配列よりも優先されます。notIn
配列を使用してレコードが整理された後、in
配列を使用してレコードが整理されます。ClusterLogForwarder
CR の例apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: # ... spec: filters: - name: <filter_name> type: prune 1 prune: 2 in: [.kubernetes.annotations, .kubernetes.namespace_id] 3 notIn: [.kubernetes,.log_type,.message,."@timestamp"] 4 pipelines: - name: <pipeline_name> 5 filterRefs: ["<filter_name>"] # ...
- 1
- フィルターのタイプを指定します。
prune
フィルターでは、設定されたフィールドでログレコードをプルーニングします。 - 2
prune
フィルターを適用するための設定オプションを指定します。in
フィールドとnotIn
フィールドは、ログレコード内のフィールドへのパスであるドット区切りのフィールドパスの配列として指定されます。これらのパスには、英数字とアンダースコア (a-zA-Z0-9_
) を含めることができます (例:.kubernetes.namespace_name
)。セグメントにこの範囲外の文字が含まれている場合、セグメントを引用符で囲む必要があります (例:.kubernetes.labels."foo.bar-bar/baz")
。- 3
- オプション: この配列で指定されたフィールドはすべてログレコードから削除されます。
- 4
- オプション: この配列で指定されていないフィールドはログレコードから削除されます。
- 5
prune
フィルターを適用するパイプラインを指定します。
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
13.2.3. 関連情報
13.3. メタデータによるログのフィルタリング
input
セレクターを使用して、ClusterLogForwarder
CR でログをフィルタリングし、メタデータに基づいてログストリーム全体を選択または無視できます。管理者または開発者は、ログ収集を含めるか除外して、コレクターのメモリーと CPU 負荷を軽減できます。
この機能は、ロギングのデプロイメントで Vector コレクターが設定されている場合にのみ使用できます。
input
仕様フィルタリングはコンテンツフィルタリングとは異なります。input
セレクターは、ソースメタデータに基づいてログストリーム全体を選択または無視します。コンテンツフィルターはログストリームを編集し、レコードの内容に基づいてレコードを削除および変更します。
13.3.1. namespace またはコンテナー名を含めるか除外して入力時にアプリケーションログをフィルタリングする手順
input
セレクターを使用して、namespace とコンテナー名に基づいてアプリケーションログを含めたり除外したりできます。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
-
ClusterLogForwarder
カスタムリソース (CR) を作成した。
手順
ClusterLogForwarder
CR に namespace とコンテナー名を含めるか除外するかの設定を追加します。以下の例は、namespace およびコンテナー名を含めるか、除外するように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder # ... spec: inputs: - name: mylogs application: includes: - namespace: "my-project" 1 container: "my-container" 2 excludes: - container: "other-container*" 3 namespace: "other-namespace" 4 # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
excludes
オプションは、include
オプションよりも優先されます。
13.3.2. ラベル式または照合するラベルキーと値のいずれかを追加して、入力時にアプリケーションログをフィルタリングする
input
セレクターを使用して、ラベル式または照合するラベルキーとその値に基づいてアプリケーションログを含めることができます。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
-
ClusterLogForwarder
カスタムリソース (CR) を作成した。
手順
ClusterLogForwarder
CR のinput
仕様にフィルターの設定を追加します。以下の例は、ラベル式または一致したラベルキー/値に基づいてログを組み込むように
ClusterLogForwarder
CR を設定する方法を示しています。ClusterLogForwarder
CR の例apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder # ... spec: inputs: - name: mylogs application: selector: matchExpressions: - key: env 1 operator: In 2 values: [“prod”, “qa”] 3 - key: zone operator: NotIn values: [“east”, “west”] matchLabels: 4 app: one name: app1 # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
13.3.3. ソースによる監査およびインフラストラクチャーログ入力のフィルタリング
input
セレクターを使用して、ログを収集する audit
および infrastructure
ソースのリストを定義できます。
前提条件
- Red Hat OpenShift Logging Operator がインストールされている。
- 管理者権限がある。
-
ClusterLogForwarder
カスタムリソース (CR) を作成した。
手順
ClusterLogForwarder
CR にaudit
およびinfrastructure
ソースを定義する設定を追加します。次の例は、
ClusterLogForwarder
CR を設定してaudit
およびinfrastructure
ソースを定義する方法を示しています。ClusterLogForwarder
CR の例apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder # ... spec: inputs: - name: mylogs1 infrastructure: sources: 1 - node - name: mylogs2 audit: sources: 2 - kubeAPI - openshiftAPI - ovn # ...
次のコマンドを実行して、
ClusterLogForwarder
CR を適用します。$ oc apply -f <filename>.yaml
第14章 スケジューリングリソース
14.1. ノードセレクターを使用したロギングリソースの移動
ノードセレクター は、ノードのカスタムラベルと Pod で指定されるセレクターを使用して定義されるキー/値のペアのマップを指定します。
Pod がノードで実行する要件を満たすには、Pod にはノードのラベルと同じキー/値のペアがなければなりません。
14.1.1. ノードセレクターについて
Pod でノードセレクターを使用し、ノードでラベルを使用して、Pod がスケジュールされる場所を制御できます。ノードセレクターにより、OpenShift Container Platform は一致するラベルが含まれるノード上に Pod をスケジュールします。
ノードセレクターを使用して特定の Pod を特定のノードに配置し、クラスタースコープのノードセレクターを使用して特定ノードの新規 Pod をクラスター内の任意の場所に配置し、プロジェクトノードを使用して新規 Pod を特定ノードのプロジェクトに配置できます。
たとえば、クラスター管理者は、作成するすべての Pod にノードセレクターを追加して、アプリケーション開発者が地理的に最も近い場所にあるノードにのみ Pod をデプロイできるインフラストラクチャーを作成できます。この例では、クラスターは 2 つのリージョンに分散する 5 つのデータセンターで構成されます。米国では、ノードに us-east
、us-central
、または us-west
のラベルを付けます。アジア太平洋リージョン (APAC) では、ノードに apac-east
または apac-west
のラベルを付けます。開発者は、Pod がこれらのノードにスケジュールされるように、作成する Pod にノードセレクターを追加できます。
Pod
オブジェクトにノードセレクターが含まれる場合でも、一致するラベルを持つノードがない場合、Pod はスケジュールされません。
同じ Pod 設定でノードセレクターとノードのアフィニティーを使用している場合は、以下のルールが Pod のノードへの配置を制御します。
-
nodeSelector
とnodeAffinity
の両方を設定する場合、Pod が候補ノードでスケジュールされるにはどちらの条件も満たしている必要があります。 -
nodeAffinity
タイプに関連付けられた複数のnodeSelectorTerms
を指定する場合、nodeSelectorTerms
のいずれかが満たされている場合に Pod をノードにスケジュールすることができます。 -
nodeSelectorTerms
に関連付けられた複数のmatchExpressions
を指定する場合、すべてのmatchExpressions
が満たされている場合にのみ Pod をノードにスケジュールすることができます。
- 特定の Pod およびノードのノードセレクター
ノードセレクターおよびラベルを使用して、特定の Pod がスケジュールされるノードを制御できます。
ノードセレクターおよびラベルを使用するには、まずノードにラベルを付けて Pod がスケジュール解除されないようにしてから、ノードセレクターを Pod に追加します。
注記ノードセレクターを既存のスケジュールされている Pod に直接追加することはできません。デプロイメント設定などの Pod を制御するオブジェクトにラベルを付ける必要があります。
たとえば、以下の
Node
オブジェクトにはregion: east
ラベルがあります。ラベルを含む
Node
オブジェクトのサンプルkind: Node apiVersion: v1 metadata: name: ip-10-0-131-14.ec2.internal selfLink: /api/v1/nodes/ip-10-0-131-14.ec2.internal uid: 7bc2580a-8b8e-11e9-8e01-021ab4174c74 resourceVersion: '478704' creationTimestamp: '2019-06-10T14:46:08Z' labels: kubernetes.io/os: linux topology.kubernetes.io/zone: us-east-1a node.openshift.io/os_version: '4.5' node-role.kubernetes.io/worker: '' topology.kubernetes.io/region: us-east-1 node.openshift.io/os_id: rhcos node.kubernetes.io/instance-type: m4.large kubernetes.io/hostname: ip-10-0-131-14 kubernetes.io/arch: amd64 region: east 1 type: user-node #...
- 1
- Pod ノードセレクターに一致するラベル。
Pod には
type: user-node,region: east
ノードセレクターがあります。ノードセレクターが含まれる
Pod
オブジェクトのサンプルapiVersion: v1 kind: Pod metadata: name: s1 #... spec: nodeSelector: 1 region: east type: user-node #...
- 1
- ノードトラベルに一致するノードセレクター。ノードには、各ノードセレクターのラベルが必要です。
サンプル Pod 仕様を使用して Pod を作成する場合、これはサンプルノードでスケジュールできます。
- クラスタースコープのデフォルトノードセレクター
デフォルトのクラスタースコープのノードセレクターを使用する場合、クラスターで Pod を作成すると、OpenShift Container Platform はデフォルトのノードセレクターを Pod に追加し、一致するラベルのあるノードで Pod をスケジュールします。
たとえば、以下の
Scheduler
オブジェクトにはデフォルトのクラスタースコープのregion=east
およびtype=user-node
ノードセレクターがあります。スケジューラー Operator カスタムリソースの例
apiVersion: config.openshift.io/v1 kind: Scheduler metadata: name: cluster #... spec: defaultNodeSelector: type=user-node,region=east #...
クラスター内のノードには
type=user-node,region=east
ラベルがあります。Node
オブジェクトの例apiVersion: v1 kind: Node metadata: name: ci-ln-qg1il3k-f76d1-hlmhl-worker-b-df2s4 #... labels: region: east type: user-node #...
ノードセレクターを持つ
Pod
オブジェクトの例apiVersion: v1 kind: Pod metadata: name: s1 #... spec: nodeSelector: region: east #...
サンプルクラスターでサンプル Pod 仕様を使用して Pod を作成する場合、Pod はクラスタースコープのノードセレクターで作成され、ラベルが付けられたノードにスケジュールされます。
ラベルが付けられたノード上の Pod を含む Pod リストの例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-s1 1/1 Running 0 20s 10.131.2.6 ci-ln-qg1il3k-f76d1-hlmhl-worker-b-df2s4 <none> <none>
注記Pod を作成するプロジェクトにプロジェクトノードセレクターがある場合、そのセレクターはクラスタースコープのセレクターよりも優先されます。Pod にプロジェクトノードセレクターがない場合、Pod は作成されたり、スケジュールされたりしません。
- プロジェクトノードセレクター
プロジェクトノードセレクターを使用する場合、このプロジェクトで Pod を作成すると、OpenShift Container Platform はノードセレクターを Pod に追加し、Pod を一致するラベルを持つノードでスケジュールします。クラスタースコープのデフォルトノードセレクターがない場合、プロジェクトノードセレクターが優先されます。
たとえば、以下のプロジェクトには
region=east
ノードセレクターがあります。Namespace
オブジェクトの例apiVersion: v1 kind: Namespace metadata: name: east-region annotations: openshift.io/node-selector: "region=east" #...
以下のノードには
type=user-node,region=east
ラベルがあります。Node
オブジェクトの例apiVersion: v1 kind: Node metadata: name: ci-ln-qg1il3k-f76d1-hlmhl-worker-b-df2s4 #... labels: region: east type: user-node #...
Pod をこのサンプルプロジェクトでサンプル Pod 仕様を使用して作成する場合、Pod はプロジェクトノードセレクターで作成され、ラベルが付けられたノードにスケジュールされます。
Pod
オブジェクトの例apiVersion: v1 kind: Pod metadata: namespace: east-region #... spec: nodeSelector: region: east type: user-node #...
ラベルが付けられたノード上の Pod を含む Pod リストの例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-s1 1/1 Running 0 20s 10.131.2.6 ci-ln-qg1il3k-f76d1-hlmhl-worker-b-df2s4 <none> <none>
Pod に異なるノードセレクターが含まれる場合、プロジェクトの Pod は作成またはスケジュールされません。たとえば、以下の Pod をサンプルプロジェクトにデプロイする場合、これは作成されません。
無効なノードセレクターを持つ
Pod
オブジェクトの例apiVersion: v1 kind: Pod metadata: name: west-region #... spec: nodeSelector: region: west #...
14.1.2. Loki Pod の配置
Pod の toleration またはノードセレクターを使用して、Loki Pod が実行するノードを制御し、他のワークロードがそれらのノードを使用しないようにできます。
LokiStack カスタムリソース (CR) を使用して toleration をログストア Pod に適用し、ノード仕様を使用して taint をノードに適用できます。ノードの taint は、taint を容認しないすべての Pod を拒否するようノードに指示する key:value
ペアです。他の Pod にはない特定の key:value
ペアを使用すると、ログストア Pod のみがそのノードで実行できるようになります。
ノードセレクターを使用する LokiStack の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: 1 nodeSelector: node-role.kubernetes.io/infra: "" 2 distributor: nodeSelector: node-role.kubernetes.io/infra: "" gateway: nodeSelector: node-role.kubernetes.io/infra: "" indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" ingester: nodeSelector: node-role.kubernetes.io/infra: "" querier: nodeSelector: node-role.kubernetes.io/infra: "" queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" ruler: nodeSelector: node-role.kubernetes.io/infra: "" # ...
前述の設定例では、すべての Loki Pod が node-role.kubernetes.io/infra: ""
ラベルを含むノードに移動されます。
ノードセレクターと toleration を使用する LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved distributor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ingester: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved querier: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ruler: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved gateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved # ...
LokiStack (CR) の nodeSelector
フィールドと tolerations
フィールドを設定するには、oc explain
コマンドを使用して、特定のリソースの説明とフィールドを表示します。
$ oc explain lokistack.spec.template
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: template <Object> DESCRIPTION: Template defines the resource/limits/tolerations/nodeselectors per component FIELDS: compactor <Object> Compactor defines the compaction component spec. distributor <Object> Distributor defines the distributor component spec. ...
詳細情報用に、特定のフィールドを追加できます。
$ oc explain lokistack.spec.template.compactor
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: compactor <Object> DESCRIPTION: Compactor defines the compaction component spec. FIELDS: nodeSelector <map[string]string> NodeSelector defines the labels required by a node to schedule the component onto it. ...
14.1.3. リソースの設定とロギングコレクターのスケジュール設定
管理者は、サポートされている ClusterLogForwarder
CR と同じ namespace 内に、同じ名前の ClusterLogging
カスタムリソース (CR) を作成することで、コレクターのリソースまたはスケジュールを変更できます。
デプロイメントで複数のログフォワーダーを使用する場合に ClusterLogging
CR に適用できるスタンザは、managementState
と collection
です。他のスタンザはすべて無視されます。
前提条件
- 管理者権限がある。
- Red Hat OpenShift Logging Operator バージョン 5.8 以降がインストールされている。
-
ClusterLogForwarder
CR が作成されている。
手順
既存の
ClusterLogForwarder
CR をサポートするClusterLogging
CR を作成します。ClusterLogging
CR YAML の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: <name> 1 namespace: <namespace> 2 spec: managementState: "Managed" collection: type: "vector" tolerations: - key: "logging" operator: "Exists" effect: "NoExecute" tolerationSeconds: 6000 resources: limits: memory: 1Gi requests: cpu: 100m memory: 1Gi nodeSelector: collector: needed # ...
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
14.1.4. ロギングコレクター Pod の表示
ロギングコレクター Pod と、それらが実行されている対応するノードを表示できます。
手順
プロジェクトで次のコマンドを実行して、ロギングコレクター Pod とその詳細を表示します。
$ oc get pods --selector component=collector -o wide -n <project_name>
出力例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES collector-8d69v 1/1 Running 0 134m 10.130.2.30 master1.example.com <none> <none> collector-bd225 1/1 Running 0 134m 10.131.1.11 master2.example.com <none> <none> collector-cvrzs 1/1 Running 0 134m 10.130.0.21 master3.example.com <none> <none> collector-gpqg2 1/1 Running 0 134m 10.128.2.27 worker1.example.com <none> <none> collector-l9j7j 1/1 Running 0 134m 10.129.2.31 worker2.example.com <none> <none>
14.1.5. 関連情報
14.2. taint と toleration を使用したロギング Pod の配置制御
taint および toleration により、ノードはノード上でスケジュールする必要のある (またはスケジュールすべきでない) Pod を制御できます。
14.2.1. taint および toleration について
taint により、ノードは Pod に一致する toleration がない場合に Pod のスケジュールを拒否することができます。
taint は Node
仕様 (NodeSpec
) でノードに適用され、toleration は Pod
仕様 (PodSpec
) で Pod に適用されます。taint をノードに適用する場合、スケジューラーは Pod が taint を容認しない限り、Pod をそのノードに配置することができません。
ノード仕様の taint の例
apiVersion: v1 kind: Node metadata: name: my-node #... spec: taints: - effect: NoExecute key: key1 value: value1 #...
Pod
仕様での toleration の例
apiVersion: v1 kind: Pod metadata: name: my-pod #... spec: tolerations: - key: "key1" operator: "Equal" value: "value1" effect: "NoExecute" tolerationSeconds: 3600 #...
taint および toleration は、key、value、および effect で構成されます。
パラメーター | 説明 | ||||||
---|---|---|---|---|---|---|---|
|
| ||||||
|
| ||||||
| effect は以下のいずれかにすることができます。
| ||||||
|
|
NoSchedule
taint をコントロールプレーンノードに追加すると、ノードには、デフォルトで追加されるnode-role.kubernetes.io/master=:NoSchedule
taint が必要です。以下に例を示します。
apiVersion: v1 kind: Node metadata: annotations: machine.openshift.io/machine: openshift-machine-api/ci-ln-62s7gtb-f76d1-v8jxv-master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-cdc1ab7da414629332cc4c3926e6e59c name: my-node #... spec: taints: - effect: NoSchedule key: node-role.kubernetes.io/master #...
toleration は taint と一致します。
operator
パラメーターがEqual
に設定されている場合:-
key
パラメーターは同じになります。 -
value
パラメーターは同じになります。 -
effect
パラメーターは同じになります。
-
operator
パラメーターがExists
に設定されている場合:-
key
パラメーターは同じになります。 -
effect
パラメーターは同じになります。
-
以下の taint は OpenShift Container Platform に組み込まれています。
-
node.kubernetes.io/not-ready
: ノードは準備状態にありません。これはノード条件Ready=False
に対応します。 -
node.kubernetes.io/unreachable
: ノードはノードコントローラーから到達不能です。これはノード条件Ready=Unknown
に対応します。 -
node.kubernetes.io/memory-pressure
: ノードにはメモリー不足の問題が発生しています。これはノード条件MemoryPressure=True
に対応します。 -
node.kubernetes.io/disk-pressure
: ノードにはディスク不足の問題が発生しています。これはノード条件DiskPressure=True
に対応します。 -
node.kubernetes.io/network-unavailable
: ノードのネットワークは使用できません。 -
node.kubernetes.io/unschedulable
: ノードはスケジュールが行えません。 -
node.cloudprovider.kubernetes.io/uninitialized
: ノードコントローラーが外部のクラウドプロバイダーを使用して起動すると、この taint はノード上に設定され、使用不可能とマークされます。cloud-controller-manager のコントローラーがこのノードを初期化した後に、kubelet がこの taint を削除します。 node.kubernetes.io/pid-pressure
: ノードが pid 不足の状態です。これはノード条件PIDPressure=True
に対応します。重要OpenShift Container Platform では、デフォルトの pid.available
evictionHard
は設定されません。
14.2.2. Loki Pod の配置
Pod の toleration またはノードセレクターを使用して、Loki Pod が実行するノードを制御し、他のワークロードがそれらのノードを使用しないようにできます。
LokiStack カスタムリソース (CR) を使用して toleration をログストア Pod に適用し、ノード仕様を使用して taint をノードに適用できます。ノードの taint は、taint を容認しないすべての Pod を拒否するようノードに指示する key:value
ペアです。他の Pod にはない特定の key:value
ペアを使用すると、ログストア Pod のみがそのノードで実行できるようになります。
ノードセレクターを使用する LokiStack の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: 1 nodeSelector: node-role.kubernetes.io/infra: "" 2 distributor: nodeSelector: node-role.kubernetes.io/infra: "" gateway: nodeSelector: node-role.kubernetes.io/infra: "" indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" ingester: nodeSelector: node-role.kubernetes.io/infra: "" querier: nodeSelector: node-role.kubernetes.io/infra: "" queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" ruler: nodeSelector: node-role.kubernetes.io/infra: "" # ...
前述の設定例では、すべての Loki Pod が node-role.kubernetes.io/infra: ""
ラベルを含むノードに移動されます。
ノードセレクターと toleration を使用する LokiStack CR の例
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki namespace: openshift-logging spec: # ... template: compactor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved distributor: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved indexGateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ingester: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved querier: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved queryFrontend: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved ruler: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved gateway: nodeSelector: node-role.kubernetes.io/infra: "" tolerations: - effect: NoSchedule key: node-role.kubernetes.io/infra value: reserved - effect: NoExecute key: node-role.kubernetes.io/infra value: reserved # ...
LokiStack (CR) の nodeSelector
フィールドと tolerations
フィールドを設定するには、oc explain
コマンドを使用して、特定のリソースの説明とフィールドを表示します。
$ oc explain lokistack.spec.template
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: template <Object> DESCRIPTION: Template defines the resource/limits/tolerations/nodeselectors per component FIELDS: compactor <Object> Compactor defines the compaction component spec. distributor <Object> Distributor defines the distributor component spec. ...
詳細情報用に、特定のフィールドを追加できます。
$ oc explain lokistack.spec.template.compactor
出力例
KIND: LokiStack VERSION: loki.grafana.com/v1 RESOURCE: compactor <Object> DESCRIPTION: Compactor defines the compaction component spec. FIELDS: nodeSelector <map[string]string> NodeSelector defines the labels required by a node to schedule the component onto it. ...
14.2.3. toleration を使用したログコレクター Pod 配置の制御
デフォルトで、ログコレクター Pod には以下の tolerations
設定があります。
apiVersion: v1 kind: Pod metadata: name: collector-example namespace: openshift-logging spec: # ... collection: type: vector tolerations: - effect: NoSchedule key: node-role.kubernetes.io/master operator: Exists - effect: NoSchedule key: node.kubernetes.io/disk-pressure operator: Exists - effect: NoExecute key: node.kubernetes.io/not-ready operator: Exists - effect: NoExecute key: node.kubernetes.io/unreachable operator: Exists - effect: NoSchedule key: node.kubernetes.io/memory-pressure operator: Exists - effect: NoSchedule key: node.kubernetes.io/pid-pressure operator: Exists - effect: NoSchedule key: node.kubernetes.io/unschedulable operator: Exists # ...
前提条件
-
Red Hat OpenShift Logging Operator および OpenShift CLI (
oc
) がインストールされている。
手順
次のコマンドを実行して、ロギングコレクター Pod をスケジュールするノードに taint を追加します。
$ oc adm taint nodes <node_name> <key>=<value>:<effect>
コマンドの例
$ oc adm taint nodes node1 collector=node:NoExecute
この例では、taint をキー
collector
、値node
、および taint effectNoExecute
のあるnode1
に配置します。NoExecute
taint effect を使用する必要があります。NoExecute
は、taint に一致する Pod のみをスケジュールし、一致しない既存の Pod を削除します。ClusterLogging
カスタムリソース (CR) のcollection
スタンザを編集して、ロギングコレクター Pod の toleration を設定します。apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: # ... spec: # ... collection: type: vector tolerations: - key: collector 1 operator: Exists 2 effect: NoExecute 3 tolerationSeconds: 6000 4 resources: limits: memory: 2Gi requests: cpu: 100m memory: 1Gi # ...
こ toleration は、oc adm taint
コマンドで作成された taint と一致します。この toleration のある Pod は node1
にスケジュールできます。
14.2.4. リソースの設定とロギングコレクターのスケジュール設定
管理者は、サポートされている ClusterLogForwarder
CR と同じ namespace 内に、同じ名前の ClusterLogging
カスタムリソース (CR) を作成することで、コレクターのリソースまたはスケジュールを変更できます。
デプロイメントで複数のログフォワーダーを使用する場合に ClusterLogging
CR に適用できるスタンザは、managementState
と collection
です。他のスタンザはすべて無視されます。
前提条件
- 管理者権限がある。
- Red Hat OpenShift Logging Operator バージョン 5.8 以降がインストールされている。
-
ClusterLogForwarder
CR が作成されている。
手順
既存の
ClusterLogForwarder
CR をサポートするClusterLogging
CR を作成します。ClusterLogging
CR YAML の例apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: <name> 1 namespace: <namespace> 2 spec: managementState: "Managed" collection: type: "vector" tolerations: - key: "logging" operator: "Exists" effect: "NoExecute" tolerationSeconds: 6000 resources: limits: memory: 1Gi requests: cpu: 100m memory: 1Gi nodeSelector: collector: needed # ...
次のコマンドを実行して、
ClusterLogging
CR を適用します。$ oc apply -f <filename>.yaml
14.2.5. ロギングコレクター Pod の表示
ロギングコレクター Pod と、それらが実行されている対応するノードを表示できます。
手順
プロジェクトで次のコマンドを実行して、ロギングコレクター Pod とその詳細を表示します。
$ oc get pods --selector component=collector -o wide -n <project_name>
出力例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES collector-8d69v 1/1 Running 0 134m 10.130.2.30 master1.example.com <none> <none> collector-bd225 1/1 Running 0 134m 10.131.1.11 master2.example.com <none> <none> collector-cvrzs 1/1 Running 0 134m 10.130.0.21 master3.example.com <none> <none> collector-gpqg2 1/1 Running 0 134m 10.128.2.27 worker1.example.com <none> <none> collector-l9j7j 1/1 Running 0 134m 10.129.2.31 worker2.example.com <none> <none>
14.2.6. 関連情報
第15章 ロギングのアンインストール
インストールされている Operator および関連するカスタムリソース (CR) を削除することで、OpenShift Container Platform クラスターからロギングを削除できます。
15.1. ロギングのアンインストール
Red Hat OpenShift Logging Operator と ClusterLogging
カスタムリソース (CR) を削除することで、ログの集約を停止できます。
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールで Administrator パースペクティブにアクセスできる。
手順
- Administration → Custom Resource Definitions ページに移動し、ClusterLogging をクリックします。
- Custom Resource Definition Details ページで、Instances をクリックします。
- インスタンスの横にあるオプションメニュー をクリックし、Delete ClusterLogging をクリックします。
- Administration → Custom Resource Definitions ページに移動します。
ClusterLogging の横にあるオプションメニュー をクリックし、Delete Custom Resource Definition を選択します。
警告ClusterLogging
CR を削除しても、永続ボリューム要求 (PVC) は削除されません。残りの PVC、永続ボリューム (PV)、および関連データを削除するには、さらに操作を実行する必要があります。PVC の解放または削除により PV が削除され、データの損失が生じる可能性があります。-
ClusterLogForwarder
CR を作成した場合は、ClusterLogForwarder の横にあるオプションメニュー をクリックし、Delete Custom Resource Definition をクリックします。 - Operators → Installed Operators ページに移動します。
- Red Hat OpenShift Logging Operator の横にあるオプションメニュー をクリックし、Uninstall Operator をクリックします。
オプション:
openshift-logging
プロジェクトを削除します。警告openshift-logging
プロジェクトを削除すると、永続ボリューム要求 (PVC) を含む、その namespace 内にあるのものがすべて削除されます。ロギングデータを保存する場合は、openshift-logging
プロジェクトを削除しないでください。- Home → Projects ページに移動します。
- openshift-logging プロジェクトの横にあるオプションメニュー をクリックし、Delete Project をクリックします。
-
ダイアログボックスに
openshift-logging
と入力して削除を確認し、Delete をクリックします。
15.2. ロギング PVC の削除
他の Pod で再利用できるように永続ボリューム要求 (PVC) を保持するには、PVC の回収に必要なラベルまたは PVC 名を保持します。PVC を保持する必要がない場合は、削除できます。ストレージ領域を回復する必要がある場合は、永続ボリューム (PV) を削除することもできます。
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールで Administrator パースペクティブにアクセスできる。
手順
- Storage → Persistent Volume Claims ページに移動します。
- 各 PVC の横にあるオプションメニュー をクリックし、Delete Persistent Volume Claim を選択します。
15.3. Loki のアンインストール
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールで Administrator パースペクティブにアクセスできる。
-
Red Hat OpenShift Logging Operator と関連リソースをまだ削除していない場合は、
ClusterLogging
カスタムリソースから LokiStack への参照の削除が完了している。
手順
- Administration → Custom Resource Definitions ページに移動し、LokiStack をクリックします。
- Custom Resource Definition Details ページで、Instances をクリックします。
- インスタンスの横にあるオプションメニュー をクリックし、Delete LokiStack をクリックします。
- Administration → Custom Resource Definitions ページに移動します。
- LokiStack の横にあるオプションメニュー をクリックし、Delete Custom Resource Definition を選択します。
- オブジェクトストレージシークレットを削除します。
- Operators → Installed Operators ページに移動します。
- Loki Operator の横にあるオプションメニュー をクリックし、Uninstall Operator をクリックします。
オプション:
openshift-operators-redhat
プロジェクトを削除します。重要他のグローバル Operator が
openshift-operators-redhat
namespace にインストールされている場合は、openshift-operators-redhat プロジェクトを削除しないでください。- Home → Projects ページに移動します。
- openshift-operators-redhat プロジェクトの横にあるオプションメニュー をクリックし、Delete Project をクリックします。
-
ダイアログボックスに
openshift-operators-redhat
と入力して削除を確認し、Delete をクリックします。
15.4. Elasticsearch のアンインストール
前提条件
- 管理者権限がある。
- OpenShift Container Platform Web コンソールで Administrator パースペクティブにアクセスできる。
-
Red Hat OpenShift Logging Operator と関連リソースをまだ削除していない場合は、
ClusterLogging
カスタムリソースから Elasticsearch への参照の削除が完了している。
手順
- Administration → Custom Resource Definitions ページに移動し、Elasticsearch をクリックします。
- Custom Resource Definition Details ページで、Instances をクリックします。
- インスタンスの横にあるオプションメニュー をクリックし、Delete Elasticsearch をクリックします。
- Administration → Custom Resource Definitions ページに移動します。
- Elasticsearch の横にあるオプションメニュー をクリックし、Delete Custom Resource Definition を選択します。
- オブジェクトストレージシークレットを削除します。
- Operators → Installed Operators ページに移動します。
- OpenShift Elasticsearch Operator の横にあるオプションメニュー をクリックし、Uninstall Operator をクリックします。
オプション:
openshift-operators-redhat
プロジェクトを削除します。重要他のグローバル Operator が
openshift-operators-redhat
namespace にインストールされている場合は、openshift-operators-redhat プロジェクトを削除しないでください。- Home → Projects ページに移動します。
- openshift-operators-redhat プロジェクトの横にあるオプションメニュー をクリックし、Delete Project をクリックします。
-
ダイアログボックスに
openshift-operators-redhat
と入力して削除を確認し、Delete をクリックします。
15.5. CLI の使用によるクラスターからの Operator の削除
クラスター管理者は CLI を使用して、選択した namespace からインストールされた Operator を削除できます。
前提条件
-
cluster-admin
パーミッションを持つアカウントを使用して OpenShift Container Platform クラスターにアクセスできる。 -
OpenShift CLI (
oc
) がワークステーションにインストールされている。
手順
サブスクライブした Operator の最新バージョン (
serverless-operator
など) が、currentCSV
フィールドで識別されていることを確認します。$ oc get subscription.operators.coreos.com serverless-operator -n openshift-serverless -o yaml | grep currentCSV
出力例
currentCSV: serverless-operator.v1.28.0
サブスクリプション (
serverless-operator
など) を削除します。$ oc delete subscription.operators.coreos.com serverless-operator -n openshift-serverless
出力例
subscription.operators.coreos.com "serverless-operator" deleted
直前の手順で
currentCSV
値を使用し、ターゲット namespace の Operator の CSV を削除します。$ oc delete clusterserviceversion serverless-operator.v1.28.0 -n openshift-serverless
出力例
clusterserviceversion.operators.coreos.com "serverless-operator.v1.28.0" deleted
関連情報
第16章 ログレコードのフィールド
ロギングによってエクスポートされたログレコードには、以下のフィールドが表示される場合があります。ログレコードは通常 JSON オブジェクトとしてフォーマットされますが、同じデータモデルは他のエンコーディングに適用できます。
Elasticsearch および Kibana からこれらのフィールドを検索するには、検索時に点線の全フィールド名を使用します。たとえば、Elasticsearch /_search URL の場合、Kubernetes Pod 名を検索するには、/_search/q=kubernetes.pod_name:name-of-my-pod
を使用します。
最上位フィールドはすべてのレコードに存在する可能性があります。
message
元のログエントリーテキスト (UTF-8 エンコード)。このフィールドが存在しないか、空でない 構造化
フィールドが存在する可能性があります。詳細は、structured
の説明を参照してください。
データのタイプ | text |
値の例 |
|
structured
構造化されたオブジェクトとしての元のログエントリー。このフィールドは、フォワーダーが構造化された JSON ログを解析するように設定されている場合に存在する可能性があります。元のログエントリーの構造化ログが有効である場合に、このフィールドには同等の JSON 構造が含まれます。それ以外の場合は、このフィールドは空または存在しないため、message
フィールドに元のログメッセージが含まれます。構造化された
フィールドには、ログメッセージに含まれるサブフィールドがあるので、ここでは制約が定義されていません。
データのタイプ | group |
値の例 | map[message:starting fluentd worker pid=21631 ppid=21618 worker=0 pid:21631 ppid:21618 worker:0] |
@timestamp
ログペイロードが作成された時点か、作成時間が不明な場合は、ログペイロードが最初に収集された時点の UTC 値のマーキング。“@” 接頭辞は、特定の用途で使用できるように予約されているフィールドを表します。ElasticSearch の場合、ほとんどのツールはデフォルトで “@timestamp" を検索します。
データのタイプ | 日付 |
値の例 |
|
hostname
このログメッセージの発信元のホスト名。Kubernetes クラスターでは、これは kubernetes.host
と同じです。
データのタイプ | キーワード |
ipaddr4
ソースサーバーの IPv4 アドレス。配列を指定できます。
データのタイプ | ip |
ipaddr6
ソースサーバーの IPv6 アドレス (ある場合)。配列を指定できます。
データのタイプ | ip |
level
rsyslog(severitytext property)
、Python のロギングモジュールなどのさまざまなソースのロギングレベル。
以下の値は syslog.h
から取得されます。値の前には 同等の数値 が追加されます。
-
0
=emerg
、システムが使用できない。 -
1
=alert
。アクションをすぐに実行する必要がある。 -
2
=crit
、致命的な状況。 -
3
=err
、エラーのある状況。 -
4
=warn
、警告のある状況。 -
5
=notice
、通常ではあるが、影響が大きい状況。 -
6
=info
、情報提供。 -
7
=debug
、デバッグレベルのメッセージ。
以下の 2 つの値は syslog.h
の一部ではありませんが、広く使用されています。
-
8
=trace
、トレースレベルメッセージ。これは、debug
メッセージよりも詳細にわたります。 -
9
=unknown
、ロギングシステムで認識できない値を取得した場合。
他のロギングシステムのログレベルまたは優先度を前述のリストで最も近い一致にマップします。たとえば python logging では、CRITICAL
と crit
、ERROR
と err
が同じです。
データのタイプ | キーワード |
値の例 |
|
pid
ロギングエンティティーのプロセス ID です (ある場合)。
データのタイプ | キーワード |
サービス
ロギングエンティティーに関連付けられたサービスの名前です (ある場合)。たとえば、syslog の APP-NAME
および rsyslog の programname
プロパティーはサービスフィールドにマップされます。
データのタイプ | キーワード |
第17章 tags
オプション:コレクターまたはノーマライザーによって各ログに配置される、Operator 定義のタグのリストです。ペイロードには、ホワイトスペースで区切られた文字列トークンまたは文字列トークンの JSON 一覧を使用した文字列を指定できます。
データのタイプ | text |
file
コレクターがこのログエントリーを読み取るログファイルへのパス。通常、これはクラスターノードの /var/log
ファイルシステム内のパスです。
データのタイプ | text |
offset
オフセット値。値が単一ログファイルで単調に増加する場合に、バイトの値をファイルのログ行 (ゼロまたは 1 ベース) またはログ行の番号 (ゼロまたは 1 ベース) の開始地点に表示できます。この値はラップでき、ログファイルの新規バージョンを表示できます (ローテーション)。
データのタイプ | Long |
第18章 kubernetes
Kubernetes 固有メタデータの namespace です。
データのタイプ | group |
18.1. kubernetes.pod_name
Pod の名前。
データのタイプ | キーワード |
18.2. kubernetes.pod_id
Pod の Kubernetes ID。
データのタイプ | キーワード |
18.3. kubernetes.namespace_name
Kubernetes の namespace の名前。
データのタイプ | キーワード |
18.4. kubernetes.namespace_id
Kubernetes の namespace ID。
データのタイプ | キーワード |
18.5. kubernetes.host
Kubernetes ノード名。
データのタイプ | キーワード |
18.6. kubernetes.container_name
Kubernetes のコンテナーの名前。
データのタイプ | キーワード |
18.7. kubernetes.annotations
Kubernetes オブジェクトに関連付けられるアノテーション。
データのタイプ | group |
18.8. kubernetes.labels
元の Kubernetes Pod にあるラベル
データのタイプ | group |
18.9. kubernetes.event
Kubernetes マスター API から取得した Kubernetes イベント。このイベントの説明は基本的に、Event v1 core の type Event
に準拠します。
データのタイプ | group |
18.9.1. kubernetes.event.verb
イベントのタイプ: ADDED
、MODIFIED
または DELETED
データのタイプ | キーワード |
値の例 |
|
18.9.2. kubernetes.event.metadata
イベント作成の場所および時間に関する情報
データのタイプ | group |
18.9.2.1. kubernetes.event.metadata.name
イベント作成をトリガーしたオブジェクトの名前
データのタイプ | キーワード |
値の例 |
|
18.9.2.2. kubernetes.event.metadata.namespace
イベントが最初に発生した namespace の名前。これは、eventrouter
アプリケーションのデプロイ先の namespace である kubernetes.namespace_name
とは異なることに注意してください。
データのタイプ | キーワード |
値の例 |
|
18.9.2.3. kubernetes.event.metadata.selfLink
イベントへのリンク
データのタイプ | キーワード |
値の例 |
|
18.9.2.4. kubernetes.event.metadata.uid
イベントの一意の ID
データのタイプ | キーワード |
値の例 |
|
18.9.2.5. kubernetes.event.metadata.resourceVersion
イベントが発生したサーバーの内部バージョンを識別する文字列。クライアントはこの文字列を使用して、オブジェクトが変更されたタイミングを判断できます。
データのタイプ | integer |
値の例 |
|
18.9.3. kubernetes.event.involvedObject
イベントに関するオブジェクト。
データのタイプ | group |
18.9.3.1. kubernetes.event.involvedObject.kind
オブジェクトのタイプ
データのタイプ | キーワード |
値の例 |
|
18.9.3.2. kubernetes.event.involvedObject.namespace
関係するオブジェクトの namespace 名。これは、eventrouter
アプリケーションのデプロイ先の namespace である kubernetes.namespace_name
とは異なる可能性があることに注意してください。
データのタイプ | キーワード |
値の例 |
|
18.9.3.3. kubernetes.event.involvedObject.name
イベントをトリガーしたオブジェクトの名前
データのタイプ | キーワード |
値の例 |
|
18.9.3.4. kubernetes.event.involvedObject.uid
オブジェクトの一意の ID
データのタイプ | キーワード |
値の例 |
|
18.9.3.5. kubernetes.event.involvedObject.apiVersion
kubernetes マスター API のバージョン
データのタイプ | キーワード |
値の例 |
|
18.9.3.6. kubernetes.event.involvedObject.resourceVersion
イベントをトリガーしたサーバーの内部バージョンの Pod を識別する文字列。クライアントはこの文字列を使用して、オブジェクトが変更されたタイミングを判断できます。
データのタイプ | キーワード |
値の例 |
|
18.9.4. kubernetes.event.reason
このイベントを生成する理由を示す、マシンが理解可能な短い文字列
データのタイプ | キーワード |
値の例 |
|
18.9.5. kubernetes.event.source_component
このイベントを報告したコンポーネント
データのタイプ | キーワード |
値の例 |
|
18.9.6. kubernetes.event.firstTimestamp
イベントが最初に記録された時間
データのタイプ | 日付 |
値の例 |
|
18.9.7. kubernetes.event.count
このイベントが発生した回数
データのタイプ | integer |
値の例 |
|
18.9.8. kubernetes.event.type
イベントのタイプ、Normal
または Warning
。今後、新しいタイプが追加される可能性があります。
データのタイプ | キーワード |
値の例 |
|
第19章 OpenShift
openshift-logging 固有のメタデータの namespace
データのタイプ | group |
19.1. openshift.labels
クラスターログフォワーダー設定によって追加されるラベル
データのタイプ | group |
第20章 API リファレンス
20.1. 5.6 Logging API リファレンス
20.1.1. Logging 5.6 API リファレンス
20.1.1.1. ClusterLogForwarder
ClusterLogForwarder は、転送ログを設定するための API です。
名前付き入力のセットから名前付き出力のセットに転送する pipelines
のリストを指定して、転送を設定します。
一般的なログカテゴリーには組み込みの入力名があり、カスタム入力を定義して、追加のフィルタリングを行うことができます。
デフォルトの OpenShift ログストアには組み込みの出力名がありますが、URL やその他の接続情報を使用して、独自の出力を定義し、クラスターの内部または外部の他のストアまたはプロセッサーにログを転送できます。
詳細は、API フィールドに関するドキュメントを参照してください。
プロパティー | 型 | 説明 |
---|---|---|
spec | object | ClusterLogForwarder の期待される動作の仕様 |
status | object | ClusterLogForwarder のステータス |
20.1.1.1.1. .spec
20.1.1.1.1.1. 説明
ClusterLogForwarderSpec は、ログをリモートターゲットに転送する方法を定義します。
20.1.1.1.1.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
inputs | array | (オプション) 入力は、転送されるログメッセージの名前付きフィルターです。 |
outputDefaults | object | (オプション) DEPRECATED OutputDefaults は、デフォルトストアのフォワーダー設定を明示的に指定します。 |
outputs | array | (オプション) 出力は、ログメッセージの名前付きの宛先です。 |
pipelines | array | pipelines は、一連の入力によって選択されたメッセージを一連の出力に転送します。 |
20.1.1.1.2. .spec.inputs[]
20.1.1.1.2.1. 説明
InputSpec は、ログメッセージのセレクターを定義します。
20.1.1.1.2.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
application | object |
(オプション) アプリケーション (存在する場合) は、 |
name | string |
|
20.1.1.1.3. .spec.inputs[].application
20.1.1.1.3.1. 説明
アプリケーションログセレクター。ログを選択するには、セレクターのすべての条件が満たされる (論理 AND) 必要があります。
20.1.1.1.3.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
namespaces | array | (オプション) アプリケーションログを収集する namespace。 |
selector | object | (オプション) ラベルが一致する Pod からのログのセレクター。 |
20.1.1.1.4. .spec.inputs[].application.namespaces[]
20.1.1.1.4.1. 説明
20.1.1.1.4.1.1. 型
- array
20.1.1.1.5. .spec.inputs[].application.selector
20.1.1.1.5.1. 説明
ラベルセレクターとは、一連のリソースに対するラベルクエリー機能です。
20.1.1.1.5.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
matchLabels | object | (オプション) matchLabels は {key,value} ペアのマップです。matchLabels の単一の {key,value} |
20.1.1.1.6. .spec.inputs[].application.selector.matchLabels
20.1.1.1.6.1. 説明
20.1.1.1.6.1.1. 型
- object
20.1.1.1.7. .spec.outputDefaults
20.1.1.1.7.1. 説明
20.1.1.1.7.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
elasticsearch | object | (オプション) Elasticsearch OutputSpec のデフォルト値 |
20.1.1.1.8. .spec.outputDefaults.elasticsearch
20.1.1.1.8.1. 説明
ElasticsearchStructuredSpec は、elasticsearch インデックスを決定するための構造化ログの変更に関連する仕様です。
20.1.1.1.8.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
enableStructuredContainerLogs | bool | (オプション) EnableStructuredContainerLogs は、複数コンテナーの構造化ログを許可します。 |
structuredTypeKey | string | (オプション) StructuredTypeKey は、elasticsearch インデックスの名前として使用されるメタデータキーを指定します。 |
structuredTypeName | string | (オプション) StructuredTypeName は、elasticsearch スキーマの名前を指定します。 |
20.1.1.1.9. .spec.outputs[]
20.1.1.1.9.1. 説明
出力は、ログメッセージの宛先を定義します。
20.1.1.1.9.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
syslog | object | (オプション) |
fluentdForward | object | (オプション) |
elasticsearch | object | (オプション) |
kafka | object | (オプション) |
cloudwatch | object | (オプション) |
loki | object | (オプション) |
googleCloudLogging | object | (オプション) |
splunk | object | (オプション) |
name | string |
|
secret | object | (オプション) 認証のシークレット。 |
tls | object | TLS には、TLS クライアント接続のオプションを制御するための設定が含まれています。 |
type | string | 出力プラグインのタイプ。 |
url | string | (オプション) ログレコードの送信先 URL。 |
20.1.1.1.10. .spec.outputs[].secret
20.1.1.1.10.1. 説明
OutputSecretSpec は、名前のみを含み、namespace を含まないシークレット参照です。
20.1.1.1.10.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
name | string | ログフォワーダーシークレット用に設定された namespace 内のシークレットの名前。 |
20.1.1.1.11. .spec.outputs[].tls
20.1.1.1.11.1. 説明
OutputTLSSpec には、出力タイプに依存しない TLS 接続のオプションが含まれています。
20.1.1.1.11.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
insecureSkipVerify | bool | InsecureSkipVerify が true の場合、TLS クライアントは証明書のエラーを無視するように設定されます。 |
20.1.1.1.12. .spec.pipelines[]
20.1.1.1.12.1. 説明
PipelinesSpec は、一連の入力を一連の出力にリンクします。
20.1.1.1.12.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
detectMultilineErrors | bool | (オプション) DetectMultilineErrors は、コンテナーログの複数行エラー検出を有効にします。 |
inputRefs | array |
InputRefs は、このパイプラインへの入力の名前 ( |
labels | object | (オプション) このパイプラインを通過するログレコードに適用されるラベル。 |
name | string |
(オプション) 名前は省略可能ですが、指定する場合は、 |
outputRefs | array |
OutputRefs は、このパイプラインからの出力の名前 ( |
parse | string | (オプション) 解析により、ログエントリーを構造化ログに解析できます。 |
20.1.1.1.13. .spec.pipelines[].inputRefs[]
20.1.1.1.13.1. 説明
20.1.1.1.13.1.1. 型
- array
20.1.1.1.14. .spec.pipelines[].labels
20.1.1.1.14.1. 説明
20.1.1.1.14.1.1. 型
- object
20.1.1.1.15. .spec.pipelines[].outputRefs[]
20.1.1.1.15.1. 説明
20.1.1.1.15.1.1. 型
- array
20.1.1.1.16. .status
20.1.1.1.16.1. 説明
ClusterLogForwarderStatus は、ClusterLogForwarder の監視状態を定義します。
20.1.1.1.16.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
conditions | object | ログフォワーダーの条件。 |
inputs | 条件 | 入力は、入力名を入力の条件にマッピングします。 |
outputs | 条件 | 出力は、出力名を出力の条件にマッピングします。 |
pipelines | 条件 | パイプラインは、パイプライン名をパイプラインの条件にマッピングします。 |
20.1.1.1.17. .status.conditions
20.1.1.1.17.1. 説明
20.1.1.1.17.1.1. 型
- object
20.1.1.1.18. .status.inputs
20.1.1.1.18.1. 説明
20.1.1.1.18.1.1. 型
- 条件
20.1.1.1.19. .status.outputs
20.1.1.1.19.1. 説明
20.1.1.1.19.1.1. 型
- 条件
20.1.1.1.20. .status.pipelines
20.1.1.1.20.1. 説明
20.1.1.1.20.1.1. 型
- Conditions== ClusterLogging A Red Hat OpenShift Logging インスタンス。ClusterLogging は、clusterloggings API のスキーマです。
プロパティー | 型 | 説明 |
---|---|---|
spec | object | ClusterLogging の期待される動作の仕様 |
status | object | Status は、ClusterLogging の監視状態を定義します。 |
20.1.1.1.21. .spec
20.1.1.1.21.1. 説明
ClusterLoggingSpec は ClusterLogging の期待される状態を定義します。
20.1.1.1.21.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
コレクション | object | クラスターの Collection コンポーネントの仕様 |
キュレーション | object | (非推奨) (オプション) 非推奨。クラスターの Curation コンポーネントの仕様 |
フォワーダー | object | (非推奨) (オプション) 非推奨。クラスターの Forwarder コンポーネントの仕様 |
logStore | object | (オプション) クラスターの Log Storage コンポーネントの仕様 |
managementState | string | (オプション) リソースが Operator により管理されている ('Managed') か管理されていない ('Unmanaged') かを示す指標 |
可視化 | object | (オプション) クラスターの Visualization コンポーネントの仕様 |
20.1.1.1.22. .spec.collection
20.1.1.1.22.1. 説明
これは、ログおよびイベントコレクションに関連する情報を含む構造体です。
20.1.1.1.22.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
resources | object | (オプション) コレクターのリソース要件 |
nodeSelector | object | (オプション) Pod がスケジュールされるノードを定義します。 |
toleration | array | (オプション) Pod が受け入れる Toleration を定義します。 |
fluentd | object | (オプション) Fluentd は、fluentd タイプのフォワーダーの設定を表します。 |
logs | object | (非推奨) (オプション) 非推奨。クラスターのログ収集の仕様 |
type | string | (オプション) 設定するログ収集のタイプ |
20.1.1.1.23. .spec.collection.fluentd
20.1.1.1.23.1. 説明
FluentdForwarderSpec は、fluentd タイプのフォワーダーの設定を表します。
20.1.1.1.23.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
buffer | object | |
inFile | object |
20.1.1.1.24. .spec.collection.fluentd.buffer
20.1.1.1.24.1. 説明
FluentdBufferSpec は、すべての fluentd 出力のバッファー設定をチューニングするための fluentd バッファーパラメーターのサブセットを表します。パラメーターのサブセットをサポートして、バッファーとキューのサイズ設定、フラッシュ操作、フラッシュの再試行を設定します。
一般的なパラメーターについては、https://docs.fluentd.org/configuration/buffer-section#buffering-parameters を参照してください。
フラッシュパラメーターについては、https://docs.fluentd.org/configuration/buffer-section#flushing-parameters を参照してください。
再試行パラメーターについては、https://docs.fluentd.org/configuration/buffer-section#retries-parameters を参照してください。
20.1.1.1.24.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
chunkLimitSize | string | (オプション) ChunkLimitSize は、各チャンクの最大サイズを表します。イベントは以下のようになります。 |
flushInterval | string | (オプション) FlushInterval は、2 つの連続するフラッシュの間の待機時間を表します。 |
flushMode | string | (オプション) FlushMode は、チャンクを書き込むフラッシュスレッドのモードを表します。モード |
flushThreadCount | int | (オプション) FlushThreadCount は、fluentd バッファーによって使用されるスレッドの数を表します。 |
overflowAction | string | (オプション) OverflowAction は、fluentd バッファープラグインが実行するアクションを表します。 |
retryMaxInterval | string | (オプション) RetryMaxInterval は、指数バックオフの最大時間間隔を表します。 |
retryTimeout | string | (オプション) RetryTimeout は、あきらめる前に再試行を試みる最大時間間隔を表します。 |
retryType | string | (オプション) RetryType は、再試行するフラッシュ操作のタイプを表します。フラッシュ操作は以下を実行できます。 |
retryWait | string | (オプション) RetryWait は、2 回連続して再試行してフラッシュするまでの時間を表します。 |
totalLimitSize | string | (オプション) TotalLimitSize は、fluentd ごとに許可されるノード領域のしきい値を表します。 |
20.1.1.1.25. .spec.collection.fluentd.inFile
20.1.1.1.25.1. 説明
FluentdInFileSpec は、すべての fluentd in-tail 入力の設定をチューニングするための fluentd in-tail プラグインパラメーターのサブセットを表します。
一般的なパラメーターについては、https://docs.fluentd.org/input/tail#parameters を参照してください。
20.1.1.1.25.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
readLinesLimit | int | (オプション) ReadLinesLimit は、各 I/O 操作で読み取る行数を表します。 |
20.1.1.1.26. .spec.collection.logs
20.1.1.1.26.1. 説明
20.1.1.1.26.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
fluentd | object | Fluentd Log Collection コンポーネントの仕様 |
type | string | 設定するログ収集のタイプ |
20.1.1.1.27. .spec.collection.logs.fluentd
20.1.1.1.27.1. 説明
CollectorSpec は、コレクターのスケジュールとリソースを定義するための仕様です。
20.1.1.1.27.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
nodeSelector | object | (オプション) Pod がスケジュールされるノードを定義します。 |
resources | object | (オプション) コレクターのリソース要件 |
toleration | array | (オプション) Pod が受け入れる Toleration を定義します。 |
20.1.1.1.28. .spec.collection.logs.fluentd.nodeSelector
20.1.1.1.28.1. 説明
20.1.1.1.28.1.1. 型
- object
20.1.1.1.29. .spec.collection.logs.fluentd.resources
20.1.1.1.29.1. 説明
20.1.1.1.29.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.30. .spec.collection.logs.fluentd.resources.limits
20.1.1.1.30.1. 説明
20.1.1.1.30.1.1. 型
- object
20.1.1.1.31. .spec.collection.logs.fluentd.resources.requests
20.1.1.1.31.1. 説明
20.1.1.1.31.1.1. 型
- object
20.1.1.1.32. .spec.collection.logs.fluentd.tolerations[]
20.1.1.1.32.1. 説明
20.1.1.1.32.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
effect | string | (オプション) Effect は、一致する taint 効果を示します。空の場合は、すべての taint 効果に一致します。 |
key | string | (オプション) Key は、toleration が適用される taint キーです。空の場合は、すべての taint キーに一致します。 |
operator | string | (オプション) Operator は、キーと値の関係を表します。 |
tolerationSeconds | int | (オプション) TolerationSeconds は、Toleration の期間を表します。 |
value | string | (オプション) Value は、toleration が一致する taint 値です。 |
20.1.1.1.33. .spec.collection.logs.fluentd.tolerations[].tolerationSeconds
20.1.1.1.33.1. 説明
20.1.1.1.33.1.1. 型
- int
20.1.1.1.34. .spec.curation
20.1.1.1.34.1. 説明
これは、ログのキュレーション (Curator) に関連する情報を含む構造体です。
20.1.1.1.34.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
curator | object | 設定するキュレーションの仕様 |
type | string | 設定するキュレーションの種類 |
20.1.1.1.35. .spec.curation.curator
20.1.1.1.35.1. 説明
20.1.1.1.35.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
nodeSelector | object | Pod がスケジュールされているノードを定義します。 |
resources | object | (オプション) Curator のリソース要件 |
schedule | string | Curator ジョブが実行される cron スケジュール。デフォルトは「30 3 * * *」です。 |
toleration | array |
20.1.1.1.36. .spec.curation.curator.nodeSelector
20.1.1.1.36.1. 説明
20.1.1.1.36.1.1. 型
- object
20.1.1.1.37. .spec.curation.curator.resources
20.1.1.1.37.1. 説明
20.1.1.1.37.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.38. .spec.curation.curator.resources.limits
20.1.1.1.38.1. 説明
20.1.1.1.38.1.1. 型
- object
20.1.1.1.39. .spec.curation.curator.resources.requests
20.1.1.1.39.1. 説明
20.1.1.1.39.1.1. 型
- object
20.1.1.1.40. .spec.curation.curator.tolerations[]
20.1.1.1.40.1. 説明
20.1.1.1.40.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
effect | string | (オプション) Effect は、一致する taint 効果を示します。空の場合は、すべての taint 効果に一致します。 |
key | string | (オプション) Key は、toleration が適用される taint キーです。空の場合は、すべての taint キーに一致します。 |
operator | string | (オプション) Operator は、キーと値の関係を表します。 |
tolerationSeconds | int | (オプション) TolerationSeconds は、Toleration の期間を表します。 |
value | string | (オプション) Value は、toleration が一致する taint 値です。 |
20.1.1.1.41. .spec.curation.curator.tolerations[].tolerationSeconds
20.1.1.1.41.1. 説明
20.1.1.1.41.1.1. 型
- int
20.1.1.1.42. .spec.forwarder
20.1.1.1.42.1. 説明
ForwarderSpec には、特定のフォワーダー実装のグローバルチューニングパラメーターが含まれています。このフィールドは、一般的な使用には必要ありません。基礎となるフォワーダーテクノロジーに精通しているユーザーがパフォーマンスをチューニングできるようにします。現在サポートされているもの: fluentd
。
20.1.1.1.42.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
fluentd | object |
20.1.1.1.43. .spec.forwarder.fluentd
20.1.1.1.43.1. 説明
FluentdForwarderSpec は、fluentd タイプのフォワーダーの設定を表します。
20.1.1.1.43.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
buffer | object | |
inFile | object |
20.1.1.1.44. .spec.forwarder.fluentd.buffer
20.1.1.1.44.1. 説明
FluentdBufferSpec は、すべての fluentd 出力のバッファー設定をチューニングするための fluentd バッファーパラメーターのサブセットを表します。パラメーターのサブセットをサポートして、バッファーとキューのサイズ設定、フラッシュ操作、フラッシュの再試行を設定します。
一般的なパラメーターについては、https://docs.fluentd.org/configuration/buffer-section#buffering-parameters を参照してください。
フラッシュパラメーターについては、https://docs.fluentd.org/configuration/buffer-section#flushing-parameters を参照してください。
再試行パラメーターについては、https://docs.fluentd.org/configuration/buffer-section#retries-parameters を参照してください。
20.1.1.1.44.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
chunkLimitSize | string | (オプション) ChunkLimitSize は、各チャンクの最大サイズを表します。イベントは以下のようになります。 |
flushInterval | string | (オプション) FlushInterval は、2 つの連続するフラッシュの間の待機時間を表します。 |
flushMode | string | (オプション) FlushMode は、チャンクを書き込むフラッシュスレッドのモードを表します。モード |
flushThreadCount | int | (オプション) FlushThreadCount は、fluentd バッファーによって使用されるスレッドの数を表します。 |
overflowAction | string | (オプション) OverflowAction は、fluentd バッファープラグインが実行するアクションを表します。 |
retryMaxInterval | string | (オプション) RetryMaxInterval は、指数バックオフの最大時間間隔を表します。 |
retryTimeout | string | (オプション) RetryTimeout は、あきらめる前に再試行を試みる最大時間間隔を表します。 |
retryType | string | (オプション) RetryType は、再試行するフラッシュ操作のタイプを表します。フラッシュ操作は以下を実行できます。 |
retryWait | string | (オプション) RetryWait は、2 回連続して再試行してフラッシュするまでの時間を表します。 |
totalLimitSize | string | (オプション) TotalLimitSize は、fluentd ごとに許可されるノード領域のしきい値を表します。 |
20.1.1.1.45. .spec.forwarder.fluentd.inFile
20.1.1.1.45.1. 説明
FluentdInFileSpec は、すべての fluentd in-tail 入力の設定をチューニングするための fluentd in-tail プラグインパラメーターのサブセットを表します。
一般的なパラメーターについては、https://docs.fluentd.org/input/tail#parameters を参照してください。
20.1.1.1.45.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
readLinesLimit | int | (オプション) ReadLinesLimit は、各 I/O 操作で読み取る行数を表します。 |
20.1.1.1.46. .spec.logStore
20.1.1.1.46.1. 説明
LogStoreSpec には、ログの保存方法に関する情報が含まれています。
20.1.1.1.46.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
elasticsearch | object | Elasticsearch Log Store コンポーネントの仕様 |
lokistack | object | LokiStack には、Type が LogStoreTypeLokiStack に設定されている場合、ログストレージに使用する LokiStack に関する情報が含まれています。 |
retentionPolicy | object | (オプション) 保持ポリシーは、インデックスが削除されるまでの最大期間を定義します。 |
type | string | 設定するログストレージのタイプ。現在、Operator は、ElasticSearch を使用して、いずれかをサポートしています。 |
20.1.1.1.47. .spec.logStore.elasticsearch
20.1.1.1.47.1. 説明
20.1.1.1.47.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
nodeCount | int | Elasticsearch 用にデプロイするノードの数 |
nodeSelector | object | Pod がスケジュールされているノードを定義します。 |
proxy | object | Elasticsearch Proxy コンポーネントの仕様 |
redundancyPolicy | string | (オプション) |
resources | object | (オプション) Elasticsearch のリソース要件 |
storage | object | (オプション) Elasticsearch データノードのストレージ仕様 |
toleration | array |
20.1.1.1.48. .spec.logStore.elasticsearch.nodeSelector
20.1.1.1.48.1. 説明
20.1.1.1.48.1.1. 型
- object
20.1.1.1.49. .spec.logStore.elasticsearch.proxy
20.1.1.1.49.1. 説明
20.1.1.1.49.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
resources | object |
20.1.1.1.50. .spec.logStore.elasticsearch.proxy.resources
20.1.1.1.50.1. 説明
20.1.1.1.50.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.51. .spec.logStore.elasticsearch.proxy.resources.limits
20.1.1.1.51.1. 説明
20.1.1.1.51.1.1. 型
- object
20.1.1.1.52. .spec.logStore.elasticsearch.proxy.resources.requests
20.1.1.1.52.1. 説明
20.1.1.1.52.1.1. 型
- object
20.1.1.1.53. .spec.logStore.elasticsearch.resources
20.1.1.1.53.1. 説明
20.1.1.1.53.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.54. .spec.logStore.elasticsearch.resources.limits
20.1.1.1.54.1. 説明
20.1.1.1.54.1.1. 型
- object
20.1.1.1.55. .spec.logStore.elasticsearch.resources.requests
20.1.1.1.55.1. 説明
20.1.1.1.55.1.1. 型
- object
20.1.1.1.56. .spec.logStore.elasticsearch.storage
20.1.1.1.56.1. 説明
20.1.1.1.56.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
size | object | ノードがプロビジョニングする最大ストレージ容量。 |
storageClassName | string | (オプション) ノードの PVC の作成に使用するストレージクラスの名前。 |
20.1.1.1.57. .spec.logStore.elasticsearch.storage.size
20.1.1.1.57.1. 説明
20.1.1.1.57.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
形式 | string | 形式を自由に変更します。Canonicalize のコメントを参照してください。 |
d | object | d.Dec != nil の場合、d は inf.Dec 形式の数量です。 |
i | int | d.Dec == nil の場合、i は int64 でスケーリングされた形式の数量です。 |
s | string | s は、再計算を避けるために生成されたこの量の値です。 |
20.1.1.1.58. .spec.logStore.elasticsearch.storage.size.d
20.1.1.1.58.1. 説明
20.1.1.1.58.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
Dec | object |
20.1.1.1.59. .spec.logStore.elasticsearch.storage.size.d.Dec
20.1.1.1.59.1. 説明
20.1.1.1.59.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
scale | int | |
unscaled | object |
20.1.1.1.60. .spec.logStore.elasticsearch.storage.size.d.Dec.unscaled
20.1.1.1.60.1. 説明
20.1.1.1.60.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
abs | Word | sign |
neg | bool |
20.1.1.1.61. .spec.logStore.elasticsearch.storage.size.d.Dec.unscaled.abs
20.1.1.1.61.1. 説明
20.1.1.1.61.1.1. 型
- Word
20.1.1.1.62. .spec.logStore.elasticsearch.storage.size.i
20.1.1.1.62.1. 説明
20.1.1.1.62.1.1. 型
- int
プロパティー | 型 | 説明 |
---|---|---|
scale | int | |
value | int |
20.1.1.1.63. .spec.logStore.elasticsearch.tolerations[]
20.1.1.1.63.1. 説明
20.1.1.1.63.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
effect | string | (オプション) Effect は、一致する taint 効果を示します。空の場合は、すべての taint 効果に一致します。 |
key | string | (オプション) Key は、toleration が適用される taint キーです。空の場合は、すべての taint キーに一致します。 |
operator | string | (オプション) Operator は、キーと値の関係を表します。 |
tolerationSeconds | int | (オプション) TolerationSeconds は、Toleration の期間を表します。 |
value | string | (オプション) Value は、toleration が一致する taint 値です。 |
20.1.1.1.64. .spec.logStore.elasticsearch.tolerations[].tolerationSeconds
20.1.1.1.64.1. 説明
20.1.1.1.64.1.1. 型
- int
20.1.1.1.65. .spec.logStore.lokistack
20.1.1.1.65.1. 説明
LokiStackStoreSpec は、LokiStack をログストレージとして使用するように、cluster-logging を設定するために使用されます。これは、同じ namespace 内の既存の LokiStack を指しています。
20.1.1.1.65.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
name | string | LokiStack リソースの名前。 |
20.1.1.1.66. .spec.logStore.retentionPolicy
20.1.1.1.66.1. 説明
20.1.1.1.66.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
application | object | |
audit | object | |
infra | object |
20.1.1.1.67. .spec.logStore.retentionPolicy.application
20.1.1.1.67.1. 説明
20.1.1.1.67.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
diskThresholdPercent | int | (オプション) ES ディスク使用率のしきい値に達した場合、古いインデックスを削除する必要があります (例: 75)。 |
maxAge | string | (オプション) |
namespaceSpec | array | (オプション) 指定された最小期間よりも古いドキュメントを削除する namespace ごとの仕様 |
pruneNamespacesInterval | string | (オプション) 新しい prune-namespaces ジョブを実行する頻度 |
20.1.1.1.68. .spec.logStore.retentionPolicy.application.namespaceSpec[]
20.1.1.1.68.1. 説明
20.1.1.1.68.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
minAge | string | (オプション) この MinAge よりも古い namespace に一致するレコードを削除します (例: 1d)。 |
namespace | string | MinAge より古いログを削除するターゲット namespace (デフォルトは 7d) |
20.1.1.1.69. .spec.logStore.retentionPolicy.audit
20.1.1.1.69.1. 説明
20.1.1.1.69.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
diskThresholdPercent | int | (オプション) ES ディスク使用率のしきい値に達した場合、古いインデックスを削除する必要があります (例: 75)。 |
maxAge | string | (オプション) |
namespaceSpec | array | (オプション) 指定された最小期間よりも古いドキュメントを削除する namespace ごとの仕様 |
pruneNamespacesInterval | string | (オプション) 新しい prune-namespaces ジョブを実行する頻度 |
20.1.1.1.70. .spec.logStore.retentionPolicy.audit.namespaceSpec[]
20.1.1.1.70.1. 説明
20.1.1.1.70.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
minAge | string | (オプション) この MinAge よりも古い namespace に一致するレコードを削除します (例: 1d)。 |
namespace | string | MinAge より古いログを削除するターゲット namespace (デフォルトは 7d) |
20.1.1.1.71. .spec.logStore.retentionPolicy.infra
20.1.1.1.71.1. 説明
20.1.1.1.71.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
diskThresholdPercent | int | (オプション) ES ディスク使用率のしきい値に達した場合、古いインデックスを削除する必要があります (例: 75)。 |
maxAge | string | (オプション) |
namespaceSpec | array | (オプション) 指定された最小期間よりも古いドキュメントを削除する namespace ごとの仕様 |
pruneNamespacesInterval | string | (オプション) 新しい prune-namespaces ジョブを実行する頻度 |
20.1.1.1.72. .spec.logStore.retentionPolicy.infra.namespaceSpec[]
20.1.1.1.72.1. 説明
20.1.1.1.72.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
minAge | string | (オプション) この MinAge よりも古い namespace に一致するレコードを削除します (例: 1d)。 |
namespace | string | MinAge より古いログを削除するターゲット namespace (デフォルトは 7d) |
20.1.1.1.73. .spec.visualization
20.1.1.1.73.1. 説明
これは、ログの視覚化 (Kibana) に関連する情報を含む構造体です。
20.1.1.1.73.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
kibana | object | Kibana Visualization コンポーネントの仕様 |
type | string | 設定する可視化のタイプ |
20.1.1.1.74. .spec.visualization.kibana
20.1.1.1.74.1. 説明
20.1.1.1.74.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
nodeSelector | object | Pod がスケジュールされているノードを定義します。 |
proxy | object | Kibana Proxy コンポーネントの仕様 |
replicas | int | Kibana デプロイメント用にデプロイするインスタンスの数 |
resources | object | (オプション) Kibana のリソース要件 |
toleration | array |
20.1.1.1.75. .spec.visualization.kibana.nodeSelector
20.1.1.1.75.1. 説明
20.1.1.1.75.1.1. 型
- object
20.1.1.1.76. .spec.visualization.kibana.proxy
20.1.1.1.76.1. 説明
20.1.1.1.76.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
resources | object |
20.1.1.1.77. .spec.visualization.kibana.proxy.resources
20.1.1.1.77.1. 説明
20.1.1.1.77.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.78. .spec.visualization.kibana.proxy.resources.limits
20.1.1.1.78.1. 説明
20.1.1.1.78.1.1. 型
- object
20.1.1.1.79. .spec.visualization.kibana.proxy.resources.requests
20.1.1.1.79.1. 説明
20.1.1.1.79.1.1. 型
- object
20.1.1.1.80. .spec.visualization.kibana.replicas
20.1.1.1.80.1. 説明
20.1.1.1.80.1.1. 型
- int
20.1.1.1.81. .spec.visualization.kibana.resources
20.1.1.1.81.1. 説明
20.1.1.1.81.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
limits | object | (オプション) Limits は、許可されるコンピューティングリソースの最大量を示します。 |
requests | object | (オプション) Requests は、必要なコンピューティングリソースの最小量を示します。 |
20.1.1.1.82. .spec.visualization.kibana.resources.limits
20.1.1.1.82.1. 説明
20.1.1.1.82.1.1. 型
- object
20.1.1.1.83. .spec.visualization.kibana.resources.requests
20.1.1.1.83.1. 説明
20.1.1.1.83.1.1. 型
- object
20.1.1.1.84. .spec.visualization.kibana.tolerations[]
20.1.1.1.84.1. 説明
20.1.1.1.84.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
effect | string | (オプション) Effect は、一致する taint 効果を示します。空の場合は、すべての taint 効果に一致します。 |
key | string | (オプション) Key は、toleration が適用される taint キーです。空の場合は、すべての taint キーに一致します。 |
operator | string | (オプション) Operator は、キーと値の関係を表します。 |
tolerationSeconds | int | (オプション) TolerationSeconds は、Toleration の期間を表します。 |
value | string | (オプション) Value は、toleration が一致する taint 値です。 |
20.1.1.1.85. .spec.visualization.kibana.tolerations[].tolerationSeconds
20.1.1.1.85.1. 説明
20.1.1.1.85.1.1. 型
- int
20.1.1.1.86. .status
20.1.1.1.86.1. 説明
ClusterLoggingStatus は、ClusterLogging の監視状態を定義します。
20.1.1.1.86.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
コレクション | object | (オプション) |
conditions | object | (オプション) |
キュレーション | object | (オプション) |
logStore | object | (オプション) |
可視化 | object | (オプション) |
20.1.1.1.87. .status.collection
20.1.1.1.87.1. 説明
20.1.1.1.87.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
logs | object | (オプション) |
20.1.1.1.88. .status.collection.logs
20.1.1.1.88.1. 説明
20.1.1.1.88.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
fluentdStatus | object | (オプション) |
20.1.1.1.89. .status.collection.logs.fluentdStatus
20.1.1.1.89.1. 説明
20.1.1.1.89.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
clusterCondition | object | (オプション) |
daemonSet | string | (オプション) |
nodes | object | (オプション) |
pods | string | (オプション) |
20.1.1.1.90. .status.collection.logs.fluentdStatus.clusterCondition
20.1.1.1.90.1. 説明
operator-sdk generate crds
は、map-of-slice を許可していません。名前付きタイプを使用する必要があります。
20.1.1.1.90.1.1. 型
- object
20.1.1.1.91. .status.collection.logs.fluentdStatus.nodes
20.1.1.1.91.1. 説明
20.1.1.1.91.1.1. 型
- object
20.1.1.1.92. .status.conditions
20.1.1.1.92.1. 説明
20.1.1.1.92.1.1. 型
- object
20.1.1.1.93. .status.curation
20.1.1.1.93.1. 説明
20.1.1.1.93.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
curatorStatus | array | (オプション) |
20.1.1.1.94. .status.curation.curatorStatus[]
20.1.1.1.94.1. 説明
20.1.1.1.94.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
clusterCondition | object | (オプション) |
cronJobs | string | (オプション) |
スケジュール | string | (オプション) |
suspended | bool | (オプション) |
20.1.1.1.95. .status.curation.curatorStatus[].clusterCondition
20.1.1.1.95.1. 説明
operator-sdk generate crds
は、map-of-slice を許可していません。名前付きタイプを使用する必要があります。
20.1.1.1.95.1.1. 型
- object
20.1.1.1.96. .status.logStore
20.1.1.1.96.1. 説明
20.1.1.1.96.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
elasticsearchStatus | array | (オプション) |
20.1.1.1.97. .status.logStore.elasticsearchStatus[]
20.1.1.1.97.1. 説明
20.1.1.1.97.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
cluster | object | (オプション) |
clusterConditions | object | (オプション) |
clusterHealth | string | (オプション) |
clusterName | string | (オプション) |
デプロイメント | array | (オプション) |
nodeConditions | object | (オプション) |
nodeCount | int | (オプション) |
pods | object | (オプション) |
replicaSets | array | (オプション) |
shardAllocationEnabled | string | (オプション) |
statefulSets | array | (オプション) |
20.1.1.1.98. .status.logStore.elasticsearchStatus[].cluster
20.1.1.1.98.1. 説明
20.1.1.1.98.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
activePrimaryShards | int | Elasticsearch クラスターのアクティブなプライマリーシャードの数 |
activeShards | int | Elasticsearch クラスターのアクティブなシャードの数 |
initializingShards | int | Elasticsearch クラスターの初期化中のシャードの数 |
numDataNodes | int | Elasticsearch クラスターのデータノードの数 |
numNodes | int | Elasticsearch クラスターのノードの数 |
pendingTasks | int | |
relocatingShards | int | Elasticsearch クラスターの再配置シャードの数 |
status | string | Elasticsearch クラスターの現在のステータス |
unassignedShards | int | Elasticsearch クラスターの未割り当てシャードの数 |
20.1.1.1.99. .status.logStore.elasticsearchStatus[].clusterConditions
20.1.1.1.99.1. 説明
20.1.1.1.99.1.1. 型
- object
20.1.1.1.100. .status.logStore.elasticsearchStatus[].deployments[]
20.1.1.1.100.1. 説明
20.1.1.1.100.1.1. 型
- array
20.1.1.1.101. .status.logStore.elasticsearchStatus[].nodeConditions
20.1.1.1.101.1. 説明
20.1.1.1.101.1.1. 型
- object
20.1.1.1.102. .status.logStore.elasticsearchStatus[].pods
20.1.1.1.102.1. 説明
20.1.1.1.102.1.1. 型
- object
20.1.1.1.103. .status.logStore.elasticsearchStatus[].replicaSets[]
20.1.1.1.103.1. 説明
20.1.1.1.103.1.1. 型
- array
20.1.1.1.104. .status.logStore.elasticsearchStatus[].statefulSets[]
20.1.1.1.104.1. 説明
20.1.1.1.104.1.1. 型
- array
20.1.1.1.105. .status.visualization
20.1.1.1.105.1. 説明
20.1.1.1.105.1.1. 型
- object
プロパティー | 型 | 説明 |
---|---|---|
kibanaStatus | array | (オプション) |
20.1.1.1.106. .status.visualization.kibanaStatus[]
20.1.1.1.106.1. 説明
20.1.1.1.106.1.1. 型
- array
プロパティー | 型 | 説明 |
---|---|---|
clusterCondition | object | (オプション) |
deployment | string | (オプション) |
pods | string | (オプション) 可視化コンポーネントの各 Kibana Pod のステータス |
replicaSets | array | (オプション) |
replicas | int | (オプション) |
20.1.1.1.107. .status.visualization.kibanaStatus[].clusterCondition
20.1.1.1.107.1. 説明
20.1.1.1.107.1.1. 型
- object
20.1.1.1.108. .status.visualization.kibanaStatus[].replicaSets[]
20.1.1.1.108.1. 説明
20.1.1.1.108.1.1. 型
- array
第21章 用語集
この用語集では、ロギングのドキュメントで使用される一般的な用語を定義します。
- アノテーション
- アノテーションを使用して、メタデータをオブジェクトに添付できます。
- Red Hat OpenShift Logging Operator
- Red Hat OpenShift Logging Operator は、アプリケーション、インフラストラクチャー、監査ログの収集と転送を制御する一連の API を提供します。
- カスタムリソース (CR)
-
CR は Kubernetes API のエクステンションです。ロギングとログ転送を設定するために、
ClusterLogging
およびClusterLogForwarder
カスタムリソースをカスタマイズできます。 - イベントルーター
- イベントルーターは、OpenShift Container Platform イベントを監視する Pod です。ロギングを使用してログを収集します。
- Fluentd
- Fluentd は、各 OpenShift Container Platform ノードに常駐するログコレクターです。アプリケーション、インフラストラクチャー、および監査ログを収集し、それらをさまざまな出力に転送します。
- ガベージコレクション
- ガベージコレクションは、終了したコンテナーや実行中の Pod によって参照されていないイメージなどのクラスターリソースをクリーンアップするプロセスです。
- Elasticsearch
- Elasticsearch は、分散検索および分析エンジンです。OpenShift Container Platform は、ロギングのデフォルトのログストアとして Elasticsearch を使用します。
- OpenShift Elasticsearch Operator
- OpenShift Elasticsearch Operator は、OpenShift Container Platform で Elasticsearch クラスターを実行するために使用されます。OpenShift Elasticsearch Operator は、Elasticsearch クラスター操作のセルフサービスを提供し、ロギングによって使用されます。
- インデックス作成
- インデックス作成は、データをすばやく見つけてアクセスするために使用されるデータ構造手法です。インデックスを作成すると、クエリーの処理時に必要なディスクアクセスの量が最小限に抑えられるため、パフォーマンスが最適化されます。
- JSON ロギング
- ログ転送 API を使用すると、JSON ログを構造化オブジェクトに解析し、それらをロギングが管理する Elasticsearch またはログ転送 API でサポートされる他のサードパーティーシステムに転送できます。
- Kibana
- Kibana は、ヒストグラム、折れ線グラフ、円グラフを使用して Elasticsearch データを照会、検出、視覚化するためのブラウザーベースのコンソールインターフェイスです。
- Kubernetes API サーバー
- Kubernetes API サーバーは、API オブジェクトのデータを検証して設定します。
- Labels
- ラベルは、Pod などのオブジェクトのサブセットを整理および選択するために使用できるキーと値のペアです。
- Logging
- ロギングを使用すると、クラスター全体のアプリケーション、インフラストラクチャー、監査ログを集約できます。また、ログをデフォルトのログストアに保存したり、サードパーティーのシステムに転送したり、デフォルトのログストアに保存されているログを照会して視覚化したりすることもできます。
- ロギングコレクター
- ロギングコレクターは、クラスターからログを収集してフォーマットし、ログストアまたはサードパーティーシステムに転送します。
- ログストア
- ログストアは、集約されたログを格納するために使用されます。内部ログストアを使用することも、外部ログストアにログを転送することもできます。
- ログビジュアライザー
- ログビジュアライザーは、ログ、グラフ、チャート、その他のメトリクスなどの情報を表示するために使用できるユーザーインターフェイス (UI) コンポーネントです。
- ノード
- ノードは、OpenShift Container Platform クラスター内のワーカーマシンです。ノードは、仮想マシン (VM) または物理マシンのいずれかです。
- Operator
- Operator は、OpenShift Container Platform クラスターで Kubernetes アプリケーションをパッケージ化、デプロイ、および管理するための推奨される方法。Operator は、人間による操作に関する知識を取り入れて、簡単にパッケージ化してお客様と共有できるソフトウェアにエンコードします。
- Pod
- Pod は、Kubernetes における最小の論理単位です。Pod は 1 つ以上のコンテナーで構成され、ワーカーノードで実行されます。
- ロールベースアクセス制御 (RBAC)
- RBAC は、クラスターユーザーとワークロードが、ロールを実行するために必要なリソースにのみアクセスできるようにするための重要なセキュリティーコントロールです。
- シャード
- Elasticsearch は、Fluentd からのログデータをデータストアまたはインデックスに編成し、各インデックスをシャードと呼ばれる複数の部分に分割します。
- taint
- taint は、Pod が適切なノードに確実にスケジュールされるようにします。ノードに 1 つ以上の taint を適用できます。
- toleration
- Pod に toleration を適用できます。Tolerations を使用すると、スケジューラーは、taint が一致する Pod をスケジュールできます。
- Web コンソール
- OpenShift Container Platform を管理するためのユーザーインターフェイス (UI)。
Legal Notice
Copyright © 2024 Red Hat, Inc.
OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).
Modified versions must remove all Red Hat trademarks.
Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.
Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.