運用データの計測
物理リソースおよび仮想リソースのトラッキングおよびメトリックの収集
概要
Red Hat ドキュメントへのフィードバック (英語のみ) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。
Jira でドキュメントのフィードバックを提供する
ドキュメントに関するフィードバックを提供するには、Create Issue フォームを使用します。Red Hat OpenStack Platform Jira プロジェクトで Jira 課題が作成され、フィードバックの進行状況を追跡できます。
- Jira にログインしていることを確認してください。Jira アカウントをお持ちでない場合は、アカウントを作成してフィードバックを送信してください。
- Create Issue をクリックして、Create Issue ページを開きます。
- Summary フィールドと Description フィールドに入力します。Description フィールドに、ドキュメントの URL、章またはセクション番号、および問題の詳しい説明を入力します。フォーム内の他のフィールドは変更しないでください。
- Create をクリックします。
第1章 運用データ計測の概要 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) 環境の Telemetry サービスのコンポーネントを使用して、物理リソースおよび仮想リソースをトラッキングし、デプロイメントにおける CPU の使用状況やリソースの可用性などのメトリックを収集することができます。これには、Gnocchi バックエンドに集約値を保管するデータ収集デーモンが使用されます。
可用性およびパフォーマンス監視ツールを使用して、RHOSP 環境の計測および維持を行うことができます。これらのツールは、以下の機能を果たします。
- 可用性監視
- RHOSP 環境内の全コンポーネントを監視して、いずれかのコンポーネントが現在使用できない、または機能していない状態かどうかを判断します。問題が確認された時にシステムがアラートを送信するように設定することも可能です。
- パフォーマンスの監視
- データ収集デーモンを使用してシステム情報を定期的に収集し、その値を保管および監視することができます。このデーモンにより、収集したオペレーティングシステムやログファイル等のデータを保管します。また、ネットワーク経由でデータを利用できるようになります。データから取得した統計値を使用して、システムの監視、パフォーマンスのボトルネックの特定、および将来的なシステム負荷の予測を行うことができます。
1.1. Telemetry のアーキテクチャー リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) Telemetry は、OpenStack をベースとするクラウドのユーザーレベルの使用状況データを提供します。このデータを、顧客への請求、システムのモニタリング、またはアラートに使用することができます。Telemetry のコンポーネントを設定し、既存の RHOSP コンポーネントにより送信される通知から (例: Compute の使用状況イベント)、または RHOSP インフラストラクチャーリソースへのポーリングにより (例: libvirt)、データを収集することができます。Telemetry は、収集したデータをデータストアやメッセージキュー等のさまざまなターゲットに公開します。
Telemetry は以下のコンポーネントで構成されます。
- Data collection: Telemetry は Ceilometer を使用してメトリックデータおよびイベントデータを収集します。詳細は、「Ceilometer」を参照してください。
- ストレージ: Telemetry は、メトリックデータを Gnocchi に、イベントデータを Panko に保存します。詳細は、「Gnocchi を使用したストレージ」 を参照してください。
- Alarm service: Telemetry は、Alarming サービス Aodh を使用してアクションをトリガーします。アクションのトリガーは、Ceilometer の収集するメトリックデータまたはイベントデータに対して定義されたルールに基づきます。
データを収集したら、サードパーティーのツールを使用してメトリックデータを表示および解析し、Alarming サービスを使用してイベントのアラームを設定できます。
図1.1 Telemetry のアーキテクチャー
1.1.1. 監視コンポーネントのサポート状況 リンクのコピーリンクがクリップボードにコピーされました!
以下の表に、Red Hat OpenStack Platform (RHOSP) の監視用コンポーネントに対するサポート状況を示します。
| コンポーネント | 以降でフルサポート | 非推奨化 | 以降で削除 | 注記 |
|---|---|---|---|---|
| Aodh | RHOSP 9 | RHOSP 15 | 自動スケーリングのユースケースでサポートされています。 | |
| Ceilometer | RHOSP 4 | 自動スケーリングおよびサービステレメトリーフレームワーク (STF) のユースケースで RHOSP のメトリクスとイベントの収集がサポートされています。 | ||
| Collectd | RHOSP 11 | RHOSP 17.1 | STF のインフラストラクチャーメトリクスの収集がサポートされています。 | |
| Gnocchi | RHOSP 9 | RHOSP 15 | 自動スケーリングのユースケースのメトリックのストレージがサポートされています。 | |
| Panko | RHOSP 11 | RHOSP 12、RHOSP 14 以降、デフォルトではインストールされていません | RHOSP 17.0 | |
| QDR | RHOSP 13 | RHOSP 17.1 | RHOSP から STF へのメトリクスおよびイベントデータの送信がサポートされています。 |
1.2. Red Hat OpenStack Platform におけるデータ収集 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) は、2 種類のデータ収集をサポートします。
- OpenStack コンポーネントレベルのモニタリング用の Ceilometer。詳細は、「Ceilometer」 を参照してください。
- インフラストラクチャーモニタリング用の collectd。詳細は、「collectd」 を参照してください。
1.2.1. Ceilometer リンクのコピーリンクがクリップボードにコピーされました!
Ceilometer は OpenStack Telemetry サービスのデフォルトのデータ収集コンポーネントで、現在の OpenStack コアコンポーネント全体にわたってデータを正規化し変換することができます。Ceilometer は、OpenStack サービスに関連する計測データおよびイベントデータを収集します。デプロイメントの設定に応じて、ユーザーは収集したデータにアクセスすることができます。
Ceilometer サービスは、3 つのエージェントを使用して Red Hat OpenStack Platform (RHOSP) コンポーネントからデータを収集します。
-
コンピュートエージェント (ceilometer-agent-compute): 各コンピュートノードで実行され、リソースの使用状況の統計値をポーリングします。このエージェントは、パラメーター
--polling namespace-computeを使用して実行しているポーリングエージェントceilometer-pollingと同じです。 -
中央エージェント (ceilometer-agent-central): 中央の管理サーバーで実行され、インスタンスまたは Compute ノードに関連付けられないリソースの使用状況の統計値をポーリングします。複数のエージェントを起動して、サービスをスケーリングすることができます。これは、パラメーター
--polling namespace-centralを使用して実行しているポーリングエージェントceilometer-pollingと同じです。 - 通知エージェント (ceilometer-agent-notification): 中央の管理サーバーで実行され、メッセージキューからのメッセージを処理してイベントデータおよび計測データをビルドします。定義されたターゲットにデータを公開します。デフォルトのターゲットは gnocchi です。これらのサービスは、RHOSP の通知バスを使用して通信します。
Ceilometer エージェントは、パブリッシャーを使用してデータを該当するエンドポイント (Gnocchi 等) に送信します。この情報は、pipeline.yaml ファイルで設定することができます。
関連情報
- パブリッシャーの詳細は、「パブリッシャー」を参照してください。
1.2.1.1. パブリッシャー リンクのコピーリンクがクリップボードにコピーされました!
Telemetry サービスでは、さまざまな転送方法により収集したデータを外部システムに送付することができます。転送方法の要件はこのデータを使用するシステムにより異なり、たとえばモニタリングシステムではデータ損失が許容され、請求システムでは信頼性の高いデータ転送が必要とされます。Telemetry は、両方のシステム種別の要件を満たす方法を提供します。サービスのパブリッシャーコンポーネントを使用して、メッセージバスを介してデータを永続ストレージに保存することや、1 つまたは複数の外部コンシューマーに送信することができます。1 つのチェーンに複数のパブリッシャーを含めることができます。
以下のパブリッシャー種別がサポートされます。
- Gnocchi (デフォルト): Gnocchi パブリッシャーが有効な場合、計測およびリソース情報が時系列データに最適化されたストレージ用の Gnocchi にプッシュされます。Ceilometer は Identity サービスを通じて正確なパスを検出するので、Gnocchi を Identity サービスに登録するようにします。
- Panko: Ceilometer からのイベントデータを panko に保管することができます。panko は、Red Hat OpenStack Platform のシステムイベントのクエリーを行うための HTTP REST インターフェイスを提供します。Panko は非推奨となりました。
パブリッシャーパラメーターの設定
Telemetry サービス内の各データポイントに、複数のパブリッシャーを設定することができます。これにより、同じ技術メーターまたはイベントを複数のターゲットに複数回公開することができます。この場合、それぞれ異なる転送方法を使用することが可能です。
手順
パブリッシャーパラメーターおよびデフォルト値を記述するための YAML ファイルを作成します (例:
ceilometer-publisher.yaml)。以下のパラメーターをparameter_defaultsに追加します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow オーバークラウドをデプロイする。
openstack overcloud deployコマンドに修正した YAML ファイルを追加します。以下の例の<environment_files>を、デプロイメントに含めるその他の YAML ファイルに置き換えます。openstack overcloud deploy --templates \ -e /home/custom/ceilometer-publisher.yaml -e <environment_files>
$ openstack overcloud deploy --templates \ -e /home/custom/ceilometer-publisher.yaml -e <environment_files>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- パラメーターの詳細は、オーバークラウドのパラメーター の Telemetry パラメーター、および オーバークラウドの高度なカスタマイズ の heat パラメーター を参照してください。
1.2.2. collectd リンクのコピーリンクがクリップボードにコピーされました!
パフォーマンスのモニタリングでは、データ収集エージェントを使用してシステム情報を定期的に収集し、その値をさまざまな方法で保管および監視することができます。Red Hat は、データ収集エージェントとして collectd デーモンをサポートします。このデーモンは、データを時系列データベースに保管します。Red Hat がサポートするデータベースの 1 つは Gnocchi と呼ばれます。保管されたこのデータを使用して、システムの監視、パフォーマンスのボトルネックの特定、および将来的なシステム負荷の予測を行うことができます。
関連情報
- Gnocchi の詳細は、「Gnocchi を使用したストレージ」を参照してください。
1.3. Gnocchi を使用したストレージ リンクのコピーリンクがクリップボードにコピーされました!
Gnocchi はオープンソースの時系列データベースです。大量のメトリックを保管し、operator およびユーザーにメトリックおよびリソースへのアクセスを提供します。Gnocchi は、アーカイブポリシーを使用して処理する集約および保持する集約値の数を定義します。インデクサードライバーは、すべてのリソース、アーカイブポリシー、およびメトリックのインデックスを保管します。
1.3.1. アーカイブポリシー: 時系列データベースへの短期および長期両データの保管 リンクのコピーリンクがクリップボードにコピーされました!
アーカイブポリシーにより、処理する集約および保持する集約値の数を定義します。Gnocchi は、最小値、最大値、平均値、N 番目パーセンタイル、標準偏差などのさまざまな集約メソッドをサポートします。これらの集約は粒度と呼ばれる期間にわたって処理され、特定のタイムスパンの間保持されます。
アーカイブポリシーは、メトリックの集約方法および保管期間を定義します。それぞれのアーカイブポリシーは、タイムスパンにおけるポイント数として定義されます。
たとえば、アーカイブポリシーで 1 秒の粒度および 10 ポイントのポリシーを定義すると、時系列アーカイブは最大 10 秒間保持し、それぞれが 1 秒間の集約を表します。つまり、時系列は最大で、より新しいポイントと古いポイント間の 10 秒間のデータを保持します。
アーカイブポリシーは、使用する集約メソッドも定義します。デフォルトはパラメーター default_aggregation_methods で設定し、そのデフォルト値は mean、min、max、sum、std、count に設定されています。したがって、ユースケースによってアーカイブポリシーおよび粒度は異なります。
関連情報
- アーカイブポリシーの詳細は、アーカイブポリシーのプランニングおよび管理を参照してください。
1.3.2. インデクサードライバー リンクのコピーリンクがクリップボードにコピーされました!
インデクサーは、すべてのリソース、アーカイブポリシー、およびメトリックのインデックス、ならびにそれらの定義、種別、および属性を保管するロールを担います。また、リソースとメトリックをリンクさせる機能も果たします。Red Hat OpenStack Platform director は、デフォルトでインデクサードライバーをインストールします。Gnocchi が処理するすべてのリソースおよびメトリックをインデックス化するデータベースが必要です。サポートされるドライバーは MySQL です。
1.3.3. Gnocchi Metric-as-a-Service に関する用語 リンクのコピーリンクがクリップボードにコピーされました!
Metric-as-a-Service 機能で一般的に使用される用語の定義を以下の表にまとめます。
| 用語 | 定義 |
|---|---|
| 集約メソッド | 複数の計測値から 1 つの集約値を生成するのに使用される関数。たとえば、min 集約メソッドであれば、さまざまな計測値を、特定期間内の全計測値の最小値に集約します。 |
| 集約値 (Aggregate) | アーカイブポリシーに従って複数の計測値から生成されたデータポイントタプル。集約値はタイムスタンプおよび値で構成されます。 |
| アーカイブポリシー | メトリックに割り当てられた集約値の保管ポリシー。アーカイブポリシーにより、集約値がメトリックに保持される期間および集約値の生成方法 (集約メソッド) が決定されます。 |
| 粒度 (Granularity) | メトリックの集約時系列における 2 つの集約値の時間間隔 |
| 計測値 (Measure) | API によって時系列データベースに送信される受信データポイントタプル。計測値はタイムスタンプおよび値で構成されます。 |
| メトリック | UUID で識別される集約値を保管するエンティティー。名前を使用して、メトリックをリソースに割り当てることができます。メトリックがその集約値をどのように保管するかは、メトリックが関連付けられたアーカイブポリシーで定義されます。 |
| リソース | メトリックを関連付ける、インフラストラクチャー内の任意の項目を表すエンティティー。リソースは一意の ID で識別され、属性を含めることができます。 |
| 時系列 (Time series) | 集約値を時刻順に並べたリスト |
| タイムスパン | メトリックがその集約値を保持する期間。アーカイブポリシーを定義する際に使用されます。 |
1.4. メトリックデータの表示 リンクのコピーリンクがクリップボードにコピーされました!
以下のツールを使用して、メトリックデータを表示および解析することができます。
- Grafana: オープンソースのメトリック分析および可視化スイート。Grafana は、インフラストラクチャーおよびアプリケーションを解析する際、時系列データの可視化用に最も一般的に使用されているツールです。
- Red Hat CloudForms: インフラストラクチャーの管理プラットフォーム。IT 部門はこれを使用して、プロビジョニングおよび管理に関するユーザーのセルフサービス機能をコントロールし、仮想マシンおよびプライベートクラウド全体にわたるコンプライアンスを確保します。
関連情報
- Grafana の詳細は、「データ表示のための Grafana の使用および接続」を参照してください。
- Red Hat Cloudforms の詳細は、製品ドキュメント を参照してください。
1.4.1. データ表示のための Grafana の使用および接続 リンクのコピーリンクがクリップボードにコピーされました!
Grafana 等のサードパーティーソフトウェアを使用して、収集および保管したメトリックをグラフィカルに表示することができます。
Grafana は、オープンソースのメトリック解析、モニタリング、および可視化スイートです。Grafana をインストールおよび設定するには、公式の Grafana documentation を参照してください。
第2章 運用データ計測のプランニング リンクのコピーリンクがクリップボードにコピーされました!
監視するリソースは、ビジネスの要件によって異なります。Ceilometer または collectd を使用して、リソースを監視することができます。
- collectd による計測の詳細は、「collectd による計測」を参照してください。
- Ceilometer による計測の詳細は、「Ceilometer による計測」を参照してください。
2.1. Ceilometer による計測 リンクのコピーリンクがクリップボードにコピーされました!
Ceilometer の計測値の完全なリストは、Measurements を参照してください。
2.2. collectd による計測 リンクのコピーリンクがクリップボードにコピーされました!
以下の計測は、有用な collectd メトリクスです。
- disk
- interface
- load
- memory
- processes
- tcpconns
2.3. データストレージのプランニング リンクのコピーリンクがクリップボードにコピーされました!
Gnocchi は、データポイントのコレクションを保管します。この場合、それぞれのデータポイントが集約値です。ストレージの形式は、異なる技術を使用して圧縮されます。したがって、時系列データベースのサイズを計算する場合、ワーストケースのシナリオに基づいてサイズを見積もる必要があります。
時系列データベース (Gnocchi) ストレージ用の Red Hat OpenStack Platform (RHOSP) Object Storage (swift) の使用は、小規模な非実稼働環境でのみサポートされています。
手順
データポイントの数を計算します。
ポイント数 = タイムスパン / 粒度
たとえば、1 分間の解像度で 1 年分のデータを保持する場合は、以下の式を使用します。
データポイント数 = (365 日 X 24 時間 X 60 分) / 1 分 = 525600
時系列データベースのサイズを計算します。
サイズ (バイト単位) = データポイント数 X 8 バイト
この式を例に当てはめると、結果は 4.1 MB になります。
サイズ (バイト単位) = 525600 ポイント X 8 バイト = 4204800 バイト = 4.1 MB
この値は、単一の集約時系列データベースの推定ストレージ要件です。アーカイブポリシーで複数の集約メソッド (min、max、mean、sum、std、および count) が使用される場合は、使用する集約メソッドの数をこの値に掛けます。
2.4. アーカイブポリシーのプランニングおよび管理 リンクのコピーリンクがクリップボードにコピーされました!
アーカイブポリシーは、メトリックの集約方法および時系列データベースへの保管期間を定義します。アーカイブポリシーは、タイムスパンにおけるポイント数として定義されます。
アーカイブポリシーで 1 秒の粒度および 10 ポイントのポリシーを定義すると、時系列アーカイブは最大 10 秒間保持し、それぞれが 1 秒間の集約を表します。つまり、時系列は最大で、より新しいポイントと古いポイント間の 10 秒間のデータを保持します。アーカイブポリシーは、使用する集約メソッドも定義します。デフォルトはパラメーター default_aggregation_methods に設定され、デフォルト値は mean、min、max、sum、std、count に設定されます。したがって、ユースケースによってアーカイブポリシーおよび粒度は異なる場合があります。
アーカイブポリシーをプランニングするには、以下の概念に精通している必要があります。
- メトリック:詳細は、「メトリック」 を参照してください。
- 計測値:詳細は、「カスタム計測値の作成」 を参照してください。
- 集約:詳細は、「時系列集約値のサイズの計算」 を参照してください。
- metricd ワーカー:詳細は、「metricd ワーカー」 を参照してください。
アーカイブポリシーを作成および管理するには、以下のタスクを実行します。
- アーカイブポリシーを作成する。詳細は、「アーカイブポリシーの作成」 を参照してください。
- アーカイブポリシーを管理する。詳細は、「アーカイブポリシーの管理」を参照してください。
- アーカイブポリシールールを作成する。詳細は、「アーカイブポリシールールの作成」を参照してください。
2.4.1. メトリック リンクのコピーリンクがクリップボードにコピーされました!
Gnocchi は、メトリック と呼ばれるオブジェクトタイプを提供します。メトリックとは、サーバーの CPU 使用状況、部屋の温度、ネットワークインターフェイスによって送信されるバイト数など、計測することのできる任意の項目を指します。メトリックには以下の属性が含まれます。
- 識別用の UUID
- 名前
- 計測値を保管および集約するのに使用されるアーカイブポリシー
関連情報
- 用語の定義については、Gnocchi Metric-as-a-Service に関する用語 を参照してください。
2.4.1.1. メトリックの作成 リンクのコピーリンクがクリップボードにコピーされました!
手順
リソースを作成します。<resource_name> をリソースの名前に置き換えます。
openstack metric resource create <resource_name>
$ openstack metric resource create <resource_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow メトリックを作成します。<resource_name> をリソースの名前に、<metric_name> をメトリックの名前に、それぞれ置き換えます。
openstack metric metric create -r <resource_name> <metric_name>
$ openstack metric metric create -r <resource_name> <metric_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow メトリックを作成する場合、アーカイブポリシーの属性は固定され、変更することはできません。
archive_policyエンドポイントを使用して、アーカイブポリシーの定義を変更することができます。
2.4.2. カスタム計測値の作成 リンクのコピーリンクがクリップボードにコピーされました!
計測値とは、API が Gnocchi に送信する受信データポイントタプルを指します。計測値はタイムスタンプおよび値で構成されます。独自のカスタム計測値を作成することができます。
手順
カスタム計測値を作成します。
openstack metric measures add -m <MEASURE1> -m <MEASURE2> .. -r <RESOURCE_NAME> <METRIC_NAME>
$ openstack metric measures add -m <MEASURE1> -m <MEASURE2> .. -r <RESOURCE_NAME> <METRIC_NAME>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.4.3. デフォルトのアーカイブポリシー リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、Gnocchi には以下のアーカイブポリシーがあります。
low
- 5 分間の粒度で 30 日間のタイムスパン
-
使用される集計方法:
default_aggregation_methods - メトリック 1 つあたりの最大推定サイズ: 406 KiB
medium
- 1 分間の粒度で 7 日間のタイムスパン
- 1 時間の粒度で 365 日間のタイムスパン
-
使用される集計方法:
default_aggregation_methods - メトリック 1 つあたりの最大推定サイズ: 887 KiB
high
- 1 秒間の粒度で 1 時間のタイムスパン
- 1 分間の粒度で 1 週間のタイムスパン
- 1 時間の粒度で 1 年間のタイムスパン
-
使用される集計方法:
default_aggregation_methods - メトリック 1 つあたりの最大推定サイズ: 1 057 KiB
bool
- 1 秒間の粒度で 1 年間のタイムスパン
- 使用される集約メソッド: last
- メトリック 1 つあたりの最大サイズ (楽観的): 1 539 KiB
- メトリック 1 つあたりの最大サイズ (ワーストケース): 277 172 KiB
2.4.4. 時系列集約値のサイズの計算 リンクのコピーリンクがクリップボードにコピーされました!
Gnocchi は、データポイントのコレクションを保管します。この場合、それぞれのポイントが集約値です。ストレージの形式は、異なる技術を使用して圧縮されます。したがって、時系列のサイズの計算は、以下の例に示すようにワーストケースのシナリオに基づいて見積もられます。
手順
以下の式を使用して、ポイント数を計算します。
ポイント数 = タイムスパン / 粒度
たとえば、1 分間の解像度で 1 年分のデータを保持する場合の計算は、以下のようになります。
ポイント数 = (365 日 X 24 時間 X 60 分) / 1 分
ポイント数 = 525600
ポイントサイズをバイト単位で計算するには、以下の式を使用します。
サイズ (バイト単位) = ポイント数 X 8 バイト
サイズ (バイト単位) = 525600 ポイント X 8 バイト = 4204800 バイト = 4.1 MB
この値は、単一の集約時系列の推定ストレージ要件です。アーカイブポリシーで複数の集約メソッド (min、max、mean、sum、std、および count) が使用される場合は、使用する集約メソッドの数をこの値に掛けます。
2.4.5. metricd ワーカー リンクのコピーリンクがクリップボードにコピーされました!
metricd デーモンを使用して、計測値の処理、集約値の作成、集約値ストレージへの計測値の保管、およびメトリックの削除を行うことができます。metricd デーモンは、Gnocchi のほとんどの CPU 使用および I/O ジョブを管理します。各メトリックのアーカイブポリシーは、metricd デーモンが実行する速度を決定します。metricd は、受信ストレージに新しい計測値がないか定期的に確認します。各チェック間の遅延を設定するには、[metricd]metric_processing_delay configuration オプションを使用できます。
2.4.6. アーカイブポリシーの作成 リンクのコピーリンクがクリップボードにコピーされました!
手順
アーカイブポリシーを作成します。<archive-policy-name> をポリシーの名前に、<aggregation-method> を集約メソッドに、それぞれ置き換えます。
openstack metric archive policy create <archive-policy-name> --definition <definition> \ --aggregation-method <aggregation-method>
# openstack metric archive policy create <archive-policy-name> --definition <definition> \ --aggregation-method <aggregation-method>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記<definition> はポリシー定義です。コンマ (,) を使用して、複数の属性を区切ります。コロン (:) を使用して、アーカイブポリシー定義の名前と値を区切ります。
2.4.7. アーカイブポリシーの管理 リンクのコピーリンクがクリップボードにコピーされました!
アーカイブポリシーを削除するには、以下のコマンドを実行します。
openstack metric archive policy delete <archive-policy-name>
openstack metric archive policy delete <archive-policy-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow すべてのアーカイブポリシーを表示するには、以下のコマンドを実行します。
openstack metric archive policy list
# openstack metric archive policy listCopy to Clipboard Copied! Toggle word wrap Toggle overflow アーカイブポリシーの詳細を表示するには、以下のコマンドを実行します。
openstack metric archive-policy show <archive-policy-name>
# openstack metric archive-policy show <archive-policy-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.4.8. アーカイブポリシールールの作成 リンクのコピーリンクがクリップボードにコピーされました!
アーカイブポリシールールにより、メトリックとアーカイブポリシー間のマッピングを定義します。これにより、ユーザーはルールを事前に定義し、一致するパターンに基づいてアーカイブポリシーをメトリックに割り当てることができます。
手順
アーカイブポリシールールを作成します。<rule-name> をルールの名前に、<archive-policy-name> をアーカイブポリシーの名前に、それぞれ置き換えます。
openstack metric archive-policy-rule create <rule-name> / --archive-policy-name <archive-policy-name>
# openstack metric archive-policy-rule create <rule-name> / --archive-policy-name <archive-policy-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.5. Red Hat OpenStack Platform デプロイメントの検証 リンクのコピーリンクがクリップボードにコピーされました!
openstack metric コマンドを使用して、デプロイメントが成功したことを確認できます。
手順
デプロイメントを確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第3章 アラームの管理 リンクのコピーリンクがクリップボードにコピーされました!
Telemetry Alarming サービス (aodh) を使用して、アクションをトリガーすることができます。アクションのトリガーは、Ceilometer または Gnocchi の収集するメトリックデータまたはイベントデータに対して定義されたルールに基づきます。
アラームは以下の状態のいずれかになります。
- ok
- メトリックまたはイベントは受け入れ可能な状態になります。
- firing
- メトリックまたはイベントは、定義された ok 状態外です。
- insufficient data
- アラームの状態は不明です。これにはいくつかの理由があります。たとえば、要求される粒度のデータがなく、チェックはまだ実行されていないため、それなどがこれに該当します。
3.1. 既存のアラームの表示 リンクのコピーリンクがクリップボードにコピーされました!
既存の Telemetry アラーム情報を表示し、リソースに割り当てられたメーターを表示して、メトリックの現在の状態を確認することができます。
手順
既存の Telemetry アラームをリスト表示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow リソースに割り当てられたメーターをリスト表示するには、リソースの UUID を指定します。以下に例を示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.2. アラームの作成 リンクのコピーリンクがクリップボードにコピーされました!
Telemetry Alarming サービス (aodh) を使用して、特定の条件が満たされる際にトリガーされるアラームを作成します (例: しきい値に到達する場合)。以下の例では、個々のインスタンスの平均 CPU 使用率が 80% を超えると、アラームがアクティブになりログエントリーが追加されます。
手順
アーカイブポリシーはデプロイメントプロセス時に事前に設定されるため、新しいアーカイブポリシーを作成する必要はほとんどありません。ただし、設定したアーカイブポリシーがない場合は、アーカイブポリシーを作成する必要があります。5s * 86400 ポイント (5 日) のメトリックを作成するアーカイブポリシーを作成するには、以下のコマンドを使用します。
openstack archive-policy create <name> \ -d granularity:5s,points:86400 \ -b 3 -m mean -m rate:mean# openstack archive-policy create <name> \ -d granularity:5s,points:86400 \ -b 3 -m mean -m rate:meanCopy to Clipboard Copied! Toggle word wrap Toggle overflow + <name> をアーカイブポリシーの名前に置き換えます。
注記Telemetry Alarming サービスの評価期間の値を 60 より大きい整数に設定するようにしてください。Ceilometer のポーリング間隔は、評価期間にリンクされます。Ceilometer のポーリング間隔の値を 60 から 600 までの数字に設定し、値が Telemetry Alarming サービスの評価期間の値よりも大きくされていることを確認します。Ceilometer のポーリング間隔が低すぎる場合には、システム負荷が大幅に影響を受ける可能性があります。
アラームを作成し、クエリーを使用してモニタリングするインスタンスの特定の ID を分離します。以下の例のインスタンスの ID は 94619081-abf5-4f1f-81c7-9cedaa872403 です。
注記しきい値を計算するには、数式 1,000,000,000 x {granularity} x {percentage_in_decimal} を使用します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.3. アラームの編集 リンクのコピーリンクがクリップボードにコピーされました!
アラームを編集すると、アラームの値のしきい値を増減します。
手順
しきい値を更新するには、
openstack alarm updateコマンドを使用します。たとえば、アラームのしきい値を 75% に増やすには、以下のコマンドを使用します。openstack alarm update --name cpu_usage_high --threshold 75
# openstack alarm update --name cpu_usage_high --threshold 75Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.4. アラームの無効化 リンクのコピーリンクがクリップボードにコピーされました!
アラームを無効にして有効化することができます。
手順
アラームを無効にします。
openstack alarm update --name cpu_usage_high --enabled=false
# openstack alarm update --name cpu_usage_high --enabled=falseCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.5. アラームの削除 リンクのコピーリンクがクリップボードにコピーされました!
openstack alarm delete コマンドを使用してアラームを削除します。
手順
アラームを削除するには、以下のコマンドを入力します。
openstack alarm delete --name cpu_usage_high
# openstack alarm delete --name cpu_usage_highCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.6. 例: インスタンスのディスク動作の監視 リンクのコピーリンクがクリップボードにコピーされました!
この例では、Telemetry Alarming サービスの一部であるアラームを使用して、特定のプロジェクトに含まれるすべてのインスタンスの累積ディスクアクティビティーを監視する方法を説明します。
手順
既存のプロジェクトを確認し、監視するプロジェクトの適切な UUID を選択します。以下の例では、
adminテナントを使用します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow プロジェクトの UUID を使用して、
adminテナント内のインスタンスが生成するすべての読み取りリクエストのsum()を解析するアラームを作成します。--queryパラメーターを使用して、クエリーをさらに絞り込むことができます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.7. 例: CPU 使用率の監視 リンクのコピーリンクがクリップボードにコピーされました!
インスタンスのパフォーマンスを監視するには、Gnocchi データベースを調べ、メモリーや CPU の使用状況などの監視可能なメトリックを特定します。
手順
監視可能なメトリックを特定するには、インスタンスの UUID を指定して
openstack metric resource showコマンドを入力します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow この出力結果の metrics の値に、Alarming サービスを使用して監視可能なコンポーネントがリスト表示されます (例:
cpu)。CPU の使用状況を監視するには、
cpuメトリックを使用します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow archive_policy は、std、count、min、max、sum、mean の値を計算する際の集約間隔を定義します。
現在選択されている
cpuメトリックのアーカイブポリシーを検査します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow アラームサービスを使用して、
cpuにクエリーを行うモニタリングタスクを作成します。このタスクは、指定した設定に基づいてイベントをトリガーします。たとえば、インスタンスの CPU 使用率が上昇し一定期間 80% を超える場合にログエントリーを生成するには、以下のコマンドを使用します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow - comparison-operator: ge 演算子は、CPU 使用率が 80% またはそれを超えた場合にアラームがトリガーされることを定義します。
- granularity: メトリックにはアーカイブポリシーが関連付けられます。ポリシーには、さまざまな粒度を設定することができます。たとえば、5 分間の粒度で 1 時間、および 1 時間の粒度で 1 カ月粒度の値は、アーカイブポリシーで指定された期間と一致する必要があります。
- evaluation-periods: アラームがトリガーされる前に満たさなければならない粒度期間の数。たとえば、この値を 2 に設定すると、アラームがトリガーされる前に、2 つのポーリング期間において CPU の使用率が 80% を超える必要があります。
[u'log://']:
alarm_actionsまたはok_actionsを[u'log://']に設定した場合、イベント (アラームのトリガーまたは通常状態への復帰) が aodh のログファイルに記録されます。注記アラームがトリガーされた時 (alarm_actions) や通常の状態に復帰した時 (ok_actions) に実行するアクションを、自由に定義することができます (例: Webhook URL)。
3.8. アラーム履歴の表示 リンクのコピーリンクがクリップボードにコピーされました!
特定のアラームがトリガーされているかどうかを確認するには、アラーム履歴にクエリーを行い、イベント情報を表示します。
手順
openstack alarm-history showコマンドを使用します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第4章 ログサービスのインストールおよび設定 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) は、情報メッセージを特定のログファイルに書き込みます。これらのメッセージを、トラブルシューティングおよびシステムイベントのモニタリングに使用することができます。ログ収集エージェント Rsyslog はクライアント側のログを収集し、それらのログをサーバー側で実行されている Rsyslog インスタンスに送信します。サーバー側の Rsyslog インスタンスは、保管のためにログの記録を Elasticsearch にリダイレクトします。
個々のログファイルをサポートケースに手動で添付する必要はありません。sosreport ユーティリティーは、必要なログを自動的に収集します。
4.1. 集中ログシステムのアーキテクチャーおよびコンポーネント リンクのコピーリンクがクリップボードにコピーされました!
モニタリングツールは、クライアントが Red Hat OpenStack Platform (RHOSP) オーバークラウドノードにデプロイされる、クライアント/サーバーモデルを使用します。Rsyslog サービスは、クライアント側の集中ロギング (CL) を提供します。
すべての RHOSP サービスはログファイルを生成および更新します。これらのログファイルは、アクション、エラー、アラート、およびその他のイベントを記録します。OpenStack のような分散環境では、これらのログを一元的な場所に収集することで、デバッグおよび管理が簡素化されます。
集中ロギングの場合、RHOSP 環境全体にわたるログを 1 カ所で確認することができます。これらのログは、syslog や監査ログファイル等のオペレーティングシステム、RabbitMQ や MariaDB 等のインフラストラクチャーコンポーネント、および Identity や Compute 等の OpenStack サービスから収集されます。集中ロギングのツールチェーンは、以下のコンポーネントで構成されます。
- ログ収集エージェント (Rsyslog)
- データストア (ElasticSearch)
- API/プレゼンテーション層 (Grafana)
Red Hat OpenStack Platform director は、集中ロギング向けのサーバー側のコンポーネントをデプロイしません。Red Hat は、Elasticsearch データベースおよび Grafana を含むサーバー側のコンポーネントはサポートしません。RHOSP 16.2 は、Elasticsearch バージョン 7 で rsyslog のみをサポートします。
4.2. Elasticsearch を使用した集中ロギングの有効化 リンクのコピーリンクがクリップボードにコピーされました!
集中ロギングを有効にするには、OS::TripleO::Services::Rsyslog コンポーザブルサービスの実装を指定する必要があります。
Rsyslog サービスは、集中ロギングのデータストアとして Elasticsearch だけを使用します。
前提条件
- Elasticsearch がサーバー側にインストールされている。
手順
以下の例に示すように、ご自分の環境およびデプロイに該当するその他の環境ファイルと共に、ロギング環境ファイルのファイルパスを
overcloud deploymentコマンドに追加します。openstack overcloud deploy \ <existing_overcloud_environment_files> \ -e /usr/share/openstack-tripleo-heat-templates/environments/logging-environment-rsyslog.yaml
openstack overcloud deploy \ <existing_overcloud_environment_files> \ -e /usr/share/openstack-tripleo-heat-templates/environments/logging-environment-rsyslog.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow <existing_overcloud_environment_files>を既存のデプロイメントに含まれる環境ファイルのリストに置き換えます。
4.3. ロギング機能の設定 リンクのコピーリンクがクリップボードにコピーされました!
ロギング機能を設定するには、logging-environment-rsyslog.yaml ファイルの RsyslogElasticsearchSetting パラメーターを変更します。
手順
-
tripleo-heat-templates/environments/logging-environment-rsyslog.yamlファイルをホームディレクトリーにコピーします。 実際の環境に合わせて
RsyslogElasticsearchSettingパラメーターのエントリーを作成します。RsyslogElasticsearchSettingパラメーターの設定例を以下のスニペットに示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- 設定可能なパラメーターの詳細は、「設定可能なロギングパラメーター」 を参照してください。
4.3.1. 設定可能なロギングパラメーター リンクのコピーリンクがクリップボードにコピーされました!
以下の表で、Red Hat OpenStack Platform (RHOSP) のロギング機能の設定に使用するロギングパラメーターを説明します。これらのパラメーターは tripleo-heat-templates/deployment/logging/rsyslog-container-puppet.yaml ファイルにあります。
| パラメーター | 説明 |
|---|---|
|
|
|
|
| Elasticsearch サーバーの証明書を発行した CA の CA 証明書の内容が含まれます。 |
|
| Elasticsearch に対してクライアント証明書の認可を行うためのクライアント証明書の内容が含まれます。 |
|
|
証明書 |
4.4. デフォルトのログファイルパスのオーバーライド リンクのコピーリンクがクリップボードにコピーされました!
デフォルトのコンテナーを変更し、変更箇所にサービスログファイルへのパスが含まれる場合は、デフォルトのログファイルパスも変更する必要があります。すべてのコンポーザブルサービスには <service_name>LoggingSource パラメーターがあります。たとえば、nova-compute サービスの場合、このパラメーターは NovaComputeLoggingSource です。
手順
nova-compute サービスのデフォルトパスをオーバーライドするには、設定ファイルの
NovaComputeLoggingSourceパラメーターにパスを追加します。NovaComputeLoggingSource: tag: openstack.nova.compute file: /some/other/path/nova-compute.logNovaComputeLoggingSource: tag: openstack.nova.compute file: /some/other/path/nova-compute.logCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記サービスごとに、
tagおよびfileを定義します。他の値にはデフォルト値が反映されます。特定のサービスの形式を変更することができます。これは Rsyslog 設定に直接渡します。
LoggingDefaultFormatパラメーターのデフォルト形式は、/(?<time>\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}.\d+) (?<pid>\d+) (?<priority>\S+) (?<message>.*)$/ です。以下の構文を使用します。<service_name>LoggingSource: tag: <service_name>.tag path: <service_name>.path format: <service_name>.format<service_name>LoggingSource: tag: <service_name>.tag path: <service_name>.path format: <service_name>.formatCopy to Clipboard Copied! Toggle word wrap Toggle overflow より複雑な変換の例を以下のスニペットに示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.5. ログレコードの形式の変更 リンクのコピーリンクがクリップボードにコピーされました!
特定のサービスについて、ログレコードの開始の形式を変更することができます。これは Rsyslog 設定に直接渡します。
Red Hat OpenStack Platform (RHOSP) のログレコードのデフォルト形式は ('^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}(.[0-9]+ [0-9]+)?(DEBUG|INFO|WARNING|ERROR) ') です。
手順
ログレコード開始の解析に異なる正規表現を追加するには、設定に
startmsg.regexを追加します。NovaComputeLoggingSource: tag: openstack.nova.compute file: /some/other/path/nova-compute.log startmsg.regex: "^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}(.[0-9]+ \\+[0-9]+)? [A-Z]+ \\([a-z]+\\)NovaComputeLoggingSource: tag: openstack.nova.compute file: /some/other/path/nova-compute.log startmsg.regex: "^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}(.[0-9]+ \\+[0-9]+)? [A-Z]+ \\([a-z]+\\)Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.6. Rsyslog と Elasticsearch 間の接続のテスト リンクのコピーリンクがクリップボードにコピーされました!
クライアント側で、Rsyslog と Elasticsearch 間の通信を確認することができます。
手順
-
Elasticsearch 接続ログファイル (Rsyslog コンテナーの
/var/log/rsyslog/omelasticsearch.log) またはホスト上の/var/log/containers/rsyslog/omelasticsearch.logに移動します。このログファイルが存在しない場合や、ログファイルは存在するがログが含まれていない場合、接続の問題はありません。ログファイルが存在しログが含まれている場合は、Rsyslog は正常に接続されていません。
サーバー側から接続をテストするには、Elasticsearch ログを表示して接続に問題を確認します。
4.7. サーバー側のロギング リンクのコピーリンクがクリップボードにコピーされました!
Elasticsearch クラスターが動作中の場合は、logging-environment-rsyslog.yaml ファイルの RsyslogElasticsearchSetting パラメーターを設定して、オーバークラウドノードで実行している Rsyslog を接続する必要があります。RsyslogElasticsearchSetting パラメーターを設定するには、https://www.rsyslog.com/doc/v8-stable/configuration/modules/omelasticsearch.html を参照してください。
4.8. トレースバック リンクのコピーリンクがクリップボードにコピーされました!
問題が発生してトラブルシューティングを開始する場合、トレースバックログを使用して問題の診断を行うことができます。ログファイル中、通常トレースバックとしてすべて同じ問題に関連する複数の情報行が表示されます。
Rsyslog は、ログレコードの開始を定義する正規表現を提供します。通常、各ログレコードはタイムスタンプで始まります。トレースバックの最初の行は、この情報だけが含まれる行です。Rsyslog は最初の行と共に該当するレコードをバンドルし、1 つのログレコードとして送信します。
この動作設定オプションには、<Service>LoggingSource の startmsg.regex が使用されます。以下の正規表現が、director のすべての <service>LoggingSource パラメーターのデフォルト値です。
startmsg.regex='^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}(.[0-9]+ [0-9]+)? (DEBUG|INFO|WARNING|ERROR) '
startmsg.regex='^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}(.[0-9]+ [0-9]+)? (DEBUG|INFO|WARNING|ERROR) '
このデフォルトが追加または変更した LoggingSource のログレコードと一致しない場合は、それに応じて startmsg.regex を変更する必要があります。
4.9. OpenStack サービスのログファイルの場所 リンクのコピーリンクがクリップボードにコピーされました!
それぞれの OpenStack コンポーネントには、実行中のサービス固有のファイルが含まれる個別のログディレクトリーがあります。
4.9.1. Bare Metal Provisioning (ironic) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Ironic API | openstack-ironic-api.service | /var/log/containers/ironic/ironic-api.log |
| OpenStack Ironic Conductor | openstack-ironic-conductor.service | /var/log/containers/ironic/ironic-conductor.log |
4.9.2. Block Storage (cinder) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| Block Storage API | openstack-cinder-api.service | /var/log/containers/cinder-api.log |
| Block Storage Backup | openstack-cinder-backup.service | /var/log/containers/cinder/backup.log |
| 情報メッセージ | cinder-manage コマンド | /var/log/containers/cinder/cinder-manage.log |
| Block Storage Scheduler | openstack-cinder-scheduler.service | /var/log/containers/cinder/scheduler.log |
| Block Storage Volume | openstack-cinder-volume.service | /var/log/containers/cinder/volume.log |
4.9.3. Compute (nova) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Compute API サービス | openstack-nova-api.service | /var/log/containers/nova/nova-api.log |
| OpenStack Compute 証明書サーバー | openstack-nova-cert.service | /var/log/containers/nova/nova-cert.log |
| OpenStack Compute サービス | openstack-nova-compute.service | /var/log/containers/nova/nova-compute.log |
| OpenStack Compute Conductor サービス | openstack-nova-conductor.service | /var/log/containers/nova/nova-conductor.log |
| OpenStack Compute VNC コンソール認証サーバー | openstack-nova-consoleauth.service | /var/log/containers/nova/nova-consoleauth.log |
| 情報メッセージ | nova-manage コマンド | /var/log/containers/nova/nova-manage.log |
| OpenStack Compute NoVNC Proxy サービス | openstack-nova-novncproxy.service | /var/log/containers/nova/nova-novncproxy.log |
| OpenStack Compute Scheduler サービス | openstack-nova-scheduler.service | /var/log/containers/nova/nova-scheduler.log |
4.9.4. Dashboard (horizon) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| 特定ユーザーの対話のログ | Dashboard インターフェイス | /var/log/containers/horizon/horizon.log |
Apache HTTP サーバーは、Dashboard Web インターフェイス用にさまざまな追加ログファイルを使用します。このログファイルには、Web ブラウザーまたは keystone および nova 等のコマンドラインクライアントを使用してアクセスすることができます。以下の表のログファイルは、Dashboard の使用状況のトラッキングおよび障害の診断に役立ちます。
| 目的 | ログのパス |
|---|---|
| すべての処理された HTTP リクエスト | /var/log/containers/httpd/horizon_access.log |
| HTTP エラー | /var/log/containers/httpd/horizon_error.log |
| 管理者ロールの API リクエスト | /var/log/containers/httpd/keystone_wsgi_admin_access.log |
| 管理者ロールの API エラー | /var/log/containers/httpd/keystone_wsgi_admin_error.log |
| メンバーロールの API リクエスト | /var/log/containers/httpd/keystone_wsgi_main_access.log |
| メンバーロールの API エラー | /var/log/containers/httpd/keystone_wsgi_main_error.log |
同じホストで実行中の他の Web サービスが報告するエラーを保管するログファイル /var/log/containers/httpd/default_error.log もあります。
4.9.5. Identity サービス (keystone) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Identity サービス | openstack-keystone.service | /var/log/containers/keystone/keystone.log |
4.9.6. Image サービス (glance) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Image サービス API サーバー | openstack-glance-api.service | /var/log/containers/glance/api.log |
| OpenStack Image サービスレジストリーサーバー | openstack-glance-registry.service | /var/log/containers/glance/registry.log |
4.9.7. Networking (neutron) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Neutron DHCP エージェント | neutron-dhcp-agent.service | /var/log/containers/neutron/dhcp-agent.log |
| OpenStack Networking レイヤー 3 エージェント | neutron-l3-agent.service | /var/log/containers/neutron/l3-agent.log |
| メタデータエージェントサービス | neutron-metadata-agent.service | /var/log/containers/neutron/metadata-agent.log |
| メタデータ名前空間プロキシー | 該当なし | /var/log/containers/neutron/neutron-ns-metadata-proxy-UUID.log |
| Open vSwitch エージェント | neutron-openvswitch-agent.service | /var/log/containers/neutron/openvswitch-agent.log |
| OpenStack Networking サービス | neutron-server.service | /var/log/containers/neutron/server.log |
4.9.8. Object Storage (swift) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
OpenStack Object Storage は、システムのロギング機能にのみ、ログを送信します。
デフォルトでは、すべての Object Storage ログファイルは、local0、local1、および local2 syslog ファシリティーを使用して /var/log/containers/swift/swift.log に保存されます。
Object Storage のログメッセージは、REST API サービスによるものとバックグラウンドデーモンによるものの 2 つのカテゴリーに大別されます。API サービスのメッセージには、一般的な HTTP サーバーと同様に、API リクエストごとに 1 つの行が含まれます。フロントエンド (プロキシー) とバックエンド (アカウント、コンテナー、オブジェクト) サービスの両方がこのメッセージの POST を行います。デーモンメッセージは構造化されておらず、通常、定期的なタスクを実行するデーモンに関する人間が判読できる情報が含まれます。ただし、メッセージを生成する Object Storage の部分に関係なく、ソースの ID は常に行の先頭に置かれます。
プロキシーメッセージの例を以下に示します。
Apr 20 15:20:34 rhev-a24c-01 proxy-server: 127.0.0.1 127.0.0.1 20/Apr/2015/19/20/34 GET /v1/AUTH_zaitcev%3Fformat%3Djson%26marker%3Dtestcont HTTP/1.0 200 - python-swiftclient-2.1.0 AUTH_tk737d6... - 2 - txc454fa8ea4844d909820a-0055355182 - 0.0162 - - 1429557634.806570053 1429557634.822791100
Apr 20 15:20:34 rhev-a24c-01 proxy-server: 127.0.0.1 127.0.0.1 20/Apr/2015/19/20/34 GET /v1/AUTH_zaitcev%3Fformat%3Djson%26marker%3Dtestcont HTTP/1.0 200 - python-swiftclient-2.1.0 AUTH_tk737d6... - 2 - txc454fa8ea4844d909820a-0055355182 - 0.0162 - - 1429557634.806570053 1429557634.822791100
バックグラウンドデーモンからのアドホックメッセージの例を以下に示します。
4.9.9. Orchestration (heat) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack Heat API サービス | openstack-heat-api.service | /var/log/containers/heat/heat-api.log |
| OpenStack Heat エンジンサービス | openstack-heat-engine.service | /var/log/containers/heat/heat-engine.log |
| Orchestration サービスイベント | 該当なし | /var/log/containers/heat/heat-manage.log |
4.9.11. Telemetry (ceilometer) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | サービス名 | ログのパス |
|---|---|---|
| OpenStack ceilometer 通知エージェント | ceilometer_agent_notification | /var/log/containers/ceilometer/agent-notification.log |
| OpenStack ceilometer 中央エージェント | ceilometer_agent_central | /var/log/containers/ceilometer/central.log |
| OpenStack ceilometer コレクション | openstack-ceilometer-collector.service | /var/log/containers/ceilometer/collector.log |
| OpenStack ceilometer コンピュートエージェント | ceilometer_agent_compute | /var/log/containers/ceilometer/compute.log |
4.9.12. サポートサービスのログファイル リンクのコピーリンクがクリップボードにコピーされました!
以下のサービスは OpenStack のコアコンポーネントにより使用され、独自のログディレクトリーおよびファイルを持ちます。
| サービス | サービス名 | ログのパス |
|---|---|---|
| メッセージブローカー (RabbitMQ) | rabbitmq-server.service |
/var/log/rabbitmq/rabbit@short_hostname.log |
| データベースサーバー (MariaDB) | mariadb.service | /var/log/mariadb/mariadb.log |
| 仮想ネットワークスイッチ (Open vSwitch) | openvswitch-nonetwork.service |
/var/log/openvswitch/ovsdb-server.log |
4.9.13. aodh (アラームサービス) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | コンテナー名 | ログのパス |
|---|---|---|
| アラーム用 API | aodh_api | /var/log/containers/httpd/aodh-api/aodh_wsgi_access.log |
| アラームエバリュエーターログ | aodh_evaluator | /var/log/containers/aodh/aodh-evaluator.log |
| アラームリスナー | aodh_listener | /var/log/containers/aodh/aodh-listener.log |
| アラーム通知 | aodh_notifier | /var/log/containers/aodh/aodh-notifier.log |
4.9.14. gnocchi (メトリックストレージ) のログファイル リンクのコピーリンクがクリップボードにコピーされました!
| サービス | コンテナー名 | ログのパス |
|---|---|---|
| gnocchi API | gnocchi_api | /var/log/containers/httpd/gnocchi-api/gnocchi_wsgi_access.log |
| gnocchi metricd | gnocchi_metricd | /var/log/containers/gnocchi/gnocchi-metricd.log |
| gnocchi statsd | gnocchi_statsd | /var/log/containers/gnocchi/gnocchi-statsd.log |
第5章 collectd プラグイン リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) 16.2 環境に応じて、複数の collectd プラグインを設定できます。
次のプラグインのリストは、デフォルト値をオーバーライドするのに設定できる使用可能なヒートテンプレート ExtraConfig パラメーターを示しています。各セクションには、ExtraConfig オプションの一般的な設定名が記載されています。たとえば、example_plugin という collectd プラグインがある場合、プラグインタイトルの形式は collectd::plugin::example_plugin です。
以下の例のように、特定のプラグインで利用可能なパラメーターの表を参照してください。
ExtraConfig: collectd::plugin::example_plugin::<parameter>: <value>
ExtraConfig:
collectd::plugin::example_plugin::<parameter>: <value>
Prometheus または Grafana クエリーの特定プラグインのメトリックテーブルを参照します。
collectd::plugin::aggregation
複数の値を aggregation プラグインで集約できます。メトリックを算出するには、sum、average、min、max などの集約関数を使用します (例: 平均および合計の CPU 統計)。
| パラメーター | 型 |
|---|---|
| ホスト | 文字列 |
| プラグイン | 文字列 |
| plugininstance | Integer |
| agg_type | 文字列 |
| typeinstance | 文字列 |
| sethost | 文字列 |
| setplugin | 文字列 |
| setplugininstance | Integer |
| settypeinstance | 文字列 |
| groupby | 文字列の配列 |
| calculatesum | Boolean |
| calculatenum | Boolean |
| calculateaverage | Boolean |
| calculateminimum | Boolean |
| calculatemaximum | Boolean |
| calculatestddev | Boolean |
設定例:
以下のファイルを作成するために、3 つのアグリゲート設定をデプロイします。
-
aggregator-calcCpuLoadAvg.conf: ホストおよび状態に分類されるすべての CPU コアの平均 CPU 負荷 -
aggregator-calcCpuLoadMinMax.conf: ホストおよび状態による CPU ロードグループの最小および最大数 -
aggregator-calcMemoryTotalMaxAvg.conf: タイプ別にグループ化されたメモリーの最大、平均、および合計
集約設定は、デフォルトの cpu および memory プラグイン設定を使用します。
collectd::plugin::amqp1
amqp1 プラグインを使用して、AMQ Interconnect などの amqp1 メッセージバスに値を書き込みます。
| パラメーター | タイプ |
|---|---|
| manage_package | ブール値 |
| transport | 文字列 |
| ホスト | 文字列 |
| port | Integer |
| user | 文字列 |
| password | 文字列 |
| address | 文字列 |
| instances | ハッシュ |
| retry_delay | Integer |
| send_queue_limit | Integer |
| interval | Integer |
send_queue_limit パラメーターを使用して、送信メトリックキューの長さを制限します。
AMQP1 接続がない場合、プラグインは送信するメッセージをキューに入れ続けます。これにより、バインドされていないメモリー消費が生じる可能性があります。デフォルト値は 0 で、発信メトリックキューを無効にします。
メトリックが見つからない場合は、send_queue_limit パラメーターの値を増やします。
設定例:
collectd::plugin::apache
apache プラグインを使用して、Apache Web サーバーによって提供される mod_status プラグインから Apache データを収集します。提供される各インスタンスには interval ごとの値 (秒単位) を指定します。インスタンスの timeout interval パラメーターを指定すると、値はミリ秒単位です。
| パラメーター | 型 |
|---|---|
| instances | Hash |
| interval | Integer |
| manage-package | ブール値 |
| package_install_options | List |
| パラメーター | 型 |
|---|---|
| url | HTTP URL |
| user | 文字列 |
| password | 文字列 |
| verifypeer | Boolean |
| verifyhost | Boolean |
| cacert | AbsolutePath |
| sslciphers | 文字列 |
| timeout | Integer |
設定例:
この例では、インスタンス名は localhost で、Apache Web サーバー (http://10.0.0.111/mod_status?auto) に接続します。プラグインと互換性のないタイプとしてステータスページが返すのを防ぐために、URL の末尾に ?auto を追加する必要があります。
関連情報
apache プラグインの設定の詳細は、apache を参照してください。
collectd::plugin::battery
battery プラグインを使用して、ラップトップのバッテリーの残量、電源、または電圧を報告します。
| パラメーター | 型 |
|---|---|
| values_percentage | ブール値 |
| report_degraded | ブール値 |
| query_state_fs | ブール値 |
| interval | Integer |
関連情報
battery プラグインの設定の詳細は、バッテリー を参照してください。
collectd::plugin::bind
bind プラグインを使用して、DNS サーバーからクエリーと応答に関するエンコードされた統計を取得し、それらの値を collectd に送信します。
| パラメーター | 型 |
|---|---|
| url | HTTP URL |
| memorystats | Boolean |
| opcodes | Boolean |
| parsetime | Boolean |
| qtypes | Boolean |
| resolverstats | Boolean |
| serverstats | Boolean |
| zonemaintstats | Boolean |
| views | Array |
| interval | Integer |
| パラメーター | 型 |
|---|---|
| name | String |
| qtypes | Boolean |
| resolverstats | Boolean |
| cacherrsets | Boolean |
| zones | String のリスト |
設定例:
collectd::plugin::ceph
ceph プラグインを使用して、ceph デーモンからデータを収集します。
| パラメーター | 型 |
|---|---|
| daemons | Array |
| longrunavglatency | Boolean |
| convertspecialmetrictypes | Boolean |
| package_name | String |
設定例:
Object Storage Daemon (OSD) がすべてのノードにない場合には、OSD をリスト表示する必要があります。
collectd をデプロイする時に、ceph プラグインを Ceph ノードに追加します。デプロイメントが失敗するので、Ceph ノードの ceph プラグインを CollectdExtraPlugins に追加しないでください。
関連情報
ceph プラグインの設定の詳細は、ceph を参照してください。
collectd::plugins::cgroups
cgroups プラグインを使用して、cgroup 内のプロセスの情報を収集します。
| パラメーター | 型 |
|---|---|
| ignore_selected | Boolean |
| interval | Integer |
| cgroups | List |
関連情報
cgroups プラグインの設定の詳細は、cgroups を参照してください。
collectd::plugin::connectivity
connectivity プラグインを使用して、ネットワークインターフェイスの状態を監視します。
インターフェイスがリストにない場合は、すべてのインターフェイスがデフォルトで監視されます。
| パラメーター | 型 |
|---|---|
| interfaces | Array |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::connectivity::interfaces:
- eth0
- eth1
parameter_defaults:
ExtraConfig:
collectd::plugin::connectivity::interfaces:
- eth0
- eth1
関連情報
connectivity プラグインの設定の詳細は、接続性 を参照してください。
collectd::plugin::conntrack
conntrack プラグインを使用して、Linux 接続追跡テーブルのエントリー数を追跡します。このプラグインのパラメーターはありません。
collectd::plugin::contextswitch
ContextSwitch プラグインを使用して、システムが処理するコンテキストスイッチの数を収集します。使用できるパラメーターは interval (秒単位) のみです。
関連情報
contextswitch プラグインの設定の詳細は、contextswitch を参照してください。
collectd::plugin::cpu
cpu プラグインを使用して、CPU がさまざまな状態に費やした時間 (例: idle、ユーザーコードの実行中、システムコードの実行中、IO 操作の待機中、その他の状態など) を監視します。
cpu プラグインは、パーセンテージの値ではなく、jiffies を収集します。jiffy の値は、ハードウェアプラットフォームのクロック周波数により異なるため、絶対的な間隔単位ではありません。
パーセンテージの値を報告するには、ブール値パラメーター reportbycpu および reportbystate を true に設定し、ブール値のパラメーター値 percentage を true に設定します。
このプラグインはデフォルトで有効です。
| 名前 | 説明 | クエリー |
|---|---|---|
| idle | アイドル時間 |
|
| interrupt | 割り込みでブロックされる CPU |
|
| nice | 優先度の低いプロセスを実行する時間 |
|
| softirq | 割り込み要求の処理に費やされたサイクル数 |
|
| steal | ハイパーバイザーが別の仮想プロセッサーに対応している間、仮想 CPU が実際の CPU を待機する時間の割合 |
|
| system | システムレベル (カーネル) で費やした時間 |
|
| user | ユーザープロセスが使用する Jiffies |
|
| wait | 未処理の I/O 要求で待機中の CPU |
|
| パラメーター | 型 | デフォルト |
|---|---|---|
| reportbystate | Boolean | true |
| valuespercentage | Boolean | true |
| reportbycpu | Boolean | true |
| reportnumcpu | Boolean | false |
| reportgueststate | Boolean | false |
| subtractgueststate | Boolean | true |
| interval | Integer | 120 |
設定例:
parameter_defaults:
CollectdExtraPlugins:
- cpu
ExtraConfig:
collectd::plugin::cpu::reportbystate: true
parameter_defaults:
CollectdExtraPlugins:
- cpu
ExtraConfig:
collectd::plugin::cpu::reportbystate: true
関連情報
cpu プラグインの設定の詳細は、cpu を参照してください。
collectd::plugin::cpufreq
cpufreq プラグインを使用して現在の CPU 周波数を収集します。このプラグインのパラメーターはありません。
collectd::plugin::csv
csv プラグインを使用して、CSV 形式のローカルファイルに値を書き込みます。
| パラメーター | 型 |
|---|---|
| datadir | String |
| storerates | Boolean |
| interval | Integer |
collectd::plugin::df
df プラグインを使用して、ファイルシステムのディスク領域の使用状況に関する情報を収集します。
このプラグインはデフォルトで有効です。
| 名前 | 説明 | Query |
|---|---|---|
| free | 空きディスク容量 |
|
| reserved | 予約済みディスク容量 |
|
| used | 使用済みディスク容量 |
|
| パラメーター | 型 | デフォルト |
|---|---|---|
| devices | Array |
|
| fstypes | Array |
|
| ignoreselected | Boolean | true |
| mountpoints | Array |
|
| reportbydevice | Boolean | true |
| reportinodes | Boolean | true |
| reportreserved | Boolean | true |
| valuesabsolute | Boolean | true |
| valuespercentage | Boolean | false |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::df::fstypes: ['tmpfs','xfs']
parameter_defaults:
ExtraConfig:
collectd::plugin::df::fstypes: ['tmpfs','xfs']
関連情報
df プラグインの設定の詳細は、df を参照してください。
collectd::plugin::disk
disk プラグインを使用してハードディスクのパフォーマンス統計と (サポートされている場合には) パーティションの情報を収集します。
disk プラグインは、デフォルトですべてのディスクをモニターします。ignoreselected パラメーターを使用して、ディスクのリストを無視できます。設定例では、sda、sdb、および sdc ディスクを無視し、リストに含まれていないすべてのディスクをモニターします。
このプラグインはデフォルトで有効です。
| パラメーター | 型 | デフォルト |
|---|---|---|
| disks | Array |
|
| ignoreselected | Boolean | false |
| udevnameattr | String | <undefined> |
| 名前 | 説明 |
|---|---|
| merged | 結合可能なキューに置かれた操作の数。たとえば、1 つの物理ディスクアクセスで 2 つ以上の論理操作が提供されます。 |
| time | I/O 操作が完了するまでの平均時間。値は正確ではない場合があります。 |
| io_time | I/O (ms) の処理に費やした時間。このメトリックは、デバイスの負荷率として使用できます。1 秒の値は、負荷の 100% に一致します。 |
| weighted_io_time | I/O の完了時間と、累積する可能性のあるバックログを測定します。 |
| pending_operations | 保留中の I/O 操作のキューサイズを表示します。 |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::disk::disks: ['sda', 'sdb', 'sdc']
collectd::plugin::disk::ignoreselected: true
parameter_defaults:
ExtraConfig:
collectd::plugin::disk::disks: ['sda', 'sdb', 'sdc']
collectd::plugin::disk::ignoreselected: true
関連情報
disk プラグインの設定の詳細は、disk を参照してください。
collectd::plugin::hugepages
hugepages プラグインを使用して hugepages 情報を収集します。
This plugin is enabled by default.
This plugin is enabled by default.
| パラメーター | 型 | デフォルト |
|---|---|---|
| report_per_node_hp | Boolean | true |
| report_root_hp | Boolean | true |
| values_pages | Boolean | true |
| values_bytes | Boolean | false |
| values_percentage | Boolean | false |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::hugepages::values_percentage: true
parameter_defaults:
ExtraConfig:
collectd::plugin::hugepages::values_percentage: true
関連情報
-
hugepagesプラグインの設定の詳細は、ヒュージページ を参照してください。
collectd::plugin::interface
interface プラグインを使用して、オクテットごとのパケット数、秒ごとのパケットレート、およびエラーレートでインターフェイストラフィックを測定します。
This plugin is enabled by default.
This plugin is enabled by default.
| パラメーター | 型 | デフォルト |
|---|---|---|
| interfaces | Array |
|
| ignoreselected | Boolean | false |
| reportinactive | Boolean | true |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::interface::interfaces:
- lo
collectd::plugin::interface::ignoreselected: true
parameter_defaults:
ExtraConfig:
collectd::plugin::interface::interfaces:
- lo
collectd::plugin::interface::ignoreselected: true
関連情報
-
interfacesプラグインの設定の詳細は、インターフェイス を参照してください。
collectd::plugin::load
load プラグインを使用して、システムロードとシステム使用の概要を収集します。
This plugin is enabled by default.
This plugin is enabled by default.
| パラメーター | 型 | デフォルト |
|---|---|---|
| report_relative | Boolean | true |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::load::report_relative: false
parameter_defaults:
ExtraConfig:
collectd::plugin::load::report_relative: false
関連情報
-
loadプラグインの設定の詳細は、ロード を参照してください。
collectd::plugin::mcelog
mcelog プラグインを使用して、マシンチェック例外 (MCE) の発生時に関連する通知および統計を送信します。デーモンモードで実行するように mcelog を設定し、ログ機能を有効にします。
| パラメーター | 型 |
|---|---|
| Mcelogfile | String |
| Memory |
Hash |
設定例:
parameter_defaults:
CollectdExtraPlugins: mcelog
CollectdEnableMcelog: true
parameter_defaults:
CollectdExtraPlugins: mcelog
CollectdEnableMcelog: true
関連情報
-
mcelogプラグインの設定の詳細は、celog を参照してください。
collectd::plugin::memcached
memcached プラグインを使用して、memcached キャッシュの使用状況、メモリー、およびその他の関連情報に関する情報を取得します。
| パラメーター | 型 |
|---|---|
| instances | Hash |
| interval | Integer |
設定例:
関連情報
-
memcachedプラグインの設定に関する詳細は、memcached を参照してください。
collectd::plugin::memory
memory プラグインを使用して、システムのメモリーに関する情報を取得します。
This plugin is enabled by default.
This plugin is enabled by default.
| パラメーター | 型 |
|---|---|
| デフォルト | valuesabsolute |
| Boolean | true |
| valuespercentage | Boolean |
設定例:
parameter_defaults:
ExtraConfig:
collectd::plugin::memory::valuesabsolute: true
collectd::plugin::memory::valuespercentage: false
parameter_defaults:
ExtraConfig:
collectd::plugin::memory::valuesabsolute: true
collectd::plugin::memory::valuespercentage: false
関連情報
-
memoryプラグインの設定の詳細は、メモリー を参照してください。
collectd::plugin::ntpd
ntpd プラグインを使用して、統計へのアクセスを許可するように設定されているローカル NTP サーバーにクエリーを実行し、設定されたパラメーターと時刻同期ステータスに関する情報を取得します。
| パラメーター | 型 |
|---|---|
| host | Hostname |
| ポート | Port number (Integer) |
| reverselookups | Boolean |
| includeunitid | Boolean |
| interval | Integer |
設定例:
関連情報
-
ntpdプラグインの設定に関する詳細は、ntpd を参照してください。
collectd::plugin::ovs_stats
OVS に接続されたインターフェイスの統計値を収集するには、ovs_stats プラグインを使用します。ovs_stats プラグインは、OVSDB 管理プロトコル (RFC7047) モニターメカニズムを使用して OVSDB から統計値を取得します。
| パラメーター | 型 |
|---|---|
| address | String |
| bridges | List |
| ポート | Integer |
| socket | String |
設定例:
以下の例は、ovs_stats プラグインを有効にする方法を示しています。オーバークラウドを OVS でデプロイする場合には、ovs_stats プラグインを有効にする必要はありません。
parameter_defaults:
CollectdExtraPlugins:
- ovs_stats
ExtraConfig:
collectd::plugin::ovs_stats::socket: '/run/openvswitch/db.sock'
parameter_defaults:
CollectdExtraPlugins:
- ovs_stats
ExtraConfig:
collectd::plugin::ovs_stats::socket: '/run/openvswitch/db.sock'
関連情報
-
ovs_statsプラグインの設定の詳細は、ovs_stats を参照してください。
collectd::plugin::processes
processes プラグインは、システムプロセスに関する情報を提供します。カスタムプロセスマッチングを指定しない場合、プラグインは状態ごとのプロセス数とプロセスフォークレートのみを収集します。
特定のプロセスに関する詳細を収集するには、process パラメーターを使用してプロセス名を指定するか、process_match オプションを使用して正規表現に一致するプロセス名を指定します。process_match 出力の統計は、プロセス名ごとにグループ化されています。
| パラメーター | 型 | デフォルト |
|---|---|---|
| processes | Array | <undefined> |
| process_matches | Array | <undefined> |
| collect_context_switch | Boolean | <undefined> |
| collect_file_descriptor | Boolean | <undefined> |
| collect_memory_maps | Boolean | <undefined> |
関連情報
-
processesプラグインの設定の詳細は プロセス を参照してください。
collectd::plugin::smart
smart プラグインを使用して、ノード上の物理ディスクから SMART (自己監視、分析、およびレポートテクノロジー) 情報を収集します。smart プラグインが SMART テレメトリーを読み取れるようにするには、パラメーター CollectdContainerAdditionalCapAdd を CAP_SYS_RAWIO に設定する必要もあります。CollectdContainerAdditionalCapAdd パラメーターを設定しないと、以下のメッセージが collectd エラーログに書き込まれます。
smart plugin: Running collectd as root, but the CAP_SYS_RAWIO capability is missing. The plugin's read function will probably fail. Is your init system dropping capabilities?
| パラメーター | 型 |
|---|---|
| disks | Array |
| ignoreselected | Boolean |
| interval | Integer |
設定例:
parameter_defaults: CollectdExtraPlugins: - smart CollectdContainerAdditionalCapAdd: "CAP_SYS_RAWIO"
parameter_defaults:
CollectdExtraPlugins:
- smart
CollectdContainerAdditionalCapAdd: "CAP_SYS_RAWIO"
関連情報
-
smartプラグインの設定の詳細は、smart を参照してください。
collectd::plugin::swap
swap プラグインを使用して、利用可能なスワップ領域および使用されているスワップ領域に関する情報を収集します。
| パラメーター | 型 |
|---|---|
| reportbydevice | Boolean |
| reportbytes | Boolean |
| valuesabsolute | Boolean |
| valuespercentage | Boolean |
| reportio | Boolean |
設定例:
collectd::plugin::tcpconns
tcpconns プラグインを使用して、設定されたポートからのインバウンドまたはアウトバウンドの TCP 接続の数に関する情報を収集します。ローカルポート設定は、入力接続を表します。リモートポート設定は、出力接続を表します。
| パラメーター | 型 |
|---|---|
| localports | Port (Array) |
| remoteports | Port (Array) |
| listening | Boolean |
| allportssummary | Boolean |
設定例:
collectd::plugin::thermal
thermal プラグインを使用して、ACPI の通常のゾーン情報を取得します。
| パラメーター | 型 |
|---|---|
| devices | Array |
| ignoreselected | Boolean |
| interval | Integer |
設定例:
parameter_defaults: CollectdExtraPlugins: - thermal
parameter_defaults:
CollectdExtraPlugins:
- thermal
collectd::plugin::uptime
uptime プラグインを使用して、システムの稼働時間に関する情報を収集します。
This plugin is enabled by default.
This plugin is enabled by default.
| パラメーター | 型 |
|---|---|
| interval | Integer |
collectd::plugin::virt
virt プラグインを使用して、ホスト上の仮想マシンの libvirt API で CPU、ディスク、ネットワーク負荷、およびその他のメトリックを収集します。
このプラグインはコンピュートホストでデフォルトで有効になっています。
| パラメーター | 型 |
|---|---|
| connection | String |
| refresh_interval | Hash |
| domain | String |
| block_device | String |
| interface_device | String |
| ignore_selected | Boolean |
| plugin_instance_format | String |
| hostname_format | String |
| interface_format | String |
| extra_stats | String |
設定例:
ExtraConfig: collectd::plugin::virt::hostname_format: "name uuid hostname" collectd::plugin::virt::plugin_instance_format: metadata
ExtraConfig:
collectd::plugin::virt::hostname_format: "name uuid hostname"
collectd::plugin::virt::plugin_instance_format: metadata
関連情報
virt プラグインの設定の詳細は、virt を参照してください。
collectd::plugin::vmem
vmem プラグインを使用して、カーネルサブシステムから仮想メモリーに関する情報を収集します。
| パラメーター | 型 |
|---|---|
| verbose | Boolean |
| interval | Integer |
設定例:
collectd::plugin::write_http
write_http 出力プラグインを使用して、POST リクエストを使用し JSON でメトリックをエンコードして、または PUTVAL コマンドを使用して、HTTP サーバーに値を送信します。
| パラメーター | 型 |
|---|---|
| ensure | Enum[present, absent] |
| nodes | Hash[String, Hash[String, Scalar]] |
| urls | Hash[String, Hash[String, Scalar]] |
| manage_package | Boolean |
設定例:
関連情報
-
write_httpプラグインの設定に関する詳細は、write_http を参照してください。
collectd::plugin::write_kafka
write_kafka プラグインを使用して、値を Kafka トピックに送信します。write_kafka プラグインを 1 つ以上のトピックブロックで設定します。トピックブロックごとに、一意の名前と 1 つの Kafka プロデューサーを指定する必要があります。topic ブロックでは、以下の per-topic パラメーターを使用できます。
| パラメーター | 型 |
|---|---|
| kafka_hosts | Array[String] |
| topics | Hash |
| properties | Hash |
| meta | Hash |
設定例:
追加リソース:
write_kafka プラグインの設定方法は write_kafka を参照してください。
5.1. 他の collectd プラグイン リンクのコピーリンクがクリップボードにコピーされました!
以下のプラグインは利用できますが、多くの Red Hat OpenStack Platform (RHOSP)環境では未定義のユースケースがあります。
| パラメーター | 注記 |
|---|---|
| cURL |
このプラグインを使用して、 |
| cURL-JSON | このプラグインを使用して、cURL ライブラリーを使用して JSON データをクエリーし、設定に従ってデータを解析できます。 |
| DNS | このプラグインを使用して、UDP ポート 53 で DNS トラフィックの統計を解釈し、統計を収集できます。 |
| エントロピー | このプラグインを使用して、システムで利用可能なエントロピーを報告できます。 |
| ethstat | このプラグインを使用して、イーサネットカードからパフォーマンス統計を読み取ることができます。 |
| EXEC | このプラグインを使用してスクリプトまたはアプリケーションを実行し、STDOUT に出力できます。 |
| fhcount | このプラグインを使用すると、Linux での使用、未使用、およびファイルハンドルの総数に関する統計を提供できます。 |
| FileCount | このプラグインを使用して、ディレクトリーとそのサブディレクトリー内のファイル数をカウントできます。 |
| FSCache | このプラグインを使用して、ネットワークファイルシステムおよびその他の低速なメディア用のファイルシステムベースのキャッシュインフラストラクチャーに関する情報を収集できます。 |
| HDDTemp | このプラグインを使用して、ハードディスクの温度を収集できます。 |
| IntelRDT | このプラグインを使用して、Intel Resource Director Technology の監視機能によって提供される情報を収集できます。 |
| IPMI | このプラグインを使用すると、Intelligent Platform Management Interface (IPMI)を使用してサーバーからハードウェアセンサーを読み取ることができます。 |
| IRQ | このプラグインを使用して、各割り込みがオペレーティングシステムによって処理される回数を収集できます。 |
| logfile | このプラグインを使用してログファイルに書き込むことができます。 |
| MySQL | このプラグインを使用して MySQL データベースに接続し、SHOW STATS コマンドを定期的に発行できます。このコマンドは、サーバーのステータス変数を返します。この変数の多くは収集されます。 |
| netlink | このプラグインを使用して、インターフェイス、qdiscs、クラス、またはフィルターの統計を取得できます。 |
| ネットワーク |
このプラグインを使用して、他の |
| NFS | このプラグインを使用して、ネットワークファイルシステム(NFS)、バージョン 2、3、および 4 の使用方法に関する情報を取得できます。 |
| numa | このプラグインを使用して、Linux の Non-Uniform Memory Access (NUMA)サブシステムの統計を報告できます。 |
| OpenLDAP | このプラグインを使用して、OpenLDAP のステータスを報告できます。 |
| OpenVPN | このプラグインを使用して、OpenVPN によって出力されたステータスファイルを読み取ることができます。 |
| OVS Events | このプラグインを使用して、OpenvSwitch に接続されたインターフェイスのリンクステータスを監視し、リンク状態の変更が発生したときに通知を送信することができます。 |
| pcie_errors | このプラグインを使用して、PCI Express エラーを監視および報告できます。 |
| Ping | このプラグインを使用すると、Internet Control Message Protocol (ICMP)エコーリクエストを使用してネットワークレイテンシーを測定できます。 |
| procevent | このプラグインを使用して、プロセスの開始と終了を監視できます。 |
| Python | このプラグインを使用して python にバインドできます。 |
| Sensors |
このプラグインを使用すると、 |
| シリアル | このプラグインを使用して、シリアルインターフェイスでトラフィックを収集できます。 |
| SNMP | このプラグインを使用すると、Simple Network Management Protocol (SNMP)を使用してネットワークデバイスから値を読み取ることができます。 |
| SNMP エージェント | このプラグインを使用して、プリンシパル SNMP エージェントからのクエリーを処理し、読み取りプラグインによって収集されるデータを返すことができます。 |
| StatsD |
このプラグインを使用して |
| sysevent |
このプラグインを使用して、ネットワークソケットで受信 |
| SysLog |
このプラグインを使用して、 |
| Table | このプラグインを使用して、プレーンテキストファイルをテーブル形式で解析できます。 |
| --tail |
このプラグインを使用して、 |
| tail CSV | このプラグインを使用して CSV ファイルを調整できます。 |
| threshold | このプラグインを使用して、指定されたしきい値の通知を生成できます。 |
| turbostat | このプラグインを使用して、最新の Intel ターボ対応プロセッサーで CPU 周波数と C ステート常駐状態を読み取ることができます。 |
| unixsock |
このプラグインを使用して |
| ユーザー | このプラグインを使用して、システムに現在ログインしているユーザー数をカウントできます。 |
| UUID | このプラグインを使用して、実行しているシステムの UUID (uniquie Identifier)を判断できます。 |
| グラフの書き込み |
このプラグインを使用して、 |
| HTTP の書き込み |
このプラグインを使用して、HTTP POST リクエストを使用して |
| 書き込みログ | このプラグインを使用して、INFO ログメッセージとしてメトリクスを書き込むことができます。 |
| Prometheus への書き込み | このプラグインを使用して、Prometheus でスクレイピングできる Web サーバーを実装できます。 |