システムの状態とパフォーマンスの監視と管理
システムのスループット、レイテンシー、および電力消費の最適化
概要
Red Hat ドキュメントへのフィードバック (英語のみ)
Red Hat ドキュメントに関するご意見やご感想をお寄せください。また、改善点があればお知らせください。
Jira からのフィードバック送信 (アカウントが必要)
- Jira の Web サイトにログインします。
- 上部のナビゲーションバーで Create をクリックします。
- Summary フィールドにわかりやすいタイトルを入力します。
- Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。
- ダイアログの下部にある Create をクリックします。
第1章 TuneD を使い始める
システム管理者は、TuneD アプリケーションを使用して、さまざまなユースケースに合わせてシステムのパフォーマンスプロファイルを最適化できます。
1.1. TuneD の目的
TuneD は、システムを監視し、特定のワークロードでパフォーマンスを最適化するサービスです。TuneD の中核となるのは、さまざまなユースケースに合わせてシステムをチューニングする プロファイル です。
TuneD には、以下のようなユースケース用に定義されたプロファイルが多数同梱されています。
- 高スループット
- 低レイテンシー
- 節電
各プロファイル向けに定義されたルールを変更し、特定のデバイスのチューニング方法をカスタマイズできます。別のプロファイルに切り替えたり、TuneD を非アクティブにすると、以前のプロファイルによるシステム設定への変更はすべて、元の状態に戻ります。
また、TuneD を設定してデバイスの使用状況の変化に対応し、設定を調整して、アクティブなデバイスのパフォーマンスを向上させ、非アクティブなデバイスの消費電力を削減することもできます。
1.2. TuneD プロファイル
システムを詳細に分析することは、非常に時間のかかる作業です。TuneD では、一般的なユースケースに合わせて定義済みのプロファイルを多数提供しています。プロファイルを作成、変更、および削除することも可能です。
TuneD で提供されるプロファイルは、以下のカテゴリーに分類されます。
- 省電力プロファイル
- パフォーマンス重視プロファイル
performance-boosting プロファイルの場合は、次の側面に焦点が置かれます。
- ストレージおよびネットワークに対して少ないレイテンシー
- ストレージおよびネットワークの高い処理能力
- 仮想マシンのパフォーマンス
- 仮想化ホストのパフォーマンス
プロファイル設定の構文
tuned.conf
ファイルは、1 つの [main]
セクションとプラグインインスタンスを設定するためのその他のセクションが含まれます。ただし、すべてのセクションはオプションです。
ハッシュ記号 (#
) で始まる行はコメントです。
関連情報
-
システム上の
tuned.conf(5)
man ページ
1.3. デフォルトの TuneD プロファイル
インストール時に、システムの最適なプロファイルが自動的に選択されます。現時点では、以下のカスタマイズ可能なルールに従ってデフォルトのプロファイルが選択されます。
環境 | デフォルトプロファイル | 目的 |
---|---|---|
コンピュートノード |
| 最適なスループットパフォーマンス |
仮想マシン |
|
ベストパフォーマンスベストパフォーマンスが重要でない場合は、 |
その他のケース |
| パフォーマンスと電力消費の調和 |
関連情報
-
システム上の
tuned.conf(5)
man ページ
1.4. マージされた TuneD プロファイル
試験目的で提供された機能として、複数のプロファイルを一度に選択することができます。TuneD は、読み込み中にマージを試みます。
競合が発生した場合は、最後に指定されたプロファイルの設定が優先されます。
例1.1 仮想ゲストの低消費電力
以下の例では、仮想マシンでの実行でパフォーマンスを最大化するようにシステムが最適化され、同時に、(低消費電力が最優先である場合は) 低消費電力を実現するようにシステムがチューニングされます。
# tuned-adm profile virtual-guest powersave
マージは自動的に行われ、使用されるパラメーターの組み合わせが適切であるかどうかはチェックされません。結果として、この機能は一部のパラメーターを逆に調整する可能性があります。これは逆効果になる可能性があります。たとえば、throughput-performance
プロファイルで高スループットにディスクを設定し、同時に、spindown-disk
プロファイルでディスクスピンダウンを低い値に設定します。
関連情報
-
システム上の
tuned-adm
およびtuned.conf(5)
man ページ
1.5. TuneD プロファイルの場所
TuneD は、次のディレクトリーにプロファイルを保存します。
/usr/lib/tuned/
-
ディストリビューション固有のプロファイルは、このディレクトリーに保存されます。各プロファイルには独自のディレクトリーがあります。プロファイルは
tuned.conf
という名前の主要設定ファイルと、ヘルパースクリプトなどの他の任意のファイルから構成されます。 /etc/tuned/
-
プロファイルをカスタマイズする必要がある場合は、プロファイルのカスタマイズに使用されるディレクトリーにプロファイルディレクトリーをコピーします。同じ名前のプロファイルが 2 つある場合、カスタムのプロファイルは、
/etc/tuned/
に置かれています。
関連情報
-
システム上の
tuned.conf(5)
man ページ
1.6. RHEL とともに配布される TuneD プロファイル
以下は、Red Hat Enterprise Linux に TuneD とともにインストールされるプロファイルのリストです。
利用可能な製品固有またはサードパーティーの TuneD プロファイルが複数存在する可能性があります。このようなプロファイルは通常、個別の RPM パッケージで提供されます。
balanced
デフォルトの省電力プロファイル。パフォーマンスと電力消費のバランスを取ることが目的です。可能な限り、自動スケーリングと自動チューニングを使用します。唯一の欠点はレイテンシーが増加することです。今回の TuneD リリースでは、CPU、ディスク、オーディオ、およびビデオプラグインを有効にし、
conservative
CPU ガバナーを有効にします。radeon_powersave
オプションは、dpm-balanced
値に対応している場合はその値を使用し、それ以外の場合はauto
に設定されます。energy_performance_preference
属性をnormal
の電力設定に変更します。また、scaling_governor
ポリシー属性をconservative
またはpowersave
CPU ガバナーのいずれかに変更します。powersave
省電力パフォーマンスを最大化するプロファイル。実際の電力消費を最小化するためにパフォーマンスを調整できます。今回の TuneD リリースでは、SATA ホストアダプターの USB 自動サスペンド、WiFi 省電力、および Aggressive Link Power Management (ALPM) の省電力を有効にします。また、ウェイクアップ率が低いシステムのマルチコア省電力がスケジュールされ、
ondemand
ガバナーがアクティブ化されます。さらに、AC97 音声省電力と、システムに応じて HDA-Intel 省電力 (10 秒のタイムアウト) が有効になります。KMS が有効なサポート対象の Radeon グラフィックカードがシステムに搭載されている場合、プロファイルは自動省電力に設定されます。ASUS Eee PC では、動的な Super Hybrid Engine が有効になります。energy_performance_preference
属性をpowersave
またはpower
電力設定に変更します。また、scaling_governor
ポリシー属性をondemand
またはpowersave
CPU ガバナーのいずれかに変更します。注記場合によっては、
balanced
プロファイルの方が、powersave
プロファイルよりも効率的です。定義された量の作業を行う場合 (たとえば、動画ファイルをトランスコードする必要がある場合) を考えてください。トランスコードがフルパワーで実行される場合に、マシンの電力消費が少なくなることがあります。これは、タスクがすぐに完了し、マシンがアイドル状態になり、非常に効率的な省電力モードに自動的に切り替わることがあるためです。その一方で、調整されたマシンでファイルをトランスコードすると、マシンはトランスコード中に少ない電力を消費しますが、処理に時間がかかり、全体的な消費電力は高くなることがあります。
このため、一般的に
balanced
プロファイルが優れたオプションになる場合があります。throughput-performance
高スループットに最適化されたサーバープロファイル。これにより、節電メカニズムが無効になり、
sysctl
が有効になるため、ディスクおよびネットワーク IO のスループットパフォーマンスが向上します。CPU ガバナーはperformance
に設定されます。energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。accelerator-performance
-
accelerator-performance
プロファイルには、throughput-performance
プロファイルと同じチューニングが含まれます。さらに、CPU を低い C 状態にロックし、レイテンシーが 100us 未満になるようにします。これにより、GPU などの特定のアクセラレーターのパフォーマンスが向上します。 latency-performance
低レイテンシーに最適化されたサーバープロファイル。省電力メカニズムが無効になり、レイテンシーを向上させる
sysctl
設定が有効になります。CPU ガバナーはperformance
に設定され、CPU は低い C 状態にロックされます (PM QoS を使用)。energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。network-latency
低レイテンシーネットワークチューニング向けプロファイル。
latency-performance
プロファイルに基づきます。さらに、透過的な huge page と NUMA 分散を無効にし、他のいくつかのネットワーク関連のsysctl
パラメーターの調整を行います。latency-performance
プロファイルを継承します。また、energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。hpc-compute
-
高パフォーマンスコンピューティング向けに最適化されたプロファイル。
latency-performance
プロファイルに基づきます。 network-throughput
スループットネットワークチューニング向けプロファイル。
throughput-performance
プロファイルに基づきます。さらに、カーネルネットワークバッファーを増やします。latency-performance
またはthroughput-performance
プロファイルのいずれかを継承します。また、energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。virtual-guest
throughput-performance
プロファイルに基づく Red Hat Enterprise 9 仮想マシンおよび VMWare ゲスト向けプロファイル。仮想メモリーのスワップの減少や、ディスクの readahead 値の増加などが行われます。ディスクバリアは無効になりません。throughput-performance
プロファイルを継承します。また、energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。virtual-host
throughput-performance
プロファイルに基づいて仮想ホスト用に設計されたプロファイル。他のタスクの中でも特に、仮想メモリーのスワップを減らし、ディスクの先読み値を増やし、ダーティーページの書き戻しというより積極的な値を可能にします。throughput-performance
プロファイルを継承します。また、energy_performance_preference
およびscaling_governor
属性をperformance
プロファイルに変更します。oracle
-
Oracle データベース向けに最適化されたプロファイルは、
throughput-performance
プロファイルに基づいて読み込まれます。これにより Transparent Huge Page が無効になり、その他のパフォーマンス関連カーネルパラメーターが変更されます。このプロファイルは、tuned-profiles-oracle
パッケージで利用できます。 desktop
-
balanced
プロファイルに基づく、デスクトップに最適化されたプロファイル。対話型アプリケーションの応答を向上させるスケジューラーオートグループが有効になります。 optimize-serial-console
printk 値を減らすことで、シリアルコンソールへの I/O アクティビティーを調整するプロファイル。これにより、シリアルコンソールの応答性が向上します。このプロファイルは、他のプロファイルのオーバーレイとして使用することが意図されています。以下に例を示します。
# tuned-adm profile throughput-performance optimize-serial-console
mssql
-
Microsoft SQL Server に提供されるプロファイル。
throughput-performance
プロファイルに基づきます。 intel-sst
ユーザー定義の Intel Speed Select Technology 設定で最適化されたプロファイル。このプロファイルは、他のプロファイルのオーバーレイとして使用することが意図されています。以下に例を示します。
# tuned-adm profile cpu-partitioning intel-sst
1.7. TuneD cpu-partitioning プロファイル
レイテンシーに敏感なワークロード用に Red Hat Enterprise Linux 9 を調整する場合は、cpu-partitioning
TuneD プロファイルを使用することが推奨されます。
Red Hat Enterprise Linux 9 以前では、低レイテンシーの Red Hat ドキュメントで、低レイテンシーのチューニングを実現するために必要な低レベルの手順が数多く説明されていました。Red Hat Enterprise Linux 9 では、cpu-partitioning
TuneD プロファイルを使用することで、低レイテンシーのチューニングをより効率的に実行できます。このプロファイルは、個々の低レイテンシーアプリケーションの要件に従って簡単にカスタマイズできます。
以下の図は、cpu-partitioning
プロファイルの使用方法を示す例になります。この例では、CPU とノードのレイアウトを使用します。
図1.1 cpu-partitioning の図
/etc/tuned/cpu-partitioning-variables.conf
ファイルで cpu-partitioning プロファイルを設定するには、以下の設定オプションを使用します。
- 負荷分散機能のある分離された CPU
cpu-partitioning の図では、4 から 23 までの番号が付けられたブロックが、デフォルトの分離された CPU です。カーネルスケジューラーのプロセスの負荷分散は、この CPU で有効になります。これは、カーネルスケジューラーの負荷分散を必要とする複数のスレッドを使用した低レイテンシープロセス用に設計されています。
isolated_cores=cpu-list
オプションを使用して、/etc/tuned/cpu-partitioning-variables.conf
ファイルで cpu-partitioning プロファイルを設定できます。このオプションは、カーネルスケジューラーの負荷分散を使用する分離する CPU をリスト表示します。分離された CPU のリストはコンマ区切りで表示するか、
3-5
のようにハイフンを使用して範囲を指定できます。このオプションは必須です。このリストにない CPU は、自動的にハウスキーピング CPU と見なされます。- 負荷分散を行わずに分離した CPU
cpu-partitioning の図では、2 と 3 の番号が付けられたブロックは、追加のカーネルスケジューラープロセスの負荷分散を提供しない分離された CPU です。
/etc/tuned/cpu-partitioning-variables.conf
ファイルで cpu-partitioning プロファイルを設定するには、no_balance_cores=cpu-list
オプションを使用します。このオプションは、カーネルスケジューラーの負荷分散を使用しない CPU を分離するようにリスト表示します。no_balance_cores
オプションの指定は任意ですが、このリストの CPU は、isolated_cores
リストに記載されている CPU のサブセットである必要があります。このような CPU を使用するアプリケーションスレッドは、各 CPU に個別にピン留めする必要があります。
- ハウスキーピング CPU
-
cpu-partitioning-variables.conf
ファイル内で分離されていない CPU は、自動的にハウスキーピング CPU と見なされます。ハウスキーピング CPU では、すべてのサービス、デーモン、ユーザープロセス、移動可能なカーネルスレッド、割り込みハンドラー、およびカーネルタイマーの実行が許可されます。
関連情報
-
システム上の
tuned-profiles-cpu-partitioning(7)
man ページ
1.8. 低レイテンシーチューニングへの TuneD の cpu-partitioning プロファイルの使用
この手順では、TuneD の cpu-partitioning
プロファイルを使用して、低レイテンシーになるようにシステムをチューニングする方法を説明します。これは、cpu-partitioning の図で説明されているように、cpu-partitioning
と CPU レイアウトを使用できる低レイテンシーのアプリケーションの例を使用します。
この場合のアプリケーションでは、以下を使用します。
- ネットワークからデータを読み込む 1 つの専用リーダースレッドが、CPU 2 に固定されます。
- このネットワークデータを処理する多数のスレッドは、CPU 4-23 に固定されます。
- 処理されたデータをネットワークに書き込む専用のライタースレッドは、CPU 3 に固定されます。
前提条件
-
dnf install tuned-profiles-cpu-partitioning
コマンドを root で使用して、cpu-partitioning
TuneD プロファイルをインストールしている。
手順
/etc/tuned/cpu-partitioning-variables.conf
ファイルを編集し、以下の内容を追加します。# All isolated CPUs: isolated_cores=2-23 # Isolated CPUs without the kernel’s scheduler load balancing: no_balance_cores=2,3
cpu-partitioning
TuneD プロファイルを設定します。# tuned-adm profile cpu-partitioning
再起動
再起動後、システムは、cpu-partitioning の図の分離に従って、低レイテンシーにチューニングされます。このアプリケーションでは、タスクセットを使用して、リーダーおよびライターのスレッドを CPU 2 および 3 に固定し、残りのアプリケーションスレッドを CPU 4-23 に固定できます。
関連情報
-
システム上の
tuned-profiles-cpu-partitioning(7)
man ページ
1.9. cpu-partitioning TuneD プロファイルのカスタマイズ
TuneD プロファイルを拡張して、追加のチューニング変更を行うことができます。
たとえば、cpu-partitioning
プロファイルは、cstate=1
を使用する CPU を設定します。cpu-partitioning
プロファイルを使用しながら、cstate1 から cstate0 に CPU の cstate を変更するために、以下の手順では my_profile という名前の新しい TuneD プロファイルを説明しています。このプロファイルは、cpu-partitioning
プロファイルを継承した後、C state-0 を設定します。
手順
/etc/tuned/my_profile
ディレクトリーを作成します。# mkdir /etc/tuned/my_profile
このディレクトリーに
tuned.conf
ファイルを作成し、次の内容を追加します。# vi /etc/tuned/my_profile/tuned.conf [main] summary=Customized tuning on top of cpu-partitioning include=cpu-partitioning [cpu] force_latency=cstate.id:0|1
新しいプロファイルを使用します。
# tuned-adm profile my_profile
この共有例では、再起動は必要ありません。ただし、my_profile プロファイルの変更を有効にするために再起動が必要な場合は、マシンを再起動します。
関連情報
-
システム上の
tuned-profiles-cpu-partitioning(7)
man ページ
1.10. RHEL とともに配布されるリアルタイムの TuneD プロファイル
リアルタイムプロファイルは、リアルタイムカーネルを実行するシステムを対象としています。特殊なカーネルビルドなしでは、システムはリアルタイムになりません。RHEL では、このプロファイルは追加のリポジトリーから利用できます。
利用できるリアルタイムプロファイルは以下の通りです。
リアルタイム
ベアメタルのリアルタイムシステムで使用します。
tuned-profiles-realtime
パッケージにより提供されます。これは、RT リポジトリーまたは NFV リポジトリーから入手できます。realtime-virtual-host
リアルタイムに設定された仮想ホストで使用します。
NFV リポジトリーから利用できる
tuned-profiles-nfv-host
パッケージにより提供されます。realtime-virtual-guest
リアルタイムに設定された仮想化ゲストで使用します。
NFV リポジトリーから利用できる
tuned-profiles-nfv-guest
パッケージにより提供されます。
1.11. TuneD の静的および動的チューニング
TuneD が適用するシステムチューニングの 2 つのカテゴリー (static と dynamic) の違いを理解することは、特定の状況や目的にどちらを使用するかを決定する際に重要です。
- 静的なチューニング
-
主に、事前定義された
sysctl
設定およびsysfs
設定の適用と、ethtool
などの複数の設定ツールのワンショットアクティベーションから構成されます。 - 動的チューニング
システムのアップタイム中に、さまざまなシステムコンポーネントがどのように使用されているかを監視します。TuneD は、その監視情報に基づいてシステム設定を動的に調整します。
たとえば、ハードドライブは起動時およびログイン時に頻繁に使用されますが、Web ブラウザーや電子メールクライアントなどのアプリケーションをユーザーが主に使用する場合はほとんど使用されません。同様に、CPU とネットワークデバイスは、異なるタイミングで使用されます。TuneD は、このようなコンポーネントのアクティビティーを監視し、その使用の変化に反応します。
デフォルトでは、動的チューニングは無効になっています。これを有効にするには、
/etc/tuned/tuned-main.conf
ファイルを編集して、dynamic_tuning
オプションを1
に変更します。TuneD は、システムの統計を定期的に分析してから、その統計を使用してシステムのチューニング設定を更新します。これらの更新間の時間間隔を秒単位で設定するには、update_interval
オプションを使用します。現在実装されている動的チューニングアルゴリズムは、パフォーマンスと省電力のバランスを取ろうとし、パフォーマンスプロファイルで無効になります。各プラグインのダイナミックチューニングは、TuneD プロファイルで有効または無効にできます。
例1.2 ワークステーションでの静的および動的のチューニング
一般的なオフィスワークステーションでは、イーサネットネットワークインターフェイスは常に非アクティブの状態です。少数の電子メールのみが出入りするか、一部の Web ページが読み込まれている可能性があります。
このような負荷の場合、ネットワークインターフェイスはデフォルト設定のように常に最高速度で動作する必要はありません。TuneD には、ネットワークデバイスを監視してチューニングを行うプラグインがあり、これによりこの低いアクティビティーを検出して、自動的にそのインターフェイスの速度を下げることができるため、通常は消費電力が少なくなります。
DVD イメージをダウンロードしているとき、または大きな添付ファイル付きのメールが開いているときなど、インターフェイスのアクティビティーが長期間にわたって増加した場合は、TuneD がこれを検出し、アクティビティーレベルが高い間にインターフェイスの速度を最大に設定します。
この原則は、CPU およびディスクの他のプラグインにも使用されます。
1.12. TuneD の no-daemon モード
TuneD は、常駐メモリーを必要としない no-daemon
モードで実行できます。このモードでは、TuneD が設定を適用して終了します。
デフォルトでは、このモードには、以下のように多くの TuneD 機能がないため、no-daemon
モードが無効になっています。
- D-Bus サポート
- ホットプラグサポート
- 設定のロールバックサポート
no-daemon
モードを有効にするには、/etc/tuned/tuned-main.conf
ファイルに以下の行を含めます。
daemon = 0
1.13. TuneD のインストールと有効化
この手順では、TuneD アプリケーションをインストールして有効にし、TuneD プロファイルをインストールして、システムにデフォルトの TuneD プロファイルをあらかじめ設定します。
手順
TuneD
パッケージをインストールします。# dnf install tuned
TuneD
サービスを有効にして開始します。# systemctl enable --now tuned
オプション: リアルタイムシステム用の TuneD プロファイルをインストールします。
リアルタイムシステムの TuneD プロファイルの場合は、
rhel-9
リポジトリーを有効にします。# subscription-manager repos --enable=rhel-9-for-x86_64-nfv-beta-rpms
インストールします。
# dnf install tuned-profiles-realtime tuned-profiles-nfv
TuneDプロファイルが有効であり、適用されていることを確認します。
$ tuned-adm active Current active profile: throughput-performance
注記TuneD が自動的にプリセットするアクティブなプロファイルは、マシンのタイプとシステム設定によって異なります。
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See tuned log file ('/var/log/tuned/tuned.log') for details.
1.14. 利用可能な TuneD プロファイルのリスト表示
この手順では、使用しているシステムで現在利用可能なTuneDプロファイルのリストを表示します。
手順
システムで使用可能なすべてのTuneDプロファイルをリスト表示するには、次を使用します。
$ tuned-adm list Available profiles: - accelerator-performance - Throughput performance based tuning with disabled higher latency STOP states - balanced - General non-specialized TuneD profile - desktop - Optimize for the desktop use-case - latency-performance - Optimize for deterministic performance at the cost of increased power consumption - network-latency - Optimize for deterministic performance at the cost of increased power consumption, focused on low latency network performance - network-throughput - Optimize for streaming network throughput, generally only necessary on older CPUs or 40G+ networks - powersave - Optimize for low power consumption - throughput-performance - Broadly applicable tuning that provides excellent performance across a variety of common server workloads - virtual-guest - Optimize for running inside a virtual guest - virtual-host - Optimize for running KVM guests Current active profile: balanced
現在アクティブなプロファイルのみを表示する場合は、次のコマンドを使用します。
$ tuned-adm active Current active profile: throughput-performance
関連情報
-
システム上の
tuned-adm(8)
man ページ
1.15. TuneD プロファイルの設定
この手順では、選択した TuneD プロファイルを有効にします。
前提条件
-
TuneD
サービスが実行中である。詳細は、TuneD のインストールと有効化 を参照してください。
手順
オプション: システムに最適なプロファイルを TuneD に推奨させることができます。
# tuned-adm recommend throughput-performance
プロファイルをアクティブ化します。
# tuned-adm profile selected-profile
または、複数のプロファイルを組み合わせてアクティブ化することもできます。
# tuned-adm profile selected-profile1 selected-profile2
例1.3 低消費電力向けに最適化された仮想マシン
以下の例では、仮想マシンでの実行でパフォーマンスを最大化するようにシステムが最適化され、同時に、(低消費電力が最優先である場合は) 低消費電力を実現するようにシステムがチューニングされます。
# tuned-adm profile virtual-guest powersave
お使いのシステムで現在アクティブな TuneD プロファイルを表示します。
# tuned-adm active Current active profile: selected-profile
システムを再起動します。
# reboot
検証
TuneD プロファイルが有効であり、適用されていることを確認します。
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See tuned log file ('/var/log/tuned/tuned.log') for details.
関連情報
-
システム上の
tuned-adm(8)
man ページ
1.16. TuneD D-Bus インターフェイスの使用
TuneD D-Bus インターフェイスを介してランタイム時に TuneD と直接通信し、さまざまな TuneD サービスを制御できます。
D-Bus API にアクセスするには、busctl
または dbus-send
コマンドを使用できます。
busctl
コマンドまたは dbus-send
コマンドを使用できますが、busctl
コマンドは systemd
の一部であるため、ほとんどのホストにすでに存在しています。
1.16.1. TuneD D-Bus インターフェイスを使用した利用可能な TuneD D-Bus API メソッドの表示
TuneD D-Bus インターフェイスを使用すると、TuneD で使用できる D-Bus API メソッドを確認できます。
前提条件
- TuneD サービスが実行されている。詳細は、TuneD のインストールと有効化 を参照してください。
手順
利用可能な TuneD API メソッドを確認するには、次のコマンドを実行します。
$ busctl introspect com.redhat.tuned /Tuned com.redhat.tuned.control
この出力は、以下のようになります。
NAME TYPE SIGNATURE RESULT/VALUE FLAGS .active_profile method - s - .auto_profile method - (bs) - .disable method - b - .get_all_plugins method - a{sa{ss}} - .get_plugin_documentation method s s - .get_plugin_hints method s a{ss} - .instance_acquire_devices method ss (bs) - .is_running method - b - .log_capture_finish method s s - .log_capture_start method ii s - .post_loaded_profile method - s - .profile_info method s (bsss) - .profile_mode method - (ss) - .profiles method - as - .profiles2 method - a(ss) - .recommend_profile method - s - .register_socket_signal_path method s b - .reload method - b - .start method - b - .stop method - b - .switch_profile method s (bs) - .verify_profile method - b - .verify_profile_ignore_missing method - b - .profile_changed signal sbs - -
利用可能なさまざまなメソッドの説明は、TuneD のアップストリームリポジトリー に記載されています。
1.16.2. TuneD D-Bus インターフェイスを使用したアクティブな TuneD プロファイルの変更
TuneD D-Bus インターフェイスを使用して、アクティブな TuneD プロファイルを必要な TuneD プロファイルに置き換えることができます。
前提条件
- TuneD サービスが実行されている。詳細は、TuneD のインストールと有効化 を参照してください。
手順
アクティブな TuneD プロファイルを変更するには、次のコマンドを実行します。
$ busctl call com.redhat.tuned /Tuned com.redhat.tuned.control switch_profile s profile (bs) true "OK"
profile は、必要なプロファイルの名前に置き換えます。
検証
現在アクティブな TuneD プロファイルを表示するには、次のコマンドを実行します。
$ busctl call com.redhat.tuned /Tuned com.redhat.tuned.control active_profile s "profile"
1.17. TuneD の無効化
この手順では、TuneD を無効にし、影響を受けるすべてのシステム設定を TuneD が変更する前の元の状態にリセットします。
手順
すべてのチューニングを一時的に無効にするには、次のコマンドを実行します。
# tuned-adm off
チューニングは、
TuneD
サービスの再起動後に再度適用されます。または、
TuneD
サービスを完全に停止して無効にするには、次のようにします。# systemctl disable --now tuned
関連情報
-
システム上の
tuned-adm(8)
man ページ
第2章 TuneD プロファイルのカスタマイズ
TuneDプロファイルを作成または変更して、ユースケースに合わせてシステムパフォーマンスを最適化できます。
前提条件
- TuneD のインストールと有効化 に詳述されているように、TuneD をインストールおよび有効化します。
2.1. TuneD プロファイル
システムを詳細に分析することは、非常に時間のかかる作業です。TuneD では、一般的なユースケースに合わせて定義済みのプロファイルを多数提供しています。プロファイルを作成、変更、および削除することも可能です。
TuneD で提供されるプロファイルは、以下のカテゴリーに分類されます。
- 省電力プロファイル
- パフォーマンス重視プロファイル
performance-boosting プロファイルの場合は、次の側面に焦点が置かれます。
- ストレージおよびネットワークに対して少ないレイテンシー
- ストレージおよびネットワークの高い処理能力
- 仮想マシンのパフォーマンス
- 仮想化ホストのパフォーマンス
プロファイル設定の構文
tuned.conf
ファイルは、1 つの [main]
セクションとプラグインインスタンスを設定するためのその他のセクションが含まれます。ただし、すべてのセクションはオプションです。
ハッシュ記号 (#
) で始まる行はコメントです。
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.2. デフォルトの TuneD プロファイル
インストール時に、システムの最適なプロファイルが自動的に選択されます。現時点では、以下のカスタマイズ可能なルールに従ってデフォルトのプロファイルが選択されます。
環境 | デフォルトプロファイル | 目的 |
---|---|---|
コンピュートノード |
| 最適なスループットパフォーマンス |
仮想マシン |
|
ベストパフォーマンスベストパフォーマンスが重要でない場合は、 |
その他のケース |
| パフォーマンスと電力消費の調和 |
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.3. マージされた TuneD プロファイル
試験目的で提供された機能として、複数のプロファイルを一度に選択することができます。TuneD は、読み込み中にマージを試みます。
競合が発生した場合は、最後に指定されたプロファイルの設定が優先されます。
例2.1 仮想ゲストの低消費電力
以下の例では、仮想マシンでの実行でパフォーマンスを最大化するようにシステムが最適化され、同時に、(低消費電力が最優先である場合は) 低消費電力を実現するようにシステムがチューニングされます。
# tuned-adm profile virtual-guest powersave
マージは自動的に行われ、使用されるパラメーターの組み合わせが適切であるかどうかはチェックされません。結果として、この機能は一部のパラメーターを逆に調整する可能性があります。これは逆効果になる可能性があります。たとえば、throughput-performance
プロファイルで高スループットにディスクを設定し、同時に、spindown-disk
プロファイルでディスクスピンダウンを低い値に設定します。
関連情報
-
システム上の
tuned-adm
およびtuned.conf(5)
man ページ
2.4. TuneD プロファイルの場所
TuneD は、次のディレクトリーにプロファイルを保存します。
/usr/lib/tuned/
-
ディストリビューション固有のプロファイルは、このディレクトリーに保存されます。各プロファイルには独自のディレクトリーがあります。プロファイルは
tuned.conf
という名前の主要設定ファイルと、ヘルパースクリプトなどの他の任意のファイルから構成されます。 /etc/tuned/
-
プロファイルをカスタマイズする必要がある場合は、プロファイルのカスタマイズに使用されるディレクトリーにプロファイルディレクトリーをコピーします。同じ名前のプロファイルが 2 つある場合、カスタムのプロファイルは、
/etc/tuned/
に置かれています。
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.5. TuneD プロファイル間の継承
TuneDプロファイルは、他のプロファイルを基にして、親プロファイルの特定の側面のみを変更できます。
TuneD プロファイルの [main]
セクションは、include
オプションを認識します。
[main]
include=parent
親 プロファイルの設定はすべて、この 子 プロファイルに読み込まれます。以下のセクションでは、子 プロファイルは、親 プロファイルから継承された特定の設定をオーバーライドするか、親 プロファイルに表示されない新しい設定を追加します。
/usr/lib/tuned/
にあらかじめインストールしておいたプロファイルでパラメーターをいくつか調整するだけで、/etc/tuned/
に独自の 子 プロファイルを作成できます。
TuneD のアップグレード後などに、親 プロファイルが更新されると、この変更は 子 プロファイルに反映されます。
例2.2 バランスの取れた省電力プロファイル
以下は、balanced
プロファイルを拡張し、すべてのデバイスの Aggressive Link Power Management (ALPM) を最大省電力に設定するカスタムプロファイルの例です。
[main] include=balanced [scsi_host] alpm=min_power
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.6. TuneD の静的および動的チューニング
TuneD が適用するシステムチューニングの 2 つのカテゴリー (static と dynamic) の違いを理解することは、特定の状況や目的にどちらを使用するかを決定する際に重要です。
- 静的なチューニング
-
主に、事前定義された
sysctl
設定およびsysfs
設定の適用と、ethtool
などの複数の設定ツールのワンショットアクティベーションから構成されます。 - 動的チューニング
システムのアップタイム中に、さまざまなシステムコンポーネントがどのように使用されているかを監視します。TuneD は、その監視情報に基づいてシステム設定を動的に調整します。
たとえば、ハードドライブは起動時およびログイン時に頻繁に使用されますが、Web ブラウザーや電子メールクライアントなどのアプリケーションをユーザーが主に使用する場合はほとんど使用されません。同様に、CPU とネットワークデバイスは、異なるタイミングで使用されます。TuneD は、このようなコンポーネントのアクティビティーを監視し、その使用の変化に反応します。
デフォルトでは、動的チューニングは無効になっています。これを有効にするには、
/etc/tuned/tuned-main.conf
ファイルを編集して、dynamic_tuning
オプションを1
に変更します。TuneD は、システムの統計を定期的に分析してから、その統計を使用してシステムのチューニング設定を更新します。これらの更新間の時間間隔を秒単位で設定するには、update_interval
オプションを使用します。現在実装されている動的チューニングアルゴリズムは、パフォーマンスと省電力のバランスを取ろうとし、パフォーマンスプロファイルで無効になります。各プラグインのダイナミックチューニングは、TuneD プロファイルで有効または無効にできます。
例2.3 ワークステーションでの静的および動的のチューニング
一般的なオフィスワークステーションでは、イーサネットネットワークインターフェイスは常に非アクティブの状態です。少数の電子メールのみが出入りするか、一部の Web ページが読み込まれている可能性があります。
このような負荷の場合、ネットワークインターフェイスはデフォルト設定のように常に最高速度で動作する必要はありません。TuneD には、ネットワークデバイスを監視してチューニングを行うプラグインがあり、これによりこの低いアクティビティーを検出して、自動的にそのインターフェイスの速度を下げることができるため、通常は消費電力が少なくなります。
DVD イメージをダウンロードしているとき、または大きな添付ファイル付きのメールが開いているときなど、インターフェイスのアクティビティーが長期間にわたって増加した場合は、TuneD がこれを検出し、アクティビティーレベルが高い間にインターフェイスの速度を最大に設定します。
この原則は、CPU およびディスクの他のプラグインにも使用されます。
2.7. TuneD プラグイン
プラグインは、TuneD がシステムのさまざまなデバイスを監視または最適化するために使用する TuneD プロファイルのモジュールです。
TuneD では、以下の 2 つのタイプのプラグインを使用します。
- プラグインの監視
モニタリングプラグインは、稼働中のシステムから情報を取得するために使用されます。監視プラグインの出力は、動的チューニング向けチューニングプラグインで使用できます。
監視プラグインは、有効ないずれかのチューニングプラグインでメトリックが必要な場合に必ず自動的にインスタンス化されます。2 つのチューニングプラグインで同じデータが必要な場合は、監視プラグインのインスタンスが 1 つだけ作成され、データが共有されます。
- プラグインのチューニング
- 各チューニングプラグインは、個々のサブシステムをチューニングし、TuneD プロファイルから設定されたいくつかのパラメーターを取得します。各サブシステムには、チューニングプラグインの個別インスタンスで処理される複数のデバイス (複数の CPU やネットワークカードなど) を含めることができます。また、個別デバイスの特定の設定もサポートされます。
TuneD プロファイルのプラグインの構文
プラグインインスタンスが記述されるセクションは、以下のように書式化されます。
[NAME] type=TYPE devices=DEVICES
- NAME
- ログで使用されるプラグインインスタンスの名前です。これは、任意の文字列です。
- TYPE
- チューニングプラグインのタイプです。
- DEVICES
このプラグインインスタンスが処理するデバイスのリストです。
device
の行には、リスト、ワイルドカード (*
)、否定 (!
) が含まれます。device
の行がないと、TYPE のシステムに現在または後で接続されるすべてのデバイスは、プラグインインスタンスにより処理されます。devices=*
オプションを使用する場合と同じです。例2.4 ブロックデバイスとプラグインのマッチング
次の例では、
sda
、sdb
などsd
で始まるすべてのブロックデバイスに一致し、それらに対する境界は無効にしない例になります。[data_disk] type=disk devices=sd* disable_barriers=false
次の例は、
sda1
およびsda2
を除くすべてのブロックデバイスと一致します。[data_disk] type=disk devices=!sda1, !sda2 disable_barriers=false
プラグインのインスタンスを指定しないと、そのプラグインは有効になりません。
このプラグインがより多くのオプションに対応していると、プラグインセクションでも指定できます。このオプションが指定されておらず、含まれているプラグインでこれまで指定しなかった場合は、デフォルト値が使用されます。
短いプラグイン構文
プラグインインスタンスにカスタム名を付ける必要がなく、設定ファイルにインスタンスの定義が 1 つしかない場合、TuneD は以下の簡単な構文に対応します。
[TYPE] devices=DEVICES
この場合は、type
の行を省略することができます。タイプと同様に、インスタンスは名前で参照されます。上記の例は、以下のように書き換えることができます。
例2.5 短い構文を使用したブロックデバイスのマッチング
[disk] devices=sdb* disable_barriers=false
プロファイルで競合するプラグインの定義
include
オプションを使用して同じセクションを複数回指定した場合は、設定がマージされます。設定をマージできない場合は、競合がある以前の設定よりも、競合がある最後の定義が優先されます。以前に定義されたものが分からない場合は、replace
ブール式オプションを使用して、それを true
に設定します。これにより、同じ名前の以前の定義がすべて上書きされ、マージは行われません。
また、enabled=false
オプションを指定してプラグインを無効にすることもできます。これは、インスタンスが定義されない場合と同じ効果になります。include
オプションから以前の定義を再定義し、カスタムプロファイルでプラグインをアクティブにしない場合には、プラグインを無効にすると便利です。
- 注記
TuneD には、チューニングプロファイルの有効化または無効化の一環として、シェルコマンドを実行する機能が含まれます。これにより、TuneD に統合されていない機能で、TuneD プロファイルを拡張できます。
任意のシェルコマンドは、
script
プラグインを使用して指定できます。
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.8. 利用可能な TuneD プラグイン
プラグインの監視
現在、以下の監視プラグインが実装されています。
disk
- デバイスおよび測定間隔ごとのディスク負荷 (IO 操作の数) を取得します。
net
- ネットワークカードおよび測定間隔ごとのネットワーク負荷 (転送済みパケットの数) を取得します。
load
- CPU および測定間隔ごとの CPU 負荷を取得します。
プラグインのチューニング
現在、以下のチューニングプラグインが実装されています。動的チューニングを実装するのは、これらのプラグインの一部のみです。プラグインで対応しているオプションもリスト表示されます。
cpu
CPU ガバナーを、
governor
オプションで指定された値に設定し、CPU 負荷に応じて、電源管理サービス品質 (PM QoS) CPU ダイレクトメモリーアクセス (DMA) のレイテンシーを動的に変更します。CPU 負荷が
load_threshold
オプションで指定された値よりも小さい場合、レイテンシーはlatency_high
オプションで指定した値に設定されます。それ以外では、latency_low
で指定した値に設定されます。レイテンシーを特定の値に強制し、さらに動的に変更しないようにすることもできます。これを行うには、
force_latency
オプションを、必要なレイテンシーの値に設定します。eeepc_she
CPU の負荷に応じて、フロントサイドバス (FSB) の速度を動的に設定します。
この機能は一部のネットブックで利用でき、ASUS Super Hybrid Engine (SHE) としても知られています。
CPU 負荷が
load_threshold_powersave
オプションで指定した値と同じかそれ未満の場合、プラグインは、FSB 速度を、she_powersave
オプションで指定した値に設定します。CPU 負荷がload_threshold_normal
オプションで指定した値と同じかそれより上になる場合は、FSB 速度が、she_normal
オプションで指定された値に設定されます。この機能のハードウェアサポートを TuneD が検出しない場合、静的チューニングには対応せず、プラグインも透過的に無効になります。
net
-
Wake on LAN 機能を、
wake_on_lan
オプションで指定した値に設定します。ethtool
ユーティリティーと同じ構文を使用します。また、インターフェイスの使用状況に応じてインターフェイス速度が動的に変更します。 sysctl
プラグインオプションで指定したさまざまな
sysctl
設定を設定します。この構文は、
name=value
です。name は、sysctl
ユーティリティーが指定した名前と同じです。TuneDで利用可能な別のプラグインで対応していない設定を変更する必要がある場合は、
sysctl
プラグインを使用します。他の特定プラグインが、この設定に対応している場合は、そのプラグインを使用することが推奨されます。usb
USB デバイスの autosuspend タイムアウトを、
autosuspend
パラメーターで指定した値に設定します。値が
0
の場合は、autosuspend が無効になります。vm
transparent_hugepages
オプションの値に合わせて、Transparent Huge Page を有効または無効にします。transparent_hugepages
オプションの有効な値は次のとおりです。- "always"
- "never"
- "madvise"
audio
音声コーデックの autosuspend タイムアウトを、
timeout
オプションで指定した値に設定します。現在、
snd_hda_intel
コーデックおよびsnd_ac97_codec
コーデックに対応しています。値が0
の場合は、autosuspend が無効になります。また、ブール値オプションreset_controller
をtrue
に設定することにより、コントローラーを強制的にリセットすることもできます。disk
elevator
オプションで指定された値にディスクエレベーターを設定します。また、以下も設定します。
-
apm
オプションで指定された値への APM -
scheduler_quantum
オプションで指定された値へのスケジューラーの量子 -
spindown
オプションで指定された値へのディスクスピンダウンタイムアウト -
readahead
パラメーターで指定した値までディスク先読み -
現在のディスクが、
readahead_multiply
オプションで指定した定数を掛けた値に先読みされます。
さらに、このプラグインにより、現在のドライブ使用状況に応じて、ドライブの高度な電力管理設定および spindown タイムアウト設定が動的に変更します。動的チューニングは、ブール値オプション
dynamic
により制御でき、デフォルトで有効になります。-
scsi_host
SCSI ホストのオプションをチューニングします。
Aggressive Link Power Management (ALPM) を、
alpm
オプションで指定した値に設定します。mounts
-
disable_barriers
オプションのブール値に応じて、マウントのバリアを有効または無効にします。 script
プロファイルの読み込み時またはアンロード時に、外部スクリプトまたはバイナリーを実行します。任意の実行可能ファイルを選択できます。
重要script
プラグインは、以前のリリースとの互換性を維持するために提供されています。必要な機能をカバーする場合は、他のTuneD プラグインを使用することが推奨されます。TuneD は、以下のいずれかの引数で実行ファイルを呼び出します。
-
プロファイルの読み込み時に
start
-
プロファイルのアンロード時に
stop
実行可能ファイルに
stop
アクションを適切に実装し、start
アクション中に変更したすべての設定を元に戻す必要があります。この手順を行わないと、TuneD プロファイルを変更した後のロールバック手順が機能しません。bash スクリプトは、Bash ライブラリー
/usr/lib/tuned/functions
をインポートし、そこで定義されている関数を使用できます。これらの関数は、TuneD がネイティブに提供していない機能にのみ使用してください。関数名が_wifi_set_power_level
などのアンダースコアで始まる場合は、将来変更される可能性があるため、関数をプライベートにし、スクリプトでは使用しないでください。プラグイン構造の
script
パラメーターを使用して、実行ファイルへのパスを指定します。例2.6 プロファイルからの Bash スクリプトの実行
プロファイルディレクトリーに置かれた
script.sh
という名前の Bash スクリプトを実行するには、次のコマンドを実行します。[script] script=${i:PROFILE_DIR}/script.sh
-
プロファイルの読み込み時に
sysfs
プラグインオプションで指定したさまざまな
sysfs
設定を設定します。構文は
name=value
となります。name は、使用するsysfs
パスです。このプラグインは、他のプラグインで対応していない一部の設定を変更する必要がある場合に使用します。特定のプラグインが必要な設定に対応する場合は、そのプラグインを優先します。
video
ビデオカードのさまざまな省電力レベルを設定します。現在、Radeon カードにのみ対応しています。
省電力レベルは、
radeon_powersave
オプションを使用して指定できます。対応している値は次のとおりです。-
default
-
auto
-
low
-
mid
-
High
-
dynpm
-
dpm-battery
-
dpm-balanced
-
dpm-perfomance
詳細は www.x.org を参照してください。このプラグインは実験的なものであるため、今後のリリースでオプションが変更する可能性があることに注意してください。
-
bootloader
カーネルコマンドラインにオプションを追加します。このプラグインは、GRUB 2 ブートローダーのみに対応しています。
grub2_cfg_file
オプションを使用すると、GRUB 2 設定ファイルの場所を、標準以外のカスタマイズされた場所に指定できます。そのカーネルオプションは、現在の GRUB 設定とそのテンプレートに追加されます。カーネルオプションを有効にするには、システムを再起動する必要があります。
別のプロファイルに切り替えるか、
TuneD
サービスを手動で停止すると、追加のオプションが削除されます。システムをシャットダウンまたは再起動しても、カーネルオプションはgrub.cfg
ファイルに残ります。カーネルオプションは、以下の構文で指定できます。
cmdline=arg1 arg2 ... argN
例2.7 カーネルコマンドラインの変更
たとえば、
quiet
カーネルオプションを TuneD プロファイルに追加するには、tuned.conf
ファイルに次の行を含めます。[bootloader] cmdline=quiet
以下に、
isolcpus=2
オプションをカーネルコマンドラインに追加するカスタムプロファイルの例を示します。[bootloader] cmdline=isolcpus=2
service
プラグインオプションで指定されたさまざまな
sysvinit
、sysv-rc
、openrc
、およびsystemd
サービスを処理します。構文は
service.service_name=command[,file:file]
です。サポートされているサービス処理コマンドは次のとおりです。
-
start
-
stop
-
enable
-
disable
コンマ (
,
) またはセミコロン (;
) を使用して、複数のコマンドを区切ります。ディレクティブの競合の場合、service
プラグインは最後にリストされたものを使用します。オプションの
file:file
ディレクティブを使用して、systemd
専用のオーバーレイ設定ファイルfile
をインストールします。他の init システムは、このディレクティブを無視します。service
プラグインは、オーバーレイ設定ファイルを/etc/systemd/system/service_name.service.d/
ディレクトリーにコピーします。プロファイルがアンロードされると、service
プラグインは、これらのディレクトリーが空の場合は削除します。注記service
プラグインは、systemd
init システム以外の現在のランレベルでのみ動作します。例2.8 オーバーレイファイルを使用した
sendmail
サービスの開始および有効化[service] service.sendmail=start,enable,file:${i:PROFILE_DIR}/tuned-sendmail.conf
内部変数
${i:PROFILE_DIR}
は、プラグインがプロファイルをロードするディレクトリーを指します。-
scheduler
- スケジューリングの優先度、CPU コア分離、プロセスアフィニティー、スレッドアフィニティー、および IRQ アフィニティーを調整するためのさまざまなオプションを提供します。
利用可能なさまざまなオプションの詳細は、Functionalities of the scheduler
TuneD plug-in を参照してください。
2.9. scheduler
TuneD プラグインの機能
scheduler
TuneD プラグインを使用して、スケジューリングの優先度、CPU コアの分離、プロセスアフィニティー、スレッドアフィニティー、および IRQ アフィニティーを制御および調整します。
CPU の分離
プロセス、スレッド、および IRQ が特定の CPU を使用しないようにするには、isolated_cores
オプションを使用します。これは、プロセスおよびスレッドアフィニティー、IRQ アフィニティーを変更し、IRQ の default_smp_affinity
パラメーターを設定します。
CPU アフィニティーマスクは、sched_setaffinity()
システムコールの成功を条件として、ps_whitelist
オプションに一致するすべてのプロセスとスレッドに対して調整されます。ps_whitelist
正規表現のデフォルト設定は、すべてのプロセスおよびスレッド名に一致する .*
です。特定のプロセスおよびスレッドを除外するには、ps_blacklist
オプションを使用します。このオプションの値も正規表現として解釈されます。プロセス名とスレッド名は、その正規表現と照合されます。プロファイルロールバックにより、一致するすべてのプロセスとスレッドがすべての CPU で実行され、プロファイルアプリケーションの前に IRQ 設定が復元されます。
ps_whitelist
オプションおよび ps_blacklist
オプションで、;
で区切った複数の正規表現がサポートされます。エスケープされたセミコロン \;
はそのまま使用されます。
例2.9 CPUs 2-4 の分離
以下の設定は CPU 2-4 を分離します。ps_blacklist
正規表現に一致するプロセスおよびスレッドは、分離に関係なく任意の CPU を使用できます。
[scheduler] isolated_cores=2-4 ps_blacklist=.*pmd.*;.*PMD.*;^DPDK;.*qemu-kvm.*
IRQ SMP アフィニティー
/proc/irq/default_smp_affinity
ファイルには、すべての非アクティブな割り込み要求 (IRQ) ソース用のシステム上のデフォルトのターゲット CPU コアを表すビットマスクが含まれます。IRQ がアクティブまたは割り当てられると、/proc/irq/default_smp_affinity
ファイルの値は IRQ のアフィニティービットマスクを決定します。
default_irq_smp_affinity
パラメーターは、TuneD が /proc/irq/default_smp_affinity
ファイルに書き込むものを制御します。default_irq_smp_affinity
パラメーターは、以下の値と動作をサポートします。
calc
isolated_cores
パラメーターから/proc/irq/default_smp_affinity
ファイルの内容を計算します。isolated_cores
パラメーターの反転は、分離していないコアを計算します。次に、分離されていないコアの交差部分と、
/proc/irq/default_smp_affinity
ファイルの以前の内容が/proc/irq/default_smp_affinity
ファイルに書き込まれます。これは、
default_irq_smp_affinity
パラメーターが省略された場合のデフォルトの動作です。ignore
-
TuneD は、
/proc/irq/default_smp_affinity
ファイルを変更しません。 - CPU リスト
1
などの単一の数値、1,3
などのコンマ区切りのリスト、または3-5
などの範囲の形式を取ります。CPU リストを展開し、これを
/proc/irq/default_smp_affinity
ファイルに直接書き込みます。
例2.10 明示的な CPU リストを使用したデフォルトの IRQ smp アフィニティーの設定
以下の例では、明示的な CPU リストを使用して、デフォルトの IRQ SMP アフィニティーを CPU 0 および 2 に設定します。
[scheduler] isolated_cores=1,3 default_irq_smp_affinity=0,2
スケジューリングポリシー
プロセスまたはスレッドのグループのスケジューリングポリシー、優先度、およびアフィニティーを調整するには、以下の構文を使用します。
group.groupname=rule_prio:sched:prio:affinity:regex
ここで rule_prio
は、ルールの内部 TuneD 優先度を定義します。ルールは優先度に基づいてソートされます。これは、継承が以前に定義されたルールを並べ替えることができるようにするために必要です。同等の rule_prio
ルールは、定義された順序で処理される必要があります。ただし、これは Python インタープリターに依存します。groupname
の継承されたルールを無効にするには、以下を使用します。
group.groupname=
sched
は以下のいずれかである必要があります。
f
- 先入れ先出し (FIFO)
b
- バッチ
r
- ラウンドロビン
o
- その他
*
- 変更対象外
affinity
は 16 進数での CPU アフィニティーです。変更しない場合は *
を使用します。
prio
はスケジューリングの優先度です (chrt -m
を参照)。
regex
は Python の正規表現です。これは、ps -eo cmd
コマンドの出力と照合されます。
指定したプロセス名は、複数のグループに一致させることができます。このような場合、最後に一致する regex
により、優先順位とスケジューリングポリシーが決まります。
例2.11 スケジューリングポリシーおよび優先度の設定
以下の例では、スケジューリングポリシーと優先度をカーネルスレッドおよびウォッチドッグに設定します。
[scheduler] group.kthreads=0:*:1:*:\[.*\]$ group.watchdog=0:f:99:*:\[watchdog.*\]
scheduler
プラグインは、perf
イベントループを使用して、新しく作成されたプロセスを識別します。デフォルトでは、perf.RECORD_COMM
および perf.RECORD_EXIT
のイベントをリッスンします。
perf_process_fork
パラメーターを true
に設定すると、プラグインに対して perf.RECORD_FORK
イベントもリッスンするように指示します。つまり、fork()
システムコールによって作成された子プロセスが処理されます。
perf
イベントの処理には大量の CPU オーバーヘッドが発生する可能性があります。
スケジューラープラグインの CPU オーバーヘッドは、スケジューラー runtime
オプションを使用して 0
に設定することで軽減できます。これにより、動的スケジューラー機能が完全に無効になり、perf イベントは監視されず、処理されません。これによるデメリットは、プロセスとスレッドの調整がプロファイルアプリケーションでのみ実行されることです。
例2.12 動的スケジューラー機能の無効化
以下の例では、CPU 1 と 3 を分離しながら、動的スケジューラー機能を無効にします。
[scheduler] runtime=0 isolated_cores=1,3
mmapped
バッファーは perf
イベントに使用されます。負荷が大きい場合、このバッファーがオーバーフローする可能性があり、プラグインが欠落しているイベントを開始し、新しく作成されたプロセスを処理しない可能性があります。このような場合は、perf_mmap_pages
パラメーターを使用してバッファーサイズを増やします。perf_mmap_pages
パラメーターの値は 2 の累乗である必要があります。perf_mmap_pages
パラメーターが手動で設定されていない場合は、デフォルト値の 128 が使用されます。
cgroups
を使用した制限
scheduler
プラグインは、cgroups
v1 を使用したプロセスおよびスレッド制限をサポートします。
cgroup_mount_point
オプションは、cgroup ファイルシステムをマウントするパス、または、TuneD のマウントが想定される場所を指定します。設定されていない場合、/sys/fs/cgroup/cpuset
が想定されます。
cgroup_groups_init
オプションが 1
に設定されている場合、TuneD は、cgroup*
オプションで定義されたすべての cgroups
を作成および削除します。これがデフォルトの動作です。cgroup_mount_point
オプションが 0
に設定されている場合、cgroups
は他の方法で事前設定する必要があります。
cgroup_mount_point_init
オプションが 1
に設定されている場合、TuneD は cgroup マウントポイントを作成し、削除します。これは cgroup_groups_init = 1
を意味します。cgroup_mount_point_init
オプションが 0
に設定されている場合は、他の方法で cgroups
マウントポイントを事前設定する必要があります。これがデフォルトの動作です。
cgroup_for_isolated_cores
オプションは、isolated_cores
オプション機能の cgroup
名です。たとえば、システムに 4 つの CPU がある場合、isolated_cores=1
は、Tuned がすべてのプロセスとスレッドを CPU 0、2、および 3 に移動することを意味します。scheduler
プラグインは、計算された CPU アフィニティーを指定された cgroup の cpuset.cpus
コントロールファイルに書き込み、一致するすべてのプロセスおよびスレッドをこのグループに移動することで、指定されたコアを分離します。このオプションが設定されていない場合、sched_setaffinity()
を使用する従来の cpuset アフィニティーが CPU アフィニティーを設定します。
cgroup.cgroup_name
オプションは、任意の cgroups
のアフィニティーを定義します。階層的な cgroups を使用することもできますが、階層を正しい順序で指定する必要があります。TuneD は、cgroup_mount_point
オプションで指定された場所に cgroup
を強制的に配置する点を除き、ここでは健全性チェックを行いません。
group.
で始まるスケジューラーオプションの構文が拡張され、16 進数の affinity
ではなく、cgroup.cgroup_name
が使用されるようになりました。一致するプロセスは cgroup
cgroup_name
に移動されます。上記のように、cgroup.
オプションで定義されていない cgroup を使用することもできます。たとえば、TuneD によって管理されない cgroups
などがあります。
すべての cgroup
名は、ピリオド (.
) をスラッシュ (/
) に置き換えてサニタイズされます。これにより、プラグインが cgroup_mount_point
オプションで指定された場所の外部に書き込むことを防ぎます。
例2.13 scheduler
プラグインでの cgroups
v1 の使用
以下の例では、2 つの cgroups
、group1
、および group2
を作成します。cgroup group1
アフィニティーを CPU 2 に設定し、cgroup
group2
を CPU 0 および 2 に設定します。4 つの CPU 設定を指定すると、isolated_cores=1
オプションはすべてのプロセスとスレッドを CPU コア 0、2、および 3 に移動します。ps_blacklist
正規表現で指定されたプロセスおよびスレッドは移動されません。
[scheduler] cgroup_mount_point=/sys/fs/cgroup/cpuset cgroup_mount_point_init=1 cgroup_groups_init=1 cgroup_for_isolated_cores=group cgroup.group1=2 cgroup.group2=0,2 group.ksoftirqd=0:f:2:cgroup.group1:ksoftirqd.* ps_blacklist=ksoftirqd.*;rcuc.*;rcub.*;ktimersoftd.* isolated_cores=1
cgroup_ps_blacklist
オプションは、指定された cgroups
に属するプロセスを除外します。このオプションで指定された正規表現は、/proc/PID/cgroups
の cgroup
階層と照合されます。コンマ (,
) は、正規表現の一致前に cgroups
v1 階層を /proc/PID/cgroups
から分離します。以下は、正規表現が照合される内容の例です。
10:hugetlb:/,9:perf_event:/,8:blkio:/
複数の正規表現はセミコロン (;
) で区切ることができます。セミコロンは論理 'or' 演算子を表します。
例2.14 cgroups を使用したスケジューラーからのプロセスの除外
以下の例では、scheduler
プラグインは、cgroup /daemons
に属するプロセスを除いて、すべてのプロセスをコア 1 から移動します。\b
文字列は、単語境界に一致する正規表現のメタ文字です。
[scheduler] isolated_cores=1 cgroup_ps_blacklist=:/daemons\b
以下の例では、scheduler
プラグインは、階層 ID が 8 で、controller-list blkio
を持つ cgroup に属するすべてのプロセスを除外します。
[scheduler] isolated_cores=1 cgroup_ps_blacklist=\b8:blkio:
最近のカーネルは、一部の sched_
および numa_balancing_
カーネルランタイムパラメーターを sysctl
ユーティリティーが管理する /proc/sys/kernel
ディレクトリーから、通常は /sys/kernel/debug
ディレクトリーにマウントされる debugfs
に移動しました。TuneD は、scheduler
プラグインを介して以下のパラメーターの抽象化メカニズムを提供します。このメカニズムでは、TuneD は、使用されるカーネルに基づいて、指定された値を正しい場所に書き込みます。
-
sched_min_granularity_ns
-
sched_latency_ns
-
sched_wakeup_granularity_ns
-
sched_tunable_scaling
-
sched_migration_cost_ns
-
sched_nr_migrate
-
numa_balancing_scan_delay_ms
-
numa_balancing_scan_period_min_ms
-
numa_balancing_scan_period_max_ms
numa_balancing_scan_size_mb
例2.15 移行を決定するためにタスクの "cache hot" 値を設定します。
古いカーネルで以下のパラメーターを設定すると、
sysctl
は500000
の値を/proc/sys/kernel/sched_migration_cost_ns
ファイルに書き込むことを意味します。[sysctl] kernel.sched_migration_cost_ns=500000
これは、最近のカーネルでは、
scheduler
プラグインを介して次のパラメーターを設定するのと同じです。[scheduler] sched_migration_cost_ns=500000
つまり、TuneD は
500000
の値を/sys/kernel/debug/sched/migration_cost_ns
ファイルに書き込みます。
2.10. TuneD プロファイルの変数
TuneD プロファイルがアクティブになると、変数は実行時にデプロイメントします。
TuneD変数を使用すると、TuneDプロファイルで必要な入力を減らすことができます。
TuneDプロファイルには事前定義された変数はありません。プロファイルに [variables]
セクションを作成し、以下の構文を使用すると、独自の変数を定義できます。
[variables] variable_name=value
プロファイル内の変数の値をデプロイメントするには、以下の構文を使用します。
${variable_name}
例2.16 変数を使用した CPU コアの分離
以下の例では、${isolated_cores}
変数が 1,2
にデプロイメントされるため、カーネルは isolcpus=1,2
オプションで起動します。
[variables] isolated_cores=1,2 [bootloader] cmdline=isolcpus=${isolated_cores}
変数は個別のファイルで指定できます。たとえば、次の行を tuned.conf
に追加できます。
[variables]
include=/etc/tuned/my-variables.conf
[bootloader]
cmdline=isolcpus=${isolated_cores}
isolated_cores=1,2
オプションを /etc/tuned/my-variables.conf
ファイルに追加すると、カーネルが isolcpus=1,2
オプションで起動します。
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.11. TuneD プロファイルの組み込み関数
組み込み関数は、TuneD プロファイルがアクティブになると、実行時に拡張します。
これにより、以下が可能になります。
- さまざまな組み込み関数と、TuneD変数の使用
- Python でカスタム関数を作成し、プラグインの形式でTuneD に追加します。
関数を呼び出すには、以下の構文を使用します。
${f:function_name:argument_1:argument_2}
プロファイルと tuned.conf
ファイルが置かれたディレクトリーパスをデプロイメントするには、特殊な構文が必要な PROFILE_DIR
関数を使用します、
${i:PROFILE_DIR}
例2.17 変数と組み込み関数を使用した CPU コア分離
次の例では、${non_isolated_cores}
変数は 0,3-5
にデプロイメントされ、cpulist_invert
組み込み関数が 0,3-5
引数で呼び出されます。
[variables] non_isolated_cores=0,3-5 [bootloader] cmdline=isolcpus=${f:cpulist_invert:${non_isolated_cores}}
cpulist_invert
関数は、CPU のリストを反転します。6 CPU のマシンでは、反転が 1,2
になり、カーネルは isolcpus=1,2
コマンドラインオプションで起動します。
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.12. TuneD プロファイルで利用可能な組み込み関数
すべての TuneD プロファイルで、以下の組み込み関数を使用できます。
PROFILE_DIR
-
プロファイルと
tuned.conf
ファイルが置かれているディレクトリーパスを返します。 exec
- プロセスを実行し、その出力を返します。
assertion
- 2 つの引数を比較します。一致しない 場合、関数は最初の引数からテキストをログに記録し、プロファイルの読み込みを中止します。
assertion_non_equal
- 2 つの引数を比較します。2 つの引数が 一致する 場合、関数は最初の引数からテキストをログに記録し、プロファイルの読み込みを中止します。
kb2s
- キロバイトをディスクセクターに変換します。
s2kb
- ディスクセクターをキロバイトに変換します。
strip
- 渡されたすべての引数から文字列を作成し、最初と最後の空白の両方を削除します。
virt_check
TuneD が仮想マシン (VM) またはベアメタルのどちらで実行しているかを確認します。
- 仮想マシン内では、この関数が最初の引数を返します。
- ベアメタルでは、この関数は、エラーが発生した場合でも 2 番目の引数を返します。
cpulist_invert
-
補完するために CPU のリストを反転します。たとえば、0 から 3 までの番号が付けられた 4 つの CPU を持つシステムでは、リスト
0,2,3
の反転は1
です。 cpulist2hex
- CPU リストを 16 進数の CPU マスクに変換します。
cpulist2hex_invert
- CPU リストを 16 進数の CPU マスクに変換し、反転します。
hex2cpulist
- 16 進数の CPU マスクを CPU リストに変換します。
cpulist_online
- リストからの CPU がオンラインかどうかをチェックします。オンライン CPU のみを含むリストを返します。
cpulist_present
- リストに CPU が存在するかどうかを確認します。存在する CPU のみを含むリストを返します。
cpulist_unpack
-
1-3,4
形式の CPU リストを、1,2,3,4
にデプロイメントします。 cpulist_pack
-
CPU リストを、
1,2,3,5
の形式で1-3,5
に圧縮します。
2.13. 新しい TuneD プロファイルの作成
この手順では、カスタムパフォーマンスルールを使用して新しいTuneDプロファイルを作成します。
前提条件
-
TuneD
サービスが実行中である。詳細は、TuneD のインストールと有効化 を参照してください。
手順
/etc/tuned/
ディレクトリーで、作成するプロファイルと同じ名前の新しいディレクトリー作成します。# mkdir /etc/tuned/my-profile
新しいディレクトリーに、ファイル
tuned.conf
を作成します。必要に応じて、[main]
セクションとプラグイン定義を追加します。たとえば、
balanced
プロファイルの設定を表示します。[main] summary=General non-specialized TuneD profile [cpu] governor=conservative energy_perf_bias=normal [audio] timeout=10 [video] radeon_powersave=dpm-balanced, auto [scsi_host] alpm=medium_power
プロファイルをアクティベートするには、次のコマンドを実行します。
# tuned-adm profile my-profile
TuneD プロファイルが有効であり、システム設定が適用されていることを確認します。
$ tuned-adm active Current active profile: my-profile
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See tuned log file ('/var/log/tuned/tuned.log') for details.
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.14. 既存の TuneD プロファイルの変更
この手順では、既存のTuneD プロファイルに基づいて変更した子プロファイルを作成します。
前提条件
-
TuneD
サービスが実行中である。詳細は、TuneD のインストールと有効化 を参照してください。
手順
/etc/tuned/
ディレクトリーで、作成するプロファイルと同じ名前の新しいディレクトリー作成します。# mkdir /etc/tuned/modified-profile
新しいディレクトリーに、ファイル
tuned.conf
を作成し、以下のように[main]
セクションを設定します。[main] include=parent-profile
parent-profile を、変更しているプロファイルの名前に置き換えます。
プロファイルの変更を含めます。
例2.18 throughput-performance プロファイルでスワップを低減
throughput-performance
プロファイルの設定を使用し、vm.swappiness
の値を、デフォルトの 10 ではなく 5 に変更するには、以下を使用します。[main] include=throughput-performance [sysctl] vm.swappiness=5
プロファイルをアクティベートするには、次のコマンドを実行します。
# tuned-adm profile modified-profile
TuneD プロファイルが有効であり、システム設定が適用されていることを確認します。
$ tuned-adm active Current active profile: my-profile
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See tuned log file ('/var/log/tuned/tuned.log') for details.
関連情報
-
システム上の
tuned.conf(5)
man ページ
2.15. TuneD を使用したディスクスケジューラーの設定
この手順では、選択したブロックデバイスに特定のディスクスケジューラーを設定するTuneD プロファイルを作成して有効にします。この設定は、システムを再起動しても持続します。
以下のコマンドと設定で、以下の内容を置き換えます。
-
device をブロックデバイスの名前に置き換えます (例:
sdf
)。 -
selected-scheduler を、デバイスに設定するディスクスケジューラーに置き換えます (例:
bfq
)。
前提条件
-
TuneD
サービスがインストールされ、有効になっている。詳細は、TuneD のインストールと有効化 を参照してください。
手順
必要に応じて、プロファイルのベースとなる既存のTuneDプロファイルを選択します。利用可能なプロファイルのリストは、RHEL とともに配布される TuneD プロファイル を参照してください。
現在アクティブなプロファイルを確認するには、次のコマンドを実行します。
$ tuned-adm active
TuneD プロファイルを保持する新しいディレクトリーを作成します。
# mkdir /etc/tuned/my-profile
選択したブロックデバイスのシステム固有の識別子を見つけます。
$ udevadm info --query=property --name=/dev/device | grep -E '(WWN|SERIAL)' ID_WWN=0x5002538d00000000_ ID_SERIAL=Generic-_SD_MMC_20120501030900000-0:0 ID_SERIAL_SHORT=20120501030900000
注記この例のコマンドは、指定したブロックデバイスに関連付けられた World Wide Name (WWN) またはシリアル番号として識別されるすべての値を返します。WWN を使用することが推奨されますが、WWN は特定のデバイスで常に利用できる訳ではなく、コマンド例で返される値は、デバイスのシステム固有の ID として使用することが許容されます。
/etc/tuned/my-profile/tuned.conf
設定ファイルを作成します。このファイルで、以下のオプションを設定します。必要に応じて、既存のプロファイルを追加します。
[main] include=existing-profile
WWN 識別子に一致するデバイスに対して選択したディスクスケジューラーを設定します。
[disk] devices_udev_regex=IDNAME=device system unique id elevator=selected-scheduler
ここでは、以下のようになります。
-
IDNAME を、使用されている識別子名に置き換えます (例:
ID_WWN
)。 device system unique id を、選択した識別子の値に置き換えます (例:
0x5002538d00000000
)。devices_udev_regex
オプションで複数のデバイスに一致させるには、識別子を括弧で囲み、垂直バーで区切ります。devices_udev_regex=(ID_WWN=0x5002538d00000000)|(ID_WWN=0x1234567800000000)
-
IDNAME を、使用されている識別子名に置き換えます (例:
プロファイルを有効にします。
# tuned-adm profile my-profile
検証
TuneD プロファイルがアクティブで、適用されていることを確認します。
$ tuned-adm active Current active profile: my-profile
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See TuneD log file ('/var/log/tuned/tuned.log') for details.
/sys/block/device/queue/scheduler
ファイルの内容を読み取ります。# cat /sys/block/device/queue/scheduler [mq-deadline] kyber bfq none
ファイル名の device を、
sdc
などのブロックデバイス名に置き換えます。アクティブなスケジューラーは、角括弧 (
[]
) にリスト表示されます。
関連情報
第3章 tuna インターフェイスを使用したシステムの確認
tuna
ツールは、チューニングタスクを実行する際の複雑性を軽減します。tuna
を使用して、スケジューラーの調整可能パラメーターの調整、スレッド優先度や IRQ ハンドラーのチューニング、CPU コアおよびソケットの分離を行います。tuna
ツールを使用すると、次の操作を実行できます。
- システム上の CPU の表示
- システム上で現在実行中の割り込み要求 (IRQ) の表示
- スレッドに関するポリシーおよび優先度の情報の変更
- システムの現在のポリシーと優先度の表示
3.1. tuna ツールのインストール
tuna
ツールは、稼働中のシステムで使用されるように設計されています。これにより、アプリケーション固有の測定ツールで、変更の直後にシステムパフォーマンスを確認および分析できます。
手順
tuna
ツールをインストールします。# dnf install tuna
検証
利用可能な
tuna
CLI オプションを表示します。# tuna -h
関連情報
-
システム上の
tuna(8)
man ページ
3.2. tuna ツールを使用したシステムの状態の表示
tuna
コマンドラインインターフェイス (CLI) ツールを使用して、システムの状態を表示できます。
前提条件
-
tuna
ツールがインストールされている。詳細は、tuna ツールのインストール を参照してください。
手順
現在のポリシーおよび優先度を表示します。
# tuna show_threads pid SCHED_ rtpri affinity cmd 1 OTHER 0 0,1 init 2 FIFO 99 0 migration/0 3 OTHER 0 0 ksoftirqd/0 4 FIFO 99 0 watchdog/0
あるいは、PID に対応する、またはコマンド名に一致する特定のスレッドを表示するには、次のように入力します。
# tuna show_threads -t pid_or_cmd_list
pid_or_cmd_list 引数は、コンマ区切りの PID またはコマンド名パターンのリストです。
シナリオに応じて、次のいずれかのアクションを実行します。
-
tuna
CLI を使用して CPU をチューニングするには、tuna ツールを使用した CPU のチューニング の手順を完了します。 -
tuna
ツールを使用して IRQ を調整するには、tuna ツールを使用した IRQ のチューニング の手順を完了します。
-
変更した設定を保存します。
# tuna save filename
このコマンドは、現在実行中のカーネルスレッドのみを保存します。実行していないプロセスは保存されません。
関連情報
-
システム上の
tuna(8)
man ページ
3.3. tuna ツールを使用した CPU のチューニング
tuna
ツールコマンドは、個別の CPU をターゲットとして指定できます。tuna
ツールを使用すると、次のアクションを実行できます。
Isolate CPUs
- 指定した CPU で実行しているすべてのタスクが、次に利用可能な CPU に移動します。CPU を分離すると、すべてのスレッドのアフィニティーマスクから CPU が削除され、CPU が利用できなくなります。
Include CPUs
- 指定された CPU でタスクを実行できるようにします。
Restore CPUs
- 指定した CPU を以前の設定に戻します。
前提条件
-
tuna
ツールがインストールされている。詳細は、tuna ツールのインストール を参照してください。
手順
すべての CPU をリスト表示し、コマンドの影響を受ける CPU のリストを指定します。
# ps ax | awk 'BEGIN { ORS="," }{ print $1 }' PID,1,2,3,4,5,6,8,10,11,12,13,14,15,16,17,19
tuna
インターフェイスでスレッドリストを表示します。# tuna show_threads -t 'thread_list from above cmd'
コマンドの影響を受ける CPU のリストを指定します。
# *tuna [command] --cpus cpu_list *
cpu_list 引数は、
--cpus 0,2
などのコンマ区切り CPU 番号のリストです。現在の cpu_list に特定の CPU を追加するには、たとえば
--cpus +0
を使用します。状況に応じて、次のいずれかの操作を実行します。
CPU を分離するには、次のように入力します。
# tuna isolate --cpus cpu_list
CPU を含めるには、次のように入力します。
# tuna include --cpus cpu_list
4 つ以上のプロセッサーを搭載したシステムを使用する場合は、すべての
ssh
スレッドを CPU 0 と 1 で実行し、すべてのhttp
スレッドを CPU 2 と 3 で実行します。# tuna move --cpus 0,1 -t ssh* # tuna move --cpus 2,3 -t http\*
検証
現在の設定を表示し、変更が適用されたことを確認します。
# tuna show_threads -t ssh* pid SCHED_ rtpri affinity voluntary nonvoluntary cmd 855 OTHER 0 0,1 23 15 sshd # tuna show_threads -t http\* pid SCHED_ rtpri affinity voluntary nonvoluntary cmd 855 OTHER 0 2,3 23 15 http
関連情報
-
/proc/cpuinfo
ファイル -
システム上の
tuna(8)
man ページ
3.4. tuna ツールを使用した IRQ のチューニング
/proc/interrupts
ファイルには、IRQ ごとの割り込みの数、割り込みのタイプ、およびその IRQ にあるデバイスの名前が記録されます。
前提条件
-
tuna
ツールがインストールされている。詳細は、tuna ツールのインストール を参照してください。
手順
現在の IRQ とそれらのアフィニティーを表示します。
# tuna show_irqs # users affinity 0 timer 0 1 i8042 0 7 parport0 0
コマンドの影響を受ける IRQ のリストを指定します。
# tuna [command] --irqs irq_list --cpus cpu_list
irq_list 引数は、コンマ区切りの IRQ 番号またはユーザー名パターンのリストです。
[コマンド] を、たとえば
--spread
に置き換えます。指定した CPU に割り込みを移動します。
# tuna show_irqs --irqs 128 users affinity 128 iwlwifi 0,1,2,3 # tuna move --irqs 128 --cpus 3
128 を irq_list 引数に置き換え、3 を cpu_list 引数に置き換えます。
cpu_list 引数は、
--cpus 0,2
などのコンマ区切り CPU 番号のリストです。詳細は、tuna ツールを使用した CPU のチューニング を参照してください。
検証
選択した IRQ の状態を、割り込みを指定の CPU に移動してから比較します。
# tuna show_irqs --irqs 128 users affinity 128 iwlwifi 3
関連情報
-
/procs/interrupts
ファイル -
システム上の
tuna(8)
man ページ
第4章 RHEL システムロールを使用したパフォーマンスの監視
システム管理者は、metrics
RHEL システムロールを使用して、システムのパフォーマンスを監視できます。
4.1. RHEL システムロールを使用するためのコントロールノードと管理対象ノードの準備
個々の RHEL システムロールを使用してサービスと設定を管理するには、その前に、コントロールノードと管理対象ノードを準備する必要があります。
4.1.1. RHEL 9 でのコントロールノードの準備
RHEL システムロールを使用する前に、コントロールノードを設定する必要があります。次に、このシステムは、Playbook に従ってインベントリーから管理対象ホストを設定します。
前提条件
- システムはカスタマーポータルに登録されます。
-
Red Hat Enterprise Linux Server
サブスクリプションがシステムにアタッチされている。 -
オプション:
Ansible Automation Platform
サブスクリプションがシステムにアタッチされている。
手順
Playbook を管理および実行するための
ansible
という名前のユーザーを作成します。[root@control-node]# useradd ansible
新しく作成した
ansible
ユーザーに切り替えます。[root@control-node]# su - ansible
このユーザーとして残りの手順を実行します。
SSH の公開鍵と秘密鍵を作成します。
[ansible@control-node]$ ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (/home/ansible/.ssh/id_rsa): Enter passphrase (empty for no passphrase): <password> Enter same passphrase again: <password> ...
キーファイルの推奨されるデフォルトの場所を使用します。
- オプション: 接続を確立するたびに Ansible が SSH キーのパスワードを要求しないように、SSH エージェントを設定します。
~/.ansible.cfg
ファイルを次の内容で作成します。[defaults] inventory = /home/ansible/inventory remote_user = ansible [privilege_escalation] become = True become_method = sudo become_user = root become_ask_pass = True
注記~/.ansible.cfg
ファイルの設定は優先度が高く、グローバルな/etc/ansible/ansible.cfg
ファイルの設定をオーバーライドします。これらの設定を使用して、Ansible は次のアクションを実行します。
- 指定されたインベントリーファイルでホストを管理します。
-
管理対象ノードへの SSH 接続を確立するときに、
remote_user
パラメーターで設定されたアカウントを使用します。 -
sudo
ユーティリティーを使用して、root
ユーザーとして管理対象ノードでタスクを実行します。 - Playbook を適用するたびに、リモートユーザーの root パスワードの入力を求められます。これは、セキュリティー上の理由から推奨されます。
管理対象ホストのホスト名をリストする
~/inventory
ファイルを INI または YAML 形式で作成します。インベントリーファイルでホストのグループを定義することもできます。たとえば、以下は、3 つのホストとUS
という名前の 1 つのホストグループを含む INI 形式のインベントリーファイルです。managed-node-01.example.com [US] managed-node-02.example.com ansible_host=192.0.2.100 managed-node-03.example.com
コントロールノードはホスト名を解決できる必要があることに注意してください。DNS サーバーが特定のホスト名を解決できない場合は、ホストエントリーの横に
ansible_host
パラメーターを追加して、その IP アドレスを指定します。RHEL システムロールをインストールします。
Ansible Automation Platform のない RHEL ホストに、
rhel-system-roles
パッケージをインストールします。[root@control-node]# dnf install rhel-system-roles
このコマンドは、
/usr/share/ansible/collections/ansible_collections/redhat/rhel_system_roles/
ディレクトリーにコレクションをインストールし、依存関係としてansible-core
パッケージをインストールします。Ansible Automation Platform で、
ansible
ユーザーとして次の手順を実行します。-
~/.ansible.cfg
ファイルで コンテンツのプライマリーソースとして Red Hat Automation Hub を定義します。 Red Hat Automation Hub から
redhat.rhel_system_roles
コレクションをインストールします。[ansible@control-node]$ ansible-galaxy collection install redhat.rhel_system_roles
このコマンドは、コレクションを
~/.ansible/collections/ansible_collections/redhat/rhel_system_roles/
ディレクトリーにインストールします。
-
次のステップ
- 管理対象ノードを準備します。詳細は、管理対象ノードの準備 を参照してください。
関連情報
- RHEL 9 および RHEL 8.6 以降の AppStream リポジトリーに含まれる Ansible Core パッケージのサポート範囲
- How to register and subscribe a system to the Red Hat Customer Portal using subscription-manager (Red Hat ナレッジベース)
-
ssh-keygen(1)
man ページ - ssh-agent を使用して SSH キーでリモートマシンに接続する手順
- Ansible configuration settings
- How to build your inventory
4.1.2. 管理対象ノードの準備
管理対象ノードはインベントリーにリストされているシステムであり、Playbook に従ってコントロールノードによって設定されます。管理対象ホストに Ansible をインストールする必要はありません。
前提条件
- コントロールノードを準備している。詳細は、Preparing a control node on RHEL 9 を参照してください。
コントロールノードから SSH アクセスできる。
重要root
ユーザーとしての直接 SSH アクセスはセキュリティーリスクを引き起こします。このリスクを軽減するには、管理対象ノードを準備するときに、このノード上にローカルユーザーを作成し、sudo
ポリシーを設定します。続いて、コントロールノードの Ansible は、ローカルユーザーアカウントを使用して管理対象ノードにログインし、root
などの別のユーザーとして Playbook を実行できます。
手順
ansible
という名前のユーザーを作成します。[root@managed-node-01]# useradd ansible
コントロールノードは後でこのユーザーを使用して、このホストへの SSH 接続を確立します。
ansible
ユーザーのパスワードを設定します。[root@managed-node-01]# passwd ansible Changing password for user ansible. New password: <password> Retype new password: <password> passwd: all authentication tokens updated successfully.
Ansible が
sudo
を使用してroot
ユーザーとしてタスクを実行する場合は、このパスワードを入力する必要があります。ansible
ユーザーの SSH 公開鍵を管理対象ノードにインストールします。ansible
ユーザーとしてコントロールノードにログインし、SSH 公開鍵を管理対象ノードにコピーします。[ansible@control-node]$ ssh-copy-id managed-node-01.example.com /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/home/ansible/.ssh/id_rsa.pub" The authenticity of host 'managed-node-01.example.com (192.0.2.100)' can't be established. ECDSA key fingerprint is SHA256:9bZ33GJNODK3zbNhybokN/6Mq7hu3vpBXDrCxe7NAvo.
プロンプトが表示されたら、
yes
と入力して接続します。Are you sure you want to continue connecting (yes/no/[fingerprint])? yes /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
プロンプトが表示されたら、パスワードを入力します。
ansible@managed-node-01.example.com's password: <password> Number of key(s) added: 1 Now try logging into the machine, with: "ssh 'managed-node-01.example.com'" and check to make sure that only the key(s) you wanted were added.
コントロールノードでコマンドをリモートで実行して、SSH 接続を確認します。
[ansible@control-node]$ ssh managed-node-01.example.com whoami ansible
ansible
ユーザーのsudo
設定を作成します。visudo
コマンドを使用して、/etc/sudoers.d/ansible
ファイルを作成および編集します。[root@managed-node-01]# visudo /etc/sudoers.d/ansible
通常のエディターではなく
visudo
を使用する利点は、このユーティリティーがファイルをインストールする前に解析エラーなどの基本的なチェックを提供する点にあります。/etc/sudoers.d/ansible
ファイルで、要件に応じたsudoers
ポリシーを設定します。次に例を示します。ansible
ユーザーのパスワードを入力した後、このホスト上で任意のユーザーおよびグループとしてすべてのコマンドを実行する権限をansible
ユーザーに付与するには、以下を使用します。ansible ALL=(ALL) ALL
ansible
ユーザーのパスワードを入力せずに、このホスト上で任意のユーザーおよびグループとしてすべてのコマンドを実行する権限をansible
ユーザーに付与するには、以下を使用します。ansible ALL=(ALL) NOPASSWD: ALL
または、セキュリティー要件に合わせてより細かいポリシーを設定します。
sudoers
ポリシーの詳細は、sudoers(5)
man ページを参照してください。
検証
すべての管理対象ノード上のコントロールノードからコマンドを実行できることを確認します。
[ansible@control-node]$ ansible all -m ping BECOME password: <password> managed-node-01.example.com | SUCCESS => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "changed": false, "ping": "pong" } ...
ハードコーディングされたすべてのホストグループには、インベントリーファイルにリストされているすべてのホストが動的に含まれます。
Ansible
command
モジュールを使用して管理対象ノードでwhoami
ユーティリティーを実行し、権限昇格が正しく機能することを確認します。[ansible@control-node]$ ansible all -m command -a whoami BECOME password: <password> managed-node-01.example.com | CHANGED | rc=0 >> root ...
コマンドが root を返した場合、管理対象ノード上で
sudo
が正しく設定されています。
関連情報
- RHEL 9 でのコントロールノードの準備
-
sudoers(5)
man ページ
4.2. metrics
RHEL システムロールの概要
RHEL システムロールは、複数の RHEL システムをリモートで管理するための一貫した設定インターフェイスを提供する Ansible ロールおよびモジュールのコレクションです。metrics
システムロールは、ローカルシステムのパフォーマンス分析サービスを設定します。必要に応じて、ローカルシステムによって監視される一連のリモートシステムも分析の対象とします。metrics
システムロールを使用すると、pcp
のセットアップとデプロイが Playbook によって処理されるため、pcp
を別途設定しなくても、pcp
を使用してシステムのパフォーマンスを監視できます。
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.3. metrics
RHEL システムロールを使用して視覚的にローカルシステムを監視する
この手順では、metrics
RHEL システムロールを使用してローカルシステムを監視しながら、同時に Grafana
によるデータの視覚化をプロビジョニングする方法を説明します。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。 localhost
がコントロールノードのインベントリーファイルで設定されている。localhost ansible_connection=local
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。--- - name: Manage metrics hosts: localhost roles: - rhel-system-roles.metrics vars: metrics_graph_service: yes metrics_manage_firewall: true metrics_manage_selinux: true
metrics_graph_service
のブール値がvalue="yes"
に設定されているため、Grafana
は自動的にインストールされ、データソースとして追加されたpcp
でプロビジョニングされます。metrics_manage_firewall
とmetrics_manage_selinux
は両方ともtrue
に設定されているため、メトリクスロールはfirewall
およびselinux
システムロールを使用して、メトリクスロールが使用するポートを管理します。Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
検証
-
マシンで収集されるメトリクスを視覚化するには、Grafana Web UI へのアクセス の説明どおりに
grafana
Web インターフェイスにアクセスします。
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.4. metrics
RHEL システムロールを使用して自己監視するようにシステム群を設定する
この手順では、metrics
システムロールを使用して、マシン群が自己監視するように設定する方法を説明します。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。--- - name: Configure a fleet of machines to monitor themselves hosts: managed-node-01.example.com roles: - rhel-system-roles.metrics vars: metrics_retention_days: 0 metrics_manage_firewall: true metrics_manage_selinux: true
metrics_manage_firewall
とmetrics_manage_selinux
は両方ともtrue
に設定されているため、メトリクスロールはfirewall
ロールとselinux
ロールを使用して、metrics
ロールが使用するポートを管理します。Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.5. metrics
RHEL システムロールを使用して、ローカルマシンからマシン群を集中的に監視する
この手順では、メトリクス
システムロールを使用してローカルマシンを設定し、マシン群を一元的に監視するとともに、Grafana
によるデータの視覚化をプロビジョニングし、Redis
によりデータをクエリーする方法を説明します。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。 localhost
がコントロールノードのインベントリーファイルで設定されている。localhost ansible_connection=local
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。- name: Set up your local machine to centrally monitor a fleet of machines hosts: localhost roles: - rhel-system-roles.metrics vars: metrics_graph_service: yes metrics_query_service: yes metrics_retention_days: 10 metrics_monitored_hosts: ["database.example.com", "webserver.example.com"] metrics_manage_firewall: yes metrics_manage_selinux: yes
metrics_graph_service
およびmetrics_query_service
のブール値はvalue="yes"
に設定されているため、grafana
は、redis
にインデックス化されたpcp
データの記録のあるデータソースとして追加されたpcp
で自動的にインストールおよびプロビジョニングされます。これにより、pcp
クエリー言語をデータの複雑なクエリーに使用できます。metrics_manage_firewall
とmetrics_manage_selinux
は両方ともtrue
に設定されているため、metrics
ロールはfirewall
ロールとselinux
ロールを使用して、metrics
ロールが使用するポートを管理します。Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
検証
-
マシンによって一元的に収集されるメトリクスのグラフィック表示とデータのクエリーを行うには、Grafana Web UI へのアクセス で説明されているように、
grafana
Web インターフェイスにアクセスします。
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.6. metrics
RHEL システムロールを使用してシステムを監視しながら認証を設定する
PCP は、Simple Authentication Security Layer (SASL) フレームワークを介して scram-sha-256
認証メカニズムに対応します。metrics
RHEL システムロールは、scram-sha-256
認証メカニズムを使用して認証を設定する手順を自動化します。この手順では、metrics
RHEL システムロールを使用して認証を設定する方法を説明します。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。
手順
既存の Playbook ファイル (例:
~/playbook.yml)
を編集し、認証関連の変数を追加します。--- - name: Set up authentication by using the scram-sha-256 authentication mechanism hosts: managed-node-01.example.com roles: - rhel-system-roles.metrics vars: metrics_retention_days: 0 metrics_manage_firewall: true metrics_manage_selinux: true metrics_username: <username> metrics_password: <password>
Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
検証
sasl
設定を確認します。# pminfo -f -h "pcp://managed-node-01.example.com?username=<username>" disk.dev.read Password: <password> disk.dev.read inst [0 or "sda"] value 19540
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.7. metrics
RHEL システムロールを使用して SQL Server のメトリクス収集を設定して有効にする
この手順では、metrics
RHEL システムロールを使用して、ローカルシステムでの pcp
を使用した Microsoft SQL Server のメトリクス収集の設定と有効化を自動化する方法を説明します。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。 - Red Hat Enterprise Linux 用の Microsoft SQL Server をインストールし、SQL サーバーへの信頼できる接続が確立されている。
- Red Hat Enterprise Linux 用の SQL Server の Microsoft ODBC ドライバーがインストールされている。
localhost
がコントロールノードのインベントリーファイルで設定されている。localhost ansible_connection=local
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。--- - name: Configure and enable metrics collection for Microsoft SQL Server hosts: localhost roles: - rhel-system-roles.metrics vars: metrics_from_mssql: true metrics_manage_firewall: true metrics_manage_selinux: true
metrics_manage_firewall
とmetrics_manage_selinux
は両方ともtrue
に設定されているため、metrics
ロールはfirewall
ロールとselinux
ロールを使用して、metrics
ロールが使用するポートを管理します。Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
検証
pcp
コマンドを使用して、SQL Server PMDA エージェント (mssql) が読み込まれ、実行されていることを確認します。# pcp platform: Linux sqlserver.example.com 4.18.0-167.el8.x86_64 #1 SMP Sun Dec 15 01:24:23 UTC 2019 x86_64 hardware: 2 cpus, 1 disk, 1 node, 2770MB RAM timezone: PDT+7 services: pmcd pmproxy pmcd: Version 5.0.2-1, 12 agents, 4 clients pmda: root pmcd proc pmproxy xfs linux nfsclient mmv kvm mssql jbd2 dm pmlogger: primary logger: /var/log/pcp/pmlogger/sqlserver.example.com/20200326.16.31 pmie: primary engine: /var/log/pcp/pmie/sqlserver.example.com/pmie.log
関連情報
-
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイル -
/usr/share/doc/rhel-system-roles/metrics/
ディレクトリー
4.8. Metrics RHEL システムロールを使用して PMIE Webhook を設定する
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。 -
Ansible インベントリーでは、
servers
およびmetrics_monitor
ホストグループを定義しました。この例では、servers
グループにはserver-node-01.example.com
とserver-node-02.example.com
が含まれます。metrics_monitor
グループには、pcp-monitor-node-01.example.com
が含まれます。
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。--- - name: Configure PCP webhooks hosts: servers tasks: - name: Configure PCP metrics recording ansible.builtin.include_role: name: rhel-system-roles.metrics vars: metrics_retention_days: 7 metrics_manage_firewall: true - name: Configure the PMIE webhooks hosts: metrics_monitor tasks: - name: Configure the monitoring node ansible.builtin.include_role: name: redhat.rhel_system_roles.metrics vars: metrics_manage_firewall: true metrics_retention_days: 7 metrics_monitored_hosts: "{{ groups['servers'] }}" metrics_webhook_endpoint: "http://<webserver>:<port>/<endpoint>"
サンプル Playbook で指定されている設定は次のとおりです。
metrics_manage_firewall
-
true
の場合、firewall
RHEL システムロールは、metrics
ロールが使用するポートを管理します。 metrics_retention_days
- 収集されたメトリクスを保持する日数。
metrics_monitored_hosts
- 監視システムが監視するホスト。
metrics_webhook_endpoint
- 検出されたパフォーマンス問題に関する通知が送信される Webhook エンドポイント。デフォルトでは、これらの検出はローカルシステムにのみ記録されます。
Playbook で使用されるすべての変数の詳細は、コントロールノードの
/usr/share/ansible/roles/rhel-system-roles.metrics/README.md
ファイルを参照してください。Playbook は、pcp-monitor-node-01.example.com
ホストを、それ自体とserver-node-01.example.com
システムおよびserver-node-02.example.com
システムの中央監視サイトとして設定します。Playbook は、3 つのシステムすべてに対してglobal webhook_action
およびglobal webhook_endpoint
PMIE 設定オプションも設定し、PMIE サービスを再起動して変更を適用します。Playbook の構文を検証します。
$ ansible-playbook --syntax-check ~/playbook.yml
このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
$ ansible-playbook ~/playbook.yml
検証
pcp-monitor-node-01.example.com
の設定概要を確認します。[root@pcp-monitor-node-01 ~]# pcp summary Performance Co-Pilot configuration on pcp-monitor-node-01.example.com: platform: Linux pcp-monitor-node-01.example.com 5.14.0-427.el9.x86_64 #1 SMP PREEMPT_DYNAMIC Fri Feb 23 01:51:18 EST 2024 x86_64 hardware: 8 cpus, 1 disk, 1 node, 1773MB RAM timezone: CEST-2 services: pmcd pmproxy pmcd: Version 6.2.0-1, 12 agents, 6 clients pmda: root pmcd proc pmproxy xfs linux nfsclient mmv kvm jbd2 dm openmetrics pmlogger: primary logger: /var/log/pcp/pmlogger/pcp-monitor-node-01.example.com/20240510.16.25 server-node-01.example.com: /var/log/pmlogger/server-node-01.example.com/20240510.16.25 server-node-02.example.com: /var/log/pmlogger/server-node-02.example.com/20240510.16.25 pmie: primary engine: /var/log/pcp/pmie/pcp-monitor-node-01.example.com/pmie.log server-node-01.example.com: : /var/log/pcp/pmie/server-node-01.example.com/pmie.log server-node-02.example.com: : /var/log/pcp/pmie/server-node-02.example.com/pmie.log
概要の最後の 3 行は、PMIE が 3 つのシステムすべてを監視するように設定されていることを示しています。
global webhook_action
PMIE 設定オプションが有効になっていることを確認します。[root@pcp-monitor-node-01 ~]# grep webbook_action /var/lib/pcp/config/pmie/config.default // 0 global webhook_action = yes
第5章 PCP の設定
Performance Co-Pilot (PCP) は、システムレベルのパフォーマンス測定を監視、視覚化、保存、および分析するためのツール、サービス、およびライブラリーのスイートです。
5.1. PCP の概要
Python、Perl、C++、および C のインターフェイスを使用したパフォーマンスメトリックを追加できます。分析ツールは、Python、C++、C のクライアント API を直接使用でき、豊富な Web アプリケーションは、JSON インターフェイスを使用して利用可能なすべてのパフォーマンスデータを調べることができます。
ライブ結果とアーカイブされたデータを比較して、データパターンを解析できます。
PCP の機能:
- 軽量の分散アーキテクチャー。複雑なシステムの集中分析に役に立ちます。
- これにより、リアルタイムデータの監視および管理が可能になります。
- これにより、履歴データのログおよび取得が可能になります。
PCP には以下のコンポーネントがあります。
-
Performance Metric Collector Daemon (
pmcd
) は、インストールされている Performance Metric Domain Agents (pmda
) からパフォーマンスデータを収集します。PMDA は、システムで個別にロードまたはアンロードでき、同じホストの PMCD によって制御されます。 -
pminfo
やpmstat
などのさまざまなクライアントツールは、同じホストまたはネットワーク上でこのデータを取得、表示、アーカイブ、処理できます。 -
pcp
パッケージは、コマンドラインツールと、基本的な機能を提供します。 -
pcp-gui
パッケージは、グラフィカルアプリケーションを提供します。dnf install pcp-gui
コマンドを実行して、pcp-gui
パッケージをインストールします。詳細は、Visually tracing PCP log archives with the PCP Charts application を参照してください。
関連情報
-
システム上の
pcp(1)
man ページ -
/usr/share/doc/pcp-doc/
ディレクトリー - PCP で配布されるシステムサービスおよびツール
- Red Hat カスタマーポータルの PCP (Performance Co-Pilot) に関するナレッジ、チュートリアル、およびホワイトペーパー
- Red Hat ナレッジベース記事 Side-by-side comparison of PCP tools with legacy tools
- PCP アップストリームのドキュメント
5.2. PCP のインストールおよび有効化
PCP の使用を開始するには、必要なパッケージをすべてインストールし、PCP 監視サービスを有効にします。
この手順では、pcp
パッケージを使用して PCP をインストールする方法を説明します。PCP のインストールを自動化するには、pcp-zeroconf
パッケージを使用してインストールします。pcp-zeroconf
を使用して PCP をインストールする方法の詳細は、PCP の pcp-zeroconf での設定 を参照してください。
手順
pcp
パッケージをインストールします。# dnf install pcp
ホストマシンで
pmcd
サービスを有効にして起動します。# systemctl enable pmcd # systemctl start pmcd
検証
pmcd
プロセスがホストで実行されているかどうかを確認します。# pcp Performance Co-Pilot configuration on workstation: platform: Linux workstation 4.18.0-80.el8.x86_64 #1 SMP Wed Mar 13 12:02:46 UTC 2019 x86_64 hardware: 12 cpus, 2 disks, 1 node, 36023MB RAM timezone: CEST-2 services: pmcd pmcd: Version 4.3.0-1, 8 agents pmda: root pmcd proc xfs linux mmv kvm jbd2
関連情報
-
システム上の
pmcd(1)
man ページ - PCP で配布されるシステムサービスおよびツール
5.3. 最小限の PCP 設定のデプロイメント
最小 PCP 設定は、Red Hat Enterprise Linux でパフォーマンス統計を収集します。この設定は、詳細な分析のためにデータを収集するために必要な、実稼働システムに最低限のパッケージを追加します。
作成された tar.gz
ファイルおよび pmlogger
の出力のアーカイブは、さまざまな PCP ツールを使用して解析し、その他のソースのパフォーマンス情報と比較できます。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
pmlogger
設定を更新します。# pmlogconf -r /var/lib/pcp/config/pmlogger/config.default
pmcd
サービスおよびpmlogger
サービスを起動します。# systemctl start pmcd.service # systemctl start pmlogger.service
- 必要な操作を実行して、パフォーマンスデータを記録します。
pmcd
サービスおよびpmlogger
サービスを停止します。# systemctl stop pmcd.service # systemctl stop pmlogger.service
出力を保存し、ホスト名と現在の日時に基づいて名前が付けられた
tar.gz
ファイルに保存します。# cd /var/log/pcp/pmlogger/ # tar -czf $(hostname).$(date +%F-%Hh%M).pcp.tar.gz $(hostname)
このファイルをデプロイメントし、PCP ツールを使用してデータを解析します。
関連情報
-
システム上の
pmlogconf(1)
、pmlogger(1)
、pmcd(1)
man ページ - PCP で配布されるシステムサービスおよびツール
5.4. PCP で配布されるシステムサービスおよびツール
Performance Co-Pilot (PCP) には、パフォーマンスの測定に使用できるさまざまなシステムサービスとツールが含まれます。基本パッケージ pcp
には、システムサービスと基本ツールが含まれます。追加のツールは、pcp-system-tools
、pcp-gui
、および pcp-devel
パッケージで提供されます。
PCP で配布されるシステムサービスのロール
pmcd
- PMCD (Performance Metric Collector Daemon)
pmie
- Performance Metrics Inference Engine
pmlogger
- パフォーマンスメトリックロガー。
pmproxy
- リアルタイムおよびヒストリカルなパフォーマンスメトリックのプロキシー、時系列クエリー、REST API サービス。
基本 PCP パッケージで配布されるツール
pcp
- Performance Co-Pilot インストールの現在のステータスを表示します。
pcp-vmstat
- システムパフォーマンスの概要を 5 秒ごとに表示します。プロセス、メモリー、ページング、ブロック IO、トラップ、CPU のアクティビティーに関する情報を表示します。
pmconfig
- 設定パラメーターの値を表示します。
pmdiff
- パフォーマンスのリグレッションを検索する際に重要と思われる変更について、指定された時間枠で、1 つまたは 2 つのアーカイブのすべてのメトリックの平均値を比較します。
pmdumplog
- Performance Co-Pilot アーカイブファイルの制御、メタデータ、インデックス、および状態に関する情報を表示します。
pmfind
- ネットワークで PCP サービスを見つけます。
pmie
- 一連の演算式、論理式、およびルール式を定期的に評価する推論エンジン。メトリックは、ライブシステムまたは Performance Co-Pilot アーカイブファイルのいずれかから収集されます。
pmieconf
-
設定可能な
pmie
変数を表示または設定します。 pmiectl
-
pmie
のプライマリー以外のインスタンスを管理します。 pminfo
- パフォーマンスメトリックに関する情報を表示します。メトリックは、ライブシステムまたは Performance Co-Pilot アーカイブファイルのいずれかから収集されます。
pmlc
-
アクティブな
pmlogger
インスタンスを対話的に設定します。 pmlogcheck
- Performance Co-Pilot アーカイブファイルで無効なデータを特定します。
pmlogconf
-
pmlogger
設定ファイルを作成および変更します。 pmlogctl
-
pmlogger
のプライマリー以外のインスタンスを管理します。 pmloglabel
- Performance Co-Pilot アーカイブファイルのラベルを検証、変更、または修復します。
pmlogredact
- PCP アーカイブから機密情報を削除します。
pmlogsummary
- Performance Co-Pilot アーカイブファイルに格納されたパフォーマンスメトリックに関する統計情報を計算します。
pmprobe
- パフォーマンスメトリックの可用性を決定します。
pmsocks
- ファイアウォールを介して Performance Co-Pilot ホストへのアクセスを許可します。
pmstat
- システムパフォーマンスの簡単な概要を定期的に表示します。
pmstore
- パフォーマンスメトリックの値を変更します。
pmtrace
- トレース PMDA のコマンドラインインターフェイスを提供します。
pmval
- パフォーマンスメトリックの現在の値を表示します。
別途インストールする pcp-system-tools
パッケージで配布されるツール
pcp-atop
- パフォーマンスの観点から最も重要なハードウェアリソース (CPU、メモリー、ディスク、およびネットワーク) のシステムレベルの占有を表示します。
pcp-atopsar
-
さまざまなシステムリソースの使用状況に関するシステムレベルのアクティビティーレポートを生成します。このレポートは、
pmlogger
またはpcp-atop
の-w
オプションを使用してあらかじめ記録された生のログファイルから生成されます。 pcp-buddyinfo
- buddy アルゴリズムの統計情報を報告します。
pcp-dmcache
- 設定されたデバイスマッパーキャッシュターゲット (デバイスの IOP、キャッシュデバイスとメタデータデバイスの使用率、各キャッシュデバイスの読み取り/書き込みのヒット率とミス率、比率など) に関する情報を表示します。
pcp-dstat
-
一度に 1 台のシステムのメトリックを表示します。複数のシステムのメトリックを表示するには、
--host
オプションを使用します。 pcp-free
- システム内の空きメモリーと使用済みメモリーを報告します。
pcp-htop
-
システム上で実行されているすべてのプロセスとそのコマンドライン引数を、
top
コマンドと同様の形式で表示しますが、縦横にスクロールしたり、マウスで操作したりすることができます。また、プロセスをツリー形式で表示したり、複数のプロセスを選択して一度に処理することもできます。 pcp-ipcs
- 呼び出しプロセスが読み取りアクセスできる inter-process communication (IPC) ファシリティーの情報を表示します。
pcp-meminfo
- カーネルシステムメモリーの統計情報を報告します。
pcp-mpstat
- CPU および割り込み関連の統計情報を報告します。
pcp-netstat
- ネットワークプロトコルとネットワークインターフェイスの統計情報を報告します。
pcp-numastat
- カーネルのメモリーアロケータからの NUMA 割り当て統計を表示します。
pcp-pidstat
- システム上で動作している個々のタスクやプロセスに関する情報を表示します (CPU パーセンテージ、メモリーやスタックの使用率、スケジューリング、優先度など)。デフォルトでは、ローカルホストのライブデータを報告します。
pcp-shping
-
pmdashping
Performance Metrics Domain Agent (PMDA) がエクスポートした shell-ping サービスメトリクスをサンプリングして報告します。 pcp-slabinfo
- カーネルスラブアロケーターの統計情報を報告します。
pcp-ss
-
pmdasockets
PMDA が収集したソケットの統計情報を表示します。 pcp-tapestat
- テープデバイスの I/O 統計情報を報告します。
pcp-uptime
- システムの稼働時間、現在ログオンしているユーザー数、過去 1 分、5 分、15 分のシステム負荷の平均値を表示します。
pcp-zoneinfo
- Non-Uniform Memory Access (NUMA) ノードに関連する統計情報を報告します。
pcp-verify
- Performance Co-Pilot コレクターのインストールのさまざまな側面を検査し、特定の動作モードに対して正しく設定されているかを報告します。
pmiostat
-
SCSI デバイス (デフォルト) またはデバイスマッパーデバイス (
-x
デバイスマッパーオプションを使用) の I/O 統計情報を報告します。 pmrep
- 選択した、簡単にカスタマイズ可能なパフォーマンスメトリック値に関するレポート。
別途インストールする pcp-gui
パッケージで配布されるツール
pmchart
- Performance Co-Pilot の機能を介して利用可能なパフォーマンスメトリック値を描画します。
pmdumptext
- ライブまたは Performance Co-Pilot アーカイブから収集されたパフォーマンスメトリックの値を出力します。
別途インストールする pcp-devel
パッケージで配布されるツール
pmclient
- PMAPI (Performance Metrics Application Programming Interface) を使用して、高水準のシステムパフォーマンスメトリックを表示します。
pmdbg
- 利用可能な Performance Co-Pilot デバッグ制御フラグとその値を表示します。
pmerr
- 利用可能な Performance Co-Pilot エラーコードと、それに対応するエラーメッセージを表示します。
別途インストールする pcp-geolocate
パッケージで配布されるツール
pcp-geolocate
- コレクターシステムの地理ラベルを検出し、ローカル PCP コレクターホストの緯度と経度を JSON 形式で報告します。
5.5. PCP デプロイメントのアーキテクチャー
Performance Co-Pilot (PCP) は、PCP デプロイメントの規模に基づいて、複数のデプロイメントアーキテクチャーをサポートし、高度なセットアップを実現するための多くのオプションを提供します。
Red Hat によって設定された推奨デプロイメント、サイジング係数、および設定オプションに基づいた、利用可能なスケーリングデプロイメントセットアップバリアントには、以下が含まれます。
Localhost
各サービスは監視対象のマシン上でローカルに動作します。設定を変更せずにサービスを開始した場合、これがデフォルトのデプロイメントです。この場合、個々のノードを超えたスケーリングはできません。
デフォルトでは、Redis のデプロイメント設定は、スタンドアロン、localhost となっています。しかし、Redis はオプションとして、データを複数のホストで共有する、高可用性と高スケーラビリティを備えたクラスター形態で実行することができます。また、クラウド上に Redis クラスターをデプロイしたり、クラウドベンダーが提供するマネージド Redis クラスターを利用したりすることも可能です。
Decentralized
ローカルホストと分散型のセットアップの唯一の違いは、集中型の Redis サービスです。このモデルでは、ホストは監視対象の各ホスト上で
pmlogger
サービスを実行し、ローカルのpmcd
インスタンスからメトリックを取得します。そして、ローカルのpmproxy
サービスは、パフォーマンスメトリックを中央の Redis インスタンスにエクスポートします。図5.1 分散型ロギング
集中型ロギング - pmlogger ファーム
監視対象ホストのリソース使用量が制限されている場合、
pmlogger
ファームというデプロイメントオプションもあります。これは集中型ロギングとも呼ばれます。この設定では、1 つのロガーホストが複数のpmlogger
プロセスを実行し、それぞれが異なるリモートpmcd
ホストからパフォーマンスメトリックを取得するように設定されます。集中ロガーのホストはpmproxy
サービスを実行するように設定され、このサービスは、結果として生じる PCP アーカイブズのログを検出し、メトリックデータを Redis インスタンスに読み込みます。図5.2 集中型ロギング - pmlogger ファーム
統合型 - 複数の pmlogger ファーム
大規模なデプロイメントの場合、Red Hat は複数の
pmlogger
ファームを統合させてデプロイすることを推奨します。例えば、ラックやデータセンターごとに 1 つのpmlogger
ファームをデプロイします。各pmlogger
ファームは、メトリックを中央の Redis インスタンスに読み込みます。図5.3 統合型 - 複数の pmlogger ファーム
デフォルトでは、Redis のデプロイメント設定は、スタンドアロン、localhost となっています。しかし、Redis はオプションとして、データを複数のホストで共有する、高可用性と高スケーラビリティを備えたクラスター形態で実行することができます。また、クラウド上に Redis クラスターをデプロイしたり、クラウドベンダーが提供するマネージド Redis クラスターを利用したりすることも可能です。
関連情報
-
システム上の
pcp(1)
、pmlogger(1)
、pmproxy(1)
、およびpmcd(1)
man ページ - 推奨されるデプロイメントアーキテクチャー
5.6. 推奨されるデプロイメントアーキテクチャー
次の表は、監視するホストの数に応じて推奨されるデプロイメントアーキテクチャーを示しています。
ホストの数 (N) | 1-10 | 10-100 | 100-1000 |
---|---|---|---|
| N | N | N |
| 1 から N | N/10 から N | N/100 から N |
| 1 から N | 1 から N | N/100 から N |
Redis サーバー | 1 から N | 1 から N/10 | N/100 から N/10 |
Redis クラスター | No | Maybe | Yes |
推奨されるデプロイメント設定 | ローカルホスト、分散型、または集中型のロギング | 分散型、集中型ロギング、または統合型 | 分散型または統合型 |
5.7. サイジングファクター
スケーリングに必要なサイジングファクターは以下のとおりです。
Remote system size
-
CPU、ディスク、ネットワーク・インターフェイスおよびその他のハードウェアリソースの数は、集中型ロギングホスト上の各
pmlogger
が収集するデータ量に影響します。 Logged Metrics
-
ログメトリックの数と種類が重要なロールを果たします。具体的には、
per-process proc.*
メトリックには、大きなディスク容量が必要です。たとえば、標準的なpcp-zeroconf
の設定で 10 秒のログ取得間隔の場合、proc メトリックなしでは 11MB、proc メトリックありでは 155MB と、係数は 10 倍以上になります。さらに、各メトリックのインスタンス数、たとえば CPU、ブロックデバイス、ネットワークインターフェイスの数なども、必要なストレージ容量に影響を与えます。 Logging Interval
-
メトリックのログを取る間隔は、ストレージの要件に影響します。各
pmlogger
インスタンスのpmlogger.log
ファイルには、毎日の PCP アーカイブファイルの予想サイズが書き込まれます。これらの値は圧縮されていない推定値です。PCP のアーカイブは約 10:1 と非常によく圧縮されるため、実際の長期的なディスク容量の要件は、特定のサイトで決定することができます。 pmlogrewrite
-
PCP をアップグレードするたびに
pmlogrewrite
ツールが実行され、旧バージョンと新バージョンの PCP でメトリックのメタデータに変更があった場合、古いアーカイブが書き換えられます。この処理時間は、保存されているアーカイブの数に応じてリニアに変化します。
関連情報
-
システム上の
pmlogrewrite(1)
およびpmlogger(1)
man ページ
5.8. PCP スケーリングの設定オプション
スケーリングに必要な設定オプションを以下に示します。
sysctl and rlimit settings
-
アーカイブ検出を有効にすると、
pmproxy
は、監視またはログテーリングを行っているすべてのpmlogger
に対して 4 つの記述子を必要とし、さらに、サービスログとpmproxy
クライアントソケットのための追加のファイル記述子があれば、それも必要となります。各pmlogger
プロセスは、リモートのpmcd
ソケット、アーカイブファイル、サービスログなどのために約 20 個のファイル記述子を使用します。合計すると、約 200 のpmlogger
プロセスを実行しているシステムでは、デフォルトの 1024 ソフトの制限を超えてしまいます。pcp-5.3.0
以降のpmproxy
サービスでは、ソフトリミットがハードリミットに自動的に引き上げられます。以前のバージョンの PCP では、多数のpmlogger
プロセスをデプロイする場合、チューニングが必要です。これは、pmlogger
のソフトリミットまたはハードリミットを増やすことで実現できます。詳細は、How to set limits (ulimit) for services run by systemd を参照してください。 ローカルアーカイブ
-
pmlogger
サービスは、ローカルおよびリモートのpmcd
のメトリックを/var/log/pcp/pmlogger/
ディレクトリーに保存します。ローカルシステムのロギング間隔を制御するには、/etc/pcp/pmlogger/control.d/configfile
ファイルを更新し、引数に-t X
を追加してください (Xは秒単位のロギング間隔)。どのメトリックを記録するかを設定するには、pmlogconf /var/lib/pcp/config/pmlogger/config.clienthostname
を実行します。このコマンドは、デフォルトのメトリックのセットを含む設定ファイルをデプロイしますが、オプションでさらにカスタマイズすることもできます。古い PCP アーカイブをいつパージするかという保存設定を行うには、/etc/sysconfig/pmlogger_timers
file and specifyPMLOGGER_DAILY_PARAMS="-E -k X"
を更新します。ここで、Xは PCP アーカイブを保持する日数です。 Redis
pmproxy
サービスは、pmlogger
からのログされたメトリックを Redis インスタンスに送信します。設定ファイル/etc/pcp/pmproxy/pmproxy.conf
で保持設定を指定する際に使用できる 2 つのオプションを以下に示します。-
stream.expire
では、古いメトリックを削除するまでの期間を指定します (つまり、指定した秒数の間更新されなかったメトリック)。 -
stream.maxlen
は、ホストごとに 1 つのメトリックの最大メトリック値の数を指定します。この設定は、保存期間をログ間隔で割ったものでなければなりません。例えば、保存期間が 14 日、ログ間隔が 60 秒の場合は 20160 となります (60*60*24*14/60)。
-
関連情報
-
システム上の
pmproxy(1)
、pmlogger(1)
、およびsysctl(8)
man ページ
5.9. 例: 集中ロギングデプロイメントの分析
以下の結果は、集約ロギングセットアップ (pmlogger ファームデプロイメントとも呼ばれる) で集約されています。デフォルトの pcp-zeroconf 5.3.0
インストールでは、各リモートホストが、64 の CPU コア、376 GB RAM、および 1 つのディスクが接続されたサーバーで pmcd
を実行している同一のコンテナーインスタンスになります。
ロギング間隔は 10 秒で、リモートノードの proc メトリックは含まれず、メモリー値は Resident Set Size (RSS) の値を参照します。
ホスト数 | 10 | 50 |
---|---|---|
1 日あたりの PCP アーカイブストレージ | 91 MB | 522 MB |
| 160 MB | 580 MB |
1 日あたりの | 2 MB | 9 MB |
| 1.4 GB | 6.3 GB |
1 日あたりの Redis メモリー | 2.6 GB | 12 GB |
ホスト数 | 10 | 50 | 100 |
---|---|---|---|
1 日あたりの PCP アーカイブストレージ | 20 MB | 120 MB | 271 MB |
| 104 MB | 524 MB | 1049 MB |
1 日あたりの | 0.38 MB | 1.75 MB | 3.48 MB |
| 2.67 GB | 5.5GB | 9 GB |
1 日あたりの Redis メモリー | 0.54 GB | 2.65 GB | 5.3 GB |
pmproxy
は Redis 要求をキューに入れ、Redis パイプラインを使用して Redis クエリーを高速化します。これにより、メモリー使用率が高くなる可能性があります。この問題をトラブルシューティングする場合は、Troubleshooting high memory usage を参照してください。
5.10. 例: 統合型セットアップデプロイメントの分析
以下の結果が、統合型セットアップ (複数の pmlogger
ファームとも呼ばれる) で確認されました。これは、3 つの集中ロギング (pmlogger
ファーム) セットアップで構成されます。各 pmlogger
ファームは 100 のリモートホスト、つまり合計 300 のホストを監視していました。
pmlogger
ファームのこのセットアップは、Redis サーバーがクラスターモードで動作していたことを除いて、60 秒のロギング間隔での
例: 集中ロギングデプロイメントの分析 で説明した設定と同じです。
1 日あたりの PCP アーカイブストレージ | pmlogger メモリー | 1 日あたりのネットワーク (In/Out) | pmproxy メモリー | 1 日あたりの Redis メモリー |
---|---|---|---|---|
277 MB | 1058 MB | 15.6 MB / 12.3 MB | 6-8 GB | 5.5 GB |
ここでは、すべての値はホストごとになります。Redis クラスターのノード間通信により、ネットワーク帯域幅が高まります。
5.11. セキュアな PCP 接続の確立
セキュアな PCP プロトコルエクスチェンジに参加するように、PCP コレクターとモニタリングコンポーネントを設定できます。
5.11.1. セキュアな PCP 接続
Performance Co-Pilot (PCP) コレクターとモニタリングコンポーネントの間にセキュアな接続を確立できます。PCP コレクターコンポーネントは、さまざまなソースからパフォーマンスデータを収集および抽出する PCP の構成要素です。PCP モニターコンポーネントは、PCP コレクターコンポーネントがインストールされているホストまたはアーカイブから収集されたデータを表示する PCP の構成要素です。これらのコンポーネント間にセキュアな接続を確立すると、収集および監視対象のデータへの、権限のない第三者によるアクセスや変更を防ぐことができます。
Performance Metrics Collector Daemon (pmcd
) との接続は、すべて TCP/IP ベースの PCP プロトコルを使用して行われます。プロトコルプロキシーと PCP REST API は pmproxy
デーモンによって提供されます。REST API は HTTPS 経由でアクセスできるため、セキュアな接続が確保されます。
pmcd
デーモンと pmproxy
デーモンはどちらも、単一ポート上で TLS 通信と TLS 以外の通信を同時に実行できます。pmcd
のデフォルトポートは 44321 で、pmproxy
のデフォルトポートは 44322 です。これは、PCP コレクターシステムで TLS 通信と TLS 以外の通信のどちらかを選択する必要がなく、両方を同時に使用できることを意味します。
5.11.2. PCP コレクターコンポーネントのセキュアな接続の設定
セキュアな PCP プロトコルエクスチェンジに参加するには、すべての PCP コレクターシステムに有効な証明書が必要です。
pmproxy
デーモンは、TLS の観点からはクライアントとサーバーの両方として動作します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
クライアントの秘密鍵が
/etc/pcp/tls/client.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。秘密鍵および証明書署名要求 (CSR) を作成する方法と、認証局 (CA) からの証明書を要求する方法は、CA のドキュメントを参照してください。
-
TLS クライアント証明書が
/etc/pcp/tls/client.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。 -
CA 証明書が
/etc/pcp/tls/ca.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。さらに、pmproxy
デーモンの場合、次の条件を満たす必要があります。 -
サーバーの秘密鍵が
/etc/pcp/tls/server.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。 -
TLS サーバー証明書が
/etc/pcp/tls/server.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。
手順
CA 発行の証明書を使用してセキュアな接続を確立するために、コレクターシステム上の PCP TLS 設定ファイルを更新します。
# cat > /etc/pcp/tls.conf << END tls-ca-cert-file = /etc/pcp/tls/ca.crt tls-key-file = /etc/pcp/tls/server.key tls-cert-file = /etc/pcp/tls/server.crt tls-client-key-file = /etc/pcp/tls/client.key tls-client-cert-file = /etc/pcp/tls/client.crt END
PCP コレクターインフラストラクチャーを再起動します。
# systemctl restart pmcd.service # systemctl restart pmproxy.service
検証
TLS 設定を確認します。
pmcd
サービスの場合:# grep 'Info:' /var/log/pcp/pmcd/pmcd.log [Tue Feb 07 11:47:33] pmcd(6558) Info: OpenSSL 3.0.7 setup
pmproxy
サービスの場合:# grep 'Info:' /var/log/pcp/pmproxy/pmproxy.log [Tue Feb 07 11:44:13] pmproxy(6014) Info: OpenSSL 3.0.7 setup
5.11.3. PCP モニタリングコンポーネントのセキュアな接続の設定
セキュアな PCP プロトコルエクスチェンジに参加するように、PCP モニタリングコンポーネントを設定します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
クライアントの秘密鍵が
~/.pcp/tls/client.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。秘密鍵および証明書署名要求 (CSR) を作成する方法と、認証局 (CA) からの証明書を要求する方法は、CA のドキュメントを参照してください。
-
TLS クライアント証明書が
~/.pcp/tls/client.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。 -
CA 証明書が
/etc/pcp/tls/ca.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップを調整してください。
手順
次の情報を使用して TLS 設定ファイルを作成します。
$ home=
echo ~
$ cat > ~/.pcp/tls.conf << END tls-ca-cert-file = /etc/pcp/tls/ca.crt tls-key-file = $home/.pcp/tls/client.key tls-cert-file = $home/.pcp/tls/client.crt ENDセキュアな接続を確立します。
$ export PCP_SECURE_SOCKETS=enforce $ export PCP_TLSCONF_PATH=~/.pcp/tls.conf
検証
セキュアな接続が設定されていることを確認します。
$ pminfo --fetch --host pcps://localhost kernel.all.load kernel.all.load inst [1 or "1 minute"] value 1.26 inst [5 or "5 minute"] value 1.29 inst [15 or "15 minute"] value 1.28
5.12. 高メモリー使用率のトラブルシューティング
以下のシナリオでは、メモリー使用率が高くなる可能性があります。
-
pmproxy
プロセスは新しい PCP アーカイブの処理がビジーで、Redis の要求および応答を処理するための予備の CPU サイクルがありません。 - Redis ノードまたはクラスターが過負荷になり、時間が経過しても着信要求を処理できません。
pmproxy
サービスデーモンは、Redis ストリームを使用し、設定パラメーター (PCP チューニングパラメーター) をサポートします。これは、Redis のメモリー使用量および鍵の保存に影響します。/etc/pcp/pmproxy/pmproxy.conf
ファイルには、pmproxy
で利用可能な設定オプションと、関連する API がリスト表示されます。
次の手順では、メモリー使用率が高い問題をトラブルシューティングする方法を説明します。
前提条件
pcp-pmda-redis
パッケージをインストールします。# dnf install pcp-pmda-redis
redis PMDA をインストールします。
# cd /var/lib/pcp/pmdas/redis && ./Install
手順
高いメモリー使用率のトラブルシューティングを行うには、次のコマンドを実行して、
inflight
列を確認します。$ pmrep :pmproxy backlog inflight reqs/s resp/s wait req err resp err changed throttled byte count count/s count/s s/s count/s count/s count/s count/s 14:59:08 0 0 N/A N/A N/A N/A N/A N/A N/A 14:59:09 0 0 2268.9 2268.9 28 0 0 2.0 4.0 14:59:10 0 0 0.0 0.0 0 0 0 0.0 0.0 14:59:11 0 0 0.0 0.0 0 0 0 0.0 0.0
この列は、Redis リクエストが転送中である数を示しています。つまり、キューに入れられているか送信されており、現時点では応答は受信されていません。
数値が高い場合は、次のいずれかの状態を示します。
-
pmproxy
プロセスは新しい PCP アーカイブの処理がビジーで、Redis の要求および応答を処理するための予備の CPU サイクルがありません。 - Redis ノードまたはクラスターが過負荷になり、時間が経過しても着信要求を処理できません。
-
メモリー使用量が多い問題のトラブルシューティングを行うには、このファームの
pmlogger
プロセスの数を減らし、別の pmlogger ファームを追加します。統合型 (複数の pmlogger ファームの設定) を使用します。Redis ノードが長時間にわたって CPU を 100% 使用している場合は、パフォーマンスが向上しているホストに移動するか、代わりにクラスター化された Redis 設定を使用します。
pmproxy.redis.*
メトリックスを表示するには、次のコマンドを使用します。$ pminfo -ftd pmproxy.redis pmproxy.redis.responses.wait [wait time for responses] Data Type: 64-bit unsigned int InDom: PM_INDOM_NULL 0xffffffff Semantics: counter Units: microsec value 546028367374 pmproxy.redis.responses.error [number of error responses] Data Type: 64-bit unsigned int InDom: PM_INDOM_NULL 0xffffffff Semantics: counter Units: count value 1164 [...] pmproxy.redis.requests.inflight.bytes [bytes allocated for inflight requests] Data Type: 64-bit int InDom: PM_INDOM_NULL 0xffffffff Semantics: discrete Units: byte value 0 pmproxy.redis.requests.inflight.total [inflight requests] Data Type: 64-bit unsigned int InDom: PM_INDOM_NULL 0xffffffff Semantics: discrete Units: count value 0 [...]
インフライトのリクエスト数を表示するには、
pmproxy.redis.requests.inflight.total
メトリックスとpmproxy.redis.requests.inflight.bytes
メトリックスを参照して、現在のすべてのインフライトの Redis リクエストで占有されているバイト数を表示します。通常、redis 要求キューは 0 ですが、大きな pmlogger ファームの使用量に基づいて構築できます。これによりスケーラビリティーが制限され、
pmproxy
クライアントのレイテンシーが高くなる可能性があります。pminfo
コマンドを実行すると、パフォーマンスメトリックスの詳細が表示されます。たとえば、redis.*
メトリックスを表示するには、次のコマンドを使用します。$ pminfo -ftd redis redis.redis_build_id [Build ID] Data Type: string InDom: 24.0 0x6000000 Semantics: discrete Units: count inst [0 or "localhost:6379"] value "87e335e57cffa755" redis.total_commands_processed [Total number of commands processed by the server] Data Type: 64-bit unsigned int InDom: 24.0 0x6000000 Semantics: counter Units: count inst [0 or "localhost:6379"] value 595627069 [...] redis.used_memory_peak [Peak memory consumed by Redis (in bytes)] Data Type: 32-bit unsigned int InDom: 24.0 0x6000000 Semantics: instant Units: count inst [0 or "localhost:6379"] value 572234920 [...]
ピークメモリー使用量を表示するには、
redis.used_memory_peak
メトリックスを参照してください。
関連情報
-
システム上の
pmdaredis(1)
、pmproxy(1)
、およびpminfo(1)
man ページ - PCP デプロイメントのアーキテクチャー
第6章 pmlogger でのパフォーマンスデータのロギング
PCP ツールを使用してパフォーマンスのメトリック値をログに記録すると、後で再生できます。これにより、遡及的なパフォーマンス解析を実行できます。
pmlogger
ツールを使用すると、以下が可能になります。
- 選択したメトリックのアーカイブログをシステムに作成する
- システムに記録されるメトリックとその頻度を指定する
6.1. pmlogconf で pmlogger 設定ファイルの変更
pmlogger
サービスの実行中、PCP はホストでメトリックのデフォルトセットをログに記録します。
pmlogconf
ユーティリティーを使用してデフォルト設定を確認します。pmlogger
設定ファイルが存在しない場合は、pmlogconf
がデフォルトのメトリック値で作成します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
pmlogger
設定ファイルを作成または変更します。# pmlogconf -r /var/lib/pcp/config/pmlogger/config.default
-
pmlogconf
プロンプトに従い、関連するパフォーマンスメトリックのグループを有効または無効にし、有効な各グループのロギング間隔を制御します。
関連情報
-
システム上の
pmlogconf(1)
およびpmlogger(1)
man ページ - PCP で配布されるシステムサービスおよびツール
6.2. pmlogger の設定ファイルの手動編集
指定したメトリックと間隔でカスタマイズしたロギング設定を作成する場合は、pmlogger
設定ファイルを手動で編集します。デフォルトの pmlogger
設定ファイルは /var/lib/pcp/config/pmlogger/config.default
です。設定ファイルでは、プライマリーのロギングインスタンスによって記録されるメトリックを指定します。
手動の設定では、以下が可能になります。
- 自動設定のリストに記載されていないメトリックを記録する。
- カスタムロギングの周波数を選択する。
- アプリケーションのメトリックを使用して PMDA を追加する。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
/var/lib/pcp/config/pmlogger/config.default
ファイルを開いて編集し、特定のメトリックを追加します。# It is safe to make additions from here on ... # log mandatory on every 5 seconds { xfs.write xfs.write_bytes xfs.read xfs.read_bytes } log mandatory on every 10 seconds { xfs.allocs xfs.block_map xfs.transactions xfs.log } [access] disallow * : all; allow localhost : enquire;
関連情報
-
システム上の
pmlogger(1)
man ページ - PCP で配布されるシステムサービスおよびツール
6.3. pmlogger サービスの有効化
ローカルマシンでメトリック値のログを記録するには、pmlogger
サービスを開始して有効にする必要があります。
この手順では、pmlogger
サービスを有効にする方法を説明します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
pmlogger
サービスを開始して、有効にします。# systemctl start pmlogger # systemctl enable pmlogger
検証
pmlogger
サービスが有効になっているかどうかを確認します。# pcp Performance Co-Pilot configuration on workstation: platform: Linux workstation 4.18.0-80.el8.x86_64 #1 SMP Wed Mar 13 12:02:46 UTC 2019 x86_64 hardware: 12 cpus, 2 disks, 1 node, 36023MB RAM timezone: CEST-2 services: pmcd pmcd: Version 4.3.0-1, 8 agents, 1 client pmda: root pmcd proc xfs linux mmv kvm jbd2 pmlogger: primary logger: /var/log/pcp/pmlogger/workstation/20190827.15.54
関連情報
-
システム上の
pmlogger(1)
man ページ - PCP で配布されるシステムサービスおよびツール
-
/var/lib/pcp/config/pmlogger/config.default
ファイル
6.4. メトリクス収集のためのクライアントシステムの設定
この手順では、中央サーバーが、PCP を実行しているクライアントからメトリックを収集できるように、クライアントシステムを設定する方法を説明します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
pcp-system-tools
パッケージをインストールします。# dnf install pcp-system-tools
pmcd
の IP アドレスを設定します。# echo "-i 192.168.4.62" >>/etc/pcp/pmcd/pmcd.options
192.168.4.62 を、クライアントがリッスンする IP アドレスに置き換えます。
デフォルトでは、
pmcd
は、ローカルホストをリッスンします。パブリック
zone
を永続的に追加するように、ファイアウォールを設定します。# firewall-cmd --permanent --zone=public --add-port=44321/tcp success # firewall-cmd --reload success
SELinux ブール値を設定します。
# setsebool -P pcp_bind_all_unreserved_ports on
pmcd
サービスおよびpmlogger
サービスを有効にします。# systemctl enable pmcd pmlogger # systemctl restart pmcd pmlogger
検証
pmcd
が、設定した IP アドレスを正しくリッスンしているかどうかを確認します。# ss -tlp | grep 44321 LISTEN 0 5 127.0.0.1:44321 0.0.0.0:* users:(("pmcd",pid=151595,fd=6)) LISTEN 0 5 192.168.4.62:44321 0.0.0.0:* users:(("pmcd",pid=151595,fd=0)) LISTEN 0 5 [::1]:44321 [::]:* users:(("pmcd",pid=151595,fd=7))
関連情報
-
システム上の
pmlogger(1)
、firewall-cmd(1)
、ss(8)
、およびsetsebool(8)
man ページ - PCP で配布されるシステムサービスおよびツール
-
/var/lib/pcp/config/pmlogger/config.default
ファイル
6.5. データ収集用の中央サーバーの設定
この手順では、PCP を実行しているクライアントからメトリックを収集する中央サーバーを作成する方法を説明します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
- クライアントがメトリック収集用に設定されている。詳細は、メトリクス収集のためのクライアントシステムの設定 を参照してください。
手順
pcp-system-tools
パッケージをインストールします。# dnf install pcp-system-tools
以下の内容で
/etc/pcp/pmlogger/control.d/remote
ファイルを作成してください。# DO NOT REMOVE OR EDIT THE FOLLOWING LINE $version=1.1 192.168.4.13 n n PCP_ARCHIVE_DIR/rhel7u4a -r -T24h10m -c config.rhel7u4a 192.168.4.14 n n PCP_ARCHIVE_DIR/rhel6u10a -r -T24h10m -c config.rhel6u10a 192.168.4.62 n n PCP_ARCHIVE_DIR/rhel8u1a -r -T24h10m -c config.rhel8u1a 192.168.4.69 n n PCP_ARCHIVE_DIR/rhel9u3a -r -T24h10m -c config.rhel9u3a
192.168.4.13、192.168.4.14、192.168.4.62、および 192.168.4.69 を、クライアントの IP アドレスに置き換えます。
pmcd
サービスおよびpmlogger
サービスを有効にします。# systemctl enable pmcd pmlogger # systemctl restart pmcd pmlogger
検証
各ディレクトリーから最新のアーカイブファイルにアクセスできることを確認します。
# for i in /var/log/pcp/pmlogger/rhel*/*.0; do pmdumplog -L $i; done Log Label (Log Format Version 2) Performance metrics from host rhel6u10a.local commencing Mon Nov 25 21:55:04.851 2019 ending Mon Nov 25 22:06:04.874 2019 Archive timezone: JST-9 PID for pmlogger: 24002 Log Label (Log Format Version 2) Performance metrics from host rhel7u4a commencing Tue Nov 26 06:49:24.954 2019 ending Tue Nov 26 07:06:24.979 2019 Archive timezone: CET-1 PID for pmlogger: 10941 [..]
/var/log/pcp/pmlogger/
ディレクトリーのアーカイブファイルは、詳細な分析とグラフ作成に使用できます。
関連情報
-
システム上の
pmlogger(1)
man ページ - PCP で配布されるシステムサービスおよびツール
-
/var/lib/pcp/config/pmlogger/config.default
ファイル
6.6. systemd
ユニットと pmlogger
pmlogger
サービスを、それ自体を監視する単一のホストとして、または複数のリモートホストからメトリクスを収集する単一のホストを含む pmlogger
ファームとしてデプロイすると、関連する systemd
サービスとタイマーユニットがいくつか自動的にデプロイされます。これらのサービスとタイマーは、pmlogger
インスタンスが実行していることを確認するための定期的なチェックを提供し、不足しているインスタンスを再起動し、ファイル圧縮などのアーカイブ管理を実行します。
pmlogger
によって通常展開されるチェックおよびハウスキーピングサービスは次のとおりです。
pmlogger_daily.service
-
デフォルトでは、毎日、深夜直後に実行され、1 つ以上の PCP アーカイブセットを集約、圧縮、およびローテートします。また、制限 (デフォルトでは 2 週間) よりも古いアーカイブも削除されます。
pmlogger.service
ユニットに必要なpmlogger_daily.timer
ユニットによってトリガーされます。 pmlogger_check
-
pmlogger
インスタンスが実行中であるかどうかを 30 分ごとにチェックします。不足しているインスタンスを再起動し、必要な圧縮タスクを実行します。pmlogger.service
ユニットに必要なpmlogger_check.timer
ユニットによってトリガーされます。 pmlogger_farm_check
-
設定されたすべての
pmlogger
インスタンスのステータスを確認します。不足しているインスタンスを再起動します。すべての非プライマリーインスタンスをpmlogger_farm
サービスに移行します。pmlogger_farm_check.timer
によってトリガーされます。これは、pmlogger_farm.service
ユニットによって必要とされ、pmlogger_farm.service ユニット自体はpmlogger.service
ユニットによって必要とされます。
これらのサービスは一連の肯定的な依存関係を通じて管理されます。つまり、プライマリー pmlogger
インスタンスをアクティブ化すると、すべて有効になります。pmlogger_daily.service
はデフォルトで無効になっていますが、pmlogger.service
との依存関係によって pmlogger_daily.timer
がアクティブになると、pmlogger_daily.service
の実行がトリガーされることに注意してください。
pmlogger_daily
は、マージ前にアーカイブを自動的に書き換えるために pmlogrewrite
とも統合されています。これにより、実稼働環境や PMDA が変化する中でもメタデータの一貫性を確保できます。たとえば、ログ記録間隔中に監視対象ホストの 1 台で pmcd
が更新されると、ホスト上の一部のメトリクスのセマンティクスが更新され、新しいアーカイブがそのホストから以前に記録されたアーカイブと互換性がなくなる可能性があります。詳細は、pmlogrewrite(1)
の man ページを参照してください。
pmlogger
によってトリガーされる systemd
サービスの管理
pmlogger
インスタンスによって収集されたデータ用の自動化されたカスタムアーカイブ管理システムを作成できます。これは制御ファイルを使用して行われます。これらの制御ファイルは次のとおりです。
プライマリー
pmlogger
インスタンスの場合:-
etc/pcp/pmlogger/control
-
/etc/pcp/pmlogger/control.d/local
-
リモートホストの場合:
/etc/pcp/pmlogger/control.d/remote
remote を希望のファイル名に置き換えます。
- 注記
-
プライマリー
pmlogger
インスタンスは、接続先のpmcd
と同じホストで実行している必要があります。1 つのセントラルホストがリモートホストで実行しているpmcd
インスタンスに接続された複数のpmlogger
インスタンスでデータを収集している場合は、プライマリーインスタンスは必要ありません。また、設定でプライマリーインスタンスが必要ない場合もあります。
ファイルには、ログに記録するホストごとに 1 行が含まれている必要があります。自動的に作成されるプライマリーロガーインスタンスのデフォルトの形式は次のようになります。
# === LOGGER CONTROL SPECIFICATIONS === # #Host P? S? directory args # local primary logger LOCALHOSTNAME y n PCP_ARCHIVE_DIR/LOCALHOSTNAME -r -T24h10m -c config.default -v 100Mb
フィールドの詳細は以下のとおりです。
Host
- ログに記録するホスト名
P?
-
“Primary?” の略です。このフィールドは、ホストがプライマリーロガーインスタンスである (
y
) か、そうでない (n
) かを示します。設定内のすべてのファイルにわたってプライマリーロガーは 1 つだけ存在でき、接続先のpmcd
と同じホスト上で実行している必要があります。 S?
-
“Socks?” の略です。このフィールドは、このロガーインスタンスがファイアウォール経由で
pmcd
に接続するためにSOCKS
プロトコルを使用する必要がある (y
) か、必要がない (n
) かを示します。 directory
- この行に関連付けられたすべてのアーカイブがこのディレクトリーに作成されます。
args
pmlogger
に渡される引数。args
フィールドのデフォルト値は次のとおりです。-r
- アーカイブのサイズと増加率を報告します。
T24h10m
-
各日のログ記録を終了するタイミングを指定します。これは通常、
pmlogger_daily.service
が実行する時間です。デフォルト値の24h10m
は、ログ記録が開始してから遅くとも 24 時間 10 分後に終了することを示します。 -c config.default
- 使用する設定ファイルを指定します。これは基本的に、記録するメトリクスを定義します。
-v 100Mb
-
1 つのデータボリュームがいっぱいになり、別のボリュームが作成されるサイズを指定します。新しいアーカイブに切り替わった後、以前に記録されたものは
pmlogger_daily
またはpmlogger_check
のいずれかによって圧縮されます。
関連情報
-
システム上の
pmlogger(1)
およびpmlogrewrite(1)
man ページ -
システム上の
pmlogger_daily(1)
、pmlogger_check(1)
、およびpmlogger.control(5)
man ページ
6.7. pmrep で PCP ログアーカイブの再生
メトリックデータの記録後、PCP ログアーカイブを再生できます。ログをテキストファイルにエクスポートして、スプレッドシートにインポートするには、pcp2csv
、pcp2xml
、pmrep
または pmlogsummary
などの PCP ユーティリティーを使用します。
pmrep
ツールを使用すると、以下のことが可能になります。
- ログファイルを表示する
- 選択した PCP ログアーカイブを解析し、値を ASCII テーブルにエクスポートする
- アーカイブログ全体をデプロイメントするか、コマンドラインで個別のメトリックを指定して、ログからメトリック値のみを選択する
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
-
pmlogger
サービスが有効になっている。詳細は、pmlogger サービスの有効化 を参照してください。 pcp-system-tools
パッケージをインストールします。# dnf install pcp-gui
手順
メトリックのデータを表示します。
$ pmrep --start @3:00am --archive 20211128 --interval 5seconds --samples 10 --output csv disk.dev.write Time,"disk.dev.write-sda","disk.dev.write-sdb" 2021-11-28 03:00:00,, 2021-11-28 03:00:05,4.000,5.200 2021-11-28 03:00:10,1.600,7.600 2021-11-28 03:00:15,0.800,7.100 2021-11-28 03:00:20,16.600,8.400 2021-11-28 03:00:25,21.400,7.200 2021-11-28 03:00:30,21.200,6.800 2021-11-28 03:00:35,21.000,27.600 2021-11-28 03:00:40,12.400,33.800 2021-11-28 03:00:45,9.800,20.600
上記の例では、5 秒 間隔でアーカイブに収集された
disk.dev.write
メトリックスのデータをコンマ区切り値の形式で表示します。注記この例の
20211128
を、データを表示するpmlogger
アーカイブを含むファイル名に置き換えます。
関連情報
-
システム上の
pmlogger(1)
、pmrep(1)
、およびpmlogsummary(1)
man ページ - PCP で配布されるシステムサービスおよびツール
6.8. PCP バージョン 3 アーカイブの有効化
Performance Co-Pilot (PCP) アーカイブは、単一のホストから記録した PCP メトリクスの過去の値を保存し、遡及的なパフォーマンス分析をサポートします。PCP アーカイブには、オフラインまたはオフサイト分析に必要なすべての重要なメトリクスデータとメタデータが含まれています。これらのアーカイブは、ほとんどの PCP クライアントツールで読み取ることも、pmdumplog
ツールでそのままダンプすることもできます。
PCP 6.0 からは、バージョン 2 アーカイブに加えてバージョン 3 アーカイブもサポートされます。バージョン 2 アーカイブは、引き続きデフォルトであり、下位互換性の目的で今後も長期サポートを受けます。バージョン 3 アーカイブは、RHEL 9.2 以降から長期サポートを受けます。
PCP バージョン 3 アーカイブを使用すると、バージョン 2 に比べて次の利点があります。
- インスタンスのドメイン変更デルタのサポート
- Y2038 対応のタイムスタンプ
- ナノ秒精度のタイムスタンプ
- 任意のタイムゾーンのサポート
- 2 GB を超える個々のボリュームに使用される 64 ビットファイルオフセット
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
任意のテキストエディターで
/etc/pcp.conf
ファイルを開き、PCP アーカイブバージョンを設定します。PCP_ARCHIVE_VERSION=3
pmlogger
サービスを再起動して、設定の変更を適用します。# systemctl restart pmlogger.service
- 新しい設定を使用して、新しい PCP アーカイブログを作成します。詳細は、pmlogger でのパフォーマンスデータのロギング を参照してください。
検証
新しい設定で作成したアーカイブのバージョンを確認します。
# pmloglabel -l /var/log/pcp/pmlogger/20230208 Log Label (Log Format Version 3) Performance metrics from host host1 commencing Wed Feb 08 00:11:09.396 2023 ending Thu Feb 07 00:13:54.347 2023
関連情報
-
システム上の
logarchive(5)
およびpmlogger(1)
man ページ - pmlogger でのパフォーマンスデータのロギング
第7章 Performance Co-Pilot によるパフォーマンスの監視
Performance Co-Pilot (PCP) は、システムレベルのパフォーマンス測定を監視、視覚化、保存、および分析するためのツール、サービス、およびライブラリーのスイートです。
システム管理者は、Red Hat Enterprise Linux 9 の PCP アプリケーションを使用して、システムのパフォーマンスを監視できます。
7.1. pmda-postfix での postfix の監視
この手順では、pmda-postfix
を使用して postfix
メールサーバーのパフォーマンスメトリックを監視する方法を説明します。これは、1 秒間に受信した電子メールの数を確認するのに役立ちます。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
-
pmlogger
サービスが有効になっている。詳細は、pmlogger サービスの有効化 を参照してください。
手順
以下のパッケージをインストールします。
pcp-system-tools
をインストールします。# dnf install pcp-system-tools
pmda-postfix
パッケージをインストールして、postfix
を監視します。# dnf install pcp-pmda-postfix postfix
ロギングデーモンをインストールします。
# dnf install rsyslog
テスト用にメールクライアントをインストールします。
# dnf install mutt
postfix
サービスおよびrsyslog
サービスを有効にします。# systemctl enable postfix rsyslog # systemctl restart postfix rsyslog
SELinux ブール値を有効にして、
pmda-postfix
が必要なログファイルにアクセスできるようにします。# setsebool -P pcp_read_generic_logs=on
PMDA
をインストールします。# cd /var/lib/pcp/pmdas/postfix/ # ./Install Updating the Performance Metrics Name Space (PMNS) ... Terminate PMDA if already installed ... Updating the PMCD control file, and notifying PMCD ... Waiting for pmcd to terminate ... Starting pmcd ... Check postfix metrics have appeared ... 7 metrics and 58 values
検証
pmda-postfix
操作を確認します。echo testmail | mutt root
利用可能なメトリックを確認します。
# pminfo postfix postfix.received postfix.sent postfix.queues.incoming postfix.queues.maildrop postfix.queues.hold postfix.queues.deferred postfix.queues.active
関連情報
-
システム上の
rsyslogd(8)
、postfix(1)
、およびsetsebool(8)
man ページ - PCP で配布されるシステムサービスおよびツール
7.2. PCP Charts アプリケーションで PCP ログアーカイブを視覚的にトレース
メトリックデータの記録後、PCP ログアーカイブをグラフとして再生できます。メトリックは、PCP ログアーカイブのメトリックデータを履歴データのソースとして使用する代替オプションを持つ 1 台または複数のライブホストから提供されます。PCP Charts アプリケーションインターフェイスをカスタマイズしてパフォーマンスメトリックのデータを表示するには、ラインプロット、バーグラフ、または使用状況グラフを使用します。
PCP Charts アプリケーションを使用すると、以下が可能になります。
- PCP Charts アプリケーションのデータを再生し、グラフを使用して、システムのライブデータとともに遡及データを視覚化する。
- パフォーマンスメトリック値をグラフに描画する。
- 複数のチャートを同時に表示する。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
-
pmlogger
でパフォーマンスデータをログに記録している。詳細は、pmlogger でのパフォーマンスデータのロギング を参照してください。 pcp-gui
パッケージがインストールされている。# dnf install pcp-gui
手順
コマンドラインで PCP Charts アプリケーションを起動します。
# pmchart
図7.1 PCP Charts アプリケーション
pmtime
サーバー設定は下部にあります。start ボタンおよび pause ボタンを使用すると、以下を制御できます。- PCP がメトリックデータをポーリングする間隔
- 履歴データのメトリックの日付および時間
- File をクリックしてから、New Chart をクリックして、ホスト名またはアドレスを指定して、ローカルマシンおよびリモートマシンの両方からメトリックを選択します。高度な設定オプションには、チャートの軸値を手動で設定する機能、およびプロットの色を手動で選択する機能が含まれます。
PCP Charts アプリケーションで作成したビューを記録します。
以下は、PCP Charts アプリケーションで作成したイメージを撮影したり、ビューを記録するためのオプションです。
- File をクリックしてから Export をクリックして、現在のビューのイメージを保存します。
- Record をクリックしてから Start をクリックし、録画を開始します。Record をクリックしてから Stop をクリックし、録画を停止します。録画の停止後、記録されたメトリックは後で表示できるようにアーカイブが作成されます。
必要に応じて、PCP Charts アプリケーションでは、ビュー と呼ばれるメインの設定ファイルによって、1 つ以上のチャートに関連付けられたメタデータを保存できます。このメタデータでは、使用されるメトリックや、チャート列など、チャート側面をすべて記述します。File をクリックしてから Save View をクリックして、カスタム view 設定を保存し、後で view 設定を読み込みます。
以下の PCP Charts アプリケーションビューの設定ファイルの例では、指定の XFS ファイルシステム
loop1
に対して読み書きされた合計バイト数を示す積み上げチャートグラフを説明します。#kmchart version 1 chart title "Filesystem Throughput /loop1" style stacking antialiasing off plot legend "Read rate" metric xfs.read_bytes instance "loop1" plot legend "Write rate" metric xfs.write_bytes instance "loop1"
関連情報
-
システム上の
pmchart(1)
およびpmtime(1)
man ページ - PCP で配布されるシステムサービスおよびツール
7.3. PCP を使用した SQL Server からのデータの収集
SQL Server エージェントは、PCP (Performance Co-Pilot) で利用できます。これにより、データベースのパフォーマンス問題を監視および分析できます。
この手順では、システムの pcp
を使用して Microsoft SQL Server のデータを収集する方法を説明します。
前提条件
- Red Hat Enterprise Linux に Microsoft SQL Server をインストールし、SQL Server への '信頼できる' 接続を確立している。
- Red Hat Enterprise Linux 用の SQL Server の Microsoft ODBC ドライバーがインストールされている。
手順
PCP をインストールします。
# dnf install pcp-zeroconf
pyodbc
ドライバーに必要なパッケージをインストールします。# dnf install python3-pyodbc
mssql
エージェントをインストールします。PCP の Microsoft SQL Server ドメインエージェントをインストールします。
# dnf install pcp-pmda-mssql
/etc/pcp/mssql/mssql.conf
ファイルを編集して、mssql
エージェントの SQL サーバーアカウントのユーザー名およびパスワードを設定します。設定するアカウントに、パフォーマンスデータに対するアクセス権限があることを確認します。username: user_name password: user_password
user_name を SQL Server アカウントに置き換え、user_password をこのアカウントの SQL Server ユーザーパスワードに置き換えます。
エージェントをインストールします。
# cd /var/lib/pcp/pmdas/mssql # ./Install Updating the Performance Metrics Name Space (PMNS) ... Terminate PMDA if already installed ... Updating the PMCD control file, and notifying PMCD ... Check mssql metrics have appeared ... 168 metrics and 598 values [...]
検証
pcp
コマンドを使用して、SQL Server PMDA (mssql
) が読み込まれて実行されていることを確認します。$ pcp Performance Co-Pilot configuration on rhel.local: platform: Linux rhel.local 4.18.0-167.el8.x86_64 #1 SMP Sun Dec 15 01:24:23 UTC 2019 x86_64 hardware: 2 cpus, 1 disk, 1 node, 2770MB RAM timezone: PDT+7 services: pmcd pmproxy pmcd: Version 5.0.2-1, 12 agents, 4 clients pmda: root pmcd proc pmproxy xfs linux nfsclient mmv kvm mssql jbd2 dm pmlogger: primary logger: /var/log/pcp/pmlogger/rhel.local/20200326.16.31 pmie: primary engine: /var/log/pcp/pmie/rhel.local/pmie.log
PCP が SQL Server から収集できるメトリックの完全なリストを表示します。
# pminfo mssql
メトリックのリストを表示した後は、トランザクションのレートを報告できます。たとえば、5 秒間の時間枠で、1 秒あたりの全体的なトランザクション数を報告するには、以下のコマンドを実行します。
# pmval -t 1 -T 5 mssql.databases.transactions
-
pmchart
コマンドを使用して、システムでこれらのメトリックのグラフィックチャートを表示します。詳細は、Visually tracing PCP log archives with the PCP Charts application を参照してください。
関連情報
-
システム上の
pcp(1)
、pminfo(1)
、pmval(1)
、pmchart(1)
、およびpmdamssql(1)
man ページ - Performance Co-Pilot for Microsoft SQL Server with RHEL 8.2 (Red Hat Developers Blog)
7.4. sadc アーカイブから PCP アーカイブの生成
sysstat
が提供する sadf
ツールを使用して、ネイティブの sadc
アーカイブから PCP アーカイブを生成できます。
前提条件
sadc
アーカイブが作成されました。# /usr/lib64/sa/sadc 1 5 -
この例では、
sadc
は 5 秒間隔でシステムデータを 1 回サンプリングします。出力ファイルは、標準システムアクティビティーの日次データファイルにデータを書き込むsadc
になる-
として指定されます。このファイルの名前は saDD で、デフォルトで /var/log/sa ディレクトリーにあります。
手順
sadc
アーカイブから PCP アーカイブを生成します。# sadf -l -O pcparchive=/tmp/recording -2
この例では、
-2
オプションを使用すると 2 日前に記録されたsadc
アーカイブから PCP アーカイブをsadf
が生成します。
検証
PCP コマンドを使用すると、ネイティブ PCP アーカイブの場合と同様に、sadc
アーカイブから生成された PCP アーカイブを調べて分析できます。以下に例を示します。
sadc
アーカイブから生成された PCP アーカイブのメトリックのリストを表示するには、次のコマンドを実行します。$ pminfo --archive /tmp/recording Disk.dev.avactive Disk.dev.read Disk.dev.write Disk.dev.blkread [...]
アーカイブのタイムスペースと、PCP アーカイブのホスト名を表示するには、次のコマンドを実行します。
$ pmdumplog --label /tmp/recording Log Label (Log Format Version 2) Performance metrics from host shard commencing Tue Jul 20 00:10:30.642477 2021 ending Wed Jul 21 00:10:30.222176 2021
パフォーマンスメトリックの値をグラフにプロットするには、次のコマンドを実行します。
$ pmchart --archive /tmp/recording
第8章 PCP を使用した XFS のパフォーマンス分析
XFS PMDA は、pcp
パッケージの一部として提供され、インストール時にデフォルトで有効になります。これは、Performance Co-Pilot (PCP) で XFS ファイルシステムのパフォーマンスメトリックデータを収集するために使用されます。
PCP を使用して、XFS ファイルシステムのパフォーマンスを分析できます。
8.1. XFS PMDA の手動インストール
XFS PMDA が pcp
設定出力に記載されていない場合は、PMDA エージェントを手動でインストールします。
この手順では、PMDA エージェントを手動でインストールする方法を説明します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
xfs ディレクトリーに移動します。
# cd /var/lib/pcp/pmdas/xfs/
XFS PMDA を手動でインストールします。
xfs]# ./Install Updating the Performance Metrics Name Space (PMNS) ... Terminate PMDA if already installed ... Updating the PMCD control file, and notifying PMCD ... Check xfs metrics have appeared ... 387 metrics and 387 values
検証
pmcd
プロセスがホストで実行しており、設定リストに XFS PMDA が有効として記載されていることを確認します。# pcp Performance Co-Pilot configuration on workstation: platform: Linux workstation 4.18.0-80.el8.x86_64 #1 SMP Wed Mar 13 12:02:46 UTC 2019 x86_64 hardware: 12 cpus, 2 disks, 1 node, 36023MB RAM timezone: CEST-2 services: pmcd pmcd: Version 4.3.0-1, 8 agents pmda: root pmcd proc xfs linux mmv kvm jbd2
関連情報
-
システム上の
pmcd(1)
man ページ - PCP で配布されるシステムサービスおよびツール
8.2. pminfo を使用した XFS パフォーマンスメトリックの検証
PCP は XFS PMDA を有効にして、マウントされた各 XFS ファイルシステムに対して特定の XFS メトリックの報告を可能にします。これにより、特定のマウントされたファイルシステムの問題を特定して、パフォーマンスを評価することが容易になります。
pminfo
コマンドは、マウントされた各 XFS ファイルシステムの各デバイスに対する XFS メトリックを提供します。
この手順では、XFS PMDA が提供する利用可能なすべてのメトリックのリストを表示します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
XFS PMDA が提供する利用可能なメトリックのリストを表示します。
# pminfo xfs
個別のメトリックの情報を表示します。以下の例は、
pminfo
ツールを使用して、特定の XFS のread
メトリックおよびwrite
メトリックを検証します。xfs.write_bytes
メトリックの簡単な説明を表示します。# pminfo --oneline xfs.write_bytes xfs.write_bytes [number of bytes written in XFS file system write operations]
xfs.read_bytes
メトリックの長い説明を表示します。# pminfo --helptext xfs.read_bytes xfs.read_bytes Help: This is the number of bytes read via read(2) system calls to files in XFS file systems. It can be used in conjunction with the read_calls count to calculate the average size of the read operations to file in XFS file systems.
xfs.read_bytes
メトリックの現在のパフォーマンス値を取得します。# pminfo --fetch xfs.read_bytes xfs.read_bytes value 4891346238
pminfo
で、デバイスごとの XFS メトリックを取得します。# pminfo --fetch --oneline xfs.perdev.read xfs.perdev.write xfs.perdev.read [number of XFS file system read operations] inst [0 or "loop1"] value 0 inst [0 or "loop2"] value 0 xfs.perdev.write [number of XFS file system write operations] inst [0 or "loop1"] value 86 inst [0 or "loop2"] value 0
関連情報
-
システム上の
pminfo(1)
man ページ - XFS の PCP メトリックグループ
- XFS のデバイスごとの PCP メトリックグループ
8.3. pmstore を使用した XFS パフォーマンスメトリックのリセット
PCP を使用すると、特に特定のメトリックが、xfs.control.reset
メトリックなどの制御変数として動作する場合は、そのメトリックの値を変更できます。メトリックの値を変更するには、pmstore
ツールを使用します。
この手順では、pmstore
ツールを使用して XFS メトリックをリセットする方法を説明します。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
手順
メトリックの値を表示します。
$ pminfo -f xfs.write xfs.write value 325262
すべての XFS メトリックをリセットします。
# pmstore xfs.control.reset 1 xfs.control.reset old value=0 new value=1
検証
メトリックをリセットした後に情報を表示します。
$ pminfo --fetch xfs.write xfs.write value 0
関連情報
-
システム上の
pmstore(1)
およびpminfo(1)
man ページ - PCP で配布されるシステムサービスおよびツール
- XFS の PCP メトリックグループ
8.4. XFS の PCP メトリックグループ
以下の表は、XFS で利用可能な PCP メトリックグループを説明しています。
メトリックグループ | 提供されたメトリック |
| 読み書き操作の数、読み書きバイト数を含む一般的な XFS メトリック。inode がフラッシュされた回数、クラッシュした回数、クラスター化に失敗した数に関するカウンターを併用。 |
| ファイルシステムのオブジェクトの割り当てに関するメトリックの範囲。これには、エクステントおよびブロックの作成/解放の数が含まれます。割り当てツリーの検索と、拡張レコードの作成と btree からの削除との比較。 |
| メトリックには、ブロックマップの読み取り/書き込みとブロックの削除の数、挿入、削除、および検索のためのエクステントリスト操作が含まれます。また、ブロックマップからの比較、検索、挿入、および削除に関する操作カウンター。 |
| 作成、エントリー削除、“getdent” の操作の数に対する XFS ファイルシステムのディレクトリー操作のカウンター。 |
| メタデータトランザクションの数のカウンター。これには、空のトランザクションの数と、同期および非同期のトランザクションの数のカウントが含まれます。 |
| オペレーティングシステムが、複数の結果で inode キャッシュの XFS inode を検索する回数のカウンター。このカウントキャッシュのヒット数、キャッシュミスなど。 |
| XFS ファイルシステムを介したログバッファーの書き込み数のカウンターには、ディスクに書き込まれたブロックの数が含まれます。また、ログフラッシュおよびピニングの数のメトリックです。 |
| XFS フラッシュデーモンによりフラッシュされたファイルデータのバイト数と、ディスク上の連続および非連続の領域にフラッシュされたバッファーの数のカウンター。 |
| すべての XFS ファイルシステムでの属性の取得、設定、削除、およびリスト表示の操作数のカウント。 |
| XFS ファイルシステムでのクォータ操作のメトリック。これには、クォータ回収、クォータキャッシュミス、キャッシュヒット、およびクォータデータの回収の数に関するカウンターが含まれます。 |
| XFS バッファーオブジェクトに関するメトリックの範囲。カウンターには、ページ検索時に要求されたバッファーコールの数、成功したバッファーロック、待機バッファーロック、失敗したときのロック、失敗したときの再試行、バッファーヒットが含まれます。 |
| XFS btree の操作に関するメトリック。 |
| XFS 統計のメトリックカウンターをリセットするのに使用される設定メトリック。コントロールメトリックは、pmstore ツールを使用して切り替えられます。 |
8.5. XFS のデバイスごとの PCP メトリックグループ
以下の表は、XFS で利用可能なデバイスごとの PCP メトリックグループを説明しています。
メトリックグループ | 提供されたメトリック |
| 読み書き操作の数、読み書きバイト数を含む一般的な XFS メトリック。inode がフラッシュされた回数、クラッシュした回数、クラスター化に失敗した数に関するカウンターを併用。 |
| ファイルシステムのオブジェクトの割り当てに関するメトリックの範囲。これには、エクステントおよびブロックの作成/解放の数が含まれます。割り当てツリーの検索と、拡張レコードの作成と btree からの削除との比較。 |
| メトリックには、ブロックマップの読み取り/書き込みとブロックの削除の数、挿入、削除、および検索のためのエクステントリスト操作が含まれます。また、ブロックマップからの比較、検索、挿入、および削除に関する操作カウンター。 |
| 作成、エントリー削除、“getdent” の操作の数に対する XFS ファイルシステムのディレクトリー操作のカウンター。 |
| メタデータトランザクションの数のカウンター。これには、空のトランザクションの数と、同期および非同期のトランザクションの数のカウントが含まれます。 |
| オペレーティングシステムが、複数の結果で inode キャッシュの XFS inode を検索する回数のカウンター。このカウントキャッシュのヒット数、キャッシュミスなど。 |
| XFS ファイルシステムを介したログバッファーの書き込み数のカウンターには、ディスクに書き込まれたブロックの数が含まれます。また、ログフラッシュおよびピニングの数のメトリックです。 |
| XFS フラッシュデーモンによりフラッシュされたファイルデータのバイト数と、ディスク上の連続および非連続の領域にフラッシュされたバッファーの数のカウンター。 |
| すべての XFS ファイルシステムでの属性の取得、設定、削除、およびリスト表示の操作数のカウント。 |
| XFS ファイルシステムでのクォータ操作のメトリック。これには、クォータ回収、クォータキャッシュミス、キャッシュヒット、およびクォータデータの回収の数に関するカウンターが含まれます。 |
| XFS バッファーオブジェクトに関するメトリックの範囲。カウンターには、ページ検索時に要求されたバッファーコールの数、成功したバッファーロック、待機バッファーロック、失敗したときのロック、失敗したときの再試行、バッファーヒットが含まれます。 |
| XFS btree の操作に関するメトリック。 |
第9章 PCP メトリックのグラフィカル表示の設定
pcp
、grafana
、pcp redis
、pcp bpftrace
、および pcp vector
を組み合わせて使用すると、ライブデータまたは Performance Co-Pilot (PCP) によって収集されたデータをグラフィカルに表示できます。
9.1. PCP の pcp-zeroconf での設定
この手順では、pcp-zeroconf
パッケージでシステムに PCP を設定する方法を説明します。pcp-zeroconf
パッケージがインストールされると、システムはメトリックのデフォルトセットをアーカイブファイルに記録します。
手順
pcp-zeroconf
パッケージをインストールします。# dnf install pcp-zeroconf
検証
pmlogger
サービスがアクティブであることを確認し、メトリックのアーカイブを開始します。# pcp | grep pmlogger pmlogger: primary logger: /var/log/pcp/pmlogger/localhost.localdomain/20200401.00.12
関連情報
-
システム上の
pmlogger
man ページ - Performance Co-Pilot によるパフォーマンスの監視
9.2. grafana-server の設定
Grafana は、ブラウザーからアクセスできるグラフを生成します。grafana-server
は、Grafana ダッシュボードのバックエンドサーバーです。これは、デフォルトですべてのインターフェイスでリッスンし、Web ブラウザーからアクセスする Web サービスを提供します。grafana-pcp
プラグインは、バックエンドの pmproxy
プロトコルと対話します。
この手順では、grafana-server
を設定する方法を説明します。
前提条件
- PCP が設定されている。詳細は、PCP の pcp-zeroconf での設定 を参照してください。
手順
以下のパッケージをインストールします。
# dnf install grafana grafana-pcp
以下のサービスを再起動して有効にします。
# systemctl restart grafana-server # systemctl enable grafana-server
Grafana サービスへのネットワークトラフィック用にサーバーのファイアウォールを開きます。
# firewall-cmd --permanent --add-service=grafana success # firewall-cmd --reload success
検証
grafana-server
がリッスンし、要求に応答していることを確認します。# ss -ntlp | grep 3000 LISTEN 0 128 *:3000 *:* users:(("grafana-server",pid=19522,fd=7))
grafana-pcp
プラグインがインストールされていることを確認します。# grafana-cli plugins ls | grep performancecopilot-pcp-app performancecopilot-pcp-app @ 3.1.0
関連情報
-
システム上の
pmproxy(1)
およびgrafana-server
man ページ
9.3. Grafana Web UI へのアクセス
この手順では、Grafana Web インターフェイスにアクセスする方法を説明します。
Grafana Web インターフェイスを使用すると、以下が可能になります。
- PCP Redis、PCP bpftrace、および PCP Vector データソースを追加します。
- ダッシュボードの作成
- 有用なメトリックの概要の表示
- PCP Redis でのアラートの作成
前提条件
- PCP が設定されている。詳細は、PCP の pcp-zeroconf での設定 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。
手順
クライアントシステムで http://192.0.2.0:3000 リンクを使用してブラウザーを開き、ポート
3000
のgrafana-server
にアクセスします。192.0.2.0 をマシン IP に置き換えます。
最初のログインでは、Email or username と Password の両方のフィールドに admin と入力します。
Grafana は、新しいパスワード を設定してセキュアなアカウントを作成するようにプロンプトを表示します。後で設定する場合は、Skip をクリックします。
- メニューで Configuration アイコンにカーソルを合わせてから、Plugins をクリックします。
- プラグイン タブで、Search by name or type テキストボックスに performance co-pilot と入力し、Performance Co-Pilot (PCP) プラグインをクリックします。
- Plugins / Performance Co-Pilot ペインで、 をクリックします。
Grafana アイコンをクリックします。Grafana Home ページが表示されます。
図9.1 Home Dashboard
注記画面上部の隅には同様の アイコンがありますが、これは一般的な ダッシュボード設定 を制御します。
Grafana Home ページで、Add your first data source をクリックして PCP Redis、PCP bpftrace、および PCP Vector データソースを追加します。データソースの追加に関する詳細は、以下を参照してください。
- pcp redis データソースを追加するには、デフォルトのダッシュボードを表示し、パネルとアラートルールを作成します。詳細は、PCP Redis データソースでのパネルおよびアラートの作成 を参照してください。
- pcp bpftrace データソースを追加してデフォルトのダッシュボードを表示するには、PCP bpftrace システム分析ダッシュボードの表示 を参照してください。
- pcp vector データソースを追加するには、デフォルトのダッシュボードを表示します。Vector Checklist を表示するには、PCP Vector Checklist の表示 を参照してください。
- オプション: メニューで、admin プロファイル アイコンにカーソルを合わせ、Edit Profile、Change Password を含む Preferences を変更するか、Sign out します。
関連情報
-
システム上の
grafana-cli
およびgrafana-server
man ページ
9.4. Grafana のセキュアな接続の設定
Grafana と Performance Co-Pilot (PCP) コンポーネントの間にセキュアな接続を確立できます。これらのコンポーネント間にセキュアな接続を確立すると、収集および監視対象のデータへの、権限のない第三者によるアクセスや変更を防ぐことができます。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。 クライアントの秘密鍵が
/etc/grafana/grafana.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。秘密鍵および証明書署名要求 (CSR) を作成する方法と、認証局 (CA) からの証明書を要求する方法は、CA のドキュメントを参照してください。
-
TLS クライアント証明書が
/etc/grafana/grafana.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。
手順
root ユーザーとして、
/etc/grafana/grana.ini
ファイルを開き、[server]
セクションの次のオプションを調整して、以下の内容を反映させます。protocol = https cert_key = /etc/grafana/grafana.key cert_file = /etc/grafana/grafana.crt
grafana が証明書にアクセスできることを確認します。
# su grafana -s /bin/bash -c \ 'ls -1 /etc/grafana/grafana.crt /etc/grafana/grafana.key' /etc/grafana/grafana.crt /etc/grafana/grafana.key
Grafana サービスを再起動して有効にし、設定の変更を適用します。
# systemctl restart grafana-server # systemctl enable grafana-server
検証
-
クライアントシステムで、https://192.0.2.0:3000 のリンクを使用してブラウザーを開き、ポート 3000 の
grafana-server
マシンにアクセスします。192.0.2.0 は、マシンの IP に置き換えます。 アドレスバーの横に鍵アイコン が表示されていることを確認します。
注記プロトコルが
http
に設定されている場合に HTTPS 接続を試行すると、ERR_SSL_PROTOCOL_ERROR
エラーが発生します。プロトコルがhttps
に設定されている場合に HTTP 接続を試行すると、Grafana サーバーは "Client sent an HTTP request to an HTTPS server" というメッセージで応答します。
9.5. PCP Redis の設定
PCP Redis データソースを使用して以下を行います。
- データアーカイブの表示
- pmseries 言語を使用したクエリー時系列
- 複数のホストにまたがるデータの分析
前提条件
- PCP が設定されている。詳細は、PCP の pcp-zeroconf での設定 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。 -
メール転送エージェント (
sendmail
またはpostfix
など) がインストールされ、設定されている。
手順
redis
パッケージをインストールします。# dnf install redis
以下のサービスを開始して有効にします。
# systemctl start pmproxy redis # systemctl enable pmproxy redis
grafana-server
を再起動します。# systemctl restart grafana-server
検証
pmproxy
およびredis
が動作していることを確認します。# pmseries disk.dev.read 2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df
redis
パッケージがインストールされていない場合は、このコマンドはデータを返しません。
関連情報
-
システム上の
pmseries(1)
man ページ
9.6. PCP Redis のセキュアな接続の設定
パフォーマンスコパイロット (PCP)、Grafana、および PCP redis の間にセキュアな接続を確立できます。これらのコンポーネント間にセキュアな接続を確立すると、収集および監視対象のデータへの、権限のない第三者によるアクセスや変更を防ぐことができます。
前提条件
- PCP がインストールされている。詳細は PCP のインストールおよび有効化 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。 - PCP redis がインストールされている。詳細は PCP Redis の設定 を参照してください。
クライアントの秘密鍵が
/etc/redis/client.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。秘密鍵および証明書署名要求 (CSR) を作成する方法と、認証局 (CA) からの証明書を要求する方法は、CA のドキュメントを参照してください。
-
TLS クライアント証明書が
/etc/redis/client.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。 -
TLS サーバー鍵が
/etc/redis/redis.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。 -
TLS サーバー証明書が
/etc/redis/redis.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。 -
CA 証明書が
/etc/redis/ca.crt
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。
さらに、pmproxy
デーモンの場合、次の条件を満たす必要があります。
-
サーバーの秘密鍵が
/etc/pcp/tls/server.key
ファイルに保存されている。別のパスを使用する場合は、この手順の該当するステップのパスを変更してください。
手順
root ユーザーとして
/etc/redis/redis.conf
ファイルを開き、次のプロパティーを反映するように TLS/SSL オプションを調整します。port 0 tls-port 6379 tls-cert-file /etc/redis/redis.crt tls-key-file /etc/redis/redis.key tls-client-key-file /etc/redis/client.key tls-client-cert-file /etc/redis/client.crt tls-ca-cert-file /etc/redis/ca.crt
redis
が TLS 証明書にアクセスできることを確認します。# su redis -s /bin/bash -c \ 'ls -1 /etc/redis/ca.crt /etc/redis/redis.key /etc/redis/redis.crt' /etc/redis/ca.crt /etc/redis/redis.crt /etc/redis/redis.key
redis
サーバーを再起動して、設定の変更を適用します。# systemctl restart redis
検証
TLS 設定が機能していることを確認します。
# redis-cli --tls --cert /etc/redis/client.crt \ --key /etc/redis/client.key \ --cacert /etc/redis/ca.crt <<< "PING" PONG
TLS 設定が失敗すると、次のエラーメッセージが表示される場合があります。
Could not negotiate a TLS connection: Invalid CA Certificate File/Directory
9.7. PCP Redis データソースでのパネルおよびアラートの作成
PCP Redis データソースを追加した後に、ダッシュボードに有用なメトリックの概要を表示し、負荷グラフを視覚化するためのクエリーを追加して、システムに問題が発生した場合にその問題を表示する上で役立つアラートを作成できます。
前提条件
- PCP Redis が設定されている。詳細は PCP Redis の設定 を参照してください。
-
grafana-server
にアクセスできる。詳細は、Grafana Web UI へのアクセス を参照してください。
手順
- Grafana Web UI にログインします。
- Grafana Home ページで、Add your first data source をクリックします。
- Add data source ペインで、Filter by name or type のテキストボックスに redis と入力してから PCP Redis をクリックします。
Data Sources / PCP Redis ペインで、以下を実行します。
-
URL フィールドに
http://localhost:44322
を追加し、 をクリックします。 図9.2 PCP Redis: ホストの概要
-
URL フィールドに
新しいパネルを追加します。
- メニューで、 → → の順にマウスを合わせ、パネルを追加します。
-
Query タブで、選択した default オプションではなく、クエリーリストから PCP Redis を選択し、A のテキストフィールドで
kernel.all.load
などのメトリックを入力して、カーネル負荷グラフを可視化します。 - 必要に応じて、Panel title と Description を追加し、Settings から他のオプションを更新します。
- Dashboard name を追加します。 をクリックして変更を適用し、ダッシュボードを保存します。
図9.3 PCP Redis クエリーパネル
アラートルールを作成します。
- PCP Redis query panel で Alert をクリックしてから、Create Alert をクリックします。
- Rule の Name、Evaluate query、および For フィールドを編集して、アラートの Conditions を指定します。
図9.4 PCP Redis パネルでのアラートの作成
- 必要に応じて、同じパネルでスクロールダウンし、 アイコンをクリックして、作成したルールを削除します。
オプション: メニューで Alerting アイコンをクリックし、作成されたアラートルールをさまざまなアラートステータスで表示したり、アラートルールを編集したり、Alert Rules タブから既存のルールを一時停止したりします。
作成したアラートルールの通知チャネルを追加して Grafana からアラート通知を受信するには、アラートの通知チャネルの追加 を参照してください。
9.8. アラートの通知チャネルの追加
通知チャネルを追加すると、アラートルールの条件が満たされ、システムにさらなる監視が必要になると、Grafana からアラート通知を受け取ることができます。
サポートされている通知機能のリストからいずれかのタイプを選択すると、これらのアラートを受け取ることができます。通知機能には、DingDing、Discord、Email、Google Hangouts Chat、HipChat、Kafka REST Proxy、LINE、Microsoft Teams、OpsGenie、PagerDuty、Prometheus Alertmanager、Pushover、Sensu、Slack、Telegram、Threema Gateway、VictorOps、および webhook が含まれます。
前提条件
-
grafana-server
にアクセスできる。詳細は、Grafana Web UI へのアクセス を参照してください。 - アラートルールが作成されている。詳細は、PCP Redis データソースでのパネルおよびアラートの作成 を参照してください。
SMTP を設定し、
grafana/grafana.ini
ファイルに有効な送信者のメールアドレスを追加します。# vi /etc/grafana/grafana.ini [smtp] enabled = true from_address = abc@gmail.com
abc@gmail.com を有効なメールアドレスに置き換えます。
grafana-server
を再起動します。# systemctl restart grafana-server.service
手順
- メニューから → → の順にクリックします。
New contact point
詳細ビューで、次の操作を実行します。- Name テキストボックスに、名前を入力します。
-
Contact point type (Email など) を選択し、メールアドレスを入力します。区切り文字
;
を使用すると、多数のメールアドレスを追加できます。 - オプション: Optional Email settings および Notification settings を設定します。
- をクリックします。
アラートルールで通知チャネルを選択します。
- メニューから Notification policies アイコンを選択し、+ New specific policy をクリックします。
- 先ほど作成した Contact point を選択します。
- Save policy ボタンをクリックします。
9.9. PCP コンポーネント間の認証の設定
Simple Authentication Security Layer (SASL) フレームワークを介して PCP によってサポートされる scram-sha-256
認証メカニズムを使用して認証を設定できます。
手順
scram-sha-256
認証メカニズムのsasl
フレームワークをインストールします。# dnf install cyrus-sasl-scram cyrus-sasl-lib
pmcd.conf
ファイルに、サポートされている認証メカニズムとユーザーデータベースのパスを指定します。# vi /etc/sasl2/pmcd.conf mech_list: scram-sha-256 sasldb_path: /etc/pcp/passwd.db
新しいユーザーを作成します。
# useradd -r metrics
metrics をユーザー名に置き換えます。
作成したユーザーをユーザーデータベースに追加します。
# saslpasswd2 -a pmcd metrics Password: Again (for verification):
作成したユーザーを追加するには、メトリック アカウントのパスワードを入力する必要があります。
ユーザーデータベースのパーミッションを設定します。
# chown root:pcp /etc/pcp/passwd.db # chmod 640 /etc/pcp/passwd.db
pmcd
サービスを再起動します。# systemctl restart pmcd
検証
sasl
設定を確認します。# pminfo -f -h "pcp://127.0.0.1?username=metrics" disk.dev.read Password: disk.dev.read inst [0 or "sda"] value 19540
関連情報
-
システム上の
saslauthd(8)
、pminfo(1)
、およびsha256
man ページ - How can I setup authentication between PCP components, like PMDAs and pmcd in RHEL 8.2?(Red Hat ナレッジベース)
9.10. PCP bpftrace のインストール
PCP bpftrace
エージェントをインストールして、システムをイントロスペクトし、カーネルおよびユーザー空間トレースポイントからメトリックを収集します。
bpftrace
エージェントは bpftrace スクリプトを使用してメトリックを収集します。bpftrace
スクリプトは、強化された Berkeley Packet Filter (eBPF
) を使用します。
この手順では、pcp bpftrace
をインストールする方法を説明します。
前提条件
- PCP が設定されている。詳細は、PCP の pcp-zeroconf での設定 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。 -
scram-sha-256
認証メカニズムが設定されている。詳細は、PCP コンポーネント間の認証の設定 を参照してください。
手順
pcp-pmda-bpftrace
パッケージをインストールします。# dnf install pcp-pmda-bpftrace
bpftrace.conf
ファイルを編集し、{setting-up-authentication-between-pcp-components} で作成したユーザーを追加します。# vi /var/lib/pcp/pmdas/bpftrace/bpftrace.conf [dynamic_scripts] enabled = true auth_enabled = true allowed_users = root,metrics
metrics をユーザー名に置き換えます。
bpftrace
PMDA をインストールします。# cd /var/lib/pcp/pmdas/bpftrace/ # ./Install Updating the Performance Metrics Name Space (PMNS) ... Terminate PMDA if already installed ... Updating the PMCD control file, and notifying PMCD ... Check bpftrace metrics have appeared ... 7 metrics and 6 values
pmda-bpftrace
がインストールされたため、ユーザーの認証後にのみ使用できるようになりました。詳細は PCP bpftrace システム分析ダッシュボードの表示 を参照してください。
関連情報
-
pmdabpftrace(1)
およびbpftrace
man ページ
9.11. PCP bpftrace システム分析ダッシュボードの表示
PCP bpftrace データソースを使用すると、pmlogger
またはアーカイブからの通常のデータとして利用できないソースからのライブデータにアクセスできます。
PCP bpftrace データソースでは、ダッシュボードに有用なメトリックの概要を表示できます。
前提条件
- PCP bpftrace がインストールされている。詳細は、PCP bpftrace のインストール を参照してください。
-
grafana-server
にアクセスできる。詳細は、Grafana Web UI へのアクセス を参照してください。
手順
- Grafana Web UI にログインします。
- Grafana Home ページで、Add your first data source をクリックします。
- Add data source ペインで、Filter by name or type テキストボックスに bpftrace と入力して、PCP bpftrace をクリックします。
Data Sources / PCP bpftrace ペインで、以下を実行します。
-
URL フィールドに
http://localhost:44322
を追加します。 - Basic Auth オプションを切り替えて、作成されたユーザーの認証情報を、User フィールドおよび Password フィールドに追加します。
図9.5 データソースへの PCP bpftrace の追加
図9.6 PCP bpftrace: システム分析
-
URL フィールドに
9.12. PCP Vector のインストール
この手順では、pcp vector
をインストールする方法を説明します。
前提条件
- PCP が設定されている。詳細は、PCP の pcp-zeroconf での設定 を参照してください。
-
grafana-server
が設定されている。詳細は、grafana-server の設定 を参照してください。
手順
pcp-pmda-bcc
パッケージをインストールします。# dnf install pcp-pmda-bcc
bcc
PMDA をインストールします。# cd /var/lib/pcp/pmdas/bcc # ./Install [Wed Apr 1 00:27:48] pmdabcc(22341) Info: Initializing, currently in 'notready' state. [Wed Apr 1 00:27:48] pmdabcc(22341) Info: Enabled modules: [Wed Apr 1 00:27:48] pmdabcc(22341) Info: ['biolatency', 'sysfork', [...] Updating the Performance Metrics Name Space (PMNS) ... Terminate PMDA if already installed ... Updating the PMCD control file, and notifying PMCD ... Check bcc metrics have appeared ... 1 warnings, 1 metrics and 0 values
関連情報
-
システム上の
pmdabcc(1)
man ページ
9.13. PCP Vector Checklist の表示
PCP Vector データソースはライブメトリックを表示し、pcp
メトリックを使用します。各ホストのデータを分析します。
PCP Vector データソースを追加した後に、ダッシュボードに有用なメトリックの概要を表示し、チェックリストで関連するトラブルシューティングまたは参照リンクを表示できます。
前提条件
- PCP Vector がインストールされている。詳細は、PCP Vector のインストール を参照してください。
-
grafana-server
にアクセスできる。詳細は、Grafana Web UI へのアクセス を参照してください。
手順
- Grafana Web UI にログインします。
- Grafana Home ページで、Add your first data source をクリックします。
- Add data source ペインで、Filter by name or type テキストボックスに vector と入力してから PCP Vector をクリックします。
Data Sources / PCP Vector ペインで、以下を実行します。
-
URL フィールドに
http://localhost:44322
を追加し、 をクリックします。 図9.7 PCP Vector: ホストの概要
-
URL フィールドに
メニューで Performance Co-Pilot プラグインにマウスを合わせ、PCP Vector Checklist をクリックします。
PCP チェックリストで、 ヘルプまたは 警告アイコをクリックし、関連するトラブルシューティングまたは参照リンクを表示します。
図9.8 Performance Co-Pilot / PCP Vector Checklist
9.14. Grafana のヒートマップの使用
Grafana のヒートマップを使用すると、経時的なデータのヒストグラムを表示し、データの傾向とパターンを特定し、時間の経過に伴う変化を確認できます。ヒートマップ内の各列は単一のヒストグラムを表します。それぞれのセルの色は、そのヒストグラム内における特定の値の観測密度を表します。
このワークフローは、RHEL9 の Grafana バージョン 9.0.9 以降のヒートマップ専用です。
前提条件
- PCP Redis が設定されている。詳細は、PCP Redis の設定 を参照してください。
-
grafana-server
にアクセスできる。詳細は、Grafana Web UI へのアクセス を参照してください。 - PCP Redis データソースが設定されている。詳細は、PCP Redis データソースでのパネルおよびアラートの作成 を参照してください。
手順
- Dashboards tab タブにカーソルを合わせて、+ New dashboard をクリックします。
- Add panel メニューで、Add a new panel をクリックします。
Query タブで以下を実行します。
- 選択中のデフォルトオプションの代わりに、クエリーリストから PCP Redis を選択します。
-
A のテキストフィールドに、カーネル負荷グラフを可視化するためのメトリクス (例:
kernel.all.load
) を入力します。
- 可視化ドロップダウンメニュー (デフォルトで Time series に設定されています) をクリックし、Heatmap をクリックします。
- オプション: Panel Options ドロップダウンメニューで、Panel Title と Description を追加します。
Heatmap ドロップダウンメニューの Calculate from data 設定で、Yes をクリックします。
ヒートマップ
- オプション: Colors ドロップダウンメニューで、Scheme をデフォルトの Orange から変更し、ステップ数 (色の濃淡) を選択します。
オプション: Tooltip ドロップダウンメニューの Show histogram (Y Axis) 設定で、トグルをクリックすると、ヒートマップ内のセルの上にカーソルを置いたときに、特定のヒストグラム内でのセルの位置が表示されます。以下に例を示します。
Show histogram (Y Axis) のセルの表示
9.15. Grafana に関する問題のトラブルシューティング
Grafana にデータが表示されない、ダッシュボードが黒くなる、または同様の問題など、Grafana の問題のトラブルシューティングが必要になる場合があります。
手順
以下のコマンドを実行して、
pmlogger
サービスが起動していることを確認します。$ systemctl status pmlogger
以下のコマンドを実行して、ディスクにファイルが作成または変更されているかどうかを確認します。
$ ls /var/log/pcp/pmlogger/$(hostname)/ -rlt total 4024 -rw-r--r--. 1 pcp pcp 45996 Oct 13 2019 20191013.20.07.meta.xz -rw-r--r--. 1 pcp pcp 412 Oct 13 2019 20191013.20.07.index -rw-r--r--. 1 pcp pcp 32188 Oct 13 2019 20191013.20.07.0.xz -rw-r--r--. 1 pcp pcp 44756 Oct 13 2019 20191013.20.30-00.meta.xz [..]
以下のコマンドを実行して、
pmproxy
サービスが動作していることを確認します。$ systemctl status pmproxy
pmproxy
が動作していること、時系列サポートが有効になっていること、Redis への接続が確立されていることを、/var/log/pcp/pmproxy/pmproxy.log
ファイルを見て、以下のテキストが含まれていることで確認してください。pmproxy(1716) Info: Redis slots, command keys, schema version setup
ここで、1716は pmproxy の PID であり、
pmproxy
を起動するたびに異なる値になります。以下のコマンドを実行して、Redis データベースにキーが含まれているかどうかを確認します。
$ redis-cli dbsize (integer) 34837
以下のコマンドを実行して、PCP メトリックが Redis データベースに存在し、
pmproxy
がアクセスできるかどうかを確認します。$ pmseries disk.dev.read 2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df $ pmseries "disk.dev.read[count:10]" 2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df [Mon Jul 26 12:21:10.085468000 2021] 117971 70e83e88d4e1857a3a31605c6d1333755f2dd17c [Mon Jul 26 12:21:00.087401000 2021] 117758 70e83e88d4e1857a3a31605c6d1333755f2dd17c [Mon Jul 26 12:20:50.085738000 2021] 116688 70e83e88d4e1857a3a31605c6d1333755f2dd17c [...]
$ redis-cli --scan --pattern "*$(pmseries 'disk.dev.read')" pcp:metric.name:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df pcp:values:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df pcp:desc:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df pcp:labelvalue:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df pcp:instances:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df pcp:labelflags:series:2eb3e58d8f1e231361fb15cf1aa26fe534b4d9df
以下のコマンドを実行して、Grafana のログにエラーがあるかどうかを確認します。
$ journalctl -e -u grafana-server -- Logs begin at Mon 2021-07-26 11:55:10 IST, end at Mon 2021-07-26 12:30:15 IST. -- Jul 26 11:55:17 localhost.localdomain systemd[1]: Starting Grafana instance... Jul 26 11:55:17 localhost.localdomain grafana-server[1171]: t=2021-07-26T11:55:17+0530 lvl=info msg="Starting Grafana" logger=server version=7.3.6 c> Jul 26 11:55:17 localhost.localdomain grafana-server[1171]: t=2021-07-26T11:55:17+0530 lvl=info msg="Config loaded from" logger=settings file=/usr/s> Jul 26 11:55:17 localhost.localdomain grafana-server[1171]: t=2021-07-26T11:55:17+0530 lvl=info msg="Config loaded from" logger=settings file=/etc/g> [...]
第10章 Web コンソールを使用したシステムパフォーマンスの最適化
以下では、RHEL Web コンソールでパフォーマンスプロファイルを設定し、選択したタスクに対してシステムのパフォーマンスを最適化する方法を説明します。
10.1. Web コンソールでのパフォーマンスチューニングオプション
Red Hat Enterprise Linux 9 には、以下のタスクに対してシステムを最適化する複数のパフォーマンスプロファイルが同梱されています。
- デスクトップを使用するシステム
- スループットパフォーマンス
- レイテンシーパフォーマンス
- ネットワークパフォーマンス
- 電力の低消費
- 仮想マシン
TuneD
サービスは、選択したプロファイルに一致するようにシステムオプションを最適化します。
Web コンソールでは、システムが使用するパフォーマンスプロファイルを設定できます。
関連情報
10.2. Web コンソールでのパフォーマンスプロファイルの設定
実行するタスクに応じて、Web コンソールを使用して適切なパフォーマンスプロファイルを設定することでシステムパフォーマンスを最適化できます。
前提条件
RHEL 9 Web コンソールがインストールされている。
手順は、Web コンソールのインストールおよび有効化 を参照してください。
手順
RHEL 9 Web コンソールにログインします。
詳細は、Web コンソールへのログイン を参照してください。
- Overview をクリックします。
Configuration セクションで、現在のパフォーマンスプロファイルをクリックします。
Change Performance Profile ダイアログボックスで、必要なプロファイルを設定します。
- をクリックします。
検証
- Overview タブの Configuration セクションに、選択したパフォーマンスプロファイルが表示されます。
10.3. Web コンソールを使用したローカルシステムのパフォーマンスの監視
Red Hat Enterprise Linux の Web コンソールは、トラブルシューティングに Utilization Saturation and Errors (USE) メソッドを使用します。新しいパフォーマンスメトリックページには、データの履歴ビューが時系列に整理されており、最新のデータが上部に表示されます。
Metrics and history ページでは、イベント、エラー、リソースの使用率と飽和状態のグラフィカル表示を表示できます。
前提条件
RHEL 9 Web コンソールがインストールされている。
手順は、Web コンソールのインストールおよび有効化 を参照してください。
-
パフォーマンスメトリクスの収集を可能にする
cockpit-pcp
パッケージがインストールされている。 Performance Co-Pilot (PCP) サービスが有効になっている。
# systemctl enable --now pmlogger.service pmproxy.service
手順
RHEL 9 Web コンソールにログインします。
詳細は、Web コンソールへのログイン を参照してください。
- Overview をクリックします。
Usage セクションで、View metrics and history をクリックします。
Metrics and history セクションが開きます。
- 現在のシステム設定と使用状況:
- ユーザー指定の時間間隔におけるグラフィック形式のパフォーマンスメトリクス:
10.4. Web コンソールと Grafana を使用して複数のシステムのパフォーマンスを監視する
Grafana を使用すると、一度に複数のシステムからデータを収集し、収集した Performance Co-Pilot (PCP) メトリックのグラフィカル表現を確認できます。Web コンソールインターフェイスで、複数のシステムのパフォーマンスメトリックの監視およびエクスポートを設定できます。
前提条件
RHEL 9 Web コンソールがインストールされている。
手順は、Web コンソールのインストールおよび有効化 を参照してください。
-
cockpit-pcp
パッケージがインストールされている。 PCP サービスが有効になっている。
# systemctl enable --now pmlogger.service pmproxy.service
- Grafana ダッシュボードが設定されている。詳細は、grafana-server の設定 を参照してください。
redis
パッケージがインストールされている。または、手順の後半で Web コンソールインターフェイスからパッケージをインストールすることもできます。
手順
RHEL 9 Web コンソールにログインします。
詳細は、Web コンソールへのログイン を参照してください。
- Overview ページで、Usage テーブルの View metrics and history をクリックします。
- ボタンをクリックします。
Export to network スライダーをアクティブな位置に移動します。
redis
パッケージがインストールされていない場合は、Web コンソールでインストールするように求められます。-
pmproxy
サービスを開くには、ドロップダウンリストからゾーンを選択し、 ボタンをクリックします。 - Save をクリックします。
検証
- Networking をクリックします。
- Firewall テーブルで、 ボタンをクリックします。
-
選択したゾーンで
pmproxy
を検索します。
監視するすべてのシステムでこの手順を繰り返します。
第11章 ディスクスケジューラーの設定
ディスクスケジューラーは、ストレージデバイスに送信された I/O 要求を順序付けます。
スケジューラーは以下の複数の方法で設定できます。
- Setting the disk scheduler using TuneD の説明に従って、TuneD を使用してスケジューラーを設定します。
-
udev ルールを使用したディスクスケジューラーの設定 で説明されているように、
udev
を使用してスケジューラーを設定します。 - 特定ディスクに任意のスケジューラーを一時的に設定 で説明されているように、実行中のシステムのスケジューラーを一時的に変更します。
Red Hat Enterprise Linux 9 では、ブロックデバイスはマルチキュースケジューリングのみに対応します。これにより、ブロックレイヤーのパフォーマンスを高速ソリッドステートドライブ (SSD) およびマルチコアシステムで適切に拡張できます。
Red Hat Enterprise Linux 7 以前のバージョンで利用できた従来のシングルキュースケジューラーが削除されました。
11.1. 利用可能なディスクスケジューラー
Red Hat Enterprise Linux 9 では、以下のマルチキューディスクスケジューラーに対応しています。
none
- FIFO (First-in First-out) スケジューリングアルゴリズムを実装します。これにより、汎用のブロック層で単純な last-hit キャッシュを介して要求がマージされます。
mq-deadline
これにより、要求がスケジューラーに到達した時点からの要求のレイテンシーが保証されます。
mq-deadline
スケジューラーは、キュー待ちの I/O リクエストを読み取りバッチまたは書き込みバッチに分類します。そして、論理ブロックアドレス (LBA) を増大順に実行するためのスケジュール設定を行います。デフォルトでは、アプリケーションは読み取り I/O 操作でブロックする可能性の方が高いため、読み取りバッチの方が書き込みバッチより優先されます。mq-deadline
がバッチを処理すると、このプロセスは書き込み動作が待機している長さを確認して、次の読み取りバッチまたは書き込みバッチをスケジュールします。このスケジューラーはほとんどのユースケースに適していますが、必要に応じて特に書き込み動作より読み取り動作の方が頻繁に起こるユースケースに適しています。
bfq
デスクトップシステムおよび対話式のタスクを対象とします。
bfq
スケジューラーは、単一のアプリケーションがすべての帯域幅を使用しないようにします。これにより、ストレージデバイスがアイドル状態であるかのように常に応答できるようになります。デフォルトの設定では、bfq
は、最大スループットを実現するのではなく、レイテンシーを最小限に抑えることに焦点を合わせています。bfq
はcfq
コードに基づいています。固定タイムスライスについて、ディスクは各プロセスに付与されることはありませんが、セクター数を測定する budget をプロセスに割り当てます。このスケジューラーは大きなファイルをコピーする際に適しており、この場合、システムが応答しなくなることはありません。
kyber
スケジューラーは、ブロック I/O レイヤーに送信されたすべての I/O 要求のレイテンシーを計算することで、レイテンシーゴールを達成するために自身を調整します。cache-misses の場合、読み込み/同期書き込みリクエストにターゲットレイテンシーを設定できます。
このスケジューラーは、NVMe、SSD などの低レイテンシーデバイスなど、高速なデバイスに適しています。
11.2. 各種ユースケースで異なるディスクスケジューラー
システムが実行するタスクに応じて、分析タスクおよびチューニングタスクの前に、以下のディスクスケジューラーがベースラインとして推奨されます。
ユースケース | ディスクスケジューラー |
---|---|
SCSI インターフェイスを備えた従来の HDD |
|
高速ストレージで高パフォーマンスの SSD または CPU がバインドされたシステム |
特にエンタープライズアプリケーションを実行する場合は |
デスクトップまたはインタラクティブなタスク |
|
仮想ゲスト |
|
11.3. デフォルトのディスクスケジューラー
ブロックデバイスは、別のスケジューラーを指定しない限り、デフォルトのディスクスケジューラーを使用します。
NVMe (Non-volatile Memory Express)
ブロックデバイスの場合、デフォルトのスケジューラーは none
であり、Red Hat ではこれを変更しないことを推奨します。
カーネルは、デバイスのタイプに基づいてデフォルトのディスクスケジューラーを選択します。自動的に選択されたスケジューラーは、通常、最適な設定です。別のスケジューラーが必要な場合は、Red Hat では、udev
ルールまたは TuneD アプリケーションを使用して設定することを推奨しています。選択したデバイスを一致させ、それらのデバイスのスケジューラーのみを切り替えます。
11.4. アクティブなディスクスケジューラーの決定
この手順では、特定のブロックデバイスで現在アクティブなディスクスケジューラーを確認します。
手順
/sys/block/device/queue/scheduler
ファイルの内容を読み取ります。# cat /sys/block/device/queue/scheduler [mq-deadline] kyber bfq none
ファイル名の device を、
sdc
などのブロックデバイス名に置き換えます。アクティブなスケジューラーは、角括弧 (
[ ]
) にリスト表示されます。
11.5. TuneD を使用したディスクスケジューラーの設定
この手順では、選択したブロックデバイスに特定のディスクスケジューラーを設定するTuneD プロファイルを作成して有効にします。この設定は、システムを再起動しても持続します。
以下のコマンドと設定で、以下の内容を置き換えます。
-
device をブロックデバイスの名前に置き換えます (例:
sdf
)。 -
selected-scheduler を、デバイスに設定するディスクスケジューラーに置き換えます (例:
bfq
)。
前提条件
-
TuneD
サービスがインストールされ、有効になっている。詳細は、TuneD のインストールと有効化 を参照してください。
手順
必要に応じて、プロファイルのベースとなる既存のTuneDプロファイルを選択します。利用可能なプロファイルのリストは、RHEL とともに配布される TuneD プロファイル を参照してください。
現在アクティブなプロファイルを確認するには、次のコマンドを実行します。
$ tuned-adm active
TuneD プロファイルを保持する新しいディレクトリーを作成します。
# mkdir /etc/tuned/my-profile
選択したブロックデバイスのシステム固有の識別子を見つけます。
$ udevadm info --query=property --name=/dev/device | grep -E '(WWN|SERIAL)' ID_WWN=0x5002538d00000000_ ID_SERIAL=Generic-_SD_MMC_20120501030900000-0:0 ID_SERIAL_SHORT=20120501030900000
注記この例のコマンドは、指定したブロックデバイスに関連付けられた World Wide Name (WWN) またはシリアル番号として識別されるすべての値を返します。WWN を使用することが推奨されますが、WWN は特定のデバイスで常に利用できる訳ではなく、コマンド例で返される値は、デバイスのシステム固有の ID として使用することが許容されます。
/etc/tuned/my-profile/tuned.conf
設定ファイルを作成します。このファイルで、以下のオプションを設定します。必要に応じて、既存のプロファイルを追加します。
[main] include=existing-profile
WWN 識別子に一致するデバイスに対して選択したディスクスケジューラーを設定します。
[disk] devices_udev_regex=IDNAME=device system unique id elevator=selected-scheduler
ここでは、以下のようになります。
-
IDNAME を、使用されている識別子名に置き換えます (例:
ID_WWN
)。 device system unique id を、選択した識別子の値に置き換えます (例:
0x5002538d00000000
)。devices_udev_regex
オプションで複数のデバイスに一致させるには、識別子を括弧で囲み、垂直バーで区切ります。devices_udev_regex=(ID_WWN=0x5002538d00000000)|(ID_WWN=0x1234567800000000)
-
IDNAME を、使用されている識別子名に置き換えます (例:
プロファイルを有効にします。
# tuned-adm profile my-profile
検証
TuneD プロファイルがアクティブで、適用されていることを確認します。
$ tuned-adm active Current active profile: my-profile
$ tuned-adm verify Verification succeeded, current system settings match the preset profile. See TuneD log file ('/var/log/tuned/tuned.log') for details.
/sys/block/device/queue/scheduler
ファイルの内容を読み取ります。# cat /sys/block/device/queue/scheduler [mq-deadline] kyber bfq none
ファイル名の device を、
sdc
などのブロックデバイス名に置き換えます。アクティブなスケジューラーは、角括弧 (
[]
) にリスト表示されます。
関連情報
11.6. udev ルールを使用したディスクスケジューラーの設定
この手順では、udev
ルールを使用して、特定ブロックデバイスに、特定のディスクスケジューラーを設定します。この設定は、システムを再起動しても持続します。
以下のコマンドと設定で、以下の内容を置き換えます。
-
device をブロックデバイスの名前に置き換えます (例:
sdf
)。 -
selected-scheduler を、デバイスに設定するディスクスケジューラーに置き換えます (例:
bfq
)。
手順
ブロックデバイスのシステム固有の識別子を見つけます。
$ udevadm info --name=/dev/device | grep -E '(WWN|SERIAL)' E: ID_WWN=0x5002538d00000000 E: ID_SERIAL=Generic-_SD_MMC_20120501030900000-0:0 E: ID_SERIAL_SHORT=20120501030900000
注記この例のコマンドは、指定したブロックデバイスに関連付けられた World Wide Name (WWN) またはシリアル番号として識別されるすべての値を返します。WWN を使用することが推奨されますが、WWN は特定のデバイスで常に利用できる訳ではなく、コマンド例で返される値は、デバイスのシステム固有の ID として使用することが許容されます。
udev
ルールを設定します。以下の内容で/etc/udev/rules.d/99-scheduler.rules
ファイルを作成します。ACTION=="add|change", SUBSYSTEM=="block", ENV{IDNAME}=="device system unique id", ATTR{queue/scheduler}="selected-scheduler"
ここでは、以下のようになります。
-
IDNAME を、使用されている識別子名に置き換えます (例:
ID_WWN
)。 -
device system unique id を、選択した識別子の値に置き換えます (例:
0x5002538d00000000
)。
-
IDNAME を、使用されている識別子名に置き換えます (例:
udev
ルールを再読み込みします。# udevadm control --reload-rules
スケジューラー設定を適用します。
# udevadm trigger --type=devices --action=change
検証
アクティブなスケジューラーを確認します。
# cat /sys/block/device/queue/scheduler
11.7. 特定ディスクに任意のスケジューラーを一時的に設定
この手順では、特定のブロックデバイスに、特定のディスクスケジューラーを設定します。この設定は、システムを再起動すると元に戻ります。
手順
選択したスケジューラーの名前を、
/sys/block/device/queue/scheduler
ファイルに書き込みます。# echo selected-scheduler > /sys/block/device/queue/scheduler
ファイル名の device を、
sdc
などのブロックデバイス名に置き換えます。
検証
スケジューラーがデバイスでアクティブになっていることを確認します。
# cat /sys/block/device/queue/scheduler
第12章 Samba サーバーのパフォーマンスチューニング
特定の状況で Samba のパフォーマンスを向上させることができる設定と、パフォーマンスに悪影響を与える可能性がある設定を説明します。
このセクションの一部は、Samba Wiki に公開されているドキュメント Performance Tuning に掲載されています。ライセンスは、CC BY 4.0 にあります。著者および貢献者は、Wiki ページの history タブを参照してください。
前提条件
- Samba が、ファイルサーバーまたはプリントサーバーとして設定されている。
12.1. SMB プロトコルバージョンの設定
新しい SMB バージョンごとに機能が追加され、プロトコルのパフォーマンスが向上します。最新の Windows および Windows Server オペレーティングシステムは、常に最新のプロトコルバージョンに対応しています。Samba がプロトコルの最新バージョンも使用している場合は、Samba に接続する Windows クライアントで、このパフォーマンス改善を活用できます。Samba では、server max protocol のデフォルト値が、対応している安定した SMB プロトコルの最新バージョンに設定されます。
常に最新の安定した SMB プロトコルバージョンを有効にするには、server max protocol
パラメーターを設定しないでください。このパラメーターを手動で設定する場合は、最新のプロトコルバージョンを有効にするために、それぞれ新しいバージョンの SMB プロトコルで設定を変更する必要があります。
次の手順では、server max protocol
パラメーターでデフォルト値を使用する方法を説明します。
手順
-
/etc/samba/smb.conf
ファイルの[global]
セクションから、server max protocol
パラメーターを削除します。 Samba 設定を再読み込みします。
# smbcontrol all reload-config
12.3. パフォーマンスが低下する可能性のある設定
デフォルトでは、Red Hat Enterprise Linux のカーネルは、ネットワークパフォーマンスが高くなるように調整されています。たとえば、カーネルはバッファーサイズに自動チューニングメカニズムを使用しています。/etc/samba/smb.conf
ファイルに socket options
パラメーターを設定すると、このカーネル設定が上書きされます。その結果、このパラメーターの設定により、ほとんどの場合は、Samba ネットワークのパフォーマンスが低下します。
カーネルの最適化された設定を使用するには、/etc/samba/smb.conf
の [global]
セクションから socket options
パラメーターを削除します。
第13章 仮想マシンのパフォーマンスの最適化
仮想マシンでは、ホストと比べて、パフォーマンス低下が常に見られます。以下のセクションでは、この低下の理由を説明します。また、ハードウェアのインフラストラクチャーリソースを可能な限り効率的に使用できるように、RHEL 9 での仮想化によるパフォーマンスへの影響を最小限に抑える方法を説明します。
13.1. 仮想マシンのパフォーマンスに影響を及ぼすもの
仮想マシンは、ホストのユーザー空間プロセスとして実行します。したがって、ハイパーバイザーは、仮想マシンがホストシステムのリソースを使用できるように、ホストのシステムリソースを変換する必要があります。したがって、変換によりリソースの一部が消費されるため、仮想マシンのパフォーマンス効率は、ホストと同じにはなりません。
システムパフォーマンスにおける仮想化の影響
仮想マシンのパフォーマンス低下の理由には、以下のようなものがあります。
- 仮想 CPU (vCPU) がホスト上のスレッドとして実装され、Linux スケジューラーで処理される。
- 仮想マシンは、ホストカーネルから NUMA や Huge Page などの最適化機能を自動的に継承しない。
- ホストのディスクおよびネットワーク I/O の設定が、仮想マシンのパフォーマンスに大きく影響する可能性がある。
- ネットワークトラフィックは、一般的に、ソフトウェアベースのブリッジから仮想マシンに流れる。
- ホストデバイスとそのモデルによっては、その特定のハードウェアのエミュレーションにより、オーバーヘッドが著しくなる可能性がある。
仮想化が仮想マシンのパフォーマンスに与える影響の重大度は、次のようなさまざまな要因の影響を受けます。
- 同時に実行している仮想マシンの数
- 各仮想マシンで使用される仮想デバイスのサイズ
- 仮想マシンが使用するデバイスの種類
仮想マシンのパフォーマンス損失を減らす
RHEL 9 は、仮想化のパフォーマンスへの悪影響を減らすのに使用できる多くの機能を提供します。以下に例を示します。
-
TuneD
サービス により、仮想マシンのリソース配分とパフォーマンスを自動的に最適化できます。 - ブロック I/O チューニング により、ディスクなどの仮想マシンのブロックデバイスのパフォーマンスを改善できます。
- NUMA のチューニング により、vCPU のパフォーマンスを向上できます。
- 仮想ネットワーク をさまざまな方法で最適化できます。
仮想マシンのパフォーマンスのチューニングは、その他の仮想化機能に悪影響を与える可能性があります。たとえば、変更した仮想マシンの移行がより困難になります。
13.2. TuneD を使用した仮想マシンのパフォーマンスの最適化
TuneD
ユーティリティーは、CPU 集中型タスクや、ストレージネットワークスループットの応答などの特定のワークロードの特性に対して RHEL を調整するプロファイル配信メカニズムです。これにより、特定のユースケースで、パフォーマンスを強化し、電力消費を減らすように事前設定されたチューニングプロファイルを多数利用できます。これらのプロファイルを編集するか、新規プロファイルを作成して、仮想化環境に適したパフォーマンスソリューション (仮想化環境を含む) を作成できます。
RHEL 9 を仮想化に最適化するには、次のプロファイルを使用します。
-
RHEL 9 仮想マシンの場合は、virtual-guest プロファイルを使用します。これは、一般的に適用された
throughput-performance
プロファイルをベースにしていますが、仮想メモリーのスワップは減少します。 - RHEL 9 仮想ホストの場合は、virtual-host プロファイルを使用します。これにより、ダーティーメモリーページのより集中的なライトバックが有効になり、ホストのパフォーマンスを活用できます。
前提条件
-
TuneD
サービスがインストールされており、有効になっている。
手順
特定の TuneD
プロファイルを有効にするには、以下を実行します。
利用可能な
TuneD
プロファイルをリスト表示します。# tuned-adm list Available profiles: - balanced - General non-specialized TuneD profile - desktop - Optimize for the desktop use-case [...] - virtual-guest - Optimize for running inside a virtual guest - virtual-host - Optimize for running KVM guests Current active profile: balanced
オプション: 新しい
TuneD
プロファイルを作成するか、既存のTuneD
プロファイルを編集します。詳細は、TuneD プロファイルのカスタマイズ を参照してください。
TuneD
プロファイルをアクティベートします。# tuned-adm profile selected-profile
仮想化ホストを最適化するには、virtual-host プロファイルを使用します。
# tuned-adm profile virtual-host
RHEL ゲストオペレーティングシステムで、virtual-guest プロファイルを使用します。
# tuned-adm profile virtual-guest
検証
TuneD
のアクティブなプロファイルを表示します。# tuned-adm active Current active profile: virtual-host
TuneD
プロファイル設定がシステムに適用されていることを確認します。# tuned-adm verify Verification succeeded, current system settings match the preset profile. See tuned log file ('/var/log/tuned/tuned.log') for details.
13.3. libvirt デーモンの最適化
libvirt
仮想化スイートは、RHEL ハイパーバイザーの管理層として機能し、libvirt
の設定は仮想化ホストに大きな影響を与えます。特に、RHEL 9 には、モノリシックまたはモジュラーの 2 つのタイプの libvirt
デーモンが含まれており、使用するデーモンのタイプは、個々の仮想化ドライバーをどの程度細かく設定できるかに影響します。
13.3.1. libvirt デーモンのタイプ
RHEL 9 は、以下の libvirt
デーモンタイプをサポートします。
- モノリシックな libvirt
従来の
libvirt
デーモンであるlibvirtd
は、単一の設定ファイル/etc/libvirt/libvirtd.conf
を使用して、さまざまな仮想化ドライバーを制御します。このため、
libvirtd
は一元化されたハイパーバイザー設定を可能にしますが、システムリソースの使用が非効率的となる可能性があります。したがって、libvirtd
は、RHEL の今後のメジャーリリースではサポートされなくなる予定です。ただし、RHEL 8 から RHEL 9 に更新した場合、ホストはデフォルトで引き続き
libvirtd
を使用します。- モジュラー libvirt
RHEL 9 で新たに導入されたモジュラー
libvirt
は、仮想化ドライバーごとに特定のデーモンを提供します。これらには以下が含まれます。- virtqemud - ハイパーバイザー管理用のプライマリーデーモン
- virtinterfaced - ホストの NIC 管理用のセカンダリーデーモン
- virtnetworkd - 仮想ネットワーク管理用のセカンダリーデーモン
- virtnodedevd - ホストの物理デバイス管理用のセカンダリーデーモン
- virtnwfilterd - ホストのファイアウォール管理用のセカンダリーデーモン
- virtsecretd - ホストシークレット管理用のセカンダリーデーモン
- virtstoraged - ストレージ管理用のセカンダリーデーモン
デーモンごとに個別の設定ファイル (
/etc/libvirt/virtqemud.conf
など) があります。したがって、モジュラーのlibvirt
デーモンは、libvirt
リソース管理を細かく調整するためのより良いオプションを提供します。RHEL 9 を新規インストールした場合、モジュラー
libvirt
はデフォルトで設定されています。
次のステップ
-
RHEL 9 で
libvirtd
を使用する場合、Red Hat は、モジュール式デーモンへの切り替えを推奨しています。手順は、モジュラー libvirt デーモンの有効化 を参照してください。
13.3.2. モジュラー libvirt デーモンの有効化
RHEL 9 では、libvirt
ライブラリーは、ホスト上の個々の仮想化ドライバーセットを処理するモジュラーデーモンを使用します。たとえば、virtqemud
デーモンは QEMU ドライバーを処理します。
RHEL 9 ホストの新規インストールを実行すると、ハイパーバイザーはデフォルトでモジュラー libvirt
デーモンを使用します。ただし、ホストを RHEL 8 から RHEL 9 にアップグレードした場合、ハイパーバイザーは RHEL 8 のデフォルトであるモノリシックな libvirtd
デーモンを使用します。
その場合、Red Hat は、代わりにモジュラー libvirt
デーモンを有効にすることを推奨します。これは、libvirt
リソース管理を微調整するためのより良いオプションを提供するためです。また、RHEL の今後のメジャーリリースでは libvirtd
はサポートされなくなる予定です。
前提条件
ハイパーバイザーがモノリシックな
libvirtd
サービスを使用している。# systemctl is-active libvirtd.service active
このコマンドで
active
が表示される場合、libvirtd
を使用していることになります。- 仮想マシンがシャットダウンしている。
手順
libvirtd
とそのソケットを停止します。$ systemctl stop libvirtd.service $ systemctl stop libvirtd{,-ro,-admin,-tcp,-tls}.socket
libvirtd
を無効にして、システムの起動時に開始されないようにします。$ systemctl disable libvirtd.service $ systemctl disable libvirtd{,-ro,-admin,-tcp,-tls}.socket
モジュラーの
libvirt
デーモンを有効にします。# for drv in qemu interface network nodedev nwfilter secret storage; do systemctl unmask virt${drv}d.service; systemctl unmask virt${drv}d{,-ro,-admin}.socket; systemctl enable virt${drv}d.service; systemctl enable virt${drv}d{,-ro,-admin}.socket; done
モジュラーデーモンのソケットを起動します。
# for drv in qemu network nodedev nwfilter secret storage; do systemctl start virt${drv}d{,-ro,-admin}.socket; done
オプション: リモートホストからホストに接続する必要がある場合は、仮想化プロキシーデーモンを有効にして起動します。
システムで
libvirtd-tls.socket
サービスが有効になっているかどうかを確認します。# grep listen_tls /etc/libvirt/libvirtd.conf listen_tls = 0
libvirtd-tls.socket
が有効になっていない場合 (listen_tls = 0
)、次のようにvirtproxyd
をアクティブにします。# systemctl unmask virtproxyd.service # systemctl unmask virtproxyd{,-ro,-admin}.socket # systemctl enable virtproxyd.service # systemctl enable virtproxyd{,-ro,-admin}.socket # systemctl start virtproxyd{,-ro,-admin}.socket
libvirtd-tls.socket
が有効になっている場合 (listen_tls = 1
)、次のようにvirtproxyd
をアクティブにします。# systemctl unmask virtproxyd.service # systemctl unmask virtproxyd{,-ro,-admin,-tls}.socket # systemctl enable virtproxyd.service # systemctl enable virtproxyd{,-ro,-admin,-tls}.socket # systemctl start virtproxyd{,-ro,-admin,-tls}.socket
virtproxyd
の TLS ソケットを有効にするには、libvirt
で使用できるように設定された TLS 証明書がホストに必要です。詳細は、アップストリームの libvirt ドキュメント を参照してください。
検証
有効化された仮想化デーモンをアクティブにします。
# virsh uri qemu:///system
ホストが
virtqemud
モジュラーデーモンを使用していることを確認します。# systemctl is-active virtqemud.service active
ステータスが
active
の場合、libvirt
モジュラーデーモンは正常に有効になっています。
13.4. 仮想マシンのメモリーの設定
仮想マシンのパフォーマンスを改善するために、追加のホスト RAM を仮想マシンに割り当てることができます。同様に、仮想マシンに割り当てるメモリー量を減らして、ホストメモリーを他の仮想マシンやタスクに割り当てることができます。
これらのアクションを実行するには、Web コンソール または コマンドラインインターフェイス を使用します。
13.4.1. Web コンソールを使用した仮想マシンのメモリーの追加および削除
仮想マシンのパフォーマンスを向上させるか、仮想マシンが使用するホストリソースを解放するために、Web コンソールを使用して、仮想マシンに割り当てられたメモリーの量を調整できます。
前提条件
RHEL 9 Web コンソールがインストールされている。
手順は、Web コンソールのインストールおよび有効化 を参照してください。
ゲスト OS がメモリーバルーンドライバーを実行している。これを確認するには、以下を実行します。
仮想マシンの設定に
memballoon
デバイスが含まれていることを確認します。# virsh dumpxml testguest | grep memballoon <memballoon model='virtio'> </memballoon>
このコマンドで出力が表示され、モデルが
none
に設定されていない場合は、memballoon
デバイスが存在します。バルーンドライバーがゲスト OS で実行していることを確認します。
-
Windows ゲストでは、ドライバーは
virtio-win
ドライバーパッケージの一部としてインストールされます。手順は、Installing paravirtualized KVM drivers for Windows virtual machines を参照してください。 -
Linux ゲストでは、通常、このドライバーはデフォルトで含まれており、
memballoon
デバイスがあれば、アクティベートされます。
-
Windows ゲストでは、ドライバーは
- Web コンソールの VM プラグインが システムにインストールされている。
手順
オプション: 仮想マシンの最大メモリーと現在使用されているメモリーに関する情報を取得します。これは、変更のベースラインとしても、検証のためにも機能します。
# virsh dominfo testguest Max memory: 2097152 KiB Used memory: 2097152 KiB
RHEL 9 Web コンソールにログインします。
詳細は、Web コンソールへのログイン を参照してください。
新しいページが開き、選択した仮想マシンに関する基本情報を含む Overview セクションと、仮想マシンのグラフィカルインターフェイスにアクセスするための Console セクションが表示されます。
概要ペインで、
Memory
行の横にある をクリックします。メモリー調整
ダイアログが表示されます。選択した仮想マシンの仮想メモリーを設定します。
最大割り当て: 仮想マシンがそのプロセスに使用できるホストメモリーの最大量を設定します。VM の作成時に最大メモリーを指定することも、後で増やすこともできます。メモリーは、MiB または GiB の倍数で指定できます。
仮想マシンをシャットダウンしてからでないと、最大メモリー割り当てを調整できません。
現在の割り当て - 仮想マシンに割り当てる実際のメモリー量を設定します。この値は、最大割り当てより小さい値にすることができますが、上限を超えることはできません。値を調整して、仮想マシンで利用可能なメモリーをプロセス用に調整できます。メモリーは、MiB または GiB の倍数で指定できます。
この値を指定しない場合、デフォルトの割り当ては最大割り当て の値になります。
仮想マシンのメモリー割り当てが調整されます。
13.4.2. コマンドラインインターフェイスを使用した仮想マシンのメモリーの追加と削除
仮想マシンのパフォーマンスを改善したり、使用しているホストリソースを解放したりするために、CLI を使用して仮想マシンに割り当てられたメモリーの量を調整できます。
前提条件
ゲスト OS がメモリーバルーンドライバーを実行している。これを確認するには、以下を実行します。
仮想マシンの設定に
memballoon
デバイスが含まれていることを確認します。# virsh dumpxml testguest | grep memballoon <memballoon model='virtio'> </memballoon>
このコマンドで出力が表示され、モデルが
none
に設定されていない場合は、memballoon
デバイスが存在します。ballon ドライバーがゲスト OS で実行されていることを確認します。
-
Windows ゲストでは、ドライバーは
virtio-win
ドライバーパッケージの一部としてインストールされます。手順は、Installing paravirtualized KVM drivers for Windows virtual machines を参照してください。 -
Linux ゲストでは、通常、このドライバーはデフォルトで含まれており、
memballoon
デバイスがあれば、アクティベートされます。
-
Windows ゲストでは、ドライバーは
手順
オプション: 仮想マシンの最大メモリーと現在使用されているメモリーに関する情報を取得します。これは、変更のベースラインとしても、検証のためにも機能します。
# virsh dominfo testguest Max memory: 2097152 KiB Used memory: 2097152 KiB
仮想マシンに割り当てる最大メモリーを調整します。この値を増やすと、仮想マシンのパフォーマンスが低下する可能性が向上し、値を減らすことで、仮想マシンがホスト上にあるパフォーマンスフットプリントが低減します。この変更は、停止している仮想マシンでのみ実行できるため、実行中の仮想マシンを調整するには再起動する必要があります。
たとえば、仮想マシン testguest が使用可能な最大メモリーを 4096 MiB に変更するには、次のコマンドを実行します。
# virt-xml testguest --edit --memory memory=4096,currentMemory=4096 Domain 'testguest' defined successfully. Changes will take effect after the domain is fully powered off.
実行中の仮想マシンの最大メモリーを増やすには、仮想マシンにメモリーデバイスを割り当てます。これは、メモリーのホットプラグとも呼ばれます。詳細は、デバイスの仮想マシンへの接続 を参照してください。
警告実行中の仮想マシン (メモリーのホットアンプラグとも呼ばれる) から、メモリーデバイスを削除することはサポートされておらず、Red Hat では推奨していません。
オプション: 仮想マシンで現在使用されているメモリーを最大割り当て量まで調整することもできます。これにより、仮想マシンの最大割り当てを変更せずに、仮想マシンが次回の再起動までホスト上にあるメモリー負荷が調整されます。
# virsh setmem testguest --current 2048
検証
仮想マシンが使用するメモリーが更新されていることを確認します。
# virsh dominfo testguest Max memory: 4194304 KiB Used memory: 2097152 KiB
現在の仮想マシンメモリーを調整した場合は、仮想マシンのメモリーバルーンの統計情報を取得して、そのメモリー使用量がどの程度効果的に制御されているかを評価できます。
# virsh domstats --balloon testguest Domain: 'testguest' balloon.current=365624 balloon.maximum=4194304 balloon.swap_in=0 balloon.swap_out=0 balloon.major_fault=306 balloon.minor_fault=156117 balloon.unused=3834448 balloon.available=4035008 balloon.usable=3746340 balloon.last-update=1587971682 balloon.disk_caches=75444 balloon.hugetlb_pgalloc=0 balloon.hugetlb_pgfail=0 balloon.rss=1005456
13.4.3. virtio-mem を使用した仮想マシンメモリーの追加および削除
RHEL 9 は、virtio-mem
準仮想化メモリーデバイスを提供します。このデバイスを使用すると、仮想マシン (VM) 内のホストメモリーを動的に追加または削除できます。たとえば、virtio-mem
を使用して、実行中の仮想マシン間でメモリーリソースを移動したり、現在の要件に基づいてクラウドセットアップの仮想マシンメモリーのサイズを変更したりできます。
13.4.3.1. virtio-mem の概要
virtio-mem
は、仮想マシンでホストメモリーを動的に追加または削除するために使用できる準仮想化メモリーデバイスです。たとえば、このデバイスを使用して、実行中の仮想マシン間でメモリーリソースを移動したり、現在の要件に基づいてクラウドセットアップの仮想マシンメモリーのサイズを変更したりできます。
virtio-mem
を使用すると、4 から数百メビバイト (MiB) の単位で、仮想マシンのメモリーを初期サイズより増やしたり、元のサイズに縮小したりできます。ただし、virtio-mem
は、特にメモリーを確実にアンプラグするために、特定のゲストオペレーティングシステム設定にも依存していることに注意してください。
virtio-mem 機能の制限
virtio-mem
は現在、以下の機能と互換性がありません。
- ホスト上のリアルタイムアプリケーションのメモリーロックの使用
- ホストでの暗号化された仮想化の使用
-
virtio-mem
とホスト上でのmemballoon
膨張および収縮の組み合わせ -
仮想マシンでの
virtio_mem
ドライバーのアンロードまたはリロード -
virtiofs
を除く vhost-user デバイスの使用
13.4.3.2. 仮想マシンでのメモリーのオンライン化設定
virtio-mem
を使用して実行中の仮想マシンにメモリーを接続する (メモリーのホットプラグとも呼ばれます) 前に、ホットプラグされたメモリーが自動的にオンライン状態に設定されるように仮想マシン (VM) オペレーティングシステムを設定する必要があります。そうしないと、ゲストオペレーティングシステムは追加メモリーを使用できなくなります。メモリーのオンライン化については、次のいずれかの設定から選択できます。
-
online_movable
-
online_kernel
-
auto-movable
これらの設定の違いについては、メモリーのオンライン化設定の比較 を参照してください。
RHEL では、メモリーのオンライン化はデフォルトで udev ルールで設定されます。ただし、virtio-mem
を使用する場合は、カーネル内でメモリーのオンライン化を直接設定することを推奨します。
前提条件
- ホストに Intel 64 または AMD64 CPU アーキテクチャーがある。
- ホストがオペレーティングシステムとして RHEL 9.4 以降を使用している。
ホスト上で実行されている仮想マシンが、次のいずれかのオペレーティングシステムバージョンを使用している。
RHEL 8.10
重要RHEL 8.10 仮想マシンでは、実行中の仮想マシンからメモリーをアンプラグすることはデフォルトで無効になっています。
- RHEL 9
手順
仮想マシンで
online_movable
設定を使用するようにメモリーオンライン化を設定するには、以下を実行します。memhp_default_state
カーネルコマンドラインパラメーターをonline_movable
に設定します。# grubby --update-kernel=ALL --remove-args=memhp_default_state --args=memhp_default_state=online_movable
- 仮想マシンを再起動します。
仮想マシンで
online_kernel
設定を使用するようにメモリーオンライン化を設定するには、以下を実行します。以下のように、
memhp_default_state
カーネルコマンドラインパラメーターをonline_kernel
に設定します。# grubby --update-kernel=ALL --remove-args=memhp_default_state --args=memhp_default_state=online_kernel
- 仮想マシンを再起動します。
仮想マシンで
auto-movable
メモリーオンライン化ポリシーを使用するには、以下の手順を実行します。memhp_default_state
カーネルコマンドラインパラメーターをonline
に設定します。# grubby --update-kernel=ALL --remove-args=memhp_default_state --args=memhp_default_state=online
memory_hotplug.online_policy
カーネルコマンドラインパラメーターをauto-movable
に設定します。# grubby --update-kernel=ALL --remove-args="memory_hotplug.online_policy" --args=memory_hotplug.online_policy=auto-movable
オプション:
auto-movable
オンライン化ポリシーをさらにチューニングするには、memory_hotplug.auto_movable_ratio
およびmemory_hotplug.auto_movable_numa_aware
パラメーターを変更します。# grubby --update-kernel=ALL --remove-args="memory_hotplug.auto_movable_ratio" --args=memory_hotplug.auto_movable_ratio=<percentage> # grubby --update-kernel=ALL --remove-args="memory_hotplug.memory_auto_movable_numa_aware" --args=memory_hotplug.auto_movable_numa_aware=<y/n>
-
memory_hotplug.auto_movable_ratio parameter
は、任意の割り当てに使用できるメモリーと比較すると、移動可能な割り当てにのみ使用できるメモリーの最大比率を設定します。比率はパーセントで表され、デフォルト値は 3:1 の比率である 301 (%) です。 memory_hotplug.auto_movable_numa_aware
パラメーターは、memory_hotplug.auto_movable_ratio
パラメーターを使用可能なすべての NUMA ノードのメモリーに適用するか、単一の NUMA ノード内のメモリーのみに適用するかを制御します。デフォルト値は y (yes) です。たとえば、最大比率を 301% に設定し、
memory_hotplug.auto_movable_numa_aware
が y (yes) に設定されている場合は、アタッチされたvirtio-mem
デバイスを持つ NUMA ノード内でも 3:1 の比率が適用されます。パラメーターが n (no) に設定されている場合、最大 3:1 の比率はすべての NUMA ノード全体に対してのみ適用されます。また、比率を超えていない場合、新しくホットプラグされたメモリーは、移動可能な割り当てに対してのみ利用できます。それ以外の場合では、新しくホットプラグされたメモリーは、移動可能な割り当てと移動不可能な割り当ての両方に使用できます。
-
- 仮想マシンを再起動します。
検証
online_movable
設定が正しく設定されているかを確認するには、memhp_default_state
カーネルパラメーターの現在の値を確認します。# cat /sys/devices/system/memory/auto_online_blocks online_movable
online_kernel
設定が正しく設定されているかを確認するには、memhp_default_state
カーネルパラメーターの現在の値を確認します。# cat /sys/devices/system/memory/auto_online_blocks online_kernel
auto-movable
設定が正しく設定されているかを確認するには、以下のカーネルパラメーターを確認してください。memhp_default_state
:# cat /sys/devices/system/memory/auto_online_blocks online
memory_hotplug.online_policy
:# cat /sys/module/memory_hotplug/parameters/online_policy auto-movable
memory_hotplug.auto_movable_ratio
:# cat /sys/module/memory_hotplug/parameters/auto_movable_ratio 301
memory_hotplug.auto_movable_numa_aware
:# cat /sys/module/memory_hotplug/parameters/auto_movable_numa_aware y
13.4.3.3. Attaching a virtio-mem device to virtual machines
実行中の仮想マシンに追加のメモリーをアタッチ (メモリーのホットプラグとも呼ばれます) し、その後ホットプラグされたメモリーのサイズを変更できるようにするには、virtio-mem
デバイスを使用できます。具体的には、libvirt XML 設定ファイルと virsh
コマンドを使用し、virtio-mem
デバイスを定義して仮想マシン (VM) に割り当てることができます。
前提条件
- ホストに Intel 64 または AMD64 CPU アーキテクチャーがある。
- ホストがオペレーティングシステムとして RHEL 9.4 以降を使用している。
ホスト上で実行されている仮想マシンが、次のいずれかのオペレーティングシステムバージョンを使用している。
RHEL 8.10
重要RHEL 8.10 仮想マシンでは、実行中の仮想マシンからメモリーをアンプラグすることはデフォルトで無効になっています。
- RHEL 9
- VM にメモリーオンライン化が設定されている。手順は、仮想マシンでのメモリーのオンライン化設定 を参照してください。
手順
ターゲット仮想マシンの XML 設定に
maxMemory
パラメーターが含まれるようにします。# virsh edit testguest1 <domain type='kvm'> <name>testguest1</name> ... <maxMemory unit='GiB'>128</maxMemory> ... </domain>
この例では、
testguest1
仮想マシンの XML 設定で、128 ギビバイト (GiB) のmaxMemory
パラメーターが定義されています。maxMemory
サイズは、仮想マシンが使用できる最大メモリーを指定します。これには、初期メモリーとホットプラグされたメモリーの両方が含まれます。XML ファイルを作成して開き、ホスト上の
virtio-mem
デバイスを定義します。次に例を示します。# vim virtio-mem-device.xml
virtio-mem
デバイスの XML 定義をファイルに追加し、保存します。<memory model='virtio-mem'> <target> <size unit='GiB'>48</size> <node>0</node> <block unit='MiB'>2</block> <requested unit='GiB'>16</requested> <current unit='GiB'>16</current> </target> <alias name='ua-virtiomem0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/> </memory> <memory model='virtio-mem'> <target> <size unit='GiB'>48</size> <node>1</node> <block unit='MiB'>2</block> <requested unit='GiB'>0</requested> <current unit='GiB'>0</current> </target> <alias name='ua-virtiomem1'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> </memory>
この例では、2 つの
virtio-mem
デバイスが以下のパラメーターで定義されます。-
size
: これは、デバイスの最大サイズです。この例では 48 GiB です。size
はblock
サイズの倍数である必要があります。 -
node
: これは、virtio-mem
デバイスに割り当てられた vNUMA ノードです。 -
block
: これはデバイスのブロックサイズです。これは、少なくとも Transparent Huge Page (THP) のサイズである必要があります。THP は、Intel 64 または AMD64 CPU アーキテクチャーでは 2 MiB です。通常、Intel 64 または AMD64 アーキテクチャーでは、2 MiB ブロックサイズが適切なデフォルトの選択となります。virtio-mem
を Virtual Function I/O (VFIO) または 仲介デバイス (mdev) で使用する場合、すべてのvirtio-mem
デバイスにまたがるブロックの合計数は 32768 を超えることはできません。超えると、RAM のプラグインに失敗する可能性があります。 -
requested
: これは、virtio-mem
デバイスを使用して仮想マシンに割り当てるメモリー量です。ただし、これは VM に対する単なるリクエストであり、VM が適切に設定されていない場合など、正常に解決されない可能性があります。requested
サイズはblock
サイズの倍数である必要があり、定義された最大size
を超えることはできません。 -
current
: これは、virtio-mem
デバイスが仮想マシンに提供する現在のサイズを表します。たとえば、リクエストを完了できない場合や VM を再起動する場合など、current
サイズは、requested
サイズとは異なる場合があります。 alias
: これは、libvirt コマンドでデバイスを編集する場合など、目的のvirtio-mem
デバイスを指定するために使用できるオプションのユーザー定義のエイリアスです。libvirt のすべてのユーザー定義のエイリアスは、"ua-" 接頭辞で始まる必要があります。これらの特定のパラメーターとは別に、
libvirt
は、virtio-mem
デバイスを他の PCI デバイスと同様に処理します。
-
XML ファイルを使用して、定義された
virtio-mem
デバイスを仮想マシンにアタッチします。たとえば、virtio-mem-device.xml
で定義された 2 つのデバイスを実行中の仮想マシンtestguest1
に永続的にアタッチするには、次のコマンドを実行します。# virsh attach-device testguest1 virtio-mem-device.xml --live --config
--live
オプションは、実行中の仮想マシンにのみデバイスを接続します。再起動後に永続性は維持されません。--config
オプションは、設定の変更を永続化します。--live
オプションを指定せずに、デバイスをシャットダウンした仮想マシンに接続することもできます。オプション: 実行中の仮想マシンに接続されている
virtio-mem
デバイスのrequested
サイズを動的に変更するには、virsh update-memory-device
コマンドを使用します。# virsh update-memory-device testguest1 --alias ua-virtiomem0 --requested-size 4GiB
この例では、以下が適用されます。
-
testguest1
は、更新する仮想マシンです。 -
--alias ua-virtiomem0
は、以前に定義されたエイリアスで指定されたvirtio-mem
デバイスです。 --requested-size 4GiB
は、virtio-mem
デバイスのrequested
サイズを 4 GiB に変更します。警告requested
サイズを減らして実行中の仮想マシンからメモリーをアンプラグすると、信頼性が低下する可能性があります。このプロセスが成功するかどうかは、使用中のメモリーラインニングポリシーなど、さまざまな要因によって決まります。場合によっては、その時点でホットプラグされたメモリーの量を変更できないため、ゲストオペレーティングシステムが要求を正常に完了できないことがあります。
さらに、RHEL 8.10 仮想マシンでは、実行中の仮想マシンからメモリーをアンプラグすることはデフォルトで無効になっています。
-
オプション: シャットダウンした仮想マシンから
virtio-mem
デバイスを取り外すには、virsh detach-device
コマンドを使用します。# virsh detach-device testguest1 virtio-mem-device.xml
オプション: 実行中の仮想マシンから
virtio-mem
デバイスを取り外すには、以下を実行します。virtio-mem
デバイスのrequested
サイズを 0 に変更します。そうしないと、実行中の仮想マシンからvirtio-mem
デバイスを取り外す試行が失敗します。# virsh update-memory-device testguest1 --alias ua-virtiomem0 --requested-size 0
実行中の仮想マシンから
virtio-mem
デバイスを取り外します。# virsh detach-device testguest1 virtio-mem-device.xml
検証
仮想マシンで、利用可能な RAM を確認し、合計量にホットプラグされたメモリーが含まれているかを確認します。
# free -h total used free shared buff/cache available Mem: 31Gi 5.5Gi 14Gi 1.3Gi 11Gi 23Gi Swap: 8.0Gi 0B 8.0Gi
# numactl -H available: 1 nodes (0) node 0 cpus: 0 1 2 3 4 5 6 7 node 0 size: 29564 MB node 0 free: 13351 MB node distances: node 0 0: 10
実行中の仮想マシンの XML 設定を表示して、プラグイン RAM の現在の容量をホストで表示することもできます。
# virsh dumpxml testguest1 <domain type='kvm'> <name>testguest1</name> ... <currentMemory unit='GiB'>31</currentMemory> ... <memory model='virtio-mem'> <target> <size unit='GiB'>48</size> <node>0</node> <block unit='MiB'>2</block> <requested unit='GiB'>16</requested> <current unit='GiB'>16</current> </target> <alias name='ua-virtiomem0'/> <address type='pci' domain='0x0000' bus='0x08' slot='0x00' function='0x0'/> ... </domain>
この例では、以下が適用されます。
-
<currentMemory unit='GiB'>31</currentMemory>
は、すべてのソースから VM で利用可能な合計 RAM を表します。 -
<current unit='GiB'>16</current>
は、virtio-mem
デバイスが提供するプラグイン RAM の現在のサイズを表します。
-
13.4.3.4. メモリーのオンライン化設定の比較
実行中の RHEL 仮想マシンにメモリーをアタッチする場合 (メモリーのホットプラグとも呼ばれます)、仮想マシン (VM) のオペレーティングシステムでホットプラグされたメモリーをオンライン状態に設定する必要があります。そうしないと、システムはメモリーを使用できなくなります。
次の表は、利用可能なメモリーのオンライン化設定を選択する際の主な考慮事項をまとめたものです。
設定名 | 仮想マシンからのメモリーのアンプラグ | メモリーゾーンの不均等性が発生するリスク | 潜在的なユースケース | 目的のワークロードのメモリー要件 |
---|---|---|---|---|
| ホットプラグされたメモリーを確実に取り外すことができます。 | あり | 比較的少量のメモリーのホットプラグ | ほとんどがユーザー空間のメモリー |
| ホットプラグされたメモリーの可動部分は確実に取り外すことができます。 | 最小 | 大量のメモリーのホットプラグ | ほとんどがユーザー空間のメモリー |
| ホットプラグされたメモリーは確実に取り外すことができません。 | なし | 信頼性の低いメモリーの取り外しは許容されます。 | ユーザー空間またはカーネル空間のメモリー |
ゾーン不均衡 とは、Linux メモリーゾーンの 1 つに、使用可能なメモリーページがないことです。ゾーン不均衡 になると、システムのパフォーマンスに悪影響を及ぼす可能性があります。たとえば、移動不可能な割り当てが原因で空きメモリーが不足すると、カーネルがクラッシュする可能性があります。通常、移動可能な割り当てには、主にユーザー空間のメモリーページが含まれ、移動不可能な割り当てには、主にカーネル空間のメモリーページが含まれています。
13.4.4. 関連情報
- 仮想マシンへのデバイスの接続 仮想マシンへのデバイスの接続
13.5. 仮想マシンの I/O パフォーマンスの最適化
仮想マシンの入出力 (I/O) 機能は、仮想マシンの全体的な効率を大幅に制限する可能性があります。これに対処するために、ブロック I/O パラメーターを設定して、仮想マシンの I/O を最適化できます。
13.5.1. 仮想マシンにおけるブロック I/O のチューニング
複数のブロックデバイスが、複数の仮想マシンで使用されている場合は、I/O ウェイト を変更して特定の仮想デバイスの I/O の優先度を調整することが重要になる場合があります。
デバイスの I/O ウェイトを上げると、I/O 帯域幅の優先度が高まるため、より多くのホストリソースが提供されます。同様に、デバイスのウェイトを下げると、ホストのリソースが少なくなります。
各デバイスの ウェイト
の値は 100
から 1000
の範囲内でなければなりません。もしくは、値を 0
にすると、各デバイスのリストからそのデバイスを削除できます。
手順
仮想マシンのブロック I/O パラメーターを表示および設定するには、以下を行います。
仮想マシンの現在の
<blkio>
パラメーターを表示します。# virsh dumpxml VM-name
<domain> [...] <blkiotune> <weight>800</weight> <device> <path>/dev/sda</path> <weight>1000</weight> </device> <device> <path>/dev/sdb</path> <weight>500</weight> </device> </blkiotune> [...] </domain>
指定したデバイスの I/O ウェイトを編集します。
# virsh blkiotune VM-name --device-weights device, I/O-weight
たとえば、次の例では、testguest1 仮想マシンの /dev/sda デバイスの重みを 500 に変更します。
# virsh blkiotune testguest1 --device-weights /dev/sda, 500
13.5.2. 仮想マシンのディスク I/O スロットリング
複数の仮想マシンが同時に実行する場合は、過剰なディスク I/O により、システムパフォーマンスに影響が及ぶ可能性があります。KVM 仮想化のディスク I/O スロットリングでは、仮想マシンからホストマシンに送られるディスク I/O 要求に制限を設定する機能を利用できます。これにより、仮想マシンが共有リソースを過剰に使用し、その他の仮想マシンのパフォーマンスに影響を及ぼすことを防ぐことができます。
ディスク I/O スロットリングを有効にするには、仮想マシンに割り当てられた各ブロックデバイスからホストマシンに送られるディスク I/O 要求に制限を設定します。
手順
virsh domblklist
コマンドを使用して、指定された仮想マシン上のすべてのディスクデバイスの名前をリスト表示します。# virsh domblklist rollin-coal Target Source ------------------------------------------------ vda /var/lib/libvirt/images/rollin-coal.qcow2 sda - sdb /home/horridly-demanding-processes.iso
スロットルする仮想ディスクがマウントされているホストブロックデバイスを見つけます。
たとえば、前の手順の
sdb
仮想ディスクをスロットリングする場合は、以下の出力では、ディスクが/dev/nvme0n1p3
パーティションにマウントされていることを示しています。$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT zram0 252:0 0 4G 0 disk [SWAP] nvme0n1 259:0 0 238.5G 0 disk ├─nvme0n1p1 259:1 0 600M 0 part /boot/efi ├─nvme0n1p2 259:2 0 1G 0 part /boot └─nvme0n1p3 259:3 0 236.9G 0 part └─luks-a1123911-6f37-463c-b4eb-fxzy1ac12fea 253:0 0 236.9G 0 crypt /home
virsh blkiotune
コマンドを使用して、ブロックデバイスの I/O 制限を設定します。# virsh blkiotune VM-name --parameter device,limit
以下の例は、
rollin-coal
仮想マシン上のsdb
ディスクを毎秒 1000 の読み書き操作にスロットリングし、毎秒 50 MB の読み書きスループットにスロットリングします。# virsh blkiotune rollin-coal --device-read-iops-sec /dev/nvme0n1p3,1000 --device-write-iops-sec /dev/nvme0n1p3,1000 --device-write-bytes-sec /dev/nvme0n1p3,52428800 --device-read-bytes-sec /dev/nvme0n1p3,52428800
関連情報
- ディスク I/O スロットリングは、異なる顧客に属する仮想マシンが同じホストで実行されている場合や、異なる仮想マシンに QoS 保証が提供されている場合など、さまざまな状況で役立ちます。ディスク I/O スロットリングは、低速なディスクをシミュレートするために使用することもできます。
- I/O スロットリングは、仮想マシンに割り当てられた各ブロックデバイスに個別に適用でき、スループットおよび I/O 操作の制限に対応します。
-
Red Hat は、
virsh blkdeviotune
コマンドを使用した仮想マシンでの I/O スロットリングの設定はサポートしていません。RHEL 9 を VM ホストとして使用する場合にサポートされていない機能の詳細は、RHEL 9 仮想化でサポートされていない機能 を参照してください。
13.5.3. マルチキュー virtio-scsi の有効化
仮想マシンで virtio-scsi
ストレージデバイスを使用する場合は、マルチキュー virtio-scsi 機能により、ストレージパフォーマンスおよびスケーラビリティーが向上します。このため、各仮想 CPU (vCPU) に別のキューを持たせることが可能になります。また仮想 CPU は、その他の vCPU に影響を及ぼすことなく使用するために、割り込みできるようになります。
手順
特定の仮想マシンに対してマルチキュー virtio-scsi サポートを有効にするには、仮想マシンの XML 設定に以下を追加します。ここでの N は、vCPU キューの合計数です。
<controller type='scsi' index='0' model='virtio-scsi'> <driver queues='N' /> </controller>
13.6. 仮想マシンの CPU パフォーマンスの最適化
vCPU は、ホストマシンの物理 CPU と同様、仮想マシンのパフォーマンスにおいて極めて重要です。したがって、vCPU を最適化すると、仮想マシンのリソース効率に大きな影響を及ぼす可能性があります。vCPU を最適化するには、以下を実行します。
- 仮想マシンに割り当てられているホスト CPU の数を調整します。これは、CLI または Web コンソール を使用して実行できます。
vCPU モデルが、ホストの CPU モデルに調整されていることを確認します。たとえば、仮想マシン testguest1 を、ホストの CPU モデルを使用するように設定するには、次のコマンドを実行します。
# virt-xml testguest1 --edit --cpu host-model
ARM 64 システムでは、
--cpu host-passthrough
を使用します。- Kernel Same-Page Merging (KSM) を管理します。
ホストマシンが Non-Uniform Memory Access (NUMA) を使用する場合は、その仮想マシンに対して NUMA を設定 することもできます。これにより、ホストの CPU およびメモリープロセスが、仮想マシンの CPU およびメモリープロセスにできるだけ近くにマッピングされます。事実上、NUMA チューニングにより、仮想マシンに割り当てられたシステムメモリーへのより効率的なアクセスが可能になります。これにより、vCPU 処理の効果が改善されます。
詳細は、仮想マシンで NUMA の設定 および サンプルの vCPU パフォーマンスチューニングシナリオ を参照してください。
13.6.1. コマンドラインインターフェイスを使用した仮想 CPU の追加と削除
仮想マシンの CPU パフォーマンスを増減するには、仮想マシンに割り当てられた仮想 CPU (vCPU) を追加または削除します。
実行中の仮想マシンで実行する場合、これは vCPU ホットプラグおよびホットアンプラグとも呼ばれます。ただし、RHEL 9 では vCPU のホットアンプラグに対応しておらず、Red Hat ではその使用を強く推奨していません。
前提条件
オプション: ターゲット仮想マシン内の vCPU の現在の状態を表示します。たとえば、仮想マシン testguest 上の vCPU の数を表示するには、以下を実行します。
# virsh vcpucount testguest maximum config 4 maximum live 2 current config 2 current live 1
この出力は、testguest が現在 1 vCPU を使用していることを示し、1 つ以上の vCPU をホットプラグして仮想マシンのパフォーマンスを向上できることを示しています。ただし、再起動後に使用される vCPU の testguest 数は 2 に変更され、2 以上の vCPU のホットプラグが可能になります。
手順
仮想マシンに割り当てることができる vCPU の最大数を調整します。これは、仮想マシンの次回起動時に有効になります。
たとえば、仮想マシン testguest の vCPU の最大数を 8 に増やすには、次のコマンドを実行します。
# virsh setvcpus testguest 8 --maximum --config
最大値は、CPU トポロジー、ホストハードウェア、ハイパーバイザー、およびその他の要素によって制限される可能性があることに注意してください。
仮想マシンに割り当てられている現在の vCPU の数を、前の手順で設定した最大値まで調整します。以下に例を示します。
実行中の仮想マシン testguest にアタッチされている vCPU を 4 に増やすには、以下を実行します。
# virsh setvcpus testguest 4 --live
これにより、仮想マシンの次回の起動まで、仮想マシンのパフォーマンスおよび testguest のホスト負荷のフットプリントが高まります。
testguest 仮想マシンにアタッチされている vCPU の数を永続的に 1 に減らすには、次のコマンドを実行します。
# virsh setvcpus testguest 1 --config
これにより、仮想マシンの次回の起動後に、仮想マシンのパフォーマンスおよび testguest のホスト負荷のフットプリントが低下します。ただし、必要に応じて、仮想マシンに追加の vCPU をホットプラグして、一時的にパフォーマンスを向上させることができます。
検証
仮想マシンの vCPU の現在の状態に変更が反映されていることを確認します。
# virsh vcpucount testguest maximum config 8 maximum live 4 current config 1 current live 4
13.6.2. Web コンソールを使用した仮想 CPU の管理
RHEL 9 Web コンソールを使用して、Web コンソールが接続している仮想マシンが使用する仮想 CPU を確認し、設定できます。
前提条件
RHEL 9 Web コンソールがインストールされている。
手順は、Web コンソールのインストールおよび有効化 を参照してください。
- Web コンソールの VM プラグインが システムにインストールされている。
手順
RHEL 9 Web コンソールにログインします。
詳細は、Web コンソールへのログイン を参照してください。
新しいページが開き、選択した仮想マシンに関する基本情報を含む Overview セクションと、仮想マシンのグラフィカルインターフェイスにアクセスするための Console セクションが表示されます。
概要ペインで、vCPU の数の横にある
をクリックします。vCPU の詳細ダイアログが表示されます。
選択した仮想マシンの仮想 CPU を設定します。
vCPU 数: 現在使用中の vCPU の数
注記vCPU 数は、vCPU 最大値以下にする必要があります。
- vCPU 最大値 - 仮想マシンに設定できる仮想 CPU の最大数を入力します。この値が vCPU 数 よりも大きい場合には、vCPU を追加で仮想マシンに割り当てることができます。
- ソケット - 仮想マシンに公開するソケットの数を選択します。
- ソケットごとのコア - 仮想マシンに公開する各ソケットのコア数を選択します。
コアあたりのスレッド - 仮想マシンに公開する各コアのスレッド数を選択します。
Sockets、Cores per socket、および Threads per core オプションは、仮想マシンの CPU トポロジーを調整することに注意してください。これは、vCPU のパフォーマンスにメリットがあり、ゲスト OS の特定のソフトウェアの機能に影響を与える可能性があります。デプロイメントで別の設定が必要ない場合は、デフォルト値のままにします。
仮想マシンに仮想 CPU が設定されます。
注記仮想 CPU 設定の変更は、仮想マシンの再起動後にのみ有効になります。
13.6.3. 仮想マシンでの NUMA の設定
以下の方法は、RHEL 9 ホストで、仮想マシンの Non-Uniform Memory Access (NUMA) 設定の設定に使用できます。
前提条件
ホストが NUMA 対応のマシンである。これを確認するには、
virsh nodeinfo
コマンドを使用して、NUMA cell(2)
の行を確認します。# virsh nodeinfo CPU model: x86_64 CPU(s): 48 CPU frequency: 1200 MHz CPU socket(s): 1 Core(s) per socket: 12 Thread(s) per core: 2 NUMA cell(s): 2 Memory size: 67012964 KiB
行の値が 2 以上であると、そのホストは NUMA に対応しています。
手順
使いやすさのため、自動化ユーティリティーとサービスを使用して、仮想マシンの NUMA を設定できます。ただし、手動で NUMA を設定すると、パフォーマンスが大幅に向上する可能性が高くなります。
自動方式
仮想マシンの NUMA ポリシーを
Preferred
に設定します。たとえば、仮想マシン testguest5 に対してこれを行うには、次のコマンドを実行します。# virt-xml testguest5 --edit --vcpus placement=auto # virt-xml testguest5 --edit --numatune mode=preferred
ホストで NUMA の自動負荷分散を有効にします。
# echo 1 > /proc/sys/kernel/numa_balancing
umad
サービスを起動して、メモリーリソースで仮想マシンの CPU を自動的に調整します。# systemctl start numad
手動方式
特定ホストの CPU、またはある範囲の CPU に特定の vCPU スレッドをピニングします。これは、NUMA 以外のホストおよび仮想マシンでも可能で、vCPU のパフォーマンスを向上させる安全な方法として推奨されています。
たとえば、次のコマンドでは、仮想マシン testguest6 の vCPU スレッドの 0 から 5 を、ホストの CPU 1、3、5、7、9、11 にそれぞれピニングします。
# virsh vcpupin testguest6 0 1 # virsh vcpupin testguest6 1 3 # virsh vcpupin testguest6 2 5 # virsh vcpupin testguest6 3 7 # virsh vcpupin testguest6 4 9 # virsh vcpupin testguest6 5 11
その後、これが成功したかどうかを確認できます。
# virsh vcpupin testguest6 VCPU CPU Affinity ---------------------- 0 1 1 3 2 5 3 7 4 9 5 11
vCPU スレッドのピニング後に、指定の仮想マシンに関連付けられた QEMU プロセススレッドを、特定ホスト CPU、またはある範囲の CPU に固定することもできます。たとえば、以下のコマンドは、testguest6 の QEMU プロセススレッドを CPU 13 および 15 にピニングし、これが成功したことを確認します。
# virsh emulatorpin testguest6 13,15 # virsh emulatorpin testguest6 emulator: CPU Affinity ---------------------------------- *: 13,15
これで、特定の仮想マシンに対して割り当てられるホストの NUMA ノードを指定することができます。これにより、仮想マシンの vCPU によるホストメモリーの使用率が向上します。たとえば、次のコマンドでは、ホスト NUMA ノード 3 ~ 5 を使用するように testguest6 を設定し、これが成功したかどうかを確認します。
# virsh numatune testguest6 --nodeset 3-5 # virsh numatune testguest6
最善のパフォーマンス結果を得るためにも、上記の手動によるチューニングメソッドをすべて使用することが推奨されます。
関連情報
- vCPU のパフォーマンスチューニングシナリオ例
-
View the current NUMA configuration of your system using the
numastat
utility
13.6.4. vCPU のパフォーマンスチューニングシナリオ例
最適な vCPU パフォーマンスを得るためにも、たとえば以下のシナリオのように、手動で vcpupin
、emulatorpin
、および numatune
設定をまとめて使用することが推奨されます。
開始シナリオ
ホストには以下のハードウェア仕様があります。
- 2 つの NUMA ノード
- 各ノードにある 3 つの CPU コア
- 各コアにある 2 スレッド
このようなマシンの
virsh nodeinfo
の出力は以下のようになります。# virsh nodeinfo CPU model: x86_64 CPU(s): 12 CPU frequency: 3661 MHz CPU socket(s): 2 Core(s) per socket: 3 Thread(s) per core: 2 NUMA cell(s): 2 Memory size: 31248692 KiB
既存の仮想マシンを変更して、8 つの vCPU を使用できるようにします。これは、1 つの NUMA ノードに収まらないことを意味します。
したがって、各 NUMA ノードに 4 つの vCPU を分散し、vCPU トポロジーをホストトポロジーに可能な限り近づけるようにする必要があります。つまり、指定の物理 CPU のシブリングスレッドとして実行される vCPU は、同じコア上のホストスレッドに固定 (ピニング) される必要があります。詳細は、以下の ソリューション を参照してください。
解決方法
ホストトポロジーに関する情報を取得します。
# virsh capabilities
この出力には、以下のようなセクションが含まれます。
<topology> <cells num="2"> <cell id="0"> <memory unit="KiB">15624346</memory> <pages unit="KiB" size="4">3906086</pages> <pages unit="KiB" size="2048">0</pages> <pages unit="KiB" size="1048576">0</pages> <distances> <sibling id="0" value="10" /> <sibling id="1" value="21" /> </distances> <cpus num="6"> <cpu id="0" socket_id="0" core_id="0" siblings="0,3" /> <cpu id="1" socket_id="0" core_id="1" siblings="1,4" /> <cpu id="2" socket_id="0" core_id="2" siblings="2,5" /> <cpu id="3" socket_id="0" core_id="0" siblings="0,3" /> <cpu id="4" socket_id="0" core_id="1" siblings="1,4" /> <cpu id="5" socket_id="0" core_id="2" siblings="2,5" /> </cpus> </cell> <cell id="1"> <memory unit="KiB">15624346</memory> <pages unit="KiB" size="4">3906086</pages> <pages unit="KiB" size="2048">0</pages>