9.17.19. 仮想マシンの NUMA トポロジーの使用


マルチプロセッサーシステムにおけるレイテンシーを低減するために、非均一メモリーアクセス (NUMA) アーキテクチャーでは、CPU がリモートメモリーよりも高速にローカルメモリーにアクセスできるようになります。この設計では、プロセッサーに物理的に近いメモリーリソースを優先することで、パフォーマンスを最適化しています。

複数のメモリーコントローラーを備えた CPU は、メモリーが配置されている場所に関係なく、CPU コンプレックス全体で使用可能なメモリーをすべて使用できます。ただし、このように柔軟性が向上したことで、パフォーマンスが犠牲になっています。

NUMA リソーストポロジー とは、NUMA ゾーン 内の CPU、メモリー、および PCI デバイスの相互の相対的な物理的位置関係を指します。NUMA アーキテクチャーでは、NUMA ゾーンは独自のプロセッサーとメモリーを持つ CPU のグループです。同じ場所に配置されたリソースは同一の NUMA ゾーンにあるとされ、ゾーン内の CPU は、そのゾーン外の CPU よりも、そのゾーンのローカルメモリーへ高速にアクセスできます。

NUMA ゾーン外のメモリーを使用してワークロードを処理する CPU は、単一の NUMA ゾーンで処理されるワークロードよりも遅くなります。I/O に制約のあるワークロードの場合、離れた NUMA ゾーンのネットワークインターフェイスにより、情報がアプリケーションに到達する速度が低下します。

アプリケーションは、データと処理を同じ NUMA ゾーン内に含めることで、より優れたパフォーマンスを実現できます。通信ワークロードなどの高パフォーマンスのワークロードとアプリケーションの場合、ワークロードが仕様どおりに動作できるように、クラスターは単一の NUMA ゾーンで Pod ワークロードを処理する必要があります。

9.17.19.1. OpenShift Virtualization での NUMA トポロジーの使用

複数の NUMA ゾーンを持つノードでパフォーマンスのデグレードを防ぐには、OpenShift Virtualization 仮想マシンの NUMA 機能を有効にする必要があります。この機能は、ハイパフォーマンスワークロードやレイテンシーの影響を受けやすいワークロードにとって不可欠です。

NUMA を認識していない状態では、仮想マシンの仮想 CPU が、ある物理 NUMA ゾーンで実行されていても、仮想マシンのメモリーが、別の NUMA ゾーンに割り当てられてしまう可能性があります。この "ノード間" 通信により、レイテンシーが大幅に増加し、メモリー帯域幅が減少し、NUMA ゾーンをリンクする相互接続バスがボトルネックになる可能性があります。

OpenShift Virtualization 仮想マシンの NUMA 機能を有効にすると、ホストが物理トポロジーを仮想マシンのゲストオペレーティングシステム (OS) に直接渡すことができるようになります。ゲスト OS は、スケジューリングとメモリー割り当てに関して、NUMA を考慮したインテリジェントな決定を下せるようになります。これにより、プロセススレッドとメモリーが同じ物理 NUMA ノード上に保持されるようになります。仮想トポロジーを物理トポロジーと一致させることで、レイテンシーを最小限に抑え、パフォーマンスを最大化できます。

Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

Red Hat ドキュメントについて

Legal Notice

Theme

© 2026 Red Hat
トップに戻る