検索

管理ガイド

download PDF
Red Hat Enterprise Virtualization 3.6

Red Hat Enterprise Virtualization の管理タスク

Red Hat Enterprise Virtualization Documentation Team

Red Hat Customer Content Services

概要

本ガイドには、Red Hat Enterprise Virtualization の管理者に役立つ情報と手順を記載しています。

第1章 Red Hat Enterprise Virtualization 環境の管理とメンテナンス

Red Hat Enterprise Virtualization 環境を継続的に稼働させるには管理者が必要です。管理者のタスクには、以下が含まれます。
  • ホストや仮想マシンなどの物理/仮想リソースの管理。これには、ホストのアップグレードや追加、ドメインのインポート、異種のハイパーバイザーで作成された仮想マシンの変換、仮想マシンプールのメンテナンスなどが含まれます。
  • 1 台のホストに対する過度の負荷やメモリー/ディスク容量の不足などの潜在的な問題を特定するためのシステムリソース全体のモニタリングと必要措置の実施 (例: 仮想マシンを別のホストに移行して負荷を軽減したり、マシンをシャットダウンしてリソースを解放したりするなど) 。
  • 仮想マシンの新規要件への対応 (例: オペレーティングシステムのアップグレード、追加メモリー割り当てなど)。
  • タグを使用してカスタマイズしたオブジェクトプロパティーの管理
  • 公開ブックマークとして保存した検索の管理
  • ユーザー設定の管理やパーミッションレベルの設定
  • 特定のユーザー、仮想マシン、またはシステム全体の機能のトラブルシューティング
  • 一般レポートおよび明細レポートの生成

1.1. グローバル設定

管理ポータルのヘッダーバーから 設定 ボタンをクリックしてウィンドウを開くと、ユーザー、ロール、システム権限、スケジューリングポリシー、インスタンスタイプ、MAC アドレスプールなどの Red Hat Enterprise Virtualization 環境のさまざまなグローバルリソースを設定することができます。このウィンドウで、ユーザーが環境内のリソースと対話する方法をカスタマイズすることが可能です。また、複数のクラスターに適用できるオプションを一元的に設定する場所が提供されます。
Accessing the Configure window

図1.1 設定ウィンドウへのアクセス

1.1.1. ロール

ロールとは、Red Hat Enterprise Virtualization Manager から設定することが可能な、事前定義済みの権限セットです。ロールは、データセンター内の異なるレベルのリソース、特定の物理/仮想リソースに対するアクセスと管理のパーミッションを提供します。
マルチレベルの管理では、コンテナーオブジェクトに適用されるパーミッションは、そのコンテナー内の個々のオブジェクトすべてに適用されます。たとえば、特定のホストを対象とするホスト管理者ロールがユーザーに割り当てられると、そのユーザーには、割り当てられたホストのみに対して、使用できるすべてのホスト操作を実行するパーミッションが付与されます。一方、データセンターを対象とするホスト管理者ロールが割り当てられると、そのユーザーには、データセンターのクラスター内の全ホストに対してホスト操作を実行するパーミッションが付与されます。
1.1.1.1. 新規ロールの作成
必要とするロールが Red Hat Enterprise Virtualization のデフォルトロール一覧にない場合には、新規ロールを作成し、目的に応じてカスタマイズすることができます。

手順1.1 新規ロールの作成

  1. ヘッダーバーで 設定 ボタンをクリックすると 設定 ウィンドウが開きます。このウィンドウには、デフォルトのユーザー/管理者ロールとカスタムロールの一覧が表示されます
  2. 新規作成 をクリックすると 新規ロール のウィンドウが開きます。
    新規ロールのウィンドウ

    図1.2 新規ロールのウィンドウ

  3. 新規ロールの 名前説明 を入力します。
  4. アカウントタイプ管理者 または ユーザー のいずれかを選択します。
  5. 操作を許可するチェックボックス の一覧に表示されているオブジェクトに対するパーミッションは、すべてを展開 または すべてを折りたたむ ボタンを使用して表示を展開または折りたたむことができます。また、オブジェクト別にオプションを展開または折りたたむことも可能です。
  6. オブジェクト別に、設定中のロールで許可するアクションにはチェックを入れ、許可しないアクションからはチェックを外します。
  7. OK をクリックして、変更を適用します。ロールの一覧に新規ロールが表示されます。
1.1.1.2. ロールの編集とコピー
自分で作成したロールの設定は変更することができますが、デフォルトのロールは変更できません。デフォルトのロールを変更するには、そのデフォルトのロールをコピーしてから、コピーしたロールを要件に応じて変更してください。

手順1.2 ロールの編集とコピー

  1. ヘッダーバーで 設定 ボタンをクリックすると 設定 ウィンドウが開きます。このウィンドウには、デフォルトのユーザー/管理者ロールとカスタムロールの一覧が表示されます
  2. 変更するロールを選択し、編集 をクリックすると ロールの編集 ウィンドウが開きます。また、コピー をクリックすると、ロールのコピー ウィンドウが開きます。
  3. 必要な場合には、ロールの 名前説明 を編集します。
  4. 一覧表示されているオブジェクトに対するパーミッションは、すべてを展開 または すべてを折りたたむ のボタンを使用して表示を展開または折り畳むことができます。また、オブジェクト別にオプションを展開または折り畳むことも可能です。
  5. オブジェクト別に、編集中のロールで許可するアクションにはチェックを入れ、許可しないアクションからはチェックを外します。
  6. OK をクリックして、変更を適用します。
1.1.1.3. ユーザーロールと認証の例
以下の例では、本章で説明する認証システムの多様な機能を使用して、さまざまなシナリオで認証管理を適用する方法について説明します。

例1.1 クラスターのパーミッション

Sarah は、ある企業の経理部門のシステム管理者です。この部門の全仮想リソースは、Accounts という名前の Red Hat Enterprise Virtualization クラスターにまとめられています。Sarah は、このクラスターの ClusterAdmin ロールを割り当てられました。仮想マシンはクラスターの子オブジェクトであるため、クラスター内の全仮想マシンを管理できるようになります。仮想マシンの管理には、ディスクなどの仮想リソースの編集/追加/削除や、スナップショットの作成などが含まれますが、このクラスター外のリソースは一切管理できません。ClusterAdmin は管理者ロールなので、管理ポータルを使用してこれらのリソースを管理できますが、ユーザーポータルを介したアクセスは一切提供されません。

例1.2 VM PowerUser のパーミッション

John は経理部門のソフトウェア開発者です。仮想マシンを使用してソフトウェアの構築やテストを行います。Sarah は John に johndesktop という仮想デスクトップを作成しました。John には、johndesktop 仮想マシンに対する UserVmManager ロールが割り当てられました。これによって、John は、ユーザーポータルを使用してこの 1 台の仮想マシンにアクセスすることができます。UserVmManager のパーミッションがあるので、仮想マシンの設定を変更したり、新規仮想ディスクなどのリソースを追加したりすることができます。UserVmManager はユーザーロールであるため、管理ポータルは使用できません。

例1.3 データセンターパワーユーザーロールのパーミッション

Penelope はオフィスマネージャーです。自分の責務以外に、人事部マネージャーの人事関連の業務を手伝って、面接の日取りを決めたり、身元照会の追跡調査を行ったりすることもあります。Penelope がこのような人事関連の業務を行う際には、会社の方針に従って、特定のアプリケーションを使用する必要があります。
Penelope にはオフィス管理業務用に自分のマシンがありますが、人事関連のアプリケーションを実行するためにもう 1 台別のマシンを必要としています。Penelope には、新たに提供されるマシンが属するデータセンターに対する PowerUserRole パーミッションが割り当てられました。新規仮想マシンを作成する際には、ストレージドメイン内での仮想マシンディスクイメージ作成など、そのデータセンター内のいくつかのコンポーネントに変更を加える必要があるためです。
これは、DataCenterAdmin の権限を Penelope に割り当てるのとは異なる点に注意してください。Penelope はデータセンターの PowerUser としてユーザーポータルにログインし、そのデータセンター内の仮想マシンに対して仮想マシン固有のアクションを実行することができますが、データセンターへのホストやストレージのアタッチなど、データセンターレベルの操作は実行できません。

例1.4 ネットワーク管理者のパーミッション

Chris は IT 部門のネットワーク管理者として勤めています。日常業務には、その IT 部門の Red Hat Enterprise Virtualization 環境内にあるネットワークの作成/操作/削除などが含まれます。Chris の役割には、リソースおよび各リソースのネットワークに対する管理者の権限が必要です。たとえば、IT 部門のデータセンターに対する NetworkAdmin の権限があると、そのデータセンター内でのネットワークの追加/削除や、そのデータセンターに属する全仮想マシン用のネットワークのアタッチ/デタッチが可能です。
Chris は、この会社の仮想インフラストラクチャーのネットワークの管理に加えて、下級ネットワーク管理者の部下を一人監督しています。部下は、Pat という名前で、同社の社内研修部門用の小規模な仮想化環境を管理しています。Chris は、社内研修部門で使用する仮想マシンに対する VnicProfileUser パーミッションと UserVmManager パーミッションを Pat に付与しました。Pat はこれらのパーミッションを使用して、ユーザーポータル の 拡張 タブで、仮想マシンへのネットワークインターフェース追加など、簡単な管理タスクを実行することができますが、仮想マシンを実行しているホストのネットワークや、仮想マシンが属するデータセンターのネットワークを変更するパーミッションはありません。

例1.5 カスタムロールのパーミッション

Rachel は、IT 部門に勤めており、Red Hat Enterprise Virtualization 内のユーザーアカウントを管理する責務を担っています。Rachel には、ユーザーアカウントを追加して、適切なロールとパーミッションを割り当てるためのパーミッションが必要です。自分では仮想マシンは使用しておらず、ホスト、仮想マシン、クラスター、データセンターの管理アクセスは必要はありません。このような特定のパーミッションセットを提供する既成のロールはありません。Rachel の立場に適したパーミッションセットを定義するには、カスタムロールを作成する必要があります。
UserManager のカスタムロール

図1.3 UserManager のカスタムロール

上記に示した UserManager カスタムロールでは、ユーザー、パーミッション、ロールの操作ができます。 これらの操作は、図1.3「UserManager のカスタムロール」 に示した階層の最上位のオブジェクトである システム 下にまとめられており、システム内のその他すべてのオブジェクトに適用されることになります。ロールには、管理者アカウントタイプ が指定されています。これにより、Rachel がこのロールを割り当てられると、管理ポータルは使用できますが、ユーザーポータルは使用できないことになります。

1.1.2. システムパーミッション

パーミッションによりユーザーは、オブジェクトに対するアクションを行うことができます。アクションの対象となるオブジェクトは、個別のオブジェクトもしくはコンテナーオブジェクトです。
パーミッッション & ロール

図1.4 パーミッッション & ロール

コンテナーオブジェクトに適用されるパーミッションは、そのコンテナーの全メンバーに対しても適用されます。以下の図は、システム内のオブジェクトの階層を示しています。
Red Hat Enterprise Virtualization のオブジェクト階層

図1.5 Red Hat Enterprise Virtualization のオブジェクト階層

1.1.2.1. ユーザーのプロパティー
ロールとパーミッションは、ユーザーのプロパティーです。ロールは、さまざまなレベルの物理/仮想リソースへアクセスを可能にする事前定義された一連の権限です。マルチレベルの管理により、粒度の高いパーミッション階層が提供されます。たとえば、データセンター管理者には、データセンター内の全オブジェクトを管理するパーミッションがある一方、ホスト管理者には、単一の物理ホストに対するシステム管理者のパーミッションがあります。また、あるユーザーには、仮想マシンを使用することができるが、その仮想マシンの設定変更はできないパーミッションを割り当てることができる一方、別のユーザーには仮想マシンのシステムパーミッションを割り当てることができます。
1.1.2.2. ユーザーロールと管理者ロール
Red Hat Enterprise Virtualization は、システム全体のパーミッションを持つ管理者から単一の仮想マシンへのアクセス権限を持つエンドユーザーまで、さまざまな事前設定済みロールを提供しています。デフォルトのロールは、変更/削除することはできませんが、必要に応じてクローン作成、カスタマイズ、または新規作成することができます。ロールには 2 つのタイプがあります。
  • 管理者ロール: 管理ポータル を使用して物理/仮想リソースを管理できます。管理者ロールにより、ユーザーポータルで操作を行うためのパーミッションも付与されますが、このパーミッションは、ユーザーポータルでユーザーに何が表示されるかとは関係ありません。
  • ユーザーロール: ユーザーポータル を使用して仮想マシンやテンプレートの管理とアクセスができます。ユーザーロールにより、ユーザーポータルでそのユーザーに表示される項目が決定します。管理者ロールが設定されたユーザーに付与されるパーミッションは、ユーザーポータルでそのユーザーが行うことができる操作に反映されます。
たとえば、クラスターの administrator ロールが割り当てられている場合は、管理ポータル を使用してクラスター内の仮想マシンを管理することができますが、ユーザーポータル 内の仮想マシンには一切アクセスすることはできません。そのためには、user ロールが必要です。
1.1.2.3. ユーザーロール
以下の表には、ユーザーポータルで仮想マシンへのアクセスと設定を行うためのパーミッションを付与する基本的なユーザーロールについての説明をまとめています。
表1.1 Red Hat Enterprise Virtualization ユーザーロール (基本)
ロール特権備考
UserRole仮想マシンとプールにアクセスして使用することができます。ユーザーポータルにログインし、割り当てられた仮想マシンとプールを使用したり、仮想マシンのステータスや詳細情報を確認したりすることができます。
PowerUserRole仮想マシンとテンプレートの作成および管理ができます。このロールをユーザーに適用するには、設定 ウィンドウを使用して環境全体で設定するか、特定のデータセンターまたはクラスターで設定します。たとえば、PowerUserRole がデータセンターレベルで適用されると、PowerUser はそのデータセンター内で仮想マシンおよびテンプレートの作成ができます。
UserVmManager仮想マシンのシステム管理者仮想マシンの管理およびスナップショットの作成と使用ができます。ユーザーポータル内で仮想マシンを作成したユーザーには、そのマシンに対する UserVmManager ロールが自動的に割り当てられます。
以下の表には、上級のユーザーロールについての説明をまとめています。このロールが割り当てられると、ユーザーポータルでリソースに対するパーミッションを細かく設定することができます。
表1.2 Red Hat Enterprise Virtualization ユーザーロール (上級)
ロール特権備考
UserTemplateBasedVmテンプレートのみを使用できる制限付き権限テンプレートを使用して仮想マシンを作成することができます。
DiskOperator仮想ディスクのユーザー仮想ディスクの使用/表示/編集ができます。仮想ディスクがアタッチされた仮想マシンを使用するパーミッションは継承されます。
VmCreatorユーザーポータルで仮想マシンを作成することができます。このロールは特定の仮想マシンに適用するのではなく、設定 ウィンドウから全環境でユーザーに適用するか、特定のデータセンターまたはクラスターに適用します。クラスターにこのロールを適用する場合は、データセンター全体、または特定のストレージドメインに対して DiskCreator ロールも適用する必要があります。
TemplateCreator割り当てられたリソース内で仮想マシンのテンプレートの作成/編集/管理/削除ができます。このロールは個別のテンプレートに適用されません。設定 ウィンドウを使用して、環境全体でこのロールをユーザーに適用します。または、特定のデータセンター、クラスター、ストレージドメインでこのロールを適用します。
DiskCreator割り当てられたクラスターまたはデータセンター内で仮想マシンディスクの作成/編集/管理/削除ができます。このロールは個別の仮想ディスクに適用されません。環境全体でこのロールをユーザーに適用するには 設定 ウィンドウを使用します。または、特定のデータセンター/ストレージドメインを対象にこのロールを適用します。
TemplateOwnerテンプレートの編集や削除、またテンプレートのユーザーパーミッションの割り当てや管理ができます。このロールは、テンプレートを作成したユーザーに自動的に割り当てられます。テンプレートに対する TemplateOwner パーミッションのないその他のユーザーは、そのテンプレートを表示または使用することはできません。
VnicProfileUser仮想マシンおよびテンプレートの論理ネットワークおよびネットワークインターフェースのユーザー特定の論理ネットワークにネットワークインターフェースをアタッチ/デタッチできます。
1.1.2.4. 管理者ロール
以下の表には、管理ポータルでリソースにアクセスして設定を行うためのパーミッションを付与する基本的な管理者ロールについての説明をまとめています。
表1.3 Red Hat Enterprise Virtualization のシステム管理者ロール (基本)
ロール権限備考
SuperUserRed Hat Enterprise Virtualization 環境のシステム管理者すべてのオブジェクトおよびレベルに対する完全なパーミッションがあり、全データセンターの全オブジェクトを管理できます。
ClusterAdminクラスターの管理者特定のクラスター下の全オブジェクトに対する管理者パーミッションがあります。
DataCenterAdminデータセンターの管理者ストレージを除く特定のデータセンター下の全オブジェクトに対する管理者パーミッションがあります。

重要

ディレクトリーサーバーの管理ユーザーは Red Hat Enterprise Virtualization の管理ユーザーとしては使用せずに、Red Hat Enterprise Virtualization の管理ユーザーとして専用に使用するユーザーを作成してください。
以下の表には、上級管理者ロールについての説明をまとめています。このロールが割り当てられると、管理ポータルでリソースに対するパーミッションを細かく設定することができます。
表1.4 Red Hat Enterprise Virtualization のシステム管理者ロール (上級)
ロール権限備考
TemplateAdmin仮想マシンテンプレートの管理者ストレージドメインやテンプレートのネットワーク詳細の作成/削除/設定やドメイン間のテンプレートの移動ができます。
StorageAdminストレージの管理者割り当て済みのストレージドメインを作成/削除/設定/管理できます。
HostAdminホストの管理者特定のホストをアタッチ/削除/設定/管理できます。
NetworkAdminネットワークの管理者特定のデータセンターまたはクラスターのネットワークの設定と管理ができます。データセンターまたはクラスターのネットワーク管理者は、クラスター内の仮想プールに対するネットワークパーミッションも継承します。
VmPoolAdmin仮想プールのシステム管理者仮想プールの作成/削除/設定、仮想プールユーザーの割り当て/削除、およびプール内の仮想マシンに対する基本操作ができます。
GlusterAdminGluster ストレージ管理者Gluster ストレージボリュームを作成、削除、設定、管理することができます。
VmImporterExporter仮想マシンのインポート/エクスポートに関する管理者仮想マシンのインポートとエクスポートを実行することが可能です。また、他のユーザーによってエクスポートされた仮想マシンとテンプレートをすべて表示することができます。

1.1.3. スケジューリングポリシー

スケジューリングポリシーとは、そのスケジューリングポリシーが適用されるクラスター内のホスト間で仮想マシンを分散するロジックを定義する一式のルールです。スケジューリングポリシーは、フィルター、加重値、負荷分散ポリシーを組み合わせてこのロジックを決定します。Red Hat Enterprise Virtualization Manager はデフォルトで Evenly_DistributedInClusterUpgradeNonePower_Saving、および VM_Evenly_Distributed の 5 つのポリシーを提供しますが、仮想マシンの分散に対するより粒度の高いコントロールを提供する新しいスケジューリングポリシーを定義することもできます。
1.1.3.1. スケジューリングポリシーの作成
新規スケジューリングポリシーを作成して、Red Hat Enterprise Virtualization 環境内の特定のクラスターで仮想マシンを分散するロジックを制御することができます。

手順1.3 スケジューリングポリシーの作成

  1. 管理ポータルのヘッダーバーで 設定 ボタンをクリックして 設定 ウィンドウを開きます。
  2. スケジューリングポリシー をクリックしてスケジューリングポリシーのタブを表示します。
  3. 新規作成 をクリックして 新規スケジューリングポリシー ウィンドウを開きます。
    The New Scheduling Policy Window

    図1.6 新規スケジューリングポリシーウィンドウ

  4. スケジューリングポリシーの 名前説明 を入力します。
  5. フィルターモジュールを設定します。
    1. フィルターモジュール セクションで、スケジューリングポリシーに適用する対象のフィルターモジュールを 無効なフィルター セクションから 有効なフィルター セクションにドラッグ&ドロップします。
    2. 特定のフィルターモジュールを 最初 に設定して優先順位を最も高くすることや、最後 に設定して優先順位を最も低くして基本的な最適化を行うことも可能です。
      優先順位を設定するには、任意のフィルターモジュールを右クリックし、カーソルで 位置 をポイントして 最初 または 最後 を選択します。
  6. 加重値モジュールを設定します。
    1. 加重値モジュール セクションで、スケジューリングポリシーに適用する対象の加重値モジュールを 無効な加重値 セクションから 有効な加重値と係数 セクションにドラッグ&ドロップします。
    2. 有効な加重値と係数の左側にある + または - ボタンを使用して、それらのモジュールの加重値を増減します。
  7. 負荷分散ポリシーを指定します。
    1. ロードバランサー セクションのドロップダウンメニューで、スケジューリングポリシーに適用する負荷分散ポリシーを選択します。
    2. プロパティー セクションのドロップダウンメニューで、スケジューリングポリシーに適用する負荷分散のプロパティーを選択し、そのプロパティーの右側にあるテキストフィールドに値を指定します。
    3. + または - ボタンを使用して、プロパティーを追加/削除します。
  8. OK をクリックします。
1.1.3.2. 新規スケジューリングポリシーおよびスケジューリングポリシーの編集ウィンドウの設定
以下の表には、新規スケジューリングポリシースケジューリングポリシーの編集 のウィンドウで使用できるオプションについての説明をまとめています。
表1.5 新規スケジューリングポリシーおよびスケジューリングポリシーの設定
フィールド名
説明
名前
スケジューリングポリシーの名前。ここで指定した名前は、Red Hat Enterprise Virtualization Manager でスケジューリングポリシーを参照するのに使用されます。
説明
スケジューリングポリシーの説明。このフィールドへの入力は推奨されますが、必須ではありません。
フィルターモジュール
クラスター内の仮想マシンを実行することのできるホストを制御するためのフィルターのセット。フィルターを有効にすると、そのフィルターにより指定されている以下のような条件を満たさないホストは除外されます。
  • CpuPinning: CPU ピニングの定義を満たさないホスト
  • Migration: 同じホストへのマイグレーションを防ぎます。
  • PinToHost: 仮想マシンが固定されているホスト以外のホスト
  • CPU-Level: 仮想マシンの CPU トポロジーに対応しないホスト
  • CPU: 仮想マシンに割り当てられているよりも CPU 数が少ないホスト
  • Memory: 仮想マシンを実行するのに十分なメモリーがないホスト
  • VmAffinityGroups: アフィニティーグループのメンバーとなっている仮想マシンに指定された条件を満たさないホスト。たとえば、1 つのアフィニティーグループ内の仮想マシンは、同じホストまたは別のホストで実行されるように指定されます。
  • InClusterUpgrade: 仮想マシンを実行しているホストよりも古いバージョンのオペレーティングシステムを使用しているホスト
  • HostDevice: 仮想マシンが必要とするホストデバイスをサポートしていないホスト
  • HA: ホストエンジンの仮想マシンが、高可用性スコアがポジティブのホストのみで実行されるように強制します。
  • Emulated-Machine: エミュレーションする仮想マシンタイプを正式にサポートしていないホスト
  • Network: 仮想マシンのネットワークインターフェースコントローラーが必要とするネットワークがインストールされていないホスト、またはクラスターのディスプレイネットワークがインストールされていないホスト。
加重値モジュール
仮想マシンを実行することのできるクラスター内のホストを決定する際に考慮される要素の相対的な優先順位を制御するための加重値
  • InClusterUpgrade: オペレーティングシステムのバージョンに応じてホストを重み付けします。重み付けにより、仮想マシンを実行しているホストよりも古いバージョンのオペレーティングシステムを使用しているホストには、同じバージョンのオペレーティングシステムを使用しているホストよりも大きなペナルティーが科されます。したがって、より新しいバージョンのオペレーティングシステムを使用しているホストが優先されます。
  • OptimalForHaReservation: 高可用性スコアに応じてホストに加重します。
  • None: 負荷均等配分のモジュールに応じてホストに加重します。
  • OptimalForEvenGuestDistribution: ホスト上で実行されている仮想マシンの数に応じてホストに加重します。
  • VmAffinityGroups: 仮想マシンに定義されているアフィニティーグループに応じてホストに加重します。この加重値モジュールは、アフィニティーグループのパラメーターに応じて、アフィニティーグループ内の仮想マシンが同じホストまたは異なるホストで実行される可能性を決定します。
  • OptimalForPowerSaving: CPU 使用率に応じてホストに加重し、CPU 使用率の高いホストを優先します。
  • OptimalForEvenDistribution: CPU 使用率に応じてホストに加重し、CPU 使用率の低いホストを優先します。
  • HA: 高可用性スコアに応じてホストに加重します。
ロードバランサー
このドロップダウンメニューにより、適用する負荷分散モジュールを選択することができます。負荷分散モジュールは、高使用率から低使用率のホストへの仮想マシン移行に使用されるロジックを決定します。
プロパティー
このドロップダウンメニューでは、負荷分散モジュールのプロパティーを追加/削除することができます。このメニューは、スケジューリングポリシーで負荷分散モジュールを選択した場合にのみに利用できます。デフォルトではプロパティーは定義されず、提供されるプロパティーは選択した負荷分散モジュール固有です。+ または - ボタンを使用して負荷分散モジュールにプロパティーを追加/削除します。

1.1.4. インスタンスのタイプ

インスタンスタイプは、仮想マシンのハードウェア設定を定義するのに使用することができます。仮想マシンの作成/編集時にインスタンスタイプを選択すると、ハードウェア設定のフィールドが自動的に設定されます。これにより、ユーザーは手動で全フィールドを設定する必要なく、同じハードウェア設定の仮想マシンを複数作成することができます。
以下の表には、デフォルトで提供されている事前定義済みのインスタンスタイプをまとめています。
表1.6 事前定義済みのインスタンスタイプ
名前
メモリー
VCPU
Tiny
512 MB
1
Small
2 GB
1
Medium
4 GB
2
Large
8 GB
2
XLarge
16 GB
4
管理者は、設定 ウィンドウの インスタンスタイプ のタブでインスタンスタイプの作成、編集、削除を行うこともできます。
インスタンスタイプのタブ

図1.7 インスタンスタイプのタブ

Fields in the New Virtual Machine and Edit Virtual Machine windows that are bound to an instance type will have a chain link image next to them ( ). If the value of one of these fields is changed, the virtual machine will be detached from the instance type, changing to Custom, and the chain will appear broken ( ). However, if the value is changed back, the chain will relink and the instance type will move back to the selected one.
1.1.4.1. インスタンスタイプの作成
管理者は、仮想マシンの作成または編集時にユーザーが選択できるように、新しいインスタンスタイプを作成することができます。

手順1.4 インスタンスタイプの作成

  1. ヘッダーバーで 設定 をクリックします。
  2. インスタンスタイプ タブを開きます。
  3. 新規 をクリックして、新規インスタンスタイプ ウィンドウを開きます。
    新規インスタンスタイプのウィンドウ

    図1.8 新規インスタンスタイプのウィンドウ

  4. インスタンスタイプの 名前説明 を入力します。
  5. 詳細オプションを表示 をクリックし、必要に応じて、インスタンスタイプの項目を設定します。新規インスタンスタイプ ウィンドウに表示される設定項目は、新規仮想マシン ウィンドウの設定項目と同じですが、関連するフィールドのみが表示されます。『仮想マシン管理ガイド』の「新規仮想マシンおよび仮想マシンの編集ウィンドウの設定」のセクションを参照してください。
  6. OK をクリックします。
新規インスタンスタイプが 設定 ウィンドウの インスタンスタイプ タブに表示され、仮想マシンの作成/編集時に インスタンスタイプ のドロップダウンリストから選択することができるようになりました。
1.1.4.2. インスタンスタイプの編集
管理者は、設定 ウィンドウで既存のインスタンスタイプを編集することができます。

手順1.5 インスタンスタイプのプロパティーの編集

  1. ヘッダーバーで 設定 をクリックします。
  2. インスタンスタイプ タブをクリックします。
  3. 編集するインスタンスタイプを選択します。
  4. 編集 をクリックして インスタンスタイプの編集 ウィンドウを開きます。
  5. 必要に応じて設定を変更します。
  6. OK をクリックします。
インスタンスタイプの設定が更新されます。このインスタンスタイプをベースとする新規仮想マシンと再起動された既存の仮想マシンが新規設定を使用するようになります。
1.1.4.3. インスタンスタイプの削除

手順1.6 インスタンスタイプの削除

  1. ヘッダーバーで 設定 をクリックします。
  2. インスタンスタイプ タブをクリックします。
  3. 削除するインスタンスタイプを選択します。
  4. 削除 をクリックして インスタンスタイプの削除 ウィンドウを開きます。
  5. いずれかの仮想マシンが削除するインスタンスタイプをベースとしている場合には、アタッチされている仮想マシンが一覧表示された警告のウィンドウが表示されます。このインスタンスタイプの削除を続行するには、操作を承認 のチェックボックスを選択して OK をクリックします。続行しない場合には キャンセル をクリックします。
  6. OK をクリックします。
インスタンスタイプ の一覧から対象のインスタンスタイプが削除され、新規仮想マシンの作成時には表示されなくなりました。削除したインスタンスタイプにアタッチされていた仮想マシンは カスタム (インスタンスタイプなし) にアタッチされます。

1.1.5. MAC アドレスプール

MAC アドレスプールは、MAC アドレスの範囲を定義します。MAC アドレスは、この範囲の中から各データセンターに割り当てられます。MAC アドレスプールは、各データセンターに指定されます。MAC アドレスプールを使用すると、Red Hat Enterprise Virtualization は MAC アドレスを自動的に生成して、新規仮想ネットワークデバイスに割り当てます。これは、MAC アドレスの重複を防ぐのに役立ちます。1 つのデータセンターに関連するすべての MAC アドレスが、割り当て済みの MAC アドレスプールの範囲内にある場合に、MAC アドレスプールのメモリー効率がより高くなります。
同じ MAC アドレスプールを複数のデータセンターで共有することができますが、各データセンターには単一の MAC アドレスプールが割り当てられます。デフォルトの MAC アドレスプールは、Red Hat Enterprise Virtualization によって作成され、他に MAC アドレスプールが割り当てられていない場合に使用されます。データセンターへの MAC アドレスプールの割り当てに関する詳しい情報は、「新しいデータセンターの作成」を参照してください。
MAC アドレスプールは、最後にプールに返されたアドレスの後に利用可能な MAC アドレスを割り当てます。この範囲内にそれ以降のアドレスが残っていない場合には、範囲の開始値から検索を開始します。単一の MAC アドレスプール内で複数の MAC アドレス範囲が定義されている場合には、それらの範囲は交互に使用され、利用可能な MAC アドレスが選択されるのと同じ方法で、受信した要求に対応します。
1.1.5.1. MAC アドレスプールの作成
新規 MAC アドレスプールを作成することができます。

手順1.7 MAC アドレスプールの作成

  1. ヘッダーバーで 設定 ボタンをクリックして 設定 ウィンドウを開きます。
  2. MAC アドレスプール タブをクリックします。
  3. 追加 ボタンをクリックして、MAC アドレスプールの新規作成 ウィンドウを開きます。
    MAC アドレスプールの新規作成ウィンドウ

    図1.9 MAC アドレスプールの新規作成ウィンドウ

  4. 新規作成する MAC アドレスプールの 名前説明 を入力します。
  5. 1 つのプールで同じ MAC アドレスを複数回使用できるようにするには、重複を許可する チェックボックスを選択します。MAC アドレスプールは、重複した MAC アドレスを自動的には使用しませんが、重複のオプションを有効にすると、ユーザーは重複した MAC アドレスを手動で指定することができます。

    注記

    1 つの MAC アドレスプールで重複のオプションを無効にし、別の MAC アドレスプールで重複のオプションを有効にした場合には、重複が無効な MAC アドレスプールでは、各 MAC アドレスを 1 回しか使用できませんが、重複のオプションが有効なプールでは、MAC アドレスを複数回使用することができます。
  6. 必要な MAC アドレス範囲 を指定します。複数の範囲を入力するには、範囲の先頭範囲の末尾 のフィールドの横にあるプラス (+) のボタンをクリックします。
  7. OK をクリックします。
1.1.5.2. MAC アドレスプールの編集
MAC アドレスプールを編集して、プール内で利用可能な MAC アドレスの範囲や、重複を許可するかどうかなどの詳細設定を変更することができます。

手順1.8 MAC アドレスプールのプロパティー

  1. ヘッダーバーで 設定 ボタンをクリックして 設定 ウィンドウを開きます。
  2. MAC アドレスプール タブをクリックします。
  3. 編集する MAC アドレスプールを選択します。
  4. 編集 ボタンをクリックすると、MAC アドレスプールの編集 ウィンドウが開きます。
  5. 必要に応じて、名前説明重複を許可するMAC アドレスの範囲 のフィールドを変更します。

    注記

    MAC アドレス範囲の更新時に、既存の NIC の MAC アドレスは再割り当てされません。割り当て済みの MAC アドレスが、新しい MAC アドレスの範囲外となった場合には、ユーザー指定の MAC アドレスとして追加され、その MAC アドレスプールによって引き続きトラッキングされます。
  6. OK をクリックします。
1.1.5.3. MAC アドレスプールのパーミッションの編集
MAC アドレスプールを作成した後には、そのユーザーパーミッションを設定することができます。ユーザーパーミッションは、その MAC アドレスプールをどのデータセンターで使用することができるかを制御します。新規ユーザーパーミッションの追加については、「ロール」を参照してください。

手順1.9 MAC アドレスプールのパーミッションの編集

  1. ヘッダーバーで 設定 ボタンをクリックして 設定 ウィンドウを開きます。
  2. MAC アドレスプール タブをクリックします。
  3. 対象の MAC アドレスプールを選択します。
  4. MAC アドレスプールのユーザーパーミッションを編集します。
    • MAC アドレスプールにユーザーパーミッションを追加するには、以下の手順を実行します。
      1. 設定 ウィンドウの最下部にあるユーザーパーミッションペインで 追加 をクリックします。
      2. 対象のユーザーを検索して選択します。
      3. 割り当てるロール ドロップダウンリストから必要なロールを選択します。
      4. OK をクリックすると、ユーザーパーミッションが追加されます。
    • MAC アドレスプールからユーザーパーミッションを削除するには、以下の手順を実行します。
      1. 設定 ウィンドウの最下部にあるユーザーパーミッションペインで削除するユーザーパーミッションを選択します。
      2. 削除 をクリックすると、ユーザーパーミッションが削除されます。
1.1.5.4. MAC アドレスプールの削除
デフォルトの MAC アドレスプールは削除できませんが、作成した MAC アドレスプールは削除することができます。

手順1.10 MAC アドレスプールの削除

  1. ヘッダーバーで 設定 ボタンをクリックして 設定 ウィンドウを開きます。
  2. MAC アドレスプール タブをクリックします。
  3. 削除する MAC アドレスプールを選択します。
  4. 削除 ボタンをクリックして、MAC アドレスプールの削除 ウィンドウを開きます。
  5. OK をクリックします。

パート I. リソースの管理

第2章 QoS (Quality of Service)

Red Hat Enterprise Virtualization では、環境内のリソースがアクセス可能な入出力、処理、ネットワークの各機能のレベルに対する粒度の高い制御を提供する QoS エントリーを定義することができます。QoS エントリーはデータセンターレベルで定義され、クラスターおよびストレージドメイン下で作成されるプロファイルに割り当てられます。このプロファイルは、作成元のクラスターおよびストレージドメイン内の個別のリソースに割り当てられます。

2.1. ストレージ QoS

ストレージ QoS は、ストレージドメイン内の仮想ディスクのスループットの最大レベルと、入出力操作の最大レベルを定義します。仮想ディスクにストレージの QoS を割り当てると、ストレージドメインのパフォーマンスが微調整されるとともに、特定の仮想ディスクに伴うストレージの操作により同じストレージドメイン内でホストされる他の仮想ディスクに提供されるストレージ機能に影響が及ばないようにすることができます。

2.1.1. ストレージ QoS エントリーの作成

ストレージ QoS エントリーを作成します。

手順2.1 ストレージ QoS エントリーの作成

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインで QoS タブをクリックします。
  3. ストレージ をクリックします。
  4. 新規作成 をクリックします。
  5. QoS 名 のフィールドに QoS エントリーの名前を入力します。
  6. 説明 フィールドに QoS エントリーの説明を入力します。
  7. スループットの QoS を指定します。
    1. スループット のチェックボックスを選択します。
    2. 合計 のフィールドに総スループットの最大許容値を入力します。
    3. 読み取り フィールドに読み取り操作の最大許容スループットを入力します。
    4. 書き込み フィールドに書き込み操作の最大許容スループットを入力します。
  8. 入出力の QoS を指定します。
    1. IOps のチェックボックスを選択します。
    2. 合計 のフィールドに入出力操作の最大許容数を入力します。
    3. 読み取り のフィールドに入力操作の最大許容数を入力します。
    4. 書き込み のフィールドに出力操作の最大許容数を入力します。
  9. OK をクリックします。
ストレージ QoS エントリーが作成されました。このエントリーをベースにして、そのデータセンターに属するデータストレージドメインにディスクプロファイルを作成することができます。

2.1.2. ストレージ QoS エントリーの削除

既存のストレージ QoS エントリーを削除します。

手順2.2 ストレージ QoS エントリーの削除

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインで QoS タブをクリックします。
  3. ストレージ をクリックします。
  4. 削除するストレージ QoS エントリーを選択します。
  5. 削除 をクリックします。
  6. プロンプトが表示されたら OK をクリックします。
ストレージ QoS エントリーが削除され、使用できなくなりました。いずれかのディスクプロファイルがこのエントリーをベースにしていた場合には、それらのプロファイルのストレージ QoS エントリーは自動的に [無制限] に設定されます。

2.2. 仮想マシンネットワークの QoS

仮想マシンネットワークの QoS は、個別の仮想ネットワークインターフェースコントローラーの受信/送信トラフィックを制限するプロファイルの作成を可能にする機能です。この機能を使用すると、多数のレイヤーの帯域幅を制限して、ネットワークリソースの消費を制御することができます。

重要

仮想マシンネットワークの QoS は、クラスター互換バージョン 3.3 以降でのみサポートされています。

2.2.1. 仮想マシンネットワーク QoS エントリーの作成

仮想ネットワークインターフェースコントローラー (仮想 NIC) プロファイル (別称: 仮想マシンネットワークインターフェースのプロファイル) に適用してネットワークトラフィックを制御するための仮想マシンネットワーク QoS エントリーを作成します。

手順2.3 仮想マシンネットワーク QoS エントリーの作成

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの QoS タブをクリックします。
  3. 仮想マシンネットワーク をクリックします。
  4. 新規作成 ボタンをクリックします。
  5. 名前 のフィールドに仮想マシンネットワーク QoS エントリーの名前を入力します。
  6. 受信 および 送信 ネットワークトラフィックの上限値を入力します。
  7. OK をクリックします。
仮想ネットワークインターフェースコントローラーに使用することのできる仮想マシンネットワーク QoS エントリーの作成が完了しました。

2.2.2. 新規仮想マシンネットワーク QoS の設定および 仮想マシンネットワーク QoS の編集ウィンドウ

仮想マシンネットワーク QoS の設定により、3 つの特定のレベルにおける受信/送信トラフィックの帯域幅の制限を設定することができます。
表2.1 仮想マシンネットワーク QoS の設定
フィールド名
説明
データセンター
仮想マシンネットワーク QoS ポリシーを追加するデータセンター。このフィールドは、選択されているデータセンターによって自動的に設定されます。
名前
Manager 内で表示される仮想マシンネットワーク QoS ポリシーの名前
受信
受信トラフィックに適用される設定。この設定を有効にするには 受信 チェックボックスにチェックを入れ、無効にするには外します。
  • 平均: 受信トラフィックの平均スピード
  • 最大値: ピーク時の受信トラフィックのスピード
  • バースト: バースト中の受信トラフィックのスピード
送信
送信トラフィックに適用される設定。この設定を有効にするには 送信 チェックボックスにチェックを入れ、無効にするには外します。
  • 平均: 送信トラフィックの平均スピード
  • 最大値: ピーク時の送信トラフィックのスピード
  • バースト: バースト中の送信トラフィックのスピード

2.2.3. 仮想マシンネットワーク QoS エントリーの削除

既存の仮想マシンネットワーク QoS エントリーを削除します。

手順2.4 仮想マシンネットワーク QoS エントリーの削除

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの QoS タブをクリックします。
  3. 仮想マシンネットワーク を選択します。
  4. 削除する仮想マシンネットワーク QoS エントリーを選択します。
  5. 削除 をクリックします。
  6. プロンプトが表示されたら OK をクリックします。
仮想マシンネットワーク QoS エントリーの削除が完了し、そのエントリーは使用できなくなりました。

2.3. ホストネットワークの QoS

ホストネットワークの QoS は、1 台のホスト上の複数のネットワークを設定して、物理インターフェースを通過するネットワークトラフィックの制御を可能にします。ホストネットワークの QoS は、同一の物理ネットワークインターフェースコントローラー上におけるネットワークリソースの消費を制御することによって、ネットワークパフォーマンスを微調整することができます。これは、1 つのネットワークによって、同じ物理ネットワークインターフェースコントローラーにアタッチされている他のネットワークが機能しなくなる状態を防ぐのに役立ちます。ホストネットワークの QoS を設定することにより、輻輳の問題が発生することなく、それらのネットワークが同じ物理ネットワークインターフェースコントローラー上で正常に機能できるようになります。

2.3.1. ホストネットワーク QoS エントリーの作成

ホストネットワーク QoS エントリーを作成します。

手順2.5 ホストネットワーク QoS エントリーの作成

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインで QoS タブをクリックします。
  3. ホストネットワーク をクリックします。
  4. 新規作成 をクリックします。
  5. QoS 名 のフィールドに QoS エントリーの名前を入力します。
  6. 説明 フィールドに QoS エントリーの説明を入力します。
  7. 加重シェア速度の上限 [Mbps]、および コミット速度 [Mbps] に適切な値を入力します。
  8. OK をクリックします。

2.3.2. 「新規ホストネットワーク QoS」と「ホストネットワーク QoS の編集」の設定

ホストネットワーク QoS の設定で、送信トラフィックの帯域幅の上限を設定することができます。
表2.2 ホストネットワーク QoS の設定
フィールド名
説明
データセンター
ホストネットワーク QoS ポリシーを追加するデータセンター。このフィールドは、選択されているデータセンターによって自動的に設定されます。
QoS 名
Manager 内で表示されるホストネットワーク QoS ポリシーの名前
説明
ホストネットワーク QoS ポリシーの説明
送信
送信トラフィックに適用される設定
  • 加重シェア: 特定のネットワークに割り当てる論理リンクのキャパシティーを、同じ論理リンクにアタッチされた他のネットワークに対して相対的に示します。シェアの具体的な値は、そのリンク上の全ネットワークのシェアの和によって異なります。デフォルトでは、これは、1-100 の範囲内の数値です。
  • 速度の上限 [Mbps]: ネットワークが使用する最大帯域幅
  • コミット速度 [Mbps]: ネットワークに必要な最小の帯域幅。要求されるコミット速度は保証されず、ネットワークインフラストラクチャーや同じ論理リンク上の他のネットワークに要求されるコミット速度によって異なります。

2.3.3. ホストネットワーク QoS エントリーの削除

既存のネットワーク QoS エントリーを削除します。

手順2.6 ホストネットワーク QoS エントリーの削除

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの QoS タブをクリックします。
  3. ホストネットワーク をクリックします。
  4. 削除するネットワーク QoS エントリーを選択します。
  5. 削除 をクリックします。
  6. プロンプトが表示されたら OK をクリックします。

2.4. CPU QoS

CPU QoS は、仮想マシンが、その仮想マシンを実行するホストで利用できる最大処理能力を定義します。この値は、そのホストで利用可能な総処理能力に対するパーセンテージで指定します。CPU QoS を仮想マシンに割り当てると、クラスター内の 1 台の仮想マシンのワークロードが、同じクラスター内のその他の仮想マシンが利用可能な処理リソースに影響を及ぼすのを防ぐことができます。

2.4.1. CPU QoS エントリーの作成

CPU QoS エントリーを作成します。

手順2.7 CPU QoS エントリーの作成

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインで QoS タブをクリックします。
  3. CPU をクリックします。
  4. 新規作成 をクリックします。
  5. QoS 名 のフィールドに QoS エントリーの名前を入力します。
  6. 説明 フィールドに QoS エントリーの説明を入力します。
  7. 上限 フィールドには、QoS エントリーが許容する最大処理能力をパーセンテージで入力します。% のシンボルは入力しないでください。
  8. OK をクリックします。
CPU QoS エントリーが作成されました。このエントリーをベースにして、そのデータセンターに属するクラスターで CPU プロファイルを作成することができます。

2.4.2. CPU QoS エントリーの削除

既存の CPU QoS エントリーを削除します。

手順2.8 CPU QoS エントリーの削除

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインで QoS タブをクリックします。
  3. CPU をクリックします。
  4. 削除する CPU QoS エントリーを選択します。
  5. 削除 をクリックします。
  6. プロンプトが表示されたら OK をクリックします。
CPU QoS エントリーが削除され、使用できなくなりました。いずれかの CPU プロファイルがそのエントリーをベースにしていた場合には、それらのプロファイルの CPU QoS エントリーは自動的に [無制限] に設定されます。

第3章 データセンター

3.1. データセンターについて

データセンターとは、特定の環境で使用するリソースを定義する論理エンティティーです。データセンターはコンテナーリソースと考えられ、その中には、論理リソース (クラスター、ホストの形式) とネットワークリソース (論理ネットワークと物理 NIC の形式)、ストレージリソース (ストレージドメインの形式) が含まれています。
データセンターは、複数のクラスターで構成することができます。各クラスターには複数のホストを含めることが可能です。また、データセンターに複数のストレージドメインを関連付けたり、各ホスト上で複数の仮想マシンをサポートしたりすることもできます。Red Hat Enterprise Virtualization 環境は、複数のデータセンターで構成することができます。データセンターのインフラストラクチャーにより、これらのセンターを別々に分けることが可能です。
データセンターはすべて管理ポータルから一元管理されます。
データセンター

図3.1 データセンター

Red Hat Enterprise Virtualization はインストール中にデフォルトのデータセンターを作成します。このデフォルトのデータセンターを構成するか、適切な名前のデータセンターを新たに設定することが可能です。
データセンターのオブジェクト

図3.2 データセンターのオブジェクト

3.2. Storage Pool Manager

Storage Pool Manager (SPM) はデータセンター内の 1 台のホストに割り当てられるロールで、そのホストはデータセンターのストレージドメインを管理できるようになります。SPM エンティティーはデータセンターのどのホストでも実行できます。Red Hat Enterprise Virtualization Manager はこのロールを 1 台のホストに割り当てます。SPM によって、ホストが標準の操作を実行できなくなるわけではありません。SPM として稼働しているホストは、引き続き仮想リソースをホストすることができます。
SPM エンティティーは、複数のストレージドメインにまたがるメタデータを調整し、ストレージへのアクセスを制御します。これには、仮想ディスク (イメージ) 、スナップショットおよびテンプレートの作成/削除/操作や、スパースブロックデバイス (SAN 上) 用のストレージ割り当てが含まれます。このロールは排他的であり、1 つのデータセンター内で一度に 1 台のホストしか SPM となることができないため、メタデータの整合性が確保されます。
Red Hat Enterprise Virtualization Manager は、SPM が常に稼働している状態を維持します。SPM がストレージにアクセスする際に問題が発生すると、Manager は SPM のロールを別のホストに移します。SPM の起動時には、Manager は、SPM ロールが付与されているのがそのホストのみとなるようにするので、ストレージセントリックリースを取得します。このプロセスには多少時間がかかる場合があります。

3.3. SPM の優先度

SPM ロールは、ホストの利用可能なリソースを使用します。ホストの SPM 優先度設定により、ホストが SPM ロールに割り当てられる可能性が変更されます。SPM 優先度の高いホストには、優先度の低いホストより先に SPM ロールが割り当てられます。SPM 優先度の低いホスト上にある重要な仮想マシンは、SPM の操作と、ホストのリソースを巡って争う必要はありません。
ホストの SPM 優先度を変更するには、ホストを編集します。

3.4. データセンター内で問題のあるオブジェクトをイベントタブで特定する手順

データセンターの イベント タブは、データセンターに関連付けられたイベントをすべて表示します。イベントには監査、警告、エラーが含まれます。結果一覧に表示される情報から、Red Hat Enterprise Virtualization 環境で問題のあるオブジェクトを特定することができます。
イベント の結果一覧には簡易表示と詳細表示の 2 つのビューがあります。簡易表示では、イベントアイコン、イベントの発生時刻、イベントの説明が表示されます。詳細表示では、上記の項目に加え、必要に応じてイベント ID、関連するユーザー、ホスト、仮想マシン、テンプレート、データセンター、ストレージ、クラスター、Gluster ボリューム、相関 ID などが表示されます。

3.5. データセンターのタスク

3.5.1. 新しいデータセンターの作成

仮想化環境でデータセンターを作成するには、以下の手順で行います。データセンターが稼働するには、正常に機能するクラスター、ホスト、ストレージドメインが必要です。

注記

ストレージの タイプ は、最初のストレージドメインがデータセンターに追加されるまで編集可能です。ストレージドメインが追加されると、ストレージの タイプ は変更できなくなります。
互換バージョン3.6 に設定した後で 3.5 に変更することはできません。下位バージョンへの変更はできないようになっています。

手順3.1 新しいデータセンターの作成

  1. データセンター リソースタブを選択すると、結果一覧にデータセンターがすべて表示されます。
  2. 次に 新規作成 ボタンをクリックして、新規データセンター ウィンドウを開きます。
  3. データセンターの 名前説明 を入力します。
  4. ドロップダウンメニューからデータセンターのストレージの タイプ互換バージョンクォータモード を選びます。
  5. オプションで、データセンター用の MAC アドレスプールを変更します。デフォルトの MAC アドレスプールは、デフォルトで事前に選択されます。MAC アドレスプールの作成についての詳しい説明は、「MAC アドレスプール」を参照してください。
    1. MAC アドレスプール タブをクリックします。
    2. MAC アドレスプール のドロップダウンリストから、必要な MAC アドレスを選択します。
  6. OK をクリックしデータセンターを作成すると、新規データセンター - ガイド ウィンドウが開きます。
  7. 新規データセンター - ガイド ウィンドウでは、データセンターに設定する必要のあるエンティティーが表示されます。これらのエンティティーを設定するか、後で設定 ボタンを押して後ほど設定を行います。設定を再開するにはデータセンターを選択し、Guide Me ボタンを押してください。
新しいデータセンターが仮想化環境に追加されました。クラスター、ホスト、ストレージドメインが設定されるまで、ステータスは Uninitialized のままとなります。これらのエンティティーの設定には Guide Me を使用してください。

3.5.2. 新規データセンターウィンドウおよびデータセンターの編集ウィンドウの設定

以下の表には、新規データセンター および データセンターの編集 ウィンドウに表示されるデータセンターの設定についての説明をまとめています。OK をクリックすると、無効な値が入力されている箇所はオレンジ色の枠で囲まれ、そのままでは変更が確定されないようになっています。また、フィールドプロンプトには、期待値または期待値の範囲が表示されます。
表3.1 データセンタープロパティー
フィールド
説明/アクション
名前
データセンターの名前。このテキストフィールドは最長で 40 文字に制限されており、アルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。
説明
データセンターの説明。このフィールドへの入力は推奨されますが、必須ではありません。
タイプ
ストレージのタイプ。以下のいずれかを選択します。
  • Shared
  • Local
データドメインのタイプによってデータセンターのタイプが決定し、作成後に変更すると大幅なサービスの中断を招きます。同じデータセンターに複数のタイプのストレージドメイン (iSCSI、NFS、FC、POSIX、Gluster) を追加することができますが、ローカルドメインと共有ドメインを混在させることはできません。
互換バージョン
Red Hat Enterprise Virtualization のバージョン。以下のいずれかを選択します。
  • 3.0
  • 3.1
  • 3.2
  • 3.3
  • 3.4
  • 3.5
  • 3.6
Red Hat Enterprise Virtualization Manager のアップグレード後に、ホスト、クラスター、データセンターが旧バージョンのままになっている可能性があります。まず最初に全ホストをアップグレードし、次にクラスターをアップグレードしてから、データセンターの互換性レベルをアップグレードしてください。
クォータモード
クォータは、Red Hat Enterprise Virtualizaton に搭載されているリソース制限ツールです。以下のいずれかを選択します。
  • 無効: クォータを実装しない場合に選択します。
  • 監査: クォータの設定をテストする場合に選択します。
  • 有効: クォータを実装する場合に選択します。
MAC アドレスプール
データセンターの MAC アドレスプール。他の MAC アドレスプールが割り当てられていない場合には、デフォルトの MAC アドレスプールが使用されます。MAC アドレスプールについての詳しい説明は、「MAC アドレスプール」を参照してください。

3.5.3. データセンターの再初期化: リカバリーの手順

このリカバリー手順を実行すると、データセンターのマスターデータドメインが新規のマスターデータドメインに置き換えられます。リカバリー作業は、マスターデータドメインのデータが破損した際に必要です。データセンターを再初期化すると、データセンターに関連付けられたその他のリソースすべて (例: クラスター、ホスト、問題のないストレージドメインなど) を復元することができます。
バックアップまたはエクスポートした仮想マシン/テンプレートを新規のマスターデータドメインにインポートすることができます。

手順3.2 データセンターの再初期化

  1. データセンター リソースタブをクリックして再初期化するデータセンターを選択します。
  2. データセンターにアタッチされているストレージドメインがメンテナンスモードになっていることを確認してください。
  3. データセンターを右クリックし、ドロップダウンメニューから データセンターを再初期化 を選択して データセンターの再初期化 ウィンドウを開きます。
  4. データセンターの再初期化 ウィンドウでは使用可能な (デタッチされた状態で、メンテナンスモードに入っている) ストレージドメインをすべて表示します。データセンターに追加するストレージドメインのラジオボタンをクリックしてください。
  5. 操作を承認 のチェックボックスを選択します。
  6. ウィンドウを閉じてデータセンターを再初期化するには OK をクリックします。
ストレージドメインがマスターデータドメインとしてデータセンターにアタッチされて、アクティブ化されました。バックアップまたはエクスポートした仮想マシン/テンプレートを新規のマスターデータドメインにインポートできるようになりました。

3.5.4. データセンターの削除

データセンターを削除するには、アクティブなホストが 1 台必要です。データセンターを削除しても、そのデータセンターに関連付けられたリソースは削除されません。

手順3.3 データセンターの削除

  1. データセンターにアタッチされているストレージドメインがメンテナンスモードになっていることを確認してください。
  2. データセンター リソースタブをクリックし、削除するデータセンターを選択します。
  3. 削除 をクリックすると データセンターの削除 の確認ウィンドウが開きます。
  4. OK をクリックします。

3.5.5. データセンターの強制削除

アタッチされているストレージドメインが破損した場合や、ホストが Non Responsive になった場合には、データセンターは Non Responsive になります。いずれの状況でも、データセンターを 削除 することはできません。
強制削除 を実行するには、アクティブなホストは必要はありません。また、強制削除により、アタッチされているストレージドメインも完全に削除されます。
破損したストレージドメインを 破棄 してからデータセンターの 強制削除 を行う必要がある場合もあります。

手順3.4 データセンターの強制削除

  1. データセンター リソースタブをクリックし、削除するデータセンターを選択します。
  2. 強制削除 をクリックすると、データセンターの強制削除 の確認ウィンドウが開きます。
  3. 操作を承認 のチェックボックスを選択します。
  4. OK をクリックします。
データセンターとアタッチされていたストレージドメインが Red Hat Enterprise Virtualization 環境から完全に削除されました。

3.5.6. データセンターの互換バージョンの変更

Red Hat Enterprise Virtualization データセンターには、互換バージョンがあります。互換バージョンとは、データセンターと互換性のある Red Hat Enterprise Virtualization のバージョンを指します。データセンター内のクラスターはすべて、指定の互換性レベルをサポートします。

注記

データセンターの互換バージョンを変更するには、まず最初に、変更後の互換性レベルをサポートするレベルまで、データセンター内の全クラスターを更新する必要があります。

手順3.5 データセンターの互換バージョンの変更

  1. 管理ポータルで データセンター タブをクリックします。
  2. 表示された一覧の中から、変更するデータセンターを選択します。
  3. 編集 をクリックします。
  4. 互換バージョン を必要な値に変更します。
  5. OK をクリックして、データセンターの互換バージョンを変更 の確認ウィンドウを開きます。
  6. OK をクリックして確定します。
データセンターの互換バージョンが更新されました。

警告

互換バージョンをアップグレードすると、そのデータセンターに属しているストレージドメインもすべてアップグレードされます。互換バージョンを 3.0 以前のバージョンから 3.1 以降にアップグレードすると、これらのストレージドメインは 3.0 以前のバージョンでは使用できなくなります。

3.6. データセンターとストレージドメイン

3.6.1. データセンターへの既存データドメインのアタッチ

Unattached のデータドメインはデータセンターにアタッチすることができます。複数のタイプの共有ストレージドメイン (iSCSI、NFS、FC、POSIX、および Gluster) を同じデータセンターに追加することが可能です。

手順3.6 データセンターへの既存データドメインのアタッチ

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの ストレージ タブを選択し、データセンターにすでにアタッチされているストレージドメインを表示します。
  3. データをアタッチ をクリックし、ストレージのアタッチ ウィンドウを開きます。
  4. データセンターにアタッチするデータドメインのチェックボックスを選択します。チェックボックスを複数選択して複数のデータドメインをアタッチすることが可能です。
  5. OK をクリックします。
データドメインがデータセンターにアタッチされ、自動的にアクティブ化されます。

3.6.2. データセンターへの既存 ISO ドメインのアタッチ

Unattached の ISO ドメインはデータセンターにアタッチすることができます。この ISO ドメインは、データセンターと同じ ストレージタイプ でなければなりません。
1 つのデータセンターにアタッチできる ISO ドメインは 1 つのみです。

手順3.7 データセンターへの既存 ISO ドメインのアタッチ

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの ストレージ タブを選択し、すでにデータセンターにアタッチされているストレージドメインを表示します。
  3. ISO のアタッチ をクリックして、ISO ライブラリーのアタッチ ウィンドウを開きます。
  4. 対象の ISO ドメインのラジオボタンをクリックします。
  5. OK をクリックします。
ISO ドメインがデータセンターにアタッチされ、自動的にアクティブ化されます。

3.6.3. データセンターへの既存エクスポートドメインのアタッチ

ステータスが Unattached のエクスポートドメインはデータセンターにアタッチすることができます。1 つのデータセンターにアタッチできるエクスポートドメインは 1 つのみです。

手順3.8 データセンターへの既存エクスポートドメインのアタッチ

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの ストレージ タブを選択し、データセンターにすでにアタッチされているストレージドメインを表示します。
  3. エクスポートをアタッチ をクリックすると、エクスポートドメインのアタッチ ウィンドウが開きます。
  4. 対象のエクスポートドメインのラジオボタンをクリックします。
  5. OK をクリックします。
エクスポートドメインがデータセンターにアタッチされ、自動的にアクティブ化されます。

3.6.4. データセンターからのストレージドメインのデタッチ

データセンターからストレージドメインをデタッチすると、そのデータセンターはストレージドメインに関連付けられなくなります。そのストレージドメインは、Red Hat Enterprise Virtualization 環境からは削除されず、別のデータセンターにアタッチすることができます。
仮想マシンやテンプレートなどのデータは、そのストレージドメインにアタッチされたままとなります。

注記

使用可能なストレージドメインがマスターストレージ以外に残っていない場合は、削除することはできません。

手順3.9 データセンターからのストレージドメインのデタッチ

  1. データセンター リソースタブをクリックして対象のデータセンターを選択します。
  2. 詳細ペインの ストレージ タブを選択し、データセンターにアタッチされているストレージドメインを表示します。
  3. デタッチするストレージドメインを選択します。ストレージドメインが アクティブ である場合は、メンテナンス をクリックして、ストレージドメインのメンテナンス の確認ウィンドウを開きます。
  4. OK をクリックしてメンテナンスモードを開始します。
  5. デタッチ をクリックすると、ストレージのデタッチ の確認ウィンドウが開きます。
  6. OK をクリックします。
データセンターからストレージドメインがデタッチされました。ストレージドメインが詳細ペインに表示されなくなるまでに数分かかる場合があります。

3.7. データセンターとパーミッション

3.7.1. データセンターのシステムパーミッション管理

システム管理者は、SuperUser として管理ポータルの全側面を管理する管理者です。他のユーザーには、より特定的な管理者ロールを割り当てることができます。このような制限付きの管理者ロールは、特定のリソースに限定した特定の管理者権限をユーザーに付与する場合に有用です。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのみに対して (ただし、そのデータセンター用のストレージは例外)、ClusterAdmin は割り当てられたクラスターのみに対して管理者権限があります。
データセンターの管理者は、特定のデータセンターのみを対象とするシステム管理者ロールです。これは、複数のデータセンターがある仮想化環境で各データセンターに管理者が必要な場合に有用です。DataCenterAdmin ロールは階層モデルで、ある 1 つのデータセンターを対象とするデータセンター管理者ロールを割り当てられたユーザーは、そのデータセンター内のストレージを除く全オブジェクトを管理することができます。仮想化環境内の全データセンターにデータセンター管理者を割り当てるには、ヘッダーバーの 設定 ボタンを使用してください。
データセンター管理者ロールは、以下のアクションを許可します。
  • データセンターに関連付けられたクラスターの作成/削除
  • データセンターに関連付けられたホスト、仮想マシン、プールの作成/削除
  • データセンターに関連付けられた仮想マシンのユーザーパーミッションの編集

注記

ロールとパーミッションは、既存のユーザーにしか割り当てることができません。
また、既存のシステム管理者を削除して、新規システム管理者を追加することによって、データセンターのシステム管理者を変更することができます。

3.7.2. データセンターの管理者ロール

データセンターに対するパーミッションがあるロール

以下の表には、データセンターの管理に適用可能な管理者のロールと権限についての説明をまとめています。

表3.2 Red Hat Enterprise Virtualization のシステム管理者ロール
ロール権限備考
DataCenterAdminデータセンター管理者ストレージを除く、特定のデータセンター内の全物理/仮想リソース (クラスター、ホスト、テンプレート、仮想マシンを含む) を使用、作成、削除、管理することができます。
NetworkAdminネットワーク管理者特定のデータセンターのネットワークを設定、管理できます。データセンターのネットワーク管理者は、データセンター内の仮想マシンに対するネットワークパーミッションも継承します。

3.7.3. リソースに対する管理者およびユーザーロールの割り当て

リソースに対して管理者またはユーザーのロールを割り当てると、ユーザーはそのリソースへのアクセスや管理ができるようになります。

手順3.10 リソースへのロール割り当て

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. 追加 をクリックします。
  4. 検索 テキストボックスに既存ユーザーの名前またはユーザー名を入力し、検索 をクリックします。結果一覧に表示される検索候補からユーザーを選択します。
  5. 割り当てるロール ドロップダウンリストからロールを選択します。
  6. OK をクリックします。
ユーザーにロールが割り当てられました。このユーザーは、対象のリソースに対して有効化されたロールのパーミッションを継承します。

3.7.4. リソースからの管理者またはユーザーロールの削除

リソースから管理者またはユーザーのロールを削除すると、そのリソースのロールに関連付けられたユーザーのパーミッションは継承されなくなります。

手順3.11 リソースからのロール削除

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. リソースから削除するユーザーを選択します。
  4. 削除 をクリックします。パーミッションが削除されることを確認する パーミッションの削除 ウィンドウが開きます。
  5. OK をクリックします。
ユーザーロールおよび関連付けられたパーミッションが削除されました。

第4章 クラスター

4.1. クラスターについて

クラスターとは、同じストレージドメインを共有し、同じタイプの CPU (Intel または AMD) を使用するホストの論理的な集合体です。ホストの各 CPU モデルの世代が違う場合には、すべてのモデルで提供されている機能のみを使用します。
システム内のクラスターはすべて 1 つのデータセンターに属し、またシステム内のホストはすべて 1 つのクラスターに属する必要があります。仮想マシンは、クラスター タブやランタイム中に設定ツールで定義したポリシーに従って、クラスター内のいずれかのホストに動的に割り当てられ、ホスト間での移行が可能です。また、クラスターは、電源および負荷共有ポリシーを定義することができる最上位にあります。
クラスターに属するホストと仮想マシンの数はそれぞれ、結果一覧の ホスト数仮想マシン数 の欄に表示されます。
クラスターは、仮想マシンまたは Red Hat Gluster Storage Server のいずれかを実行します。これらの 2 つの用途は相互に排他的なので、1 つのクラスターで仮想化ホストとストレージホストを同時にサポートすることはできません。
Red Hat Enterprise Virtualization では、インストール中にデフォルトのデータセンター内にデフォルトのクラスターが作成されます。
クラスター

図4.1 クラスター

4.2. クラスターのタスク

4.2.1. 新規クラスターの作成

データセンターには複数のクラスターが属することができます。また、クラスターには複数のホストが属することが可能です。クラスター内のホストは同じ CPU タイプ (Intel あるいは AMD) である必要があります。CPU タイプを確実に最適化するには、クラスターを作成する前にホストを作成しておくことをお勧めします。ただしホストの設定は、Guide Me ボタンを使用して後で行うことができます。

手順4.1 新規クラスターの作成

  1. クラスター リソースタブを選択します。
  2. 新規作成 をクリックします。
  3. ドロップダウンメニューからクラスターが属する データセンター を選択します。
  4. クラスターの 名前説明 を入力します。
  5. 管理ネットワーク ドロップダウンリストでネットワークを選択して、管理ネットワークのロールを割り当てます。
  6. ドロップダウンリストから CPU アーキテクチャーCPU タイプ を選択します。CPU のプロセッサーファミリーが、クラスターにアタッチするホストの最小限必要な CPU タイプに適合していることが重要です。この条件が満たされない場合には、ホストは稼働しません。

    注記

    Intel および AMD のいずれの CPU タイプでも、CPU モデルは最も古いものから最も新しいものに論理的な順序でリストされます。クラスターに異なる複数の CPU モデルが含まれている場合には、最も古い CPU モデルを選択してください。各 CPU モデルについての詳しい情報は、https://access.redhat.com/solutions/634853 を参照してください。
  7. ドロップダウンリストからクラスターの 互換バージョン を選択します。
  8. クラスターに仮想マシンホストまたは Gluster 対応ノードを事前設定するかどうかに応じて、Virt サービスを有効にする または Gluster サービスを有効にする のいずれかのラジオボタンを選択します。Gluster サービスを有効にしたクラスターには、Red Hat Enterprise Virtualization Hypervisor ホストを追加することはできない点に注意してください。
  9. オプションで、仮想マシンのメンテナンスを行う理由の設定を有効にする のチェックボックスを選択して、Manager から仮想マシンをシャットダウンする際の理由フィールド (オプション) を有効にして、管理者によりメンテナンスの説明を提示できるようにします。
  10. オプションで、ホストのメンテナンスを行う理由の設定を有効にする のチェックボックスを選択して、Manager からホストをメンテナンスモードに切り替える際の理由フィールド (オプション) を有効にして、管理者がメンテナンスの説明を提示できるようにします。
  11. /dev/random source (Linux 提供のデバイス) または /dev/hwrng source (外部のハードウェアデバイス) のチェックボックスを選択して、クラスター内の全ホストが使用する乱数ジェネレーターデバイスを指定します。
  12. 最適化 タブをクリックし、クラスターのメモリーページ共有の閾値を選択します。またオプションで、クラスターのホストで CPU スレッド処理とメモリーバルーニングを有効化します。
  13. 耐障害性ポリシー タブをクリックして、仮想マシン移行ポリシーを選択します。
  14. スケジューリングポリシー タブをクリックして、そのクラスター内のホストのスケジューリングポリシーの設定、スケジューラーの最適化の設定、信頼済みサービスの有効化、HA 予約の有効化、カスタムのシリアル番号ポリシーの指定などをオプションで設定します。
  15. オプションとして、グローバルの SPICE プロキシー (該当する場合) を上書きするには、コンソール タブをクリックして、そのクラスター内のホストのSPICE プロキシーのアドレスを指定します。
  16. フェンシングポリシー タブをクリックして、クラスター内のフェンシングを有効化/無効化して、フェンシングオプションを選択します。
  17. OK をクリックしてクラスターを作成すると、新規クラスター - ガイド ウィンドウが開きます。
  18. 新規クラスター - ガイド ウィンドウでは、データセンターに設定する必要のあるエンティティーが表示されます。これらのエンティティーを設定するか、後で設定 ボタンを押して後ほど設定を行います。設定を再開するにはクラスターを選択し、Guide Me ボタンを押してください。
新規クラスターが仮想化環境に追加されました。

4.2.2. 新規クラスターおよびクラスターの編集ウィンドウの設定とコントロール

4.2.2.1. クラスターの全般設定
新規クラスターウィンドウ

図4.2 新規クラスターウィンドウ

以下の表には、新規クラスター および クラスターの編集 ウィンドウ内の 全般 タブの設定についての説明をまとめています。OK をクリックすると、無効な値が入力されている箇所はオレンジ色の枠で囲まれ、そのままでは変更が確定されないようになっています。また、フィールドプロンプトには、期待値または期待値の範囲が表示されます。
表4.1 クラスターの全般設定
フィールド
説明/アクション
データセンター
クラスターが所属するデータセンター。このデータセンターは、クラスターを追加する前に作成しておく必要があります。
名前
クラスターの名前。このテキストフィールドは最長で 40 文字に制限されており、アルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。
説明 / コメント
クラスターの説明または補注。これらのフィールドへの入力は推奨されますが、必須ではありません。
管理ネットワーク
管理ネットワークロールに割り当てられる論理ネットワーク。デフォルトでは ovirtmgmt です。既存のクラスターの管理ネットワークは、詳細ペインの 論理ネットワーク タブの ネットワークを管理 ボタンを押して変更するのが唯一の方法です。
CPU アーキテクチャークラスターの CPU アーキテクチャー。選択する CPU アーキテクチャーによって、異なる CPU タイプが利用できます。
  • 未定義: すべての CPU タイプを利用できます。
  • x86_64: すべての Intel および AMD CPU タイプを利用できます。
  • ppc64: IBM POWER 8 のみを利用できます。
CPU タイプ
クラスターの CPU タイプ。以下のいずれかを選択します。
  • Intel Conroe Family
  • Intel Penryn Family
  • Intel Nehalem Family
  • Intel Westmere Family
  • Intel SandyBridge Family
  • Intel Haswell
  • AMD Opteron G1
  • AMD Opteron G2
  • AMD Opteron G3
  • AMD Opteron G4
  • AMD Opteron G5
  • IBM POWER 8
クラスター内の全ホストが Intel、AMD、IBM POWER 8 のいずれかの CPU タイプを実行する必要があります。作成後に変更すると大幅なサービスの中断を招きます。CPU タイプは、クラスター内で最も古い CPU モデルに設定すべきです。全モデルで実装されている機能のみが使用可能です。Intel および AMD のいずれの CPU タイプでも、CPU モデルは最も古いものから最も新しいものに論理的な順序でリストされます。
互換バージョン
Red Hat Enterprise Virtualization のバージョン。以下のいずれかを選択します。
  • 3.1
  • 3.2
  • 3.3
  • 3.3
  • 3.4
  • 3.5
  • 3.6
データセンターに指定されているバージョンよりも古いバージョンは選択できません。
Virt サービスを有効にする
このラジオボタンを選択した場合に、そのクラスター内のホストは仮想マシンの実行に使用されます。
Gluster サービスを有効にする
このラジオボタンを選択した場合に、そのクラスター内のホストは Red Hat Gluster Storage Server のノードとして使用され、仮想マシンは実行しません。このオプションが有効化されているクラスターには、Red Hat Enterprise Virtualization Hypervisor ホストを追加することはできません。
既存の Gluster 設定をインポート
このチェックボックスは、Gluster サービスを有効にする のラジオボタンが選択されている場合にのみ表示されます。このオプションにより、既存の Gluster 対応クラスターおよびそのクラスターにアタッチされた全ホストを Red Hat Enterprise Virtualization Manager にインポートすることができます。
次のオプションは、インポートするクラスター内の各ホストに必要となります。
  • アドレス: Gluster ホストサーバーの IP アドレスまたは完全修飾ドメイン名を入力します。
  • フィンガープリント: Red Hat Enterprise Virtualization Manager がホストのフィンガープリントを取得し、正しいホストに接続していることを確認します。
  • root パスワード: ホストとの通信に必要な root パスワードを入力します。
仮想マシンのメンテナンスを行う理由の設定を有効にするこのチェックボックスを選択した場合には、Manager を使用してクラスター内の仮想マシンをシャットダウンする際に、オプションの理由のフィールドが表示され、メンテナンスの理由を入力することができます。この理由は、ログに表示され、また仮想マシンの電源が再度オンになると表示されます。
ホストのメンテナンスを行う理由の設定を有効にするこのチェックボックスが選択されている場合には、Manager からクラスター内のホストをメンテナンスモードに切り替えると、オプションの理由のフィールドが表示されます。これにより、メンテナンスの理由を入力することが可能となります。この理由は、ログに表示され、またホストを再度アクティブにすると表示されます。
必要な乱数ジェネレーターのソース:
以下のチェックボックスのいずれかを選択する場合は、クラスター内の全ホストでそのデバイスが利用可能である必要があります。この設定により、乱数ジェネレーターデバイスからエントロピーを仮想マシンに渡すことができるようになります。
  • /dev/random source: Linux により提供される乱数ジェネレーター
  • /dev/hwrng source: 外部ハードウェアのジェネレーター
この機能は、Red Hat Enterprise Linux 6.6 以降、または Red Hat Enterprise Linux 7.0 以降のバージョンを実行するホストのみでサポートされている点に注意してください。
4.2.2.2. 最適化の設定
メモリーページ共有により、仮想マシンは他の仮想マシンで未使用のメモリーを活用することで、割り当てられたメモリーを最大 200% 利用することができます。このプロセスは、Red Hat Enterprise Virtualization 環境にある仮想マシンが同時にフル稼働しておらず、未使用のメモリーを特定の仮想マシンに一時的に割り当てることができるという前提に基づいています。
CPU スレッド処理により、ホストは、そのホストのコア数を上回るプロセッサーコア合計数で仮想マシンを実行することができます。この機能は、CPU を集中的に使用しないワークロードに有用で、より多くの仮想マシンを実行可能にすることにより、ハードウェア要件を軽減できます。またこれにより、特にゲストのコア数がホストのコアよりも多く、ホストのスレッド数よりも少ない場合に、この機能がなければ不可能な CPU トポロジーで仮想マシンを実行できます。
以下の表には、新規クラスター および クラスターの編集 ウィンドウの 最適化 タブの設定についての説明をまとめています。
表4.2 最適化の設定
フィールド
説明/アクション
メモリーの最適化
  • なし - メモリーのオーバーコミットを無効にする: メモリーページの共有が無効になります。
  • サーバーの負荷 - 物理メモリーの 150% のスケジューリングを許可する: メモリーページ共有の閾値を各ホストのシステムメモリーの 150% に設定します。
  • デスクトップの負荷 - 物理メモリーの 200% のスケジューリングを許可する: メモリーページ共有の閾値を各ホストのシステムメモリーの 200% に設定します。
CPU スレッド
スレッドをコアとしてカウント のチェックボックスを選択すると、ホストのコア数を上回るプロセッサーコア合計数の仮想マシンを実行することができます。
公開されたホストのスレッドは、コアとして扱われ、仮想マシンに活用することができます。たとえば、1 コアあたり 2 スレッドの 24 コアシステム (合計 48 スレッド) は、それぞれ最大 48 コアの仮想マシンを実行することができ、ホスト CPU の負荷を算出するアルゴリズムは、2 倍の利用可能コアに対して負荷を比較します。
メモリーバルーン
メモリーバルーンの最適化を有効にする のチェックボックスを選択すると、このクラスター内のホストで実行されている仮想マシンのメモリーのオーバーコミットが有効になります。このオプションが設定されると、Memory Overcommit Manager (MOM) が可能な箇所で可能な場合にバルーニングを開始します。各仮想マシンに確保されているメモリーのサイズが上限となります。
バルーンを稼働させるには、バルーンデバイスと適切なドライバーが必要です。クラスターレベル 3.2 以降の仮想マシンにはすべて、特に削除していない限り、バルーンデバイスが含まれています。このクラスター内の各ホストは、ステータスが Up に切り替わった時点でバルーンポリシーの更新を受信します。必要な場合には、ホスト上でステータスを変更せずにバルーンポリシーを手動で更新することができます。「クラスター内のホスト上での MOM ポリシーの更新」を参照してください。
シナリオによっては、バルーニングが KSM と競合する可能性があることを認識しておくことが重要です。そのような場合には、MOM がバルーンサイズの調整を試みて、競合を最小限に抑えます。また、一部のシナリオでは、バルーニングによって、仮想マシンでパフォーマンスが十分最適化されない可能性があります。バルーニングの最適化は、慎重に使用することを推奨します。
KSM コントロール
KSM を有効化 のチェックボックスを選択すると、MOM が有効になり、必要な場合に、CPU を犠牲にしてもメモリーを節約することでより高いメリットが得られる場合に Kernel Same-page Merging (KSM) を実行します。
4.2.2.3. 耐障害性ポリシー設定
耐障害性ポリシーは、ホストが稼働しなくなった場合の仮想マシンの移行ポリシーを設定します。非稼働状態のホストで実行されている仮想マシンは、同じクラスター内の別のホストにライブマイグレーションされます。このマイグレーションは、クラスターの耐障害性ポリシーによって決定されます。ホストが非稼働状態で再起動された場合には、高可用性に設定されている仮想マシンは、そのクラスター内の別のホストで再起動されます。耐障害性ポリシーは、非稼働状態のホストにのみ適用されます。
表4.3 ホストのエラー状態
ステータス
説明
Non Operational
Non Operational (非稼働状態) のホストとは、Manager を使用して通信することができますが、設定が正しくありません (例: 論理ネットワークが見つからないなど)。ホストが非稼働状態になった場合には、仮想マシンのマイグレーションはクラスターの耐障害性ポリシーによって決定されます。
Non Responsive
Non Responsive (応答なし) のホストは、Manager を使用して通信することはできません。ホストが応答なしの状態になった場合には、高可用性に設定されている全仮想マシンは同じクラスター内の別のホスト上で再起動されます。
仮想マシンの移行は、ネットワーク負荷の高い操作です。たとえば、ホストが 10 台以上の仮想マシンを実行している環境でそれらすべてを移行/再起動すると、多大な時間とリソースを要するプロセスとなってしまいます。そのため、ご使用の環境に適したポリシーアクションを選択する必要があります。慎重に進めていくには、仮想マシンの移行をすべて無効な状態にします。また、数多くの仮想マシンがあっても、クリティカルなワークロードを実行しているマシンは数台のみの場合には、高可用性の仮想マシンのみを移行するオプションを選択します。
以下の表には、新規クラスター および クラスターの編集 ウィンドウの 耐障害性ポリシー タブの設定についての説明をまとめています。新規クラスター作成時の耐障害性ポリシーの設定方法についての詳しい説明は、「新規クラスターの作成」を参照してください。
表4.4 耐障害性ポリシー設定
フィールド
説明/アクション
仮想マシンを移行する
定義した優先度の順に、すべての仮想マシンを移行します。
高可用性の仮想マシンのみを移行する
高可用性の仮想マシンのみ移行し、他のホストが過負荷状態になるのを防ぎます。
仮想マシンを移行しない
仮想マシンが移行されないようにします。
4.2.2.4. スケジューリングポリシーの設定
スケジューリングポリシーにより、利用可能なホスト間で仮想マシンの使用率や配分を指定することができます。クラスター内のホスト間で、自動的に負荷を分散できるようにするには、スケジューリングポリシーを定義します。
既存のクラスターにスケジューリングポリシーを追加するには、クラスター タブで 編集 ボタンをクリックして、スケジューリングポリシー のタブを選択します。
スケジューリングポリシーの設定: vm_evenly_distributed

図4.3 スケジューリングポリシーの設定: vm_evenly_distributed

以下の表には、スケジューリングポリシー タブの設定についての説明をまとめています。
表4.5 スケジューリングポリシータブのプロパティー
フィールド
説明/アクション
ポリシーを選択
ドロップダウンリストからポリシーを選択します。
  • None: ポリシーの値を None に設定すると、ホスト間での負荷分散や電源共有は行われません。これはデフォルトのモードになります。
  • evenly_distributed: クラスター内の全ホストでメモリーおよび CPU 処理の負荷が均等に分散されます。ホストが定義済みの上限閾値に達している場合には、仮想マシンをそのホストに追加でアタッチしてもその仮想マシンは起動しません。
  • InClusterUpgrade: ホストのオペレーティングシステムのバージョンに基づいて仮想マシンを分散します。仮想マシンを実行しているホストよりも新しいバージョンのオペレーティングシステムを使用しているホストは、同じバージョンのオペレーティングシステムを使用しているホストよりも優先されます。より新しいオペレーティングシステムのホストに移行した仮想マシンは、古いオペレーティングシステムのホストには戻りません。仮想マシンは、クラスター内の任意のホストで再起動することが可能です。このポリシーでは、クラスターで複数のオペレーティングシステムのバージョンの混在を許可することによって、クラスター内のホストをアップグレードすることができます。このポリシーを有効にする前に、前提条件を満たす必要があります。詳しくは、アップグレードガイド を参照してください。
  • power_saving: 使用可能なホストのサブセットでメモリーおよび CPU 処理の負荷を分散し、十分に活用されていないホストの電力消費を低減します。ホストの CPU 負荷が使用率の下限値以下の状態で所定の時間が経過すると、仮想マシンはすべて別のホストに移行され、電源をオフにできるようになります。ホストが定義済みの使用率の上限値に達している場合には、仮想マシンをそのホストに追加でアタッチしてもその仮想マシンは起動しません。
  • vm_evenly_distributed: 仮想マシン数に基づいて、ホスト間で仮想マシンを均等に配分します。ホストが HighVmCount を超える数の仮想マシンを実行しており、かつ仮想マシン数が MigrationThreshold を超えるホストが少なくとも 1 台ある場合には、そのクラスターはバランスが取れていない状態と見なされます。
プロパティー
以下のプロパティーは、選択したポリシーに応じて表示され、必要に応じて編集することができます。
  • HighVmCount: 各ホストで実行することができる仮想マシンの最大数を設定します。この制限を超えると、ホストは過負荷状態と見なされます。デフォルト値は 10 です。
  • MigrationThreshold: 仮想マシンがホストから移行されるバッファーを定義します。これは、稼働率の最も高いホストと最も低いホストの間での仮想マシン数の差異の最大値 (この値を含む) です。クラスター内の全ホストで仮想マシン数がこの移行閾値内に収まる場合は、そのクラスターはバランスが取れた状態ということになります。デフォルト値は 5 です。
  • SpmVmGrace: SPM ホスト上で仮想マシン用に確保されるスロット数に関する定義を行います。SPM ホストの負荷が他のホストよりも低くなるように、この変数で SPM ホストが他のホストよりもどれだけ少ない数の仮想マシンを実行するかを定義します。デフォルト値は 5 です。
  • CpuOverCommitDurationMinutes: スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。この時間を定義することにより、CPU 負荷の一時的な急上昇によりスケジューリングポリシーがアクティブ化されて仮想マシンの移行が不必要に行われるのを防ぐことができます。最大 2 桁までとします。デフォルト値は 2 です。
  • HighUtilization: パーセンテージで指定します。ホストが上限値以上の CPU 使用率で稼働した状態で、規定の時間が経過すると、Red Hat Enterprise Virtualization Manager は、ホストの CPU 負荷が上限閾値を下回るまで、仮想マシンをクラスター内の別の仮想マシンに移動します。デフォルト値は 80 です。
  • LowUtilization: パーセンテージで指定します。CPU 使用率が下限値を下回っている状態でホストが稼働して、規定の時間が経過すると、Red Hat Enterprise Virtualization Manager はクラスター内の他のホストに仮想マシンを移行します。Manager は、元のホストマシンの電源を遮断し、負荷分散で必要となった場合やクラスター内で使用可能なホストが十分にない場合にそのホストを再起動します。デフォルト値は 20 です。
  • ScaleDown: 指定した値でホストのスコアを除することにより、HA 予約 の加重関数による影響を軽減します。これは、none を含む任意のポリシーに追加することが可能なオプションのプロパティーです。
  • HostsInReserve: 実行中の仮想マシンがなくても稼働を続けるホストの数を指定します。これは、power_saving ポリシーに追加することができるオプションのプロパティーです。
  • EnableAutomaticHostPowerManagement: クラスター内の全ホストの自動電源管理を有効にします。これは、power_saving ポリシーに追加することができるオプションのプロパティーです。デフォルト値は true です。
  • MaxFreeMemoryForOverUtilized: 最小のサービスレベルに必要な空きメモリー容量を MB 単位で設定します。ホストのメモリー使用率がこの値以上で実行されると、Red Hat Enterprise Virtualization Manager は、ホストの空きメモリーが最小のサービス閾値を下回るまで、仮想マシンをクラスター内の他のホストに移行します。MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized の両方を 0 MB に設定すると、メモリーベースの負荷分散は無効になります。これは、power_saving および evenly_distributed のポリシーに追加可能なオプションのプロパティーです。
  • MinFreeMemoryForUnderUtilized: 最大のサービスレベルに必要な最小の空きメモリー容量を MB 単位で設定します。ホストのメモリー使用率がこの値以下で実行されると、Red Hat Enterprise Virtualization Manager はクラスター内の別のホストに仮想マシンを移行してから、そのホストマシンの電源を自動的に切断し、負荷分散により要求された場合やクラスター内の利用可能なホストが足りない場合に再起動します。 MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized を両方 0 MB に設定すると、メモリーベースの負荷分散は無効になります。これは、power_saving および evenly_distributed のポリシーに追加可能なオプションのプロパティーです。
スケジューラーの最適化
ホストの加重/順序のスケジューリングを最適化します。
  • 使用率で最適化: スケジューリングに加重モジュールが含まれ、最適の選択が可能となります。
  • スピードで最適化: 保留中の要求が 10 件以上ある場合には、ホストの重み付けをスキップします。
信頼済みサービスを有効にする
OpenAttestation サーバーとの統合を有効にします。この設定を有効にする前に、engine-config ツールを使用して OpenAttestation サーバーの詳細を入力します。
HA 予約を有効にする
Manager による高可用性仮想マシン用のクラスターキャパシティーのモニタリングを有効にします。Manager は、既存のホストで予期しないエラーが発生した場合に、高可用性に指定されている仮想マシンを移行するための適切なキャパシティーをクラスター内で確保します。
カスタムのシリアル番号ポリシーを指定する
このチェックボックスを選択すると、クラスター内の仮想マシンのシリアル番号ポリシーを指定することができます。以下のいずれかのオプションを選択してください。
  • ホストの ID: 仮想マシンのシリアル番号に、ホストの UUID を設定します。
  • 仮想マシンの ID: 仮想マシンのシリアル番号に、仮想マシンの UUID を設定します。
  • カスタムのシリアル番号: カスタムのシリアル番号を指定することができます。
移行の自動収束
このオプションは、クラスター内の仮想マシンのライブマイグレーション中に自動収束を使用するかどうかを設定することができます。ワークロードが大きくサイズの大きい仮想マシンは、ライブマイグレーション中に到達する転送率よりも早くメモリーをダーティーな状態にして、移行を収束できないようにする可能性があります。QEMU の自動収束機能は、仮想マシンの移行を強制的に収束させることができます。QEMU は収束されていないことを自動検出し、仮想マシンで vCPU のスロットルを減らします。デフォルトでは、自動収束はグローバルレベルで無効化されています。
  • engine-config を使用してグローバルレベルで設定されている自動収束の設定を使用するには、グローバル設定から継承する を選択します。このオプションはデフォルトで選択されています。
  • グローバル設定を上書きして、クラスター内の仮想マシンの自動収束を可能にするには、自動収束 を選択します。
  • グローバル設定を上書きして、クラスター内の仮想マシンの自動収束をできないようにするには、自動収束しない を選択します。
移行時の圧縮の有効化
このオプションでは、クラスター内の仮想マシンのライブマイグレーション中に移行の圧縮を使用するかどうかを設定することができます。この機能は、Xor Binary Zero Run-Length-Encoding を使用して、仮想マシンのダウンタイムおよび、メモリーの書き込みの多いワークロードを実行する仮想マシンやメモリー更新パターンがスパースなアプリケーションの合計ライブマイグレーション時間を減らします。デフォルトでは、移行の圧縮はグローバルレベルで無効化されています。
  • engine-config を使用してグローバルレベルで設定されている圧縮の設定を使用するには、グローバル設定から継承する を選択します。このオプションはデフォルトで選択されています。
  • グローバル設定を上書きして、クラスター内の仮想マシンの圧縮を可能にするには、圧縮 を選択します。
  • グローバル設定を上書きして、クラスター内の仮想マシンの圧縮をできないようにするには、圧縮しない を選択します。
ホストの空きメモリーが 20% 未満に下がると、mom.Controllers.Balloon - INFO Ballooning guest:half1 from 1096400 to 1991580 のようなバルーニングコマンドが /var/log/vdsm/mom.log にログ記録されます。/var/log/vdsm/mom.log は、Memory Overcommit Manager のログファイルです。
4.2.2.5. クラスターのコンソール設定
以下の表には、新規クラスター および クラスターの編集 ウィンドウの コンソール タブの設定についての説明をまとめています。
表4.6 コンソールの設定
フィールド
説明/アクション
クラスターの SPICE プロキシーを定義
グローバル設定で定義されている SPICE プロキシーの上書きを有効にするには、このチェックボックスを選択します。この機能は、ハイパーバイザーが属するネットワークの外部からユーザーが接続する場合 (例: ユーザーポータルからの接続) に有用です。
SPICE プロキシーアドレスを上書き
SPICE クライアントが仮想マシンに接続するのに使用するプロキシー。このアドレスは、以下の形式で指定する必要があります。
protocol://[host]:[port]
4.2.2.6. フェンシングポリシーの設定
以下の表には、新規クラスター および クラスターの編集 ウィンドウの フェンシングポリシー タブの設定についての説明をまとめています。
表4.7 フェンシングポリシーの設定
フィールド説明/アクション
フェンシングを有効にするクラスターでフェンシングを有効にします。フェンシングはデフォルトで有効化されていますが、必要に応じて無効にすることができます。たとえば、一時的なネットワークの問題が発生している場合、または発生することが予想される場合に、診断またはメンテナンスの作業が完了するまでの間、管理者はフェンシングを無効にすることができます。フェンシングが無効になると、応答なしの状態のホストで実行されている高可用性の仮想マシンは、別のホストでは再起動されなくなる点に注意してください。
ホストがストレージの有効なリースを持っている場合はフェンシングをスキップこのチェックボックスを選択した場合には、ステータスが Non Responsive で、かつストレージにまだ接続されているクラスター内のホストはフェンシングされません。
クラスターの接続性に問題がある場合はフェンシングをスキップこのチェックボックスを選択すると、クラスター内で接続の問題が発生しているホストの割合が定義済みの 閾値 以上となった場合にフェンシングが一時的に無効となります。閾値 の値はドロップダウンリストから選択します。設定可能な値は、255075100 です。

4.2.3. リソースの編集

概要

リソースのプロパティーを編集します。

手順4.2 リソースの編集

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 編集 をクリックして 編集 ウィンドウを開きます。
  3. 必要なプロパティーを変更して OK をクリックします。
結果

新規プロパティーがリソースに保存されました。プロパティーフィールドが無効の場合には、編集 ウィンドウは閉じません。

4.2.4. クラスター内のホストに負荷および電源管理のポリシーを設定する手順

evenly_distributed および power_saving のスケジューリングポリシーでは、許容可能なメモリーおよび CPU 使用率の値と、どの時点で仮想マシンがホスト間で移行される必要があるかを指定することができます。vm_evenly_distributed スケジューリングポリシーは、仮想マシンの数に基づいて、ホスト間で仮想マシンを均等に配分します。クラスター内のホスト間における自動負荷分散を有効にするスケジューリングポリシーを定義します。各スケジューリングポリシーに関する詳しい説明は、「スケジューリングポリシーの設定」を参照してください。

手順4.3 ホストに負荷および電源管理のポリシーを設定する手順

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のクラスターを選択します。
  2. 編集 クリックすると、クラスターの編集 ウィンドウが表示されます。
    スケジューリングポリシーの編集

    図4.4 スケジューリングポリシーの編集

  3. 以下のポリシーのいずれかを選択します。
    • none
    • vm_evenly_distributed
      1. HighVmCount フィールドには、各ホストで実行可能な仮想マシンの最大数を設定します。
      2. MigrationThreshold フィールドには、使用率が最も高いホスト上の仮想マシン数と使用率が最も低いホスト上の仮想マシン数の差異を定義します。
      3. SpmVmGrace フィールドで定義するスロット数により、SPM ホスト上で仮想マシン用に確保されるスロット数が他のホストよりもどれだけ少なくなるかを指定します。
    • evenly_distributed
      1. CpuOverCommitDurationMinutes フィールドには、スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。
      2. HighUtilization フィールドには、他のホストへの仮想マシン移行を開始する CPU 使用率を入力します。
      3. MinFreeMemoryForUnderUtilized には、仮想マシンが他のホストへの移行を開始する、必要な空きメモリー容量の最小値を MB 単位でを入力します。
      4. MaxFreeMemoryForOverUtilized には、仮想マシンが他のホストへの移行を開始する、必要な最大空きメモリー容量を MB 単位でを入力します。
    • power_saving
      1. CpuOverCommitDurationMinutes フィールドには、スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。
      2. LowUtilization フィールドには、ホストが十分に活用されていないと見なされる CPU 使用率の下限を入力します。
      3. HighUtilization フィールドには、他のホストへの仮想マシン移行を開始する CPU 使用率を入力します。
      4. MinFreeMemoryForUnderUtilized には、仮想マシンが他のホストへの移行を開始する、必要な空きメモリー容量の最小値を MB 単位でを入力します。
      5. MaxFreeMemoryForOverUtilized には、仮想マシンが他のホストへの移行を開始する、必要な最大空きメモリー容量を MB 単位でを入力します。
  4. クラスターの スケジューラーの最適化 には、以下のいずれかを選択します。
    • 使用率で最適化 を選択すると、スケジューリングに加重モジュールが含まれ、最適の選択が可能となります。
    • スピードで最適化 を選択すると、保留中の要求が 10 件以上ある場合には、ホストの重み付けをスキップします。
  5. engine-config ツールを使用してサーバーの詳細を設定済みで、OpenAttestation サーバーを使用してホストを検証する場合は、信頼済みサービスを有効にする のチェックボックスを選択します。
  6. オプションとして、Manager による高可用性仮想マシン用のクラスターキャパシティーのモニタリングを有効にするには、HA 予約を有効にする のチェックボックスにチェックを入れます。
  7. オプションとして、クラスター内の仮想マシンのシリアル番号ポリシーを指定するには、カスタムのシリアル番号ポリシーを指定する チェックボックスにチェックを入れて、以下のオプションのいずれかを選択します。
    • ホストの UUID を仮想マシンのシリアル番号として設定するには、Host ID を選択します。
    • 仮想マシンの UUID を仮想マシンのシリアル番号として設定するには、Vm ID を選択します。
    • カスタムのシリアル番号を指定するには、カスタムのシリアル番号 を選択します。
  8. OK をクリックします。

4.2.5. クラスター内のホスト上での MOM ポリシーの更新

Memory Overcommit Manager は、ホストでメモリーバルーンと KSM の機能を処理します。これらの機能をクラスターレベルで変更した場合には、その設定がホストに渡されるのは、ホストの再起動後か、ホストがメンテナンスモードから Up のステータスに切り替わった後のみです。ただし、必要な場合には、ホストが Up の状態の時に MOM ポリシーを同期することによって、重要な変更をホストに即時に適用することができます。以下の手順は、各ホストで個別に実行する必要があります。

手順4.4 ホスト上での MOM ポリシーの同期

  1. クラスター タブをクリックして、対象のホストが属するクラスターを選択します。
  2. 詳細ペインの ホスト タブをクリックして、MOM ポリシーを更新する必要のあるホストを選択します。
  3. MOM ポリシーを同期 をクリックします。
この操作を実行すると、ホストをメンテナンスモードに切り替えてから Up のステータスに戻す必要なく、ホスト上の MOM ポリシーが更新されます。

4.2.6. CPU プロファイル

CPU プロファイルは、クラスター内の仮想マシンが、その仮想マシンを実行するホストで利用できる最大処理能力を定義します。この値は、そのホストで利用可能な総処理能力に対するパーセンテージで指定します。CPU プロファイルは、データセンター下で定義されている CPU プロファイルに基づいて作成されますが、クラスター内の全仮想マシンには自動的に適用されないので、有効にするには個別の仮想マシンに手動で割り当てる必要があります。
4.2.6.1. CPU プロファイルの作成
CPU プロファイルを作成します。以下の手順は、クラスターの属するデータセンター下で CPU QoS エントリーが 1 つ以上定義済みであることを前提としています。

手順4.5 CPU プロファイルの作成

  1. クラスター リソースタブをクリックしてクラスターを選択します。
  2. 詳細ペインで CPU プロファイル のサブタブをクリックします。
  3. 新規作成 をクリックします。
  4. 名前 フィールドに CPU プロファイルの名前を入力します。
  5. 説明 フィールドに CPU プロファイルの説明を入力します。
  6. QoS 一覧から CPU プロファイルに適用する QoS を選択します。
  7. OK をクリックします。
CPU プロファイルが作成されました。この CPU プロファイルは、そのクラスター内の仮想マシンに適用することができます。
4.2.6.2. CPU プロファイルの削除
Red Hat Enterprise Virtualization 環境から既存の CPU プロファイルを削除します。

手順4.6 CPU プロファイルの削除

  1. クラスター リソースタブをクリックしてクラスターを選択します。
  2. 詳細ペインで CPU プロファイル のサブタブをクリックします。
  3. 削除する CPU プロファイルを選択します。
  4. 削除 をクリックします。
  5. OK をクリックします。
CPU プロファイルが削除され、その CPU プロファイルは使用できなくなりました。CPU プロファイルが仮想マシンに割り当てられていた場合は、その仮想マシンには default CPU プロファイルが自動的に割り当てられます。

4.2.7. 既存の Red Hat Gluster Storage クラスターのインポート

Red Hat Gluster Storage クラスターおよびそのクラスターに属する全ホストを Red Hat Enterprise Virtualization Manager にインポートすることができます。
クラスター内のホストの IP アドレスやホスト名、パスワードなどの情報を提供する際には、SSH 経由で、そのホスト上で gluster peer status コマンドを実行すると、そのクラスターに属するホストの一覧が表示されます。各ホストのフィンガープリントは手動で確認して、パスワードを提供する必要があります。クラスター内のいずれかのホストが停止しているか、または到達不可な時には、クラスターをインポートすることはできません。新たにインポートされたホストには、VDSM はインストールされていないので、インポートした後には、ブートストラップスクリプトにより必要な VDSM パッケージがすべてホストにインストールされ、ホストが再起動されます。

重要

現在、Red Hat Gluster Storage ノードは、互換性レベルが 3.13.2、または 3.3 に設定されたクラスターにしか追加できません。

手順4.7 Red Hat Enterprise Virtualization Manager への既存の Red Hat Gluster Storage クラスターのインポート

  1. クラスター リソースタブを選択すると、結果一覧に全クラスターが表示されます。
  2. 次に 新規作成 ボタンをクリックして、新規クラスター ウィンドウを開きます。
  3. ドロップダウンメニューからクラスターが属する データセンター を選択します。
  4. クラスターの 名前説明 を入力します。
  5. Gluster サービスを有効にする のラジオボタンと 既存の Gluster 設定をインポート のチェックボックスを選択します。
    既存の Gluster 設定をインポート のフィールドは、Gluster サービスを有効にする のラジオボタンを選択した場合のみに表示されます。
  6. アドレス フィールドに、クラスター内の任意のサーバーのホスト名または IP アドレスを入力します。
    ホストの フィンガープリント が表示され、正しいホストに接続していることを確認します。ホストが到達不可の場合、またはネットワークエラーが発生している場合には、フィンガープリント フィールドに フィンガープリントの取得でエラーが発生しました というエラーメッセージが表示されます。
  7. サーバーの root パスワード を入力し、OK をクリックします。
  8. ホストの追加 ウィンドウが開き、クラスターに属するホストの一覧が表示されます。
  9. 各ホストの 名前root パスワード を入力します。
  10. 全ホストで同じパスワードを使用する場合は、共通のパスワードを使用 のチェックボックスを選択し、表示されているテキストフィールドにパスワードを入力します。
    適用をクリックし、入力したパスワードを全ホストに設定します。
    フィンガープリントが有効であることを確認した上で OK をクリックし、変更を送信します。
ホストをインポートした後に、ブートストラップスクリプトにより、必要な VDSM パッケージがすべてホストにインストールされました。既存の Red Hat Gluster Storage クラスターが Red Hat Enterprise Virtualization Manager に正常にインポートされました。

4.2.8. ホストの追加ウィンドウの設定

ホストの追加 ウィンドウでは、Gluster 対応クラスターの一部としてインポートするホストの詳細を指定することができます。このウィンドウは、新規クラスター ウィンドウの Gluster サービスを有効にする のチェックボックスを選択して、必要なホストの詳細を指定した後に表示されます。
表4.8 Gluster ホスト追加の設定
フィールド説明
共通のパスワードを使用クラスター内の全ホストに同じパスワードを使用するには、このチェックボックスにチェックを入れます。パスワード フィールドにパスワードを入力して、適用 ボタンをクリックすると、そのパスワードが全ホストに設定されます。
名前ホスト名を入力します。
ホスト名/IP アドレスこのフィールドには、新規クラスター ウィンドウで指定したホストの完全修飾ドメイン名または IP アドレスが自動的に入力されます。
root パスワードホストごとに異なる root パスワードを使用する場合には、このフィールドにパスワードを入力します。このフィールドにより、クラスター内の全ホストに対して指定した共通パスワードが上書きされます。
フィンガープリントホストのフィンガープリントが表示され、正しいホストに接続することを確認します。このフィールドには、新規クラスター ウィンドウで指定したホストのフィンガープリントが自動的に入力されます。

4.2.9. クラスターの削除

概要

削除前にクラスターからすべてのホストを移動します。

注記

Default クラスターには Blank テンプレートが含まれているため削除することはできません。ただし、Default クラスターの名前を変更し、新規データセンターに追加することはできます。

手順4.8 クラスターの削除

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のクラスターを選択します。
  2. クラスター内にホストがないことを確認します。
  3. 削除 をクリックすると クラスターの削除 の確認ウィンドウが開きます。
  4. OK をクリックします。
結果

クラスターが削除されました。

4.2.10. クラスターの互換バージョンの変更

Red Hat Enterprise Virtualization のクラスターには互換バージョンがあります。クラスターの互換バージョンは、そのクラスター内の全ホストがサポートする Red Hat Enterprise Virtualization の機能を示します。クラスターの互換バージョンは、そのクラスター内で最も機能性の低いホストのバージョンに応じて設定されます。

注記

クラスターの互換バージョンを変更するには、まず、クラスター内の全ホストを更新して、必要な互換性レベルをサポートするレベルにする必要があります。

手順4.9 クラスターの互換バージョンの変更

  1. 管理ポータルで クラスター タブをクリックします。
  2. 表示された一覧の中から、変更するクラスターを選択します。
  3. 編集 をクリックします。
  4. 互換バージョン を必要な値に変更します。
  5. OK をクリックして、クラスターの互換バージョンを変更 の確認ウィンドウを開きます。
  6. OK をクリックして確定します。
クラスターの互換バージョンが更新されました。データセンター内の全クラスターの互換バージョンの更新が済むと、データセンター自体の互換バージョンも変更することができます。

警告

互換バージョンをアップグレードすると、そのデータセンターに属しているストレージドメインもすべてアップグレードされます。互換バージョンを 3.0 以前のバージョンから 3.1 以降にアップグレードすると、これらのストレージドメインは 3.0 以前のバージョンでは使用できなくなります。

4.3. クラスターとパーミッション

4.3.1. クラスターに対するシステムパーミッションの管理

システム管理者は、SuperUser として管理ポータルの全側面を管理する管理者です。他のユーザーには、より特定的な管理者ロールを割り当てることができます。このような制限付きの管理者ロールは、特定のリソースに限定した特定の管理者権限をユーザーに付与する場合に有用です。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのみに対して (ただし、そのデータセンター用のストレージは例外)、ClusterAdmin は割り当てられたクラスターのみに対して管理者権限があります。
クラスターの管理者は、特定のクラスターのみのシステム管理者ロールです。これは、複数のクラスターがあるデータセンターで、各クラスターにシステム管理者が必要な場合に有用です。ClusterAdmin ロールは、階層モデルで、特定のクラスターのクラスター管理者ロールを割り当てられたユーザーは、そのクラスター内のオブジェクトをすべて管理することができます。ヘッダーバーの 設定 ボタンを使用すると、環境内の全クラスターのクラスター管理者を割り当てることができます。
クラスター管理者ロールは、以下のアクションを許可します。
  • 関連付けられたクラスターの作成/削除
  • クラスターに関連付けられたホスト、仮想マシン、プールの作成/削除
  • クラスターに関連付けられた仮想マシンのユーザーパーミッションの編集

注記

ロールとパーミッションは、既存のユーザーにしか割り当てることができません。
また、既存のシステム管理者を削除して、新規システム管理者を追加することによって、クラスターのシステム管理者を変更することもできます。

4.3.2. クラスター管理者ロール

クラスターに対するパーミッションがあるロール

以下の表には、クラスターの管理に適用可能な管理者ロールと権限についての説明をまとめています。

表4.9 Red Hat Enterprise Virtualization のシステム管理者ロール
ロール権限備考
ClusterAdminクラスター管理者
特定のクラスター内の全物理/仮想リソース (ホスト、テンプレート、仮想マシンを含む) を使用、作成、削除、管理することができます。クラスター内のネットワークプロパティーを設定することができます (ディスプレイネットワークの指定、ネットワークを必須または任意にマークするなど)。
ただし、ClusterAdmin には、クラスターにネットワークをアタッチ/デタッチするパーミッションはありません。この操作を行うには、NetworkAdmin パーミッションが必要です。
NetworkAdminネットワーク管理者特定のクラスターのネットワークを設定、管理できます。クラスターのネットワーク管理者はクラスター内の仮想マシンに対するネットワークパーミッションも継承します。

4.3.3. リソースに対する管理者およびユーザーロールの割り当て

リソースに対して管理者またはユーザーのロールを割り当てると、ユーザーはそのリソースへのアクセスや管理ができるようになります。

手順4.10 リソースへのロール割り当て

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. 追加 をクリックします。
  4. 検索 テキストボックスに既存ユーザーの名前またはユーザー名を入力し、検索 をクリックします。結果一覧に表示される検索候補からユーザーを選択します。
  5. 割り当てるロール ドロップダウンリストからロールを選択します。
  6. OK をクリックします。
ユーザーにロールが割り当てられました。このユーザーは、対象のリソースに対して有効化されたロールのパーミッションを継承します。

4.3.4. リソースからの管理者またはユーザーロールの削除

リソースから管理者またはユーザーのロールを削除すると、そのリソースのロールに関連付けられたユーザーのパーミッションは継承されなくなります。

手順4.11 リソースからのロール削除

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. リソースから削除するユーザーを選択します。
  4. 削除 をクリックします。パーミッションが削除されることを確認する パーミッションの削除 ウィンドウが開きます。
  5. OK をクリックします。
ユーザーロールおよび関連付けられたパーミッションが削除されました。

第5章 論理ネットワーク

5.1. 論理ネットワークのタスク

5.1.1. ネットワークタブの使用

ネットワーク リソースタブは、ユーザーが論理ネットワーク関連の操作を行ったり、各ネットワークのプロパティーやその他のリソースとの関連付けに基づいて論理ネットワークの検索を行ったりする中央の場所です。
ネットワーク タブの結果一覧には、Red Hat Enterprise Virtualization 環境内の全論理ネットワークが表示されます。新規作成編集削除 のボタンで、データセンター内の論理ネットワークの作成、プロパティー変更、削除を行うことができます。
各ネットワーク名をクリックして、詳細ペインの クラスターホスト仮想マシンテンプレートパーミッション の各タブを使用すると、以下のような操作を実行することができます。
  • クラスターおよびホストへのネットワークのアタッチ/デタッチ
  • 仮想マシンおよびテンプレートからのネットワークインターフェースの削除
  • ユーザーがネットワークにアクセスして管理するためのパーミッションの追加/削除
これらの機能は、各リソースタブからもアクセスすることができます。

警告

実行中のホストがある場合には、クラスターやデータセンター内のネットワークを変更しないでください。ホストが到達不能となるリスクがあります。

重要

Red Hat Enterprise Virtualization ノードをサービスの提供に使用する予定がある場合には、Red Hat Enterprise Virtualization 環境が稼働停止すると、そのサービスも停止してしまうことを念頭に置いてください。
これはすべてのサービスが対象となりますが、特に以下のサービスを Red Hat Enterprise Virtualization で実行する場合の危険性を認識しておく必要があります。
  • ディレクトリーサービス
  • DNS
  • ストレージ

5.1.2. データセンターまたはクラスター内での新規論理ネットワークの作成

データセンター内またはデータセンター内のクラスターに論理ネットワークを作成し、その用途を定義します。

手順5.1 データセンターまたはクラスター内での新規論理ネットワークの作成

  1. データセンター または クラスター リソースタブをクリックして、結果一覧からデータセンターまたはクラスターを選択します。
  2. 詳細ペインの 論理ネットワーク タブをクリックして既存の論理ネットワークを表示します。
    • データセンター の詳細ペインから 新規作成 をクリックし、新規論理ネットワーク ウィンドウを開きます。
    • クラスター の詳細ペインから ネットワークを追加 をクリックし、新規論理ネットワーク ウィンドウを開きます。
  3. 論理ネットワークの 名前説明、および コメント を入力します。
  4. オプションとして、外部プロバイダー上に作成する チェックボックスを選択します。ドロップダウンリストから 外部プロバイダー を選択し、物理ネットワーク の IP アドレスを指定します。
    外部プロバイダー上に作成する を選択した場合には、ネットワークラベル仮想マシンネットワーク、および MTU オプションは無効になります。
  5. ネットワークラベル のテキストフィールドには、その論理ネットワーク用に新規ラベルを入力するか、既存のラベルを選択します。
  6. オプションで VLAN タグ付けを有効にする を選択します。
  7. オプションで 仮想マシンネットワーク を無効にします。
  8. MTU 値を デフォルト (1500) または カスタム に設定します。
  9. クラスター タブから、ネットワークを割り当てるクラスターを選択します。その論理ネットワークを必須ネットワークにするかどうかも指定することができます。
  10. 外部プロバイダー上に作成する を選択した場合には、サブネット タブが表示されます。この サブネット タブで サブネットを作成 を選択して、その論理ネットワークが提供するサブネットの 名前CIDRゲートウェイ アドレスを入力し、 IP バージョン を選択します。また、必要に応じて、DNS サーバーも追加することができます。
  11. 必要に応じて、仮想 NIC プロファイル タブから、仮想 NIC プロファイルを論理ネットワークに追加します。
  12. OK をクリックします。
データセンター内のクラスターが必要とするリソースとして、論理ネットワークを定義しました。論理ネットワークにラベルを指定した場合には、論理ネットワークは、そのラベルがついた全ホストネットワークインターフェースに自動的に追加されます。

注記

新規論理ネットワークを作成する場合、またはディスプレイネットワークとして使用されている既存の論理ネットワークを変更する場合には、ネットワークが使用可能になる前または変更が適用される前に、そのネットワークを使用する実行中の仮想マシンを再起動する必要があります。

5.1.3. 論理ネットワークの編集

論理ネットワーク設定を編集します。

手順5.2 論理ネットワークの編集

重要

論理ネットワークは、ホスト上のネットワーク設定と同期されていない場合には、編集したり、別のインターフェースに移動したりすることはできません。ネットワークの同期方法については、「ホストネットワークインターフェースの編集とホストへの論理ネットワークの割り当て」を参照してください。
  1. データセンター リソースタブをクリックして、結果一覧内で論理ネットワークのデータセンターを選択します。
  2. 詳細ペインの 論理ネットワーク タブをクリックし、クラスター内の論理ネットワークを表示します。
  3. 論理ネットワークを選択して 編集 をクリックし、論理ネットワークの編集 ウィンドウを開きます。
  4. 必要な設定を編集します。
  5. OK をクリックして変更を保存します。

注記

マルチホストネットワーク設定は、互換バージョンが 3.1 以上のデータセンターで使用することができます。この機能により、そのネットワークが割り当てられたデータセンター内の全ホストに、更新したネットワークの設定が自動的に適用されます。変更は、そのネットワークを使用する仮想マシンの停止時のみに適用することができます。ホスト上ですでに設定済みの論理ネットワークの名前は変更できません。仮想マシンのネットワーク オプションは、そのネットワークを使用する仮想マシンまたはテンプレートの実行中には無効にすることはできません。

5.1.4. 論理ネットワークの削除

ネットワーク リソースタブまたは データセンター リソースタブから論理ネットワークを削除することができます。以下の手順には、データセンターに関連付けられた論理ネットワークを削除する方法を記載します。Red Hat Enterprise Virtualization 環境が稼働するには、少なくとも 1 つの論理ネットワークを ovirtmgmt 管理ネットワークとして使用する必要があります。

手順5.3 論理ネットワークの削除

  1. データセンター リソースタブをクリックして、結果一覧内で論理ネットワークのデータセンターを選択します。
  2. 詳細ペインの 論理ネットワーク タブをクリックし、クラスター内の論理ネットワークを表示します。
  3. 論理ネットワークを選択して 削除 をクリックすると、論理ネットワークの削除 ウィンドウが開きます。
  4. オプションで、ネットワークが外部プロバイダーから提供されている場合は このネットワークを外部プロバイダーからも削除する のチェックボックスにチェックを入れることで、Manager と外部プロバイダーの両方から論理ネットワークを削除することができます。
  5. OK をクリックします。
Manager から論理ネットワークが削除され、利用できなくなりました。

5.1.5. 論理ネットワークのゲートウェイの表示/編集

論理ネットワークのゲートウェイは、IP アドレスやサブネットマスクと同様にユーザーが定義することができます。これは、1 台のホストで複数のネットワークが存在する場合に、デフォルトのゲートウェイではなく、指定のネットワークを使用してトラフィックをルーティングする必要がある場合に不可欠です。
1 台のホストに複数のネットワークが存在し、ゲートウェイが定義されていない場合には、リターントラフィックはデフォルトのゲートウェイを使用してルーティングされ、目的の送信先に到達しない可能性があります。その場合には、ユーザーはホストを ping できなくなります。
Red Hat Enterprise Virtualization は、インターフェースの状態が up または down に切り替わると、自動的に複数のゲートウェイに対応します。

手順5.4 論理ネットワークのゲートウェイの表示/編集

  1. ホスト リソースタブをクリックして、対象のホストを選択します。
  2. 詳細ペインにある ネットワークインターフェース タブをクリックし、ホストにアタッチされたネットワークインターフェースおよびその設定を一覧表示します。
  3. ホストネットワークを設定 ボタンをクリックすると ホストネットワークの設定 ウィンドウが開きます。
  4. 割り当てられた論理ネットワークの上にマウスを移動し、鉛筆のアイコンをクリックすると、管理ネットワークの編集 ウィンドウが開きます。
管理ネットワークの編集 ウィンドウには、ネットワーク名、ブートプロトコル、IP アドレス、サブネットマスク、およびゲートウェイのアドレスが表示されます。Static ブートプロトコルを選択すると、アドレス情報が手動で編集できる状態になります。

5.1.6. 新規ネットワークおよび論理ネットワークの編集ウィンドウの設定とコントロール

5.1.6.1. 論理ネットワークの全般設定
以下の表には、新規論理ネットワーク および 論理ネットワークの編集 ウィンドウの 全般 タブの設定についての説明をまとめています。
表5.1 新規論理ネットワーク および 論理ネットワークの編集 の設定
フィールド名
説明
名前
論理ネットワークの名前。このテキストフィールドは最長で 15 文字に制限されており、アルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。
説明
論理ネットワークの説明。このテキストフィールドは、最長で 40 文字に制限されています。
コメント
論理ネットワークに関する、プレーンテキスト形式の人間が判読できるコメントを追加するためのフィールド
外部プロバイダー上に作成する
外部プロバイダーとして Manager に追加済みの OpenStack Networking Service インスタンスに論理ネットワークを作成することができます。
外部プロバイダー: 論理ネットワークの作成先となる外部プロバイダーを選択することができます。
VLAN タグ付けを有効にする
VLAN タグ付けは、論理ネットワーク上のネットワークトラフィックすべてに特定の特性を指定するセキュリティー機能です。VLAN タグが付いたトラフィックは、同じ特性を持つインターフェース以外で読み取ることはできません。論理ネットワークで VLAN を使用すると、1 つのネットワークインターフェースを異なる VLAN タグの付いた複数の論理ネットワークに関連付けることができます。VLAN タグ付けを有効にする場合は、テキスト入力フィールドに数値を入力してください。
仮想マシンネットワーク
そのネットワークを仮想マシンのみが使用する場合には、このオプションを選択します。ネットワークが仮想マシンには関係のないトラフィック (例: ストレージ用の通信など) に使用される場合には、このチェックボックスは選択しないでください。
MTU
デフォルト を選択して論理ネットワークの最大転送単位 (MTU) を括弧内の値に設定するか、カスタム を選択してカスタムの MTU を設定します。この設定を使用すると、新規論理ネットワークがサポートする MTU 値と、そのネットワークがインターフェース接続するハードウェアがサポートする MTU 値を適合させることができます。カスタム を選択した場合は、テキスト入力フィールドに数値を入力してください。
ネットワークラベル
ネットワークの新規ラベルを指定したり、ホストネットワークインターフェースにすでにアタッチされている既存のラベルから選択したりすることができます。既存のラベルを選択した場合には、論理ネットワークは、そのラベルが付いた全ホストネットワークインターフェースに自動的に割り当てられます。
5.1.6.2. 論理ネットワークのクラスターの設定
以下の表には、新規論理ネットワーク ウィンドウの クラスター タブの設定についての説明をまとめています。
表5.2 新規論理ネットワーク の設定
フィールド名
説明
クラスターに対するネットワークのアタッチ/デタッチ
データセンター内のクラスターに論理ネットワークをアタッチ/デタッチして、その論理ネットワークが個別のクラスターの必須ネットワークとなるかどうかを指定することができます。
名前: 設定を適用するクラスターの名前。この値は編集できません。
すべてをアタッチ: データセンター内の全クラスターに論理ネットワークをアタッチ/デタッチすることができます。もしくは、各クラスター名の横にある アタッチ チェックボックスを選択または選択解除して、特定のクラスターに論理ネットワークをアタッチ/デタッチします。
すべて必須: その論理ネットワークを全クラスター上の必須ネットワークとするかどうかを指定することができます。もしくは、各クラスター名の横にある 必須 チェックボックスを選択または選択解除して、特定のクラスターでその論理ネットワークを必須ネットワークとするかどうかを指定します。
5.1.6.3. 論理ネットワークの仮想 NIC プロファイルの設定
以下の表には、新規論理ネットワーク ウィンドウの 仮想 NIC プロファイル タブの設定についての説明をまとめています。
表5.3 新規論理ネットワーク の設定
フィールド名
説明
仮想 NIC プロファイル
対象の論理ネットワークに 1 つまたは複数の仮想 NIC プロファイルを指定することができます。仮想 NIC プロファイルの横にあるプラスまたはマイナスのボタンをクリックすると、論理ネットワークに仮想 NIC プロファイルを追加または削除することができます。最初のフィールドには、仮想 NIC プロファイルの名前を入力します。
パブリック: 対象のプロファイルを全ユーザーが利用できるかどうかを指定することができます。
QoS: ネットワークのサービス品質 (QoS) プロファイルを仮想 NIC プロファイルに指定することができます。

5.1.7. ネットワークの管理ウィンドウで論理ネットワークに特定のトラフィックタイプを指定する手順

論理ネットワークのトラフィックタイプを指定して、ネットワークトラフィックのフローを最適化します。

手順5.5 論理ネットワークのトラフィックタイプの指定

  1. クラスター リソースタブをクリックして、結果一覧からクラスターを選択します。
  2. 詳細ペインの 論理ネットワーク タブをクリックし、クラスターに割り当てられた論理ネットワークを表示します。
  3. ネットワークを管理 をクリックし、ネットワークの管理 ウィンドウを開きます。
    The Manage Networks window

    図5.1 ネットワークの管理

  4. 該当するチェックボックスを選択します。
  5. OK をクリックして変更を保存し、ウィンドウを閉じます。
特定の論理ネットワークで特定のタイプのトラフィックが伝送されるように割り当てることにより、ネットワークトラフィックのフローを最適化しました。

注記

外部プロバイダーが提供する論理ネットワークは、仮想マシンネットワークとして使用する必要があり、ディスプレイや移行などの特別なクラスターロールを割り当てることはできません。

5.1.8. ネットワークの管理ウィンドウの設定

以下の表には、ネットワークの管理 ウィンドウの設定についての説明をまとめています。
表5.4 ネットワーク設定の管理
フィールド
説明/アクション
割り当て
論理ネットワークをクラスター内の全ホストに割り当てます。
必須
関連付けられているホストが正常に機能するためには、「必須」とマークされているネットワークは稼働状態を維持する必要があります。必須ネットワークが機能を停止すると、そのネットワークに関連付けられたホストはいずれも非稼働状態となります。
仮想マシンネットワーク
「仮想マシンネットワーク」とマークされている論理ネットワークは、仮想マシンのネットワークに関連するネットワークトラフィックを伝送します。
ディスプレイネットワーク
「ディスプレイネットワーク」とマークされている論理ネットワークは、SPICE および仮想ネットワークコントローラーに関連するネットワークトラフィックを伝送します。
移行ネットワーク
「移行ネットワーク」とマークされている論理ネットワークは、仮想マシンおよびストレージの移行トラフィックを伝送します。

5.1.9. NIC の Virtual Function 設定の編集

Single Root I/O Virtualization (SR-IOV) により、単一の PCIe エンドポイントを複数の別個のデバイスとして使用できるようになります。これは、Physical Function (PF) と Virtual Function (VF) の 2 つの PCIe 機能を導入することによって実現します。1 つの PCIe カードには 1 から 8 までの PF を使用することができますが、各 PF は、それよりもはるかに多くの VF をサポートすることが可能です (デバイスによって異なります)。SR-IOV についての説明および SR-IOV を Red Hat Enterprise Virtualization に実装するにあたってハードウェアの考慮事項に関する詳しい情報は、『SR-IOV 実装に関するハードウェアの考慮事項』を参照してください。
各 NIC 上の VF 数や VF にアクセス可能な仮想ネットワークの指定などを含む SR-IOV 対応のネットワークインターフェースコントローラー (NIC) の設定は、Red Hat Enterprise Virtualization Manager で編集することが可能です。
VF の作成が完了したら、各 VF をスタンドアロンの NIC と同様に扱うことができます。これには、1 つまたは複数の論理ネットワークを VF に割り当てたり、VF でボンディングされたインターフェースを作成したり、仮想 NIC を直接割り当てて直接のデバイスパススルーを可能にしたりするなどが含まれます。
仮想 NIC を VF に直接アタッチするには、仮想 NIC でパススルーを有効化する必要があります。「仮想 NIC プロファイルでのパススルーの有効化」を参照してください。

手順5.6 NIC の Virtual Function 設定の編集

  1. SR-IOV 対応のホストを選択して、詳細ペインの ネットワークインターフェース タブをクリックします。
  2. ホストネットワークを設定 をクリックすると ホストネットワークの設定 ウィンドウが開きます。
  3. Select an SR-IOV-capable NIC, marked with a , and click the pencil icon to open the Edit Virtual Functions (SR-IOV) configuration of NIC window.
  4. Virtual Function の数を編集するには、VF 設定数 のドロップダウンボタンをクリックして、VF 数 テキストフィールドを編集します。

    重要

    VF の数を変更すると、新規 VF が作成される前にそのネットワークインターフェース上の以前の VF は削除されます。これには、仮想マシンが直接アタッチされていた VF も含まれます。
  5. 全ネットワーク チェックボックスはデフォルトで選択され、全ネットワークが Virtual Function にアクセスすることができます。Virtual Function にアクセス可能な仮想ネットワークを指定するには、特定のネットワーク ラジオボタンを選択して、全ネットワークの一覧が表示してから、指定するネットワークのチェックボックスを選択するか、ラベル テキストフィールドを使用して 1 つまたは複数のネットワークラベルに基づいてネットワークを自動的に選択します。
  6. OK をクリックしてウィンドウを閉じます。ホストネットワークの設定 ウィンドウで OK ボタンをクリックするまで設定の変更は有効にならない点に注意してください。

5.2. 仮想ネットワークインターフェースカード

5.2.1. 仮想 NIC プロファイルの概要

Virtual Network Interface (仮想 NIC) プロファイルは、Manager 内の個別の仮想マシンネットワークインターフェースに適用することができる設定値の集合体です。仮想 NIC プロファイルにより、ネットワーク QoS プロファイルを 仮想 NIC に適用して、ポートミラーリングを有効化/無効化したり、カスタムプロパティーを追加/削除したりできます。また、仮想 NIC プロファイルにより、管理における柔軟性が向上します。プロファイルを使用 (消費) するためのパーミッションを特定のユーザーに付与することができるので、特定のネットワークから異なるユーザーに提供されるサービス品質を制御することができます。

5.2.2. 仮想 NIC プロファイルの作成と編集

ユーザーおよびグループ用のネットワーク帯域幅を制御するための仮想ネットワークインターフェースコントローラー (仮想 NIC) プロファイルを作成/編集します。

注記

ポートミラーリングを有効化/無効化する場合には、変更する前に、関連付けられたプロファイルを使用している仮想マシンをすべて停止状態にする必要があります。

手順5.7 仮想 NIC プロファイルの作成と編集

  1. ネットワーク リソースタブをクリックし、結果一覧で論理ネットワークを選択します。
  2. 詳細ペインで 仮想 NIC プロファイル タブを選択します。ツリーモードで論理ネットワークを選択した場合には、ナビゲーションペインで 仮想 NIC プロファイル タブを選択することができます。
  3. 新規作成 または 編集 をクリックすると、仮想マシンインターフェースのプロファイル ウィンドウが表示されます。
    The VM Interface Profile window

    図5.2 仮想マシンインターフェースのプロファイルウィンドウ

  4. プロファイルの 名前説明 を入力します。
  5. QoS 一覧から対象の QoS を選択します。
  6. 仮想 NIC でパススルーを有効化して Virtual Function のデバイスの直接割り当てができるようにするには、パススルー チェックボックスを選択します。パススルーのプロパティーを有効にすると、QoS とポートミラーリングは互換性がないため無効になります。パススルーに関する詳しい説明は、「仮想 NIC プロファイルでのパススルーの有効化」を参照してください。
  7. ポートミラーリング および 全ユーザーにこのプロファイルの使用を許可する のチェックボックスを使用して、これらのオプションを切り替えます。
  8. カスタムプロパティーの一覧からカスタムプロパティーを 1 つ選択します。このフィールドには、デフォルトで キーを選択してください と表示されます。+ および - のボタンを使用して、カスタムプロパティーを追加または削除します。
  9. OK をクリックします。
仮想 NIC プロファイルを作成しました。このプロファイルをユーザーおよびグループに適用して、ネットワーク帯域幅を制御してください。仮想 NIC プロファイルを編集した場合には、仮想マシンを再起動するか、仮想 NIC をホットアンプラグしてからホットプラグする必要がある点に注意してください。

注記

ゲストオペレーティングシステムが、仮想 NIC のホットプラグとホットアンプラグをサポートする必要があります。

5.2.3. 仮想マシンインターフェースのプロファイルウィンドウの設定

表5.5 仮想マシンインターフェースのプロファイルウィンドウ
フィールド名
説明
ネットワーク
仮想 NIC プロファイルを適用する利用可能なネットワークのドロップダウンメニュー
名前
仮想 NIC プロファイルの名前。1 - 50 文字のアルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。
説明
仮想 NIC プロファイルの説明。このフィールドは、必須ではありませんが、記入することを推奨します。
QoS
仮想 NIC プロファイルに適用する利用可能なネットワーク QoS ポリシーのドロップダウンメニュー。QoS ポリシーは仮想 NIC の受信/送信トラフィックを制御します。
パススルー
パススルーのプロパティーを切り替えるためのチェックボックス。パススルーにより、仮想 NIC をホストの Virtual Function に直接接続することができます。仮想 NIC プロファイルが仮想マシンにアタッチされている場合には、パススループロパティーは編集できません。
パススルーを有効にした場合には、QoS とポートミラーリングは仮想 NIC プロファイルで無効化されます。
ポートミラーリング
ポートミラーリングを切り替えるためのチェックボックス。ポートミラーリングは、論理ネットワーク上のレイヤー 3 ネットワークトラフィックを仮想マシン上の仮想インターフェースにコピーします。デフォルトでは選択されません。詳しくは、『テクニカルリファレンス』の「ポートミラーリング」のセクションを参照してください。
デバイスのカスタムプロパティー
仮想 NIC プロファイルに適用する利用可能なカスタムプロパティーを選択するためのドロップダウンメニュー。プロパティーを追加する場合は + ボタンを、削除する場合は - ボタンを使用します。
全ユーザーにこのプロファイルの使用を許可する
環境内の全ユーザーがこのプロファイルを利用できるかどうかの設定を切り替えるためのチェックボックス。デフォルトで選択されます。

5.2.4. 仮想 NIC プロファイルでのパススルーの有効化

仮想 NIC のパススループロパティーにより、SR-IOV を有効化した NIC の Virtual Function (VF) に仮想 NIC を直接接続することができるようになります。これにより仮想 NIC はソフトウェアのネットワーク仮想化を迂回して VF に直接接続され、デバイスの直接割り当てが可能になります。
仮想 NIC プロファイルがすでに仮想 NIC にアタッチされている場合には、パススループロパティーは有効化できません。以下の手順では、この問題を回避するために新規プロファイルを作成します。仮想 NIC にパススルーが有効化されている場合には、そのプロファイルの QoS とポートミラーリングは無効になります。
SR-IOV、デバイスの直接割り当て、およびそれらを Red Hat Enterprise Virtualization に実装するにあたってハードウェアの考慮事項に関する詳しい情報は、『SR-IOV 実装に関するハードウェアの考慮事項』を参照してください。
VF 設定の編集に関する詳しい情報は、「NIC の Virtual Function 設定の編集」を参照してください。

手順5.8 パススルーの有効化

  1. ネットワーク の結果一覧から論理ネットワークを選択してから詳細ペインの 仮想 NIC プロファイル タブをクリックすると、その論理ネットワークの全仮想 NIC プロファイルが表示されます。
  2. 新規作成 をクリックすると、仮想マシンインターフェースのプロファイル ウィンドウが表示されます。
  3. プロファイルの 名前説明 を入力します。
  4. パススルー チェックボックスを選択します。これにより、QoSポートミラーリング が無効になります。
  5. 必要な場合には、カスタムプロパティーの一覧からカスタムプロパティーを 1 つ選択します。このフィールドには、デフォルトで キーを選択してください と表示されます。+ および - のボタンを使用して、カスタムプロパティーを追加または削除します。
  6. OK をクリックしてプロファイルを保存し、ウィンドウを閉じます。
仮想 NIC プロファイルがパススルー対応になりました。このプロファイルを使用して仮想マシンを直接 NIC または PCI VF にアタッチするには、その論理ネットワークを NIC にアタッチしてから、パススルーの仮想 NIC プロファイルを使用する任意の仮想マシン上で新規仮想 NIC を作成します。これらの手順については、それぞれ「ホストネットワークインターフェースの編集とホストへの論理ネットワークの割り当て」と『仮想マシン管理ガイド』の「新規ネットワークインターフェースの追加」のセクションを参照してください

5.2.5. 仮想 NIC プロファイルの削除

仮想化環境から、仮想 NIC プロファイルを削除します。

手順5.9 仮想 NIC プロファイルの削除

  1. ネットワーク リソースタブをクリックし、結果一覧で論理ネットワークを選択します。
  2. 詳細ペインで プロファイル タブを選択すると、利用可能な仮想 NIC プロファイルが表示されます。ツリーモードで論理ネットワークを選択した場合には、ナビゲーションペインで 仮想 NIC プロファイル タブを選択することができます。
  3. プロファイルを 1 つまたは複数選択して 削除 をクリックすると、仮想マシンインターフェースのプロファイルの削除 ウィンドウが開きます。
  4. OK をクリックしてプロファイルを削除し、ウィンドウを閉じます。

5.2.6. 仮想 NIC プロファイルへのセキュリティーグループの割り当て

注記

この機能は、OpenStack Neutron を統合する場合のみに利用することができます。Red Hat Enterprise Virtualization Manager ではセキュリティーグループを作成できません。セキュリティーグループは、OpenStack 内で作成する必要があります。詳しくは、https://access.redhat.com/documentation/ja-JP/Red_Hat_Enterprise_Linux_OpenStack_Platform/ に掲載の『Red Hat Enterprise Linux OpenStack Platform 管理ガイド』を参照してください。
OpenStack Networking インスタンスからインポートした、Open vSwitch プラグインを使用するネットワークの仮想 NIC プロファイルにセキュリティーグループを割り当てることができます。セキュリティーグループとは、厳格に実行されるルールのコレクションで、ユーザーがネットワークインターフェース上で送受信トラフィックをフィルタリングできます。以下の手順では、セキュリティーグループを仮想 NIC プロファイルにアタッチする方法を説明します。

注記

セキュリティーグループは、OpenStack Networking インスタンスに登録されたのと同じセキュリティーグループの ID を使用して識別されます。特定のテナントのセキュリティーグループ ID を確認するには、OpenStack Networking がインストールされているシステムで以下のコマンドを実行します。
# neutron security-group-list

手順5.10 仮想 NIC プロファイルへのセキュリティーグループの割り当て

  1. ネットワーク タブをクリックし、結果一覧で論理ネットワークを選択します。
  2. 詳細ペインで 仮想 NIC プロファイル タブをクリックします。
  3. 新規作成 をクリックするか、既存の仮想 NIC プロファイルを選択して 編集 をクリックすると、仮想マシンインターフェースのプロファイル ウィンドウが開きます。
  4. カスタムプロパティーのドロップダウンリストから SecurityGroups を選択します。カスタムプロパティーのドロップダウンを空欄のままにした場合には、デフォルトのセキュリティーグループが適用されます。デフォルトのセキュリティー設定は、すべての送信トラフィックと内部通信を許可しますが、デフォルトのセキュリティーグループ外からの受信トラフィックはすべて拒否します。後で SecurityGroups プロパティーを削除しても、適用済みのセキュリティーグループには影響を及ぼしません。
  5. テキストフィールドに仮想 NIC プロファイルにアタッチするセキュリティーグループの ID を入力します。
  6. OK をクリックします。
セキュリティーグループが仮想 NIC プロファイルにアタッチされました。そのプロファイルがアタッチされている論理ネットワークを通過するトラフィックはすべて、そのセキュリティーグループで定義されているルールに従ってフィルタリングされます。

5.2.7. 仮想NIC プロファイルのユーザーパーミッション

ユーザーを特定の仮想 NIC プロファイルに割り当てるためのユーザーパーミッションを設定します。プロファイルを使用できるようにするには、VnicProfileUser ロールをユーザーに割り当てます。ユーザーが特定のプロファイルを使用できないように制限するには、そのプロファイルからユーザーのパーミッションを削除します。

手順5.11 仮想NIC プロファイルのユーザーパーミッション

  1. ネットワーク タブをクリックし、結果一覧で論理ネットワークを選択します。
  2. 仮想 NIC プロファイル のリソースタブを選択すると仮想 NIC プロファイルが表示されます。
  3. 詳細ペインで パーミッション タブを選択すると、そのプロファイルに対する現在のユーザーパーミッションが表示されます。
  4. 追加 ボタンをクリックして ユーザーへのシステム権限の追加 ウィンドウを開くか、削除 ボタンをクリックして パーミッションの削除 ウィンドウを開いて、仮想 NIC プロファイルに対するユーザーパーミッションの追加または削除を行います。
仮想 NIC プロファイルのユーザーパーミッションの設定が完了しました。

5.2.8. UCS 統合のための仮想 NIC プロファイルの設定

Cisco の Unified Computing System (UCS) は、コンピューティング、ネットワーク、ストレージリソースなどのデータセンターの機能の管理に使用されます。
vdsm-hook-vmfex-devフックにより、仮想 NIC プロファイルを設定して、仮想マシンは Cisco の UCS で定義されたポートプロファイルに接続することができます。UCS で定義されたポートプロファイルには、UCS 内で仮想インターフェースを設定するのに使用するプロパティーと設定が含まれます。vdsm-hook-vmfex-dev フックは、VDSM でデフォルトでインストールされます。詳しくは、「付録A VDSM とフック」を参照してください。
仮想 NIC を使用する仮想マシンを作成する際には、Cisco の仮想 NIC を使用します。
UCS 統合のための仮想 NIC プロファイルの設定手順では、カスタムデバイスプロパティーを最初に設定する必要があります。カスタムデバイスプロパティーの設定時には、既存の設定値はいずれも上書きされます。新規のカスタムプロパティーと既存のカスタムプロパティーを組み合わせる場合には、キー値の設定に使用するコマンドにすべてのカスタムプロパティーを含めてください。カスタムプロパティーを複数指定する場合には、セミコロンで区切ります。

注記

UCS ポートプロファイルは、仮想 NIC プロファイルを設定する前に、Cisco UCS で設定しておく必要があります。

手順5.12 カスタムデバイスプロパティーの設定

  1. Red Hat Enterprise Virtualization Manager 上で、vmfex のカスタムプロパティーを設定し、--cver を使用してクラスターの互換レベルを指定します。
    # engine-config -s CustomDeviceProperties='{type=interface;prop={vmfex=^[a-zA-Z0-9_.-]{2,32}$}}' --cver=3.6
    
  2. vmfex のカスタムプロパティーが追加されたことを確認します。
    # engine-config -g CustomDeviceProperties
    
  3. engine を再起動します。
    # service ovirt-engine restart
    
設定する仮想 NIC プロファイルは、新規または既存の論理ネットワークに属することができます。新規論理ネットワークの設定手順については、「データセンターまたはクラスター内での新規論理ネットワークの作成」を参照してください。

手順5.13 UCS 統合のための仮想 NIC プロファイルの設定

  1. ネットワーク リソースタブをクリックし、結果一覧で論理ネットワークを選択します。
  2. 詳細ペインで 仮想 NIC プロファイル タブを選択します。ツリーモードで論理ネットワークを選択すると、ナビゲーションペインで 仮想 NIC プロファイル タブを選択することができます。
  3. 新規作成 または 編集 をクリックして、仮想マシンインターフェースのプロファイル ウィンドウを開きます。
  4. プロファイルの 名前説明 を入力します。
  5. カスタムプロパティーの一覧から vmfex のカスタムプロパティーを選択して、UCS ポートプロファイル名を入力します。
  6. OK をクリックします。

5.3. 外部プロバイダーネットワーク

5.3.1. 外部プロバイダーからのネットワークのインポート

ネットワークサービスを提供する外部プロバイダーが Manager に登録されている場合には、そのプロバイダーが提供するネットワークを Manager にインポートして仮想マシンで使用することができます。

手順5.14 外部プロバイダーからのネットワークのインポート

  1. ネットワーク タブをクリックします。
  2. インポート ボタンをクリックすると ネットワークのインポート ウィンドウが開きます。
    The Import Networks Window

    図5.3 ネットワークのインポートウィンドウ

  3. ネットワークプロバイダー のドロップダウンリストから外部プロバイダーを選択します。プロバイダーが提供するネットワークは自動的に検出され、プロバイダーネットワーク 一覧に表示されます。
  4. チェックボックスを使用して、プロバイダーネットワーク 一覧からインポートするネットワークを選択し、下向きの矢印をクリックしてそのネットワークを インポートするネットワーク 一覧に移動します。
  5. インポートするネットワークの名前は、カスタマイズすることが可能です。名前をカスタマイズするには、名前 のコラムでそのネットワークの名前をクリックして編集します。
  6. データセンター ドロップダウンリストから、ネットワークのインポート先となるデータセンターを選択します。
  7. オプションとして、ネットワークの使用が全ユーザーに許可されないようにするには、インポートするネットワーク リストのネットワークの 全ユーザーに許可 チェックボックスのチェックを外します。
  8. インポート ボタンをクリックします。
選択したネットワークがターゲットのデータセンターにインポートされ、Manager で使用できるようになりました。

重要

外部プロバイダーの検出とインポートはテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat Subscription のサービスレベルアグリーメント (SLA) では完全にサポートされていません。機能的に完全でない可能性があり、実稼働環境での使用を目的とはしていませんが、近日発表予定のプロダクトイノベーションのリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

5.3.2. 外部プロバイダーネットワークの使用における制限事項

以下の制限事項は、Red Hat Enterprise Virtualization 環境内の外部プロバイダーからインポートした論理ネットワークの使用に適用されます。
  • 外部プロバイダーから提供される論理ネットワークは、仮想マシンネットワークとして使用する必要があり、ディスプレイネットワークとしては使用できません。
  • 同じ論理ネットワークを複数回インポートすることが可能ですが、インポート先が異なるデータセンターの場合のみです。
  • 外部プロバイダーによって提供される論理ネットワークは、Manager 内で編集することはできません。外部プロバイダーによって提供される論理ネットワークの情報を編集するには、その論理ネットワークを提供する OpenStack Networking Service から直接、論理ネットワークを編集する必要があります。
  • ポートミラーリングは、外部プロバイダーによって提供される論理ネットワークに接続された仮想ネットワークインターフェースカードには使用できません。
  • 外部プロバイダーが提供する論理ネットワークを仮想マシンが使用している場合には、その論理ネットワークが仮想マシンにより使用されている間は、Manager からそのプロバイダーを削除することはできません。
  • 外部プロバイダーによって提供されるネットワークは、必須ではありません。このため、そのような論理ネットワークがインポートされたクラスターのスケジューリングでは、ホストの選択中にそれらの論理ネットワークは考慮されません。また、そのような論理ネットワークがインポートされたクラスター内のホスト上の論理ネットワークの可用性を確保するのは、ユーザーの責任となります。

重要

外部プロバイダーからインポートされた論理ネットワークは、Red Hat Enterprise Linux ホスト以外とは互換性がないため、Red Hat Enterprise Virtualization Hypervisor ホストで実行されている仮想マシンには割り当てることはできません。

重要

外部プロバイダーの検出とインポートはテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat Subscription のサービスレベルアグリーメント (SLA) では完全にサポートされていません。機能的に完全でない可能性があり、実稼働環境での使用を目的とはしていませんが、近日発表予定のプロダクトイノベーションのリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

5.3.3. 外部プロバイダーの論理ネットワーク上のサブネット設定

5.3.3.1. 外部プロバイダーの論理ネットワーク上のサブネット設定
外部プロバイダーが提供する論理ネットワークは、その論理ネットワークに 1 つ以上のサブネットが定義されていないと、仮想マシンに IP アドレスを割り当てることができません。サブネットが定義されていない場合は、仮想マシンには IP アドレスが割り当てられません。またサブネットが 1 つの場合は、そのサブネットから仮想マシンに IP アドレスが割り当てられ、サブネットが複数ある場合は、使用可能なサブネットのいずれかから IP アドレスが割り当てられます。論理ネットワークをホストする Neutron インスタンスの DHCP サービスは、これらの IP アドレスを割り当てる役割を果たします。
Red Hat Enterprise Virtualization Manager では、インポートされた論理ネットワーク上で事前定義されているサブネットが自動的に検出されますが、Manager 内で論理ネットワークにサブネットを追加したり、サブネットを削除したりすることも可能です。
5.3.3.2. 外部プロバイダーの論理ネットワークへのサブネット追加
外部プロバイダーが提供する論理ネットワークにサブネットを作成します。

手順5.15 外部プロバイダーの論理ネットワークへのサブネット追加

  1. ネットワーク タブをクリックします。
  2. 外部プロバイダーにより提供される論理ネットワークのうち、サブネットを追加する論理ネットワークをクリックします。
  3. 詳細ペインの サブネット タブをクリックします。
  4. 新規作成 ボタンをクリックし、新規外部サブネット ウィンドウを開きます。
    The New External Subnet Window

    図5.4 新規外部サブネットウィンドウ

  5. 新規サブネットの 名前CIDR を入力します。
  6. IP バージョン のドロップダウンメニューから、IPv4 または IPv6 のいずれかを選択します。
  7. OK をクリックします。
5.3.3.3. 外部プロバイダーの論理ネットワークからのサブネット削除
外部プロバイダーが提供する論理ネットワークからサブネットを削除します。

手順5.16 外部プロバイダーの論理ネットワークからのサブネット削除

  1. ネットワーク タブをクリックします。
  2. 外部プロバイダーにより提供される論理ネットワークのうち、サブネットを削除する論理ネットワークをクリックします。
  3. 詳細ペインの サブネット タブをクリックします。
  4. 削除するサブネットをクリックします。
  5. 削除 をクリックし、プロンプトが表示されたら OK をクリックします。

5.4. 論理ネットワークおよびパーミッション

5.4.1. ネットワークに対するシステムパーミッションの管理

システム管理者は、SuperUser として管理ポータルの全側面を管理する管理者です。他のユーザーには、より特定的な管理者ロールを割り当てることができます。このような制限付きの管理者ロールは、特定のリソースに限定した特定の管理者権限をユーザーに付与する場合に有用です。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのみに対して (ただし、そのデータセンター用のストレージは例外)、ClusterAdmin は割り当てられたクラスターのみに対して管理者権限があります。
ネットワーク管理者は、特定のネットワークに対して適用したり、データセンター、クラスター、ホスト、仮想マシン、またはテンプレート上の全ネットワークに対して適用したりすることができるシステム管理ロールです。ネットワークユーザーは、特定の仮想マシンやテンプレート上のネットワークの表示やアタッチなどの限定された管理ロールを実行することができます。ヘッダーバーの 設定 ボタンをクリックすると、環境内の全ネットワークにネットワーク管理者を割り当てることができます。
ネットワーク管理者ロールは、以下のアクションを許可します。
  • ネットワークの作成/編集/削除
  • ポートミラーリングの設定などのネットワーク設定の編集
  • クラスターおよび仮想マシンを含むリソースへのネットワークのアタッチ/デタッチ
ネットワークを作成したユーザーには、作成したネットワークに対する NetworkAdmin パーミッションが自動的に割り当てられます。また、既存の管理者を削除して、新規管理者を追加することによって、ネットワークの管理者を変更することもできます。

5.4.2. ネットワークの管理者およびユーザーのロール

ネットワークに対するパーミッションがあるロール

以下の表には、ネットワークの管理に適用可能な管理者とユーザーのロールと権限についての説明をまとめています。

表5.6 Red Hat Enterprise Virtualization のネットワーク管理者/ユーザーロール
ロール特権備考
NetworkAdminデータセンター、クラスター、ホスト、仮想マシン、またはテンプレートのネットワーク管理者。ネットワークを作成したユーザーには、作成したネットワークに対する NetworkAdmin パーミッションが自動的に割り当てられます。特定のデータセンター、クラスター、ホスト、仮想マシン、またはテンプレートのネットワークを設定管理することができます。データセンターまたはクラスターのネットワーク管理者は、クラスター内の仮想プールのネットワークパーミッションを継承します。仮想マシンネットワークにポートミラーリングを設定するには、そのネットワークに対する NetworkAdmin ロールと、仮想マシンに対する UserVmManager ロールを適用します。
VnicProfileUser仮想マシンおよびテンプレートの論理ネットワークおよびネットワークインターフェースのユーザー特定の論理ネットワークにネットワークインターフェースをアタッチ/デタッチできます。

5.4.3. リソースに対する管理者およびユーザーロールの割り当て

リソースに対して管理者またはユーザーのロールを割り当てると、ユーザーはそのリソースへのアクセスや管理ができるようになります。

手順5.17 リソースへのロール割り当て

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. 追加 をクリックします。
  4. 検索 テキストボックスに既存ユーザーの名前またはユーザー名を入力し、検索 をクリックします。結果一覧に表示される検索候補からユーザーを選択します。
  5. 割り当てるロール ドロップダウンリストからロールを選択します。
  6. OK をクリックします。
ユーザーにロールが割り当てられました。このユーザーは、対象のリソースに対して有効化されたロールのパーミッションを継承します。

5.4.4. リソースからの管理者またはユーザーロールの削除

リソースから管理者またはユーザーのロールを削除すると、そのリソースのロールに関連付けられたユーザーのパーミッションは継承されなくなります。

手順5.18 リソースからのロール削除

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. リソースから削除するユーザーを選択します。
  4. 削除 をクリックします。パーミッションが削除されることを確認する パーミッションの削除 ウィンドウが開きます。
  5. OK をクリックします。
ユーザーロールおよび関連付けられたパーミッションが削除されました。

5.5. ホストとネットワーク

5.5.1. ホストの機能のリフレッシュ

ホストにネットワークインターフェースカードを追加した場合は、Manager でそのネットワークインターフェースカードを表示するには、そのホストの機能をリフレッシュする必要があります。

手順5.19 ホストの機能をリフレッシュする手順

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. 機能をリフレッシュ ボタンをクリックします。
選択したホストの詳細ペインの ネットワークインターフェース タブのネットワークインターフェースの一覧が更新され、Manager で新しいネットワークインターフェースカードを使用できるようになりました。

5.5.2. ホストネットワークインターフェースの編集とホストへの論理ネットワークの割り当て

物理ホストのネットワークインターフェースの設定を変更して、物理ホストのネットワークインターフェース間で管理ネットワークを移動し、物理ホストのネットワークインターフェースに論理ネットワークを割り当てることができます。ブリッジおよび ethtool のカスタムプロパティーもサポートされています。

重要

外部プロバイダーによって提供されている論理ネットワークは、物理ホストのネットワークインターフェースには割り当てることはできません。そのようなネットワークは、仮想マシンの要求に応じて、ホストに動的に割り当てられます。

手順5.20 ホストネットワークインターフェースの編集とホストへの論理ネットワークの割り当て

  1. ホスト リソースタブをクリックして、対象のホストを選択します。
  2. 詳細ペインにある ネットワークインターフェース タブをクリックします。
  3. ホストネットワークを設定 ボタンをクリックすると ホストネットワークの設定 ウィンドウが開きます。
  4. 論理ネットワークを物理ホストに割り当てるには、その論理ネットワークを選択して、その物理ホストのネットワークインターフェースの横にある 割り当て済み論理ネットワーク のエリアにドラッグします。
    もしくは、論理ネットワークを右クリックしてドロップダウンメニューからネットワークインターフェースを選択します。
  5. 論理ネットワークを設定します。
    1. 割り当てられた論理ネットワークの上にマウスを移動し、鉛筆のアイコンをクリックすると、管理ネットワークの編集 ウィンドウが開きます。
    2. NoneDHCPStatic の中から ブートプロトコル を選択します。Static を選択した場合には、IPネットマスク / ルーティングプレフィックスゲートウェイ を入力してください。
    3. デフォルトのホストネットワーク QoS を上書きするには、QoS を上書き を選択して、以下のフィールドに必要な値を入力します。
      • 加重シェア: 特定のネットワークに割り当てる論理リンクのキャパシティーを、同じ論理リンクにアタッチされた他のネットワークに対して相対的に示します。シェアの具体的な値は、そのリンク上の全ネットワークのシェアの和によって異なります。デフォルトでは、これは、1-100 の範囲内の数値です。
      • 速度の上限 [Mbps]: ネットワークが使用する最大帯域幅
      • コミット速度 [Mbps]: ネットワークに必要な最小の帯域幅。要求されるコミット速度は保証されず、ネットワークインフラストラクチャーや同じ論理リンク上の他のネットワークに要求されるコミット速度によって異なります。
      ホストネットワーク QoS の設定に関する詳しい情報は、「ホストネットワークの QoS」を参照してください。
    4. ネットワークブリッジを設定するには、カスタムプロパティー のドロップダウンメニューをクリックして bridge_opts を選択します。有効なキーと値を [key]=[value] の構文で入力します。エントリーが複数ある場合は、空白文字で区切ります。以下のキーが有効です (値は例として提示しています)。これらのパラメーターに関する詳しい説明は、「bridge_opts パラメーター」を参照してください。
      forward_delay=1500 
      gc_timer=3765 
      group_addr=1:80:c2:0:0:0 
      group_fwd_mask=0x0 
      hash_elasticity=4 
      hash_max=512
      hello_time=200 
      hello_timer=70 
      max_age=2000 
      multicast_last_member_count=2 
      multicast_last_member_interval=100 
      multicast_membership_interval=26000 
      multicast_querier=0 
      multicast_querier_interval=25500 
      multicast_query_interval=13000 
      multicast_query_response_interval=1000 
      multicast_query_use_ifaddr=0 
      multicast_router=1 
      multicast_snooping=1 
      multicast_startup_query_count=2 
      multicast_startup_query_interval=3125
    5. ethtool のプロパティーを設定するには、カスタムプロパティー のドロップダウンメニューをクリックして ethtool_opts を選択します。有効なキーと値を [key]=[value] の構文で入力します。エントリーが複数ある場合は、空白文字で区切ります。ethtool_opts オプションはデフォルトでは使用できないので、engine 設定ツールを使用して追加する必要があります。詳しくは、「Red Hat Enterprise Virtualization Managerで Ethtool を使用するための設定方法」を参照してください。ethtool のプロパティーに関する詳しい情報は、『Red Hat Enterprise Linux 6 Deployment Guide』 または man ページを参照してください。
    6. 論理ネットワークの定義がホスト上のネットワーク設定と同期されていない場合には、ネットワークを同期 のチェックボックスを選択します。論理ネットワークが同期されるまでは、その論理ネットワークを編集したり、他のインターフェースに移動したりすることはできません。

      注記

      以下のいずれかの条件が該当する場合には、ネットワークは同期されていると見なされません。
      • 仮想マシンネットワーク が物理ホストのネットワークと異なる場合。
      • VLAN ID が物理ホストネットワークと異なる場合。
      • カスタムMTU が論理ネットワークで設定済みで、かつ物理ホストのネットワークと異なる場合。
  6. ネットワーク接続をチェックするには、ホストと Engine 間の接続を検証 のチェックボックスを選択します。この操作は、ホストがメンテナンスモードに入っている場合のみに機能します。
  7. 環境をリブートした時に変更が維持されるようにするには、ネットワーク設定を保存 のチェックボックスを選択します。
  8. OK をクリックします。

注記

ホストの全ネットワークインターフェースカードが表示されない場合には、機能をリフレッシュ ボタンをクリックして、そのホストで利用可能なネットワークインターフェースカードの一覧を更新します。

5.5.3. 論理ネットワークを使用した単一ネットワークインターフェースへの複数の VLAN 追加

単一のネットワークインターフェースに複数の VLAN を追加することにより、1 台のホスト上のトラフィックを分離することができます。

重要

そのためには、あらかじめ複数の論理ネットワークを作成しておく必要があります。それらの論理ネットワークにはすべて、新規論理ネットワーク または 論理ネットワークの編集 のウィンドウで VLAN タグ付けを有効にする のチェックボックスにチェックを入れてください。

手順5.21 論理ネットワークを使用した、ネットワークインターフェースへの複数の VLAN 追加

  1. ホスト リソースタブをクリックして、VLAN タグ付きの論理ネットワークが割り当てられたクラスターに関連付けられているホストを結果一覧から選択します。
  2. 詳細ペインにある ネットワークインターフェース タブをクリックし、データセンターにアタッチされた物理ネットワークインターフェースを一覧表示します。
  3. ホストネットワークを設定 をクリックすると ホストネットワークの設定 ウィンドウが開きます。
  4. VLAN タグの付いた論理ネットワークを物理ネットワークインターフェースの横にある 割り当て済み論理ネットワーク のエリアにドラッグします。VLAN タグ付けにより、物理ネットワークインターフェースに複数の論理ネットワークを割り当てることができます。
  5. 割り当て済み論理ネットワークの上にマウスを移動し、鉛筆のアイコンをクリックすると、ネットワークの編集 ウィンドウが開きます。
    論理ネットワークの定義がホスト上のネットワーク設定と同期されていない場合には、ネットワークを同期 のチェックボックスを選択します。
    次のいずれかの ブートプロトコル を選択します。
    • None
    • DHCP
    • Static
      IP アドレスサブネットマスク を入力します。
    OK をクリックします。
  6. ネットワークのチェックを実行するには、ホストと Engine 間の接続を検証 のチェックボックスを選択します。この検証は、ホストがメンテナンスモードに入っている場合のみに機能します。
  7. ネットワーク設定を保存 チェックボックスを選択します。
  8. OK をクリックします。
クラスター内のホストの NIC を編集して、各ホストに論理ネットワークを追加します。この作業が完了すると、ネットワークが稼働するようになります。
単一のインターフェースに VLAN タグの付いた論理ネットワークを複数追加しました。この手順を繰り返して、各ホストで同じネットワークインターフェースを選択/編集し、単一のネットワークインターフェースに異なる VLAN タグの付いた論理ネットワークを追加することができます。

5.5.4. ホストネットワークインターフェースへのネットワークラベルの追加

ネットワークラベルを使用することによって、ホストネットワークインターフェースへの論理ネットワーク割り当てに伴う管理ワークロードを大幅に簡素化することができます。

手順5.22 ホストネットワークインターフェースへのネットワークラベルの追加

  1. ホスト リソースタブをクリックして、VLAN タグ付きの論理ネットワークが割り当てられたクラスターに関連付けられているホストを結果一覧から選択します。
  2. 詳細ペインにある ネットワークインターフェース タブをクリックし、データセンターにアタッチされた物理ネットワークインターフェースを一覧表示します。
  3. ホストネットワークを設定 をクリックすると ホストネットワークの設定 ウィンドウが開きます。
  4. ラベル をクリックして [新規ラベル] を右クリックします。ラベルを付ける物理ネットワークインターフェースを選択します。
  5. ラベル のテキストフィールドにネットワークラベル名を入力します。
  6. OK をクリックします。
ホストネットワークインターフェースにネットワークラベルが追加されました。同じラベルで新規作成される論理ネットワークはいずれも、そのラベルが付いたホストネットワークインターフェースに自動的に割り当てられます。また、論理ネットワークからラベルを削除すると、その論理ネットワークは、そのラベルが付いた全ホストネットワークインターフェースから自動的に削除されます。

5.5.5. ボンディング

5.5.5.1. Red Hat Enterprise Virtualization におけるボンディングロジック
Red Hat Enterprise Virtualization Manager 管理ポータルでは、グラフィカルインターフェースを使用してボンディングデバイスを作成することができます。ボンディング作成には複数の異なるシナリオがあり、それぞれに独自のロジックが適用されます。
ボンディングロジックに影響を及ぼす 2 つの要因:
  • いずれかのデバイスが論理ネットワークをすでに伝送しているかどうか。
  • デバイスは、互換性のある論理ネットワークを伝送しているかどうか。
表5.7 ボンディングシナリオとその結果
ボンディングシナリオ結果
NIC + NIC
新規ボンディングの作成 ウィンドウが表示され、新規ボンディングデバイスを設定することができます。
ネットワークインターフェースが互換性のない論理ネットワークを伝送している場合には、新規ボンディングを形成するデバイスから互換性のない論理ネットワークをデタッチするまで、ボンディング操作は失敗します。
NIC + Bond
NIC がボンディングデバイスに追加されます。NIC とボンディングデバイスが伝送する各論理ネットワークに互換性がある場合には、それらの論理ネットワークはすべて、この操作で作成されるボンディングデバイスに追加されます。
ボンディングデバイスが互換性のない論理ネットワークを伝送している場合には、新規ボンディングを形成するデバイスから互換性のない論理ネットワークをデタッチするまで、ボンディング操作は失敗します。
Bond + Bond
ボンディングデバイスが論理ネットワークにアタッチされていない場合、または互換性のある論理ネットワークにアタッチされている場合には、新規ボンディングデバイスが作成されます。これには、すべてのネットワークインターフェースが含まれ、ボンディングを構成するデバイスの全論理ネットワークを伝送します。新規ボンディングの作成 ウィンドウが表示され、新規ボンディングの設定を行うことができます。
ボンディングデバイスが互換性のない論理ネットワークを伝送している場合には、新規ボンディングを形成するデバイスから互換性のない論理ネットワークをデタッチするまで、ボンディング操作は失敗します。
5.5.5.2. ボンディング
ボンディング とは、複数のネットワークインターフェースを ソフトウェアで定義したデバイス 1 つに集約することです。ボンディングされたネットワークインターフェースは、ボンディングで含まれているネットワークインターフェースカード (NIC) の伝送機能を統合して、1 つのネットワークインターフェースとして機能するため、単一の NIC よりも伝送速度が早くなります。また、ボンディング内の NIC すべてに障害が発生しない限り、ボンディング自体には障害が発生しないため、ボンディングすることでフォールトトレランスが向上します。ただし、一点制約があり、ボンディング内のすべてのネットワークインターフェースカードが同じオプションやモードをサポートするように、ネットワークインターフェースをボンディングする NIC は、必ず同じメーカーおよびモデルでなければなりません。
ボンディングのパケット分散アルゴリズムは、使用するボンディングモードによって決定されます。

重要

モード 1、2、3、4 は、仮想マシン (ブリッジ) および物理マシン (ブリッジなし) のネットワークタイプをサポートします。モード 0、5、6 は、物理マシン (ブリッジなし) のネットワークのみをサポートします。
ボンディングモード
Red Hat Enterprise Virtualization は、デフォルトでモード 4 を使用しますが、以下にあげる一般的なボンディングモードに対応しています。
モード 0 (round-robin ポリシー)
このモードは、ネットワークインターフェースカードを順番に使用してパケットを送信します。パケットの送信は、ボンディングで最初に利用可能なネットワークインターフェースカードから、最後に利用可能なネットワークインターフェースカードまでループで使用をくり返します。それ以降のループでもすべて、最初に利用可能なネットワークインターフェースカードから使用されます。モード 0 では、ネットワークに対して耐障害性や負荷分散が提供されていますが、ブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
モード 1 (active-backup ポリシー)
このモードは、すべてのネットワークインターフェースカードをバックアップ状態に設定して、1 つだけアクティブなカードを残します。アクティブなネットワークインターフェースカードで障害が発生すると、バックアップに設定されていたネットワークインターフェースカードの 1 つが、障害の発生したインターフェースに代わって、ボンディング内で唯一のアクティブインターフェースになります。1 つ以上のポートでアドレスが表示されていると、有効なネットワークインターフェースカードの MAC アドレスを反映するためにボンディングの MAC アドレスが変更された場合に混乱が生じる可能性があり、このような混乱を避ける目的で、モード 1 のボンディングの MAC アドレスは、1 つのポートだけで表示されます。モード 1 は耐障害性を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 2 (XOR ポリシー)
このモードは、送信元と送信先の MAC アドレスの XOR (排他的理論和) をネットワークインターフェースカードのスレーブ数で除算した剰余に基づいて、パケット送信に用いるネットワークインターフェースカードを選択します。この計算により、各送信先の MAC アドレスに必ず同じネットワークインターフェースカードが選択されるようにします。モード 2 は耐障害性と負荷分散を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 3 (broadcast ポリシー)
このモードは、全パケットをすべてのネットワークインターフェースカードに送信します。モード 3 は耐障害性を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 4 (IEEE 802.3ad ポリシー)
このモードは、任意の集約グループを作成し、このグループ内のインターフェースが速度およびデュプレックスの設定を共有します。モード 4 は、IEEE 802.3ad 仕様に従ってアクティブな集約グループ内のネットワークインターフェースカードをすべて使用します。このモードも、Red Hat Enterprise Virtualization でサポートされています。
モード 5 (adaptive transmit load balancing ポリシー)
このモードは、ボンディング内の各ネットワークインターフェースカードの負荷に応じて発信トラフィックが分散され、現在のネットワークインターフェースカードが全着信トラフィックを受信するようにします。トラフィックの受信に割り当てられているネットワークインターフェースカードに障害が発生した場合には、着信トラフィックの受信ロールは別のネットワークインターフェースカードに割り当てられます。モード 5 はブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
モード 6 (adaptive load balancing ポリシー)
このモードは、モード 5 (adaptive transmit load balancing ポリシー) に IPv4 トラフィックの受信負荷分散を組み合わせたポリシーで、特別なスイッチ要件はありません。ARP ネゴシエーションを使用して受信負荷の分散を行います。モード 6 はブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
5.5.5.3. 管理ポータルを使用したボンディングデバイスの作成
互換性のある複数のネットワークデバイスをボンディングしてまとめることができます。このタイプの設定を使用することで帯域幅と信頼度が高まります。ボンディングは、複数のネットワークインターフェース、既存のボンディングデバイス、この 2 つを組み合わせたものに対して適用することができます。ボンディングは VLAN タグ付きのトラフィックと、VLAN タグなしのトラフィックの両方を伝送することができます。

手順5.23 管理ポータルを使用したボンディングデバイスの作成

  1. ホスト リソースタブをクリックして、結果一覧でホストを選択します。
  2. 詳細ペインにある ネットワークインターフェース タブをクリックし、ホストにアタッチされた物理ネットワークインターフェースを一覧表示します。
  3. ホストネットワークを設定 をクリックすると ホストネットワークの設定 ウィンドウが開きます。
  4. 一方のデバイスを選択して、他方のデバイスの上にドラグアンドドロップすると、新規ボンディングの作成 ウィンドウが開きます。または、一方のデバイスを右クリックして、他方のデバイスをドロップダウンメニューから選択します。
    デバイスに互換性がない場合には、ボンディングの操作は失敗して、互換性問題の解決方法を示したメッセージが表示されます。
  5. ドロップダウンメニューから ボンディング名 および ボンディングモード を選択します。
    ボンディングモード 1、2、4、5 を選択することができます。その他のモードを設定するには、カスタム オプションを使用します。
  6. OK をクリックしてボンディングを作成し、新規ボンディングの作成 ウィンドウを閉じます。
  7. 新規作成したボンディングデバイスに論理ネットワークを割り当てます。
  8. オプションとして、ホストと Engine 間の接続を検証 および ネットワーク設定を保存 を選択することができます。
  9. OK をクリックして変更を受け入れ、ホストネットワークの設定 ウィンドウを閉じます。
複数のネットワークデバイスが 1 つのボンディングデバイスにリンクされ、単一のインターフェースとして編集できるようになりました。このボンディングデバイスは、選択したホストの詳細ペインにある ネットワークインターフェース タブに表示されます。
ホストが使用するスイッチのポートには、ボンディングを有効にする必要があります。ボンディングを有効化する手順は、スイッチによって若干異なります。ボンディング有効化に関する詳しい情報は、そのスイッチのメーカーが提供しているマニュアルを参照してください。
5.5.5.4. ホストインターフェースのカスタムボンディングオプションの使用例
新規ボンディングの作成 ウィンドウで ボンディングモード から カスタム を選択すると、カスタマイズされたボンディングデバイスを作成することができます。以下の例は、必要に応じて適用してください。ボンディングオプションとその説明をまとめた包括的なリストは、Kernel.org のLinux Ethernet Bonding Driver HOWTOを参照してください。

例5.1 xmit_hash_policy

このオプションは、ボンディングモード 2 および 4 の送信負荷分散ポリシーを定義します。たとえば、多数の異なる IP アドレス間のトラフィックが大半の場合には、IP アドレス別に負荷分散するようにポリシーを設定することができます。この負荷分散ポリシーを設定するには、カスタム ボンディングモードを選択して、テキストフィールドに以下の値を入力します。
mode=4 xmit_hash_policy=layer2+3

例5.2 ARP モニタリング

ARP モニターは、ethtool を介して適切にリンク状態を報告できない、もしくは報告しないシステムに有用です。ホストのボンディングデバイスに arp_interval を設定するには、カスタム ボンディングモードを選択して、テキストフィールドに以下の値を入力します。
mode=1 arp_interval=1 arp_ip_target=192.168.0.2

例5.3 プライマリー

ボンディングデバイス内のプライマリーインターフェースとして、特定の NIC により高いスループットを指定する必要がある場合があります。プライマリーとなる NIC を指定するには、カスタム ボンディングモードを選択して、テキストフィールドに以下の値を入力します。
mode=1 primary=eth0

5.5.6. ホストの完全修飾ドメイン名の変更

ハイパーバイザーホストの完全修飾ドメイン名を変更するには、以下の手順に従ってください。

手順5.24 ハイパーバイザーホストの完全修飾ドメイン名の更新

  1. ハイパーバイザーをメンテナンスモードに切り替えて、仮想マシンが別のハイパーバイザーにライブマイグレーションされるようにします。詳しい説明は、「ホストのメンテナンスモードへの切り替え」を参照してください。または、全仮想マシンを手動でシャットダウンして、別のハイパーバイザーに移行します。詳しくは、『仮想マシン管理ガイド』の「手動での仮想マシン移行」のセクションを参照してください。
  2. 削除 をクリックしてから OK をクリックし、管理ポータルからホストを削除します。
    • RHEL ベースのホストの場合
      • Red Hat Enterprise Linux 6 の場合
        /etc/sysconfig/network ファイルを編集し、ホスト名を更新して保存します。
        # vi /etc/sysconfig/network
        HOSTNAME=NEW_FQDN
      • Red Hat Enterprise Linux 7 の場合
        ホスト名を更新するには、hostnamectl ツールを使用します。その他のオプションについては、『Red Hat Enterprise Linux 7 ネットワークガイド』の「ホスト名の設定」の章を参照してください。
        # hostnamectl set-hostname NEW_FQDN
    • Red Hat Enterprise Virtualization Hypervisors (RHEV-H) の場合
      テキストユーザーインターフェースで Network の画面を選択して右矢印キーを押し、Hostname フィールドに新規ホスト名を入力します。<Save> を選択して Enter を押します。
  3. ホストをリブートします。
  4. Manager にホストを再登録します。詳しくは、『インストールガイド』の「管理ポータルからハイパーバイザーを手動で追加する方法」のセクションを参照してください。

5.5.7. Red Hat Enterprise Virtualization Hypervisor (RHEV-H) の IP アドレスの変更

手順5.25

  1. ハイパーバイザーをメンテナンスモードに切り替えて、仮想マシンが別のハイパーバイザーにライブマイグレーションされるようにします。詳しい説明は、「ホストのメンテナンスモードへの切り替え」を参照してください。または、全仮想マシンを手動でシャットダウンして、別のハイパーバイザーに移行します。詳しくは、『仮想マシン管理ガイド』の「手動での仮想マシン移行」のセクションを参照してください。
  2. 削除 をクリックしてから OK をクリックし、管理ポータルからホストを削除します。
  3. admin ユーザーとして Hypervisor にログインします。
  4. F2 を押して OK を選択し、Enter を押してレスキューシェルに入ります。
  5. /etc/sysconfig/network-scripts/ifcfg-ovirtmgmt ファイルを編集して、IP アドレスを変更します。以下に例を示します。
    # vi /etc/sysconfig/network-scripts/ifcfg-ovirtmgmt
    ...
    BOOTPROTO=none	
    IPADDR=10.x.x.x
    PREFIX=24
    ...
  6. ネットワークサービスを再起動して、IP アドレスが更新されたことを確認します。
    • Red Hat Enterprise Linux 6 の場合
      # service network restart
      # ifconfig ovirtmgmt
    • Red Hat Enterprise Linux 7 の場合
      # systemctl restart network.service
      # ip addr show ovirtmgmt
  7. exit と入力してレスキューシェルを終了し、テキストユーザーインターフェースに戻ります。
  8. Manager にホストを再登録します。詳しくは、『インストールガイド』の「管理ポータルからハイパーバイザーを手動で追加する方法」のセクションを参照してください。

第6章 ホスト

6.1. Red Hat Enterprise Virtualization ホストについて

Red Hat Enterprise Virtualization ホストとは、仮想マシンを実行する物理サーバーで、RHEL ベースのハイパーバイザーとしても知られています。Kernel-based Virtual Machine (KVM) と呼ばれる読み込み可能な Linux カーネルモジュールを使用することにより、完全仮想化が提供されます。
KVM は、Windows または Linux オペレーティングシステムを実行する複数の仮想マシンを同時に実行することができます。仮想マシンは、ホストマシン上で個別の Linux プロセスおよびスレッドとして実行され、Red Hat Enterprise Virtualization Manager によってリモートで管理されます。Red Hat Enterprise Virtualization 環境には、単一または複数のホストをアタッチすることができます。
Red Hat Enterprise Virtualization はホストのインストールで 2 つのメソッドをサポートしており、Red Hat Enterprise Virtualization Hypervisor (RHEV-H) インストールメディアを使用する方法または標準の Red Hat Enterprise Linux インストールに Hypervisor パッケージをインストールする方法のいずれかを使用することができます。
Red Hat Enterprise Virtualization ホストは、tuned プロファイルを使用して仮想化を最適化します。tuned に関する詳しい情報は、『Red Hat Enterprise Linux 6.0 パフォーマンスチューニングガイド』を参照してください。
Red Hat Enterprise Virtualization Hypervisor にはセキュリティー機能が有効化されています。Security Enhanced Linux (SELinux) および iptables ファイアウォールがデフォルトで完全に設定済みで、有効な状態となっています。選択したホストの SELinux ステータスは、詳細ペインにある 全般 タブの SELinux モード に表示されます。Manager が Red Hat Enterprise Linux ホストを環境に追加する際には、そのホスト上の必要なポートを開くことができます。
ホストは、Red Hat Enterprise Linux 6.5 以降 (AMD64/Intel 64 バージョン) を実行する Intel VT または AMD-V 拡張機能搭載の 64 ビットの物理サーバーです。
Red Hat Enterprise Virtualization プラットフォームの物理ホストの要件は次のとおりです。
  • システム内の単一のクラスターのみに属していること。
  • AMD-V または Intel VT ハードウェア仮想化拡張機能をサポートする CPU が搭載されていること。
  • クラスター作成時に選択した仮想 CPU タイプで公開される全機能をサポートする CPU が搭載されていること。
  • 最小で 2 GB の RAM が搭載されていること。
  • システムパーミッションを持つシステム管理者を 1 名指定可能であること。
管理者は、Red Hat Enterprise Virtualization のウォッチリスト (rhev-watch-list) から最新のセキュリティーアドバイザリーを受信することができます。Red Hat Enterprise Virtualization 製品に関するセキュリティーアドバイザリーをメールで受信するには、Red Hat Enterprise Virtualization ウォッチリストをサブスクライブします。以下のフォームで登録してください。

6.2. Red Hat Enterprise Virtualization Hypervisor ホスト

Red Hat Enterprise Virtualization Hypervisor ホストは、特別な Red Hat Enterprise Linux ビルドと仮想マシンをホストするのに必要なパッケージのみを使用してインストールします。これらのパッケージは、明示的に要求されなければステートレスに実行され、ディスクへ変更は書き込まれません。
Red hat Enterprise Virtualization Hypervisor ホストは、Red Hat Enterprise Virtualization Manager に直接追加して、設定することができます。また、ローカルで設定して、Manager に接続することも可能です。その場合には、Manager は環境で使用するホストの承認のみに使用します。
Red Hat Enterprise Linux ホストとは異なり、Red Hat Gluster Storage ノードとして使用するために Gluster サービスを有効化しているクラスターには、Red Hat Enterprise Virtualization Hypervisor ホストを追加できません。

重要

Red Hat Enterprise Virtualization Hypervisor は閉じたシステムです。ご使用の環境に追加の RPM パッケージが必要な場合には、Red Hat Enterprise Linux ホストを使用してください。

6.3. Satellite ホストプロバイダーのホスト

Red Hat Enterprise Virtualization Manager では、Satellite ホストプロバイダーによって提供されるホストを仮想化ホストとして使用することができます。Satellite ホストプロバイダーが外部プロバイダーとして Manager に追加された後には、その Satellite ホストプロバイダーが提供するホストはすべて、Red Hat Enterprise Virtualization に追加して Red Hat Enterprise Virtualization Hypervisor ホストや Red Hat Enterprise Linux ホストと同じように使用することができます。

6.4. Red Hat Enterprise Linux ホスト

Red Hat Enterprise Linux 6.6、6.7 または 7 を対応するハードウェアにインストールして、ホストとして使用することができます。Red Hat Enterprise Virtualization は、Intel VT または AMD-V 拡張機能搭載の AMD64/Intel 64 バージョン Red Hat Enterprise Linux 6.6、6.7 または 7 サーバーを実行するホストをサポートしています。Red Hat Enterprise Linux マシンをホストとして使用するには、Red Hat Enterprise Linux Server エンタイトルメントと Red Hat Enterprise Virtualization エンタイトルメントをアタッチする必要もあります。
ホストを追加する際には、プラットフォームにより、仮想化の確認、パッケージのインストール、ブリッジの作成、ホストの再起動などのタスクが実行されるため、多少時間がかかる場合があります。ホストと管理システムが接続を確立する際のプロセスをモニタリングするには、詳細ペインを使用してください。

重要

サードパーティー製のウォッチドッグは、VDSM によって提供される watchdog デーモンを妨げる可能性あるので、Red Hat Enterprise Linux ホストにはインストールすべきではありません。

6.5. ホストのタスク

6.5.1. Satellite ホストプロバイダーのホストの追加

Satellite ホストプロバイダーのホストを追加する手順は、Manager でホストを特定する方法を除いては、Red Hat Enterprise Linux ホストを追加する手順とほぼ同じです。以下の手順では、Satellite ホストプロバイダーによって提供されるホストを追加する方法について説明します。

手順6.1 Satellite ホストプロバイダーのホストの追加

  1. ホスト リソースタブをクリックすると、結果一覧にホストが一覧表示されます。
  2. 新規作成 をクリックすると、新規ホスト ウィンドウが表示されます。
  3. ドロップダウンメニューで、新規ホスト用の ホストクラスター を選択します。
  4. Foreman/Satellite のチェックボックスを選択して、Satellite ホストプロバイダーを追加するためのオプションを表示し、ホストを追加するプロバイダーを選択します。
  5. 検出されたホスト または プロビジョン済みホスト のいずれかを選択します。
    • 検出されたホスト (デフォルトオプション): ドロップダウンリストからホスト、ホストグループ、コンピュートリソースを選択します。
    • プロビジョン済みホスト: プロバイダーのホスト のドロップダウンリストからホストを 1 つ選択します。
    外部プロバイダーから取得可能なホストに関する情報は、自動的に設定され、必要に応じて編集することができます。
  6. 新規ホストの 名前アドレスSSH ポート (プロビジョン済みホストのみ) を入力します。
  7. ホストに使用する認証のメソッドを選択します。
    • パスワード認証を使用するには、root ユーザーのパスワードを入力します。
    • 公開鍵認証を使用するには、SSH 公開鍵 フィールドに表示される鍵をホスト上の /root/.ssh/authorized_hosts にコピーします (プロビジョン済みホストのみ)。
  8. Red Hat Enterprise Linux ホストを追加するための必須手順が完了しました。次に、詳細パラメーター の展開ボタンをクリックして、ホストの詳細設定を表示します。
    1. オプションとして、ファイアウォールの自動設定を無効にすることができます。
    2. オプションとして、JSON プロトコルの使用を無効にすることができます。
    3. オプションとして、ホストの SSH フィンガープリントを追加し、セキュリティーを強化することができます。手動での追加または自動取得が可能です。
  9. 対象のタブで 電源管理SPMコンソール、および ネットワークプロバイダー を設定することができる状態になりました。ただし、これらの設定は、Red Hat Enterprise Linux ホストの追加に必須ではないため、このセクションでは説明していません。
  10. OK をクリックしてホストを追加し、ウィンドウを閉じます。
新規ホストが Installing のステータスでホスト一覧に表示され、詳細ペインでインストールの進捗状況を確認することができます。インストールが完了するとステータスは Reboot になります。ステータスが Up に変わるには、ホストをアクティブ化する必要があります。

6.5.2. ホストを対象とする Satellite のエラータ管理の設定

Red Hat Enterprise Virtualization では、Red Hat Satellite からエラータを表示するように設定できます。これにより、ホストの管理者は、ホストの設定の管理に使用するのと同じ画面で、利用可能なエラータの更新とそれらの重大度についての情報を受信することができます。Red Hat Satellite に関する詳しい情報は、『Red Hat Satellite User Guide』を参照してください。
Red Hat Enterprise Virtualization 3.6 以降のバージョンでは、Red Hat Satellite 6.1 を使用したエラータ管理をサポートしています。

重要

Satellite サーバー内では、ホストは FQDN で識別されます。IP アドレスを使用して追加されたホストは、エラータを報告できません。このため、外部コンテンツホストの ID を Red Hat Enterprise Virtualization で維持管理する必要がありません。
ホストの管理に使用する Satellite のアカウントには、管理者の権限とデフォルトの組織を設定する必要があります。

手順6.2 ホストを対象とする Satellite のエラータ管理の設定

  1. Satellite サーバーを外部プロバイダーとして追加します。詳しい説明は、「ホストプロビジョニング用の Red Hat Satellite インスタンスの追加」を参照してください。
  2. 対象のホストを Satellite サーバーに関連付けます。

    注記

    ホストは、Satellite サーバーにコンテンツホストとして登録し、katello-agent パッケージをインストールする必要があります。
    ホスト登録の設定方法についての詳しい情報は、『Red Hat Satellite User Guide』の「Configuring a Host for Registration」のセクションを参照してください。また、ホストの登録および katello-agent パッケージのインストール方法に関する詳しい情報は、『Red Hat Satellite User Guide』の「Registration」のセクションを参照してください。
    1. ホスト タブをクリックして、結果一覧でホストを選択します。
    2. 編集 をクリックし、ホストの編集 ウィンドウを開きます。
    3. Foreman/Satellite を使用する チェックボックスにチェックを付けます。
    4. ドロップダウンリストから対象の Satellite サーバーを選択します。
    5. OK をクリックします。
ホストの設定が完了し、ホストの設定を管理するのと同じ画面で、利用可能なエラータとその重大度が表示されるようになりました。

6.5.3. 新規ホストおよびホストの編集ウィンドウの設定とコントロール

6.5.3.1. ホストの全般設定
以下の設定は、ホストの詳細を編集したり、Red Hat Enterprise Linux ホストおよび Satellite ホストプロバイダーのホストを新規追加したりする際に適用されます。
全般 設定の表には、新規ホスト または ホストの編集 ウィンドウの 全般 タブに必要な情報をまとめています。
表6.1 全般 の設定
フィールド名
説明
データセンター
ホストが属するデータセンター。Red Hat Enterprise Virtualization Hypervisor ホストは、Gluster が有効化されたクラスターには追加できません。
ホストクラスター
ホストが属するクラスター
Foreman/Satellite を使用する
Satellite ホストプロバイダーによって提供されるホストを追加するためのオプションを表示/非表示にするには、このチェックボックスを選択/選択解除します。以下のオプションを設定することができます。
検出されたホスト

  • 検出されたホスト: engine によって検出された Satellite ホストの名前が含まれたドロップダウンリスト
  • ホストグループ: 利用可能なホストグループのドロップダウンリスト
  • コンピュートリソース: コンピュートリソースを提供するハイパーバイザーのドロップダウンリスト

プロビジョン済みホスト

  • プロバイダーのホスト: 選択した外部プロバイダーによって提供されるホストの名前が記載されたドロップダウンリスト。このリストのエントリーは、プロバイダー検索フィルター のフィールドに入力した検索クエリーに応じてフィルターされます。
  • プロバイダー検索フィルター: 選択した外部プロバイダーによって提供されるホストを検索することができるテキストフィールド。このオプションは、プロバイダー固有です。特定のプロバイダーの検索クエリー形成に関する詳しい情報は、そのプロバイダーのマニュアルを参照してください。利用可能なホストをすべて表示するには、このフィールドは空欄のままにします。

名前
クラスターの名前。このテキストフィールドは最長で 40 文字に制限されており、アルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。
コメント
ホストに関する、プレーンテキスト形式の人間が判読できるコメントを追加するためのフィールド
アドレス
ホストの IP アドレス、または解決可能なホスト名
パスワード
ホストの root ユーザーのパスワード。ホストを追加する時にのみ指定することができ、それ以降は編集できません。
SSH 公開鍵
ホストとの認証で、パスワードを使用する代わりに Manager の SSH キーを使用する場合には、テキストボックスの内容をホストの /root/.ssh/authorized_hosts ファイルにコピーします。
ホストのファイアウォールを自動設定
新規ホストを追加する際には、Manager がホストのファイアウォール上の必要なポートを開くことができます。この設定はデフォルトで有効化されています。これは、詳細パラメーター です。
JSON プロトコルを使用する
このチェックボックスはデフォルトで有効化されます。これは、詳細パラメーター の設定です。
SSH フィンガープリント
ホストの SSH フィンガープリントを フェッチ して、ホストが返すフィンガープリントと比較し、それらが一致しているかどうかを確認することができます。これは 詳細パラメーター です。
6.5.3.2. ホストの電源管理の設定
電源管理 設定の表には、新規ホスト または ホストの編集 ウィンドウの 電源管理 タブに必要な情報をまとめています。
表6.2 電源管理 の設定
フィールド名
説明
電源管理を有効にする
ホストで電源管理を有効にします。このチェックボックスを選択して、電源管理 タブの残りのフィールドを有効にします。
Kdump 統合
カーネルクラッシュダンプの実行中にホストがフェンシングされるのを防ぎ、クラッシュダンプが中断されないようにします。新しい Red Hat Enterprise Linux 6.6 および 7.1 以降のバージョンでは、kdump はデフォルトで利用可能です。ホストで kdump が利用可能であっても、設定が有効でない (kdump サービスが起動できない) 場合には、Kdump 統合 を有効にすると、ホストのインストールが失敗します。このようなエラーが発生した場合には、「fence_kdump の詳細設定」を参照してください。
電源管理のポリシー制御を無効にする
電源管理は、ホストの クラスター で設定されている スケジューリングポリシー によって制御されます。電源管理を有効にすると、ホストの使用率が定義済みの下限値に達した場合には、Manager が、そのホストマシンの電源を切断し、また負荷分散でそのホストが必要となった場合や、クラスター内で空いているホストが不足した場合には、そのホストを再起動します。ポリシー制御を無効にする場合は、このチェックボックスを選択します。
順次に使用するエージェント
ホストのフェンスエージェントを一覧表示します。フェンスエージェントは、順次、同時、またはそれらの両方を組み合わせて使用することができます。
  • フェンスエージェントが順次に使用される場合には、ホストの停止/起動にまず 1 番目のエージェントが使用され、失敗すると 2 番目のエージェントが使用されます。
  • フェンスエージェントが同時に使用される場合、ホストが停止するには、両方のエージェントが停止のコマンドに応答する必要があります。1 つのエージェントが起動のコマンドに応答すると、ホストが起動します。
デフォルトでは、フェンスエージェントは順次に使用されます。フェンスエージェントの使用順序を変更するには、上向き/下向きのボタンを使用してください。
2 つのフェンスエージェントを同時に使用するには、一方のフェンスエージェントの横にある 同時に使用するフェンスエージェント のドロップダウンリストからもう一方のフェンスエージェントを選択します。 同時に使用するフェンスエージェントのグループにフェンスエージェントをさらに追加するには、その追加のフェンスエージェントの横にある 同時に使用するフェンスエージェント ドロップダウンリストから対象のグループを選択して設定することができます。
フェンスエージェントの追加
プラス (+) のボタンをクリックして、新規フェンスエージェントを追加します。フェンスエージェントの編集 ウィンドウが開きます。以下の表には、このウィンドウ内のフィールドについての詳しい説明をまとめています。
電源管理プロキシーの設定
デフォルトでは、Manager がホストと同じ cluster 内のフェンシングプロキシーを検索するように指定されます。フェンシングプロキシーが見つからない場合には、Manager は同じ dc (データセンター) 内を検索します。これらのリソースの使用順序を変更するには、上向き/下向きのボタンを使用します。このフィールドは、詳細パラメーター の下にあります。
以下の表には、フェンスエージェントの編集 ウィンドウに必要な情報をまとめています。
表6.3 フェンスエージェントの編集 の設定
フィールド名
説明
アドレス
ホストの電源管理デバイスにアクセスするアドレス。解決可能なホスト名または IP アドレス
ユーザー名
電源管理デバイスにアクセスするユーザーアカウント。デバイスにユーザーを設定するか、デフォルトのユーザーを使用してください。
パスワード
電源管理デバイスにアクセスするユーザーのパスワード
タイプ
ホストの電源管理デバイスのタイプ。
以下のいずれかを選択します。
  • apc: APC MasterSwitch ネットワーク電源スイッチ。APC 5.x 電源スイッチデバイスには使用できません。
  • apc_snmp: APC 5.x 電源スイッチデバイスに使用
  • bladecenter: IBM Bladecenter Remote Supervisor Adapter
  • cisco_ucs - Cisco Unified Computing System
  • drac5 - Dell コンピューター用の Dell Remote Access Controller
  • drac7 - Dell コンピュータ用の Dell Remote Access Controller
  • eps - ePowerSwitch 8M+ ネットワーク電源スイッチ
  • hpblade - HP BladeSystem
  • iloilo2ilo3ilo4 - HP Integrated Lights-Out
  • ipmilan: Intelligent Platform Management Interface および Sun Integrated Lights Out Management デバイス
  • rsa - IBM Remote Supervisor Adapter
  • rsb - Fujitsu-Siemens RSB 管理インターフェース
  • wti - WTI Network Power Switch
SSH ポート
電源管理デバイスがホストとの通信に使用するポート番号
スロット
電源管理デバイスのブレードの特定に使用する番号
サービスプロファイル
電源管理デバイスのブレードの特定に使用するサービスプロファイル名。このフィールドは、デバイスタイプが cisco_ucs の場合に スロット フィールドの代わりに表示されます。
オプション
電源管理デバイス固有のオプション。'key=value' として指定します。使用可能なオプションについては、ホストの電源管理デバイスのマニュアルを参照してください。
Red Hat Enterprise Linux 7 ホストで、電源管理デバイスに cisco_ucs を使用する場合には、オプション フィールドに ssl_insecure=1 を追記する必要もあります。
セキュリティー保護
電源管理デバイスがホストにセキュアに接続できるようにするには、このチェックボックスを選択します。この接続には、電源管理エージェントに応じて、ssh、ssl、またはその他の認証プロトコルを使用することができます。
6.5.3.3. SPM 優先度の設定
SPM 設定の表には、新規ホストホストの編集 ウィンドウの SPM タブで必要な情報を詳しく記載しています。
表6.4 SPM 設定
フィールド名
説明
SPM 優先度
ホストに Storage Pool Manager (SPM) のロールが割り当てられる優先度を定義します。優先度のオプションは、標準 です。優先度が低の場合は、そのホストに SPM のロールが割り当てられる確率が低くなり、高の場合は確率が高くなります。デフォルト設定は標準です。
6.5.3.4. ホストコンソールの設定
コンソール の設定表には、新規ホスト または ホストの編集 ウィンドウの コンソール タブに必要な情報を詳しく記載しています。
表6.5 コンソール の設定
フィールド名
説明
ディスプレイアドレスを上書き
ホストのディスプレイアドレスを上書きするには、このチェックボックスを選択します。この機能は、ホストが内部 IP アドレスで定義され、かつ NAT ファイアウォールの内側にある場合に有用です。ユーザーが内部ネットワークの外から仮想マシンに接続すると、仮想マシンを実行しているホストのプライベートアドレスの代わりに、パブリック IP アドレスまたは FQDN (外部ネットワークでパブリック IP アドレスに解決される) がそのマシンによって返されます。
ディスプレイアドレス
このフィールドに指定するディスプレイアドレスは、そのホスト上で実行する全仮想マシンに使用されます。アドレスは完全修飾ドメイン名または IP アドレスの形式にする必要があります。

6.5.4. ホストの電源管理設定値の設定

管理ポータルからホストのライフサイクル操作 (停止、開始、再起動) を行うには、ホストの電源管理デバイス設定値を設定します。
ホストおよび仮想マシンの高可用性を活用するには、ホストの電源管理設定を行う必要があります。

重要

電源管理設定を行う前には、そのホストが Maintenance モードに入っていることを確認します。このモードに入っていない場合には、そのホストで実行されている仮想マシン、ホストの再起動時にすべて強制終了され、実稼働環境が停止してしまうことになります。ホストが Maintenance モードに正しく設定されていない場合は、警告のメッセージが表示されます。

手順6.3 電源管理設定値の設定

  1. ホスト タブをクリックして、結果一覧でホストを選択します。
  2. 編集 をクリックし、ホストの編集 ウィンドウを開きます。
  3. 電源管理 タブをクリックし、電源管理設定を表示します。
  4. 電源管理を有効にする のチェックボックスを選択し、フィールドを有効にします。
  5. kdump 統合 チェックボックスを選択して、カーネルクラッシュダンプの実行中にホストがフェンシングされないようにします。

    重要

    既存のホストに Kdump 統合 を有効にする場合には、kdump を設定するためにそのホストを再インストールする必要があります。 「仮想化ホストの再インストール」を参照してください。
  6. オプションで、ホストの クラスタースケジューリングポリシー によってホストの電源管理が制御されないようにするには、電源管理のポリシー制御を無効にする のチェックボックスを選択します。
  7. プラス (+) のボタンをクリックして、新規電源管理デバイスを追加します。フェンスエージェントの編集 ウィンドウが開きます。
  8. 電源管理デバイスの アドレスユーザー名、および パスワード を適切なフィールドに入力します。
  9. ドロップダウンリストから、電源管理デバイスの タイプ を選択します。
  10. 電源管理デバイスがホストとの通信に使用する SSH ポート 番号を入力します。
  11. 電源管理デバイスのブレードの特定に使用する スロット 番号を入力します。
  12. 電源管理デバイスの オプション を入力します。'key=value' エントリーのコンマ区切りリストを使用してください。
  13. 電源管理デバイスからホストへのセキュアな接続を有効にするには、セキュリティー保護 のチェックボックスを選択します。
  14. テスト をクリックして、設定が正しいことを確認します。検証が正常に完了すると、「Test Succeeded, Host Status is: on」というメッセージが表示されます。
  15. OK をクリックして フェンスエージェントの編集 ウィンドウを閉じます。
  16. 電源管理 タブでは、オプションとして 詳細パラメーター の箇所を展開し、上下に移動するボタンを使用して Manager がホストの cluster および dc (データセンター) でフェンシングプロキシーを探す順序を指定します。
  17. OK をクリックします。
管理ポータルで、電源管理 のドロップダウンメニューが有効になりました。

6.5.5. ホストの Storage Pool Manager の設定

Storage Pool Manager (SPM) とは、ストレージドメインに対するアクセス制御を維持管理するためにデータセンター内のホストに割り当てられる管理ロールです。SPM は常に稼働状態である必要があり、SPM ホストが使用不可となった場合には、SPM ロールは別のホストに割り当てられます。SPM ロールは、そのホストの使用可能なリソースを一部使用するので、リソースに余裕のあるホストの優先度を高く設定することが重要となります。
ホストの Storage Pool Manager (SPM) 優先度設定により、SPM ロールが割り当てられる可能性を変更することができます。SPM 優先度の高いホストには、SPM 優先度の低いホストよりも先に SPM ロールが割り当てられます。

手順6.4 SPM 設定値の設定

  1. ホスト リソースタブをクリックして、結果一覧でホストを選択します。
  2. 編集 をクリックし、ホストの編集 ウィンドウを開きます。
  3. SPM タブをクリックすると、SPM 優先度 の設定画面が表示されます。
  4. ラジオボタンで、そのホストに適切な SPM 優先度を選択します。
  5. OK をクリックして設定を保存し、ウィンドウを閉じます。
ホストの SPM 優先度設定が完了しました。

6.5.6. リソースの編集

リソースのプロパティーを編集します。

手順6.5 リソースの編集

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 編集 をクリックして 編集 ウィンドウを開きます。
  3. 必要なプロパティーを変更して OK をクリックします。
新規プロパティーがリソースに保存されました。プロパティーフィールドが無効の場合には、編集 ウィンドウは閉じません。

6.5.7. ホストのメンテナンスモードへの切り替え

ネットワーク設定やソフトウェアアップデートのデプロイメントなど、多くの一般的なメンテナンスタスクを行う際には、ホストをメンテナンスモードに切り替える必要があります。再起動や、ネットワークまたはストレージの問題で、VDSM が正しく機能しなくなる事態が発生する前に、ホストをメンテナンスモードに切り替える必要があります。
ホストをメンテナンスモードに切り替えると、Red Hat Enterprise Virtualization Manager は稼働中の全仮想マシンを別のホストに移行しようと試みます。この場合には、ライブマイグレーションの標準の前提条件が適用されます。特に、クラスター内には、移行された仮想マシンを実行するキャパシティーのあるアクティブなホストが少なくとも 1 台必要です。

手順6.6 ホストをメンテナンスモードに切り替える手順

  1. ホスト リソースタブをクリックして、対象のホストを選択します。
  2. メンテナンス をクリックすると ホストのメンテナンス の確認ウィンドウが開きます。
  3. オプションとして、ホストのメンテナンス 確認ウィンドウで、ホストをメンテナンスモードに切り替える 理由 を入力して、メンテナンスモードに切り替える理由を指定することができます。この理由は、ログとホストの再アクティブ化時に表示されます。

    注記

    ホストのメンテナンスの 理由 フィールドは、クラスターの設定で有効化されている場合にのみ表示されます。詳しくは、 「クラスターの全般設定」を参照してください。
  4. OK をクリックしてメンテナンスモードを開始します。
稼働中の仮想マシンはすべて別のホストに移行されます。ホストが Storage Pool Manager (SPM) の場合には、SPM ロールは別のホストに移ります。ステータス フィールドが Preparing for Maintenance に変わり、操作が正常に完了すると最終的に Maintenance となります。VDSM は、ホストのメンテナンスモード中には停止しません。

注記

いずれかの仮想マシンの移行が失敗した場合には、ホストの アクティブ化 をクリックしてメンテナンスモードへの切り替えの操作を停止してから、その仮想マシンの 移行をキャンセル をクリックし、移行を停止します。

6.5.8. メンテナンスモードのホストのアクティブ化

メンテナンスモードに入っているホストまたは最近環境に追加されたホストを使用するには、アクティブ化する必要があります。ホストの準備が整っていない場合には、アクティブ化が失敗する可能性があります。ホストのアクティブ化を試みる前には、全タスクが完了していることを確認してください。

手順6.7 メンテナンスモードのホストのアクティブ化

  1. ホスト リソースタブをクリックして、ホストを選択します。
  2. アクティブ化 をクリックします。
ホストのステータスが Unassigned に切り替わり、操作が完了すると最終的には Up となります。これで仮想マシンをこのホスト上で実行できるようになりました。このホストをメンテナンスモードに切り替えた際に別のホストに移行されていた仮想マシンは、ホストのアクティブ化時に自動的にこのホストには戻されませんが、手動で移行することができます。メンテナンスモードに切り替える前にホストが Storage Pool Manager (SPM) だった場合には、ホストがアクティブ化されても、SPM ロールは自動的に元には戻りません。

6.5.9. ホストの削除

仮想化環境からホストを削除します。

手順6.8 ホストの削除

  1. 管理ポータルで、ホスト リソースタブをクリックして、結果一覧でホストを選択します。
  2. ホストをメンテナンスモードに切り替えます。
  3. 削除 をクリックすると ホストの削除 の確認ウィンドウが開きます。
  4. ホストが Red Hat Gluster Storage クラスターに属し、ボリュームブリックがある場合、もしくはホストが応答していない場合には、強制削除 のチェックボックスを選択します。
  5. OK をクリックします。
環境からホストが削除され、ホスト タブに表示されなくなりました。

6.5.10. 仮想化ホストの再インストール

管理ポータルから、Red Hat Enterprise Virtualization Hypervisor および Red Hat Enterprise Linux ホストを再インストールします。ハイパーバイザーの ISO イメージから現在インストール済みのハイパーバイザーと同じバージョンのハイパーバイザーをインストールする場合には、以下の手順に従ってください。この手順では、Red Hat Enterprise Linux ホストに VDSM が再インストールされます。これには、ハイパーバイザーの停止、再起動の操作が含まれます。クラスターレベルでマイグレーションが有効化されている場合には、仮想マシンはクラスター内の別のホストに自動的に移行されるので、ホストの再インストールは、ハイパーバイザーの使用率が比較的に低いときに行うことを推奨します。
ハイパーバイザーが属するクラスターには、ホストがメンテナンスを実行するのに十分なメモリーが確保されている必要があります。メモリーが十分に確保されていないクラスターで稼働中の仮想マシンがあるホストをメンテナンスに切り替えると、仮想マシンの移行の操作がハングして、失敗してしまいます。 ホストをメンテナンスに切り替える前に、一部またはすべての仮想マシンをシャットダウンしておくと、この操作のメモリー使用量を削減することができます。

重要

再インストールを実行する前に、クラスターに複数のホストが含まれていることを確認します。全ホストを同時に再インストールしないようにしてください。Storage Pool Manager (SPM) のタスクを実行するために、ホストが 1 台使用可能である必要があります。

手順6.9 Red Hat Enterprise Virtualization Hypervisor および Red Hat Enterprise Linux ホストの再インストール

  1. ホスト リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. メンテナンス ボタンをクリックします。クラスターレベルでマイグレーションが有効化されている場合には、このホストで実行中の仮想マシンは別のホストに移行されます。ホストが SPM の場合には、SPM 機能も別のホストに移動します。ホストがメンテナンスモードに入るとステータスが変わります。
  3. 再インストール をクリックすると、ホストのインストール ウィンドウが開きます。
  4. OK をクリックしてホストを再インストールします。
再インストールが正常に完了すると、ホストは Up のステータスで表示されます。別のホストに移行された仮想マシンは、この時点で、元のホストに戻すことができます。

重要

Red Hat Enterprise Virtualization Hypervisor が Red Hat Enterprise Virtualization Manager に正常に登録され、再インストールされた後に、管理ポータルに Install Failed のステータスで誤って表示される場合があります。アクティブ化 をクリックすると Hypervisor のステータスは Up に変わり、使用できる状態となります。

6.5.11. タグを使用したホストのカスタマイズ

タグを使用してホストについての情報を保存しておくと、そのタグを基に検索を行うことができます。

手順6.10 タグを使用したホストのカスタマイズ

  1. ホスト リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. タグを割り当て をクリックすると、タグの割り当て ウィンドウが開きます。
    タグの割り当てのウィンドウ

    図6.1 タグの割り当てのウィンドウ

  3. タグの割り当て のウィンドウには、使用可能なタグがすべて一覧表示されます。対象のタグのチェックボックスを選択します。
  4. OK をクリックしてタグを割り当て、ウィンドウを閉じます。
ホストに関する、検索可能な補足情報がタグとして追加されます。

6.5.12. ホストのエラータの表示

Red Hat Enterprise Virtualization ホストが Red Hat Satellite サーバーからエラータ情報を受信するように設定した後には、各ホストのエラータを表示することができます。エラータ情報を受信するための設定方法に関する詳しい説明は、「ホストを対象とする Satellite のエラータ管理の設定」を参照してください。

手順6.11 ホストのエラータの表示

  1. ホスト リソースタブをクリックして、結果一覧でホストを選択します。
  2. 詳細ペインで 全般 タブをクリックします。
  3. 全般 タブ内の エラータ サブタブをクリックします。

6.5.13. ホストのヘルスステータスの確認

ホストには、通常の ステータス に加えて外部のヘルスステータスがあります。外部のヘルスステータスはプラグインまたは外部のシステムによってレポートされるか、管理者が設定して、ホストの 名前 の左側に以下のアイコンのいずれかが表示されます。
  • OK: アイコンなし
  • Info:
  • Warning:
  • Error:
  • Failure:
ホストのヘルスステータスについての更に詳しい情報を確認するには、ホストを選択してから イベント サブタブをクリックしてください。
ホストのヘルスステータスは、REST API を使用して確認することも可能です。ホストに対する GET 要求には、ヘルスステータスが記載された external_status 要素が含まれます。
events コレクションで REST API 内のホストのヘルスステータスを設定することができます。『REST API ガイド』の「イベントの追加」を参照してください。

6.5.14. ホストデバイスの表示

詳細ペインで、各ホストのホストデバイスを表示することができます。ホストでデバイスを直接割り当てるために設定されている場合には、それらのデバイスを仮想マシンに直接アタッチしてパフォーマンスを向上させることができます。
デバイスの直接割り当てに関する詳しい情報は、『Red Hat Enterprise Virtualization SR-IOV 実装に関するハードウェアの考慮事項』の「デバイス割り当てを使用するための追加のハードウェア考慮事項」を参照してください。
デバイスを直接割り当てるためのホストの設定に関する詳しい情報は、『仮想化の導入および管理ガイド』の「PCI デバイス」のセクションを参照してください。
ホストデバイスを仮想マシンにアタッチする操作に関する詳しい情報は、『Red Hat Enterprise Virtualization 仮想マシン管理ガイド』の「ホストデバイス」のセクションを参照してください。

手順6.12 ホストデバイスの表示

  1. ホスト リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. 詳細ペインの ホストデバイス タブをクリックします。
詳細ペインにホストデバイスの詳細が表示され、デバイスが仮想マシンにアタッチされているかどうかや現在その仮想マシンによって使用されているかどうかなどの情報を確認することができます。

6.5.15. GPU パススルーに向けたホストおよびゲストシステムの準備

ホストの Graphics Processing Unit (GPU) デバイスを仮想マシンに直接割り当てることが可能です。この操作を実行する前には、ホストと仮想マシンの両方で grub 設定ファイルに必要な変更を加える必要があります。また、変更を有効にするには、両マシンを再起動する必要もあります。
以下の手順は、x86_64 または ppc64le アーキテクチャーのホストに適した方法です。
この手順は、デバイス割り当てができるようにサーバーが適切に設定済みであることを前提とします。設定に関する詳しい説明は、『Red Hat Enterprise Linux 仮想化の導入および管理ガイド』の「PCI デバイス」のセクションを参照してください。
デバイスの直接割り当てに関する詳しい情報は、『Red Hat Enterprise Virtualization SR-IOV 実装に関するハードウェアの考慮事項』の「デバイス割り当てを使用するための追加のハードウェア考慮事項」を参照してください。

手順6.13 GPU パススルーに向けた準備

  1. ホストサーバーにログインし、lspci を使用して GPU デバイスのベンダーおよびデバイス識別子を確認します。
    $ lspci -nn
    ...
    01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GM107GL [Quadro K2200] [10de:13ba] (rev a2)
    01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:0fbc] (rev a1)
    ...
    上記の例の応答では、ビデオとオーディオの vendor:device 識別子はそれぞれ 10de:13ba10de:0fbc です。
  2. grub 設定ファイルを開き、GRUB_CMDLINE_LINUX の行で、vendor:device 識別子を pci-stub ドライバーにバインディングするように変更します。
    $ vi /etc/default/grub
    ...
    GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... pci-stub.ids=10de:13ba,10de:0fbc"
    ...
    難読化を回避するためには、対応するドライバーをブラックリストすることを推奨します。以下の例では、GRUB_CMDLINE_LINUX の行をさらに変更して、nVidia の nouveau ドライバーをブラックリストに追加しています。
    $ vi /etc/default/grub
    ...
    GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... pci-stub.ids=10de:13ba,10de:0fbc rdblacklist=nouveau"
    ...
    grub 設定ファイルを保存します。
  3. grub.cfg をリフレッシュしてからサーバーを再起動し、変更を有効にします。
    $ grub2-mkconfig -o /boot/grub2/grub.cfg
    $ reboot
  4. lspci コマンドを実行して、デバイスが pci-stub ドライバーにバインドされていることを確認します。
    $ lspci -nnk
    ...
    01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GM107GL [Quadro K2200] [10de:13ba] (rev a2)
            Subsystem: NVIDIA Corporation Device [10de:1097]
            Kernel driver in use: pci-stub
    01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:0fbc] (rev a1)
            Subsystem: NVIDIA Corporation Device [10de:1097]
            Kernel driver in use: pci-stub
    ...
  5. ホストの GPU デバイスに直接アタッチされる仮想マシンにログインし、ゲストの grub 設定ファイルで対応するドライバーをブラックリストに追加します。
    $ vi /etc/default/grub
    ...
    GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... rdblacklist=nouveau"
    ...
  6. grub.cfg をリフレッシュしてから仮想マシンを再起動し、変更を有効にします。
    $ grub2-mkconfig -o /boot/grub2/grub.cfg
    $ reboot
これで、準備した仮想マシンにホストの GPU を直接割り当てることができるようになりました。ホストデバイスを仮想マシンに割り当てる操作に関する詳しい情報は、『Red Hat Enterprise Virtualization 仮想マシン管理ガイド』の「ホストデバイス」のセクションを参照してください。

6.6. ホストの耐障害性

6.6.1. ホストの高可用性

Red Hat Enterprise Virtualization Manager はフェンシングを使用してクラスター内のホストを応答可能な状態に維持します。Non Responsive のホストは、Non Operational のホストとは異なります。Manager は Non Operational のホストとは通信することができますが、ホストの設定は正しくありません (例: 論理ネットワークが見つからないなど)。Manager は、Non Responsive のホストとは通信できません。
電源管理デバイスを使用するホストが Manager と通信できなくなった場合には、そのホストを管理ポータルからフェンス (リブート) することができます。そのホスト上で実行されている仮想マシンはすべて停止され、高可用性の仮想マシンが別のホストで起動されます。
電源管理操作はすべて、Red Hat Enterprise Virtualization Manager が直接行うのではなく、プロキシーホストを使用して実行します。電源管理の操作には、少なくとも 2 台のホストが必要です。
フェンシングにより、クラスターは予期せぬホスト障害に対応可能となる上、パワーセービング、負荷分散、および仮想マシンの可用性の各ポリシーが強化されます。ホストの電源管理デバイスにはフェンシングパラメーターを設定し、その正確性を時々テストすることを推奨します。
電源管理のパラメーターを使用すると、ホストを自動的にフェンスすることができます。手動で行うには、ホストを右クリックすると表示されるメニューのオプションを使用します。フェンシングの操作では、応答なしのホストがリブートされて、所定時間内にアクティブな状態に戻らない場合には、手動による介入とトラブルシューティングが行われるまで、応答なしの状態が続きます。
ホストが高可用性の仮想マシンを実行する必要がある場合は、電源管理を有効にして設定する必要があります。

6.6.2. Red Hat Enterprise Virtualization におけるプロキシーを使用した電源管理

Red Hat Enterprise Virtualization Manager はフェンスエージェントとは直接通信を行いません。その代わりに、Manager はプロキシーを使用して電源管理のコマンドをホストの電源管理デバイスに送ります。Manager は VDSM を利用して電源管理デバイスの操作を実行し、環境内の別のホストがフェンシングプロキシーとして使用されます。
以下のいずれかを選択することができます。
  • フェンシングが必要なホストと同じクラスター内にある任意のホスト
  • フェンシングが必要なホストと同じデータセンター内にある任意のホスト
有効なフェンシングプロキシーホストのステータスは UP または Maintenance です。

6.6.3. ホスト上でのフェンシングパラメーターの設定

ホストのフェンシング用のパラメーターを編集するには、新規ホスト または ホストの編集 ウィンドウの 電源管理 フィールドを使用します。電源管理により、システムは Remote Access Card (RAC) などの追加のインターフェースを使用して、問題のあるホストをフェンシングすることができるようになります。
電源管理操作はすべて、Red Hat Enterprise Virtualization Manager が直接行うのではなく、プロキシーホストを使用して実行します。電源管理の操作には、少なくとも 2 台のホストが必要です。

手順6.14 ホスト上でのフェンシングパラメーターの設定

  1. ホスト リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. 編集 をクリックし、ホストの編集 ウィンドウを開きます。
  3. 電源管理 タブをクリックします。
    電源管理の設定

    図6.2 電源管理の設定

  4. 電源管理を有効にする のチェックボックスを選択し、フィールドを有効にします。
  5. kdump 統合 チェックボックスを選択して、カーネルクラッシュダンプの実行中にホストがフェンシングされないようにします。

    重要

    既存のホストに Kdump 統合 を有効にする場合には、kdump を設定するためにそのホストを再インストールする必要があります。 「仮想化ホストの再インストール」を参照してください。
  6. オプションで、ホストのクラスターの スケジューリングポリシー がホストの電源管理を制御しないようにするには、電源管理のポリシー制御を無効にする のチェックボックスを選択します。
  7. プラス (+) のボタンをクリックして、新規電源管理デバイスを追加します。フェンスエージェントの編集 ウィンドウが開きます。
    フェンスエージェントの編集

    図6.3 フェンスエージェントの編集

  8. 電源管理デバイスの アドレスユーザー名、および パスワード を入力します。
  9. ドロップダウンリストから、電源管理デバイスの タイプ を選択します。

    注記

    Red Hat Enterprise Virtualization 3.5 以降のバージョンでは、カスタムの電源管理デバイスを使用することができます。カスタムの電源管理デバイスの設定方法については、https://access.redhat.com/articles/1238743 の記事を参照してください。
  10. 電源管理デバイスがホストとの通信に使用する SSH ポート 番号を入力します。
  11. 電源管理デバイスのブレードの特定に使用する スロット 番号を入力します。
  12. 電源管理デバイスの オプション を入力します。'key=value' エントリーのコンマ区切りリストを使用してください。
  13. 電源管理デバイスからホストへのセキュアな接続を有効にするには、セキュリティー保護 のチェックボックスを選択します。
  14. テスト ボタンをクリックして、設定が正しいことを確認します。検証が正常に完了すると、「Test Succeeded, Host Status is: on」というメッセージが表示されます。

    警告

    電源管理のパラメーター (ユーザー ID、パスワード、オプションなど) がテストされるのは、セットアップ時のみで、それ以降は手動で実行します。パラメーターが正しくないことを警告するアラートを無視した場合や、電源管理デバイスで変更されたパラメーターが Red Hat Enterprise Virtualization Manager では同じように変更されていない場合には、フェンシングを最も必要とする時に失敗してしまう可能性があります。
  15. OK をクリックして フェンスエージェントの編集 ウィンドウを閉じます。
  16. 電源管理 タブでは、オプションとして 詳細パラメーター の箇所を展開し、上下に移動するボタンを使用して Manager がホストの cluster および dc (データセンター) でフェンシングプロキシーを探す順序を指定します。
  17. OK をクリックします。
ホストの一覧に戻ります。ホスト名に横の感嘆符が表示されなくなった点に注意してください。これは、電源管理の設定が適切に完了したことを意味します。

6.6.4. fence_kdump の詳細設定

kdump

kdump サービスは、新しい Red Hat Enterprise Linux 6.6 および 7.1 のホストと Hypervisor ではデフォルトで実装されています。これらのバージョンよりも前のホストでは、Kdump 統合 は有効にすることはできないので、この機能を使用するにはホストをアップグレードする必要があります。

ホストを選択して、詳細ペインの 全般 タブで kdump サービスのステータスを確認します。
  • 有効: kdump が適切に設定されており、kdump サービスが実行中です。
  • 無効: kdump サービスは実行されていません (その場合には、kdump 統合は適切に機能しません)。
  • 不明: kdump ステータスを報告しない、旧バージョンの VDSM を使用しているホストでのみ発生します。
kdump の使用に関する詳しい情報は、Red Hat Enterprise Linux 7 の場合には『Kernel Crash Dump Guide』、Red Hat Enterprise Linux 6 の場合には『導入ガイド』の「kdump クラッシュリカバリーサービス」のセクションを参照してください。
fence_kdump

新規ホスト または ホストの編集 ウィンドウの 電源管理 タブで Kdump 統合 を有効にすると、標準的な fence_kdump 構成が設定されます。環境のネットワーク設定が単純で、かつ Manager の FQDN が全ホストで解決可能な場合に使用するには、デフォルトの fence_kdump 設定で十分です。

ただし、fence_kdump の詳細設定が必要となる場合があります。より複雑なネットワークには、Manager と fence_kdump リスナーのいずれか一方または両方の設定を手動で変更する必要がある可能性があります。たとえば、Kdump 統合 を有効にした全ホストで Manager の FQDN が解決できない場合には、engine-config を使用して、適切なホスト名または IP アドレスを設定することができます。
engine-config -s FenceKdumpDestinationAddress=A.B.C.D
以下の例のような場合には、設定の変更も必要となる可能性があります。
  • Manager に 2 つの NIC があり、一方がパブリックで、他方が fence_kdump メッセージの指定送信先の場合。
  • 異なる IP またはポートで fence_kdump リスナーを実行する必要がある場合。
  • fence_kdump 通知メッセージの間隔をカスタム設定して、パッケージの損失を防ぐ必要がある場合。
デフォルト設定の変更は、ネットワーク設定がより複雑な場合にのみ必要となるので、 カスタマイズされた fence_kdump 検出設定は上級ユーザーのみが使用することを推奨します。fence_kdump リスナーの設定オプションについては、「fence_kdump リスナーの設定」を参照してください。Manager 上での kdump の設定については、「Manager での fence_kdump の設定」を参照してください。
6.6.4.1. fence_kdump リスナーの設定
fence_kdump リスナーの設定を編集します。この手順は、デフォルトの設定が十分でない場合にのみ必要です。

手順6.15 fence_kdump リスナーの手動設定

  1. /etc/ovirt-engine/ovirt-fence-kdump-listener.conf.d/ に新規ファイルを作成します (例: my-fence-kdump.conf)。
  2. OPTION=value の構文でカスタマイズの設定を入力し、ファイルを保存します。

    重要

    編集した値は、「Manager での fence_kdump の設定」の fence_kdump リスナーの設定オプションの表に記載したように、 engine-config でも変更する必要があります。
  3. fence_kdump リスナーを再起動します。
    # service ovirt-fence-kdump-listener restart
以下のオプションは、必要に応じてカスタマイズすることができます。
表6.6 fence_kdump リスナーの設定オプション
変数説明デフォルト注記
LISTENER_ADDRESSfence_kdump メッセージを取得する IP アドレスを定義します。0.0.0.0このパラメーターの値を変更する場合には、engine-configFenceKdumpDestinationAddress の値と一致する必要があります。
LISTENER_PORTfence_kdump メッセージを受信するポートを定義します。7410このパラメーターの値を変更する場合には、engine-configFenceKdumpDestinationPort の値と一致する必要があります。
HEARTBEAT_INTERVALリスナーの Heartbeat の更新間隔を秒単位で定義します。30このパラメーターの値を変更する場合には、engine-configFenceKdumpListenerTimeout の値の半分以下にする必要があります。
SESSION_SYNC_INTERVALリスナーのホストのメモリー内の kdump セッションをデータベースと同期する間隔を秒単位で定義します。5このパラメーターの値を変更する場合には、engine-configKdumpStartedTimeout の値の半分以下にする必要があります。
REOPEN_DB_CONNECTION_INTERVAL以前に利用できなかったデータベース接続を再開する間隔を秒単位で定義します。30-
KDUMP_FINISHED_TIMEOUTkdump を実行するホストからメッセージを最後に受信した後に、ホストの kdump フローが FINISHED とマークされるまでのタイムアウトの最大値を秒単位で定義します。60このパラメーターの値を変更する場合には、engine-configFenceKdumpMessageInterval の値の 2 倍以上にする必要があります。
6.6.4.2. Manager での fence_kdump の設定
Manager の kdump 設定を編集します。この手順は、デフォルトの設定が十分でない場合にのみ必要です。現在の設定値は、以下のコマンドを実行すると確認できます。
# engine-config -g OPTION

手順6.16 engine-config を使用した kdump の手動設定

  1. engine-config コマンドを使用して kdump の設定を編集します。
    # engine-config -s OPTION=value

    重要

    編集した値は、Kdump の設定オプション の表に記載した fence_kdump リスナーの設定ファイルでも変更する必要があります。「fence_kdump リスナーの設定」を参照してください。
  2. ovirt-engine サービスを再起動します。
    # service ovirt-engine restart
  3. 必要な場合には、Kdump 統合 が有効化されている全ホストを再インストールします (以下の表を参照)。
以下のオプションは、engine-config を使用して設定することができます。
表6.7 Kdump の設定オプション
変数説明デフォルト注記
FenceKdumpDestinationAddressfence_kdump メッセージの送信先のホスト名または IP アドレスを定義します。この値が指定されていない場合には、Manager の FQDN が使用されます。空の文字列 (Manager の FQDN が使用されます)このパラメーターの値を変更する場合には、fence_kdump リスナー設定ファイルの LISTENER_ADDRESS の値と一致しなければなりません。また、Kdump 統合 が有効化された全ホストを再インストールする必要があります。
FenceKdumpDestinationPortfence_kdump メッセージを送信するポートを定義します。7410このパラメーターの値を変更する場合には、fence_kdump リスナー設定ファイルの LISTENER_PORT の値と一致しなければなりません。また、Kdump 統合 が有効化された全ホストを再インストールする必要があります。
FenceKdumpMessageIntervalfence_kdump のメッセージの送信間隔を秒単位で定義します。5このパラメーターの値を変更する場合には、fence_kdump リスナー設定ファイルの KDUMP_FINISHED_TIMEOUT の値の半分以下にする必要があります。また、Kdump 統合 が有効化された全ホストを再インストールする必要があります。
FenceKdumpListenerTimeout最後の Heartbeat の後に、fence_kdump リスナーが実行中と見なされなくなるまでのタイムアウトの最大値を秒単位で定義します。90このパラメーターの値を変更する場合には、fence_kdump リスナー設定ファイルの HEARTBEAT_INTERVAL の値の 2 倍以上にする必要があります。
KdumpStartedTimeoutkdump を実行するホストからの最初のメッセージを受信するまで (ホストの kdump フローが開始したことを検知するまで) の待ち時間のタイムアウトの最大値を定義します。30このパラメーターの値を変更する場合には、fence_kdump リスナー設定ファイルの SESSION_SYNC_INTERVAL および FenceKdumpMessageInterval の値の 2 倍以上にする必要があります。

6.6.5. ホストのソフトフェンシング

ホストは、予期しない問題が原因となって応答なしの状態になる場合があります。VDSM は要求に応答できませんが、VDSM に依存している仮想マシンは稼働を続け、アクセス可能な状態のままとなります。このような状況が発生した場合には、VDSM を再起動すると、VDSM が応答可能な状態に戻り、問題は解決します。
Red Hat Enterprise Virtualization 3.3 から「SSH を介したソフトフェンシング」の機能が導入されました。Red Hat Enterprise Virtualization 3.2 以前のバージョンでは、応答のないホストは外部のフェンスデバイスによってのみフェンシンされていました。Red Hat Enterprise Virtualization 3.3 以降では、フェンシングプロセスが拡張され、「SSH ソフトフェンシング」が追加されました。これは、Manager が SSH を使用して、応答しない状態のホストで VDSM の再起動を試みるプロセスです。Manager が SSH を使用した VDSM の再起動に失敗した場合には、フェンシングは外部のフェンスエージェントの責任となります (外部のフェンスエージェントが設定されている場合)。
SSH ソフトフェンシングが機能するためには、ホストでフェンシングが設定および有効化されており、かつ有効なプロキシーホスト (同じデータセンター内にある、ステータスが Up の第 2 のホスト) が存在している必要があります。Manager とホスト間の接続がタイムアウトになると、次のような状態となります
  1. 初回のネットワーク障害発生時には、ホストのステータスが「connecting」に変わります。
  2. Manager は次に VDSM に対してステータス確認を 3 回試みるか、ホストの負荷によって決定される時間が経過するのを待ちます。この時間を決定する計算式は、TimeoutToResetVdsInSeconds (デフォルトは 60 秒) + [DelayResetPerVmInSeconds (デフォルトは 0.5 秒)]*(ホスト上で実行中の仮想マシン数) + [DelayResetForSpmInSeconds (デフォルトは 20 秒)] * 1 (ホストが SPM として稼働している場合) または 0 (ホストが SPM としては稼働していない場合) の設定値によって設定されます。VDSM が応答する時間を最大限にするために、Manager は上記のオプション (VDSM のステータス確認を 3 回試みる、または上記の計算式で決定される時間の経過を待つ) でいずれか長い方を選択します。
  3. この時間が経過してもホストが応答しない場合には、SSH を介して vdsm restart が実行されます。
  4. vdsm restart を実行しても、ホストと Manager 間の接続が再度確立されない場合には、ホストのステータスが Non Responsive に変わります。電源管理が設定されている場合には、フェンシングは外部のフェンスエージェントによって引き継がれます。

注記

SSH を介したソフトフェンシングは、電源管理を設定していないホストに対しても実行することが可能です。これは、「フェンシング」とは異なります。フェンシングは、電源管理が設定されたホストでしか実行することはできません。

6.6.6. ホストの電源管理機能の使用方法

概要

ホストに電源管理の設定を行うと、管理ポータルから数多くのオプションにアクセスすることができるようになります。電源管理デバイスには、それぞれカスタマイズ可能なオプションがありますが、ホストを起動、停止、再起動する基本的なオプションは全デバイスでサポートされます。

手順6.17 ホストの電源管理機能の使用方法

  1. ホスト リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のホストを選択します。
  2. 電源管理 ドロップダウンメニューをクリックします。
  3. 以下のオプションのいずれかを選択します。
    • 再起動: このオプションはホストを停止させて、ホストのステータスが Down に変わるのを待ちます。ホストが Down の状態となったことをエージェントが確認すると、高可用性の仮想マシンが同じクラスター内の別のホスト上で再起動します。次にエージェントは、このホストを再起動させて、ホストの準備が整うと、ステータスが Up に変わります。
    • 起動: このオプションは、ホストを起動させて、クラスターに追加します。使用する準備が整うと、ステータスが Up に変わります。
    • 停止: このオプションは、ホストの電源を切断します。このオプションを使用する前には、そのホスト上で実行中の仮想マシンが同じクラスター内の別のホストに移行済みであることを確認してください。そうでない場合には、仮想マシンがクラッシュし、高可用性のマシンのみが別のホストで再起動します。ホストが停止すると、ステータスは Non Operational に変わります。

    重要

    1 台のホストに 2 つのフェンスエージェントを定義すると、それらのエージェントは同時もしくは順次に使用することができます。同時エージェントの場合に、ホストを停止させるには、両方のエージェントが停止のコマンドに応答する必要があります。また、一方のエージェントが起動のコマンドに応答すると、ホストが起動します。順次エージェントの場合に、ホストを起動または停止させるには、プライマリーエージェントが最初に使用され、それが失敗するとセカンダリーエージェントが使用されます。
  4. 上記のいずれかのオプションを選択すると、確認のウィンドウが表示されます。OK をクリックして確定し、続行します。
結果

選択したアクションが実行されます。

6.6.7. 応答なしのホストの手動によるフェンシングまたは分離

概要

ハードウェア障害などが原因で、ホストが予期せず応答なしの状態となった場合には、環境のパフォーマンスに多大な影響を及ぼす可能性があります。電源管理デバイスを使用していない場合や、正しく設定されていない場合は、ホストを手動でリブートすることができます。

警告

ホストを手動でリブートした場合以外は、ホストがリブートされていることを確認 のオプションは使用しないでください。ホストの稼働中にこのオプションを使用すると、仮想マシンのイメージが破損してしまう場合があります。

手順6.18 応答なしのホストの手動によるフェンシングまたは分離

  1. ホスト タブでホストを選択します。ステータスは Non Responsive と表示されるはずです。
  2. ホストを手動で再起動します。これは、物理的にラボに入って、ホストをリブートすることを意味します。
  3. 管理ポータルで、ホストエントリーを右クリックし、ホストがリブートされていることを確認 のボタンを選択します。
  4. ホストがシャットダウンまたは再起動されていることを確認するメッセージが表示されます。操作を承認 チェックボックスにチェックを入れて、OK をクリックします。
結果

ホストを手動でリブートして、高可用性の仮想マシンがアクティブなホストで起動できるようになりました。管理ポータルで手動によるフェンシング操作を確認し、ホストがオンライン状態となりました。

6.7. ホストとパーミッション

6.7.1. ホストに対するシステムパーミッションの管理

システム管理者は、SuperUser として管理ポータルの全側面を管理する管理者です。他のユーザーには、より特定的な管理者ロールを割り当てることができます。このような制限付きの管理者ロールは、特定のリソースに限定した特定の管理者権限をユーザーに付与する場合に有用です。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのみに対して (ただし、そのデータセンター用のストレージは例外)、ClusterAdmin は割り当てられたクラスターのみに対して管理者権限があります。
ホスト管理者は、特定のホストのみのシステム管理者ロールです。複数のホストで構成されるクラスターで各ホストにシステム管理者が 1 人ずつ必要な場合に有用です。ヘッダーバーの 設定 ボタンを使用して、環境内の全ホストにホスト管理者を割り当てることができます。
ホスト管理者ロールは、以下のアクションを許可します。
  • ホストの設定の編集
  • 論理ネットワークの設定
  • ホストの削除
既存のシステム管理者を削除して新規システム管理者を追加することにより、ホストのシステム管理者を変更することも可能です。

6.7.2. ホスト管理者ロール

ホストに対するパーミッションがあるロール

以下の表には、ホストの管理に適用可能な管理者のロールと権限についての説明をまとめています。

表6.8 Red Hat Enterprise Virtualization のシステム管理者ロール
ロール権限備考
HostAdminホスト管理者特定のホストの設定、管理、削除ができます。また、特定のホストに対するネットワーク関連の操作を行うこともできます。

6.7.3. リソースに対する管理者およびユーザーロールの割り当て

リソースに対して管理者またはユーザーのロールを割り当てると、ユーザーはそのリソースへのアクセスや管理ができるようになります。

手順6.19 リソースへのロール割り当て

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. 追加 をクリックします。
  4. 検索 テキストボックスに既存ユーザーの名前またはユーザー名を入力し、検索 をクリックします。結果一覧に表示される検索候補からユーザーを選択します。
  5. 割り当てるロール ドロップダウンリストからロールを選択します。
  6. OK をクリックします。
ユーザーにロールが割り当てられました。このユーザーは、対象のリソースに対して有効化されたロールのパーミッションを継承します。

6.7.4. リソースからの管理者またはユーザーロールの削除

リソースから管理者またはユーザーのロールを削除すると、そのリソースのロールに関連付けられたユーザーのパーミッションは継承されなくなります。

手順6.20 リソースからのロール削除

  1. リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のリソースを選択します。
  2. 詳細ペインの パーミッション タブをクリックして、 選択したリソースに割り当てられたユーザー、ユーザーのロール、継承されたパーミッションを一覧表示します。
  3. リソースから削除するユーザーを選択します。
  4. 削除 をクリックします。パーミッションが削除されることを確認する パーミッションの削除 ウィンドウが開きます。
  5. OK をクリックします。
ユーザーロールおよび関連付けられたパーミッションが削除されました。

第7章 ストレージ

Red Hat Enterprise Virtualization では、仮想マシンのディスクイメージ、ISO ファイル、スナップショット用に一元化されたストレージシステムを使用します。ストレージネットワークは、以下のストレージタイプを使用して実装することができます。
  • Network File System (NFS)
  • GlusterFS エクスポート
  • その他の POSIX 準拠のファイルシステム
  • Internet Small Computer System Interface (iSCSI)
  • 仮想化ホストに直接アタッチされたローカルストレージ
  • Fibre Channel Protocol (FCP)
  • Parallel NFS (pNFS)
データセンターは、ストレージドメインがアタッチされ、アクティブ化された状態でなければ初期化できないため、ストレージの設定は新規データセンターの重要な前提条件となります。
Red Hat Enterprise Virtualization システム管理者は、仮想化エンタープライズのストレージの作成、設定、アタッチ、メンテナンスを行う必要があるので、ストレージのタイプと使用方法に精通している必要があります。ストレージアレイのベンダーの説明書をお読みください。ストレージの概念、プロトコル、要件、一般的な使用方法についての詳しい説明は、『Red Hat Enterprise Linux ストレージ管理ガイド』を参照してください。
Red Hat Enterprise Virtualization では、管理ポータルの ストレージ タブを使用して、ストレージの割り当てと管理を行うことができます。ストレージ の結果一覧には、すべてのストレージドメインが表示されます。詳細ペインには、ドメインに関する全般情報が表示されます。
ストレージドメインを追加するには、管理ポータルに正常にアクセスすることが可能で、かつ、少なくとも 1 台のホストが Up のステータスで接続されている必要があります。
Red Hat Enterprise Virtualization には 3 種類のストレージドメインがあります。
  • データドメイン: データドメインには、データセンター内にある全仮想マシンの仮想ハードディスクおよび OVF ファイル、ならびにテンプレートが保管されます。また、仮想マシンのスナップショットもデータドメインに格納されます。
    データドメインは、複数のデータセンター間で共有することができません。ドメインがローカルのドメインではなく全ホストからアクセス可能なドメインの場合は、複数のタイプのデータドメイン (iSCSI、NFS、FC、POSIX、Gluster) を同じデータセンターに追加することができます。
    データドメイン以外のタイプのドメインをデータセンターにアタッチするには、先にデータドメインをデータセンターにアタッチしておく必要があります。
  • ISO ドメイン: ISO ドメインには、仮想マシンのオペレーティングシステムとアプリケーションのインストールおよび起動に使用する ISO ファイル (または論理 CD) が保管されます。ISO ドメインにより、データセンターには物理メディアが必要なくなります。ISO ドメインは異なるデータセンター間で共有することができます。ISO ドメインは NFS ベースのみで、1 つのデータセンターに 1 つしか追加できません。
  • エクスポートドメイン: エクスポートドメインは、データセンターと Red Hat Enterprise Virtualization 環境間でのイメージのコピーや移動に使用する一時的なストレージリポジトリーです。また、仮想マシンのバックアップにも使用できます。エクスポートドメインは、複数のデータセンター間で移動させることができますが、一度に 1 つのデータセンターでしかアクティブにすることはできません。エクスポートドメインは、NFS ベースのみで、1 つのデータセンターに 1 つしか追加できません。

重要

Red Hat Enterprise Virtualization 環境に対するストレージの設定およびアタッチは、使用しているデータセンターのストレージ要件を決定してから、開始するようにしてください。

7.1. ストレージドメインについての知識

ストレージドメインとは、共通のストレージドインターフェースを使用するイメージの集合体です。ストレージドメインには、テンプレートおよび仮想マシン (スナップショットを含む) の完全なイメージまたは ISO ファイルが格納されます。ストレージドメインには、ブロックデバイス (SAN - iSCSI または FCP) またはファイルシステム (NAS - NFS、GlusterFS またはその他の POSIX 準拠ファイルシステム) を使用することができます。
NFS では、仮想ディスク、テンプレート、スナップショットはすべてファイルです。
SAN (iSCSI/FCP) では、仮想ディスク、テンプレート、スナップショットはそれぞれが 1 つの論理ボリュームです。ブロックデバイスは、ボリュームグループと呼ばれる単一の論理エンティティーに集約された後に、仮想ハードディスクとして使用するように、LVM (論理ボリュームマネージャー) によって分割されます。LVM に関する詳しい情報は 『Red Hat Enterprise Linux 論理ボリュームマネージャの管理』ガイドを参照してください。
仮想ディスクには 2 つの形式 (QCOW2 または RAW) のいずれかを使用することができます。ストレージのタイプは、スパース割り当てまたは事前割り当てのいずれかに指定することができます。スナップショットは常にスパースですが、いずれの形式のディスクのスナップショットも作成することができます。
同じストレージドメインを共有する仮想マシンは、同じクラスターに属するホスト間で移行することができます。

7.2. NFS ストレージの準備と追加

7.2.1. NFS ストレージの準備

Red Hat Enterprise Linux 6 サーバー上でデータドメインおよびエクスポートドメインとして機能する NFS 共有を設定します。Red Hat Enterprise Virtualization Manager のインストールの工程で ISO ドメインを作成済みの場合には、作成する必要はありません。必要なシステムユーザーとグループについての詳しい情報は、「付録G システムアカウント」を参照してください。
  1. NFS ツールを提供する nfs-utils パッケージをインストールします。
    # yum install nfs-utils
  2. ブートスクリプトを設定して、システムのブート時に毎回共有が使用できるようにします。
    # chkconfig --add rpcbind
    # chkconfig --add nfs
    # chkconfig rpcbind on
    # chkconfig nfs on
  3. rpcbind サービスおよび nfs サービスを起動します。
    # service rpcbind start
    # service nfs start
  4. data および export の各ディレクトリーを作成します。
    # mkdir -p /exports/data
    # mkdir -p /exports/export
  5. 新規作成したディレクトリーを /etc/exports ファイルに追加します。/etc/exports に以下の内容を追記してください。
    /exports/data *(rw)
    /exports/export *(rw)
  6. ストレージドメインをエクスポートします。
    # exportfs -r
  7. NFS サービスを再読み込みします。
    # service nfs reload
  8. kvm というグループを作成します。
    # groupadd kvm -g 36
  9. ユーザー vdsm を作成してグループ kvm に追加します。
    # useradd vdsm -u 36 -g 36
  10. エクスポートディレクトリーの所有権を 36:36 に設定すると、vdsm:kvm に所有権が付与されます。これにより、Manager はこれらのエクスポートされたディレクトリーによって表示されるストレージドメイン内にデータを保管することができるようになります。
    # chown -R 36:36 /exports/data
    # chown -R 36:36 /exports/export
  11. 所有者に読み取り/書き込みアクセスを許可し、グループおよびその他のユーザーに読み取り/実行アクセスを許可するようにディレクトリーのモードを変更します。
    # chmod 0755 /exports/data
    # chmod 0755 /exports/export

7.2.2. NFS ストレージのアタッチ

NFS ストレージドメインを Red Hat Enterprise Virtualization 環境のデータセンターにアタッチします。このストレージドメインは、仮想化ゲストイメージおよび ISO 起動メディア用のストレージを提供します。以下の手順は、エクスポート共有がすでに用意されていることを前提としています。エクスポートドメインを作成する前に、データドメインを作成しておく必要があります。エクスポートドメインの作成にも同じ手順を使用しますが、その場合は、ドメイン機能/ストレージタイプ の一覧で Export / NFS を選択します。
  1. Red Hat Enterprise Virtualization Manager 管理ポータルで ストレージ リソースタブをクリックします。
  2. 新規ドメイン をクリックします。
    新規ドメインウィンドウ

    図7.1 新規ドメインウィンドウ

  3. ストレージドメインの 名前 を入力します。
  4. データーセンタードメイン機能ストレージタイプ形式、および 使用するホスト の一覧のデフォルト値を受け入れます。
  5. ストレージドメインに使用する エクスポートパス を入力します。
    エクスポートパスは、192.168.0.10:/data または domain.example.com:/data の形式にする必要があります。
  6. オプションで、詳細パラメーターを設定することが可能です。
    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
  7. OK をクリックします。
    新規 NFS データドメインが ストレージ タブに表示されます。ディスクの準備が完了するまでステータスが Locked と表示され、その後には自動的にデータセンターにアタッチされます。

7.2.3. NFS ストレージの拡張

NFS ストレージの容量を拡張するには、新規ストレージドメインを作成して既存のデータセンターに追加するか、NFS サーバー上の使用可能な空き容量を増やします。最初のオプションについては、「NFS ストレージのアタッチ」を参照してください。以下の手順は、既存の NFS サーバーで使用可能な空き容量を増やす方法について説明します。

手順7.1 既存の NFS ストレージドメインの拡張

  1. ストレージ リソースタブをクリックして、NFS ストレージドメインを選択します。
  2. 詳細ペインで データセンター タブをクリックし、メンテナンス ボタンをクリックしてストレージドメインをメンテナンスモードに切り替えます。これにより、既存の共有がアンマウントされ、ストレージドメインのサイズ変更が可能となります。
  3. NFS サーバーで、ストレージをリサイズします。 Red Hat Enterprise Linux 6 システムの場合は、『Red Hat Enterprise Linux 6 ストレージ管理ガイド』を参照してください。Red Hat Enterprise Linux 7 システムの場合は、『Red Hat Enterprise Linux 7 ストレージ管理ガイド』を参照してください。
  4. 詳細ペインで データセンター タブをクリックし、アクティブ化 ボタンをクリックしてストレージドメインをマウントします。

7.3. ローカルストレージの準備と追加

7.3.1. ローカルストレージの準備

ホスト上にローカルストレージドメインをセットアップすることができます。ホストがローカルストレージを使用するように設定すると、そのホストは、他のホストを追加することができない新規データセンターとクラスターに自動的に追加されます。複数のホストで構成されるクラスターの場合は、全ホストが全ストレージドメインにアクセス可能である必要があり、ローカルストレージでは対応不可能です。単一ホストのクラスター内で作成された仮想マシンは、移行、フェンシング、スケジューリングはできません。必要なシステムユーザーとグループについての詳しい情報は、「付録G システムアカウント」を参照してください。

重要

Red Hat Enterprise Virtualization Hypervisor でローカルストレージに使用できる唯一のパスは /data/images です。このディレクトリーは、Hypervisor インストール上にすでに存在し、正しいパーミッションが付いています。以下の手順は、Red Hat Enterprise Linux virtualization ホストでローカルストレージを準備する場合のみに必要となります。

手順7.2 ローカルストレージの準備

  1. 仮想化ホストで、ローカルストレージとして使用するディレクトリーを作成します。
    # mkdir -p /data/images
  2. vdsm ユーザー (UID 36) と kvm グループ (GID 36) がそのディレクトリーに読み取り/書き込みアクセスができるようにパーミッションを設定します。
    # chown 36:36 /data /data/images
    # chmod 0755 /data /data/images
ローカルストレージを Red Hat Enterprise Virtualization 環境に追加する準備が整いました。

7.3.2. ローカルストレージの追加

ホストのローカルストレージの準備が完了したので、次に Manager を使用してそのストレージをホストに追加します。
以下に説明する方法でホストをローカルストレージに追加すると、ホストが新規のデータセンターとクラスターに配置されます。ローカルストレージ設定ウィンドウは、データセンター、クラスター、ストレージの作成を 1 つのプロセスにまとめています。

手順7.3 ローカルストレージの追加

  1. ホスト リソースタブをクリックして、結果一覧でホストを選択します。
  2. メンテナンス をクリックすると ホストのメンテナンス の確認ウィンドウが開きます。
  3. OK をクリックしてメンテナンスモードを開始します。
  4. ローカルストレージを設定 をクリックすると、ローカルストレージの設定 ウィンドウが開きます。
    ローカルストレージの設定ウィンドウ

    図7.2 ローカルストレージの設定ウィンドウ

  5. データセンタークラスターストレージ フィールドの横にある 編集 ボタンをクリックし、ローカルのストレージドメインを設定して名前を付けます。
  6. 文字入力フィールドにローカルストレージへのパスを設定します。
  7. 最適化 タブを選択して新規ローカルストレージクラスターのメモリー最適化ポリシーを設定します。
  8. OK をクリックして設定を保存し、ウィンドウを閉じます。
ホストのデータセンター内でオンライン表示されます。

7.4. POSIX 準拠ファイルシステムストレージの準備と追加

Red Hat Enterprise Virtualization 3.1 以降のバージョンでは、POSIX (ネイティブ) ファイルシステムをストレージに使用することができます。POSIX ファイルシステムのサポートにより、通常コマンドラインから手動でマウントするときと同じマウントオプションを使ってファイルシステムをマウントすることができます。この機能は、NFS、iSCSI、または FCP 以外を使用してマウントするストレージへのアクセスを可能にすることを目的としています。
Red Hat Enterprise Virtualization でストレージドメインとして使用する POSIX 準拠のファイルシステムは、スパースファイルおよびダイレクト I/O をサポートしている必要があります。たとえば、Common Internet File System (CIFS) は、ダイレクト I/O をサポートしていないので、Red Hat Enterprise Virtualization との互換性はありません。

重要

POSIX 準拠ファイルシステムのストレージドメインを作成して、NFS ストレージをマウントしないでください。必ず、NFS ストレージドメインを作成してください。

7.4.1. POSIX 準拠ファイルシステムストレージのアタッチ

NFS、iSCSI、または FCP 以外を使用してマウントする POSIX 準拠のファイルシステムをストレージドメインとして使用します。

手順7.4 POSIX 準拠ファイルシステムストレージのアタッチ

  1. ストレージ リソースタブをクリックすると、結果一覧に既存のストレージドメインが表示されます。
  2. 新規ドメイン をクリックすると、新規ドメイン ウィンドウが開きます。
    POSIX ストレージ

    図7.3 POSIX ストレージ

  3. ストレージドメインの 名前 を入力します。
  4. このストレージドメインと関連づける データセンター を選択します。選択したデータセンターのタイプは、POSIX (POSIX compliant FS) でなければなりません。または、(None)を選択します。
  5. ドメイン機能/ストレージタイプ のドロップダウンメニューから Data / POSIX compliant FS を選択します。
    該当する場合には、ドロップダウンメニューから フォーマット を選択します。
  6. 使用するホスト のドロップダウンメニューからホストを選択します。選択したデータセンターの中にあるホストのみが表示されます。選択したホストを使って、ストレージドメインに接続します。
  7. 通常 mount コマンドに渡すように、POSIX ファイルシステムへの パス を入力します。
  8. 通常、-t 引数を使用して mount コマンドに渡すときのように、VFS Type を入力します。有効な VFS 一覧については man mount で確認してください。
  9. 通常、-o 引数を使用して mount コマンドに渡すときのように、追加の マウントオプション を入力します。このマウントオプションはコンマ区切りで提示してください。有効なマウントオプションの一覧については、man mount で確認してください。
  10. オプションで、詳細パラメーターを設定することが可能です。
    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
  11. OK をクリックすると新規ストレージドメインがアタッチされ、ウィンドウが閉じます。

7.5. ブロックストレージの準備と追加

7.5.1. iSCSI ストレージの準備

Red Hat Enterprise Linux 6 を実行するサーバーから iSCSI ストレージデバイスをエクスポートして、Red Hat Enterprise Virtualization でストレージドメインとして使用するには、以下の手順に従ってください。

手順7.5 iSCSI ストレージの準備

  1. ストレージサーバーで root として yum コマンドを実行して、scsi-target-utils パッケージをインストールします。
    # yum install -y scsi-target-utils
  2. エクスポートするデバイスまたはファイルを /etc/tgt/targets.conf ファイルに追加します。targets.conf ファイルへの追記の一般的な例は以下のとおりです。
    <target iqn.YEAR-MONTH.com.EXAMPLE:SERVER.targetX>
              backing-store /PATH/TO/DEVICE1 # Becomes LUN 1
              backing-store /PATH/TO/DEVICE2 # Becomes LUN 2
              backing-store /PATH/TO/DEVICE3 # Becomes LUN 3
    </target>
    ターゲットは通常、作成年月、サーバーが属するドメインを後ろから順に記載した FQDN、サーバー名、ターゲット番号で定義します。
  3. tgtd サービスを起動します。
    # service tgtd start
  4. 再起動後も tgtd が起動するように永続的に設定します。
    # chkconfig tgtd on
  5. iptables のファイアウォールポートを開き、クライアントが iSCSI エクスポートにアクセスするのを許可します。デフォルトでは、iSCSI はポート 3260 を使用します。以下の例では、ファイアウォールルールを INPUT テーブルのポジション 6 に挿入します。
    # iptables -I INPUT 6 -p tcp --dport 3260 -j ACCEPT
  6. 作成した iptables ルールを保存します。
    # service iptables save
基本的な iSCSI エクスポートを作成しました。このエクスポートは iSCSI データドメインとして使用することができます。

7.5.2. iSCSI ストレージの追加

Red Hat Enterprise Virtualization プラットフォームは、既存の LUN で構成されるボリュームグループからストレージドメインを作成する方法で、iSCSI ストレージをサポートしています。ボリュームグループおよび LUN はいずれも、同時に複数のストレージドメインにはアタッチできません。
Red Hat Enterprise Linux における iSCSI の設定方法については、『Red Hat Enterprise Linux ストレージ管理ガイド』の「オンラインストレージ管理」のセクションを参照してください。

手順7.6 iSCSI ストレージの追加

  1. ストレージ リソースタブをクリックすると、結果一覧に既存のストレージドメインが表示されます。
  2. 新規ドメイン ボタンをクリックし、新規ドメイン ウィンドウを開きます。
  3. 新規ストレージドメインの 名前 を入力します。
    新規 iSCSI ドメイン

    図7.4 新規 iSCSI ドメイン

  4. データセンター のドロップダウンメニューでデータセンターを選択します。
  5. ドロップダウンメニューで ドメイン機能 および ストレージタイプ を選択します。選択したドメイン機能との互換性がないストレージドメインタイプは選択できません。
  6. 使用するホスト のフィールドでアクティブなホストを 1 台選択します。データセンターで初めて作成するデータドメインでなければ、そのデータセンターの SPM ホストを選択する必要があります。

    重要

    ストレージドメインへの通信はすべて、Red Hat Enterprise Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
  7. Red Hat Enterprise Virtualization Manager でマッピングが可能なのは、iSCSI ターゲットから LUN へのマッピング、または LUN から iSCSI ターゲットへのマッピングのいずれかです。iSCSI をストレージタイプに選択すると、新規ドメイン ダイアログには未使用の LUN を持つ既知のターゲットが自動的に表示されます。ストレージを追加する元のターゲットが表示されない場合には、「ターゲットを検出」を使用して検索することができます。表示されている場合には、次の手順に進んでください。

    iSCSI ターゲット検出

    1. ターゲットを検出 をクリックし、ターゲットの検出オプションを有効にします。Manager がターゲットを検出してログインすると、新規ドメイン ウィンドウに、その環境では未使用の LUN が割り当てられたターゲットが自動的に表示されます。

      注記

      環境の外部で使用されている LUN も表示されます。
      ターゲットを検出 のオプションを使用すると、多数のターゲットに LUN を追加したり、同じ LUN に複数のパスを追加したりすることができます。
    2. アドレス フィールドに iSCSI ホストの完全修飾ドメイン名または IP アドレスを入力します。
    3. ポート フィールドには、ターゲットを参照する際にホストに接続するポートを入力します。デフォルトは 3260 です。
    4. ストレージのセキュリティー保護に Challenge Handshake Authentication Protocol (CHAP) を使用している場合は、ユーザー認証 のチェックボックスを選択します。CHAP ユーザー名CHAP パスワード を入力してください。

      注記

      REST API を使用して、ホスト毎の iSCSI ターゲットに特定の認証情報を定義することができるようになりました。詳しくは、『REST API ガイド』の「iSCSI ターゲットへの認証情報の定義」のセクションを参照してください。
    5. 検出 ボタンをクリックします。
    6. 検出結果から使用するターゲットを選択して ログイン ボタンをクリックします。
      もしくは、全ターゲットにログイン をクリックして、検出された全ターゲットにログインします。

      重要

      複数のパスのアクセスが必要な場合には、すべての必要なパスを通してターゲットを検出してログインするようにしてください。ストレージドメインを変更してさらにパスを追加する方法は、現在サポートされていません。
  8. 対象のターゲットの横に表示されている + ボタンをクリックします。エントリーが展開され、ターゲットにアタッチされている未使用の LUN がすべて表示されます。
  9. ストレージドメインの作成に使用する各 LUN のチェックボックスにチェックを入れます。
  10. オプションで、詳細パラメーターを設定することが可能です。
    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
  11. OK をクリックするとストレージドメインが作成され、ウィンドウが閉じます。
同じターゲットに対して複数のストレージ接続パスを設定している場合には、「iSCSI マルチパス機能の設定」の手順に従ってください。

7.5.3. iSCSI マルチパス機能の設定

iSCSI マルチパス により、論理ネットワークおよび iSCSI ストレージ接続のグループを作成/管理することができます。ネットワークパスのエラーによるホストのダウンタイムを防ぐには、ホストと iSCSI ストレージ間に複数のネットワークパスを設定します。設定が完了すると、Manager はデータセンター内の各ホストを、同じ iSCSI ボンディングの論理ネットワークに関連する NIC/VLAN を介して、ボンディングされた各ターゲットに接続します。ホストがデフォルトのネットワークを使用してトラフィックをルーティングできるようにする代わりに、ストレージトラフィックに使用するネットワークを指定することも可能です。このオプションは、少なくとも 1 つの iSCSI ストレージドメインがデータセンターにアタッチされた後にのみ、管理ポータルで指定することができます。

前提条件

  • iSCSI ストレージドメインの作成が完了していること。また、iSCSI ターゲットへの全パスを検出済みで、ログインしていること。
  • iSCSI ストレージの接続とボンディングするための 任意 の論理ネットワークが作成済みであること。複数の論理ネットワークまたはボンディングネットワークを設定すると、ネットワークのフェイルオーバーを可能にすることができます。

手順7.7 iSCSI マルチパス機能の設定

  1. データセンター タブをクリックして、結果一覧からデータセンターを選択します。
  2. 詳細ペインで iSCSI マルチパス タブをクリックします。
  3. 追加 をクリックします。
  4. iSCSI ボンディングの追加 ウィンドウでボンディングの 名前説明 を入力します。
  5. 論理ネットワーク の一覧から、ボンディングに使用するネットワークを選択します。ネットワークは、任意 ネットワークである必要があります。

    注記

    ネットワークの 必須 プロパティーを変更するには、管理ポータルでそのネットワークを選択し、ネットワーク名をクリックして詳細ビューを表示し、クラスター タブをクリックして ネットワークの管理 ボタンをクリックし、必須 チェックボックスのチェックを外します。
  6. ストレージターゲット の一覧から、指定したネットワークを介してアクセスするストレージドメインを選択します。同じターゲットへのパスをすべて選択するようにしてください。
  7. OK をクリックします。
データセンター内の全ホストは、選択した論理ネットワークを介して、選択した iSCSI ターゲットに接続されます。

7.5.4. FCP ストレージの追加

Red Hat Enterprise Virtualization プラットフォームは、既存の LUN で構成されるボリュームグループからストレージドメインを作成する方法で、SAN ストレージをサポートしています。ボリュームグループおよび LUN はいずれも、同時に複数のストレージドメインにはアタッチできません。
Red Hat Enterprise Virtualization システムの管理者には Storage Area Networks (SAN) の概念に関する作業知識が必要になります。SAN は通常、ホストと外部の共有ストレージ間のトラフィックに Fibre Channel Protocol (FCP) を使用します。このため、SAN は FCP ストレージとも呼ばれています。
Red Hat Enterprise Linux での FCP またはマルチパスの設定/構成に関する情報は、『ストレージ管理ガイド』 および 『DM Multipath ガイド』を参照してください。
以下の手順は、既存の FCP ストレージを Red Hat Enterprise Virtualization 環境にデータドメインとしてアタッチする方法について説明します。サポートされているストレージタイプについての詳しい情報は、「7章ストレージ」を参照してください。

手順7.8 FCP ストレージの追加

  1. ストレージ リソースタブをクリックして、全ストレージドメインを一覧表示します。
  2. 新規ドメイン をクリックすると、新規ドメイン ウィンドウが開きます。
  3. ストレージドメインの 名前 を入力します。
    FCP ストレージの追加

    図7.5 FCP ストレージの追加

  4. データセンター ドロップダウンメニューで FCP データセンターを選択します。
    適切な FCP データセンターがない場合には (None) を選択します。
  5. ドロップダウンメニューで ドメイン機能 および ストレージタイプ を選択します。選択したデータセンターとの互換性がないストレージドメインタイプは選択できません。
  6. 使用するホスト のフィールドでアクティブなホストを 1 台選択します。データセンターで初めて作成するデータドメインでなければ、そのデータセンターの SPM ホストを選択する必要があります。

    重要

    ストレージドメインへの通信はすべて、Red Hat Enterprise Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
  7. 新規ドメイン ウィンドウで、ストレージタイプに Data / Fibre Channel を選択した場合は、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。LUN ID チェックボックスを選択し、使用可能な LUN をすべて選択します。
  8. オプションで、詳細パラメーターを設定することが可能です。
    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
  9. OK をクリックするとストレージドメインが作成され、ウィンドウが閉じます。
ストレージ タブに新規 FCP データドメインが表示されます。使用準備中には、Locked のステータスとなります。準備が整った時点で、自動的にデータセンターにアタッチされます。

7.5.5. iSCSI または FCP ストレージの拡張

iSCSI または FCP ストレージのサイズを拡張するには、複数の方法があります。
  • 新しい LUN で新規ストレージドメインを作成して、既存のデータセンターに追加する (「iSCSI ストレージの追加」を参照)
  • 新しい LUN を作成して、既存のストレージドメインに追加する
  • 下層の LUN をリサイズして、ストレージドメインを拡張する
Red Hat Enterprise Linux 6 システムで iSCSI ストレージを作成、設定、リサイズする方法についての説明は、『Red Hat Enterprise Linux 6 ストレージ管理ガイド』を参照してください。Red Hat Enterprise Linux 7 システムの場合は、『Red Hat Enterprise Linux 7 ストレージ管理ガイド』を参照してください。
以下の手順では、既存のストレージドメインに新規 LUN を追加して、Storage Area Network (SAN) ストレージを拡張する方法について説明します。

手順7.9 既存の iSCSI または FCP ストレージドメインの拡張

  1. SAN 上に新規 LUN を作成します。
  2. ストレージ リソースタブをクリックして、iSCSI または FCP ドメインを選択します。
  3. 編集 ボタンをクリックします。
  4. ターゲット > LUN をクリックして、ターゲットを検出 の展開ボタンをクリックします。
  5. ストレージサーバーへの接続情報を入力し、検出 ボタンをクリックして、接続を開始します。
  6. LUN > ターゲット をクリックし、新しく利用可能となった LUN のチェックボックスを選択します。
  7. OK をクリックして、選択したストレージドメインに LUN を追加します。
これにより、ストレージドメインは、追加した LUN のサイズ分拡張されます。
下層の LUN をリサイズしてストレージドメインを拡張する場合には、Red Hat Enterprise Virtualization 管理ポータルで LUN をリフレッシュする必要もあります。

手順7.10 LUN サイズのリフレッシュ

  1. ストレージ リソースタブをクリックして、iSCSI または FCP ドメインを選択します。
  2. 編集 ボタンをクリックします。
  3. LUN > ターゲット をクリックします。
  4. 追加するサイズ のコラムで、LUN の 追加 Additional_Storage_Size ボタンをクリックしてリフレッシュします。
  5. OK をクリックして、LUN をリフレッシュすると、新しいストレージのサイズが表示されます。

7.5.6. Red Hat Enterprise Virtualization で使用できない LUN

場合によっては、Red Hat Enterprise Virtualization で LUN を使用してストレージドメインや仮想マシンのハードディスクを作成することができません。
  • すでに、現在の Red Hat Enterprise Virtualization 環境の一部となっている LUN は、使用されないように自動設定されます。
    Red Hat Enterprise Virtualization 管理ポータルで使用できない LUN

    図7.6 Red Hat Enterprise Virtualization 管理ポータルで使用できない LUN

  • SPM ホストがすでに使用している LUN も使用中と表示されます。これらの LUN の内容を強制的に上書きするよう選択することも可能ですが、この上書きの操作が正常に行われる保証はありません。

7.6. 既存のストレージドメインのインポート

7.6.1. 既存のストレージドメインのインポートについての概要

データが一切格納されていない新規ストレージドメインを追加するだけでなく、既存のストレージドメインをインポートして、その中に格納されているデータにアクセスすることも可能です。ストレージドメインのインポート機能により、Manager データベースでエラーが発生した際にデータを復旧して、そのデータをデータセンター間または環境間で移行することができます。
ストレージドメインタイプ別のインポートについての概要は以下のとおりです。
データ
既存のデータストレージドメインをインポートすると、そのデータストレージドメインに格納されているすべての仮想マシンとテンプレートにアクセスすることができます。ストレージドメインをインポートした後には、仮想マシンとテンプレートをそれぞれ手動でターゲットのデータセンターにインポートする必要があります。データストレージドメインに格納されている仮想マシンとテンプレートをインポートするプロセスは、エクスポートストレージドメインのプロセスと似ていますが、データストレージドメインには、特定のデータセンター内のすべての仮想マシンとテンプレートが含まれているので、データ復旧やデータセンター/環境間での大規模な仮想マシンの移行の場合には、データストレージドメインをインポートすることをお勧めします。

重要

インポートできるのは、互換性レベルが 3.5 以上のデータセンターにアタッチされていた既存のデータストレージドメインのみです。
ISO
既存の ISO ストレージドメインをインポートすると、その ISO ストレージドメインに格納されたすべての ISO ファイルと仮想フロッピーにアクセスすることができます。ストレージドメインをインポートした後は、リソースへのアクセスに追加の操作は不要なので、必要に応じて仮想マシンにアタッチすることができます。
エクスポート
既存のエクスポートストレージドメインをインポートすると、そのエクスポートストレージドメインに格納されたすべての仮想マシンとテンプレートにアクセスすることができます。エクスポートストレージドメインは、仮想マシンイメージとテンプレートのエクスポート/インポート用に設計されているので、同じの環境内または異なる環境間で少数の仮想マシンとテンプレートを移行する場合には、エクスポートストレージドメインをインポートする方法を推奨します。エクスポートドメインを使用した仮想マシンとテンプレートのエクスポート/インポートについての情報は、『仮想マシン管理ガイド』の「仮想マシンとテンプレートのエクスポート/インポート」のセクションを参照してください。

7.6.2. ストレージドメインのインポート

同じ環境または異なる環境のデータセンターに以前アタッチされていたストレージドメインをインポートします。以下の手順では、データの破損を回避するために、ストレージドメインがどの環境のデータセンターにもアタッチされていない状態であることを前提としています。既存のデータストレージドメインをデータセンターにインポートするには、インポート先のデータセンターが初期化済みで、かつ互換性レベルが 3.5 以上である必要があります。

手順7.11 ストレージドメインのインポート

  1. ストレージ リソースタブをクリックします。
  2. ドメインをインポート をクリックします。
    事前設定済みドメインのインポートのウィンドウ

    図7.7 事前設定済みドメインのインポートのウィンドウ

  3. データセンター のドロップダウンリストから、ストレージドメインをアタッチするデータセンターを選択します。
  4. ストレージドメインの名前を入力します。
  5. ドメイン機能ストレージタイプ のドロップダウンリストから適切な項目を選択します。
  6. 使用するホスト のドロップダウンリストからホストを選択します。

    重要

    ストレージドメインへの通信はすべて、Red Hat Enterprise Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
  7. ストレージドメインの詳細を入力します。

    注記

    ストレージドメインの詳細を指定するフィールドは、ドメイン機能/ストレージタイプ の一覧で選択した値に応じて異なります。これらのオプションは、新規ストレージドメインの追加で表示される項目と同じです。オプションについての詳しい情報は 「ストレージドメインについての知識」を参照してください。
  8. データセンター内のドメインを有効化する のチェックボックスにチェックを入れると、選択したデータセンターにストレージドメインがアタッチされた後にそのドメインがアクティブ化されます。
  9. OK をクリックします。
ストレージドメインがインポートされ、ストレージ タブに表示されます。これで、インポートしたストレージドメインからデータセンターに仮想マシンとテンプレートをインポートできるようになりました。

7.6.3. 同じ環境内のデータセンター間でのストレージドメインの移行

同じ Red Hat Enterprise Virtualization 環境内のデータセンター間でストレージドメインを移行すると、移行先のデータセンターで、そのストレージドメインに格納されているデータにアクセスすることができます。以下の手順では、移行元のデータセンターからストレージドメインをデタッチしてから、別のデータセンターにアタッチするステップを伴います。

手順7.12 同じ環境内のデータセンター間でのストレージドメインの移行

  1. 対象のストレージドメインで実行中の仮想マシンをすべて停止します。
  2. ストレージ リソースタブをクリックして、結果一覧からストレージドメインを選択します。
  3. 詳細ペインで データセンター タブをクリックします。
  4. メンテナンス をクリックしてから OK をクリックすると、ストレージドメインがメンテナンスモードに切り替わります。
  5. デタッチ をクリックしてから OK をクリックすると、移行元のデータセンターからストレージドメインがデタッチされます。
  6. アタッチ をクリックします。
  7. 移行先のデータセンターを選択して OK をクリックします。
移行先のデータセンターにストレージドメインがアタッチされ、自動的にアクティブ化されます。これで、ストレージドメインから仮想マシンおよびテンプレートを移行先のデータセンターにインポートすることができます。

7.6.4. 異なる環境のデータセンター間でのストレージドメインの移行

異なる Red Hat Enterprise Virtualization 環境間でストレージドメインを移行すると、移行先の環境でストレージドメインに格納されているデータにアクセスすることができます。以下の手順は、1 つの Red Hat Enterprise Virtualization 環境からストレージドメインを削除して、別の環境にインポートするステップを伴います。既存のデータストレージドメインをデータセンターにインポートしてアタッチするには、移行先のデータセンターの互換レベルが 3.5 以上である必要があります。

手順7.13 異なる環境のデータセンター間でのストレージドメインの移行

  1. 移行元の環境の管理ポータルにログインします。
  2. 対象のストレージドメインで実行中の仮想マシンをすべて停止します。
  3. ストレージ リソースタブをクリックして、結果一覧からストレージドメインを選択します。
  4. 詳細ペインで データセンター タブをクリックします。
  5. メンテナンス をクリックしてから OK をクリックすると、ストレージドメインがメンテナンスモードに切り替わります。
  6. デタッチ をクリックしてから OK をクリックすると、移行元のデータセンターからストレージドメインがデタッチされます。
  7. 削除 をクリックします。
  8. ストレージの削除 ウィンドウで ドメインをフォーマットします。ストレージの中身が失われます。 のチェックボックスが選択されていないことを確認します。このステップにより、ストレージドメイン内のデータが保持され、後で使用することができます。
  9. OK をクリックすると、移行元の環境からストレージドメインが削除されます。
  10. 移行先の環境の管理ポータルにログインします。
  11. ストレージ リソースタブをクリックします。
  12. ドメインをインポート をクリックします。
    事前設定済みドメインのインポートのウィンドウ

    図7.8 事前設定済みドメインのインポートのウィンドウ

  13. データセンター のドロップダウンリストから、移行先のデータセンターを選択します。
  14. ストレージドメインの名前を入力します。
  15. ドメイン機能ストレージタイプ のドロップダウンリストから適切な項目を選択します。
  16. 使用するホスト のドロップダウンリストからホストを選択します。
  17. ストレージドメインの詳細を入力します。

    注記

    ストレージドメインの詳細を指定するフィールドは、ストレージタイプ のドロップダウンリストで選択した値に応じて異なります。これらのオプションは、新規ストレージドメインの追加で表示される項目と同じです。オプションについての詳しい情報は 「ストレージドメインについての知識」を参照してください。
  18. Select the データセンター内のドメインを有効化する のチェックボックスを選択すると、ストレージドメインがアタッチされた時に自動的にアクティブ化されます。
  19. OK をクリックします。
新しい Red Hat Enterprise Virtualization 環境にある移行先のデータセンターにストレージドメインがアタッチされ、自動的にアクティブ化されます。これで、ストレージドメインから仮想マシンおよびテンプレートを移行先のデータセンターにインポートすることができます。

7.6.5. インポートされたデータストレージドメインからの仮想マシンのインポート

Red Hat Enterprise Virtualization 環境にインポートしたデータストレージドメインから仮想マシンをインポートします。以下の手順は、インポートされたデータストレージドメインがデータセンターにアタッチ済みで、かつアクティブ化されていることを前提としています。

手順7.14 インポートされたデータストレージドメインからの仮想マシンのインポート

  1. ストレージ リソースタブをクリックします。
  2. インポートしたデータストレージドメインをクリックします。
  3. 詳細ペインで 仮想マシンのインポート タブをクリックします。
  4. インポートする仮想マシンを 1 台または複数選択します。
  5. インポート をクリックします。
  6. クラスター の一覧から、仮想マシンのインポート先となるクラスターを選択します
  7. OK をクリックします。
環境に仮想マシンがインポートされます。インポートした仮想マシンは、仮想マシンのインポート タブの一覧には表示されなくなります。

7.6.6. インポートされたデータストレージドメインからのテンプレートのインポート

Red Hat Enterprise Virtualization 環境にインポートしたデータストレージドメインからテンプレートをインポートします。以下の手順は、インポートされたデータストレージドメインがデータセンターにアタッチ済みで、かつアクティブ化されていることを前提としています。

手順7.15 インポートされたデータストレージドメインからのテンプレートのインポート

  1. ストレージ リソースタブをクリックします。
  2. インポートしたデータストレージドメインをクリックします。
  3. 詳細ペインで テンプレートのインポート のタブをクリックします。
  4. インポートするテンプレートを 1 つまたは複数選択します。
  5. インポート をクリックします。
  6. クラスター の一覧から、テンプレートのインポート先となるクラスターを選択します
  7. OK をクリックします。
環境にテンプレートがインポートされます。インポートしたテンプレートは、テンプレートのインポート タブの一覧には表示されなくなります。

7.7. ストレージのタスク

7.7.1. ISO ストレージドメインへのデータ読み込み

ISO ストレージドメインは、データセンターにアタッチして、ISO イメージをアップロードする必要があります。Red Hat Enterprise Virtualization は、イメージを正しいパスに正しいユーザーパーミッションでアップロードするための ISO アップローダーツールを提供しています。
物理メディアから ISO イメージを作成する方法については本ガイドでは触れていません。ご使用の環境に必要なイメージがお手元にあることを前提としています。

手順7.16 ISO ストレージドメインへのデータ読み込み

  1. Red Hat Enterprise Virtualization Manager を実行しているシステムの一時ディレクトリーに、対象の ISO イメージをコピーします。
  2. Red Hat Enterprise Virtualization Manager を実行しているシステムに root ユーザーでログインします。
  3. engine-iso-uploader コマンドを使用して ISO イメージをアップロードします。この操作には多少時間がかかり、アップロードするイメージのサイズや使用可能なネットワークの帯域幅によって所要時間が異なります。

    例7.1 ISO アップローダーの使用例

    以下の例では、RHEL6.isoISO イメージを ISODomain という名前の ISO ドメインに NFS でアップロードしています。コマンドでは、管理者のユーザー名およびパスワードの入力が求められます。ユーザー名は username@domain の形式で入力する必要があります。
    # engine-iso-uploader --iso-domain=ISODomain upload RHEL6.iso
ISO イメージがアップロードされ、指定した ISO ストレージドメイン内に表示されます。このストレージドメインがアタッチされたデータセンター内で仮想マシンを作成する際には、使用できる起動メディアの一覧にも表示されます。

7.7.2. ストレージドメインのメンテナンスモードへの切り替え

ストレージドメインをデタッチしたり、削除したりするには、メンテナンスモードに切り替え、別のデータドメインをマスターのデータドメインとして再度指定できるようにする必要があります。
ドメインがアクティブな場合のみ、LUN をさらに追加して iSCSI ドメインを拡張することができます。

手順7.17 ストレージドメインのメンテナンスモードへの切り替え

  1. ストレージドメインで実行中の仮想マシンをすべて停止します。
  2. ストレージ リソースタブをクリックして、ストレージドメインを選択します。
  3. 詳細ペインの データセンター タブをクリックします。
  4. メンテナンス をクリックすると、ストレージドメインのメンテナンス の確認ウィンドウが開きます。
  5. OK をクリックすると、メンテナンスモードが開始します。ストレージドメインが非アクティブ化され、結果一覧のステータスが Inactive に変わります。
これで、非アクティブなストレージドメインの編集、データセンターからのデタッチ、削除、再アクティブ化を行うことができるようになりました。

注記

ドメインのアクティブ化、デタッチ、メンテナンスモードへの切り替えを行うには、ドメインが関連付けられたデータセンターの詳細ペインにあるストレージタブを使用することもできます。

7.7.3. ストレージドメインの編集

管理ポータルを使用して、ストレージドメインのパラメーターを編集することができます。ストレージドメインの状態がアクティブか非アクティブかによって、編集可能なフィールドが異なります。データセンタードメイン機能ストレージタイプ、および 形式 は変更できません。
  • Active: ストレージドメインがアクティブな状態の時には、名前説明コメント容量不足の警告 (%)アクションをブロックする深刻な容量不足 (GB)削除後にワイプ のフィールドを編集することが可能です。名前 のフィールドを編集できるのは、ストレージドメインがアクティブな間のみです。他のフィールドはすべて、ストレージドメインが非アクティブでも編集することができます。
  • Inactive: ストレージドメインがメンテナンスモードまたはアタッチされていない状態で、非アクティブの場合には、名前データセンタードメイン機能ストレージタイプ形式 以外の全フィールドを編集することができます。ストレージ接続、マウントオプション、その他の詳細パラメーターを編集するには、ストレージドメインが非アクティブである必要があります。これは、NFS、POSIX、およびローカルストレージタイプでのみサポートされています。

    注記

    iSCSI ストレージの接続は、管理ポータルを使用しては編集できませんが、 REST API で編集可能です。「iSCSI ストレージ接続の更新」を参照してください。

手順7.18 アクティブなストレージドメインの編集

  1. ストレージ タブをクリックして、ストレージドメインを選択します。
  2. 編集 をクリックします。
  3. 必要に応じて、利用可能なフィールドを編集します。
  4. OK をクリックします。

手順7.19 非アクティブなストレージドメインの編集

  1. ストレージ タブをクリックして、ストレージドメインを選択します。
  2. ストレージドメインがアクティブな場合には、詳細ペインで データセンター タブをクリックして、メンテナンス をクリックします。
  3. 編集 をクリックします。
  4. ストレージパスおよびその他の情報を編集します。新しい接続情報は、元の接続と同じストレージタイプである必要があります。
  5. OK をクリックします。
  6. データセンター タブをクリックして、詳細ペインで アクティブ化 をクリックします。

7.7.4. メンテナンスモードのストレージドメインのアクティブ化

データセンターのストレージに変更を加える場合は、ストレージドメインをメンテナンスモードに切り替える必要があります。使用を再開するには、ストレージドメインをアクティブ化します。
  1. ストレージ リソースタブをクリックして、結果一覧から非アクティブなストレージドメインを選択します。
  2. 詳細ペインの データセンター タブをクリックします。
  3. 対象のストレージドメインを選択し、アクティブ化をクリックします。

    重要

    データドメインよりも先に ISO ドメインをアクティブ化しようとすると、エラーメッセージが表示され、そのドメインはアクティブ化されません。

7.7.5. ストレージドメインの削除

データセンター内のストレージドメインを仮想化環境から削除します。

手順7.20 ストレージドメインの削除

  1. ストレージ リソースタブをクリックして、結果一覧から対象のストレージドメインを選択します。
  2. ドメインをメンテナンスモードに切り替えて、非アクティブにします。
  3. データセンターからドメインをデタッチします
  4. 削除 をクリックすると、プールの削除 の確認ウィンドウが開きます。
  5. 一覧からホストを選択します。
  6. OK をクリックするとストレージドメインが削除され、ウィンドウが閉じます。
ストレージドメインが環境から完全に削除されました。

7.7.6. ストレージドメインの破棄

エラーが発生したストレージドメインは、通常の手順で削除することができません。ストレージドメインを破棄することによって、そのストレージドメインは、エクスポートディレクトリーへの参照なしに、仮想化環境から強制的に削除されます。
ストレージドメインを破棄した場合に、そのストレージドメインのエクスポートディレクトリーを再度使用できるようにするには、手動で修正する必要があります。

手順7.21 ストレージドメインの破棄

  1. ストレージ リソースタブ、ツリーモード、または検索機能を使用して、結果一覧に表示された候補の中から対象のストレージドメインを選択します。
  2. ストレージドメインを右クリックして 破棄 を選択すると、ストレージドメインの破棄 の確認ウィンドウが開きます。
  3. 操作を承認 のチェックボックスを選択して OK をクリックすると、ストレージドメインが破棄されてウィンドウが閉じます。
ストレージドメインが破棄されました。エクスポートディレクトリーを手動で消去してストレージドメインがそのエクスポートディレクトリーをリサイクルできるようにしてください。

7.7.7. データセンターからのストレージドメインのデタッチ

データセンターからストレージドメインをデタッチして、仮想マシンとテンプレートを別のデータセンターに移行します。

手順7.22 データセンターからのストレージドメインのデタッチ

  1. ストレージ リソースタブをクリックして、結果一覧からストレージドメインを選択します。
  2. 詳細ペインの データセンター タブをクリックして、ストレージドメインを選択します。
  3. メンテナンス をクリックすると、メンテナンスストレージドメイン の確認ウィンドウが開きます。
  4. OK をクリックしてメンテナンスモードを開始します。
  5. デタッチ をクリックすると、ストレージのデタッチ の確認ウィンドウが開きます。
  6. OK をクリックしてストレージドメインをデタッチします。
ストレージドメインがデータセンターからデタッチされ、別のデータセンターをアタッチする準備ができました。

7.7.8. データセンターへのストレージドメインのアタッチ

データセンターにストレージドメインをアタッチします。

手順7.23 データセンターへのストレージドメインのアタッチ

  1. ストレージ リソースタブをクリックして、結果一覧からストレージドメインを選択します。
  2. 詳細ペインの データセンター タブをクリックします。
  3. 次に アタッチ ボタンをクリックして、データセンターへのアタッチ のウィンドウを開きます。
  4. 対象のデータセンターのラジオボタンを選択します。
  5. OK をクリックしてストレージドメインをアタッチします。
ストレージドメインがデータセンターにアタッチされ、自動的にアクティブ化されます。

7.7.9. ディスクプロファイル

ディスクプロファイルは、ストレージドメイン内の仮想ディスクのスループットの最大レベルと入出力操作の最大レベルを定義します。ディスクプロファイルは、データセンター下で定義されているストレージプロファイルをベースに作成されますが、プロファイルを有効にするには、個別の仮想ディスクに手動で割り当てる必要があります。
7.7.9.1. ディスクプロファイルの作成
ディスクプロファイルを作成します。以下の手順は、ストレージドメインの属するデータセンター下でストレージ QoS エントリーが 1 つ以上定義済みであることを前提としています。

手順7.24 ディスクプロファイルの作成

  1. ストレージ リソースタブをクリックして、データストレージドメインを選択します。
  2. 詳細ペインで ディスクプロファイル サブタブをクリックします。
  3. 新規作成 をクリックします。
  4. 名前 フィールドにディスクプロファイルの名前を入力します。
  5. 説明 フィールドにディスクプロファイルの説明を入力します。
  6. QoS 一覧からディスクプロファイルに適用する QoS を選択します。
  7. OK をクリックします。
ディスクプロファイルが作成されました。このディスクプロファイルは、そのデータストレージドメイン内でホストされる新規仮想ディスクに適用することができます。
7.7.9.2. ディスクプロファイルの削除
Red Hat Enterprise Virtualization 環境から既存のディスクプロファイルを削除します。

手順7.25 ディスクプロファイルの削除

  1. ストレージ リソースタブをクリックして、データストレージドメインを選択します。
  2. 詳細ペインで Disk Profiles サブタブをクリックします。
  3. 削除するディスクプロファイルを選択します。
  4. 削除 をクリックします。
  5. OK をクリックします。
ディスクプロファイルが削除されて使用できなくなりました。そのディスクプロファイルが仮想ディスクに割り当てられていた場合は、それらの仮想ディスクからディスクプロファイルが削除されます。

7.7.10. ストレージドメインのヘルスステータスの確認

ストレージドメインには、通常の ステータス に加えて外部のヘルスステータスがあります。外部のヘルスステータスはプラグインまたは外部のシステムによってレポートされるか、管理者が設定して、ストレージドメインの 名前 の左側に以下のアイコンのいずれかが表示されます。
  • OK: アイコンなし
  • Info:
  • Warning:
  • Error:
  • Failure:
ストレージドメインのヘルスステータスについての更に詳しい情報を確認するには、ストレージドメインを選択してから イベント サブタブをクリックしてください。
ストレージドメインのヘルスステータスは、REST API を使用して確認することも可能です。ストレージドメインに対する GET 要求には、ヘルスステータスが記載された external_status 要素が含まれます。
events コレクションで REST API 内のストレージドメインのヘルスステータスを設定することができます。『REST API ガイド』の「イベントの追加」を参照してください。

7.8. ストレージとパーミッション

7.8.1. ストレージドメインのシステムパーミッションの管理

システム管理者は、SuperUser として管理ポータルの全側面を管理する管理者です。他のユーザーには、より特定的な管理者ロールを割り当てることができます。このような制限付きの管理者ロールは、特定のリソースに限定した特定の管理者権限をユーザーに付与する場合に有用です。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのみに対して (ただし、そのデータセンター用のストレージは例外)、ClusterAdmin は割り当てられたクラスターのみに対して管理者権限があります。
ストレージ管理者は、特定のストレージドメインのみのシステム管理者ロールです。複数のストレージドメインを使用するデータセンターで、各ストレージドメインにシステム管理者が 1 人ずつ必要な場合に有用です。ヘッダーバーの 設定 ボタンを使用して、環境内の全ストレージドメインにストレージ管理者を割り当てます。
ストレージ管理者ロールは、以下のアクションを許可します。
  • ストレージドメインの設定の編集
  • ストレージドメインのメンテナンスモードへの切り替え
  • ストレージドメインの削除

注記

ロールとパーミッションは、既存のユーザーにしか割り当てることができません。
また、既存のシステム管理者を削除して、新規システム管理者を追加することによって、ストレージドメインのシステム管理者を変更することができます。

7.8.2. ストレージ管理者ロール

ストレージドメインに対するパーミッションがあるロール

以下の表には、ストレージドメインの管理に適用可能な管理者のロールと特権につ