検索

第2章 スタンドアロンの Manager ローカルデータベース環境のアップグレード

download PDF

2.1. Red Hat Virtualization 4.3 から 4.4 へのアップグレード

お使いの環境を 4.3 から 4.4 にアップグレードする手順は、以下のとおりです。

アップグレードに関する考慮事項

  • アップグレードを計画する場合は、Red Hat Virtualization 4.4 のアップグレードに関する考慮事項および既知の問題 を参照してください。
  • Open Virtual Network (OVN) および Open vSwitch (OvS) 2.11 から OVN 2021 および OvS 2.15 にアップグレードする場合、以下の条件が満たされている限り、このプロセスはユーザーからは見えません。

    • Manager が最初にアップグレードされている。
    • OVN/OvS バージョン 2.11 のホスト間で機能することが予想されるすべての OVN ネットワークに対して、ホストのアップグレード前に ovirt-provider-ovn セキュリティーグループが無効化されている。
    • ホストは、OVN バージョン 2021 以降および OvS バージョン 2.15 に一致するようにアップグレードされている。OVN を適切に再設定し、証明書を更新することができるように、管理ポータルでこの手順を完了する必要があります。
    • ホストがアップグレード後に再起動されている。
注記

プロバイダーと OVN がホストで正常に設定されたかどうかを確認するには、ホストの General タブで OVN configured フラグを確認します。OVN ConfiguredNo に設定されている場合は、Management Refresh Capabilities をクリックします。この設定は、REST API でも利用可能です。機能の更新に失敗した場合は、Manager 4.4 以降からホストを再インストールして OVN を設定できます。

2.1.1. 前提条件

  • 仮想マシンで必要となるダウンタイムについて計画している。アップグレードプロセスでクラスターの互換バージョンを更新した後、それぞれの仮想マシンを再起動すると新しいハードウェア設定が自動的に適用されます。すべての実行中またはサスペンド中の仮想マシンを直ちに再起動して、設定変更を適用する必要があります。
  • お使いの環境が Red Hat Virtualization 4.4 の要件を満たしている。すべての前提条件の一覧は、プランニングおよび前提条件ガイドの 前提条件 を参照してください。
  • Red Hat Virtualization Manager をアップグレードする場合には、既存ホストのいずれかを使用することが推奨される。新規ホストの使用を選択する場合は、アップグレード手順を開始する前に、新規ホストに一意の名前を割り当ててから、既存のクラスターに追加する必要があります。

2.1.2. 環境の分析

更新の実行やトラブルシューティングを行う前に、Log Collection Analysis ツールおよび Image Discrepancies ツールを実行することが推奨されます。このツールは、お使いの環境を分析し、更新の実行を妨げる可能性のある既知の問題を表示して、推奨される解決方法を提供します。

2.1.3. Log Collection Analysis ツール

更新の実行前に Log Collection Analysis ツールを実行し、トラブルシューティングを行います。このツールは、お使いの環境を分析し、更新の実行を妨げる可能性のある既知の問題を表示して、推奨される解決方法を提供します。ツールはシステムに関する詳細情報を収集し、それを HTML ファイルとして提示します。

前提条件

  • Manager マシンで正しいリポジトリーが有効になっていることを確認します。Red Hat Virtualization 4.3 に必要なリポジトリーの一覧は、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。

    Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。

手順

  1. Manager マシンに Log Collection Analysis ツールをインストールします。

    # yum install rhv-log-collector-analyzer
  2. ツールを実行します。

    # rhv-log-collector-analyzer --live

    詳細なレポートが表示されます。

    デフォルトでは、レポートは analyzer_report.html という名前のファイルに保存されます。

    ファイルを特定の場所に保存するには --html フラグを使用して場所を指定します。

    # rhv-log-collector-analyzer --live --html=/directory/filename.html
  3. ELinks テキストモードの Web ブラウザーを使用して、ターミナル内のアナライザーレポートを読み取ることができます。ELinks ブラウザーをインストールするには、以下を実行します。

    # yum install -y elinks
  4. ELinks を起動し、analyzer_report.html を開きます。

    # elinks /home/user1/analyzer_report.html

    レポート内を移動するには、ELinks で以下のコマンドを使用します。

    • Insert でスクロールアップ
    • Delete でスクロールダウン
    • PageUp でページアップ
    • PageDown でページダウン
    • left Bracket で左にスクロール
    • right Bracket で右にスクロール

2.1.3.1. イメージ不一致ツールを使用したスナップショットの状態の監視

RHV Image Discrepancies ツールは、ストレージドメインと RHV データベースのイメージデータを分析します。ボリュームとボリューム属性に不一致が見つかった場合は警告しますが、それらの不一致は修正されません。このツールは、次のようなさまざまなシナリオで使用します。

  • バージョンをアップグレードする前に、壊れたボリュームまたはチェーンを新しいバージョンに引き継がないようにします。
  • ストレージ操作に失敗した後、不良状態のボリュームまたは属性を検出します。
  • バックアップから RHV データベースまたはストレージを復元した後に使用します。
  • 定期的に、問題が悪化する前に潜在的な問題を検出しあす。
  • スナップショットまたはライブストレージの移行に関連する問題を分析し、これらのタイプの問題を修正した後、システムの状態を確認します。

前提条件

  • 必要なバージョン。このツールは、rhv-log-collector-analyzer-0.2.15-0.el7ev の RHV バージョン 4.3.8 で導入されました。
  • データ収集は異なる場所で同時に実行され、アトミックではないため、ストレージドメインを変更する可能性のある環境内のすべてのアクティビティーを停止する。つまり、スナップショットの作成や削除、ディスクの編集、移動、作成、削除は行わないでください。行った場合、不一致の誤検出が発生する可能性があります。プロセス中、仮想マシンは正常に動作し続けることができます。

手順

  1. ツールを実行するには、RHV Manager で次のコマンドを入力します。

    # rhv-image-discrepancies
  2. ツールが不一致を検出したら、再実行して結果を確認します。ツールの実行中に一部の操作が実行された可能性がある場合、特に注意が必要です。
注記

このツールには Export および ISO ストレージドメインが含まれており、そのストレージドメインの不一致が報告される可能性があります。報告された場合、これらのストレージドメインは RHV データベースにはこれらのストレージドメインのイメージエントリーがないため、無視できます。

結果について

このツールは以下を報告します。

  • ストレージに表示されているがデータベースにはないボリュームがある場合、またはデータベースに表示されているがストレージにはないボリュームがある場合
  • 一部のボリューム属性がストレージとデータベースで異なる場合

出力サンプル

 Checking storage domain c277ad93-0973-43d9-a0ca-22199bc8e801
    Looking for missing images...
    No missing images found
    Checking discrepancies between SD/DB attributes...
    image ef325650-4b39-43cf-9e00-62b9f7659020 has a different attribute capacity on storage(2696984576) and on DB(2696986624)
    image 852613ce-79ee-4adc-a56a-ea650dcb4cfa has a different attribute capacity on storage(5424252928) and on DB(5424254976)

 Checking storage domain c64637b4-f0e8-408c-b8af-6a52946113e2
    Looking for missing images...
    No missing images found
    Checking discrepancies between SD/DB attributes...
    No discrepancies found

次に、Manager を最新バージョンの 4.3 に更新してください。

2.1.4. Red Hat Virtualization Manager の更新

前提条件

  • Manager マシンで正しいリポジトリーが有効化になっている。Red Hat Virtualization 4.3 に必要なリポジトリーの一覧は、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。

    Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。

手順

  1. Manager マシンで、更新されたパッケージが利用可能かどうかを確認します。

    # engine-upgrade-check
  2. setup パッケージを更新します。

    # yum update ovirt\*setup\* rh\*vm-setup-plugins
  3. engine-setup スクリプトで Red Hat Virtualization Manager を更新します。engine-setup スクリプトにより、設定に関する質問への回答が求められます。その後、ovirt-engine サービスの停止、更新パッケージのダウンロード/インストール、データベースのバックアップ/更新、インストール後設定の実施を経てから、ovirt-engine サービスが起動します。

    # engine-setup

    スクリプトが正常に完了すると、以下のメッセージが表示されます。

    Execution of setup completed successfully
    注記

    engine-setup スクリプトは、Red Hat Virtualization Manager のインストールプロセス中にも使用され、指定した設定値が保存されます。更新時に、設定をプレビューすると保存された値が表示されますが、インストール後に engine-config を使用して設定を更新した場合、この値は最新ではない可能性があります。たとえば、インストール後に engine-config を使用して SANWipeAfterDeletetrue に更新した場合、engine-setup は設定プレビューに "Default SAN wipe after delete: False" を出力します。ただし、更新された値が engine-setup によって上書きされることはありません。

    重要

    更新プロセスに時間がかかる場合があります。完了するまでプロセスを停止しないでください。

  4. Manager にインストールされているベースオペレーティングシステムと、オプションパッケージを更新します。

    # yum update --nobest
    重要

    更新中に必要な Ansible パッケージの競合が発生した場合は、RHV Manager で yum update を実行できない (ansible の競合) を参照してください。

    重要

    いずれかのカーネルパッケージが更新された場合には、マシンを再起動して更新を完了してください。

次に、Manager を 4.4 にアップグレードしてください。

2.1.5. Red Hat Virtualization Manager 4.3 から 4.4 へのアップグレード

Red Hat Virtualization Manager 4.4 は、Red Hat Enterprise Linux バージョン 8.2 から 8.6 でのみサポートされます。RHV Manager 4.3 の実行に使用する物理マシンと同じマシンを使用する場合でも、Red Hat Enterprise Linux 8.6 および Red Hat Virtualization Manager 4.4 のクリーンインストールを実行する必要があります。

アップグレードプロセスでは、Red Hat Virtualization Manager 4.3 バックアップファイルを Red Hat Virtualization Manager 4.4 マシンに復元する必要があります。

前提条件

  • 環境内のすべてのデータセンターおよびクラスターにおいて、クラスターの互換レベルがバージョン 4.2 または 4.3 に設定されている。
  • 環境内のすべての仮想マシンで、クラスターの互換レベルがバージョン 4.3 に設定されている。
  • 外部 CA を使用して HTTPS 証明書に署名する場合は、管理ガイドRed Hat Virtualization Manager CA 証明書の置き換え の手順に従っている。バックアップおよび復元にはサードパーティーの証明書が含まれるので、アップグレード後に管理ポータルにログインできるはずです。virt-viewer の外部メニューが機能するように、CA 証明書がすべてのクライアントのシステム全体のトラストストアに追加されていることを確認します。詳細は、BZ#1313379 を参照してください。
注記

接続されたホストと仮想マシンは、Manager のアップグレード中も引き続き動作可能です。

手順

  1. Manager マシンにログインします。
  2. Red Hat Virtualization Manager 4.3 環境のバックアップを作成します。

    # engine-backup --scope=all --mode=backup --file=backup.bck --log=backuplog.log
  3. バックアップファイルを RHV 環境外のストレージデバイスにコピーします。
  4. Red Hat Enterprise Linux 8.6 をインストールします。詳細は、標準の RHEL 8 インストールの実行 を参照してください。
  5. コマンド yum install rhvm の実行など、Red Hat Virtualization Manager 4.4 のインストール手順を完了します (engine-setup は実行しないでください)。詳細は、Red Hat Virtualization のインストール ガイドのいずれかを参照してください。
  6. バックアップファイルを Red Hat Virtualization Manager 4.4 マシンにコピーし、復元します。

    # engine-backup --mode=restore --file=backup.bck --provision-all-databases
    注記

    バックアップに追加のデータベースユーザーへの権限付与が含まれていた場合、このコマンドにより、無作為にパスワードが設定された追加のユーザーが作成されます。追加のユーザーが復元したシステムにアクセスする必要がある場合は、これらのパスワードを手動で変更する必要があります。https://access.redhat.com/articles/2686731 を参照してください。

  7. Manager マシンで正しいリポジトリーが有効になっていることを確認します。Red Hat Virtualization 4.4 に必要なリポジトリーの一覧は、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。

    Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。

  8. オプションの拡張機能パッケージが Red Hat Virtualization Manager 4.3 マシンにインストールされていた場合はインストールします。

    # yum install ovirt-engine-extension-aaa-ldap ovirt-engine-extension-aaa-misc
    注記

    ovirt-engine-extension-aaa-ldap は非推奨になりました。新規インストールの場合は、Red Hat Single Sign On を使用します。詳細は、管理ガイドRed Hat Single Sign-On のインストールおよび設定 を参照してください。

    注記

    これらの拡張機能パッケージの設定は、バックアップおよび復元プロセスの一部として移行されないため、手動で再適用する必要があります。

  9. engine-setup コマンドを実行して Manager を設定します。

    # engine-setup
  10. Red Hat Virtualization Manager 4.4 に別のマシンを使用している場合は、Red Hat Virtualization Manager 4.3 マシンを廃止します。2 つの異なる Manager が同じホストまたはストレージを管理することはできません。
  11. engine-setup を実行して Manager を設定します。

    # engine-setup

これにより、クラスターの互換バージョンが既存のバージョンに応じて 4.2 または 4.3 に設定されている状態で、Red Hat Virtualization Manager 4.4 がインストールされました。続いて、環境内のホストを RHV 4.4 にアップグレードする必要があります。その後、クラスターの互換バージョンを 4.4 に変更することができます。

次に、ホストを更新してください。

2.1.6. ホストおよび仮想マシンの RHV 4.3 から 4.4 への移行

ホストおよび仮想マシンを Red Hat Virtualization 4.3 から 4.4 に移行し、環境内の仮想マシンのダウンタイムを最小限に抑えることができます。

このプロセスでは、すべての仮想マシンを 1 つのホストから移行する必要があります。これにより、そのホストが RHV 4.4 にアップグレードできるようにします。アップグレード後に、ホストを Manager に再度アタッチすることができます。

警告

ホストのオペレーティングシステムをインストールまたは再インストールする場合、Red Hat では、ホストにアタッチされている既存 OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。

注記

CPU パススルー仮想マシンは、RHV 4.3 から RHV 4.4 に適切に移行しない可能性があります。

RHV 4.3 および RHV 4.4 は、それぞれ RHEL 7 および RHEL 8 をベースにしています。これには、CPU フラグおよびコンストラクターが異なるカーネルバージョンがあります。これにより、CPU パススルーの仮想マシンの移行で問題が発生する可能性があります。

前提条件

  • RHV 4.4 のホストには、Red Hat Enterprise Linux バージョン 8.2 から 8.6 が必要である。RHV 4.3 のホストの実行に使用する物理マシンと同じものを使用している場合でも、Red Hat Enterprise Linux 8.6 または Red Hat Virtualization Host 4.4 のクリーンインストールが必要です。
  • Red Hat Virtualization Manager 4.4 がインストールされ、実行中である。
  • ホストが属するデータセンターおよびクラスターの互換性レベルが 4.2 または 4.3 に設定されている。手順の開始前に、環境内のすべてのデータセンターおよびクラスターにおいて、クラスターの互換レベルがバージョン 4.2 または 4.3 に設定されている必要があります。

手順

  1. アップグレードするホストを選択し、そのホストの仮想マシンを同じクラスター内の別のホストに移行します。ライブマイグレーションを使用して、仮想マシンのダウンタイムを最小限に抑えることができます。詳細は、仮想マシン管理ガイドホスト間での仮想マシンの移行 を参照してください。
  2. ホストをメンテナンスモードにし、Manager からホストを削除します。詳細は、管理ガイドホストの削除 を参照してください。
  3. Red Hat Enterprise Linux 8.6 または RHVH 4.4 をインストールします。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization 用ホストのインストール を参照してください。
  4. 適切なパッケージをインストールして、RHV 4.4 のホストを有効にします。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization 用ホストのインストール を参照してください。
  5. このホストを Manager に追加し、これを同じクラスターに割り当てます。次に、仮想マシンをこのホストに移行してください。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization Manager への通常ホストの追加 を参照してください。

これらの手順を繰り返して仮想マシンを移行し、同じクラスター内の残りのホストを 1 つずつアップグレードします。すべてが Red Hat Virtualization 4.4 を実行するまでこれを続けます。

2.1.7. ローカルストレージを保持した状態での RHVH のアップグレード

ローカルストレージが他のストレージドメインと共有されないため、ローカルストレージを使用する環境は、別のクラスターのホストに仮想マシンを移行できません。ローカルストレージドメインを持つ RHVH 4.3 ホストをアップグレードするには、ローカルストレージを保持しながらホストを再インストールし、4.4 環境で新しいローカルストレージドメインを作成してから、以前のローカルストレージを新しいドメインにインポートします。

前提条件

  • Red Hat Virtualization Manager 4.4 がインストールされ、実行中である。
  • ホストが属するデータセンターおよびクラスターの互換レベルが、4.2 または 4.3 に設定されている。

手順

  1. このプロセスを開始する前に、RHVH 4.3 ホストのローカルストレージ上のローカルストレージがメンテナンスモードにあることを確認します。以下の手順を実行します。

    1. Data Centers タブを開きます。
    2. Details ペインの Storage タブをクリックし、結果一覧でストレージドメインを選択します。
    3. Maintenance をクリックします。
  2. インストールガイドRed Hat Virtualization Host のインストール に記載されているとおりに、Red Hat Virtualization Host を再インストールします。

    重要

    インストール先 画面で RHVH をインストールするデバイスを選択する場合は、仮想マシンを保存するデバイスを選択しないでください。オペレーティングシステムをインストールするデバイスのみを選択します。

    キックスタートを使用してホストをインストールする場合は、キックスタートファイルに以下を追加して、仮想マシンを含むデバイスを保存するようにしてください。ここでの `device` は、適切なデバイスに置き換えてください。

    # clearpart --all --drives=device

    キックスタートの使用方法は、Red Hat Enterprise Linux 8 高度な RHEL インストールの実行キックスタートの参照 を参照してください。

  3. 再インストールしたホストで、以前の環境を復元するディレクトリー (/data など) を作成します。

    # mkdir /data
  4. 新しいディレクトリーに以前のローカルストレージをマウントします。この例では、/dev/sdX1 がローカルストレージになります。

    # mount /dev/sdX1 /data
  5. 新しいディレクトリーに以下のパーミッションを設定します。

    # chown -R 36:36 /data
    # chmod -R 0755 /data
  6. Red Hat では、サーバーの再起動が必要となる場合に備えて、/etc/fstab 経由でローカルストレージを自動的にマウントすることも推奨します。

    # blkid | grep -i sdX1
    /dev/sdX1: UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" TYPE="ext4"
    # vi /etc/fstab
    UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" /data    ext4    defaults     0       0
  7. 管理ポータルでデータセンターを作成し、Storage Type ドロップダウンメニューで Local を選択します。
  8. 新しいデータセンターでクラスターを設定します。詳細は、管理ガイド新規クラスターの作成 を参照してください。
  9. Manager にホストを追加します。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization Manager への通常のホストの追加 を参照してください。
  10. ホスト上で、最初のローカルストレージドメインの作成に使用する新しいディレクトリーを作成します。以下に例を示します。

    # mkdir -p /localfs
    # chown 36:36 /localfs
    # chmod -R 0755 /localfs
  11. 管理ポータルで Storage タブを開き、New Domain をクリックして新しいローカルストレージドメインを作成します。
  12. 名前を localfs に設定し、パスを /localfs に設定します。
  13. ローカルストレージがアクティブになったら、Import Domain をクリックして、ドメインの詳細を設定します。たとえば、Data を名前として、Local on Host をストレージタイプとして、/data をパスとして定義します。
  14. ストレージドメインがデータセンターにすでにアタッチされていることを知らせるメッセージが表示されるので、OK をクリックして確定します。
  15. 新しいストレージドメインをアクティブ化します。

    1. Data Centers タブを開きます。
    2. 詳細ペインの Storage タブをクリックし、結果一覧で新しいデータストレージドメインを選択します。
    3. Activate をクリックします。
  16. 新規ストレージドメインがアクティブになったら、仮想マシンとそのディスクをインポートします。

    1. Storage タブで、data を選択します。
    2. 詳細ペインで VM Import タブを選択し、仮想マシンを選択して Import をクリックします。詳細は、仮想マシン管理ガイドデータドメインからの仮想マシンのインポート を参照してください。
  17. すべての仮想マシンが正常にインポートされ、適切に機能していることを確認したら、localfs をメンテナンスモードに移行できます。
  18. Storage タブをクリックし、結果一覧で localfs を選択します。

    1. 詳細ペインの Data Center タブをクリックします。
    2. Maintenance をクリックしてから OK をクリックし、ストレージドメインをメンテナンスモードに移動します。
    3. Detach をクリックします。Detach Storage の確認ウィンドウが開きます。
    4. OK をクリックします。

これで、ホストのバージョン 4.4 へのアップグレード、新しいローカルストレージドメインの作成、4.3 ストレージドメインおよびその仮想マシンのインポートが完了しました。

2.1.8. Gluster ストレージを保持した状態での RHVH のアップグレード

Gluster をストレージとする環境では、Gluster ストレージのバックアップを取得し、RHVH のアップグレード後に復元することができます。アップグレードに必要な時間を短縮するため、Gluster ストレージを使用するすべての仮想マシンのワークロードを可能な限り軽量に維持してみてください。書き込み集約型のワークロードが非常に多い場合には、復元にかかる時間が長くなります。

注記

GlusterFS Storage は非推奨となり、将来のリリースではサポートされなくなります。

前提条件

  • ストレージドメインに geo レプリケーションスケジュールがある場合は、アップグレードの競合を回避するためにこれらのスケジュールを削除する。
  • 現在、geo レプリケーション同期は実行されていない。
  • 新しい RHVH 4.4 Manager デプロイメント用に新規ボリュームを作成するために、3 つのホストで追加の 100 GB のディスク領域が必要である。
  • 手順を開始する前に、環境内のすべてのデータセンターおよびクラスターのクラスター互換レベル が 4.3 でなければならない。

制限

  • Network-Bound Disk Encryption (NBDE) は、Red Hat Virtualization 4.4 を使用する新規デプロイメントでのみサポートされます。この機能はアップグレード時に有効にすることはできません。

手順

  1. RHVH 4.4 Manager デプロイメント向けに新しい Gluster ボリュームを作成します。

    1. 新しい RHVH 4.4 セルフホストエンジンの仮想マシン (VM) 用に各ホストに新しいエンティティーを作成します。
    2. 設定にスペアディスクがある場合は、Web コンソールからのボリュームの作成を参照してください。
    3. 既存のボリュームグループ (VG) に新しい Manager 100 GB の対応のために十分な領域がある場合は、新しい Manager 論理ボリューム (LV) として使用できます。

      特に明示的に指定しない限り、すべてのホストで以下のコマンドを実行します。

    4. ボリュームグループ (VG) の空き容量を確認します。

      # vgdisplay <VG_NAME> | grep -i free
    5. この VG に論理ボリュームを 1 つ以上作成します。

      # lvcreate -n gluster_lv_newengine -L 100G <EXISTING_VG>
    6. 新しい論理ボリューム (LV) を XFS としてフォーマットします。

      # mkfs.xfs  <LV_NAME>
    7. 新しいブリックのマウントポイントを作成します。

      # mkdir /gluster_bricks/newengine
    8. /etc/fstab で新たに作成されたファイルシステムに対応するエントリーを作成し、ファイルシステムをマウントします。
    9. ラボマウントポイントに SELinux ラベルを設定します。

      # semanage fcontext -a -t glusterd_brick_t /gluster_bricks/newengine
       restorecon -Rv /gluster_bricks/newengine
    10. クラスター内のいずれかのホストで gluster コマンドを実行して、新しい Gluster ボリュームを作成します。

      # gluster volume create newengine replica 3 host1:/gluster_bricks/newengine/newengine host2:/gluster_bricks/newengine/newengine host3:/gluster_bricks/newengine/newengine
    11. 新規作成されたボリュームに必要なボリュームオプションを設定します。クラスター内のいずれかのホストで以下のコマンドを実行します。

      # gluster volume set newengine group virt
       gluster volume set newengine network.ping-timeout 30
       gluster volume set newengine cluster.granular-entry-heal enable
       gluster volume set newengine network.remote-dio off
       gluster volume set newengine performance.strict-o-direct on
       gluster volume set newengine storage.owner-uid 36
       gluster volume set newengine storage.owner-gid 36
    12. 新規作成した Gluster ボリュームを起動します。クラスター内のいずれかのホストで以下のコマンドを実行します。

      # gluster volume start newengine
  2. バックアップ Playbook を使用して、すべての RHVH 4.3 ノードで Gluster 設定をバックアップします。

    1. バックアップ Playbook は RHVH 4.3 の最新バージョンで利用できます。この Playbook が利用できない場合は、Playbook とインベントリーファイルを作成します。

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config.yml

      例:

       all:
        hosts:
          host1:
          host2:
          host3:
        vars:
          backup_dir: /archive
          nbde_setup: false
          upgrade: true
    2. 正しい詳細でバックアップインベントリーファイルを編集します。

        Common variables
        backup_dir ->  Absolute path to directory that contains the extracted contents of the backup archive
        nbde_setup -> Set to false as the {virt-product-fullname} 4.3 setup doesn’t support NBDE
        upgrade -> Default value true . This value will make no effect with backup
    3. ディレクトリーに切り替え、Playbook を実行します。

      ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags backupfiles
    4. 生成されたバックアップ設定 tar ファイルは、RHVH-<HOSTNAME>-backup.tar.gz という名前の /root の下に生成されます。すべてのホストで、バックアップ設定 tar ファイルをバックアップホストにコピーします。
  3. Manager Administration Portal を使用して、最初のホストで実行されている仮想マシンをクラスター内の他のホストに移行します。
  4. バックアップマネージャーを設定します。

    # engine-backup --mode=backup --scope=all --file=<backup-file.tar.gz> --log=<logfile>
    注記

    バックアップを作成する前に、以下の手順を実施します。

    • セルフホストエンジン (SHE) の グローバルメンテナンス を有効にします。
    • SSH を使用して Manager 仮想マシンにログインし、ovirt-engine サービスを停止します。
    • バックアップファイルをセルフホストエンジンの仮想マシンからリモートホストにコピーします。
    • Manager をシャットダウンします。
  5. すべてのレプリカ 3 ボリュームで、保留中の自己修復タスクを確認します。修復が完了するまで待ちます。
  6. ホストのいずれかで以下のコマンドを実行します。

    # gluster volume heal <volume> info summary
  7. glusterfs ブリックプロセスを停止し、最初のホストですべてのラボをアンマウントして、ファイルシステムの整合性を維持します。最初のホストで以下を実行します。

    # pkill glusterfsd; pkill glusterfs
    # systemctl stop glusterd
    # umount /gluster_bricks/*
  8. RHVH 4.4 ISO でホストを再インストールし、OS ディスクのフォーマットのみを行います。

    重要

    ラボがそれらのディスク上に作成されるため、インストールが他のディスクをフォーマットしないことを確認してください。

  9. RHVH 4.4 のインストール再起動後にノードが稼働したら、インストールガイドで説明されているように RHVH 4.4 リポジトリーにサブスクライブするか、ダウンロードした RHVH 4.4 アプライアンスをインストールします。

    # yum install <appliance>
  10. Gluster ブリックに使用されるデバイスを無効にします。

    1. 新しい SSH 秘密鍵と公開鍵のペアを作成します。
    2. フロントエンドネットワーク FQDN とバックエンドネットワーク FQDN を使用して、同じホストに SSH 公開鍵認証 (パスワードなし SSH) を確立します。
    3. インベントリーファイルを作成します。

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/blacklist_inventory.yml

      例:

       hc_nodes:
        hosts:
          host1-backend-FQDN.example.com:
            blacklist_mpath_devices:
               - sda
               - sdb
    4. Playbook の実行

      ansible-playbook -i blacklist_inventory.yml /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/tasks/gluster_deployment.yml --tags blacklistdevices*
  11. Manager のバックアップおよびホスト設定の tar ファイルをバックアップホストから新たにインストールしたホストにコピーし、scp を使用してコンテンツの展開を解除します。
  12. Gluster 設定ファイルを復元します。

    1. Gluster 設定ファイルの内容を抽出します。

       # mkdir /archive
       # tar -xvf /root/ovirt-host-host1.example.com.tar.gz -C /archive/
    2. インベントリーファイルを編集して、設定ファイルの復元を行います。インベントリーファイルは /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config_inventory.yml にあります。

      Playbook コンテンツの例:

       all:
         hosts:
       	host1.example.com:
         vars:
       	backup_dir: /archive
       	nbde_setup: false
       	upgrade: true
      重要
      Use only one host under ‘hosts’ section of restoration playbook.
    3. Playbook を実行して設定ファイルを復元します。

      ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags restorefiles
  13. Manager からバックアップアーカイブをポイントする --restore-from-file オプションを使用して Manager デプロイメントを実行します。この Manager デプロイメントは、hosted-engine --deploy コマンドを使用して対話的に実行でき、新たに作成された Manager ボリュームに対応するストレージを提供します。また、自動化された手順で ovirt-ansible-hosted-engine-setup を使用して同じ操作を行うこともできます。以下の手順は、バックアップを使用して HostedEngine 仮想マシンをデプロイする自動化された方法です。

    1. 新たにインストールしたホストに HostedEngine デプロイメントの Playbook を作成します。

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he.yml

      - name: Deploy oVirt hosted engine
        hosts: localhost
        roles:
          - role: ovirt.hosted_engine_setup
    2. テンプレートファイルを使用して HostedEngine 関連の情報を更新します。

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json

      例:

      # cat /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json
      
      {
        "he_appliance_password": "<password>",
        "he_admin_password": "<password>",
        "he_domain_type": "glusterfs",
        "he_fqdn": "<hostedengine.example.com>",
        "he_vm_mac_addr": "<00:18:15:20:59:01>",
        "he_default_gateway": "<19.70.12.254>",
        "he_mgmt_network": "ovirtmgmt",
        "he_storage_domain_name": "HostedEngine",
        "he_storage_domain_path": "</newengine>",
        "he_storage_domain_addr": "<host1.example.com>",
        "he_mount_options": "backup-volfile-servers=<host2.example.com>:<host3.example.com>",
        "he_bridge_if": "<eth0>",
        "he_enable_hc_gluster_service": true,
        "he_mem_size_MB": "16384",
        "he_cluster": "Default",
        "he_restore_from_file": "/root/engine-backup.tar.gz",
        "he_vcpus": 4
      }
      重要
      • 上記の he_gluster_vars.json には、he_restore_from_file および he_storage_domain_path という 2 つの重要な値があります。最初のオプション he_restore_from_file は、ローカルマシンにコピーされた Manager バックアップアーカイブの絶対ファイル名をポイントする必要があります。2 番目のオプション he_storage_domain_path は、新しく作成された Gluster ボリュームを参照しているはずです。
      • また、Manager 仮想マシン内で実行されている以前のバージョンの RHVH Version はダウンし、破棄されることに注意してください。古い Manager 仮想マシンに対応する MAC アドレスと FQDN は、新しい Manager 用でも再利用できます。
    3. 静的 Manager ネットワーク設定の場合は、以下のようにオプションをさらに追加します。

        “he_vm_ip_addr”:  “<engine VM ip address>”
        “he_vm_ip_prefix”:  “<engine VM ip prefix>”
        “he_dns_addr”:  “<engine VM DNS server>”
        “he_default_gateway”:  “<engine VM default gateway>”
      重要

      利用可能な特定の DNS がない場合は、he_vm_etc_hosts: true と he_network_test: ping の 2 つのオプションを追加します。

    4. Playbook を実行して HostedEngine デプロイメントをデプロイします。

      # cd /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment
      # ansible-playbook he.yml --extra-vars "@he_gluster_vars.json"
    5. セルフホストエンジンのデプロイメントが完了するまで待ちます。

      重要

      セルフホストエンジンのデプロイメント中に問題が発生した場合は、/var/log/ovirt-hosted-engine-setup でログメッセージを確認し、問題を修正します。ovirt-hosted-engine-cleanup コマンドを使用して失敗したセルフホストエンジンのデプロイメントをクリーンアップし、デプロイメントを再実行します。

  14. 新たにインストールした Red Hat Virtualization Manager で RHVH 4.4 管理ポータルにログインします。すべてのホストが up 状態にあることを確認し、Gluster ボリュームでの自己修復が完了するまで待ちます。
  15. 次のホストをアップグレードします。

    1. 管理ポータルから、次のホスト (通常は順番が次のホスト) を Maintenance モードに移動します。このホストを Maintenance モードに移行している間に Gluster サービスを停止します。
    2. ホストのコマンドラインから Gluster ブリックをアンマウントします。

      # umount /gluster_bricks/*
    3. このホストを RHVH4.4 で再インストールします。

      重要

      ラボがそれらのディスク上に作成されるため、インストールが他のディスクをフォーマットしないことを確認してください。

    4. 新たにインストールしたホストでマルチパス設定が利用できない場合は、Gluster デバイスを無効にします。インベントリーファイルは、Gluster ブリックに使用されるデバイスを無効にする手順 の一部として最初のホストにすでに作成されています。

      1. 最初のホストから新たにインストールしたホストに SSH 公開鍵認証を設定します。
      2. 新しいホスト名でインベントリーを更新します。
      3. Playbook を実行します。
    5. Gluster 設定の tar ファイルをバックアップホストから新規インストールしたホストにコピーし、コンテンツを展開します。
    6. このホストの Gluster 設定ファイルを復元する手順で説明されているように、Playbook を実行し、新たにインストールされたホストで Gluster 設定を復元します。

      重要

      新たにインストールしたホストで Playbook を編集し、--restore-from-file…​ オプションを使用して手順 Perform manager deployment で説明されているように実行します。ホスト名を変更し、同じホストで実行しないようにしてください。

    7. RHVH 管理ポータルでホストを再インストールします。RHVH 4.4 で最初にデプロイされたホストから認証キーをコピーします。

      # scp root@host1.example.com:/root/.ssh/authorized_keys /root/.ssh/
      1. 管理ポータル では、ホストは ‘Maintenance’ に置かれます。Compute Hosts Installation Reinstall に移動します。
      2. New Host ダイアログボックスの HostedEngine タブで、deploy self-hosted engine deployment アクションを選択します。
      3. ホストが Up 状態になるまで待機します。
    8. GFID の不一致に関連するエラーがないことを確認します。エラーがある場合は、解決します。

      grep -i "gfid mismatch" /var/log/glusterfs/*
  16. クラスター内のすべての RHVH について、次のホストをアップグレード の手順を繰り返します。
  17. (オプション) クラスター内に別の Gluster 論理ネットワークが存在する場合は、Gluster 論理ネットワークを各ホストの必要なインターフェイスにアタッチします。
  18. 古い Manager ストレージドメインを削除します。Storage Domain の下に一覧表示され、横にゴールドの星がない hosted_storage という名前で、古い Manager ストレージドメインを特定します。

    1. Storage Domains hosted_storage Data center タブに移動し、Maintenance を選択します。
    2. ストレージドメインが Maintenance モードに移行するまで待ちます。
    3. ストレージドメインが Maintenance モードに移動したら、Detach をクリックすると、ストレージドメインは 未接続 に移行します。
    4. 未接続ストレージドメインを選択し、Remove をクリックして OK を確定します。
  19. 古い Manager ボリュームを停止して削除します。

    1. Storage Volumes に移動して、古い Manager ボリュームを選択します。Stop をクリックし、OK を確定します。
    2. 同じボリュームを選択し、Remove をクリックして OK を確定します。
  20. クラスターの互換バージョンを更新します。

    1. Compute Clusters に移動し、クラスターの Default を選択し、Edit をクリックして Compatibility Version を 4.4 に更新し、OK をクリックします。

      重要

      互換バージョンを変更するための警告が表示されます。これには、クラスターの仮想マシンを再起動する必要があります。OKをクリックして確定します。

  21. RHVH 4.4 で新しい Gluster ボリュームオプションを使用でき、それらのボリュームオプションをすべてのボリュームに適用します。クラスター内のノードの 1 つで以下のコマンドを実行します。

    # for vol in gluster volume list; do gluster volume set $vol group virt; done
  22. アーカイブを削除し、すべてのノードでバックアップ設定ファイルの内容を展開します。

Web コンソールを使用した追加の Gluster ボリュームの作成

  1. Manager Web コンソールにログインします。
  2. Virtualization Hosted Engine に移動し、Manage Gluster をクリックします。
  3. ボリュームの作成 をクリックします。ボリュームの作成ウィンドウで、以下の手順を実施します。

    1. Hosts タブで、未使用のディスクを持つ 3 つの異なる ovirt-ng-nodes を選択し、Next をクリックします。
    2. Volumes タブで、作成するボリュームの詳細を指定し、Next をクリックします。
    3. Bricks タブで、ボリュームの作成に使用するディスクの詳細を指定し、Next をクリックします。
    4. Review タブで、生成された設定ファイルで誤った情報の有無を確認します。問題がなければ、Deploy をクリックします。

次に、クラスターの互換バージョンを更新してください。

2.1.9. クラスターの互換バージョンの変更

Red Hat Virtualization のクラスターには互換バージョンがあります。クラスターの互換バージョンは、そのクラスター内のすべてのホストがサポートする Red Hat Virtualization の機能を示します。クラスターの互換バージョンは、そのクラスター内で最も機能性の低いホストオペレーティングシステムのバージョンに応じて設定されます。

前提条件

  • クラスターの互換レベルを変更するには、まず、クラスター内のすべてのホストを更新して、必要な互換性レベルをサポートするレベルにする必要がある。更新が利用可能であることを示すアイコンがホストの横にあるかどうかを確認します。

制限

  • クラスター互換性レベルを 4.6 にアップグレードすると、VirtIO NIC は別のデバイスとして列挙されます。そのため、NIC の再設定が必要になる場合があります。Red Hat は、仮想マシンをテストするために、クラスターをアップグレードする前に仮想マシンでクラスター互換性レベルを 4.6 に設定し、ネットワーク接続を確認することをお勧めします。

    仮想マシンのネットワーク接続に失敗した場合は、クラスターをアップグレードする前に、現在のエミュレートされたマシンと一致するカスタムのエミュレートされたマシンを使用して、仮想マシンを設定します (例: 4.5 互換バージョンの場合は pc-q35-rhel8.3.0)。

手順

  1. 管理ポータルで、Compute Clusters をクリックします。
  2. 変更を行うクラスターを選択し、Edit をクリックします。
  3. General タブで Compatibility Version を必要な値に変更します。
  4. OK をクリックします。Change Cluster Compatibility Version の確認ダイアログが開きます。
  5. OK をクリックして確定します。
重要

一部の仮想マシンおよびテンプレートが不適切に設定されていることを警告するエラーメッセージが表示される場合があります。このエラーを修正するには、それぞれの仮想マシンを手動で編集します。Edit Virtual Machine ウィンドウには、修正が必要な項目を示す追加の検証および警告が表示されます。問題が自動的に修正され、仮想マシンの設定を再度保存するだけで十分な場合もあります。それぞれの仮想マシンを編集したら、クラスターの互換バージョンを変更することができます。

クラスター内の仮想マシンのクラスター互換バージョンを更新できるようになりました。

2.1.10. 仮想マシンのクラスター互換バージョンの変更

クラスターの互換バージョンを更新したら、実行中または一時停止中のすべての仮想マシンについてクラスターの互換バージョンを更新する必要があります。そのためには、管理ポータルから再起動するか、REST API を使用するか、ゲストオペレーティングシステム内から更新する必要があります。再起動が必要な仮想マシンには、変更が保留されていることを示すアイコン ( pendingchanges ) が付きます。

別途適切な時期に仮想マシンを再起動することもできますが、仮想マシンで最新の設定が使用されるように、直ちに再起動することを強く推奨します。再起動していない仮想マシンは以前の設定で動作し、さらに仮想マシンの設定が変更された場合には、保留中のクラスターの互換バージョンが上書きされる場合があります。

手順

  1. 管理ポータルで Compute Virtual Machines をクリックします。
  2. 再起動が必要な仮想マシンを確認します。Vms: 検索バーに以下のクエリーを入力します。

    next_run_config_exists=True

    検索結果に、変更が保留中の仮想マシンがすべて表示されます。

  3. それぞれの仮想マシンを選択し、Restart をクリックします。あるいは、必要な場合は、仮想マシン自体から仮想マシンを再起動することができます。

仮想マシンが起動すると、新しい互換バージョンが自動的に適用されます。

注記

プレビュー状態にある仮想マシンスナップショットについては、クラスターの互換バージョンを変更することができません。まずコミットするか、プレビューを取り消す必要があります。

次に、データセンターの互換バージョンを更新してください。

2.1.11. データセンターの互換バージョンの変更

Red Hat Virtualization データセンターには、互換バージョンがあります。互換バージョンとは、データセンターが互換性を持つ Red Hat Virtualization のバージョンを指します。データセンター内のすべてのクラスターは、指定の互換性レベルをサポートする必要があります。

前提条件

  • データセンターの互換レベルを変更するには、データセンター内のクラスターおよび仮想マシンの互換バージョンが、事前にすべて更新されている必要があります。

手順

  1. 管理ポータルで Compute Data Centers をクリックします。
  2. 変更を行うデータセンターを選択し、Edit をクリックします。
  3. Compatibility Version を必要な値に変更します。
  4. OK をクリックします。Change Data Center Compatibility Version の確認ダイアログが開きます。
  5. OK をクリックして確定します。
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.