第2章 スタンドアロンの Manager ローカルデータベース環境のアップグレード
2.1. Red Hat Virtualization 4.3 から 4.4 へのアップグレード
お使いの環境を 4.3 から 4.4 にアップグレードする手順は、以下のとおりです。
アップグレードに関する考慮事項
- アップグレードを計画する場合は、Red Hat Virtualization 4.4 のアップグレードに関する考慮事項および既知の問題 を参照してください。
Open Virtual Network (OVN) および Open vSwitch (OvS) 2.11 から OVN 2021 および OvS 2.15 にアップグレードする場合、以下の条件が満たされている限り、このプロセスはユーザーからは見えません。
- Manager が最初にアップグレードされている。
- OVN/OvS バージョン 2.11 のホスト間で機能することが予想されるすべての OVN ネットワークに対して、ホストのアップグレード前に ovirt-provider-ovn セキュリティーグループが無効化されている。
- ホストは、OVN バージョン 2021 以降および OvS バージョン 2.15 に一致するようにアップグレードされている。OVN を適切に再設定し、証明書を更新することができるように、管理ポータルでこの手順を完了する必要があります。
- ホストがアップグレード後に再起動されている。
プロバイダーと OVN がホストで正常に設定されたかどうかを確認するには、ホストの General タブで OVN configured フラグを確認します。OVN Configured が No に設定されている場合は、
- 正しいリポジトリーを有効にするなど、前提条件を満たしていることを確認する。
- Log Collection Analysis ツールおよび Image Discrepancies ツールを使用して、アップグレードの正常な完了を妨げる問題がないか確認する。
- 4.3 Manager を最新バージョンの 4.3 に更新する。
- Manager を 4.3 から 4.4 にアップグレードする。
- 仮想マシンのダウンタイムを削減しつつ、ホストおよび仮想マシンを移行する。
- (オプション) ローカルストレージを保持した状態で RHVH をアップグレードする。
- クラスターの互換バージョンを更新する。
- 実行中またはサスペンド中の仮想マシンをすべて再起動して、設定を更新する。
- データセンターの互換バージョンを更新する。
2.1.1. 前提条件
- 仮想マシンで必要となるダウンタイムについて計画している。アップグレードプロセスでクラスターの互換バージョンを更新した後、それぞれの仮想マシンを再起動すると新しいハードウェア設定が自動的に適用されます。すべての実行中またはサスペンド中の仮想マシンを直ちに再起動して、設定変更を適用する必要があります。
- お使いの環境が Red Hat Virtualization 4.4 の要件を満たしている。すべての前提条件の一覧は、プランニングおよび前提条件ガイドの 前提条件 を参照してください。
- Red Hat Virtualization Manager をアップグレードする場合には、既存ホストのいずれかを使用することが推奨される。新規ホストの使用を選択する場合は、アップグレード手順を開始する前に、新規ホストに一意の名前を割り当ててから、既存のクラスターに追加する必要があります。
2.1.2. 環境の分析
更新の実行やトラブルシューティングを行う前に、Log Collection Analysis ツールおよび Image Discrepancies ツールを実行することが推奨されます。このツールは、お使いの環境を分析し、更新の実行を妨げる可能性のある既知の問題を表示して、推奨される解決方法を提供します。
2.1.3. Log Collection Analysis ツール
更新の実行前に Log Collection Analysis ツールを実行し、トラブルシューティングを行います。このツールは、お使いの環境を分析し、更新の実行を妨げる可能性のある既知の問題を表示して、推奨される解決方法を提供します。ツールはシステムに関する詳細情報を収集し、それを HTML ファイルとして提示します。
前提条件
Manager マシンで正しいリポジトリーが有効になっていることを確認します。Red Hat Virtualization 4.3 に必要なリポジトリーのリストは、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。
Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。
手順
Manager マシンに Log Collection Analysis ツールをインストールします。
# yum install rhv-log-collector-analyzer
ツールを実行します。
# rhv-log-collector-analyzer --live
詳細なレポートが表示されます。
デフォルトでは、レポートは
analyzer_report.html
という名前のファイルに保存されます。ファイルを特定の場所に保存するには
--html
フラグを使用して場所を指定します。# rhv-log-collector-analyzer --live --html=/directory/filename.html
ELinks テキストモードの Web ブラウザーを使用して、ターミナル内のアナライザーレポートを読み取ることができます。ELinks ブラウザーをインストールするには、以下を実行します。
# yum install -y elinks
ELinks を起動し、
analyzer_report.html
を開きます。# elinks /home/user1/analyzer_report.html
レポート内を移動するには、ELinks で以下のコマンドを使用します。
-
Insert
でスクロールアップ -
Delete
でスクロールダウン -
PageUp
でページアップ -
PageDown
でページダウン -
left Bracket
で左にスクロール -
right Bracket
で右にスクロール
-
2.1.3.1. イメージ不一致ツールを使用したスナップショットの状態の監視
RHV Image Discrepancies ツールは、ストレージドメインと RHV データベースのイメージデータを分析します。ボリュームとボリューム属性に不一致が見つかった場合は警告しますが、それらの不一致は修正されません。このツールは、次のようなさまざまなシナリオで使用します。
- バージョンをアップグレードする前に、壊れたボリュームまたはチェーンを新しいバージョンに引き継がないようにします。
- ストレージ操作に失敗した後、不良状態のボリュームまたは属性を検出します。
- バックアップから RHV データベースまたはストレージを復元した後に使用します。
- 定期的に、問題が悪化する前に潜在的な問題を検出しあす。
- スナップショットまたはライブストレージの移行に関連する問題を分析し、これらのタイプの問題を修正した後、システムの状態を確認します。
前提条件
-
必要なバージョン。このツールは、
rhv-log-collector-analyzer-0.2.15-0.el7ev
の RHV バージョン 4.3.8 で導入されました。 - データ収集は異なる場所で同時に実行され、アトミックではないため、ストレージドメインを変更する可能性のある環境内のすべてのアクティビティーを停止する。つまり、スナップショットの作成や削除、ディスクの編集、移動、作成、削除は行わないでください。行った場合、不一致の誤検出が発生する可能性があります。プロセス中、仮想マシンは正常に動作し続けることができます。
手順
ツールを実行するには、RHV Manager で次のコマンドを入力します。
# rhv-image-discrepancies
- ツールが不一致を検出したら、再実行して結果を確認します。ツールの実行中に一部の操作が実行された可能性がある場合、特に注意が必要です。
このツールには Export および ISO ストレージドメインが含まれており、そのストレージドメインの不一致が報告される可能性があります。報告された場合、これらのストレージドメインは RHV データベースにはこれらのストレージドメインのイメージエントリーがないため、無視できます。
結果について
このツールは以下を報告します。
- ストレージに表示されているがデータベースにはないボリュームがある場合、またはデータベースに表示されているがストレージにはないボリュームがある場合
- 一部のボリューム属性がストレージとデータベースで異なる場合
出力サンプル
Checking storage domain c277ad93-0973-43d9-a0ca-22199bc8e801 Looking for missing images... No missing images found Checking discrepancies between SD/DB attributes... image ef325650-4b39-43cf-9e00-62b9f7659020 has a different attribute capacity on storage(2696984576) and on DB(2696986624) image 852613ce-79ee-4adc-a56a-ea650dcb4cfa has a different attribute capacity on storage(5424252928) and on DB(5424254976) Checking storage domain c64637b4-f0e8-408c-b8af-6a52946113e2 Looking for missing images... No missing images found Checking discrepancies between SD/DB attributes... No discrepancies found
次に、Manager を最新バージョンの 4.3 に更新してください。
2.1.4. Red Hat Virtualization Manager の更新
前提条件
Manager マシンで正しいリポジトリーが有効化になっている。Red Hat Virtualization 4.3 に必要なリポジトリーのリストは、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。
Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。
手順
Manager マシンで、更新されたパッケージが利用可能かどうかを確認します。
# engine-upgrade-check
setup パッケージを更新します。
# yum update ovirt\*setup\* rh\*vm-setup-plugins
engine-setup
スクリプトで Red Hat Virtualization Manager を更新します。engine-setup
スクリプトにより、設定に関する質問への回答が求められます。その後、ovirt-engine
サービスの停止、更新パッケージのダウンロード/インストール、データベースのバックアップ/更新、インストール後設定の実施を経てから、ovirt-engine
サービスが起動します。# engine-setup
スクリプトが正常に完了すると、以下のメッセージが表示されます。
Execution of setup completed successfully
注記engine-setup
スクリプトは、Red Hat Virtualization Manager のインストールプロセス中にも使用され、指定した設定値が保存されます。更新時に、設定をプレビューすると保存された値が表示されますが、インストール後にengine-config
を使用して設定を更新した場合、この値は最新ではない可能性があります。たとえば、インストール後にengine-config
を使用してSANWipeAfterDelete
をtrue
に更新した場合、engine-setup
は設定プレビューに "Default SAN wipe after delete: False" を出力します。ただし、更新された値がengine-setup
によって上書きされることはありません。重要更新プロセスに時間がかかる場合があります。完了するまでプロセスを停止しないでください。
Manager にインストールされているベースオペレーティングシステムと、オプションパッケージを更新します。
# yum update --nobest
重要更新中に必要な Ansible パッケージの競合が発生した場合は、RHV Manager で yum update を実行できない (ansible の競合) を参照してください。
重要いずれかのカーネルパッケージが更新された場合には、マシンを再起動して更新を完了してください。
次に、Manager を 4.4 にアップグレードしてください。
2.1.5. Red Hat Virtualization Manager 4.3 から 4.4 へのアップグレード
Red Hat Virtualization Manager 4.4 は、Red Hat Enterprise Linux バージョン 8.2 から 8.6 でのみサポートされます。RHV Manager 4.3 の実行に使用する物理マシンと同じマシンを使用する場合でも、Red Hat Enterprise Linux 8.6 および Red Hat Virtualization Manager 4.4 のクリーンインストールを実行する必要があります。
アップグレードプロセスでは、Red Hat Virtualization Manager 4.3 バックアップファイルを Red Hat Virtualization Manager 4.4 マシンに復元する必要があります。
前提条件
- 環境内のすべてのデータセンターおよびクラスターにおいて、クラスターの互換レベルがバージョン 4.2 または 4.3 に設定されている。
- 環境内のすべての仮想マシンで、クラスターの互換レベルがバージョン 4.3 に設定されている。
- 外部 CA を使用して HTTPS 証明書に署名する場合は、管理ガイド の Red Hat Virtualization Manager CA 証明書の置き換え の手順に従っている。バックアップおよび復元にはサードパーティーの証明書が含まれるので、アップグレード後に管理ポータルにログインできるはずです。virt-viewer の外部メニューが機能するように、CA 証明書がすべてのクライアントのシステム全体のトラストストアに追加されていることを確認します。詳細は、BZ#1313379 を参照してください。
接続されたホストと仮想マシンは、Manager のアップグレード中も引き続き動作可能です。
手順
- Manager マシンにログインします。
Red Hat Virtualization Manager 4.3 環境のバックアップを作成します。
# engine-backup --scope=all --mode=backup --file=backup.bck --log=backuplog.log
- バックアップファイルを RHV 環境外のストレージデバイスにコピーします。
- Red Hat Enterprise Linux 8.6 をインストールします。詳細は、標準の RHEL 8 インストールの実行 を参照してください。
-
コマンド
yum install rhvm
の実行など、Red Hat Virtualization Manager 4.4 のインストール手順を完了します (engine-setup
は実行しないでください)。詳細は、Red Hat Virtualization のインストール ガイドのいずれかを参照してください。 バックアップファイルを Red Hat Virtualization Manager 4.4 マシンにコピーし、復元します。
# engine-backup --mode=restore --file=backup.bck --provision-all-databases
注記バックアップに追加のデータベースユーザーへの権限付与が含まれていた場合、このコマンドにより、無作為にパスワードが設定された追加のユーザーが作成されます。追加のユーザーが復元したシステムにアクセスする必要がある場合は、これらのパスワードを手動で変更する必要があります。https://access.redhat.com/articles/2686731 を参照してください。
Manager マシンで正しいリポジトリーが有効になっていることを確認します。Red Hat Virtualization 4.4 に必要なリポジトリーのリストは、Red Hat Virtualization Manager リポジトリーの有効化 を参照してください。
Red Hat Virtualization Manager の更新は、コンテンツ配信ネットワーク (CDN) 経由でリリースされます。
オプションの拡張機能パッケージが Red Hat Virtualization Manager 4.3 マシンにインストールされていた場合はインストールします。
# yum install ovirt-engine-extension-aaa-ldap ovirt-engine-extension-aaa-misc
注記ovirt-engine-extension-aaa-ldap
は非推奨になりました。新規インストールの場合は、Red Hat Single Sign On を使用します。詳細は、管理ガイド の Red Hat Single Sign-On のインストールおよび設定 を参照してください。注記これらの拡張機能パッケージの設定は、バックアップおよび復元プロセスの一部として移行されないため、手動で再適用する必要があります。
engine-setup
コマンドを実行して Manager を設定します。# engine-setup
- Red Hat Virtualization Manager 4.4 に別のマシンを使用している場合は、Red Hat Virtualization Manager 4.3 マシンを廃止します。2 つの異なる Manager が同じホストまたはストレージを管理することはできません。
engine-setup
を実行して Manager を設定します。# engine-setup
これにより、クラスターの互換バージョンが既存のバージョンに応じて 4.2 または 4.3 に設定されている状態で、Red Hat Virtualization Manager 4.4 がインストールされました。続いて、環境内のホストを RHV 4.4 にアップグレードする必要があります。その後、クラスターの互換バージョンを 4.4 に変更することができます。
関連情報
次に、ホストを更新してください。
2.1.6. ホストおよび仮想マシンの RHV 4.3 から 4.4 への移行
ホストおよび仮想マシンを Red Hat Virtualization 4.3 から 4.4 に移行し、環境内の仮想マシンのダウンタイムを最小限に抑えることができます。
このプロセスでは、すべての仮想マシンを 1 つのホストから移行する必要があります。これにより、そのホストが RHV 4.4 にアップグレードできるようにします。アップグレード後に、ホストを Manager に再度アタッチすることができます。
ホストのオペレーティングシステムのインストールまたは再インストールを行う場合、Red Hat では、ホストにアタッチされている既存の OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。
CPU パススルー仮想マシンは、RHV 4.3 から RHV 4.4 に適切に移行しない可能性があります。
RHV 4.3 および RHV 4.4 は、それぞれ RHEL 7 および RHEL 8 をベースにしています。これには、CPU フラグおよびコンストラクターが異なるカーネルバージョンがあります。これにより、CPU パススルーの仮想マシンの移行で問題が発生する可能性があります。
前提条件
- RHV 4.4 のホストには、Red Hat Enterprise Linux バージョン 8.2 から 8.6 が必要である。RHV 4.3 のホストの実行に使用する物理マシンと同じものを使用している場合でも、Red Hat Enterprise Linux 8.6 または Red Hat Virtualization Host 4.4 のクリーンインストールが必要です。
- Red Hat Virtualization Manager 4.4 がインストールされ、実行中である。
- ホストが属するデータセンターおよびクラスターの互換性レベルが 4.2 または 4.3 に設定されている。手順の開始前に、環境内のすべてのデータセンターおよびクラスターにおいて、クラスターの互換レベルがバージョン 4.2 または 4.3 に設定されている必要があります。
手順
- アップグレードするホストを選択し、そのホストの仮想マシンを同じクラスター内の別のホストに移行します。ライブマイグレーションを使用して、仮想マシンのダウンタイムを最小限に抑えることができます。詳細は、仮想マシン管理ガイド の ホスト間での仮想マシンの移行 を参照してください。
- ホストをメンテナンスモードにし、Manager からホストを削除します。詳細は、管理ガイド の ホストの削除 を参照してください。
- Red Hat Enterprise Linux 8.6 または RHVH 4.4 をインストールします。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization 用ホストのインストール を参照してください。
- 適切なパッケージをインストールして、RHV 4.4 のホストを有効にします。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization 用ホストのインストール を参照してください。
- このホストを Manager に追加し、これを同じクラスターに割り当てます。次に、仮想マシンをこのホストに移行してください。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization Manager への通常ホストの追加 を参照してください。
これらの手順を繰り返して仮想マシンを移行し、同じクラスター内の残りのホストを 1 つずつアップグレードします。すべてが Red Hat Virtualization 4.4 を実行するまでこれを続けます。
2.1.7. ローカルストレージを保持した状態での RHVH のアップグレード
ローカルストレージが他のストレージドメインと共有されないため、ローカルストレージを使用する環境は、別のクラスターのホストに仮想マシンを移行できません。ローカルストレージドメインを持つ RHVH 4.3 ホストをアップグレードするには、ローカルストレージを保持しながらホストを再インストールし、4.4 環境で新しいローカルストレージドメインを作成してから、以前のローカルストレージを新しいドメインにインポートします。
前提条件
- Red Hat Virtualization Manager 4.4 がインストールされ、実行中である。
- ホストが属するデータセンターおよびクラスターの互換レベルが、4.2 または 4.3 に設定されている。
手順
このプロセスを開始する前に、RHVH 4.3 ホストのローカルストレージ上のローカルストレージがメンテナンスモードにあることを確認します。以下の手順を実行します。
- Data Centers タブを開きます。
- Details ペインの Storage タブをクリックし、結果一覧でストレージドメインを選択します。
- Maintenance をクリックします。
インストールガイド の Red Hat Virtualization Host のインストール に記載されているとおりに、Red Hat Virtualization Host を再インストールします。
重要インストール先 画面で RHVH をインストールするデバイスを選択する場合は、仮想マシンを保存するデバイスを選択しないでください。オペレーティングシステムをインストールするデバイスのみを選択します。
キックスタートを使用してホストをインストールする場合は、キックスタートファイルに以下を追加して、仮想マシンを含むデバイスを保存するようにしてください。ここでの `device` は、適切なデバイスに置き換えてください。
# clearpart --all --drives=device
キックスタートの使用方法は、Red Hat Enterprise Linux 8 高度な RHEL インストールの実行 の キックスタートの参照 を参照してください。
再インストールしたホストで、以前の環境を復元するディレクトリー (
/data
など) を作成します。# mkdir /data
新しいディレクトリーに以前のローカルストレージをマウントします。この例では、
/dev/sdX1
がローカルストレージになります。# mount /dev/sdX1 /data
新しいディレクトリーに以下のパーミッションを設定します。
# chown -R 36:36 /data # chmod -R 0755 /data
Red Hat では、サーバーの再起動が必要となる場合に備えて、
/etc/fstab
経由でローカルストレージを自動的にマウントすることも推奨します。# blkid | grep -i sdX1 /dev/sdX1: UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" TYPE="ext4" # vi /etc/fstab UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" /data ext4 defaults 0 0
- 管理ポータルでデータセンターを作成し、Storage Type ドロップダウンメニューで Local を選択します。
- 新しいデータセンターでクラスターを設定します。詳細は、管理ガイド の 新規クラスターの作成 を参照してください。
- Manager にホストを追加します。詳細は、いずれかの Red Hat Virtualization のインストール ガイドの Red Hat Virtualization Manager への通常のホストの追加 を参照してください。
ホスト上で、最初のローカルストレージドメインの作成に使用する新しいディレクトリーを作成します。以下に例を示します。
# mkdir -p /localfs # chown 36:36 /localfs # chmod -R 0755 /localfs
- 管理ポータルで Storage タブを開き、New Domain をクリックして新しいローカルストレージドメインを作成します。
-
名前を
localfs
に設定し、パスを/localfs
に設定します。 -
ローカルストレージがアクティブになったら、Import Domain をクリックして、ドメインの詳細を設定します。たとえば、
Data
を名前として、Local on Host
をストレージタイプとして、/data
をパスとして定義します。 - ストレージドメインがデータセンターにすでにアタッチされていることを知らせるメッセージが表示されるので、 をクリックして確定します。
新しいストレージドメインをアクティブ化します。
- Data Centers タブを開きます。
- 詳細ペインの Storage タブをクリックし、結果一覧で新しいデータストレージドメインを選択します。
- Activate をクリックします。
新規ストレージドメインがアクティブになったら、仮想マシンとそのディスクをインポートします。
- Storage タブで、data を選択します。
- 詳細ペインで VM Import タブを選択し、仮想マシンを選択して Import をクリックします。詳細は、仮想マシン管理ガイド の データドメインからの仮想マシンのインポート を参照してください。
-
すべての仮想マシンが正常にインポートされ、適切に機能していることを確認したら、
localfs
をメンテナンスモードに移行できます。 Storage タブをクリックし、結果一覧で localfs を選択します。
- 詳細ペインの Data Center タブをクリックします。
- Maintenance をクリックしてから をクリックし、ストレージドメインをメンテナンスモードに移動します。
- Detach をクリックします。Detach Storage の確認ウィンドウが開きます。
- をクリックします。
これで、ホストのバージョン 4.4 へのアップグレード、新しいローカルストレージドメインの作成、4.3 ストレージドメインおよびその仮想マシンのインポートが完了しました。
2.1.8. Gluster ストレージを保持した状態での RHVH のアップグレード
Gluster をストレージとする環境では、Gluster ストレージのバックアップを取得し、RHVH のアップグレード後に復元することができます。アップグレードに必要な時間を短縮するため、Gluster ストレージを使用するすべての仮想マシンのワークロードを可能な限り軽量に維持してみてください。書き込み集約型のワークロードが非常に多い場合には、復元にかかる時間が長くなります。
GlusterFS Storage は非推奨になり、将来のリリースではサポートされなくなります。
前提条件
- ストレージドメインに geo レプリケーションスケジュールがある場合は、アップグレードの競合を回避するためにこれらのスケジュールを削除する。
- 現在、geo レプリケーション同期は実行されていない。
- 新しい RHVH 4.4 Manager デプロイメント用に新規ボリュームを作成するために、3 つのホストで追加の 100 GB のディスク領域が必要である。
- 手順を開始する前に、環境内のすべてのデータセンターおよびクラスターのクラスター互換レベルが 4.3 でなければならない。
制限
- Network-Bound Disk Encryption (NBDE) は、Red Hat Virtualization 4.4 を使用する新規デプロイメントでのみサポートされます。この機能はアップグレード時に有効にすることはできません。
手順
RHVH 4.4 Manager デプロイメント向けに新しい Gluster ボリュームを作成します。
- 新しい RHVH 4.4 セルフホストエンジンの仮想マシン (VM) 用に各ホストに新しいエンティティーを作成します。
- 設定にスペアディスクがある場合は、Web コンソールからのボリュームの作成を参照してください。
既存のボリュームグループ (VG) に新しい Manager 100 GB の対応のために十分な領域がある場合は、新しい Manager 論理ボリューム (LV) として使用できます。
特に明示的に指定しない限り、すべてのホストで以下のコマンドを実行します。
ボリュームグループ (VG) の空き容量を確認します。
# vgdisplay <VG_NAME> | grep -i free
この VG に論理ボリュームを 1 つ以上作成します。
# lvcreate -n gluster_lv_newengine -L 100G <EXISTING_VG>
新しい論理ボリューム (LV) を XFS としてフォーマットします。
# mkfs.xfs <LV_NAME>
新しいブリックのマウントポイントを作成します。
# mkdir /gluster_bricks/newengine
-
/etc/fstab
で新たに作成されたファイルシステムに対応するエントリーを作成し、ファイルシステムをマウントします。 ラボマウントポイントに SELinux ラベルを設定します。
# semanage fcontext -a -t glusterd_brick_t /gluster_bricks/newengine restorecon -Rv /gluster_bricks/newengine
クラスター内のいずれかのホストで gluster コマンドを実行して、新しい Gluster ボリュームを作成します。
# gluster volume create newengine replica 3 host1:/gluster_bricks/newengine/newengine host2:/gluster_bricks/newengine/newengine host3:/gluster_bricks/newengine/newengine
新規作成されたボリュームに必要なボリュームオプションを設定します。クラスター内のいずれかのホストで以下のコマンドを実行します。
# gluster volume set newengine group virt gluster volume set newengine network.ping-timeout 30 gluster volume set newengine cluster.granular-entry-heal enable gluster volume set newengine network.remote-dio off gluster volume set newengine performance.strict-o-direct on gluster volume set newengine storage.owner-uid 36 gluster volume set newengine storage.owner-gid 36
新規作成した Gluster ボリュームを起動します。クラスター内のいずれかのホストで以下のコマンドを実行します。
# gluster volume start newengine
バックアップ Playbook を使用して、すべての RHVH 4.3 ノードで Gluster 設定をバックアップします。
バックアップ Playbook は RHVH 4.3 の最新バージョンで利用できます。この Playbook が利用できない場合は、Playbook とインベントリーファイルを作成します。
/etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config.yml
例:
all: hosts: host1: host2: host3: vars: backup_dir: /archive nbde_setup: false upgrade: true
正しい詳細でバックアップインベントリーファイルを編集します。
Common variables backup_dir -> Absolute path to directory that contains the extracted contents of the backup archive nbde_setup -> Set to false as the {virt-product-fullname} 4.3 setup doesn’t support NBDE upgrade -> Default value true . This value will make no effect with backup
ディレクトリーに切り替え、Playbook を実行します。
ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags backupfiles
-
生成されたバックアップ設定 tar ファイルは、
RHVH-<HOSTNAME>-backup.tar.gz
という名前の /root の下に生成されます。すべてのホストで、バックアップ設定 tar ファイルをバックアップホストにコピーします。
- Manager Administration Portal を使用して、最初のホストで実行されている仮想マシンをクラスター内の他のホストに移行します。
バックアップマネージャーを設定します。
# engine-backup --mode=backup --scope=all --file=<backup-file.tar.gz> --log=<logfile>
注記バックアップを作成する前に、以下の手順を実施します。
- セルフホストエンジン (SHE) の グローバルメンテナンス を有効にします。
- SSH を使用して Manager 仮想マシンにログインし、ovirt-engine サービスを停止します。
- バックアップファイルをセルフホストエンジンの仮想マシンからリモートホストにコピーします。
- Manager をシャットダウンします。
- すべてのレプリカ 3 ボリュームで、保留中の自己修復タスクを確認します。修復が完了するまで待ちます。
ホストのいずれかで以下のコマンドを実行します。
# gluster volume heal <volume> info summary
glusterfs
ブリックプロセスを停止し、最初のホストですべてのラボをアンマウントして、ファイルシステムの整合性を維持します。最初のホストで以下を実行します。# pkill glusterfsd; pkill glusterfs # systemctl stop glusterd # umount /gluster_bricks/*
RHVH 4.4 ISO でホストを再インストールし、OS ディスクのフォーマットのみを行います。
重要ラボがそれらのディスク上に作成されるため、インストールが他のディスクをフォーマットしないことを確認してください。
RHVH 4.4 のインストール再起動後にノードが稼働したら、インストールガイドで説明されているように RHVH 4.4 リポジトリーにサブスクライブするか、ダウンロードした RHVH 4.4 アプライアンスをインストールします。
# yum install <appliance>
Gluster ブリックに使用されるデバイスを無効にします。
- 新しい SSH 秘密鍵と公開鍵のペアを作成します。
- フロントエンドネットワーク FQDN とバックエンドネットワーク FQDN を使用して、同じホストに SSH 公開鍵認証 (パスワードなし SSH) を確立します。
インベントリーファイルを作成します。
/etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/blacklist_inventory.yml
例:
hc_nodes: hosts: host1-backend-FQDN.example.com: blacklist_mpath_devices: - sda - sdb
Playbook の実行
ansible-playbook -i blacklist_inventory.yml /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/tasks/gluster_deployment.yml --tags blacklistdevices*
- Manager のバックアップおよびホスト設定の tar ファイルをバックアップホストから新たにインストールしたホストにコピーし、scp を使用してコンテンツのデプロイメントを解除します。
Gluster 設定ファイルを復元します。
Gluster 設定ファイルの内容を抽出します。
# mkdir /archive # tar -xvf /root/ovirt-host-host1.example.com.tar.gz -C /archive/
インベントリーファイルを編集して、設定ファイルの復元を行います。インベントリーファイルは
/etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config_inventory.yml
にあります。Playbook コンテンツの例:
all: hosts: host1.example.com: vars: backup_dir: /archive nbde_setup: false upgrade: true
重要Use only one host under ‘hosts’ section of restoration playbook.
Playbook を実行して設定ファイルを復元します。
ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags restorefiles
Manager からバックアップアーカイブをポイントする
--restore-from-file
オプションを使用して Manager デプロイメントを実行します。この Manager デプロイメントは、hosted-engine --deploy
コマンドを使用して対話的に実行でき、新たに作成された Manager ボリュームに対応するストレージを提供します。また、自動化された手順でovirt-ansible-hosted-engine-setup
を使用して同じ操作を行うこともできます。以下の手順は、バックアップを使用して HostedEngine 仮想マシンをデプロイする自動化された方法です。新たにインストールしたホストに HostedEngine デプロイメントの Playbook を作成します。
/etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he.yml
- name: Deploy oVirt hosted engine hosts: localhost roles: - role: ovirt.hosted_engine_setup
テンプレートファイルを使用して HostedEngine 関連の情報を更新します。
/etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json
例:
# cat /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json { "he_appliance_password": "<password>", "he_admin_password": "<password>", "he_domain_type": "glusterfs", "he_fqdn": "<hostedengine.example.com>", "he_vm_mac_addr": "<00:18:15:20:59:01>", "he_default_gateway": "<19.70.12.254>", "he_mgmt_network": "ovirtmgmt", "he_storage_domain_name": "HostedEngine", "he_storage_domain_path": "</newengine>", "he_storage_domain_addr": "<host1.example.com>", "he_mount_options": "backup-volfile-servers=<host2.example.com>:<host3.example.com>", "he_bridge_if": "<eth0>", "he_enable_hc_gluster_service": true, "he_mem_size_MB": "16384", "he_cluster": "Default", "he_restore_from_file": "/root/engine-backup.tar.gz", "he_vcpus": 4 }
重要- 上記の he_gluster_vars.json には、“he_restore_from_file” および “he_storage_domain_path” という 2 つの重要な値があります。最初のオプション “he_restore_from_file” は、ローカルマシンにコピーされた Manager バックアップアーカイブの絶対ファイル名をポイントする必要があります。2 番目のオプション “he_storage_domain_path” は、新しく作成された Gluster ボリュームを参照しているはずです。
- また、Manager 仮想マシン内で実行されている以前のバージョンの RHVH Version はダウンし、破棄されることに注意してください。古い Manager 仮想マシンに対応する MAC アドレスと FQDN は、新しい Manager 用でも再利用できます。
静的 Manager ネットワーク設定の場合は、以下のようにオプションをさらに追加します。
“he_vm_ip_addr”: “<engine VM ip address>” “he_vm_ip_prefix”: “<engine VM ip prefix>” “he_dns_addr”: “<engine VM DNS server>” “he_default_gateway”: “<engine VM default gateway>”
重要利用可能な特定の DNS がない場合は、“he_vm_etc_hosts”: true と “he_network_test”: “ping” の 2 つのオプションを追加します。
Playbook を実行して HostedEngine デプロイメントをデプロイします。
# cd /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment # ansible-playbook he.yml --extra-vars "@he_gluster_vars.json"
セルフホストエンジンのデプロイメントが完了するまで待ちます。
重要セルフホストエンジンのデプロイメント中に問題が発生した場合は、
/var/log/ovirt-hosted-engine-setup
でログメッセージを確認し、問題を修正します。ovirt-hosted-engine-cleanup
コマンドを使用して失敗したセルフホストエンジンのデプロイメントをクリーンアップし、デプロイメントを再実行します。
- 新たにインストールした Red Hat Virtualization Manager で RHVH 4.4 管理ポータルにログインします。すべてのホストが up 状態にあることを確認し、Gluster ボリュームでの自己修復が完了するまで待ちます。
次のホストをアップグレードします。
- 管理ポータルから、次のホスト (通常は順番が次のホスト) を Maintenance モードに移動します。このホストを Maintenance モードに移行している間に Gluster サービスを停止します。
ホストのコマンドラインから Gluster ブリックをアンマウントします。
# umount /gluster_bricks/*
このホストを RHVH4.4 で再インストールします。
重要ラボがそれらのディスク上に作成されるため、インストールが他のディスクをフォーマットしないことを確認してください。
新たにインストールしたホストでマルチパス設定が利用できない場合は、Gluster デバイスを無効にします。インベントリーファイルは、Gluster ブリックに使用されるデバイスを無効 にする手順の一部として最初のホストにすでに作成されています。
- 最初のホストから新たにインストールしたホストに SSH 公開鍵認証を設定します。
- 新しいホスト名でインベントリーを更新します。
- Playbook を実行します。
- Gluster 設定の tar ファイルをバックアップホストから新規インストールしたホストにコピーし、コンテンツを展開します。
このホストの Gluster 設定ファイルを復元する手順で説明されているように、Playbook を実行し、新たにインストールされたホストで Gluster 設定を復元します。
重要新たにインストールしたホストで Playbook を編集し、--restore-from-file… オプションを使用して手順 Perform manager deployment で説明されているように実行します。ホスト名を変更し、同じホストで実行しないようにしてください。
RHVH 管理ポータルでホストを再インストールします。RHVH 4.4 で最初にデプロイされたホストから認証キーをコピーします。
# scp root@host1.example.com:/root/.ssh/authorized_keys /root/.ssh/
-
管理ポータル では、ホストは ‘Maintenance’ に置かれます。
に移動します。 - New Host ダイアログボックスの HostedEngine タブで、deploy self-hosted engine deployment アクションを選択します。
- ホストが Up 状態になるまで待機します。
-
管理ポータル では、ホストは ‘Maintenance’ に置かれます。
GFID の不一致に関連するエラーがないことを確認します。エラーがある場合は、解決します。
grep -i "gfid mismatch" /var/log/glusterfs/*
- クラスター内のすべての RHVH について、次のホストをアップグレード の手順を繰り返します。
- (オプション) クラスター内に別の Gluster 論理ネットワークが存在する場合は、Gluster 論理ネットワークを各ホストの必要なインターフェイスにアタッチします。
古い Manager ストレージドメインを削除します。
の下に一覧表示され、横にゴールドの星がない hosted_storage という名前で、古い Manager ストレージドメインを特定します。 -
タブに移動し、Maintenance を選択します。 - ストレージドメインが Maintenance モードに移行するまで待ちます。
- ストレージドメインが Maintenance モードに移動したら、未接続 に移行します。 をクリックすると、ストレージドメインは
- 未接続ストレージドメインを選択し、 をクリックして を確定します。
-
古い Manager ボリュームを停止して削除します。
-
に移動して、古い Manager ボリュームを選択します。 をクリックし、 を確定します。 - 同じボリュームを選択し、 をクリックして を確定します。
-
クラスターの互換バージョンを更新します。
に移動し、クラスターの Default を選択し、 をクリックして Compatibility Version を 4.4 に更新し、 をクリックします。 重要互換バージョンを変更するための警告が表示されます。これには、クラスターの仮想マシンを再起動する必要があります。
をクリックして確定します。
RHVH 4.4 で新しい Gluster ボリュームオプションを使用でき、それらのボリュームオプションをすべてのボリュームに適用します。クラスター内のノードの 1 つで以下のコマンドを実行します。
# for vol in
gluster volume list
; do gluster volume set $vol group virt; done- アーカイブを削除し、すべてのノードでバックアップ設定ファイルの内容をデプロイメントします。
Web コンソールを使用した追加の Gluster ボリュームの作成
- Manager Web コンソールにログインします。
-
に移動し、 をクリックします。 -
Hosts タブで、未使用のディスクを持つ 3 つの異なる
ovirt-ng-nodes
を選択し、 をクリックします。 - Volumes タブで、作成するボリュームの詳細を指定し、 をクリックします。
- Bricks タブで、ボリュームの作成に使用するディスクの詳細を指定し、 をクリックします。
- Review タブで、生成された設定ファイルで誤った情報の有無を確認します。問題がなければ、 をクリックします。
-
Hosts タブで、未使用のディスクを持つ 3 つの異なる
次に、クラスターの互換バージョンを更新してください。
2.1.9. クラスターの互換バージョンの変更
Red Hat Virtualization のクラスターには互換バージョンがあります。クラスターの互換バージョンは、そのクラスター内のすべてのホストがサポートする Red Hat Virtualization の機能を示します。クラスターの互換バージョンは、そのクラスター内で最も機能性の低いホストオペレーティングシステムのバージョンに応じて設定されます。
前提条件
- クラスターの互換レベルを変更するには、まず、クラスター内のすべてのホストを更新して、必要な互換性レベルをサポートするレベルにする必要がある。更新が利用可能であることを示すアイコンがホストの横にあるかどうかを確認します。
制限事項
クラスター互換性レベルを 4.6 にアップグレードすると、VirtIO NIC は別のデバイスとして列挙されます。そのため、NIC の再設定が必要になる場合があります。Red Hat は、仮想マシンをテストするために、クラスターをアップグレードする前に仮想マシンでクラスター互換性レベルを 4.6 に設定し、ネットワーク接続を確認することを推奨します。
仮想マシンのネットワーク接続に失敗した場合は、クラスターをアップグレードする前に、現在のエミュレーションする仮想マシンに一致するカスタムのエミュレーションする仮想マシン (例: 4.5 互換バージョンの場合は pc-q35-rhel8.3.0) で仮想マシンを設定します。
手順
-
管理ポータルで、
をクリックします。 - 変更を行うクラスターを選択し、 をクリックします。
- General タブで Compatibility Version を必要な値に変更します。
- Change Cluster Compatibility Version の確認ダイアログが開きます。 をクリックします。
- をクリックして確定します。
一部の仮想マシンおよびテンプレートが不適切に設定されていることを警告するエラーメッセージが表示される場合があります。このエラーを修正するには、それぞれの仮想マシンを手動で編集します。Edit Virtual Machine ウィンドウには、修正が必要な項目を示す追加の検証および警告が表示されます。問題が自動的に修正され、仮想マシンの設定を再度保存するだけで十分な場合もあります。それぞれの仮想マシンを編集したら、クラスターの互換バージョンを変更することができます。
クラスター内の仮想マシンのクラスター互換バージョンを更新できるようになりました。
2.1.10. 仮想マシンのクラスター互換バージョンの変更
クラスターの互換バージョンを更新したら、実行中または一時停止中のすべての仮想マシンについてクラスターの互換バージョンを更新する必要があります。そのためには、管理ポータルから再起動するか、REST API を使用するか、ゲストオペレーティングシステム内から更新する必要があります。再起動が必要な仮想マシンには、変更が保留されていることを示すアイコン ( ) が付きます。
別途適切な時期に仮想マシンを再起動することもできますが、仮想マシンで最新の設定が使用されるように、直ちに再起動することを強く推奨します。再起動していない仮想マシンは以前の設定で動作し、さらに仮想マシンの設定が変更された場合には、保留中のクラスターの互換バージョンが上書きされる場合があります。
手順
-
管理ポータルで
をクリックします。 再起動が必要な仮想マシンを確認します。Vms: 検索バーに以下のクエリーを入力します。
next_run_config_exists=True
検索結果に、変更が保留中の仮想マシンがすべて表示されます。
- それぞれの仮想マシンを選択し、Restart をクリックします。あるいは、必要な場合は、仮想マシン自体から仮想マシンを再起動することができます。
仮想マシンが起動すると、新しい互換バージョンが自動的に適用されます。
プレビュー状態にある仮想マシンスナップショットについては、クラスターの互換バージョンを変更することができません。まずコミットするか、プレビューを取り消す必要があります。
次に、データセンターの互換バージョンを更新してください。
2.1.11. データセンターの互換バージョンの変更
Red Hat Virtualization データセンターには、互換バージョンがあります。互換バージョンとは、データセンターが互換性を持つ Red Hat Virtualization のバージョンを指します。データセンター内のクラスターは、すべて指定の互換性レベルをサポートする必要があります。
前提条件
- データセンターの互換レベルを変更するには、データセンター内のクラスターおよび仮想マシンの互換バージョンが、事前にすべて更新されている必要があります。
手順
-
管理ポータルで
をクリックします。 - 変更を行うデータセンターを選択し、 をクリックします。
- Compatibility Version を必要な値に変更します。
- Change Data Center Compatibility Version の確認ダイアログが開きます。 をクリックします。
- をクリックして確定します。