3.4. Red Hat OpenStack Platform 17.1.1 メンテナンスリリース (2023 年 9 月 20 日)


この RHOSP リリースをデプロイする場合は、以下に示す Red Hat OpenStack Platform (RHOSP) の更新を考慮してください。

3.4.1. アドバイザリーの一覧

この Red Hat OpenStack Platform (RHOSP) リリースには、次のアドバイザリーが含まれています。

RHBA-2023:5134
OSP 17.1 向けコンテナーのリリース
RHBA-2023:5135
OSP 17.1 向けコンポーネントのリリース
RHBA-2023:5136
OSP 17.1 向けコンテナーのリリース
RHBA-2023:5137
Red Hat OpenStack Platform 17.1 RHEL 9 デプロイメントイメージ
RHBA-2023:5138
OSP 17.1 向けコンポーネントのリリース

3.4.2. バグ修正

以下のバグは、Red Hat OpenStack Platform (RHOSP) の本リリースで修正されています。

BZ#2184834
この更新の前は、Block Storage API は、ボリューム作成リクエストでパラメーターを渡すことによって Block Storage マルチア接続ボリュームの作成をサポートしていました。しかし、このマルチ接続ボリュームの作成方法は安全ではなく、マルチ接続ボリュームをサポートしないバックエンドでマルチ接続ボリュームを作成した場合はデータ損失につながるため、削除するために非推奨となりました。openstackcinder CLI は、マルチ接続ボリュームタイプを使用したマルチ接続ボリュームの作成のみをサポートしていました。この更新により、Block Storage API は、マルチ接続ボリュームタイプを使用したマルチ接続ボリュームの作成のみをサポートします。したがって、以前は機能していた一部の Block Storage API リクエストは、400 (Bad Request) レスポンスコードとエラー内容のメッセージを表示して拒否されます。
BZ#2222543

今回の更新により、ブートストラップコントローラーノードの置き換え後に OVN データベース操作に悪影響を及ぼすバグが修正されました。この更新の前は、名前の再利用が原因で OVN データベース RAFT クラスターで問題が発生したため、元のブートストラップコントローラーノードのホスト名と IP アドレスを、代わりのコントローラーノードに使用できませんでした。

これで、交換用コントローラーノードに元のホスト名と IP アドレスを使用できるようになります。

BZ#2222589
この更新の前は、RHOSP 16.2 から 17.1 へのアップグレード中に、IPv6 を使用する director がデプロイされた Ceph Storage 環境で Red Hat Ceph Storage 4 から 5 にアップグレードすると、director アップグレードスクリプトの実行が停止しました。この問題は RHOSP 17.1.1 で解決されています。
BZ#2224527
この更新の前は、RADOS Gateway (RGW) が director によってデプロイされた Red Hat Ceph Storage の一部としてデプロイされている場合、次のスタック更新時に HAProxy が再起動しなかったため、RHOSP 16.2 から 17.1 へのアップグレード手順が失敗していました。この問題は Red Hat Ceph Storage 5.3.5 で解決され、RHOSP のアップグレードには影響しなくなりました。
BZ#2226366
この更新の前は、in-use の Red Hat Ceph Storage (RHCS) ボリュームを再入力して現在の場所とは異なるプールにボリュームを保存すると、データが破損または消失する可能性がありました。この更新により、Block Storage RHCS バックエンドでこの問題が解決されました。
BZ#2227199

この更新前は、OVN サービスプロバイダードライバーで負荷分散サービス (octavia) を使用していた RHOSP 17.1 環境では、Floating IP アドレス (FIP) のロードバランサーヘルスチェックにプロトコルポートが正しく設定されませんでした。FIP へのリクエストが、`ERROR` 状態にあるロードバランサーメンバーに誤って分散されました。

この更新により、この問題は解決され、Floating IP アドレス (FIP) の新しいロードバランサーヘルスチェックにプロトコルポートが適切に設定されるようになりました。この更新をデプロイする前にヘルスモニターを作成した場合は、それらを再作成してポートの問題を解決する必要があります。

BZ#2229750
この更新の前は、Block Storage ボリュームのバックアップを作成するときにアベイラビリティゾーン (AZ) を指定すると、AZ が無視され、バックアップが失敗する可能性がありました。今回の更新により、Block Storage バックアップサービスによってこの問題が解決されました。
BZ#2229761
この更新の前は、ovn_controllerovn_dbs のデプロイメント手順で競合状態が発生し、ovn_dbsovn_controller よりも前にアップグレードされていました。`ovn_controllerovn_dbs の前にアップグレードされない場合、新しいバージョンに再起動する前のエラーによりパケット損失が発生します。RHOSP 17.1.1 では、この問題は解決されました。
BZ#2229767
この更新の前は、RHOSP 16.2 から 17.1 へのアップグレード中に Red Hat Ceph Storage 4 を 5 にアップグレードすると、ceph-nfs-pacemaker に関連付けられたコンテナーがダウンしていたため、オーバークラウドのアップグレードが失敗し、共有ファイルシステムサービス (manila) に影響を与えていました。この問題は RHOSP 17.1.1 で解決されています。

3.4.3. 機能拡張

Red Hat OpenStack Platform (RHOSP) の本リリースでは、以下の機能拡張が提供されています。

BZ#2210151
RHOSP 17.1.1 では、RHOSP オーケストレーションサービス (heat) パラメーター FrrBgpAsn が、RHOSP 動的ルーティングを使用する RHOSP 17.1 環境のグローバルパラメーターとしてではなく、ロールごとに設定できるようになりました。
BZ#2229026

RHOSP 17.1.1 では、tripleo_frr_bgp_peers ロール固有パラメーターを使用して、ピアリングする Free Range Routing (FRR) の IP アドレスまたはホスト名のリストを指定できるようになりました。

  ControllerRack1ExtraGroupVars:
    tripleo_frr_bgp_peers: ["172.16.0.1", "172.16.0.2"]

3.4.4. テクノロジープレビュー

このセクションにリストされている項目は、Red Hat OpenStack Platform (RHOSP) の本リリースではテクノロジープレビューとして提供されています。テクノロジープレビューステータスのスコープに関する詳細情報およびそれに伴うサポートへの影響については、テクノロジープレビュー機能のサポート範囲 を参照してください。

BZ#1813561
今回の更新により、負荷分散サービス (octavia) は、Transport Layer Security (TLS) で有効になっているリスナーおよびプールに対して Application Layer Protocol Negotiation (ALPN) を使用することで、HTTP/2 負荷分散をサポートします。HTTP/2 プロトコルは、ページの読み込みを高速化することでパフォーマンスを向上させます。
BZ#1848407
RHOSP 17.1 では、負荷分散サービス (octavia) における Stream Control Transmission Protocol (SCTP) のテクノロジープレビューが利用可能です。ユーザーは、SCTP リスナーを作成し、ロードバランサーに SCTP プールを接続できます。
BZ#2211796

このリリースには、カスタムルーターフレーバーを定義し、カスタムルーターフレーバーを使用してルーターを作成するために使用できるオプション機能のテクノロジープレビュー機能が含まれています。

詳細は、ルーターフレーバーを使用したカスタム仮想ルーターの作成 参照してください。

BZ#2217663
RHOSP 17.1 では、オフロードされたトラフィック/フローの NIC ハードウェアにおける負荷分散を可能にする VF-LAG 送信ハッシュポリシーをオフロードするテクノロジープレビューが利用可能です。このハッシュポリシーは、レイヤー 3+4 のベースハッシュでのみ使用できます。

3.4.5. 既知の問題

現時点における Red Hat OpenStack Platform (RHOSP) の既知の問題は以下のとおりです。

BZ#2108212

OVN メカニズムドライバーへの移行中に IPv6 を使用してインスタンスに接続する場合、ML2/OVS サービスが停止すると、インスタンスへの接続が最大数分間中断される可能性があります。

IPv6 のルーターアドバタイズメントデーモン radvd は、OVN メカニズムドライバーへの移行中に停止します。radvd が停止している間、ルーターアドバタイズメントはブロードキャストされません。このブロードキャストの中断により、IPv6 経由のインスタンス接続が失われます。新しい ML2/OVN サービスが開始されると、IPv6 通信は自動的に復元されます。

回避策: 中断の発生を回避するには、代わりに IPv4 を使用してください。

BZ#2126725
ハードコーディングされた証明書の場所は、ユーザーが指定した値に依存せず動作します。カスタム証明書の場所を使用してデプロイする間は Transport Layer Security (TLS) 検証が失敗するため、サービスは API エンドポイントから情報を取得しません。
BZ#2144492
分散仮想ルーティング (DVR) を備えた RHOSP 17.1.0 ML2/OVS デプロイメントを ML2/OVN に移行する場合、ML2/OVN の移行中に発生する Floating IP (FIP) のダウンタイムが 60 秒を超える可能性があります。
BZ#2151290

RHOSP 17.1.1 では、director を使用して親の NS レコードと一致するように NS レコードを自動的に設定できません。回避策: 自動化された回避策が将来のリリースで提供されるまで、管理者はアンダークラウドの /usr/share/ansible/roles/designate_bind_pool/templates/ にあるオーケストレーションサービス (heat) テンプレートファイルを手動で変更できます。Jinja テンプレート pools.yaml.j2 で、ns_records を含む行に続くコードを次の空行 (13 - 16 行目) まで削除し、そのインフラストラクチャーに適切な値を挿入します。最後に、管理者はオーバークラウドを再デプロイする必要があります。

  ns_records:
    - hostname: ns1.desiexample.com
      priority: 1
    - hostname: ns2.desiexample.com
      priority: 2
BZ#2160481

BGP 動的ルーティングを使用する RHOSP 17.1 環境では、現在、Floating IP (FIP) ポート転送が失敗するという既知の問題があります。

FIP ポート転送が設定されている場合、FIP と同じ宛先 IP を持つ特定の宛先ポートに送信されたパケットは、RHOSP Networking サービス (neutron) ポートから内部 IP にリダイレクトされます。これは、使用されているプロトコル (TCP、UDP など) に関係なく発生します。

BGP 動的ルーティングが設定されている場合、FIP ポート転送の実行に使用される FIP へのルートは公開されず、これらのパケットは最終的な宛先に到達できません。

現在、回避策はありません。

BZ#2163477
現在、BGP 動的ルーティングを使用する RHOSP 17.1 環境には、プロバイダーネットワークに接続されているインスタンスに影響を与える既知の問題があります。RHOSP Compute サービスは、これらのインスタンスのいずれかからマルチキャスト IP アドレス宛に送信されたパケットをルーティングできません。したがって、マルチキャストグループに登録されているインスタンスは、送信されたパケットを受信できません。原因は、BGP マルチキャストルーティングがオーバークラウドノードで適切に設定されていないことです。現在、回避策はありません。
BZ#2167428

RHOSP 17.1.1 では、新規デプロイメント中に、agent-notification サービスの初期化中に RHOSP Identity サービス (keystone) が利用できない場合が多いという既知の問題があります。これにより、ceilometer が gnocchi エンドポイントを検出できなくなります。その結果、メトリクスは gnocchi に送信されません。

回避策: コントローラーノードで agent-notification サービスを再起動します。

$ sudo systemctl restart tripleo_ceilometer_agent_notification.service
BZ#2178500
nova-manage CLI の使用時にボリュームの更新が失敗すると、インスタンスがロック状態のままになります。
BZ#2180542

Pacemaker によって制御される ceph-nfs リソースには、一部のプロセスデータを保存するためのランタイムディレクトリーが必要です。このディレクトリーは、RHOSP をインストールまたはアップグレードするときに作成されます。現在、コントローラーノードを再起動するとディレクトリーが削除され、コントローラーノードを再起動しても ceph-nfs サービスは回復しません。すべてのコントローラーノードが再起動されると、ceph-nfs サービスは永続的に失敗します。

回避策: コントローラーノードを再起動する場合は、コントローラーノードにログインして /var/run/ceph ディレクトリーを作成します。

$ mkdir -p /var/run/ceph

再起動されたすべてのコントローラーノードでこの手順を繰り返します。ceph-nfs-pacemaker サービスが失敗としてマークされている場合は、ディレクトリーを作成した後、いずれかのコントローラーノードから以下のコマンドを実行します。

$ pcs resource cleanup

BZ#2180883

現在、Logrotate がすべてのログファイルを 1 日 1 回アーカイブすると、rsyslog は Elasticsearch へのログの送信を停止します。

回避策: Rsyslog がログローテーション時にすべてのログファイルを再度開くように、デプロイメント中に環境ファイルに "RsyslogReopenOnTruncate: true" を追加します。

現在、RHOSP 17.1 には puppet-rsyslog モジュールが同梱されているため、director で rsyslog が正しく設定されません。

回避策: デプロイする前に、/usr/share/openstack-tripleo-heat-templates/deployment/logging/rsyslog-container-puppet.yaml のパッチ [1] を手動で適用して Rsyslog を正しく設定します。

[1] https://github.com/openstack/tripleo-heat-templates/commit/ce0e3a9a94a4fce84dd70b6098867db1c86477fb

BZ#2192913

DVR が有効で VLAN テナントネットワークを使用する ML2/OVN または ML2/OVS を備えた RHOSP 環境では、異なるテナントネットワークに接続されたインスタンス間の East/West トラフィックがファブリックにフラッディングされます。

その結果、それらのインスタンス間のパケットは、それらのインスタンスが実行されている Compute ノードだけでなく、他のオーバークラウドノードにも到達します。

これはネットワークに影響を与える可能性があり、ファブリックがトラフィックをあらゆる場所に送信するため、セキュリティー上のリスクとなる可能性があります。

このバグは、今後の FDP リリースで修正される予定です。FDP 修正を入手するために RHOSP 更新を実行する必要はありません。

BZ#2196291
現在、カスタム SRBAC ルールは管理者以外のユーザーにリストポリシールールを許可していません。その結果、管理者以外のユーザーはこれらのルールの一覧表示や管理を行えません。現在の回避策としては、SRBAC を無効にする、またはこのアクションを許可するように SRBAC カスタムルールを変更する、などがあります。
BZ#2203785
現在、ベアメタルノードを再起動すると collectd sensubility が機能しなくなるという権限の問題があります。その結果、sensubility はコンテナーの正常性を報告しなくなります。回避策: オーバークラウドノードを再起動した後、ノード上で sudo podman exec -it collectd setfacl -R -m u:collectd:rwx /run/podman コマンドを手動で実行します。
BZ#2210319

現在、RHEL 9.2 の Retbleed 脆弱性軽減策により、Intel Skylake CPU 上の Data Plane Development Kit (OVS-DPDK) を使用した Open vSwitch のパフォーマンスが低下する可能性があります。

パフォーマンスの低下は、BIOS で C-states が無効、およびハイパースレッディングが有効になっており、さらに OVS-DPDK が特定のコアのハイパースレッドを 1 つだけ使用している場合にのみ発生します。

回避策: NFV 設定ガイドで推奨されているように、コアの両方のハイパースレッドを OVS-DPDK または DPDK が実行されている SRIOV ゲストに割り当てます。

BZ#2210873
RHOSP 17.1.1 Red Hat Ceph Storage (RHCS) 環境では、assimilate.conf not found エラーを表示して、クラッシュルールの設定が失敗します。この問題は、今後の RHOSP リリースで修正される予定です。
BZ#2213126

セキュリティーグループの過剰なログエントリーをバッファーするロギングキューは、指定された制限に達する前にエントリーの受け入れを停止することがあります。回避策として、キューの長さを保持したいエントリー数よりも長く設定できます。

NeutronOVNLoggingRateLimit パラメーターを使用して、1 秒あたりのログエントリーの最大数を設定できます。ログエントリーの作成がそのレートを超える場合、超過分は NeutronOVNLoggingBurstLimit で指定したログエントリー数までキューにバッファーされます。

この問題は、バーストの最初の 1 秒で特に顕著です。60 秒などの長いバーストでは、レート制限の影響が大きくなり、バースト制限の不正確さを補填します。したがって、この問題は短いバーストに最大の比例負荷をもたらします。

回避策: NeutronOVNLoggingBurstLimit をターゲット値よりも高い値に設定します。経過を観察し、必要に応じて調整します。

BZ#2213742

UDP プールの TCP ヘルスモニターは、モニターで使用されるポート番号によっては期待どおりに動作しない場合があります。また、プールメンバーとヘルスモニターのステータスも正しくありません。これは、UDP プールの特定のポート番号で TCP ヘルスモニターの使用を妨げる SELinux ルールが原因で発生します。

回避策 (ある場合): 現時点では回避策はありません。

BZ#2216021

OVN メカニズムドライバーを備えた RHOSP 17.1 は、ポートごとのフローイベントのロギングや、network log create コマンドの --target オプションの使用をサポートしていません。

RHOSP 17.1 は、network log create コマンドの --resource オプションを使用して、セキュリティーグループごとのフローイベントのロギングをサポートします。RHOSP によるネットワーク の「セキュリティーグループアクションのログ記録」を参照してください。

BZ#2216130
現在、puppet-ceilometer は、Compute ノード上のデータ収集サービス (ceilometer) 設定の tenant_name_discovery パラメーターを設定しません。これにより、Project name フィールドと User name フィールドが識別されません。現在、この問題に対する回避策はありません。
BZ#2217867
現在、ハードウェアオフロードを使用する場合、Nvidia ConnectX-5 および ConnectX-6 NIC に既知の問題があり、PF 上の一部のオフロードフローが関連する VF で一時的なパフォーマンスの問題を引き起こす可能性があります。この問題は、特に LLDP および VRRP トラフィックで発生します。
BZ#2218596
元の ML2/OVS 環境で iptables_hybrid ファイアウォールおよびトランクポートを使用している場合は、OVN メカニズムドライバーに移行しないでください。移行された環境では、ハードリブート、起動と停止、ノードのリブートなどのイベント後にトランクを使用してインスタンスを再作成すると、インスタンスネットワークの問題が発生します。回避策として、移行前に iptables ハイブリッドファイアウォールから OVS ファイアウォールに切り替えることができます。
BZ#2219574
データ収集サービス (ceilometer) はデフォルトのキャッシュバックエンドを提供しないため、メトリクスのポーリング時に一部のサービスが過負荷になる可能性があります。
BZ#2219603

RHOSP 17.1 GA では、セキュアなロールベースのアクセス制御 (sRBAC) が有効になっている場合、DNS サービス (designate) が誤って設定されます。現在の sRBAC ポリシーには、designate に関する誤ったルールが含まれているため、designate が正しく機能するには修正する必要があります。考えられる回避策は、アンダークラウドサーバーに次のパッチを適用し、オーバークラウドを再デプロイすることです。

https://review.opendev.org/c/openstack/tripleo-heat-templates/+/888159

BZ#2219613
RHOSP 17.1 分散仮想ルーター (DVR) 環境では、DOWN ステータスのポートに対して external_mac 変数が不適切に削除され、その結果、トラフィックが短期間集中化されます。
BZ#2219830

RHOSP 17.1 には一時的なパケット損失の既知の問題があり、ハードウェア割り込み要求 (IRQ) が原因で OVS-DPDK PMD スレッドまたは DPDK アプリケーションを実行しているゲストで非自発的なコンテキストスイッチが発生します。

この問題は、デプロイメント中に多数の VF をプロビジョニングすると発生します。VF には IRQ が必要で、それぞれが物理 CPU にバインドされている必要があります。IRQ の容量を処理するのに十分なハウスキーピング CPU がない場合、irqbalance はすべての IRQ のバインドに失敗し、分離された CPU で IRQ がオーバーフローします。

回避策: 次のアクションを 1 つ以上試してください。

  • 未使用の VF がデフォルトの Linux ドライバーにバインドされたままになるのを避けるために、プロビジョニングされた VF の数を減らします。
  • すべての IRQ を処理できるように、ハウスキーピング CPU の数を増やします。
  • IRQ が分離された CPU に割り込むのを避けるために、未使用の VF ネットワークインターフェイスを強制的にダウンします。
  • IRQ が分離された CPU に割り込むのを避けるために、未使用のダウンした VF ネットワークインターフェイス上のマルチキャストトラフィックとブロードキャストトラフィックを無効にします。
BZ#2220808
RHOSP 17.1 には、データ収集サービス (ceilometer) がエアフローメトリクスを報告しないという既知の問題があります。この問題は、データ収集サービスに gnocchi リソース型 hardware.ipmi.fan が欠落しているために発生します。現在、回避策はありません。
BZ#2220887
データ収集サービス (ceilometer) は、個別の電源および電流メトリクスをフィルタリングしません。
BZ#2220930

DNS サービス (designate) を実行する RHOSP 17.1 では、設定が変更された場合に、bind9 サービスと unbound サービスが再起動されないという既知の問題があります。

回避策: 各コントローラーで次のコマンドを実行して、コンテナーを手動で再起動します。

$ sudo systemctl restart tripleo_designate_backend_bind9
$ sudo systemctl restart tripleo_unbound
BZ#2222420

RHOSP DNS サービス (designate) を実行する IPv6 ネットワークを使用する RHOSP 17.1.1 環境では、BIND 9 バックエンドサーバーが DNS 通知メッセージを拒否する可能性があります。この問題は、同じインターフェイス上の同じネットワークに複数の IP アドレスが存在することが多く、メッセージが指定されたワーカーサービス以外のソースから発信されているように見えることが原因で発生します。

回避策: 以下のパッチを適用します。

BZ#2222683

現在、以下のデプロイメントアーキテクチャーでは Multi-RHEL はサポートされていません。

  • Edge (DCN)
  • ShiftOnStack
  • director Operator ベースのデプロイメント

    回避策: 上記にリストされているアーキテクチャーのいずれかを運用する場合は、RHOSP デプロイメント全体で単一の RHEL バージョンを使用してください。

BZ#2223294

RHOSP 16.2 から 17.1 GA へのインプレースアップグレードを実行する際の既知の問題があります。収集エージェント collectd-sensubility は、RHEL 8 Compute ノードで実行できません。

回避策: 影響を受けるノードでファイル /var/lib/container-config-scripts/collectd_check_health.py を編集し、26 行目の "healthy: .State.Health.Status}""healthy: .State.Healthcheck.Status}"/ に置き換えます。

BZ#2223916

ML2/OVN メカニズムドライバーを使用する RHOSP 17.1 GA 環境では、Floating IP ポート転送が正しく機能しないという既知の問題があります。この問題は、FIP 使用時に VLAN およびフラットネットワークが north-south ネットワークトラフィックを分散させ、代わりに FIP ポート転送をコントローラーノードまたはネットワーカーノードに集中させる必要があるために発生します。

回避策: この問題を解決し、集中型ゲートウェイノード経由で FIP ポート転送を強制するには、RHOSP オーケストレーションサービス (heat) パラメーター NeutronEnableDVRfalse に設定するか、VLAN またはフラットプロジェクトネットワークの代わりに Geneve を使用します。

BZ#2224236

この RHOSP リリースには、iavf ドライバーで Intel X710 および E810 シリーズのコントローラー仮想機能 (VF) を使用する SR-IOV インターフェイスで、リンクステータスのフラッピングを伴うネットワーク接続の問題が発生する可能性があるという既知の問題があります。影響を受けるゲストカーネルのバージョンは次のとおりです。

  • RHEL 8.7.0 8.7.3 (修正の予定はありません。ライフサイクル終了。)
  • RHEL 8.8.0 8.8.2 (バージョン 8.8.3 で修正予定)
  • RHEL 9.2.0 9.2.2 (バージョン 9.2.3 で修正予定)
  • Upstream Linux 4.9.0 6.4.* (バージョン 6.5 で修正予定)

    回避策: 影響を受けないゲストカーネルを使用する以外の回避策はありません。

BZ#2225205
Fast Forward Upgrade (FFU) 手順の実行中に、古いアップグレードオーケストレーションロジックが既存の Pacemaker 認証キーをオーバーライドし、インスタンス HA が有効になっている場合は Pacemaker が Compute ノードで実行されている pacemaker_remote に接続できなくなります。その結果、アップグレードは失敗し、Compute ノードで実行されている pacemaker_remote は中央クラスターからアクセスできなくなります。インスタンス HA が設定されている場合に FFU を実行する方法については、Red Hat サポートにお問い合わせください。
BZ#2227360
NetApp NFS ドライバーのイメージキャッシュクリーンアップタスクにより、他の Block Storage サービスで予期しない速度低下が発生する可能性があります。現在、この問題に対する回避策はありません。
BZ#2229937
collectd sensubility で送信者の作成に失敗しても、送信者へのリンクは閉じられません。長時間実行されているオープンリンクに障害が発生すると、バス内で問題が発生し、collectd sensubility が動作しなくなる可能性があります。回避策: 影響を受けるオーバークラウドノードで collectd コンテナーを再起動して、collectd sensubility を回復します。
BZ#2231378
Block Storage (cinder) バックアップサービスリポジトリーのバックエンドとして Red Hat Ceph Storage を選択した場合、バックアップされたボリュームは RBD ベースの Block Storage バックエンドにしか復元できません。現在、この問題に対する回避策はありません。
BZ#2231893

メタデータエージェントが誤動作している HAProxy 子コンテナーを起動しようとして複数回失敗すると、メタデータサービスが利用できなくなることがあります。メタデータエージェントは、`ProcessExecutionError: Exit code: 125; Stdin: ; Stdout: Starting a new child container neutron-haproxy-ovnmeta-<uuid>” のようなエラーメッセージをログに記録します。

回避策: podman kill <_container name_> を実行して、問題のある haproxy 子コンテナーを停止します。

BZ#2231960
Block Storage ボリュームが Red Hat Ceph Storage バックエンドを使用している場合、このボリュームからスナップショットが作成され、そのスナップショットからボリュームクローンが作成されると、ボリュームを削除できません。この場合、ボリュームクローンが存在する間は元のボリュームを削除できません。
BZ#2232562

OVNAvailabilityZone Role パラメーターは予想通りに認識されないため、OVN でアベイラビリティーゾーン設定が失敗します。

回避策: OVNCMSOptions パラメーターを使用して、OVN アベイラビリティゾーンを設定します。以下に例を示します。

ControllerParameters:
  OVNCMSOptions: 'enable-chassis-as-gw,availability-zones=az1'
BZ#2233487
RHOSP 動的ルーティングを使用する RHOSP 17.1 GA 環境では、OVN プロバイダードライバーと RHOSP 負荷分散サービスを使用してロードバランサーを作成すると、作成に失敗する可能性があります。これは、コントローラーノード間でレイテンシーが発生すると失敗する可能性があります。回避策はありません。
BZ#2235621
アップグレード Playbook に podman レジストリーログインタスクが含まれていないため、registry.redhat.io からイメージをプルすると、16.2 から 17.1 への RHOSP アップグレードが失敗します。ホットフィックスについては、Red Hat サポート担当者にお問い合わせください。今後の RHOSP リリースで修正が行われる予定です。
BZ#2237245

動的ルーティングを使用する RHOSP 17.1 環境では、RHOSP 17.1.1 への更新が正しく機能しません。具体的には、Free Range Routing (FRR) コンポーネントは更新されません。

回避策: RHOSP 17.1 を更新する前に、アンダークラウドに次のパッチを適用します。

BZ#2237251

ヘルスモニターを備えた OVN プロバイダードライバーで負荷分散サービス (octavia) を使用する RHOSP 17.1.1 環境では、プールの負荷分散ステータスで偽りのメンバーが誤って ONLINE と表示されます。ヘルスモニターが使用されていない場合、ステータスが偽りのメンバーは NO_MONITOR という通常の動作を表示します。

偽りの負荷分散プールメンバーは、メンバーの IP アドレスにタイプミスがある場合など、メンバーが無効な場合に発生する可能性があります。プールに設定されたヘルスモニターは偽りのメンバーに対してヘルスチェックを実行せず、グローバル動作ステータスはプールのステータスを計算するときに偽りのメンバーを誤って ONLINE と見なします。さらに、プール内の他のすべてのメンバーが ERROR 動作ステータスにある場合、プールのメンバーは誤った ONLINE ステータスを持つ偽りのメンバーであるため、プールには ERROR ではなく誤った DEGRADED 動作ステータスが割り当てられます。

回避策: 現時点では、この問題に対する回避策はありません。

BZ#2237290

ネットワークサービス (neutron) では、ネットワークプロファイルがルーターによって使用されているフレーバーの一部である場合でも、ネットワークプロファイルを無効にしたり削除したりすることができます。プロファイルを無効化または削除すると、ルーターの適切な動作が中断される可能性があります。

回避策: ネットワークプロファイルを無効化または削除する前に、そのプロファイルが現在ルーターで使用されているフレーバーの一部ではないことを確認してください。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.