4.13 リリースノート
機能および拡張機能、既知の問題、その他の重要なリリース情報についてのリリースノート
概要
多様性を受け入れるオープンソースの強化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat ドキュメントへのフィードバック (英語のみ) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があれば、ぜひお知らせください。フィードバックをお寄せいただくには、以下をご確認ください。
特定の部分についての簡単なコメントをお寄せいただく場合は、以下をご確認ください。
- ドキュメントの表示が Multi-page HTML 形式になっていていることを確認してください。ドキュメントの右上隅に Feedback ボタンがあることを確認してください。
- マウスカーソルを使用して、コメントを追加するテキストの部分を強調表示します。
- 強調表示されたテキストの下に表示される Add Feedback ポップアップをクリックします。
- 表示される指示に従ってください。
より詳細なフィードバックをお寄せいただく場合は、Bugzilla のチケットを作成してください。
- Bugzilla の Web サイトに移動します。
- Component セクションで、documentation を選択します。
- Description フィールドに、ドキュメントの改善に向けたご提案を記入してください。ドキュメントの該当部分へのリンクも記載してください。
- Submit Bug をクリックします。
第1章 概要 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation は、コンテナー環境向けに最適化されたソフトウェア定義のストレージです。このソフトウェアは、OpenShift Container Platform の Operator として実行されるため、コンテナーの永続ストレージ管理を高度に統合し、簡素化できます。
Red Hat OpenShift Data Foundation は、最新の Red Hat OpenShift Container Platform に統合されており、プラットフォームサービス、アプリケーションの移植性、永続性の課題に対応します。また、Red Hat Ceph Storage、Rook.io Operator および NooBaa’s Multicloud Object Gateway などのテクノロジースタックに構築された、次世代のクラウドネイティブアプリケーションに対して、非常にスケーラブルなバックエンドを提供します。
Red Hat OpenShift Data Foundation は、数多くの方法でアプリケーションのライフサイクル全体におけるユーザーエクスペリエンスを単純化し、強化する、信頼できるエンタープライズクラスのアプリケーション開発環境を提供します。
- データベースのブロックストレージを提供します。
- 継続的な統合、メッセージングおよびデータ集約のための共有ファイルストレージ。
- クラウドファースト開発、アーカイブ、バックアップ、およびメディアストレージ用のオブジェクトストレージ。
- アプリケーションとデータの飛躍的なスケーリングが可能です。
- 永続データボリュームの割り当てと割り当て解除を加速的に実行します。
- 複数のデータセンターまたはアベイラビリティーゾーンにクラスターを拡張します。
- 包括的なアプリケーションコンテナーレジストリーを確立します。
- データアナリティクス、人工知能、機械学習、ディープラーニング、および IoT (モノのインターネット) などの次世代の OpenShift ワークロードをサポートします。
- アプリケーションコンテナーだけでなく、データサービスボリュームおよびコンテナー、さらに追加の OpenShift Container Platform ノード、Elastic Block Store (EBS) ボリュームおよびその他のインフラストラクチャーサービスを動的にプロビジョニングします。
1.1. このリリースについて リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation 4.13 (RHBA-2023:3734 および RHSA-2023:3742) が利用可能になりました。以下では、OpenShift Data Foundation 4.13 に関連する新たな拡張機能、新機能、および既知の問題について説明します。
Red Hat OpenShift Data Foundation 4.13 は、Red Hat OpenShift Container Platform バージョン 4.13 でサポートされます。詳細は、Red Hat OpenShift Data Foundation Supportability and Interoperability Checker を参照してください。
Red Hat OpenShift Data Foundation のライフサイクル情報は、Red Hat OpenShift Container Platform ライフサイクルポリシー で、階層化された製品 (および依存関係のある製品) ライフサイクルのセクションを参照してください。
第2章 新機能 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.13 で導入された新機能について説明します。
2.1. ストレッチクラスターソリューションを使用した障害復旧の一般提供 リンクのコピーリンクがクリップボードにコピーされました!
今回のリリースにより、ストレッチクラスターを使用した障害復旧が一般提供されるようになりました。高可用性ストレッチクラスターのソリューションでは、単一クラスターが 2 つのゾーンに展開され、3 番目のゾーンが arbiter の場所として使用されます。このソリューションは、OpenShift Container Platform オンプレミスデータセンターにデプロイされます。このソリューションは、ゾーン間の遅延が 5 ミリ秒を超えない場所に導入されるように設計されています。メインのオンプレミスデータセンターにある 2 つのゾーン間の最大ラウンドトリップ時間 (RTT) は 10 ミリ秒です。
詳細は、OpenShift Data Foundation のストレッチクラスターを使用した障害復旧 を参照してください。
2.2. ネットワークファイルシステムのサポートの一般提供 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation は、Mac と Windows OS を除く任意のオペレーティングシステム (OS) で実行されている内部または外部アプリケーションの Network File System (NFS) サービスをサポートします。NFS サービスは、Red Hat Gluster Storage ファイルシステムから OpenShift 環境へのデータ移行など、任意の環境から OpenShift 環境へのデータ移行を支援します。
詳細は、NFS を使用したエクスポートの作成 を参照してください。
2.3. OpenShift Data Foundation の転送暗号化の有効化サポート リンクのコピーリンクがクリップボードにコピーされました!
今回のリリースでは、OpenShift Data Foundation は、ネットワークおよびシステムを介したすべてのデータの移行を暗号化することで、ネットワーク操作を保護するようにセキュリティーが強化されます。強化されたセキュリティーは、Ceph の messenger v2 プロトコルを介して転送時に暗号化を使用して提供されます。
転送暗号化で を有効にする方法の詳細は、プラットフォームに基づく OpenShift Data Foundation のデプロイ ガイドを参照してください。
2.4. Azure Red Hat OpenShift のサポート リンクのコピーリンクがクリップボードにコピーされました!
今回のリリースでは、Red Hat OpenShift 上の Microsoft Azure (Azure で管理される OpenShift プラットフォーム) で管理対象外の OpenShift Data Foundationを使用できます。ただし、OpenShift 4.12、4.13 バージョンは Red Hat OpenShift 上の Azure ではまだ利用できないことに注意してください。そのため、ここでのサポートは OpenShift Data Foundation 4.10 および 4.11 のみを対象としています。
詳細は、Microsoft Azure および Azure Red Hat OpenShift を使用した OpenShift Data Foundation 4.10 のデプロイ および Microsoft Azure および Azure Red Hat OpenShift を使用した OpenShift Data Foundation 4.11 のデプロイ を参照してください。
2.5. OpenShift のサポート対象プラットフォーム上でプラットフォームに依存しない OpenShift Data Foundation のデプロイメントをサポート リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、OpenShift Data Foundation のシームレスなデプロイメントとアップグレードのための柔軟なホスティング環境をサポートおよび提供します。
詳細は、任意のプラットフォームへの OpenShift Data Foundation のデプロイ を参照してください。
2.6. ベアメタルインフラストラクチャーを使用した OpenShift Data Foundation のインストーラープロビジョニングインフラストラクチャー (IPI) のデプロイメントをサポート リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、ベアメタルインフラストラクチャーを使用した OpenShift Data Foundation のインストーラープロビジョニングインフラストラクチャーデプロイメントが完全にサポートされています。
詳細は、ベアメタルインフラストラクチャーを使用した OpenShift Data Foundation のデプロイ および ストレージのスケーリング を参照してください。
2.7. OpenShift コンソールの OpenShift Data Foundation トポロジー リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation トポロジーを使用すると、管理者は、重要なクラスターのインタラクションやクラスター全体の正常性に関する可観測性をすぐに得られます。これにより、顧客エクスペリエンスが向上し、運用を合理化して OpenShift Data Foundation の機能を効果的に最大限まで活用できるようにします。
詳細は、プラットフォームに基づいた OpenShift Data Foundation デプロイ ガイドの OpenShift Data Foundation トポロジーの表示 セクションを参照してください。
2.8. 永続ボリューム暗号化の一般提供 - namespace ごとのサービスアカウント リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation は、Kubernetes サービスアカウントトークンを使用して Vault で認証するために、全 OpenShift Container Platform namespace のサービスアカウントにアクセスできるようになりました。したがって、サービスアカウントは、永続ボリュームを暗号化する KMS 認証に使用されます。
詳細は、データ暗号化オプション および vaulttenantsa を使用した KMS へのアクセスの設定 を参照してください。
2.9. IPv4 を使用した ODF による OpenShift デュアルスタックのサポート リンクのコピーリンクがクリップボードにコピーされました!
Openshift Data Foundation シングルスタックでは、IPv4 または IPv6 のいずれかを使用できます。OpenShift がデュアルスタックで設定されている場合に、OpenShift Data Foundation は IPv4 を使用し、この組み合わせがサポートされます。
詳細は、ネットワーク要件 を参照してください。
2.10. バケットレプリケーションの削除のサポート リンクのコピーリンクがクリップボードにコピーされました!
バケットレプリケーションポリシーを作成するときに、削除を有効にするオプションが追加されました。これにより、ソースバケットからデータが削除されると、宛先バケットからもデータが削除されます。この機能にはログベースのレプリケーションが必要ですが、現在これは AWS を使用する場合のみサポートされています。
詳細は、バケットレプリケーションの削除の有効化 を参照してください。
2.11. 障害復旧監視ダッシュボード リンクのコピーリンクがクリップボードにコピーされました!
この機能は、以下のような障害復旧 (DR) レプリケーションの関係の正常性を理解するための参考情報を提供します。
- アプリケーションレベルの DR 正常性
- クラスターレベルの DR 正常性
- フェイルオーバーおよび再配置の操作ステータス
- レプリケーションラグステータス
- アラート
詳細は、障害復旧の正常性の監視 を参照してください。
第3章 機能拡張 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data foundation 4.13 で導入された主な拡張機能について説明します。
3.1. デプロイメント中の Multicloud Object Gateway 外部サービスの無効化 リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、コマンドラインインターフェイス (CLI) を使用して、Multicloud Object Gateway ロードバランサーサービスを使用せずに OpenShift data Foundation をデプロイするオプションがあります。storagecluster CRD で disableLoadBalancerService 変数を使用する必要があります。これにより、セキュリティーが強化され、サービスがクラスターの外部に公開されなくなります。
詳細については、ナレッジベース記事 Install Red Hat OpenShift Data Foundation (previously known as OpenShift Container Storage) 4.X in internal mode using command line interface および OpenShift Data Foundation のデプロイ後の Multicloud Object Gateway 外部サービスの無効化 を参照してください。
3.2. 可観測性を強化するネットワークファイルシステムメトリック リンクのコピーリンクがクリップボードにコピーされました!
ネットワークファイルシステム (NFS) メトリックダッシュボードは、次のような NFS マウントの可観測性を提供します。
- エクスポートされた NFS 共有のマウントポイント
- クライアントマウントの数
- 接続しているクライアントの内訳統計。内部と外部クライアントのマウントを決定するのに役立ちます。
- Ganesha サーバーの猶予期間のステータス
- Ganesha サーバーの正常性ステータス
詳細は、ネットワークファイルシステムのメトリック を参照してください。
3.3. 問題のあるブロックリストノードのレポートを改善するためのメトリック リンクのコピーリンクがクリップボードにコピーされました!
今回の機能強化により、ワーカーノード上のブロックリストに登録されたカーネル RBD クライアントについて通知するアラートが OpenShift Web コンソールに表示されます。こちらの機能で、発生する可能性のある運用上の問題や、トラブルシューティングにかかる時間を短縮するのに役立ちます。
3.4. Rook でラベル付きパフォーマンスカウンターを使用した Ceph エクスポーターの有効化 リンクのコピーリンクがクリップボードにコピーされました!
この機能強化により、Ceph エクスポータが Rook で有効になり、rbd-mirror メトリックのラベル付きパフォーマンスカウンターが提供されるため、より多くのイメージのスケーラビリティーが強化されます。
3.5. Multicloud Object Gateway バッキングストア用の新しい Amazon Web Services (AWS) リージョン リンクのコピーリンクがクリップボードにコピーされました!
今回の機能拡張により、最近 AWS に追加された新しいリージョンが、Multicloud Object Gateway バッキングストアのリージョンのリストに含まれるようになりました。その結果、デフォルトのバッキングストアを新規リージョンにデプロイできるようになりました。
3.6. アンダースコアまたはピリオドを使用した RBD プール名の許可 リンクのコピーリンクがクリップボードにコピーされました!
以前のリリースでは、RADOS ブロックデバイス (RBD) プール名にアンダースコア (_) またはピリオド (.) が含まれている場合、外部 Ceph クラスターを使用して OpenShift Data Foundation でストレージシステムを作成すると失敗していました。
今回の修正により、Python スクリプト (ceph-external-cluster-details-exporter.py) が拡張され、RBD プール名のエイリアスを渡すことができるようにアンダースコアとピリオドを追加できるようになりました。このエイリアスを使用すると、OpenShift Data Foundation はアンダースコア (_) またはピリオド (.) を含む RBD プール名を持つ外部 Ceph クラスターを採用できるようになります。
3.7. 障害ドメインの数に一致するように OSD レプリカを設定 リンクのコピーリンクがクリップボードにコピーされました!
以前のリリースでは、レプリカの数が障害ドメインの数と一致しない場合に、バランスが取れなくなっていました。
この機能強化により、OSD レプリカが障害ドメインの数と一致するように設定されるため、不均衡が回避されます。たとえば、クラスターが 4 つのノードを持つ 4 ゾーンクラスターにデプロイされる場合、4 つの OSD レプリカが作成されます。
3.8. デフォルトのパーミッションおよび FSGroupPolicy の変更 リンクのコピーリンクがクリップボードにコピーされました!
新規に作成されたボリュームのパーミッションは、777 ではなく、よりセキュアな 755 にデフォルト設定されるようになりました。FSGroupPolicy が (ODF 4.11 の ReadWriteOnceWithFSType ではなく) File に設定され、アプリケーションが FSGroup に基づいてボリュームにアクセスできるようになりました。これにより、Pod の SecurityPolicy でユーザーが要求した fsGroup と一致するように、Kubernetes が fsGroup を使用してボリュームの権限と所有権を変更しています。
膨大な数のファイルを含む既存のボリュームは、アクセス許可と所有権の変更に時間がかかるため、マウントに時間がかかることがあります。
詳細は、こちらの ナレッジベースソリューション を参照してください。
第4章 テクノロジープレビュー リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、テクノロジープレビューのサポート制限に基づいて、Red Hat OpenShift Data Foundation 4.13 で導入されたテクノロジープレビュー機能について説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。
テクノロジープレビュー機能は、カスタマーポータルの テクノロジープレビュー機能のサポート範囲 で詳細に説明されているように制限されたサポート範囲で提供されます。
4.1. RADOS ブロックデバイスのリージョン障害復旧 リンクのコピーリンクがクリップボードにコピーされました!
地域 DR ソリューションは、ブロックボリュームの自動保護、非同期レプリケーションを提供し、ある地理的な場所で災害が発生したときにビジネス機能を保護します。こちらは、パブリッククラウドの部分的な障害からの保護に似ています。
詳細は、プランニングガイドの Regional-DR および OpenShift Data Foundation 向けの Regional-DR ソリューション のセクションを参照してください。
第5章 開発者向けプレビュー リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.13 で導入された開発者プレビュー機能について説明します。
開発者プレビュー機能は、開発者プレビューのサポート制限の対象となります。開発者プレビューのリリースは、実稼働環境で実行することは意図されていません。開発者プレビュー機能と共にデプロイしたクラスターは開発用クラスターとして考慮され、Red Hat カスタマーポータルのケース管理システムではサポートされません。開発者プレビュー機能に関してサポートが必要な場合には、ocs-devpreview@redhat.com メーリングリストに連絡してください。Red Hat Development Team のメンバーが稼働状況とスケジュールに応じて可能な限り迅速に対応します。
5.1. デフォルトの NooBaa バッキングストアのオーバーライドの許可 リンクのコピーリンクがクリップボードにコピーされました!
バッキングストアのデフォルト設定を使用しない場合は、manualDefaultBackingStore フラグを使用してデフォルトのバッキングストアをオーバーライドして削除できます。これにより、バッキングストア設定をカスタマイズし、特定のニーズに合わせて柔軟に調整できます。この機能を活用すると、システムをさらに最適化し、パフォーマンスを向上させることができます。
詳細は、Allow override of default NooBaa backing store のナレッジベースの記事を参照してください。
5.2. 異なる Ceph CSI ストレージクラス間でボリュームのクローンを作成および復元する機能 リンクのコピーリンクがクリップボードにコピーされました!
さまざまな Ceph CSI 管理ストレージクラス間で Persistent Volume Claim (PVC) のクローンを作成し、復元できるようになりました。1 つの Ceph CSI ストレージクラスで作成された PVC のスナップショットを取得し、別の Ceph CSI ストレージクラスを使用して作成された PVC にそのクローンを作成できます。この機能は、次のシナリオで役立ちます。
- ストレージのフットプリントを減らす
- レプリカ 3 を持つストレージクラスから、独自の高可用性または復元力を提供する基盤となるストレージを備えたレプリカ 2 またはレプリカ 1 に移行する
- 低速なストレージクラスから高速なストレージクラスにクローンを作成する
- 障害ドメイン耐性が低いストレージクラスでイメージのスナップショットを作成し、障害ドメイン耐性が高いストレージクラスにクローンを作成する
詳細は、Ability to clone and restore volumes across different Ceph CSI storage classes のナレッジベースの記事を参照してください。
5.3. RADOS ゲートウェイでの SSL を使用した外部モードの有効化 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation は、外部モードを使用する場合に、OpenShift Data Foundation と Red Hat Ceph Storage 間のオブジェクトストレージの転送中の暗号化を提供するようになりました。これにより、Multicloud Object Gateway が外部モードで SSL を使用できるようになります。
詳細は、ナレッジベース記事 Setting up TLS-enabled RGW in external Red Hat Ceph Storage for OpenShift Data Foundation を参照してください。
5.4. ocs-operator がアクティブおよびスタンバイ MGR Pod をデプロイできるように リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation では、ocs-operator が 2 つの MGR Pod (1 つはアクティブで、もう 1 つはスタンバイ) をデプロイできるようになりました。これは、MGR Pod の信頼性の向上に役立ちます。
詳細は、ナレッジベース記事 Allowing ocs-operator to deploy two MGR PODs active and standby を参照してください。
5.5. Active Directory および FreeIPA に対するネットワークファイルシステムのサポート リンクのコピーリンクがクリップボードにコピーされました!
LDAP に加えて、OpenShift Data Foundation は、Active Directory および FreeIPA のネットワークファイルシステム (NFS) サポートを提供します。これは、アクセス管理をより適切に制御し、既存のツールを活用するのに役立ちます。
詳細は、Setting up Ceph NFS-Ganesha and using a Windows AD for user ID lookups のナレッジベースの記事を参照してください。
第6章 バグ修正 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.13 で導入された重要なバグ修正について説明します。
6.1. Multicloud Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation Operator で
disableLoadBalancerServiceフィールドの調整が無視される以前のリリースでは、OpenShift Data Foundation Operator の調整により、Multicloud Object Gateway (MCG) の
disableLoadBalancerServiceフィールドへの変更はすべてオーバーライドされました。今回の修正により、
disableLoadBalancerServiceフィールドの調整は OpenShift Data Foundation Operator で無視され、その結果、NooBaa CR のこのフィールドに設定された値は保持され、オーバーライドされません。
最適化されていないデータベース関連の削除フローのパフォーマンスの向上
以前のバージョンでは、削除時にデータベース関連のフローが最適化されていないと、Multicloud Object Gateway の CPU 使用率が急上昇し、一括削除のシナリオでパフォーマンスが低下していました。たとえば、削除されたオブジェクトバケット要求 (OBC) を再利用します。
今回の修正により、バケットリクレイマープロセスのインデックスが最適化され、データベースクリーナーフローを高速化するために新しいインデックスがデータベースに追加され、オブジェクトのバッチで動作するようにバケットリクレイマーの変更が導入されました。
エラーを回避するために OpenShift が生成した証明書を MCG 内部フローに使用する
以前のバージョンでは、クライアントの操作に失敗した自己署名証明書が原因で、Multicloud Object Gateway (MCG) の内部フローの一部にエラーが発生していました。これは、MCG コンポーネント間の内部通信で自己署名証明書が使用されることが原因でした。
今回の修正により、OpenShift Container Platform で生成された証明書が MCG コンポーネント間の内部通信に使用されるようになり、内部フローでエラーが発生しなくなりました。
バイト数のメトリックが Multicloud Object Gateway バケットによって使用される
以前のバージョンでは、Multicloud Object Gateway バケットで使用されるバイト数を表示するメトリックがありませんでした。
今回の修正により、Multicloud Object Gateway バケットによって使用されるバイト数を示す新しいメトリック
NooBaa_bucket_used_bytesが追加されます。
Microsoft Azure Blob ストレージの公開アクセスが無効になっている
以前のリリースでは、Microsoft Azure で作成されたデフォルトのコンテナーはパブリックアクセスが有効になっており、セキュリティーの面で懸念がありました。
今回の修正により、作成されたデフォルトのコンテナーのパブリックアクセスのデフォルト設定が有効化された状態ではなくなっています (
AllowBlobPublicAccessは false に設定)。
レプリケーションルールが設定されている場合でも、Multicloud Object Gateway バケットバケットが削除される
以前のリリースでは、Multicloud Object Gateway バケットにレプリケーションルールが設定されている場合、バケットは削除対象とみなされず、バケットは削除されずに残っていました。今回の修正により、特定のバケットのレプリケーションルールは、バケットが削除されるときに更新されます。その結果、バケットも削除されます。
データベース
initコンテナーの所有権が Kubernetes FSGroup に置き換えられる以前のリリースでは、MCG データベース (DB) Pod の
initコンテナーが所有権の変更に失敗すると、マルチクラウドオブジェクトゲートウェイ (MCG) が起動して機能しなくなっていました。今回の修正により、DB
initコンテナーの所有権が Kubernetes FSGroup に置き換えられます。(BZ#2115616)
6.2. CephFS リンクのコピーリンクがクリップボードにコピーされました!
cephfs-topが 100 を超えるクライアントを表示できる以前のリリースでは、100 を超えるクライアントを
cephfs-topにロードしようとすると、スペースが少ないか、まったくないためにcephfs-topの表示内に収まらず、空白の画面が表示され、ハング状態になることがありました。クライアントはx_coord_map の計算に基づいて表示されていたため、cephfs-topはディスプレイにこれ以上のクライアントを表示できませんでした。この問題は、
ncursesスクロールとクライアントを表示する新しい方法がcephfs-topに導入されたときに、Ceph の別の BZ の一部として修正されました。x_coord_mapの計算も削除されました。そのため、cephfs-topは 200 以上のクライアントを表示するようになりました。
6.3. Ceph container storage interface (CSI) リンクのコピーリンクがクリップボードにコピーされました!
StagingTargetPath が欠落している場合でも RBD ファイルシステム PVC が拡張される
以前のリリースでは、
NodeExpandVolumeリモートプロシージャコール (RPC) でStagingTartgetPathが欠落しており、Ceph CSI が拡張するデバイスの詳細を取得できなかった場合、RADOS ブロックデバイス (RBD) ファイルシステム永続ボリューム要求 (PVC) の拡張が成功しませんでした。今回の修正により、Ceph CSI はすべてのマウント参照を調べて、RBD イメージがマウントされている
StageingTargetPathを識別します。その結果、StagingTargetPathが欠落している場合でも、RBD ファイルシステム PVC は正常に拡張されます。
デフォルトのメモリーと CPU リソースの制限を増加
以前のリリースでは、
odf-csi-addons-operatorのメモリーリソース制限が低く、その結果odf-csi-addons-operatorPod がOOMKilled(メモリー不足) になっていました。今回の修正により、デフォルトのメモリーと CPU リソースの制限が増加し、
odf-csi-addons-operatorOOMKillは発生しなくなりました。
6.4. OpenShift Data Foundation Operator リンクのコピーリンクがクリップボードにコピーされました!
セキュアポートとセキュアではないポート向けの 2 つのルート
以前のバージョンでは、
openshiftrouteの RGW サービスのポートが定義されていなかったため、ルートがセキュアポートを使用することになり、http リクエストの失敗が発生していました。今回の修正により、既存の OpenShift for RGW のセキュアではないポートが適切に定義され、セキュアなポートが使用されている新しいルートが作成されるため、http リクエストの失敗が回避されます。現在、RGW には 2 つのルートが使用可能です。既存のルートはセキュアでないポートを使用し、新しい別のルートはセキュアなポートを使用します。
外部モードで Ceph クラスターの正しい状態が反映される
以前のバージョンでは、OpenShift Data Foundation が Ceph クラスターを使用して外部モードでデプロイされている場合、関連付けられている Ceph クラスターが良好な状態であっても、storagecluster
ExternalClusterStateConnectedなどの問題のある状態がストレージクラスターから消去されませんでした。今回の修正により、Ceph クラスターが良好な状態にある場合は問題のある状態がストレージクラスターから削除され、Ceph クラスターの正しい状態が反映されるようになりました。
nginx設定は ConfigMap を通じて追加される以前のリリースでは、IPv6 がノードのカーネルレベルで無効になっている場合に、
odf-consolePod のnginx設定のIPv6 listenディレクティブでエラーが発生していました。その結果、OpenShift Data Foundation はodf-consoleが利用できず、odf-consoleがCrashLoopBackOffエラーになりました。今回の修正により、
odf-operatorで作成された ConfigMapで、nginx設定がすべて追加されます。
6.5. OpenShift Data Foundation コンソール リンクのコピーリンクがクリップボードにコピーされました!
ユーザーインターフェイスは PVC 名を CR に正しく渡す
以前のリリースでは、ファイルシステムを使用してユーザーインターフェイス (UI) で NamespaceStore を作成するときに、UI は CR の
spec.nsfs.pvcNameフィールドに渡す必要がある PVC 名だけではなく、永続ボリューム要求 (PVC) オブジェクト全体を CR に渡していました。その結果、UI にエラーが表示されました。今回の修正により、PVC オブジェクト全体ではなく、PVC 名のみが CR に渡されます。
OpenShift Data Foundation のアップグレード時に更新ポップアップが表示される
以前のバージョンでは、OpenShift Data Foundation がアップグレードされると、OpenShift Container Platform は変更を認識しないため Refresh ボタンを表示しませんでした。OpenShift は、
odf-consolePod に存在するplugin-manifest.jsonファイルのversionフィールドの変更を把握するためのチェックを実行していませんでした。今回の修正により、OpenShift Container Platform および OpenShift Data Foundation は、OpenShift Data Foundation ユーザーインターフェイスのマニフェストをポーリングするように設定されます。バージョンの変更に応じて、Refresh ポップアップが表示されます。
6.6. Rook リンクのコピーリンクがクリップボードにコピーされました!
RGW エンドポイントに到達できない場合でも StorageClasses が作成される。以前の OpenShift Data Foundation の外部モードデプロイメントでは、RADOS ゲートウェイ (RGW) エンドポイントに到達できず、Rook が CephObjectStore の設定に失敗した場合に、Python スクリプト (
create-external-cluster-resources.py) で密結合されているので RADOS ブロックデバイス (RBD) と CephFS の作成も失敗します。今回の修正により、Python スクリプトの問題が修正され、失敗したりエラーが表示されたりする代わりに個別の呼び出しが行われ、StorageClasses が作成されます。
第7章 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.13 の既知の問題について説明します。
7.1. 障害復旧 リンクのコピーリンクがクリップボードにコピーされました!
フェイルオーバーアクションは、RPC エラー still in use を表示し、Pod で失敗した RADOS ブロックデバイスのイメージマウントを報告する。
障害復旧 (DR) で保護されるワークロードをフェイルオーバーすると、フェイルオーバーしたクラスター上のボリュームを使用している Pod が、RADOS ブロックデバイス (RBD) イメージがまだ使用中であることを報告する時に停止する可能性があります。これにより、Pod が長時間 (最大数時間) 起動できなくなります。
フェイルオーバーアクションは、RPC エラー fsck を表示し、Pod で失敗した RADOS ブロックデバイスのイメージマウントを報告する。
障害復旧 (DR) で保護されるワークロードをフェイルオーバーすると、ボリュームにファイルシステムの整合性チェック (fsck) エラーがあると示すボリュームマウントエラーにより、Pod が起動しない可能性があります。これにより、ワークロードはフェイルオーバークラスターにフェイルオーバーできなくなります。
マネージドクラスターのアプリケーション namespace が作成される
アプリケーション namespace は、Disaster Recovery(DR) 関連の事前デプロイアクションのために RHACM マネージドクラスターに存在する必要があるため、アプリケーションが ACM ハブクラスターにデプロイされるときに事前に作成されます。ただし、アプリケーションがハブクラスターで削除され、対応する namespace がマネージドクラスターで削除された場合、それらはマネージドクラスターに再表示されます。
回避策:
openshift-drは、ACM ハブのマネージドクラスター namespace に namespacemanifestworkリソースを維持します。これらのリソースは、アプリケーションの削除後に削除する必要があります。たとえば、クラスター管理者として、ハブクラスターでoc delete manifestwork -n <managedCluster namespace> <drPlacementControl name>-<namespace>-ns-mwのコマンドを実行します。
一部のイメージで RBD ミラースケジューリングが停止する
Ceph Manager デーモンは、さまざまな理由でブロックリストに登録されます。これにより、スケジュールされた RBD ミラースナップショットが、イメージがプライマリーであるクラスターでトリガーされなくなります。ミラーリングが有効になっている (つまり DR 保護されている) すべての RBD イメージは、
rbd mirror snapshot schedule status -p ocs-storagecluster-cephblockpoolを使用して調べたときにスケジュールを一覧表示しないため、ピアサイトにアクティブにミラーリングされません。回避策: イメージがプライマリーである管理対象クラスターで Ceph Manager のデプロイを再起動して、現在実行中のインスタンスに対するブロックリストを回避します。これは、次のように Ceph Manager のデプロイをスケールダウンしてからスケールアップすることで実行できます。
oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=0 oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=1
$ oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=0 $ oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 結果:
rbd mirror snapshot schedule status -p ocs-storagecluster-cephblockpoolを使用して調べると、DR が有効で、管理対象クラスターでプライマリーとして示されているイメージがミラーリングスケジュールの報告を開始します。
クラスターがストレッチモードの場合、ceph
dfが無効な MAX AVAIL 値を報告するRed Hat Ceph Storage クラスターのクラッシュルールに複数の "take" ステップがある場合、
ceph dfレポートは、マップの使用可能な最大サイズを間違って表示します。この問題は、今後のリリースで修正される予定です。
Ceph が Globalnet によって割り当てられたグローバル IP を認識しない
Ceph は Globalnet によって割り当てられたグローバル IP を認識しないため、Globalnet を使用して重複するサービス CIDR を持つクラスター間で障害復旧ソリューションを設定することはできません。このため、サービス
CIDRが重複している場合、障害復旧ソリューションは機能しません。
両方の DRPC が、同じ namespace で作成されたすべての永続ボリューム要求を保護する
複数の障害復旧 (DR) で保護されたワークロードをホストする namespace は、指定されていないハブクラスター上の同じ namespace 内の各 DRPlacementControl リソースの namespace にある永続ボリュームクレーム (PVC) をすべて保護し、その
spec.pvcSelectorフィールドを使用してワークロードに基づいて PVC を分離します。これにより、複数のワークロードにわたって DRPlacementControl
spec.pvcSelectorに一致する PVC が生成されます。あるいは、すべてのワークロードでセレクターが欠落している場合、レプリケーション管理が各 PVC を複数回管理し、個々の DRPlacementControl アクションに基づいてデータの破損または無効な操作を引き起こす可能性があります。回避策: ワークロードに属する PVC に一意のラベルを付け、選択したラベルを DRPlacementControl
spec.pvcSelectorとして使用して、どの DRPlacementControl が namespace 内の PVC のどのサブセットを保護および管理するかを明確にします。ユーザーインターフェイスを使用して DRPlacementControl のspec.pvcSelectorフィールドを指定することはできません。したがって、そのようなアプリケーションの DRPlacementControl を削除し、コマンドラインを使用して作成する必要があります。結果: PVC は複数の DRPlacementControl リソースによって管理されなくなり、操作およびデータの不整合は発生しません。
MongoDB Pod は、
cephrbdボリュームのデータを読み取る許可エラーのため、CrashLoopBackoffになっています異なるマネージドクラスターにまたがる OpenShift プロジェクトには、異なるセキュリティーコンテキスト制約 (SCC) があり、特に指定された UID 範囲と
FSGroupsが異なります。これにより、特定のワークロード Pod とコンテナーが、ログ内のファイルシステムアクセスエラーが原因で、これらのプロジェクト内でフェイルオーバーの操作または再配置操作を開始できなくなります。回避策: ワークロードプロジェクトが同じプロジェクトレベルの SCC ラベルを持つすべてのマネージドクラスターで作成されていることを確認し、フェイルオーバーまたは再配置時に同じファイルシステムコンテキストを使用できるようにします。Pod は、ファイルシステム関連のアクセスエラーで DR 後のアクションに失敗しなくなりました。
再配置中にアプリケーションが Relocating 状態でスタックする
マルチクラウドオブジェクトゲートウェイでは、同じ名前または namespace の複数の永続ボリューム (PV) オブジェクトを同じパスの S3 ストアに追加できました。これにより、同一の
claimRefを指す複数のバージョンが検出されたため、Ramen は PV を復元しません。回避策: S3 CLI または同等の機能を使用して、重複する PV オブジェクトを S3 ストアからクリーンアップします。タイムスタンプがフェイルオーバーまたは再配置の時刻に近いものだけを保持します。
結果: 復元操作が完了し、フェイルオーバーまたは再配置操作が次のステップに進みます。
ワークロードをピアクラスターにフェイルオーバーまたは再配置すると、フェイルオーバーまたは再配置元のクラスターがクリーンアップされるまで、
PeerReady条件がtrueに設定される障害復旧 (DR) アクションを開始した後、ワークロードがピアクラスターにフェイルオーバーまたは再配置される間、
PeerReady条件は最初にtrueに設定されます。その後、フェイルオーバーまたは再配置元のクラスターは、今後のアクションのためにクリーンアップされるまで、falseに設定されます。アクションを実行するためにDRPlacementControlステータス条件を見ているユーザーは、この中間的なPeerReady状態を見て、ピアの準備ができていると認識し、アクションを実行する可能性があります。この場合、操作は保留中されるか失敗し、回復するためにユーザーの介入が必要になることがあります。回避策: アクションを実行する前に、
AvailableとPeerReadyの両方の状態を調べます。ワークロードの DR 状態を正常にするために、両方がtrueである必要があります。両方の状態が true のときにアクションを実行すれば、要求された操作が進行します。
障害復旧のワークロードが削除されたままになる
クラスターからワークロードを削除すると、対応する Pod が
FailedKillPodなどのイベントで終了しない場合があります。これにより、PVC、VolumeReplication、VolumeReplicationGroupなどの DR リソースに依存するガベージコレクションで遅延または障害が発生する可能性があります。また、古いリソースがまだガベージコレクションされていないため、クラスターへの同じワークロードの今後のデプロイもできなくなります。回避策: Pod が現在実行中で、終了状態でスタックしているワーカーノードを再起動します。これにより、Pod が正常に終了し、その後、関連する DR API リソースもガベージコレクションされます。
ブロックリスト登録により Pod がエラー状態で停止することがある
ネットワークの問題、または非常に過負荷/不均衡なクラスターが原因でブロックリスト登録が実行されると、テイルレイテンシーが急増します。このため、Pod は
CreateContainerErrorでスタックし、次のメッセージが表示されます。Error: relabel failed /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount: lsetxattr /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount/#ib_16384_0.dblwr: read-only file system.
Error: relabel failed /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount: lsetxattr /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount/#ib_16384_0.dblwr: read-only file system.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 回避策: 次の手順に従って、これらの Pod がスケジュールされ、障害が発生しているノードを再起動します。
- 問題のあるノードを遮断してからドレインします。
- 問題のあるノードを再起動します。
問題のあるノードのコードの遮断を解除します。
マネージドクラスターが OpenShift Container Platform と OpenShift Data Foundation の異なるバージョン上にある場合、アプリケーションのフェイルオーバーが
Failover状態でハングするOpenShift Data Foundation 4.13 を使用した障害復旧ソリューションは、永続ボリューム (PV) データに加えて永続ボリューム要求 (PVC) データを保護および復元します。プライマリークラスターが古い OpenShift Data Foundation バージョン上にあり、ターゲットクラスターが 4.13 に更新されている場合、S3 ストアに PVC データがないため、フェイルオーバーが停止します。
回避策: Disaster Recovery クラスターをアップグレードする場合は、最初にプライマリークラスターをアップグレードしてから、アップグレード後の手順を実行する必要があります。
DRPolicy が同じ namespace 内の複数のアプリケーションに適用されると、ボリュームレプリケーショングループが作成されない
namespace 内の他のアプリケーションと同じ場所に配置されているアプリケーション用に DRPlacementControl (DRPC) が作成される場合、DRPC にはアプリケーション用のラベルセレクターセットがありません。その後ラベルセレクターに変更が加えられた場合、OpenShift Data Foundation Hub コントローラーの検証アドミッション Webhook は変更を拒否します。
回避策: アドミッション Webhook がそのような変更を許可するように変更されるまでは、DRPC
validatingwebhookconfigurationsにパッチを適用して Webhook を削除できます。oc patch validatingwebhookconfigurations vdrplacementcontrol.kb.io-lq2kz --type=json --patch='[{"op": "remove", "path": "/webhooks"}]'$ oc patch validatingwebhookconfigurations vdrplacementcontrol.kb.io-lq2kz --type=json --patch='[{"op": "remove", "path": "/webhooks"}]'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
サブスクリプションベースのワークロードに関連付けられた特定の管理リソースが削除される
ハブのリカバリー中に、OpenShift Data Foudation で Red Hat Advanced Cluster Management バージョン 2.7.4 (またはそれ以降) の既知の問題が発生し、サブスクリプションベースのワークロードに関連付けられた特定の管理リソースが意図せず削除される可能性があります。現在、この問題には既知の回避策がありません。
ハブの回復後にピアの準備完了ステータスが
Unknownと表示されるゾーン障害とハブの回復後、障害復旧の配置制御 (DRPC) 内のサブスクリプションおよびアプリケーションセットアプリケーションのピア準備完了ステータスが
Unknownと表示されることがあります。これは表面上の問題であり、Ramen の通常の機能には影響せず、ocコマンドを使用して表示したときの DRPC 出力の外観に限定されます。回避策: YAML 出力を使用して、正しいステータスを確認します。
oc get drpc -o yaml
$ oc get drpc -o yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
7.1.1. DR アップグレード リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、障害復旧環境での Red Hat OpenShift Data Foundation のバージョン 4.12 から 4.13 へのアップグレードに関連する問題と回避策について説明します。
アップグレード前に存在していたワークロードのフェイルオーバーまたは再配置がブロックされる
OpenShift Data Foundation Disaster Recovery ソリューションは、永続ボリューム (PV) データに加えて永続ボリューム要求 (PVC) データも保護します。アップグレード前に存在していたワークロードでは、PVC データがバックアップされていないため、フェイルオーバーまたは再配置がブロックされます。
回避策:
各ワークロードのプライマリークラスターで次の手順を実行して、OpenShift Data Foundation Disaster Recovery ソリューションが PV データに加えて PVC データを確実にバックアップするようにします。
ボリュームレプリケーショングループ (VRG) のステータスを編集します。
oc edit --subresource=status vrg -n <namespace> <name>
$ oc edit --subresource=status vrg -n <namespace> <name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
vrg.Status.ProtectedPVCs条件ごとに、ClusterDataProtected ステータスをFalseに設定します。これにより、S3 ストアにアプリケーション PVC が追加されます。 - Ramen Pod を 0 にスケールダウンしてから 1 に戻して再起動します。
-
すべての
vrg.Status.ProtectedPVCs条件のClusterDataProtectedステータスが再びTRUEに変わるのを待って、S3 ストアにアプリケーション PVC が設定されていることを確認します。
フェイルオーバーまたは再配置操作を開始する場合は、次の手順を実行します。
フェイルオーバーまたは再配置操作を開始する前に、DRPC ステータスサブリソースを編集して、
status.preferredDecision.ClusterNamespaceフィールドをクリアします (まだ編集していない場合)。oc edit --subresource=status drpc -n <namespace> <name>
$ oc edit --subresource=status drpc -n <namespace> <name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
status.preferredDecision.ClusterNamespaceでキャッシュされた値が間違っているOpenShift Data Foundation がバージョン 4.12 から 4.13 にアップグレードされると、障害復旧配置制御 (DRPC) の
status.preferredDecision.ClusterNamespaceに誤った値がキャッシュされる可能性があります。その結果、DRPC はフェイルオーバーがすでに完了していることを検出せず、誤ってWaitForFencingPROGRESSION に入ります。マネージドクラスターのワークロードは、この問題の影響を受けません。回避策:
-
影響を受ける DRPC を特定するには、CURRENTSTATE として
FailedOver状態にあり、WaitForFencingPROGRESSION でスタックしている DRPC がないか確認します。 間違った値をクリアするには、DRPC サブリソースを編集し、
status.PreferredCluster.ClusterNamespaceという行を削除します。oc edit --subresource=status drpc -n <namespace> <name>
$ oc edit --subresource=status drpc -n <namespace> <name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow DRPC ステータスを確認するには、PROGRESSION が
COMPLETED状態であり、FailedOverが CURRENTSTATE であるかどうかを確認します。
-
影響を受ける DRPC を特定するには、CURRENTSTATE として
7.2. Ceph リンクのコピーリンクがクリップボードにコピーされました!
CephFS でのストレッチクラスターのパフォーマンスが低下する
マルチサイトの Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。
非常に多くのファイルによる SELinux の再ラベル付けの問題
Red Hat OpenShift Container Platform でボリュームを Pod にアタッチすると、Pod が起動しないか、起動に過度に時間がかかることがあります。この動作は一般的なもので、Kubelet による SELinux の再ラベル付けの処理方法に関係しています。この問題は、ファイル数が非常に多いファイルシステムベースのボリュームで発生します。OpenShift Data Foundation では、非常に多くのファイルがある CephFS ベースのボリュームを使用すると、この問題が発生します。この問題の回避にはさまざまな方法があります。ビジネスニーズに応じて、ナレッジベースソリューション https://access.redhat.com/solutions/6221251 から回避策の 1 つを選択できます。
データゾーン間のネット分割中に Ceph が応答しなくなる
arbiter を備えた 2 サイトのストレッチクラスターでは、データゾーン間のネットスプリット中に、Rook Operator が
failed to get ceph statusというエラーを出力します。これは、ゾーン 1 とゾーン 2、ゾーン 1 と arbiter にネットスプリットが誘導されると、ゾーン 1 が約 20 分間クラスターから切り離されるために発生します。ただし、rook-operator ログにスローされたエラーは関連性がなく、OpenShift Data Foundation は netsplit 状況でも正常に動作することがわかります。
CephOSDCritallyFullおよびCephOSDNearFullアラートが期待どおりに起動されないCeph が提供するメトリクスで
ceph_daemon値の形式が変更されており、これらのアラートは古い値の形式を使用しているので、CephOSDCritallyFullおよびCephOSDNearFullのアラートは想定通りに発行されません。
7.3. CSI ドライバー リンクのコピーリンクがクリップボードにコピーされました!
スナップショットの自動フラット化が機能しない
一般的な親 RBD PVC が 1 つあり、ボリュームスナップショット、復元、およびスナップショットが 450 回以上連続して実行する場合は、ボリュームスナップショットまたは共通の親 RBD PVC のクローンを取得することはできません。
この問題を回避するには、順番にボリュームスナップショット、復元、および削除を行う代わりに、PVC を使用して PVC のクローンを作成することで、この問題を完全に回避できます。
この問題が発生した場合は、カスタマーサポートに連絡して、最終復元 PVC の手動フラット化を実行し、共通の親 PVC のボリュームスナップショットまたはクローンを再度取得してください。
7.4. OpenShift Data Foundation コンソール リンクのコピーリンクがクリップボードにコピーされました!
ハブの復元後に applicationSet ベースのアプリケーションのフェイルオーバーを開始できない
ハブの回復後にプライマリーマネージドクラスターがダウンした場合、最後のアクションが
Relocateだった場合は、ユーザーインターフェイス (UI) を使用してapplicationSetベースのアプリケーションのフェイルオーバーをトリガーすることはできません。回避策: コマンドラインインターフェイス (CLI) からフェイルオーバーをトリガーするには、次のように
DRPC.spec.actionフィールドをFailoverに設定します。oc edit drpc -n openshift-gitops app-placement-drpc
$ oc edit drpc -n openshift-gitops app-placement-drpcCopy to Clipboard Copied! Toggle word wrap Toggle overflow [...] spec action: Failover [...]
[...] spec action: Failover [...]Copy to Clipboard Copied! Toggle word wrap Toggle overflow
トポロジービューが外部モードでは機能しない
外部モードでは、ノードに OCS ラベルが付けられません。その結果、トポロジービューでは最初のレベルのノードを表示できません。
第8章 非同期エラータの更新 リンクのコピーリンクがクリップボードにコピーされました!
8.1. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.2. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.3. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.4. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.5. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.6. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.7. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
8.8. RHBA-2023:6146 OpenShift Data Foundation 4.13.4 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.13.4 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:6146 アドバイザリーにリストされています。
8.9. RHSA-2023:5376 OpenShift Data Foundation 4.13.3 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.13.3 が利用可能になりました。更新に含まれるバグ修正は RHSA-2023:5376 アドバイザリーに記載されています。
8.10. RHBA-2023:4716 OpenShift Data Foundation 4.13.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.13.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2023:4716 アドバイザリーにリストされています。
8.11. RHSA-2023:4437 OpenShift Data Foundation 4.13.1 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.13.1 が利用可能になりました。更新に含まれるバグ修正は、RHSA-2023:4437 アドバイザリーにリストされています。