4.14 リリースノート
機能および拡張機能、既知の問題、その他の重要なリリース情報についてのリリースノート
概要
多様性を受け入れるオープンソースの強化 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
第1章 概要 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation は、コンテナー環境向けに最適化されたソフトウェア定義のストレージです。このソフトウェアは、OpenShift Container Platform の Operator として実行されるため、コンテナーの永続ストレージ管理を高度に統合し、簡素化できます。
Red Hat OpenShift Data Foundation は、最新の Red Hat OpenShift Container Platform に統合されており、プラットフォームサービス、アプリケーションの移植性、永続性の課題に対応します。また、Red Hat Ceph Storage、Rook.io Operator および NooBaa’s Multicloud Object Gateway などのテクノロジースタックに構築された、次世代のクラウドネイティブアプリケーションに対して、非常にスケーラブルなバックエンドを提供します。
Red Hat OpenShift Data Foundation は FIPS 用に設計されています。RHEL または FIPS モードでブートされた RHEL CoreOS で実行する場合、OpenShift Container Platform コアコンポーネントは、x86_64、ppc64le、および s390X アーキテクチャー上でのみ、FIPS 検証のために NIST に提出された RHEL 暗号化ライブラリーを使用します。NIST の検証プログラムの詳細は、Cryptographic Module Validation Program を参照してください。RHEL 暗号化ライブラリーの個別バージョンに関して検証用に提出された最新の NIST ステータスは、Compliance Activities and Government Standards を参照してください。
Red Hat OpenShift Data Foundation は、数多くの方法でアプリケーションのライフサイクル全体におけるユーザーエクスペリエンスを単純化し、強化する、信頼できるエンタープライズクラスのアプリケーション開発環境を提供します。
- データベースのブロックストレージを提供します。
- 継続的な統合、メッセージングおよびデータ集約のための共有ファイルストレージ。
- クラウドファースト開発、アーカイブ、バックアップ、およびメディアストレージ用のオブジェクトストレージ。
- アプリケーションとデータの飛躍的なスケーリングが可能です。
- 永続データボリュームの割り当てと割り当て解除を加速的に実行します。
- 複数のデータセンターまたはアベイラビリティーゾーンにクラスターを拡張します。
- 包括的なアプリケーションコンテナーレジストリーを確立します。
- データアナリティクス、人工知能、機械学習、ディープラーニング、および IoT (モノのインターネット) などの次世代の OpenShift ワークロードをサポートします。
- アプリケーションコンテナーだけでなく、データサービスボリュームおよびコンテナー、さらに追加の OpenShift Container Platform ノード、Elastic Block Store (EBS) ボリュームおよびその他のインフラストラクチャーサービスを動的にプロビジョニングします。
1.1. このリリースについて リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation 4.14 (RHSA-2023:6832) が利用可能になりました。以下では、OpenShift Data Foundation 4.14 に関連する新たな拡張機能、新機能、および既知の問題について説明します。
Red Hat OpenShift Data Foundation 4.14 は、Red Hat OpenShift Container Platform バージョン 4.14 でサポートされます。詳細は、Red Hat OpenShift Data Foundation Supportability and Interoperability Checker を参照してください。
Red Hat OpenShift Data Foundation のライフサイクル情報は、Red Hat OpenShift Container Platform ライフサイクルポリシー で、階層化された製品 (および依存関係のある製品) ライフサイクルのセクションを参照してください。
第2章 新機能 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.14 で導入された新機能について説明します。
2.1. Regional Disaster Recovery の一般提供 リンクのコピーリンクがクリップボードにコピーされました!
地域障害復旧 (Regional-DR) は、ブロックアプリケーションとファイルアプリケーションで一般的に利用可能です。このリリースでの Regional-DR の改善には、次の修正が含まれます。
- Regional-DR の大規模なデプロイメントを可能にする Ceph の改善
- ブロックアプリケーションとファイルアプリケーションの両方に対する ACM UI を使用した DR の管理
- 新しい DR メトリックによるモニタリング
Regional-DR は、OpenShift Data Foundation 4.14 と Red Hat Advanced Cluster Management for Kubernetes 2.9 の組み合わせでのみサポートされます。OpenShift Data Foundation 4.14 より前の既存のデプロイメントの Regional-DR へのアップグレードのサポートは現在進行中であり、近い将来に利用可能になる予定です。
詳細は、プランニングガイドの Regional-DR および OpenShift Data Foundation 向けの Regional-DR ソリューション のセクションを参照してください。
2.2. IPv6 自動検出 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation バージョン 4.14 では、IPv6 の自動検出と設定が導入されています。IPv6 またはデュアルスタックを使用する OpenShift クラスターは、それに応じて OpenShift Data Foundation で自動的に設定されます。
IPv6 の詳細は、IPv6 サポート を参照してください。
2.3. IBM Z および IBM Power 上の OpenShift Data Foundation の Metro-DR および Regional-DR ソリューションのサポート リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation バージョン 4.14 は、IBM Z および IBM Power プラットフォームで Metro-DR および Regional-DR ソリューションをサポートするようになりました。障害復旧が可能になると、地理的位置またはデータセンターに災害が発生した場合でもビジネスの継続性が維持されます。Red Hat Ceph Storage (RHCS) デプロイメントは、IBM Z および IBM Power上の x86 アーキテクチャーでのみサポートされます。
詳細は、OpenShift ワークロードの OpenShift Data Foundation 障害復旧機能の設定 を参照してください。
2.4. ログベースのバケットレプリケーション リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、Multicloud Object Gateway (MCG) バケットのレプリケーションがスケーラブルになりました。これは、大規模なデータをより高速に複製するのに役立ちます。バケットのレプリケーションでは、Amazon Web Services (AWS) および Microsoft Azure クラウド環境のイベントログを使用してレプリケーションを最適化します。
詳細は、AWS でのログベースのバケットレプリケーションの有効化 および Microsoft Azure でのログベースのバケットレプリケーションの有効化 を参照してください。
2.5. Multicloud Object Gateway エンドポイントの自動スケーリングサポート リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、HPAV2 (デフォルト) と KEDA に基づく 2 つの新しいオートスケーラーが利用できるようになりました。これらのオートスケーラーは、Prometheus メトリクスを使用した MCG エンドポイントの自動スケーリングをサポートします。
KEDA イメージは Power アーキテクチャーでは使用できないため、KEDA は IBM Power ではサポートされません。
2.6. Multicloud Object Gateway ライフサイクルでの期限切れオブジェクトの削除 リンクのコピーリンクがクリップボードにコピーされました!
期限切れのオブジェクトの削除は、未使用のデータの処理を可能にする単純な方法です。これにより、データオブジェクトの蓄積によるストレージコストが削減されます。未使用のデータは失効後に削除されます。データの有効期限は、Amazon Web Services (AWS) のライフサイクル管理の一部であり、自動削除の有効期限を設定します。ライフサイクルの有効期限の最小時間分解能は 1 日です。
詳細は、Multicloud Object Gateway におけるライフサイクルバケット設定 を参照してください。
2.7. スタンドアロン Multicloud Object Gateway のサポート リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、IBM Z 上のローカルストレージデバイスを使用して Multicloud Object Gateway コンポーネントをデプロイできるようになりました。OpenShift Data Foundation を使用して Multicloud Object Gateway コンポーネントのみをデプロイすると、デプロイメントが柔軟になり、リソース消費の削減に役立ちます。
2.8. マルチネットワークプラグイン (Multus) サポートの一般提供 リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、マルチネットワークプラグイン Multus が一般提供されるようになりました。OpenShift Data Foundation は、ベアメタルインフラストラクチャー上で Multus を使用する機能をサポートし、さまざまなタイプのネットワークトラフィックを分離することでセキュリティーとパフォーマンスを向上させます。Multus を使用すると、OpenShift Data Foundation 専用に、ホスト上の 1 つ以上のネットワークインターフェイスを予約できますが、
2.9. Google Cloud の一般提供サポート リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation のデプロイメントが Google Cloud でサポートされるようになりました。詳細は、Google Cloud を使用した OpenShift Data Foundation のデプロイ ガイド を参照してください。
第3章 機能拡張 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data foundation 4.14 で導入された主な拡張機能について説明します。
3.1. ディスク容量とディスク容量を増やすためのサポート リンクのコピーリンクがクリップボードにコピーされました!
以前のリリースでは、Red Hat は、ローカルストレージのデプロイメントについて、ノードあたり 9 デバイス以下、および 4 TiB 以下のサイズのディスクを推奨していました。今回の更新では、ノードあたりの推奨デバイス数は 12 以下になり、ディスクサイズは 16 TiB 以下になりました。
OpenShift Data Foundation Recovery Calculator を使用して、推定復旧時間を確認します。ホスト障害の復旧時間を 2 時間未満にすることが推奨されます。
3.2. ノード障害時の RWO リカバリーの高速化 リンクのコピーリンクがクリップボードにコピーされました!
以前のリリースでは、ノード障害が発生した場合に ReadWriterOnce (RWO) ボリュームが回復するまでに長い時間がかかりました。今回の更新により、問題が修正されました。
クラスターがノード障害に自動的に対処し、RWO ボリュームをより迅速に回復できるようにするには、次のテイントのいずれかを手動でノードに追加します。
-
node.kubernetes.io/out-of-service=nodeshutdown:NoExecute -
node.kubernetes.io/out-of-service=nodeshutdown:NoSchedule
3.3. RBD 永続ボリューム要求 PVC の自動スペース再利用 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation バージョン 4.14 では、openshift-. で始まる namespace にある RBD Persistent Volume Claim (PVC) の自動スペース再利用が導入されています。これは、管理者が openshift- の接頭辞で始まる namespace 内の RBD PVC の領域を手動で回収する必要がなくなります。
3.4. 暗号化された RBD ストレージクラスへのアノテーション設定の自動化 リンクのコピーリンクがクリップボードにコピーされました!
アノテーションは、OpenShift コンソールが暗号化を有効にして RADOS ブロックデバイス (RBD) ストレージクラスを作成するときに自動的に設定されます。これにより、顧客データ統合 (CDI) で、デフォルトのスマートクローン作成の代わりにホスト支援型のクローン作成を使用できるようになります。
3.5. LSOs LocalVolumeSet および LocalVolumeDiscovery CR が mpath デバイスタイプをサポートするように リンクのコピーリンクがクリップボードにコピーされました!
このリリースでは、disk および mpath デバイスタイプを LocalVolumeSet および LocalVolumeDiscovery CR で使用できるようになりました。
3.6. OpenShift Virtualization ワークロードのデフォルト StorageClass の自動検出 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Virtualization プラットフォームを使用した OpenShift Data Foundation のデプロイメントでは、新しい StorageClass が自動的に作成され、OpenShift Virtualization のデフォルトのストレージクラスとして設定できるようになりました。この新しい StorageClass は、基盤となるストレージの特定のプリセットを使用して OpenShift 仮想化用に最適化されています。
3.7. すべてのイメージの rbd ステータス の詳細を収集 リンクのコピーリンクがクリップボードにコピーされました!
特定の RBD 関連の問題のトラブルシューティングを行う場合、RBD イメージのステータスは重要な情報です。このリリースでは、OpenShift Data Foundation 内部モードデプロイメントの場合、odf-must-gather に rbd ステータス の詳細が含まれるため、RBD 関連の問題のトラブルシューティングがより迅速になります。
3.8. デフォルトのパーミッションおよび FSGroupPolicy の変更 リンクのコピーリンクがクリップボードにコピーされました!
新規に作成されたボリュームのパーミッションは、777 ではなく、よりセキュアな 755 にデフォルト設定されるようになりました。FSGroupPolicy が (ODF 4.11 の ReadWriteOnceWithFSType ではなく) File に設定され、アプリケーションが FSGroup に基づいてボリュームにアクセスできるようになりました。これにより、Pod の SecurityPolicy でユーザーが要求した fsGroup と一致するように、Kubernetes が fsGroup を使用してボリュームの権限と所有権を変更しています。
膨大な数のファイルを含む既存のボリュームは、アクセス許可と所有権の変更に時間がかかるため、マウントに時間がかかることがあります。
詳細は、こちらの ナレッジベースソリューション を参照してください。
第4章 テクノロジープレビュー リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、テクノロジープレビューのサポート制限に基づいて、Red Hat OpenShift Data Foundation 4.14 で導入されたテクノロジープレビュー機能について説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。
テクノロジープレビュー機能は、カスタマーポータルの テクノロジープレビュー機能のサポート範囲 で詳細に説明されているように制限されたサポート範囲で提供されます。
4.1. ストレージクラスが非復元性プールの単一レプリカを使用できるように リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation は、レプリカが 1 つ含まれる、非復元性プールを使用して新しいストレージクラスを作成できるようにします。これにより、冗長なデータコピーが回避され、アプリケーションレベルでの復元管理が可能になります。
詳細は、カスタマーポータルのプラットフォームのデプロイガイド を参照してください。
4.2. OpenShift Virtualization に基づくワークロードの Metro-DR サポート リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation を使用して、Metro-DR を簡単に設定して、OpenShift Virtualization に基づいてワークロードを保護することができるようになりました。
詳細は、ナレッジベースの記事 を参照してください。
第5章 開発者向けプレビュー リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.14 で導入された開発者プレビュー機能について説明します。
開発者プレビュー機能は、開発者プレビューのサポート制限の対象となります。開発者プレビューのリリースは、実稼働環境で実行することは意図されていません。開発者プレビュー機能と共にデプロイしたクラスターは開発用クラスターとして考慮され、Red Hat カスタマーポータルのケース管理システムではサポートされません。開発者プレビュー機能に関してサポートが必要な場合には、ocs-devpreview@redhat.com メーリングリストに連絡してください。Red Hat Development Team のメンバーが稼働状況とスケジュールに応じて可能な限り迅速に対応します。
5.1. スペースの回収操作のカスタムタイムアウト リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation では、スペースの回収操作のカスタムタイムアウト値を設定できるようになりました。以前のリリースでは、RBD ボリュームのサイズとそのデータパターンによっては、スペースの再利用操作が context deadline exceeded エラーで失敗することがありました。タイムアウト値を調整すると、このエラーが回避されます。
詳細は、Customize timeouts for Reclaim Space Operation のナレッジベースの記事を参照してください。
5.2. 暗号化された RBD ボリュームの拡張 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation では、暗号化された RBD Persistent Volume Claim (PVC) でサイズ変更機能が有効になりました。
詳細は、Enabling resize for encrypted RBD PVC ナレッジベースの記事を参照してください。
5.3. 外部モードの IPV6 サポート リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation では、ユーザーが IPv6 Red Hat Ceph Storage 外部スタンドアロン Ceph クラスターを使用して、IPV6 OpenShift Container Platform クラスターに接続できるようになりました。Python スクリプトの実行中に、同じエンドポイントフラグを使用して IPv6 エンドポイントを渡すことができます。
5.4. ネットワークファイルシステムによる namespace 間のエクスポート共有サポート リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation を使用して NFS エクスポートを動的に作成する場合、PersistentVolumeClaim を使用して Pod 内の NFS エクスポートにアクセスします。別の OpenShift namespace の別のアプリケーションに、同じ NFS-export をすぐに使用できません。別の OpenShift namespace で 2 番目の PersistentVolumeClaim にバインドできる 2 番目の PersistentVolume を作成できるようになりました。
詳細は、ODF provisioned NFS/PersistentVolume sharing between Namespaces ナレッジベースの記事を参照してください。
5.5. 送信中のデータ圧縮 リンクのコピーリンクがクリップボードにコピーされました!
ネットワーク上のデータ圧縮は、遅延とネットワークコストを削減すると、マルチアベイラビリティゾーンのデプロイメントを容易化できます。また、ネットワーク帯域幅がパフォーマンスのボトルネックになっている場合にも役立ちます。
詳細は、In-transit compression のナレッジベースの記事を参照してください。
第6章 バグ修正 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.14 で導入された重要なバグ修正について説明します。
6.1. 障害復旧 リンクのコピーリンクがクリップボードにコピーされました!
ブロックリストに登録しても Pod がエラー状態でスタックすることはなくなりました
以前のリリースでは、ネットワークの問題、または非常に過負荷/不均衡なクラスターが原因でブロックリスト登録が実行されると、テイルレイテンシーが急増しました。このため、Pod が
CreateContainerErrorで停止し、Error: relabel failed /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount: lsetxattr /var/lib/kubelet/pods/cb27938e-f66f-401d-85f0-9eb5cf565ace/volumes/kubernetes.io~csi/pvc-86e7da91-29f9-4418-80a7-4ae7610bb613/mount/#ib_16384_0.dblwr: read-only file systemというメッセージが表示されました。この修正により、ブロックリストに登録しても Pod がエラー状態でスタックすることはなくなりました。
Ceph は Globalnet によって割り当てられたグローバル IP を認識するようになりました
以前のリリースでは、Ceph は Globalnet によって割り当てられたグローバル IP を認識しなかったため、Globalnet を使用して重複するサービス CIDR を持つクラスター間で Disaster Recovery ソリューションを設定できませんでした。この問題は修正され、サービス CIDR が重複した場合に Disaster Recovery ソリューションが機能するようになりました。
ワークロードをピアクラスターにフェイルオーバーまたは再配置すると、フェイルオーバーまたは再配置元のクラスターがクリーンアップされるまで、
PeerReady条件がtrueに設定されなくなりました以前のリリースでは、障害復旧 (DR) アクションを開始した後、ワークロードがピアクラスターにフェイルオーバーまたは再配置される間、
PeerReady条件は最初にtrueに設定されました。その後、フェイルオーバーまたは再配置元のクラスターは、今後のアクションのためにクリーンアップされるまで、falseに設定されていました。アクションを実行するためにDRPlacementControlステータス条件を見ているユーザーは、この中間的なPeerReady状態を見て、ピアの準備ができていると認識し、アクションを実行する可能性がありました。このような場合は、操作が保留または失敗し、回復するにはユーザーの介入が必要になる可能性があります。今回の修正により、クラスターがクリーンアップされるまで、失敗したワークロードまたは再配置されたワークロードで
PeerReady状態がtrueに設定されなくなり、ユーザーが混乱しなくてすみます。
災害後に ACM ハブが回復されたときに、アプリケーションがクリーンアップ状態に留まらなくなりました
以前のリリースでは、災害時に ACM ハブが失われ、バックアップを使用して復元された場合、VRG ManifestWork および DRPC ステータスは復元されませんでした。これにより、アプリケーションはクリーンアップ状態のままになりました。
今回の修正により、Ramen は VRG ManifestWork が ACM バックアップの一部であることを確認し、ハブの回復後に DRPC ステータスが空の場合に DRPC ステータスを再構築して、アプリケーションがフェイルオーバークラスターに正常に移行するようになりました。
STS ベースのアプリケーションを期待どおりに再配置できるようになりました
以前のリリースでは、STS ベースのアプリケーションの再配置は、根本的なバグにより失敗していました。このバグは修正され、STS ベースのアプリケーションの再配置が期待どおりに機能するようになりました。
ハブ復旧後に Ramen が想定どおりに調整されます
以前のリリースでは、アクティブ/パッシブのハブ Metro-DR 設定を使用している場合、Ramen リコンサイラーが許容されるレート制限パラメーターを超えた後に実行を停止するという状況が発生することがまれにありました。調整は各ワークロードに固有であるため、そのワークロードのみが影響を受けました。このような場合、Ramen Pod が再起動するまで、そのワークロードに関連するすべての障害復旧オーケストレーションアクティビティーが停止していました。
この問題は修正され、Ramen はハブの復元後に想定どおりに調整されるようになりました。
ハブの回復中に管理対象リソースが削除されなくなりました
以前は、ハブのリカバリー中に、OpenShift Data Foundation で Red Hat Advanced Cluster Management バージョン 2.7.4 (またはそれ以降) の既知の問題が発生し、サブスクリプションベースのワークロードに関連付けられた特定のマネージドリソースが意図せず削除される可能性がありました。
この問題は修正されており、ハブの回復中に管理リソースは削除されなくなりました。
6.1.1. DR アップグレード リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、障害復旧環境での Red Hat OpenShift Data Foundation のバージョン 4.13 から 4.14 へのアップグレードに関連するバグについて説明します。
アップグレード前に存在していたワークロードのフェイルオーバーまたは再配置がブロックされなくなりました
以前のリリースでは、アップグレード前に存在していたワークロードのフェイルオーバーまたは再配置がブロックされていました。これは、OpenShift Data Foundation Disaster Recovery ソリューションが永続ボリューム (PV) データに加えて永続ボリューム要求 (PVC) データを保護し、ワークロードに PVC データがバックアップされていなかったためです。
今回の修正により、アップグレード前に存在していたワークロードのフェイルオーバーまたは再配置がブロックされなくなりました。
DRPC では不正な値がキャッシュされなくなりました
以前のリリースでは、OpenShift Data Foundation がアップグレードされたときに、障害復旧配置制御 (DRPC) の
status.preferredDecision.ClusterNamespaceに誤った値がキャッシュされていた可能性がありました。この問題は修正され、誤った値はキャッシュされなくなりました。
6.2. Multicloud Object Gateway リンクのコピーリンクがクリップボードにコピーされました!
仮想ホストスタイルが NooBaa バケットで利用可能になりました
以前のバージョンでは、NooBaa エンドポイントとコアが DNS 設定のポートを認識していなかったため、仮想ホストスタイルは NooBaa バケットでは機能しませんでした。
今回の更新により、NooBaa Operator は DNS のポートをコアおよびエンドポイントに渡して、Virtual-host スタイルを利用できるようになりました。
ダミーの認証情報がログに出力されなくなりました
以前のリリースでは、ダミーの認証情報がログに出力され、混乱を招く可能性がありました。このバグは修正され、認証情報が出力されなくなりました。
NooBaa は、制限時間内に認証情報が提供されない場合、pv-pool タイプのバッキングストアの使用にフォールバックするようになりました。
NooBaa のインストール前などに、クラウド認証情報のリクエストが作成されてから、クラウド認証情報 Operator はシークレットを提供できない、または提供に失敗すると、クラウド認証情報 Operator モードが手動モードに設定され、必要な追加アクションが実行されませんでした。提供されるシークレットには、デフォルトのバッキングストアのターゲットバケットの作成に必要な認証情報が含まれます。これは、デフォルトのバッキングストアが作成されておらず、Noabaa が設定段階でスタックしていることを意味します。
この修正により、クラウド認証情報リクエストが送信され、定義された制限時間 (10 分) 内にシークレットを取得できなかった場合、NooBaa は pv-pool タイプのバッキングストアの使用にフォールバックします。つまり、システムのステータスが Ready であり、デフォルトのバッキングストアのタイプが pv-pool である必要があります。
Postgresql DB パスワードがコアログとエンドポイントログにクリアテキストで表示されなくなりました
以前のリリースでは、noabaa-core の内部 Postgresql クライアントは接続パラメーターオブジェクトをログに出力し、このオブジェクトには Postgresql DB に接続するためのパスワードが含まれていました。
今回の修正により、ログに出力される接続オブジェクトからパスワード情報が省略され、ログへのメッセージには機密性のない接続の詳細のみが含まれます。
6.3. Ceph container storage interface (CSI) リンクのコピーリンクがクリップボードにコピーされました!
CSI CephFS および RBD ホルダー Pod はアップグレード後に古い
cephcsiイメージを使用しなくなります以前のリリースでは、CSI CephFS および RBD ホルダー Pod は古い
cephcsiイメージを使用していたため、アップグレード後に更新されませんでした。今回の修正により、CSI CephFS および RBD ホルダーの daemonset オブジェクトもアップグレードされ、CSI ホルダー Pod は最新の
cephcsiイメージを使用するようになりました。
再起動プロセスの信頼性が向上し、制御されるようになりました
以前のリリースでは、
resyncコマンドが効果的にトリガーされず、同期の問題が発生し、イメージミラーリングを無効にできなくなりました。これは、CephCSI がresyncコマンドを発行するためにイメージミラーの状態に依存しており、状態が予測できず変化し、信頼性が低くなっていたことが理由です。この修正により、ボリュームが降格されるときに、CephCSI はイメージ作成のタイムスタンプを保存します。
resyncコマンドが発行されると、CephCSI は保存されたタイムスタンプと現在の作成タイムスタンプを比較し、タイムスタンプが一致する場合にのみresyncが続行されます。また、CephCSI はイメージの状態と最後のスナップショットのタイムスタンプを調べて、再同期が必要かどうか、またはエラーメッセージを表示する必要があるかどうかを判断します。これにより、より信頼性が高く、再同期プロセスを制御できます。
6.4. OpenShift Data Foundation Operator リンクのコピーリンクがクリップボードにコピーされました!
S3 クライアントが同じゾーン内の RGW と通信できないため、不必要なネットワーク遅延がなくなりました。
以前のリリースでは、Ceph オブジェクトストアを使用し、別のゾーンへの転送をリクエストしているときに、S3 クライアントが同じゾーン内の RGW と通信できなかったため、不要なネットワーク遅延が発生していました。
今回の修正により、リクエストが同じゾーン内の RGW サーバーにルーティングされるように、アノテーション service.kubernetes.io/topology-mode が RGW サービスに追加されます。その結果、Pod は最も近い RGW サービスにルーティングされます。
BZ#977778
6.5. OpenShift Data Foundation コンソール リンクのコピーリンクがクリップボードにコピーされました!
ボリューム種別のドロップダウンがユーザーインターフェイスから削除されました
以前のリリースでは、OpenShift Data Foundation の内部インストールでディスクが SSD であると想定されていたとしても、ユーザーインターフェイスには既存のクラスターのボリューム種別ドロップダウンに HDD、SSD、またはその両方が表示されていました。
この修正により、ボリューム種別のドロップダウンがユーザーインターフェイスから削除され、想定として常に SSD が使用されるようになりました。
OpenShift Data Foundation トポロジー rook-ceph-operator デプロイメントで正しいリソースが表示されるようになりました
以前は、CSI Pod およびその他の Pod の所有者参照が rook-ceph-operator に設定されていたため、マッピングではこれらの Pod もデプロイメントの一部として表示されていました。
今回の修正により、Pod のマッピングアプローチが上から下ではなく、下から上方向に変更され、デプロイメントに関連する Pod のみが表示されるようになります。
CSS プロパティーは、ウィンドウサイズの変化に合わせてリソースリストの高さを動的に調整するように設定されます
以前のリリースでは、CSS プロパティーがサイドバーに適切に適用されなかったため、トポロジービューのリソースリストのサイドバーはウィンドウサイズに基づいて長さが調整されませんでした。
今回の修正により、リソースリストの高さを動的に調整するように CSS プロパティーは、全画面モードと通常画面モードの両方でウィンドウサイズの変更に動的に調整されるようになりました。
LSO からデフォルトのストレージクラスに移行するときに、容量の追加操作が失敗しなくなりました
以前のリリースでは、LSO からデフォルトのストレージクラスに移動するときに、拡張用の永続ボリューム (PV) が正しく作成されなかったため、容量の追加操作が失敗していました。
今回の修正により、LSO ベースのストレージクラスを使用してストレージクラスターが最初に作成される場合に、LSO 以外のストレージクラスを使用した容量の追加操作は使用できなくなります。
OpenShift Data Foundation トポロジーのリソース使用率がメトリクスと一致するようになりました
以前のリリースでは、ノードとデプロイメントのリソースリストのサイドバーで使用されるメトリクスクエリーが異なっていたため、OpenShift Data Foundation トポロジーのリソース使用率はメトリクスと一致しませんでした。
この修正により、メトリクスクエリーが同じになり、その結果、両方の場所で値が同じになります。
外部モードのトポロジービューが無効になりました
以前のリリースでは、トポロジービューで外部モードがサポートされていないため、トポロジービューに空白の画面が表示されていました。
今回の修正により、外部モードが無効になり、空白の画面の代わりにメッセージが表示されるようになりました。
トポロジーにはすべてのノードで rook-ceph-operator が表示されなくなりました
以前は、Rook-Ceph Operator のデプロイメントが実際には関連していない複数の Pod の所有者であるため、トポロジービューではすべてのノードに Rook-Ceph Operator のデプロイメントが表示されていました。
この修正により、トポロジービューのノードへのデプロイメントのマッピングメカニズムが変更され、その結果、Rook-Ceph Operator のデプロイメントが 1 つのノードにのみ表示されます。
コンソールのユーザーインターフェイスに OVN ではなく SDN が表示されなくなりました
以前のバージョンでは、OpenShift Container Platform が SDN から OVN に移行したにもかかわらず、コンソールのユーザーインターフェイスには OVN ではなく SDN が表示されていました。
今回の修正により、テキストが SDN から OVN に変更され、その結果、ネットワーク管理のテキストに OVN が表示されるようになりました。
リソース名は、小文字または数字で始まり、小文字で終わるというルールに従う必要があります。ルールに従わない場合は正規表現でエラーが返されます
以前のリリースでは、オブジェクトバケットクレーム (OBC)、バッキングストア、ブロッキングプール、namespace ストア、およびバケットクラスの入力名の正規表現検証が無効であったため、名前の最初に記号または大文字が使用されている場合、"starts and ends with a lowercase letter or number" のルールに違反していました。
今回のリリースでは、この問題は修正されており、リソース名が小文字または数字で始まり小文字で終わるというルールに従っていない場合、正規表現はエラーを返します。
6.6. Rook リンクのコピーリンクがクリップボードにコピーされました!
ODF モニタリングでメトリクス値が欠落することがなくなりました
以前のリリースでは、ceph-exporter のサービスモニター用のポートが欠落していました。これは、Ceph デーモンのパフォーマンスメトリクスが欠落していることを意味します。
今回の修正により、ceph-exporter サービスモニターのポートが追加され、Ceph デーモンのパフォーマンスメトリクスが prometheus で表示されるようになりました。
ネットワークの問題がある場合の OSD Pod はフラッピングを継続しなくなりました
以前のリリースでは、ネットワークの問題により OSD Pod がフラッピングを開始すると、フラッピングが継続していました。これはシステムに悪影響を及ぼす可能性があります。
今回の修正により、フラッピング OSD Pod は一定時間後に down とマークされ、システムに影響を与えなくなりました。
MDS が不必要に再起動されなくなりました
以前は、liveness プローブが
ceph fs dumpをチェックせずに MDS を再起動したため、MDS Pod が不必要に再起動されました。今回の修正により、liveness プローブは
ceph fs dump内の MDS を監視し、ダンプ出力に MDS が見つからなかった場合にのみ MDS を再起動します。BZ#977778
第7章 既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.14 の既知の問題について説明します。
7.1. 障害復旧 リンクのコピーリンクがクリップボードにコピーされました!
フェイルオーバーアクションは、RPC エラー still in use を表示し、Pod で失敗した RADOS ブロックデバイスのイメージマウントを報告する。
障害復旧 (DR) で保護されるワークロードをフェイルオーバーすると、フェイルオーバーしたクラスター上のボリュームを使用している Pod が、RADOS ブロックデバイス (RBD) イメージがまだ使用中であることを報告する時に停止する可能性があります。これにより、Pod が長時間 (最大数時間) 起動できなくなります。
マネージドクラスターのアプリケーション namespace が作成される
アプリケーション namespace は、Disaster Recovery(DR) 関連の事前デプロイアクションのために RHACM マネージドクラスターに存在する必要があるため、アプリケーションが ACM ハブクラスターにデプロイされるときに事前に作成されます。ただし、アプリケーションがハブクラスターで削除され、対応する namespace がマネージドクラスターで削除された場合、それらはマネージドクラスターに再表示されます。
回避策:
openshift-drは、ACM ハブのマネージドクラスター namespace に namespacemanifestworkリソースを維持します。これらのリソースは、アプリケーションの削除後に削除する必要があります。たとえば、クラスター管理者として、ハブクラスターでoc delete manifestwork -n <managedCluster namespace> <drPlacementControl name>-<namespace>-ns-mwのコマンドを実行します。
クラスターがストレッチモードの場合、ceph
dfが無効な MAX AVAIL 値を報告するRed Hat Ceph Storage クラスターのクラッシュルールに複数の "take" ステップがある場合、
ceph dfレポートは、マップの使用可能な最大サイズを間違って表示します。この問題は、今後のリリースで修正される予定です。
両方の DRPC が、同じ namespace で作成されたすべての永続ボリューム要求を保護する
複数の障害復旧 (DR) で保護されたワークロードをホストする namespace は、指定されていないハブクラスター上の同じ namespace 内の各 DRPlacementControl リソースの namespace にある永続ボリュームクレーム (PVC) をすべて保護し、その
spec.pvcSelectorフィールドを使用してワークロードに基づいて PVC を分離します。これにより、複数のワークロードにわたって DRPlacementControl
spec.pvcSelectorに一致する PVC が生成されます。あるいは、すべてのワークロードでセレクターが欠落している場合、レプリケーション管理が各 PVC を複数回管理し、個々の DRPlacementControl アクションに基づいてデータの破損または無効な操作を引き起こす可能性があります。回避策: ワークロードに属する PVC に一意のラベルを付け、選択したラベルを DRPlacementControl
spec.pvcSelectorとして使用して、どの DRPlacementControl が namespace 内の PVC のどのサブセットを保護および管理するかを明確にします。ユーザーインターフェイスを使用して DRPlacementControl のspec.pvcSelectorフィールドを指定することはできません。したがって、そのようなアプリケーションの DRPlacementControl を削除し、コマンドラインを使用して作成する必要があります。結果: PVC は複数の DRPlacementControl リソースによって管理されなくなり、操作およびデータの不整合は発生しません。
MongoDB Pod は、
cephrbdボリュームのデータを読み取る許可エラーのため、CrashLoopBackoffになっています異なるマネージドクラスターにまたがる OpenShift プロジェクトには、異なるセキュリティーコンテキスト制約 (SCC) があり、特に指定された UID 範囲と
FSGroupsが異なります。これにより、特定のワークロード Pod とコンテナーが、ログ内のファイルシステムアクセスエラーが原因で、これらのプロジェクト内でフェイルオーバーの操作または再配置操作を開始できなくなります。回避策: ワークロードプロジェクトが同じプロジェクトレベルの SCC ラベルを持つすべてのマネージドクラスターで作成されていることを確認し、フェイルオーバーまたは再配置時に同じファイルシステムコンテキストを使用できるようにします。Pod は、ファイルシステム関連のアクセスエラーで DR 後のアクションに失敗しなくなりました。
再配置中にアプリケーションが Relocating 状態でスタックする
マルチクラウドオブジェクトゲートウェイでは、同じ名前または namespace の複数の永続ボリューム (PV) オブジェクトを同じパスの S3 ストアに追加できました。これにより、同一の
claimRefを指す複数のバージョンが検出されたため、Ramen は PV を復元しません。回避策: S3 CLI または同等の機能を使用して、重複する PV オブジェクトを S3 ストアからクリーンアップします。タイムスタンプがフェイルオーバーまたは再配置の時刻に近いものだけを保持します。
結果: 復元操作が完了し、フェイルオーバーまたは再配置操作が次のステップに進みます。
障害復旧のワークロードが削除されたままになる
クラスターからワークロードを削除すると、対応する Pod が
FailedKillPodなどのイベントで終了しない場合があります。これにより、PVC、VolumeReplication、VolumeReplicationGroupなどの DR リソースに依存するガベージコレクションで遅延または障害が発生する可能性があります。また、古いリソースがまだガベージコレクションされていないため、クラスターへの同じワークロードの今後のデプロイもできなくなります。回避策: Pod が現在実行中で、終了状態でスタックしているワーカーノードを再起動します。これにより、Pod が正常に終了し、その後、関連する DR API リソースもガベージコレクションされます。
マネージドクラスターが OpenShift Container Platform と OpenShift Data Foundation の異なるバージョン上にある場合、アプリケーションのフェイルオーバーが
Failover状態でハングするOpenShift Data Foundation 4.14 を使用した障害復旧ソリューションは、永続ボリューム (PV) データに加えて永続ボリューム要求 (PVC) データを保護および復元します。プライマリークラスターが古い OpenShift Data Foundation バージョン上にあり、ターゲットクラスターが 4.14 に更新されている場合、S3 ストアに PVC データがないため、フェイルオーバーが停止します。
回避策: Disaster Recovery クラスターをアップグレードする場合は、最初にプライマリークラスターをアップグレードしてから、アップグレード後の手順を実行する必要があります。
DRPolicy が同じ namespace 内の複数のアプリケーションに適用されると、ボリュームレプリケーショングループが作成されない
namespace 内の他のアプリケーションと同じ場所に配置されているアプリケーション用に DRPlacementControl (DRPC) が作成される場合、DRPC にはアプリケーション用のラベルセレクターセットがありません。その後ラベルセレクターに変更が加えられた場合、OpenShift Data Foundation Hub コントローラーの検証アドミッション Webhook は変更を拒否します。
回避策: アドミッション Webhook がそのような変更を許可するように変更されるまでは、DRPC
validatingwebhookconfigurationsにパッチを適用して Webhook を削除できます。$ oc patch validatingwebhookconfigurations vdrplacementcontrol.kb.io-lq2kz --type=json --patch='[{"op": "remove", "path": "/webhooks"}]'
c1 クラスターから c2 クラスターへのアプリのフェイルオーバーがフェイルオーバーでハングする
S3 ストアの設定ミスによりデータが S3 ストアにアップロードされない場合でも、Ramen は、フェイルオーバーアクションを無効にしないので、フェイルオーバー中にフェイルオーバークラスターでクラスターデータが利用できません。そのため、フェイルオーバーを完了できません。
回避策: 初期デプロイ後に Ramen ログを調べて、s3 設定エラーが報告されていないことを確認します。
$ oc get drpc -o yaml
ハブ復旧後のデータ損失の潜在的なリスク
孤立したリソースをクリーンアップするように設計されたエビクションルーチンにより、ハブの回復後に潜在的なデータ損失のリスクが存在します。このルーチンは、コレクション用の対応する
ManifestWorksが欠如しているAppliedManifestWorksインスタンスを識別し、マークします。1 時間のハードコーディングされた猶予期間が提供されます。この期間が経過すると、AppliedManifestWorkに関連付けられたすべてのリソースがガベージコレクションの対象になります。ハブクラスターが最初の 1 時間以内に対応する
ManifestWorksを再生成できなかった場合は、データ損失が発生する可能性があります。これは、データ損失のリスクを最小限に抑えるために、ManifestWorks のハブ後のリカバリーの再作成を妨げる可能性がある問題に迅速に対処することの重要性を強調しています。
7.1.1. DR アップグレード リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、障害復旧環境での Red Hat OpenShift Data Foundation のバージョン 4.13 から 4.14 へのアップグレードに関連する問題と回避策について説明します。
status.preferredDecision.ClusterNamespaceでキャッシュされた値が間違っているOpenShift Data Foundation がバージョン 4.13 から 4.14 にアップグレードされると、障害復旧配置制御 (DRPC) の
status.preferredDecision.ClusterNamespaceに誤った値がキャッシュされる可能性があります。その結果、DRPC はフェイルオーバーがすでに完了していることを検出せず、誤ってWaitForFencingPROGRESSION に入ります。マネージドクラスターのワークロードは、この問題の影響を受けません。回避策:
-
影響を受ける DRPC を特定するには、CURRENTSTATE として
FailedOver状態にあり、WaitForFencingPROGRESSION でスタックしている DRPC がないか確認します。 間違った値をクリアするには、DRPC サブリソースを編集し、
status.PreferredCluster.ClusterNamespaceという行を削除します。$ oc edit --subresource=status drpc -n <namespace> <name>DRPC ステータスを確認するには、PROGRESSION が
COMPLETED状態であり、FailedOverが CURRENTSTATE であるかどうかを確認します。
-
影響を受ける DRPC を特定するには、CURRENTSTATE として
7.2. Ceph リンクのコピーリンクがクリップボードにコピーされました!
CephFS でのストレッチクラスターのパフォーマンスが低下する
マルチサイトの Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。
非常に多くのファイルによる SELinux の再ラベル付けの問題
Red Hat OpenShift Container Platform でボリュームを Pod にアタッチすると、Pod が起動しないか、起動に過度に時間がかかることがあります。この動作は一般的なもので、Kubelet による SELinux の再ラベル付けの処理方法に関係しています。この問題は、ファイル数が非常に多いファイルシステムベースのボリュームで発生します。OpenShift Data Foundation では、非常に多くのファイルがある CephFS ベースのボリュームを使用すると、この問題が発生します。この問題の回避にはさまざまな方法があります。ビジネスニーズに応じて、ナレッジベースソリューション https://access.redhat.com/solutions/6221251 から回避策の 1 つを選択できます。
クラッシュまたはシャットダウンテストの実行後、Ceph にアクセスできなくなります
ストレッチクラスターでは、モニターが復活し、他のモニターが
MonitorMapやOSDMapなどの最新情報を受信するためのプローブ段階にある場合に、プローブ段階ではstretch_modeに入ることができません。これにより、elector のdisallowed_leadersリストを正しく設定できなくなります。復活したモニターのスコアが実際に一番高いと仮定すると、現在の選出でリーダーに最適であると認識し、自身がリーダーに適していると提案し、生存しているモニターにより
disallowed_leadersリストをもとに拒否され続けるため、モニターの選出フェーズを停止させる原因になります。これにより、モニターが選択中に停止し、最終的に Ceph が応答しなくなります。この問題を回避するには、選択中にスタックして Ceph が応答しなくなったときに、次のコマンドを使用して各モニターの接続スコアをリセットします。
`ceph daemon mon.{name} connection scores reset`これが機能しない場合は、モニターを 1 つずつ再起動します。その後、選出の停滞が解消され、モニターがリーダーを選出して定足数を形成できるようになり、Ceph は再び応答できるようになります。
Ceph がワークロードのデプロイ後に
アクティブなマネージャーを報告しませんワークロードのデプロイメント後に、Ceph マネージャーは MON への接続を失うか、liveness プローブに応答できなくなります。
これが原因で、ODF クラスターのステータスがアクティブなマネージャーが存在しないと報告し、また、Ceph マネージャーを使用してリクエスト処理を行う複数の操作が失敗します。たとえば、ボリュームのプロビジョニング、CephFS スナップショットの作成などです。
ODF クラスターのステータスを確認するには、コマンド
oc get cephcluster -n openshift-storageを使用します。クラスターにこの問題がある場合、ステータス出力のstatus.ceph.details.MGR_DOWNフィールドに "no active mgr" というメッセージが表示されます。この問題を回避するには、以下のコマンドを使用して Ceph Manager Pod を再起動します。
# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=0# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=1これらのコマンドを実行すると、ODF クラスターのステータスは正常なクラスターを報告し、
MGR_DOWNに関する警告やエラーは表示されません。
StorageCluster でカスタム deviceClass が使用されている場合に CephBlockPool の作成が失敗します
既知の問題により、StorageCluster でカスタム deviceClass が使用されると、CephBlockPool の作成に失敗します。
7.3. CSI ドライバー リンクのコピーリンクがクリップボードにコピーされました!
スナップショットの自動フラット化が機能しない
一般的な親 RBD PVC が 1 つあり、ボリュームスナップショット、復元、およびスナップショットが 450 回以上連続して実行する場合は、ボリュームスナップショットまたは共通の親 RBD PVC のクローンを取得することはできません。
この問題を回避するには、順番にボリュームスナップショット、復元、および削除を行う代わりに、PVC を使用して PVC のクローンを作成することで、この問題を完全に回避できます。
この問題が発生した場合は、カスタマーサポートに連絡して、最終復元 PVC の手動フラット化を実行し、共通の親 PVC のボリュームスナップショットまたはクローンを再度取得してください。
7.4. OpenShift Data Foundation コンソール リンクのコピーリンクがクリップボードにコピーされました!
NodeStageVolume RPC 呼び出しが見つからないため、新しい Pod が実行状態にならないようにブロックされます
NodeStageVolume RPC 呼び出しが発行されていないため、一部の Pod が
Running状態になりません。新規 Pod は永久にPendingで停止します。この問題を回避するには、影響を受けるすべての Pod を一度にスケールダウンするか、ノードを再起動します。回避策を適用した後、すべての Pod が Running 状態になるはずです。
バックアップでデータの転送に失敗します
状況によっては、バックアップがデータの転送に失敗し、スナップショット PVC が保留状態のままになることがあります。
第8章 非推奨の機能 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Red Hat OpenShift Data Foundation 4.14 で導入された非推奨の機能を説明します。
8.1. Red Hat Virtualization プラットフォーム リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Data Foundation 4.14 以降、Red Hat Virtualization Platform (RHV) 上の OpenShift のインストーラープロビジョニングインフラストラクチャー (IPI) デプロイメントにデプロイされた OpenShift Data Foundation はサポートされなくなりました。
詳細は、OpenShift Container Platform 4.14 リリースノート を参照してください。
第9章 非同期エラータの更新 リンクのコピーリンクがクリップボードにコピーされました!
9.1. RHSA-2025:0323 OpenShift Data Foundation 4.14.13 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.13 が利用可能になりました。この更新に含まれるバグ修正は、RHSA-2025:0323 アドバイザリーに記載されています。
9.2. RHBA-2024:10129 OpenShift Data Foundation 4.14.12 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.12 が利用可能になりました。この更新に含まれるバグ修正のリストは、RHBA-2024:10129 アドバイザリーにまとめられています。
9.3. RHSA-2024:7624 OpenShift Data Foundation 4.14.11 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.11 が利用可能になりました。この更新に含まれるバグ修正は、RHSA-2024:7624 アドバイザリーに記載されています。
9.4. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.5. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.6. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.7. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.8. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.9. RHBA-2024:2636 OpenShift Data Foundation 4.15.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.15.2 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2024:5039 アドバイザリーに記載されています。
9.10. RHBA-2024:0315 OpenShift Data Foundation 4.14.4 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.4 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2024:0315 アドバイザリーにリストされています。
9.11. RHBA-2023:7869 OpenShift Data Foundation 4.14.3 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.3 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:7869 アドバイザリーにリストされています。
9.12. RHBA-2023:7776 OpenShift Data Foundation 4.14.2 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.2 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:7776 アドバイザリーにリストされています。
9.13. RHBA-2023:7696 OpenShift Data Foundation 4.14.1 のバグ修正とセキュリティー更新 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Data Foundation リリース 4.14.1 が利用可能になりました。この更新に含まれるバグ修正は、RHBA-2023:7696 アドバイザリーにリストされています。