OpenShift Data Foundation の更新
クラスターおよびストレージ管理者向けのアップグレードに関する手順
概要
多様性を受け入れるオープンソースの強化
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat ドキュメントへのフィードバック (英語のみ)
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があれば、ぜひお知らせください。フィードバックをお寄せいただくには、以下をご確認ください。
特定の部分についての簡単なコメントをお寄せいただく場合は、以下をご確認ください。
- ドキュメントの表示が Multi-page HTML 形式になっていていることを確認してください。ドキュメントの右上隅に Feedback ボタンがあることを確認してください。
- マウスカーソルを使用して、コメントを追加するテキストの部分を強調表示します。
- 強調表示されたテキストの下に表示される Add Feedback ポップアップをクリックします。
- 表示される指示に従ってください。
より詳細なフィードバックをお寄せいただく場合は、Bugzilla のチケットを作成してください。
- Bugzilla の Web サイトに移動します。
- Component セクションで、documentation を選択します。
- Description フィールドに、ドキュメントの改善に向けたご提案を記入してください。ドキュメントの該当部分へのリンクも追加してください。
- Submit Bug をクリックします。
第1章 OpenShift Data Foundation 更新プロセスの概要
この章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) のマイナーリリースおよび z-stream リリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。
OpenShift Data Foundation とそのコンポーネントは、4.10 と 4.11 のようなマイナーリリース間、または 4.11.0 と 4.11.1 のような z-stream 間更新で、自動更新を有効にするか (Operator のインストール時に行っていない場合)、手動で更新を行うことでアップグレードできます。z-stream の新規リリースが利用可能になると、更新ストラテジーが Automatic に設定されている場合、アップグレードプロセスが自動的にトリガーされます。
また、内部および外部モードのデプロイメントの両方で、以下の順序で Red Hat OpenShift Data Foundation のさまざまな部分をアップグレードする必要もあります。
- OpenShift Container Platform の クラスターの更新 ドキュメントに従って OpenShift Container Platform を更新します。
Red Hat OpenShift Data Foundation を更新します。
- 更新に非接続環境を準備する には、Operator Lifecycle Manager を制限されたネットワークで使用するための Operator ガイドを参照し、OpenShift Data Foundation およびローカルストレージ Operator を使用している場合はこれらを更新できるようにします。
- マイナーリリース間の更新 は、Red Hat OpenShift Data Foundation 4.10 から 4.11 への更新 を参照してください。
- z-stream リリース間の更新 は、Red Hat OpenShift Data Foundation 4.11.x の 4.11.y への更新 を参照してください。
- 外部モードのデプロイメントを更新する場合は、Red Hat OpenShift Data Foundation 外部シークレットの更新 のセクションにある手順も実行する必要があります。
- ローカルストレージ演算子を使用している場合は、Local Storage operator を更新します。不明な場合は、Checking for Local Storage Operator deployments を参照してください。
更新に関する考慮事項
開始する前に、以下の重要な考慮事項を確認してください。
Red Hat Open Shift Container Platform のバージョンは、Red Hat Open Shift Data Foundation と同じです。
OpenShift Container Platform および Red Hat OpenShift Data Foundation のサポートされる組み合わせについての詳細は、Interoperability Matrix を参照してください。
- クラスターが内部モードまたは外部モードのどちらでデプロイされたかを確認するには、ODF クラスターに内部モードまたは外部モードのストレージがあるかどうかを判別する方法 に関する ナレッジベースの記事 を参照してください。
- ローカルストレージ Operator は、ローカルストレージ Operator のバージョンが Red Hat OpenShift Container Platform のバージョンと一致する場合にのみ完全にサポートされます。
- フレキシブルスケーリング機能は、OpenShift Data Foundation の新しいデプロイメントでのみ利用できます。詳細は、Scaling storage guide を参照してください。
第2章 OpenShift Data Foundation アップグレードチャネルおよびリリース
Red Hat は、OpenShift Container Platform 4.1 で、クラスターのアップグレードの適切なリリースバージョンを推奨するためにチャネルという概念を導入しました。アップグレードのペースを制御することで、これらのアップグレードチャネルからアップグレードストラテジーを選択することができます。OpenShift Data Foundation は、OpenShift Container Platform の Operator としてデプロイされるため、同じストラテジーに従って、複数のチャネルに修正を提供し、アップグレードのペースを制御します。アップグレードチャネルは、OpenShift Data Foundation のマイナーバージョンに関連付けられます。
たとえば、OpenShift Data Foundation 4.11 アップグレードチャネルでは、4.11 内のアップグレードが推奨されます。今後のリリースへのアップグレードは推奨されていません。このストラテジーにより、管理者は OpenShift Data Foundation の次のマイナーバージョンへのアップグレードに関して明確な決定を行うことができます。
アップグレードチャネルはリリースの選択のみを制御し、インストールするクラスターのバージョンには影響を与えません。odf-operator
は、インストールされる OpenShift Data Foundation のバージョンを決定します。デフォルトで、OpenShift Container Platform との互換性を維持しながら、最新の OpenShift Data Foundation リリースを常にインストールします。そのため、OpenShift Container Platform 4.10 では、OpenShift Data Foundation 4.10 はインストールできる最新バージョンになります。
OpenShift Data Foundation アップグレードは、互換性と相互運用性が OpenShift Container Platform で維持されるように OpenShift Container Platform のアップグレードと連動します。OpenShift Data Foundation 4.11 では、OpenShift Container Platform 4.11 および 4.12 (GA 後) がサポートされます。OpenShift Container Platform 4.12 は、OpenShift Container Platform との OpenShift Data Foundation の上位互換性を維持するためにサポートされています。OpenShift Data Foundation のバージョンを OpenShift Container Platform と同じにしておくと、そのリリースのすべての機能や拡張機能を活用できます。
基本的な Kubernetes の設計により、マイナーバージョン間のすべての OpenShift Container Platform の更新をシリアライズする必要があります。OpenShift Container Platform 4.9 から 4.10 に更新してから、4.11 に更新する必要があります。OpenShift Container Platform 4.9 から 4.11 に直接更新することはできません。詳細は、OpenShift Container Platform ドキュメントの Updating clusters ガイドにある Preparing to perform an EUS-to-EUS update を参照してください。
OpenShift Data Foundation 4.11 は以下のアップグレードチャネルを提供します。
- stable-4.11
- eus-4.y (4.11 などの偶数番号の 4.y クラスターリリースを実行している場合のみ)
stable-4.11 チャネル
新規バージョンの GA 後、 マイナーバージョンに対応する stable チャネルが、アップグレードに使用できる新しいイメージで更新されます。stable-4.11
チャネルを使用すると OpenShift Data Foundation 4.10 からのアップグレードや 4.11 内のアップグレードが可能です。
EUS-4.y チャネル
stable チャネルに加え、OpenShift Data Foundation のすべての偶数のマイナーバージョンは、延長更新サポート (EUS) を提供します。これらの EUS バージョンでは、標準およびプレミアムサブスクリプションをお持ちのお客様のサポートフェーズを 18 カ月に延長します。stable-4.y と eus-4.y チャンネルの唯一の違いは、EUS チャネルには次の EUS リリースが利用可能な場合にのみリリースが含まれることです。
第3章 Red Hat OpenShift Data Foundation 4.10 から 4.11 への更新
この章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) のマイナーリリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。唯一の違いは、アップグレードされるものとアップグレードされないものがあることです。
- Internal および Internal-attached のデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、バックエンド Ceph Storage クラスターを含むすべての OpenShift Data Foundation サービスがアップグレードされます。
外部モードのデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、OpenShift Data Foundation サービスのみがアップグレードされ、バックエンド Ceph ストレージクラスターは変更されないままとなり、個別にアップグレードする必要があります。
新機能のサポート、セキュリティー修正、およびその他のバグ修正を取得するために、RHCS を OpenShift Data Foundation と共にアップグレードすることが推奨されます。RHCS アップグレードに強く依存していないため、最初に OpenShift Data Foundation Operator をアップグレードしてから、RHCS をアップグレードするか、その逆を行うことができます。Red Hat Ceph Storage リリースの詳細は、solution を参照してください。
4.10 よりも古いバージョンから 4.11 への直接のアップグレードはサポートされていません。
前提条件
- OpenShift Container Platform クラスターがバージョン 4.11.X の最新の安定したリリースに更新されていることを確認します。Updating Clusters を参照してください。
OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認する。
- Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview - Block and File タブおよび Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、および データ回復性 がすべて正常であることを示します。
Operator Pod を含むすべての OpenShift Data Foundation Pod が
openshift-storage
namespace で Running 状態にあることを確認する。Pod の状態を表示するには、OpenShift Web コンソールで Workloads → Pods をクリックします。Project ドロップダウンリストから
openshift-storage
を選択します。注記Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。
- 更新時間はクラスターで実行される OSD の数によって異なるため、OpenShift Data Foundation 更新プロセスを完了するのに十分な時間を確保してください。
手順
- OpenShift Web コンソールで、Operators → Installed Operators に移動します。
-
openshift-storage
プロジェクトを選択します。 - OpenShift Data Foundation Operator 名をクリックします。
- Subscription タブをクリックしてから、Update Channel の下にあるリンクをクリックします。
- Stable-4.11 更新チャンネルを選択して、保存 します。
Upgrade status に
requires approval
が表示される場合は、requires approval をクリックします。- Install Plan Details ページで、Preview Install Plan をクリックします。
インストール計画を確認し、Approve をクリックします。
Status が
Unknown
からCreated
に変更されるまで待機します。
- Operators → Installed Operators に移動します。
openshift-storage
プロジェクトを選択します。OpenShift Data Foundation Operator の Status がUp to date に変わるのを待ちます。
検証手順
OpenShift Data Foundation 名の下にある Version を確認し、演算子の状態を確認します。
-
Operators → Installed Operators に移動し、
openshift-storage
プロジェクトを選択します。 - アップグレードが完了すると、バージョンは OpenShift Data Foundation の新規バージョン番号に更新され、ステータスは緑色のチェックマークが付いて Succeeded に変わります。
-
Operators → Installed Operators に移動し、
OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認します。
- Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview- Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータの回復性が正常であることを示します。
- 検証手順が失敗した場合は、Red Hat サポート にお問い合わせください。
外部モードのデプロイメントを更新したら、外部シークレットも更新する必要があります。手順については、OpenShift Data Foundation 外部シークレットの更新 を参照してください。
関連情報
OpenShift Data Foundation の更新中に問題が発生した場合は、Troubleshooting guide の Commonly required logs for troubleshooting セクションを参照してください。
第4章 Red Hat OpenShift Data Foundation 4.11.x の 4.11.y への更新
この章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) の z-stream リリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。唯一の違いは、アップグレードされるものとアップグレードされないものがあることです。
- Internal および Internal-attached のデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、バックエンド Ceph Storage クラスターを含むすべての OpenShift Data Foundation サービスがアップグレードされます。
外部モードのデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、OpenShift Data Foundation サービスのみがアップグレードされ、バックエンド Ceph ストレージクラスターは変更されないままとなり、個別にアップグレードする必要があります。
したがって、新機能のサポート、セキュリティー修正、およびその他のバグ修正を取得するために、RHCS を OpenShift Data Foundation と共にアップグレードすることが推奨されます。RHCS アップグレードに強く依存していないため、最初に OpenShift Data Foundation Operator をアップグレードしてから、RHCS をアップグレードするか、その逆を行うことができます。Red Hat Ceph Storage リリースの詳細は、solution を参照してください。
z-stream の新規リリースが利用可能になると、更新ストラテジーが Automatic
に設定されている場合、アップグレードプロセスが自動的にトリガーされます。更新ストラテジーが Manual
に設定されている場合には、以下の手順を使用します。
前提条件
- OpenShift Container Platform クラスターがバージョン 4.11.X の最新の安定したリリースに更新されていることを確認します。Updating Clusters を参照してください。
OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認する。
- Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview - Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータの回復性が正常であることを示します。
Operator Pod を含むすべての OpenShift Data Foundation Pod が
openshift-storage
namespace で Running 状態にあることを確認する。Pod の状態を表示するには、OpenShift Web コンソールで Workloads → Pods をクリックします。Project ドロップダウンリストから
openshift-storage
を選択します。注記Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。
- 更新時間はクラスターで実行される OSD の数によって異なるため、OpenShift Data Foundation 更新プロセスを完了するのに十分な時間を確保してください。
手順
- OpenShift Web コンソールで、Operators → Installed Operators に移動します。
openshift-storage
プロジェクトを選択します。注記Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。
- OpenShift Data Foundation Operator 名をクリックします。
- Subscription タブをクリックします。
-
Upgrade Status に
require approval
が表示される場合は、requires approval リンクをクリックします。 - InstallPlan Details ページで、Preview Install Plan をクリックします。
- インストール計画を確認し、Approve をクリックします。
-
Status が
Unknown
からCreated
に変更されるまで待機します。
検証手順
OpenShift Data Foundation 名の下にある Version を確認し、演算子の状態を確認します。
-
Operators → Installed Operators に移動し、
openshift-storage
プロジェクトを選択します。 - アップグレードが完了すると、バージョンは OpenShift Data Foundation の新規バージョン番号に更新され、ステータスは緑色のチェックマークが付いて Succeeded に変わります。
-
Operators → Installed Operators に移動し、
OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認します。
- Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview - Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータ回復性が正常であることを示します。
- 検証手順が失敗した場合は、Red Hat サポート にお問い合わせください。
第5章 更新承認ストラテジーの変更
同じチャネルで新しい更新が利用可能になったときにストレージシステムが自動的に更新されるようにするには、更新承認ストラテジーを Automatic
のままにしておくことをお勧めします。更新承認ストラテジーを Manual
に変更すると、アップグレードごとに手動承認が必要になります。
手順
- Operators → Installed Operators に移動します。
Project ドロップダウンリストから
openshift-storage
を選択します。注記Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。
- OpenShift Data Foundation Operator 名をクリックします。
- Subscription タブに移動します。
- Update approval を変更するには、鉛筆 アイコンをクリックします。
- 更新承認ストラテジーを選択し、Save をクリックします。
検証手順
- 更新承認で、その下に新しく選択された承認ストラテジーが表示されていることを確認します。
第6章 OpenShift Data Foundation 外部シークレットの更新
OpenShift Data Foundation の最新バージョンへの更新後に、OpenShift Data Foundation 外部シークレットを更新します。
バッチ更新には、外部シークレットを更新する必要はありません。たとえば、OpenShift Data Foundation 4.11.x から 4.11.y に更新する場合。
前提条件
- OpenShift Container Platform クラスターを 4.11.z の最新の安定したリリースに更新している。詳細は、Updating Clusters を参照してください。
OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認する。Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview - Block and File タブで Status カードをチェックして、Storage cluster に正常であることを示す緑色のチェックマークが表示されていることを確認します。
- Object タブをクリックして、Object Service および Data resiliency に正常であることを示す緑色のチェックマークが表示されていることを確認します。RADOS Object Gateway は、OpenShift Data Foundation を外部モードでデプロイする際に、RADOS Object Gateway エンドポイントの詳細が含まれている場合にのみ表示されます。
- Red Hat Ceph Storage では、Ceph ダッシュボードがインストールされ、設定されている。
手順
ceph-external-cluster-details-exporter.py
Python スクリプトの OpenShift Data Foundation バージョンをダウンロードします。# oc get csv $(oc get csv -n openshift-storage | grep ocs-operator | awk '{print $1}') -n openshift-storage -o jsonpath='{.metadata.annotations.external\.features\.ocs\.openshift\.io/export-script}' | base64 --decode > ceph-external-cluster-details-exporter.py
更新パーミッションは、外部の Red Hat Ceph Storage クラスターのクライアントノードで
ceph-external-cluster-details-exporter.py
を実行して、外部の Red Hat Ceph Storage クラスターを制限します。これを行うには、Red Hat Ceph Storage の管理者に問い合わせる必要がある場合があります。# python3 ceph-external-cluster-details-exporter.py --upgrade
更新後のユーザーパーミッションは以下のように設定されます。
client.csi-cephfs-node key: AQCYz0piYgu/IRAAipji4C8+Lfymu9vOrox3zQ== caps: [mds] allow rw caps: [mgr] allow rw caps: [mon] allow r, allow command 'osd blocklist' caps: [osd] allow rw tag cephfs = client.csi-cephfs-provisioner key: AQCYz0piDUMSIxAARuGUyhLXFO9u4zQeRG65pQ== caps: [mgr] allow rw caps: [mon] allow r, allow command 'osd blocklist' caps: [osd] allow rw tag cephfs metadata=* client.csi-rbd-node key: AQCYz0pi88IKHhAAvzRN4fD90nkb082ldrTaHA== caps: [mon] profile rbd, allow command 'osd blocklist' caps: [osd] profile rbd client.csi-rbd-provisioner key: AQCYz0pi6W8IIBAAgRJfrAW7kZfucNdqJqS9dQ== caps: [mgr] allow rw caps: [mon] profile rbd, allow command 'osd blocklist' caps: [osd] profile rbd
以前にダウンロードした Python スクリプトを実行し、外部の Red Hat Ceph Storage クラスターから生成された JSON 出力を保存します。
以前にダウンロードした Python スクリプトを実行します。
# python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name <rbd block pool name> --monitoring-endpoint <ceph mgr prometheus exporter endpoint> --monitoring-endpoint-port <ceph mgr prometheus exporter port> --rgw-endpoint <rgw endpoint> --run-as-user <ocs_client_name> [optional arguments]
--rbd-data-pool-name
- OpenShift Data Foundation でブロックストレージを提供するために使用される必須のパラメーターです。
--rgw-endpoint
-
オプション。OpenShift Data Foundation の Ceph Rados Gateway でオブジェクトストレージをプロビジョニングする場合に、このパラメーターを指定します。
<ip_address>:<port>
の形式でエンドポイントを指定します。 --monitoring-endpoint
- オプション。OpenShift Container Platform クラスターから到達可能な、アクティブ mgr およびスタンバイ mgr の IP アドレスのコンマ区切りリストを受け入れます。指定しない場合には、値が自動的に入力されます。
--monitoring-endpoint-port
-
オプション。
--monitoring-endpoint
で指定された ceph-mgr Prometheus エクスポーターに関連付けられるポートです。指定しない場合には、値が自動的に入力されます。 --run-as-user
OpenShift Data Foundation クラスターのデプロイメント時に使用されるクライアント名。別のクライアント名が設定されていない場合は、デフォルトのクライアント名
client.healthchecker
を使用します。注記monitoring-endpoint および monitoring-endpoint-port を除くオプション引数を含むすべてのパラメーターが、外部モードでの OpenShift Data Foundation のデプロイメント時に使用したパラメーターと同じであることを確認します。
前の手順でスクリプトを実行した後に生成された JSON 出力を保存します。
出力例:
[{"name": "rook-ceph-mon-endpoints", "kind": "ConfigMap", "data": {"data": "xxx.xxx.xxx.xxx:xxxx", "maxMonId": "0", "mapping": "{}"}}, {"name": "rook-ceph-mon", "kind": "Secret", "data": {"admin-secret": "admin-secret", "fsid": "<fs-id>", "mon-secret": "mon-secret"}}, {"name": "rook-ceph-operator-creds", "kind": "Secret", "data": {"userID": "<user-id>", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-node", "kind": "Secret", "data": {"userID": "csi-rbd-node", "userKey": "<user-key>"}}, {"name": "ceph-rbd", "kind": "StorageClass", "data": {"pool": "<pool>"}}, {"name": "monitoring-endpoint", "kind": "CephCluster", "data": {"MonitoringEndpoint": "xxx.xxx.xxx.xxxx", "MonitoringPort": "xxxx"}}, {"name": "rook-ceph-dashboard-link", "kind": "Secret", "data": {"userID": "ceph-dashboard-link", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-provisioner", "kind": "Secret", "data": {"userID": "csi-rbd-provisioner", "userKey": "<user-key>"}}, {"name": "rook-csi-cephfs-provisioner", "kind": "Secret", "data": {"adminID": "csi-cephfs-provisioner", "adminKey": "<admin-key>"}}, {"name": "rook-csi-cephfs-node", "kind": "Secret", "data": {"adminID": "csi-cephfs-node", "adminKey": "<admin-key>"}}, {"name": "cephfs", "kind": "StorageClass", "data": {"fsName": "cephfs", "pool": "cephfs_data"}}, {"name": "ceph-rgw", "kind": "StorageClass", "data": {"endpoint": "xxx.xxx.xxx.xxxx", "poolPrefix": "default"}}, {"name": "rgw-admin-ops-user", "kind": "Secret", "data": {"accessKey": "<access-key>", "secretKey": "<secret-key>"}}]
生成された JSON ファイルをアップロードします。
- OpenShift Web コンソールにログインします。
- Workloads → Secrets をクリックします。
-
プロジェクトを
openshift-storage
に設定します。 - rook-ceph-external-cluster-details をクリックします。
- Actions (⋮) → Edit Secret をクリックします。
- Browse をクリックして JSON ファイルをアップロードします。
- Save をクリックします。
検証手順
OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認するには、Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
- Overview → Block and File タブで、Details カードをチェックして、RHCS ダッシュボードのリンクが利用可能であることを確認し、Status カードをチェックして、Storage Cluster に正常であることを示す緑色のチェックマークが表示されていることも確認します。
- Object タブをクリックして、Object Service および Data resiliency に正常であることを示す緑色のチェックマークが表示されていることを確認します。RADOS Object Gateway は、OpenShift Data Foundation を外部モードでデプロイする際に、RADOS Object Gateway エンドポイントの詳細が含まれている場合にのみ表示されます。
- 検証手順が失敗した場合は、Red Hat サポート にお問い合わせください。