Dashboard ガイド


Red Hat Ceph Storage 6

Ceph Dashboard を使用した Ceph クラスターのモニタリング

Red Hat Ceph Storage Documentation Team

概要

このガイドでは、監視および管理の目的で Red Hat Ceph Storage Dashboard を使用する方法を説明します。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。

第1章 Ceph Dashboard の概要

ストレージ管理者は、Red Hat Ceph Storage Dashboard は管理機能および監視機能を提供します。これにより、クラスターの管理および設定が可能になり、それに関連する情報およびパフォーマンス統計を可視化を可能にします。ダッシュボードは、ceph-mgr デーモンがホストする Web サーバーを使用します。

ダッシュボードは Web ブラウザーからアクセスでき、たとえばマネージャーモジュールの設定や OSD の状態の監視などの有用な管理機能および監視機能が含まれます。

前提条件

  • システム管理者レベルの経験

1.1. Ceph Dashboard コンポーネント

ダッシュボードの機能は複数のコンポーネントで提供されます。

  • デプロイメント用の Cephadm アプリケーション。
  • 埋め込みダッシュボードである ceph-mgr モジュール。
  • 埋め込み Prometheus である ceph-mgr モジュール。
  • Prometheus の時系列データベース。
  • ストレージクラスターの各ホストで実行される Prometheus の node-exporter デーモン。
  • 監視ユーザーインターフェイスおよびアラートを提供する Grafana プラットフォーム。

1.2. Ceph Dashboard 機能

Ceph Dashboard には、次の機能があります。

  • マルチユーザーとロールの管理: ダッシュボードは、異なる権限とロールが割り当てられた複数のユーザーアカウントをサポートします。ユーザーアカウントとロールは、コマンドラインと Web ユーザーインターフェイスの両方を使用して管理できます。ダッシュボードは、パスワードセキュリティーの強化に向けたさまざまな方法をサポートしています。ユーザーは最初のログイン後または設定可能な期間の後にパスワードを変更する必要があるなど、パスワードの複雑性ルールは設定できます。
  • シングルサインオン (SSO): ダッシュボードは、SAML 2.0 プロトコルを使用した外部 ID プロバイダーとの認証をサポートしています。
  • 監査: ダッシュボードバックエンドは、すべての PUT、POST、および DELETE API 要求を Ceph マネージャーログに記録するように設定できます。

管理機能

  • クラスターの階層の表示: CRUSH マップを表示できます。たとえば、特定の OSD ID が実行されているホストを判別できます。これは、OSD に問題がある場合に便利です。
  • マネージャーモジュールの設定: Ceph マネージャーモジュールのパラメーターを表示および変更できます。
  • 埋め込み Grafana ダッシュボード: Ceph Dashboard の Grafana ダッシュボードは、Prometheus モジュールによって収集された情報とパフォーマンスメトリックを表示するために、外部アプリケーションや Web ページに埋め込まれている場合があります。
  • ログの表示および絞り込み: イベントおよび監査クラスターのログを表示し、優先順位、キーワード、日付、または時間範囲に基づいてフィルタリングできます。
  • ダッシュボードコンポーネントの切り替え: ダッシュボードのコンポーネントを有効および無効にできるため、必要な機能のみが利用可能になります。
  • OSD 設定の管理: ダッシュボードを使用してクラスター全体の OSD フラグを設定できます。また、OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと加重付け、スクラブ操作の実行、さまざまなスクラブ関連の設定オプションの変更、プロファイルの選択によるバックフィルアクティビティーのレベル調整なども可能です。OSD のデバイスクラスを設定および変更して、デバイスクラス別に OSD を表示して並べ替えることができます。OSD を新しいドライブおよびホストにデプロイできます。
  • アラートの表示 アラートページでは、現在のアラートの詳細を表示できます。
  • イメージのサービス品質: IOPS の制限や、BPS バーストレートの読み取りなど、イメージにパフォーマンス制限を設定できます。

監視機能

  • ユーザー名およびパスワード保護: 設定可能なユーザー名とパスワードのみを使用してダッシュボードにアクセスできます。
  • クラスター全体のヘルス: パフォーマンスと容量のメトリックを表示します。クラスター全体のステータス、ストレージ使用率 (オブジェクトの数、Raw 容量、プールごとの使用量など)、プールのリストおよびそれらのステータスと使用状況の統計を表示します。
  • ホスト: 実行中のサービスおよびインストールされた Ceph バージョンと共に、クラスターに関連付けられたホストのリストを提供します。
  • パフォーマンスカウンター: 実行中の各サービスの詳細統計を表示します。
  • モニター: モニター、クォーラムのステータス、およびオープンセッションのリストを表示します。
  • 設定エディター: 使用可能なすべての設定オプション、説明、タイプ、デフォルト、および現在設定されている値を表示します。これらの値は編集可能です。
  • クラスターログ: クラスターのイベントおよび監査ログファイルの最新の更新を、優先度、日付、またはキーワード別に表示およびフィルタリングします。
  • デバイス管理: オーケストレーターが認識しているすべてのホストをリスト表示します。ホストに接続されているすべてのドライブとそのプロパティーをリスト表示します。ドライブのヘルス予測、SMART データ、点滅エンクロージャー LED を表示します。
  • ストレージクラスターの容量の表示: Red Hat Ceph Storage クラスターの Raw ストレージ容量は、Ceph Dashboard の Capacity パネルで確認できます。
  • Pools: すべての Ceph プールとその詳細をリスト表示および管理します。たとえば、アプリケーション、配置グループ、レプリケーションサイズ、EC プロファイル、クォータ、CRUSH ルールセットなどです。
  • OSD: すべての OSD、それらのステータスおよび使用状況の統計に加えて、属性 (OSD マップ)、メタデータ、読み取り/書き込み操作のパフォーマンスカウンターなどの詳細情報をリスト表示および管理します。OSD に関連付けられているすべてのドライブをリスト表示します。
  • イメージ: サイズ、オブジェクト、機能などのすべての RBD イメージと、そのプロパティーを表示します。RBD イメージの作成、コピー、変更、および削除を行います。選択したイメージのスナップショットを作成、削除、およびロールバックし、変更に対してこのスナップショットを保護するか、保護を解除します。スナップショットをコピーまたは複製し、複製されたイメージを平坦化します。

    注記

    特定のイメージの Overall Performance タブの I/O 変更のパフォーマンスグラフには、Cluster > Manager modules > Prometheusrbd_stats_pool パラメーターを設定すると、そのイメージを含むプールを指定した後にのみ値が表示されます。

  • RBD ミラーリング: リモート Ceph サーバーへの RBD ミラーリングを有効化および設定します。同期状態を含む、すべてのアクティブな同期デーモンとそのステータス、プール、および RBD イメージのリストを表示します。
  • Ceph ファイルシステム: アクティブな Ceph ファイルシステム (CephFS) クライアントと関連するプール (使用状況の統計を含む) のリストを表示します。アクティブな CephFS クライアントを退避し、CephFS クォータとスナップショットを管理して、CephFS ディレクトリー構造を参照します。
  • Object Gateway (RGW): アクティブなすべてのObject Gateway とそのパフォーマンスカウンターを表示します。オブジェクトゲートウェイユーザーの表示および管理 (追加、編集、削除) およびその詳細 (クォータなど)、ユーザーのバケットおよびその詳細 (例: 所有者、クォータなど) を表示および管理します。
  • NFS: NFS Ganesha を使用して CephFS および Ceph オブジェクトゲートウェイ S3 バケットの NFS エクスポートを管理します。

セキュリティー機能

  • SSL および TLS のサポート: Web ブラウザーとダッシュボード間の HTTP 通信はすべて SSL 経由で保護されます。自己署名証明書は組み込みコマンドで作成できますが、認証局 (CA) が署名して発行したカスタム証明書をインポートすることもできます。

1.3. Red Hat Ceph ストレージダッシュボードアーキテクチャー

Dashboard アーキテクチャーは、Ceph Manager のダッシュボードプラグインおよびその他のコンポーネントによって異なります。以下の図を参照し、どのように連携するかを確認します。

第2章 Ceph Dashboard のインストールおよびアクセス

システム管理者は、クラスターのブートストラップ時に提示された認証情報を使用してダッシュボードにアクセスできます。

Cephadm はデフォルトでダッシュボードをインストールします。以下は、ダッシュボード URL の例です。

URL: https://host01:8443/
User: admin
Password: zbiql951ar
Copy to Clipboard Toggle word wrap
注記

ダッシュボード URL にアクセスする前に、ブラウザーを更新して Cookie をクリアします。

Ceph Dashboard 設定で使用できる Cephadm ブートストラップオプションを以下に示します。

  • [—initial-dashboard-user INITIAL_DASHBOARD_USER] - 初期ダッシュボードユーザーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—initial-dashboard-password] - 初期ダッシュボードパスワードを設定するには、ブートストラップ中にこのオプションを使用します。
  • [-SSL-dashboard-port SSL_DASHBOARD_PORT] - このオプションを使用して、ブートストラップ時にデフォルトの 8443 以外のカスタムダッシュボードポートを設定します。
  • [—dashboard-key DASHBOARD_KEY] - SSL のカスタムキーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-crt DASHBOARD_CRT] - SSL のカスタム証明書を設定するには、ブートストラップ中にこのオプションを使用します。
  • [—skip-dashboard] - ダッシュボードなしで Ceph をデプロイするには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-password-noupdate] - 上記の 2 つのオプションを使用して初回ログイン時にパスワードをリセットしない場合は、ブートストラップ中にこのオプションを使用します。
  • [–allow-fqdn-hostname] - 完全修飾ホスト名を使用できるようにするには、ブートストラップ中にこのオプションを使用します。
  • [—skip-prepare-host] - ホストの準備をスキップするには、ブートストラップ中にこのオプションを使用します。
注記

ダッシュボード関連の外部 URL の接続の問題を回避するには、ホスト名に完全修飾ドメイン名 (FQDN) を使用します (例:host01.ceph.redhat.com)。

注記

クライアントのインターネットブラウザーで Grafana URL を直接開き、セキュリティー例外を受け入れ、Ceph Dashboard のグラフを確認します。ブラウザーをリロードして、変更を表示します。

[root@host01 ~]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt  --initial-dashboard-user  admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname
Copy to Clipboard Toggle word wrap

注記

cephadm を使用してストレージクラスターをブートストラップするときに、カスタムコンテナーイメージまたはローカルコンテナーイメージに —image オプションを使用できます。

注記

ブートストラップ時に —dashboard-password-noupdate オプションを使用しない場合にのみ、ブートストラップ時に指定した認証情報を使用してダッシュボードへの初回ログイン時にパスワードを変更する必要があります。Ceph Dashboard の認証情報は var/log/ceph/cephadm.log ファイルにあります。"Ceph Dashboard is now available at" という文字列で検索します。

このセクションでは、次のタスクを説明します。

2.1. Ceph Dashboard のネットワークポート要件

Ceph Dashboard のコンポーネントは、アクセス可能である必要のある、特定の TCP ネットワークポートを使用します。デフォルトでは、Red Hat Ceph Storage のインストール時に、ネットワークポートは firewalld で自動的に開きます。

Expand
表2.1 TCP ポート要件
ポート使用方法発信元ホスト宛先ホスト

8443

ダッシュボードの Web インターフェイス

AlertManager サービスはアラートを報告するために Dashboard への接続も開始できるため、Ceph Dashboard UI および Grafana サーバー配下のホストにアクセスする必要がある IP アドレス。

Ceph Manager ホスト。

3000

Grafana

Grafana Dashboard UI およびすべての Ceph Manager ホストと Grafana サーバーへのアクセスが必要な IP アドレス。

Grafana サーバーを実行しているホスト (1 つまたは複数)。

2049

NFS-Ganesha

NFS にアクセスする必要がある IP アドレス。

NFS サービスを提供する IP アドレス。

9095

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Prometheus UI およびすべての Ceph Manager ホストと Grafana サーバーまたは Prometheus を実行しているホストへのアクセスが必要な IP アドレス。

Prometheus を実行しているホスト。

9093

Prometheus Alertmanager

Alertmanager Web UI およびすべての Ceph Manager ホストと Grafana サーバーまたは Prometheus を実行しているホストへのアクセスが必要な IP アドレス。

すべての Ceph Manager ホストと Grafana サーバー配下のホスト。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

すべての Ceph Manager ホストと Grafana サーバー配下のホスト。

Prometheus Alertmanager の高可用性 (ピアデーモン同期)。したがって、srcdst の両方が Prometheus Alertmanager を実行しているホストである必要があります。

9100

Prometheus の node-exporter デーモン

Node Exporter メトリック Web UI を表示する必要がある Prometheus を実行しているホスト、およびすべての Ceph Manager ホストと Grafana サーバー、または Prometheus を実行しているホスト。

MON、OSDS、Grafana サーバーホストを含む、すべてのストレージクラスターホスト。

9283

Ceph Manager Prometheus エクスポーターモジュール

Ceph Exporter メトリック Web UI および Grafana サーバーにアクセスする必要がある Prometheus を実行しているホスト。

すべての Ceph Manager ホスト。

2.2. Ceph Dashboard へのアクセス

Ceph Dashboard にアクセスして Red Hat Ceph Storage クラスターを管理および監視できます。

前提条件

  • Red Hat Ceph Storage Dashboard の正常なインストール
  • NTP はクロックを適切に同期しています。

手順

  1. Web ブラウザーで、以下の URL を入力します。

    構文

    https://HOST_NAME:PORT
    Copy to Clipboard Toggle word wrap

    以下を置き換えます。

    • HOST_NAME は、アクティブなマネージャーホストの完全修飾ドメイン名 (FQDN) に置き換えます。
    • PORT は、ポート 8443 に置き換えます。

      https://host01:8443
      Copy to Clipboard Toggle word wrap

      Cephadm シェルで次のコマンドを実行して、ダッシュボードの URL を取得することもできます。

      [ceph: root@host01 /]# ceph mgr services
      Copy to Clipboard Toggle word wrap

      このコマンドは、現在設定されているすべてのエンドポイントを表示します。ダッシュボード キーを探して、ダッシュボードにアクセスするための URL を取得します。

  2. ログインページで、ブートストラップ時に指定したユーザー名 admin とデフォルトパスワードを入力します。
  3. Red Hat Ceph Storage Dashboard に初めてログインするときにパスワードを変更する必要があります。
  4. ログイン後、ダッシュボードのデフォルトのランディングページが表示され、Red Hat Ceph Storage クラスターのステータス、パフォーマンス、インベントリー、および容量メトリックの詳細と高レベルの概要が表示されます。

    図2.1 Ceph Dashboard のランディングページ

  5. ダッシュボードランディングページのメニューアイコン ( Menu icon ) をクリックして、垂直メニューのオプションを折りたたむか表示します。

2.3. Ceph Dashboard でのクラスターのデプロイメント

ダッシュボードを使用して、Red Hat Ceph Storage クラスターを拡張し、ホストの追加、OSD の追加、Alertmanager、Cephadm-exporter、CephFS-mirror、Grafana、ingress、MDS、NFS、node-exporter、Prometheus、BD ミラー、Ceph Object Gateway などのサービスの作成を行うことができます。

新しいストレージクラスターをブートストラップすると、Ceph Monitor Daemon と Ceph Manager Daemon が作成され、クラスターは HEALTH_WARN 状態になります。ダッシュボードでクラスターのすべてのサービスを作成すると、クラスターの正常性が HEALTH_WARN から HEALTH_OK ステータスに変わります。

前提条件

手順

  1. ブートストラップされたホストから他のホストに管理キーをコピーします。

    構文

    ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02
    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03
    Copy to Clipboard Toggle word wrap

  2. ブートストラップ中に提供されたデフォルトの認証情報を使用してダッシュボードにログインします。
  3. パスワードを変更し、新しいパスワードでダッシュボードにログインします。
  4. ランディングページで、Expand Cluster をクリックします。

    図2.2 クラスターのデプロイメント

  5. ホストの追加:

    1. Add Hosts ウィンドウで、+Add をクリックします。
    2. ホスト名を指定します。これは、ブートストラップされたホストからキーをコピーするときに提供されたホスト名と同じです。

      注記

      詳細については、Add Hosts ダイアログボックスのツールチップを使用できます。

    3. オプション: ホストのそれぞれの IP アドレスを指定します。
    4. オプション: サービスが作成されるホストのラベルを選択します。
    5. Add Host をクリックします。
    6. ストレージクラスター内のすべてのホストについて、上記の手順に従います。
  6. Add Hosts ウィンドウで、Next をクリックします。
  7. OSD を作成します。

    1. Create OSDsウィンドウのプライマリーデバイスで、+Add をクリックします。
    2. プライマリーデバイス ウィンドウで、デバイスをフィルタリングしてデバイスを選択します。
    3. Add をクリックします。
    4. オプション: Create OSDs ウィンドウで、WAL や DB デバイスなどの共有デバイスがある場合は、デバイスを追加します。
    5. オプション: 機能を暗号化するには、Encryption チェックボックスをクリックします。
    6. Create OSDs ウィンドウで、Next をクリックします。
  8. サービスを作成します。

    1. Create Services ウィンドウで、+Create をクリックします。
    2. Create Service ダイアログボックスで、

      1. ドロップダウンからサービスのタイプを選択します。
      2. サービスの一意の名前であるサービス ID を入力します。
      3. ホストまたはラベルごとに配置を提供します。
      4. ホストを選択します。
      5. デプロイする必要のあるデーモンまたはサービスの数を提供します。
    3. Create Service をクリックします。
  9. Create Service ウィンドウで、Next をクリックします。
  10. Cluster ResourcesHosts by ServicesHost Details を確認します。パラメーターを編集する場合は、Back をクリックして上記の手順に従います。

    図2.3 クラスターのレビュー

  11. Expand Cluster をクリックします。
  12. クラスターの拡張が成功したという通知が表示されます。
  13. ダッシュボードでクラスターの状態が HEALTH_OK ステータスに変わります。

検証

  1. cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. ceph-s コマンドを実行します。

    [ceph: root@host01 /]# ceph -s
    Copy to Clipboard Toggle word wrap

    クラスターの正常性は HEALTH_OK です。

2.4. Ceph Dashboard 機能の切り替え

オンデマンドで機能を有効または無効にすることで、Red Hat Ceph Storage ダッシュボードのコンポーネントをカスタマイズできます。デフォルトでは、すべての機能が有効になっています。機能を無効にすると、Web インターフェイス要素は非表示になり、関連付けられた REST API のエンドポイントはその機能に対する追加のリクエストを拒否します。ダッシュボード機能の有効化および無効化は、コマンドラインインターフェイスまたは Web インターフェイスから実行できます。

利用可能な機能:

  • Ceph ブロックデバイス:

    • イメージの管理 (rbd)
    • ミラーリング (mirroring)
  • Ceph ファイルシステム (cephfs)
  • Ceph オブジェクトゲートウェイ (rgw)
  • NFS Ganesha ゲートウェイ (nfs)
注記

デフォルトでは、Ceph Manager は Ceph Monitor と併置されます。

注記

複数の機能を一度に無効にできます。

重要

機能が無効になったら、Web インターフェイスの変更を反映するのに最大 20 秒かかる場合があります。

前提条件

  • Red Hat Ceph Storage ダッシュボードソフトウェアのインストールおよび設定
  • Ceph Manager ホストまたはダッシュボードの Web インターフェイスへのユーザーアクセス
  • Ceph Manager ホストへの root レベルのアクセス

手順

  • ダッシュボードの Web インターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. ダッシュボードのランディングページで、Cluster ドロップダウンメニューに移動します。
    2. Manager Modules を選択し、Dashboard を選択します。
    3. Edit Manager module ページで、機能名の横にある選択ボックスを選択するか、選択を解除すると、ダッシュボードの機能を有効または無効にできます。
    4. 選択が完了したら、下にスクロールして Update をクリックします。
  • コマンドラインインターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. Cephadm シェルにログインします。

      [root@host01 ~]# cephadm shell
      Copy to Clipboard Toggle word wrap

    2. 機能のステータスのリストを表示します。

      [ceph: root@host01 /]# ceph dashboard feature status
      Copy to Clipboard Toggle word wrap

    3. 機能を無効にします。

      [ceph: root@host01 /]# ceph dashboard feature disable rgw
      Copy to Clipboard Toggle word wrap

      この例では、Ceph Object Gateway 機能を無効にします。

    4. 機能を有効にします。

      [ceph: root@host01 /]# ceph dashboard feature enable cephfs
      Copy to Clipboard Toggle word wrap

      以下の例では、Ceph Filesystem 機能を有効にします。

2.5. Ceph Dashboard のランディングページの理解

ランディングページには、ナビゲーションバーと個別のパネルを使用した Ceph クラスター全体の概要が表示されます。

ナビゲーションバーには、次のオプションがあります。

  • タスクと通知に関するメッセージ。
  • ドキュメント、Ceph Rest API、および Red Hat Ceph Storage Dashboard に関する詳細へのリンク。
  • ユーザー管理とテレメトリー設定へのリンク。
  • パスワードを変更してダッシュボードからサインアウトするためのリンク。

図2.4 ナビゲーションバー

それとは別に、個々のパネルには、クラスターの状態に関する具体的な情報が表示されます。

カテゴリー

ランディングページでは、パネルが以下の 3 つのカテゴリーに分けられます。

  1. ステータス
  2. 容量
  3. パフォーマンス

図2.5 Ceph Dashboard のランディングページ

ステータスパネル

ステータスパネルには、クラスターの状態とホストおよびデーモンの状態が表示されます。

クラスターの状態: Ceph ストレージクラスターの現在のヘルスステータスを表示します。

ホスト: Ceph Storage クラスターのホストの合計数を表示します。

監視: Ceph Monitor の数およびクォーラムのステータスを表示します。

OSDs: Ceph Storage クラスターの OSD の合計数と、up および in の数を表示します。

マネージャー: Manager Daemon の数およびステータスを表示します。

Object Gateway : Ceph Storage クラスターのObject Gateway の数を表示します。

メタデータサーバー: Ceph ファイルシステム (CephFS) のメタデータサーバーの数とステータスを表示します。

容量パネル

容量パネルには、ストレージ使用量のメトリックが表示されます。

Raw 容量: クラスターの raw ストレージ容量の使用状況および可用性を表示します。

オブジェクト: プール内のオブジェクトの合計数と、オブジェクトを HealthyMisplacedDegraded、または Unfound の状態に分割するグラフを表示します。

PG ステータス: 配置グループの合計数と、PG を CleanWorkingWarning、または Unknown の状態に分割するグラフを表示します。PG ステータスの Working および Warning の表示を簡素化するために、実際には複数の状態が含まれます。

Working の状態には、以下のいずれかの状態の PG が含まれます。

  • activating
  • backfill_wait
  • backfilling
  • creating
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • recovering
  • recovery_wait
  • repair
  • scrubbing
  • snaptrim
  • snaptrim_wait

Warning の状態には、以下のいずれかの状態の PG が含まれます。

  • backfill_toofull
  • backfill_unfound
  • down
  • incomplete
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • undersized

プール: Ceph クラスター内のストレージプールの数を表示します。

OSD ごとの PG: OSD ごとの配置グループ数を表示します。

パフォーマンスパネル

パフォーマンスパネルには、データ転送速度に関する情報が表示されます。

クライアントの読み取り/書き込み: 1 秒あたりの入出力操作の合計、読み取り、および書き込みを表示します。

クライアントのスループット: クライアントスループット、読み取りスループット、書き込みスループットを表示します。

リカバリーのスループット: クラスターの修復およびバランシング操作のレートを表示します。たとえば、ディスクの損失により移動している可能性のあるバックグラウンドデータのステータスが表示されます。

スクラビング: データの整合性を確認するために Ceph がスクラビングしているかどうかを表示します。

2.6. Ceph Dashboard を使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは、クラスターのブートストラップ中にシステムでランダムに生成されます。Red Hat Ceph Storage Dashboard に初めてログインするときにパスワードを変更する必要があります。ダッシュボードを使用して、admin ユーザーのパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. ダッシュボードにログインします。

    https://HOST_NAME:8443
    Copy to Clipboard Toggle word wrap
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    図2.6 ユーザー管理

  3. admin のパスワードを変更するには、その行をクリックします。
  4. Edit ドロップダウンメニューで Edit を選択します。
  5. Edit User ウィンドウで、新しいパスワードを入力し、その他のパラメーターを変更し、Edit User をクリックします。

    図2.7 ユーザー管理の編集

    ログアウトし、ログイン画面にリダイレクトされます。パスワードの変更を確認する通知が表示されます。

2.7. コマンドラインインターフェイスを使用した Ceph Dashboard のパスワードの変更

Ceph Dashboard のパスワードを忘れた場合は、コマンドラインインターフェイスを使用してパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ダッシュボードがインストールされているホストへの root レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. dashboard_password.yml ファイルを作成します。

    [ceph: root@host01 /]# touch dashboard_password.yml
    Copy to Clipboard Toggle word wrap

  3. ファイルを編集し、新しいダッシュボードパスワードを追加します。

    [ceph: root@host01 /]# vi dashboard_password.yml
    Copy to Clipboard Toggle word wrap

  4. ダッシュボードのパスワードをリセットします。

    構文

    ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml
    {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}
    Copy to Clipboard Toggle word wrap

検証

  • 新しいパスワードでダッシュボードにログインします。

2.8. Grafana の admin ユーザーパスワードの設定

デフォルトでは、cephadm は Grafana の管理者ユーザーを作成しません。Ceph Orchestrator を使用すると、管理者ユーザーを作成してパスワードを設定できます。

これらの認証情報を使用すると、管理者ユーザーに指定されたパスワードを使用して、ストレージクラスターの Grafana URL にログインできます。

前提条件

  • モニタリングスタックがインストールされた実行中の Red Hat Ceph Storage クラスターがある。
  • cephadm ホストへの root レベルのアクセスがある。
  • dashboard モジュールが有効化されている。

手順

  1. root ユーザーとして grafana.yml ファイルを作成し、次の詳細を指定します。

    構文

    service_type: grafana
    spec:
      initial_admin_password: PASSWORD
    Copy to Clipboard Toggle word wrap

    service_type: grafana
    spec:
      initial_admin_password: mypassword
    Copy to Clipboard Toggle word wrap

  2. grafana.yml ファイルをコンテナーのディレクトリーにマウントします。

    [root@host01 ~]# cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml
    Copy to Clipboard Toggle word wrap

    注記

    シェルを終了するたびに、デーモンをデプロイする前にファイルをコンテナーにマウントする必要があります。

  3. オプション: dashboard の Ceph Manager モジュールが有効になっているかどうかを確認します。

    [ceph: root@host01 /]# ceph mgr module ls
    Copy to Clipboard Toggle word wrap

  4. オプション: dashboard の Ceph Manager モジュールを有効にします。

    [ceph: root@host01 /]# ceph mgr module enable dashboard
    Copy to Clipboard Toggle word wrap

  5. orch コマンドを使用して仕様を適用します。

    構文

    ceph orch apply -i FILE_NAME.yml
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml
    Copy to Clipboard Toggle word wrap

  6. grafana サービスを再デプロイします。

    [ceph: root@host01 /]# ceph orch redeploy grafana
    Copy to Clipboard Toggle word wrap

    これにより、指定されたパスワードで admin という名前の管理者ユーザーが作成され、ユーザーはこれらの認証情報を使用して Grafana URL にログインできます。

検証:

  • 次の認証情報を使用して Grafana にログインします。

    構文

    https://HOST_NAME:PORT
    Copy to Clipboard Toggle word wrap

    https://host01:3000/
    Copy to Clipboard Toggle word wrap

2.9. Red Hat Ceph Storage Dashboard を手動で有効にする

ブートストラップ中に --skip-dashboard オプションを使用して Red Hat Ceph Storage クラスターをインストールした場合は、ダッシュボードの URL と認証情報がブートストラップ出力で使用できないことが確認できます。コマンドラインインターフェイスを使用して、ダッシュボードを手動で有効にできます。Prometheus、Grafana、Alertmanager、node-exporter などの監視スタックコンポーネントはデプロイされていますが、これらは無効になっているため、手動で有効にする必要があります。

前提条件

  • ブートストラップ中に --skip-dashboard オプションを指定してインストールされた実行中の Red Hat Ceph Storage クラスター。
  • ダッシュボードを有効にする必要があるホストへの root レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. Ceph Manager サービスを確認します。

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "prometheus": "http://10.8.0.101:9283/"
    }
    Copy to Clipboard Toggle word wrap

    ダッシュボードの URL が設定されていないことが確認できます。

  3. ダッシュボードモジュールを有効にします。

    [ceph: root@host01 /]# ceph mgr module enable dashboard
    Copy to Clipboard Toggle word wrap

  4. ダッシュボードアクセス用の自己署名証明書を作成します。

    [ceph: root@host01 /]# ceph dashboard create-self-signed-cert
    Copy to Clipboard Toggle word wrap

    注記

    証明書の検証を無効にして、証明書のエラーを回避できます。

  5. Ceph Manager サービスを確認します。

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "dashboard": "https://10.8.0.101:8443/",
        "prometheus": "http://10.8.0.101:9283/"
    }
    Copy to Clipboard Toggle word wrap

  6. Red Hat Ceph Storage ダッシュボードにアクセスするための管理者ユーザーとパスワードを作成します。

    構文

    echo -n "PASSWORD" > PASSWORD_FILE
    ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt
    [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator
    Copy to Clipboard Toggle word wrap

  7. 監視スタックを有効にします。詳細は、Red Hat Ceph Storage Dashboard ガイド監視スタックの有効化 セクションを参照してください。

2.10. Ceph Dashboard にユーザーを同期するための管理者アカウントの作成

ユーザーを Ceph Dashboard に同期するには、管理者アカウントを作成する必要があります。

アカウントを作成したら、Red Hat シングルサインオン (SSO) を使用して、ユーザーを Ceph Dashboard と同期させます。Red Hat Ceph Storage Dashboard ガイドRed Hat シングルサインオンを使用したユーザーの Ceph Dashboard への同期 セクションを参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーがダッシュボードに追加されている。
  • すべてのホストでの root レベルのアクセス。
  • Red hat Single Sign-On を ZIP ファイルからインストールしておく。詳細は、Zip ファイルからの Red Hat Single Sign-On のインストール を参照してください。

手順

  1. Red Hat Ceph ストレージがインストールされているシステムに Red Hat Single Sign-On 7.4.0 サーバー をダウンロードします。
  2. フォルダーをデプロイメントします。

    [root@host01 ~]# unzip rhsso-7.4.0.zip
    Copy to Clipboard Toggle word wrap
  3. standalone/configuration ディレクトリーに移動し、standalone.xml を開いて編集します。

    [root@host01 ~]# cd standalone/configuration
    [root@host01 configuration]# vi standalone.xml
    Copy to Clipboard Toggle word wrap
  4. localhost のすべてのインスタンスと 127.0.0.1 の 2 つのインスタンスは、Red Hat SSO がインストールされているマシンの IP アドレスに置き換えます。
  5. オプション: Red Hat Enterprise Linux 8 の場合には、認証局 (CA) の問題が発生する可能性があります。CA からカスタム証明書をインポートして、正確な Java バージョンを使用するキーストアに移動します。

    [root@host01 ~]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert
    Copy to Clipboard Toggle word wrap

  6. rh-sso-7.4 フォルダーの bin ディレクトリーからサーバーを起動するには、standalone ブートスクリプトを実行します。

    [root@host01 bin]# ./standalone.sh
    Copy to Clipboard Toggle word wrap
  7. ユーザー名とパスワードを指定して、https: IP_ADDRESS :8080/auth で管理アカウントを作成します。

    注記

    管理者アカウントを作成する必要があるのは、コンソールに初めてログインするときだけです。

  8. 作成された認証情報を使用して管理コンソールにログインします。

2.11. Red Hat Sign-On から Ceph Dashboard へのユーザー同期

Red Hat シングルサインオン (SSO) と Lightweight Directory Access Protocol (LDAP) 統合を使用して、ユーザーを Red Hat Ceph ストレージダッシュボードと同期させることができます。

ユーザーは特定のレルムに追加されます。このレルムでは、パスワードの追加要件なしで SSO を介してダッシュボードにアクセスできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ceph ダッシュボードがインストールされています。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ダッシュボードに追加されたユーザー。Red Hat Ceph Storage Dashboard ガイドCeph Dashboard でのユーザーの作成 セクションを参照してください。
  • すべてのホストでの root レベルのアクセスがある。
  • ユーザーの同期用に作成された管理者アカウント。Red Hat Ceph Storage Dashboard ガイドCeph Dashboard にユーザーを同期するための管理者アカウントの作成 セクションを参照してください。

手順

  1. レルムを作成するには、Master ドロップダウンメニューをクリックします。このレルムでは、ユーザーおよびアプリケーションにアクセスできます。
  2. Add Realm ウィンドウで、レルム名 (大文字と小文字を区別) を入力し、パラメーターを Enabled に設定し、Create をクリックします。

  3. Realm Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. Enabled - ON
    2. User-Managed Access - ON
    3. Client Settings に貼り付ける SAML 2.0 アイデンティティープロバイダーメタデータのリンクアドレスをメモしておきます。

  4. Clients タブで、Create をクリックします。

  5. Add Client ウィンドウで、次のパラメーターを設定し、Save をクリックします。

    1. クライアント ID - BASE_URL:8443/auth/saml2/metadata

      https://example.ceph.redhat.com:8443/auth/saml2/metadata

    2. クライアントプロトコル - saml
  6. Client ウィンドウの Settings タブで、次のパラメーターを設定します。

    Expand
    表2.2 クライアント設定タブ
    パラメーターの名前構文

    Client ID

    BASE_URL:8443/auth/saml2/metadata

    https://example.ceph.redhat.com:8443/auth/saml2/metadata

    Enabled

    ON

    ON

    クライアントプロトコル

    saml

    saml

    Include AuthnStatement

    ON

    ON

    サインインドキュメント

    ON

    ON

    Signature Algorithm

    RSA_SHA1

    RSA_SHA1

    SAML Signature Key Name

    KEY_ID

    KEY_ID

    有効なリダイレクト URL

    BASE_URL:8443/*

    https://example.ceph.redhat.com:8443/*

    ベース URL

    BASE_URL:8443

    https://example.ceph.redhat.com:8443/

    Master SAML Processing URL

    https://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

    https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

    注記

    Realm Settings タブから SAML 2.0 アイデンティティープロバイダーメタデータのリンクを貼り付けます。

    Fine Grain SAML Endpoint Configuration で、次のパラメーターを設定し、Save をクリックします。

    Expand
    表2.3 詳細にわたる SAML 設定
    パラメーターの名前構文

    Assertion Consumer Service POST Binding URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    Assertion Consumer Service Redirect Binding URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    Logout Service Redirect Binding URL

    BASE_URL:8443/

    https://example.ceph.redhat.com:8443/

  7. Clients ウィンドウの Mappers タブで、次のパラメーターを設定し、Save をクリックします。

    Expand
    表2.4 クライアントマッパータブ
    パラメーターの名前

    プロトコル

    saml

    名前

    username

    マッパープロパティー

    ユーザープロパティー

    プロパティー

    username

    SAML 属性名

    username

  8. Clients Scope タブで、role_list を選択します。

    1. Mappers タブで、role list を選択し、Single Role Attribute をオンに設定します。
  9. User_Federation タブを選択します。

    1. User Federation ウィンドウで、ドロップダウンメニューから LDAP を選択します。
    2. User_Federation ウィンドウの Settings タブで、次のパラメーターを設定し、Save をクリックします。

      Expand
      表2.5 ユーザーフェデレーション設定タブ
      パラメーターの名前

      コンソール表示名

      rh-ldap

      ユーザーのインポート

      ON

      Edit_Mode

      READ_ONLY

      ユーザー名 LDAP 属性

      username

      RDN LDAP 属性

      username

      UUID LDAP 属性

      nsuniqueid

      ユーザーオブジェクトクラス

      inetOrgPerson, organizationalPerson, rhatPerson

      接続 URL

      例: ldap: //ldap.corp.redhat.com。Test Connection をクリックします。LDAP 接続が成功したという通知が表示されます。

      ユーザー DN

      ou=users、dc=example、dc=com

      バインドタイプ

      simple

      Test authentication をクリックします。LDAP 認証が成功したという通知が表示されます。

    3. Mappers タブで、first name の行を選択して、以下のパラメーターを編集し、Save をクリックします。

      • LDAP 属性 - givenName
    4. User_Federation タブの Settings タブで、Synchronize all users をクリックします。

      ユーザーの同期が正常に終了したという通知が表示されます。

  10. Users タブで、ダッシュボードに追加されたユーザーを検索し、検索アイコンをクリックします。

  11. ユーザーを表示するには、特定の行をクリックします。フェデレーションリンクは、User Federation で指定した名前で表示されます。

    重要

    ユーザーは LDAP では同期されないため、手動でユーザーを追加しないでください。手動で追加した場合は、Delete をクリックしてユーザーを削除します。

検証

  • レルムとダッシュボードに追加されたユーザーは、メールアドレスとパスワードを使用して Ceph Dashboard にアクセスできます。

    https://example.ceph.redhat.com:8443

2.12. Ceph Dashboard のシングルサインオンの有効化

Ceph Dashboard は、Security Assertion Markup Language (SAML) 2.0 プロトコルを使用したユーザーの外部認証をサポートします。Ceph Dashboard にシングルサインオン (SSO) を使用する前に、ダッシュボードのユーザーアカウントを作成して必要なロールを割り当てます。Ceph Dashboard はユーザーの承認を実行し、認証プロセスは既存のアイデンティティープロバイダー (IdP) によって実行されます。SAML プロトコルを使用してシングルサインオンを有効にできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ceph Dashboard がインストールされている。
  • Ceph Manager ホストへの root レベルのアクセスがある。

手順

  1. Ceph Dashboard で SSO を設定するには、以下のコマンドを実行します。

    構文

    cephadm shell CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY
    Copy to Clipboard Toggle word wrap

    [root@host01 ~]# cephadm shell host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt
    Copy to Clipboard Toggle word wrap

    置き換え

    • CEPH_MGR_HOST と Ceph mgr ホスト。(例: host01)
    • CEPH_DASHBOARD_BASE_URL は、Ceph Dashboard がアクセス可能なベース URL に置き換えます。
    • IDP_METADATA は、リモートパスまたはローカルパス、または IdP メタデータ XML の内容への URL に置き換えます。サポートされる URL タイプは http、https、およびファイルです。
    • 任意: IDP_USERNAME_ATTRIBUTE は、認証応答からユーザー名を取得するために使用される属性に置き換えます。デフォルトは uid です。
    • 任意: IDP_ENTITY_ID は、IdP メタデータに複数のエンティティー ID が存在する場合は IdP エンティティー ID に置き換えます。
    • 任意: SP_X_509_CERT は、署名および暗号化に Ceph Dashboard によって使用される証明書のファイルパスに置き換えます。
    • 任意: SP_PRIVATE_KEY は、署名および暗号化に Ceph Dashboard によって使用される秘密鍵のファイルパスに置き換えます。
  2. 現在の SAML 2.0 設定を確認します。

    構文

    cephadm shell CEPH_MGR_HOST ceph dashboard sso show saml2
    Copy to Clipboard Toggle word wrap

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso show saml2
    Copy to Clipboard Toggle word wrap

  3. SSO を有効にするには、以下のコマンドを実行します。

    構文

    cephadm shell CEPH_MGR_HOST ceph dashboard sso enable saml2
    SSO is "enabled" with "SAML2" protocol.
    Copy to Clipboard Toggle word wrap

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso enable saml2
    Copy to Clipboard Toggle word wrap

  4. ダッシュボードの URL を開きます。

    https://dashboard_hostname.ceph.redhat.com:8443
    Copy to Clipboard Toggle word wrap

  5. SSO ページで、ログインの認証情報を入力します。SSO はダッシュボードの Web インターフェイスにリダイレクトされます。

2.13. Ceph Dashboard のシングルサインオンの無効化

SAML 2.0 プロトコルを使用して、Ceph Dashboard のシングルサインオンを無効にすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ceph Dashboard がインストールされている。
  • Ceph Manager ホストへの root レベルのアクセスがある。
  • Ceph Dashboard でシングルサインオンが有効になっている。

手順

  1. SSO の状態を表示するには、以下のコマンドを実行します。

    構文

    cephadm shell CEPH_MGR_HOST ceph dashboard sso status
    Copy to Clipboard Toggle word wrap

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso status
    SSO is "enabled" with "SAML2" protocol.
    Copy to Clipboard Toggle word wrap

  2. SSO を無効にするには、以下のコマンドを実行します。

    構文

    cephadm shell CEPH_MGR_HOST ceph dashboard sso disable
    SSO is "disabled".
    Copy to Clipboard Toggle word wrap

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso disable
    Copy to Clipboard Toggle word wrap

第3章 Ceph Dashboard でのロールの管理

ストレージ管理者は、ダッシュボードでロールを作成、編集、複製、削除できます。

デフォルトでは、8 つのシステムロールがあります。カスタムロールを作成し、それらのロールにアクセス権を付与できます。これらのロールは、要件に基づいてユーザーに割り当てることができます。

このセクションでは、以下の管理タスクを説明します。

3.1. Ceph Dashboard 上のユーザーロールとパーミッション

ユーザーアカウントは、アクセス可能な特定のダッシュボード機能を定義するロールのセットに関連付けられます。

Red Hat Ceph Storage ダッシュボードの機能またはモジュールは、セキュリティースコープ内でグループ化されます。セキュリティースコープは事前に定義され、静的です。Red Hat Ceph Storage ダッシュボードで現在利用可能な セキュリティースコープ は以下のとおりです。

  • cephfs: CephFS 管理に関連するすべての機能が含まれます。
  • config-opt: Ceph 設定オプションの管理に関連するすべての機能が含まれます。
  • dashboard-settings: ダッシュボード設定を編集することができます。
  • grafana: Grafana プロキシーに関連するすべての機能が含まれます。
  • hosts: Hosts メニューエントリーに関連するすべての機能が含まれます。
  • log: Ceph ログ管理に関するすべての機能が含まれます。
  • manager: Ceph Manager 管理に関連するすべての機能が含まれます。
  • monitor: Ceph monitor 管理に関連するすべての機能が含まれます。
  • nfs-ganesha: NFS-Ganesha 管理に関連するすべての機能が含まれます。
  • osd: OSD 管理に関連するすべての機能が含まれます。
  • pool: プール管理に関連するすべての機能が含まれます。
  • prometheus: Prometheus アラート管理に関連するすべての機能が含まれます。
  • rbd-image: RBD イメージ管理に関連するすべての機能が含まれます。
  • rbd-mirroring: RBD ミラーリング管理に関連するすべての機能が含まれます。
  • rgw: Ceph Object Gateway (RGW) 管理に関連するすべての機能が含まれます。

ロールはセキュリティースコープとパーミッションのセット間のマッピングのセットを指定します。パーミッション には 4 つのタイプがあります。

  • 読み取り
  • Create
  • Update
  • 削除

システムロール のリストは以下のとおりです。

  • administrator: すべてのセキュリティースコープの完全なパーミッションを許可します。
  • block-manager: RBD-image および RBD-mirroring スコープのフルパーミッションを許可します。
  • cephfs-manager: Ceph ファイルシステムのスコープのフルパーミッションを許可します。
  • cluster-manager: ホスト、OSD、モニター、マネージャー、および config-opt スコープのフルパーミッションを許可します。
  • ganesha-manager: NFS-Ganesha スコープのフルパーミッションを許可します。
  • pool-manager: プールスコープのフルパーミッションを許可します。
  • read-only: ダッシュボード設定および config-opt スコープ以外のすべてのセキュリティースコープの読み取りパーミッションを許可します。
  • rgw-manager: Ceph Object Gateway スコープのフルパーミッションを許可します。

たとえば、すべての Ceph Object Gateway 操作についてユーザーに rgw-manager アクセスを提供する必要があります。

3.2. Ceph Dashboard でのロールの作成

ダッシュボードでカスタムロールを作成し、ロールに基づいてこれらのロールをユーザーに割り当てることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Roles タブで、Create をクリックします。
  4. Create Role ウィンドウで、NameDescription を設定し、このロールの Permissions を選択して、Create Role ボタンをクリックします。

    この例では、ganesha-manager および rgw-manager のロールが割り当てられたユーザーは、すべての NFS-Ganesha ゲートウェイおよび Ceph Object Gateway の操作を管理できます。

  5. ロールが正常に作成されたという通知が表示されます。
  6. その行の Expand/Collapse アイコンをクリックして、ロールに付与された詳細と権限を表示します。

3.3. Ceph Dashboard でのロールの編集

ダッシュボードでは、ダッシュボードのロールを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ダッシュボードでロールが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Roles タブで、編集するロールをクリックします。
  4. Edit Role ウィンドウで、パラメーターを編集し、Edit Role をクリックします。

  5. ロールが正常に更新されたという通知が表示されます。

3.4. Ceph Dashboard でのロールのクローン作成

既存のロールに追加の権限を割り当てる場合は、システムロールのクローンを作成し、Red Hat Ceph Storage Dashboard で編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ロールがダッシュボードに作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Roles タブで、クローンを作成するロールをクリックします。
  4. Edit ドロップダウンメニューから Clone を選択します。
  5. Clone Role ダイアログボックスで、ロールの詳細を入力し、Clone Role をクリックします。

  6. ロールを複製すると、要件に従って権限をカスタマイズできます。

3.5. Ceph Dashboard でのロールの削除

Red Hat Ceph Storage Dashboard で作成したカスタムロールは削除できます。

注記

Ceph Dashboard のシステムロールは削除できません。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • カスタムロールがダッシュボードで作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Roles タブで、削除するロールをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete Role ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete Role をクリックします。

第4章 Ceph Dashboard でのユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で特定のロールが割り当てられたユーザーを作成、編集、削除できます。ロールベースのアクセス制御は、各ユーザーのロールと要件に基づいて各ユーザーに付与されます。

ダッシュボード上で Ceph クライアント認証キーを作成、編集、インポート、エクスポート、削除することもできます。認証キーを作成したら、コマンドラインインターフェイス (CLI) を使用してキーをローテーションできます。キーのローテーションは、現在の業界要件とセキュリティーコンプライアンスの要件を満たしています。

このセクションでは、以下の管理タスクを説明します。

4.1. Ceph Dashboard でのユーザーの作成

Red Hat Ceph Storage Dashboard で、ロールに基づいて適切なロールと権限が割り当てられたユーザーを作成できます。たとえば、Ceph Object Gateway 操作を管理させる場合には、ユーザーに rgw-manager ロールを付与できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
注記

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Users タブで、Create をクリックします。
  4. Create User ウィンドウで、Username とロールを含むその他のパラメーターを設定し、Create User をクリックします。

  5. ユーザーが正常に作成されたという通知が表示されます。

4.2. Ceph Dashboard でのユーザーの編集

Red Hat Ceph Storage Dashboard でユーザーを編集できます。要件に基づいて、ユーザーのパスワードとロールを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. ユーザーを編集するには、行をクリックします。
  4. Users タブで、Edit ドロップダウンメニューから Edit を選択します。
  5. Edit User ウィンドウで、パスワードやロールなどのパラメーターを編集し、Edit User をクリックします。

    注記

    Ceph Dashboard へのユーザーのアクセスを無効にするには、Edit User ウィンドウで Enabled オプションの選択を解除します。

  6. ユーザーが正常に作成されたという通知が表示されます。

4.3. Ceph Dashboard でのユーザーの削除

Ceph Dashboard でユーザーを削除できます。一部のユーザーがシステムから削除される可能性があります。このようなユーザーへのアクセスは、Ceph Dashboard から削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

  3. Users タブで、削除するユーザーをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete User ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

4.4. ユーザー機能

Ceph は、使用される Ceph クライアントに関係なく、データ RADOS オブジェクトをプール内に保存します。Ceph ユーザーは、データの読み取りと書き込みを行うために特定のプールにアクセスする必要があり、Ceph 管理コマンドを使用するための実行権限を持っている必要があります。ユーザーを作成すると、Red Hat Ceph Storage クラスター、そのプール、およびプール内のデータへのアクセスを制御できるようになります。

Ceph にはユーザーの type の概念があり、常に client になります。TYPE を使用してユーザーを定義する必要があります。ID ここで、ID はユーザー ID です (例: client.admin)。このユーザー入力は、Cephx プロトコルがクライアントだけでなく、Ceph モニター、OSD、メタデータサーバーなどの非クライアントでも使用されるためです。ユーザータイプを区別すると、クライアントユーザーと他のユーザーを区別するのに役立ちます。この区別により、アクセス制御、ユーザー監視、およびトレーサビリティが合理化されます。

4.4.1. ケイパビリティー

Ceph は、機能 (キャップ) を使用して、モニター、OSD、およびメタデータサーバーの機能を実行するために認証されたユーザーに付与される権限を記述します。この機能は、アプリケーションタグに基づいて、プール内のデータ、プール内の名前空間、またはプールのセットへのアクセスを制限します。Ceph 管理ユーザーは、ユーザーの作成または更新時にユーザーの機能を指定します。

モニター、マネージャー、OSD、メタデータサーバーの機能を設定できます。

  • Ceph Monitor の機能には、rw、および x のアクセス設定が含まれます。これらは、profile NAME を使用して、事前定義されたプロファイルからまとめて適用できます。
  • OSD 機能には、rwxclass-read、および class-write アクセス設定が含まれます。これらは、profile NAME を使用して、事前定義されたプロファイルからまとめて適用できます。
  • Ceph Manager の機能には、rw、および x のアクセス設定が含まれます。これらは、profile NAME を使用して、事前定義されたプロファイルからまとめて適用できます。
  • 管理者向けのメタデータサーバー (MDS) 機能には、allow * が含まれます。
注記

Ceph Object Gateway デーモン (radosgw) は Red Hat Ceph Storage クラスターのクライアントであり、Ceph Storage クラスターのデーモンタイプとしては表されません。

4.5. アクセス機能

このセクションでは、Ceph ユーザーまたは Ceph クライアントに付与できる、ブロックデバイス、オブジェクトストレージ、ファイルシステム、ネイティブ API などのさまざまなアクセス機能またはエンティティー機能を説明します。

さらに、クライアントにロールを割り当てるときに機能プロファイルを記述することができます。

allow, 説明
これは、デーモンのアクセス設定の前に使用します。MDS のみの rw を意味します
r, 説明
ユーザーに 読み取り 権限を付与します。CRUSH マップを取得するためにモニターで必要です。
w, 説明
ユーザーにオブジェクトへの 書き込み 権限を付与します。
x, 説明
クラスメソッド (読み取り および 書き込み の両方) をユーザーに呼び出し、モニターで auth 操作を実行する機能を提供します。
class-read, 説明
クラスの読み取りメソッドを呼び出すケイパビリティーをユーザーに提供します。x のサブセット。
class-write, 説明
クラスの書き込みメソッドを呼び出すケイパビリティーをユーザーに提供します。x のサブセット。
*, all, 説明
ユーザーに、特定のデーモンまたはプールに対する 読み取り書き込み実行 権限と、管理コマンドを実行する権限を与えます。

次のエントリーは、有効な機能プロファイルを説明します。

profile osd, 説明
これは Ceph Monitor にのみ適用されます。OSD として他の OSD またはモニターに接続するためのパーミッションをユーザーに付与します。OSD がレプリケーションのハートビートトラフィックおよびステータス報告を処理できるようにするために OSD に付与されました。
profile mds, 説明
これは Ceph Monitor にのみ適用されます。MDS として他の MDS またはモニターに接続する権限をユーザーに与えます。
profile bootstrap-osd, 説明
これは Ceph Monitor にのみ適用されます。OSD をブートストラップする権限をユーザーに与えます。ceph-volumecephadm などのデプロイメントツールに付与され、OSD のブートストラップ時にキーを追加する権限が与えられます。
profile bootstrap-mds, 説明
これは Ceph Monitor にのみ適用されます。メタデータサーバーをブートストラップする権限をユーザーに与えます。cephadm などのデプロイメントツールに付与され、メタデータサーバーのブートストラップ時にキーを追加する権限が与えられます。
profile bootstrap-rbd, 説明
これは Ceph Monitor にのみ適用されます。RBD ユーザーをブートストラップする権限をユーザーに与えます。cephadm などのデプロイメントツールに付与され、RBD ユーザーをブートストラップするときにキーを追加する権限が与えられます。
profile bootstrap-rbd-mirror, 説明
これは Ceph Monitor にのみ適用されます。rbd-mirror デーモンユーザーをブートストラップする権限をユーザーに与えます。cephadm などのデプロイメントツールに付与され、rbd-mirror デーモンのブートストラップ時にキーを追加する権限が与えられます。
profile rbd, 説明
これは、Ceph Monitor、Ceph Manager、および Ceph OSD に適用されます。RBD イメージを操作する権限をユーザーに与えます。モニターキャップとして使用すると、RBD クライアントアプリケーションに必要な最小限の権限がユーザーに提供されます。このような権限には、他のクライアントユーザーをブロックリストに登録する機能が含まれます。OSD キャップとして使用すると、RBD クライアントアプリケーションに指定されたプールへの読み取り/書き込みアクセスが提供されます。Manager のキャップは、オプションの pool および namespace キーワード引数をサポートします。
profile rbd-mirror, 説明
これは Ceph Monitor にのみ適用されます。RBD イメージを操作し、RBD ミラーリング設定キーのシークレットを取得する権限をユーザーに与えます。ユーザーが rbd-mirror デーモンを操作するために必要な最小限の権限を提供します。
profile rbd-read-only, 説明
これは Ceph Monitor と Ceph OSDS に適用されます。ユーザーに RBD イメージに対する読み取り専用権限を与えます。Manager のキャップは、オプションの pool および namespace キーワード引数をサポートします。
profile simple-rados-client, 説明
これは Ceph Monitor にのみ適用されます。ユーザーにモニター、OSD、PG データに対する読み取り専用権限を与えます。直接の librados クライアントアプリケーションによる使用を目的としています。
profile simple-rados-client-with-blocklist, 説明
これは Ceph Monitor にのみ適用されます。ユーザーにモニター、OSD、PG データに対する読み取り専用権限を与えます。直接の librados クライアントアプリケーションによる使用を目的としています。高可用性 (HA) アプリケーションを構築するためにブロックリストエントリーを追加する権限も含まれます。
profile fs-client, 説明
これは Ceph Monitor にのみ適用されます。ユーザーにモニター、OSD、PG、および MDS データに対する読み取り専用権限を与えます。CephFS クライアントを対象としています。
profile role-definer, 説明
これは Ceph Monitor と Auth に適用されます。ユーザーに、認証サブシステムに対する すべて の権限、モニターへの読み取り専用アクセス権を与えますが、それ以外は何も与えません。自動化ツールに役立ちます。警告: セキュリティーへの影響は重大かつ広範囲に及ぶため、実際に何をしているのかを理解していない限り、これを割り当てないでください。
profile crash, 説明
これは Ceph Monitor と Ceph Manager に適用されます。ユーザーにモニターへの読み取り専用アクセスを与えます。後で分析するためにデーモン crash ダンプをモニターストレージにアップロードするために、マネージャークラッシュモジュールと組み合わせて使用されます。

4.6. ユーザー機能の作成

Ceph Dashboard で、さまざまな機能を持つロールベースのアクセスユーザーを作成します。

さまざまなユーザー機能の詳細は、ユーザー機能アクセス機能 を参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ダッシュボードにログインします。
  2. クラスタードロップダウンメニューで Users を選択します。
  3. + Create をクリックします。
  4. Create User ウィンドウで、次の詳細を入力します。

    1. ユーザーエンティティー - これを TYPE として指定します。ID
    2. エンティティー - monmgrosd、または mds のいずれかです。
    3. エンティティーの機能 - ユーザーに提供できるさまざまな機能の詳細を提供します。たとえば、allow *と profile crash は、クライアントに割り当てることができる機能の一部です。

      注記

      要件に基づいて、さらにエンティティーをユーザーに追加できます。

  5. Create User をクリックします。
  6. ユーザーが正常に作成されたという通知を受け取ります。

4.7. ユーザー機能の編集

ダッシュボードでユーザーまたはクライアントのロールを編集します。

さまざまなユーザー機能の詳細は、ユーザー機能アクセス機能 を参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ダッシュボードにログインします。
  2. クラスタードロップダウンメニューで Users を選択します。
  3. ロールを編集するユーザーを選択します。
  4. Edit をクリックします。
  5. Edit User ウィンドウで、entityentity capabilities を編集します。

    注記

    要件に基づいて、さらにエンティティーをユーザーに追加できます。

  6. Edit User をクリックします。
  7. ユーザーが正常に編集されたという通知を受け取ります。

4.8. ユーザー機能のインポート

ユーザーまたはクライアントのロールをローカルホストからダッシュボード上のクライアントにインポートします。

さまざまなユーザー機能の詳細は、ユーザー機能アクセス機能 を参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ローカルホスト上にキーリングファイルを作成します。

    [localhost:~]$ cat import.keyring
    
    [client.test11]
    	key = AQD9S29kmjgJFxAAkvhFar6Af3AWKDY2DsULRg==
    	caps mds = "allow *"
    	caps mgr = "allow *"
    	caps mon = "allow *"
    	caps osd = "allow r"
    Copy to Clipboard Toggle word wrap

  2. ダッシュボードにログインします。
  3. クラスタードロップダウンメニューで Users を選択します。
  4. ロールをインポートするユーザーを選択します。
  5. Edit ドロップダウンメニューから Import を選択します。
  6. Import User ウィンドウで、Choose file をクリックし、適切なファイルを選択します。
  7. Import User をクリックします

  8. キーが正常にインポートされたという通知を受け取ります。

4.9. ユーザー機能のエクスポート

ユーザーまたはクライアントのロールをダッシュボードからローカルホストにエクスポートします。

さまざまなユーザー機能の詳細は、ユーザー機能アクセス機能 を参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ダッシュボードにログインします。
  2. クラスタードロップダウンメニューで Users を選択します。
  3. ロールをエクスポートするユーザーを選択します。
  4. Edit ドロップダウンメニューから Export を選択します。
  5. Ceph user export data ダイアログボックスで、Copy to Clipboard アイコンをクリックします。

  6. キーが正常にコピーされたという通知を受け取ります。
  7. ローカルシステムでキーリングファイルを作成し、キーを貼り付けます。

    [localhost:~]$ cat exported.keyring
    
    [client.test11]
    	key = AQD9S29kmjgJFxAAkvhFar6Af3AWKDY2DsULRg==
    	caps mds = "allow *"
    	caps mgr = "allow *"
    	caps mon = "allow *"
    	caps osd = "allow r"
    Copy to Clipboard Toggle word wrap

4.10. ユーザー機能の削除

ダッシュボード上のユーザーまたはクライアントのロールを削除します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。

手順

  1. ダッシュボードにログインします。
  2. クラスタードロップダウンメニューで Users を選択します。
  3. 削除したいユーザーを選択します。
  4. Edit ドロップダウンメニューから、Delete を選択します。
  5. Delete entity ウィンドウで、Yes, I am sure を選択します。

  6. Delete entity をクリックします。
  7. ユーザーが正常に削除されたという通知を受け取ります。

第5章 Ceph デーモンの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph デーモンを管理できます。

5.1. デーモンアクション

Red Hat Ceph Storage Dashboard を使用すると、デーモンを開始、停止、再起動、および再デプロイできます。

注記

これらのアクションは、Monitor Daemon と Manager Daemon を除くすべてのデーモンでサポートされています。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ストレージクラスターに少なくとも 1 つのデーモンが設定されている。

手順

デーモンは 2 つの方法で管理できます。

サービスページから:

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. その行の Expand/Collapse アイコンをクリックして、アクションを実行するデーモンでサービスの詳細を表示します。
  4. Details で、目的のデーモンの横にあるドロップダウンを選択して、開始停止再起動、または 再デプロイ を実行します。

    図5.1 デーモンの管理

ホストページから:

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts List から、アクションを実行するデーモンを含むホストを選択します。
  4. ホストの Daemon タブで、デーモンをクリックします。
  5. 上部のドロップダウンを使用して、StartStopRestart、または Redeploy を実行します。

    図5.2 デーモンの管理

第6章 Ceph Dashboard でのクラスターの監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、ホストのタイプ、サービス、データアクセス方法などに基づいて、クラスターの特定の側面を監視できます。

このセクションでは、以下の管理タスクを説明します。

6.1. ダッシュボードでの Ceph クラスターのホストの監視

Red Hat Ceph Storage Dashboard でクラスターのホストを監視できます。

以下で、ホストページの各種タブを紹介します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、デバイス名、ホスト上のデーモンなどの詳細が表示されます。
  • インベントリー: このタブには、選択したホストに接続されているすべてのディスクと、そのタイプ、サイズなどが表示されます。デバイスパス、デバイスのタイプ、可用性、ベンダー、モデル、サイズ、デプロイされた OSD などの詳細があります。
  • デーモン - このタブには、選択したホストにデプロイされたすべてのサービス、実行中のコンテナー、および現在のステータスが表示されます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻などの詳細があります。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、OSD がデプロイされたホスト上でのみ個々のヘルスステータスと SMART データを取得できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービス、モニター、マネージャー、および OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. 特定のホストの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。
  4. 各タブをクリックすると、デバイスインベントリーデーモンパフォーマンスの詳細デバイスのヘルス などの詳細を表示できます。

    図6.1 Ceph クラスターのホストの監視

6.2. ダッシュボードでの Ceph クラスターの設定の表示と編集

ダッシュボードで Ceph クラスターのさまざまな設定オプションを表示できます。編集できるのは一部の設定オプションのみです。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Configuration を選択します。
  3. オプション: 検索 ボックスを使用して設定を検索できます。
  4. オプション: 次のフィルターを使用して、特定の設定をフィルタリングできます。

    • レベル - Basic、advanced または dev
    • サービス - Any、mon、mgr、osd、mds、common、mds_client、rgw などのフィルター。
    • ソース - Any、mon などのフィルター
    • 変更済み - Yes または No
  5. 設定の詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.2 設定オプション

  6. 設定を編集するには、その行をクリックし、Edit をクリックします。

    1. 編集ダイアログウィンドウで、必要なパラメーターを編集し、Update をクリックします。
  7. 設定が正常に更新されたという通知が表示されます。

6.3. ダッシュボードでの Ceph クラスターのマネージャーモジュールの表示および編集

マネージャーモジュールは、モジュール固有の設定管理すに使用されます。たとえば、クラスターのヘルスに関するアラートを有効にできます。

Red Hat Ceph Storage Dashboard で、クラスターのマネージャーモジュールを表示、有効化、無効化、および編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。

マネージャーモジュールの表示

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Manager Modules を選択します。
  3. 特定のマネージャーモジュールの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.3 マネージャーモジュール

マネージャーモジュールの有効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Enable を選択します。

マネージャーモジュールの無効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Disable を選択します。

マネージャーモジュールの編集

  1. 行を選択します。

    注記

    すべてのモジュールに設定可能なパラメーターがあるわけではありません。モジュールが設定できない場合、Edit ボタンは無効になります。

  2. 必要なパラメーターを編集し、Update をクリックします。
  3. モジュールが正常に更新されたという通知が表示されます。

6.4. ダッシュボードでの Ceph クラスターのモニター監視

Ceph モニターのパフォーマンスを監視するには、Red Hat Ceph Storage ダッシュボードのランディングページで、モニターのステータス、クォーラム、オープンセッション数、パフォーマンスカウンターなどの詳細を Monitors タブに表示することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • モニターはストレージクラスターにデプロイされます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Monitors を選択します。
  3. Monitors 概要ページには、全体的な監視ステータスに関する情報と、in Quorum および Not in quorum Monitor のテーブルが表示されます。

  4. 開いているセッションの数を確認するには、青い点線のトレイルにカーソルを合わせます。
  5. 任意のモニターのパフォーマンスカウンターを表示するには、そのホスト名をクリックします。

    • モニターのパフォーマンスカウンターを表示します。

6.5. ダッシュボードでの Ceph クラスターの監視サービス

Red Hat Ceph Storage Dashboard でクラスターのサービスを監視できます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻の詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. 特定のサービスの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図6.4 Ceph クラスターの監視サービス

6.6. ダッシュボードでの Ceph OSD の監視

Red Hat Ceph Storage Dashboard のランディングページで、Ceph OSD のステータスを監視できます。OSD タブでは、ホスト、ステータス、デバイスクラス、プレイスメントグループ (PG) の数、サイズフラグ、使用状況、読み取りまたは書き込み操作時間などの詳細を表示することもできます。

OSD ページのさまざまなタブを次に示します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、有効期限、デバイス名、ホストのデーモンなどの詳細が表示されます。
  • 属性 (OSD マップ) - このタブには、クラスターアドレス、ハートビートの詳細、OSD の状態、およびその他の OSD 属性が表示されます。
  • メタデータ - このタブには、OSD オブジェクトストア、デバイス、オペレーティングシステム、およびカーネルの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、個々のヘルスステータスと SMART データを取得できます。
  • パフォーマンスカウンター - このタブには、デバイスに書き込まれたバイトの詳細が表示されます。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • OSD を含むすべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。
  3. 特定の OSD の詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図6.5 Ceph クラスターの OSD のモニタリング

    各タブをクリックすると、デバイス属性 (OSD マップ)メタデータデバイスヘルスパフォーマンスカウンターパフォーマンスの詳細 などの情報を表示できます。

6.7. ダッシュボードでの HAProxy の監視

Ceph Object Gateway を使用すると、オブジェクトゲートウェイの多くのインスタンスを 1 つのゾーンに割り当てできるため、負荷の増加に合わせてスケールアウトすることができます。各オブジェクトゲートウェイインスタンスは独自の IP アドレスを持つため、HAProxy を使用して Ceph Object Gateway サーバー全体で負荷を分散できます。

ダッシュボードで次の HAProxy メトリックを監視できます。

  • HTTP コードごとの合計応答数。
  • 要求/応答の合計数。
  • 接続の合計数。
  • 着信/発信バイトの現在の合計数。

ceph dashboard get-grafana-api-url コマンドを実行して、Grafana の詳細を取得することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ストレージダッシュボードでの管理者レベルのアクセスがある。
  • SSL を使用しない既存の Ceph Object Gateway サービスがある。SSL サービスが必要な場合は、Ceph Object Gateway サービスではなく、Ingress サービスで証明書を設定する必要があります。
  • Ceph Orchestrator を使用してデプロイされた Ingress サービスがある。
  • モニタリングスタックコンポーネントがダッシュボード上に作成されている。

手順

  1. Grafana URL にログインし、RGW_Overview パネルを選択します。

    構文

    https://DASHBOARD_URL:3000
    Copy to Clipboard Toggle word wrap

    https://dashboard_url:3000
    Copy to Clipboard Toggle word wrap

  2. Grafana URL で HAProxy メトリックを確認します。
  3. Ceph Dashboard を起動し、認証情報でログインします。

    https://dashboard_url:8443
    Copy to Clipboard Toggle word wrap

  4. Cluster ドロップダウンメニューから、Object Gateway を選択します。
  5. Daemons を選択します。
  6. Overall Performance タブを選択します。

検証

  • Ceph Object Gateway HAProxy メトリックを確認します。

    図6.6 HAProxy メトリック

6.8. ダッシュボードでの Ceph クラスターの CRUSH マップの表示

Red Hat Ceph Storage Dashboard で、OSD のリストおよび関連情報を含む CRUSH マップを表示できます。CRUSH マップおよび CRUSH アルゴリズムが一緒になって、データの保存方法と場所を決めます。このダッシュボードでは、OSD ホスト、OSD デーモン、ID 番号、デバイスクラスなど、CRUSH マップのさまざまな側面を確認することができます。

CRUSH マップを使用すると、特定の OSD ID が実行しているホストを決定できます。これは、OSD に問題がある場合に便利です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、CRUSH Map を選択します。
  3. 特定の OSD の詳細を表示するには、その行をクリックします。

    図6.7 CRUSH Map の詳細ビュー

6.9. ダッシュボードでの Ceph クラスターのログのフィルタリング

いくつかの条件をもとに、ダッシュボードで Red Hat Ceph Storage クラスターのログを表示およびフィルタリングできます。条件には、優先度キーワード日付、および 時間範囲 が含まれます。

ログをシステムにダウンロードするか、ログをクリップボードにコピーして、さらに分析することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Monitor が最後に起動されてからログエントリーが生成されている。
注記

Dashboard ロギング機能は最新の高レベルイベントのみを表示します。イベントは Ceph Monitor によってメモリーに格納されます。Monitor を再起動すると、エントリーが消えます。詳細なログまたは古いログを確認する必要がある場合は、ファイルベースのログを参照してください。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Logs を選択します。

    図6.8 クラスターログ

    1. 優先度で絞り込むには、Priority ドロップダウンメニューをクリックし、DebugInfoWarningError または All のいずれかを選択します。
    2. キーワードで絞り込むには、Keyword フィールドにテキストを入力します。
    3. 日付で絞り込むには、Date フィールドをクリックし、メニューから日付を選択するか、YYYY-MM-DD の形式で日付を入力します。
    4. 時間で絞り込むには、HH:MM - HH:MM 形式を使用して Time range フィールドに範囲を入力します。時間は、数字 0 から 23 に入力する必要があります。
    5. フィルターを組み合わせるには、2 つ以上のフィルターを設定します。
  3. Download アイコンまたは Copy to Clipboard アイコンをクリックして、ログをダウンロードします。

6.10. ダッシュボードでの Ceph クラスターの集中ログの表示

Ceph Dashboard を使用すると、Red Hat Ceph Storage クラスター内の集中スペースですべてのクライアントからのログを表示でき、効率的に監視できます。これは、ログの保存とクエリー用に設計されたログ集約システムである Loki と、ローカルログの内容をプライベート Grafana Loki インスタンスに送信するエージェントである Promtail を使用することで実現されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Grafana が設定され、クラスターにログインしている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services をクリックします。
  3. Services ウィンドウで、ドロップダウンメニューから + Create をクリックします。
  4. Create Service ウィンドウで、Type フィールドから loki を選択し、残りの詳細を入力して Create Service をクリックします。
  5. Type フィールドで promtail を選択し、前の手順を繰り返して Promtail サービスも作成します。作成が成功すると、サービスリストで実行中の loki および promtail を確認できます。

    図6.9 Loki および Protail サービスの作成

    注記

    デフォルトでは、Promtail サービスは実行中のすべてのホストにデプロイされます。

  6. ファイルへのロギングを有効にするには、Cluster ドロップダウンメニューから Configuration をクリックします。
  7. 検索バーで log_to_file を検索し、Edit をクリックします。
  8. Edit log_to_file ウィンドウで、globaltrue に設定します。

    図6.10 ログファイルの設定

  9. ステップ 6 から 8 を繰り返し、検索バーで mon_cluster_log_to_file を検索して mon_cluster_log_to_file ファイルでも globaltrue に設定します。

    注記

    log_to_file ファイルと mon_cluster_log_to_file ファイルの両方を設定する必要があります。

  10. Cluster の下の Logs に移動し、Daemon Logs タブをクリックして集中ログを表示します。Log browser 使用してファイルを選択し、Show logs をクリックしてそのファイルのログを表示します。

    図6.11 集中ログの表示

    注記

    ログが表示されない場合は、Grafana にサインインしてページをリロードする必要があります。

6.11. ダッシュボードでの Ceph クラスターのプールの監視

Red Hat Ceph Storage Dashboard では、クラスター内のプールの詳細、パフォーマンスの詳細、設定、および全体的なパフォーマンスを表示できます。

プールは、Ceph Storage クラスターがデータを分散し、格納する方法において重要なロールを果たします。プールを作成せずにクラスターをデプロイした場合に、Ceph はデフォルトのプールを使用してデータを格納します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools を選択します。
  3. データ保護の詳細と、プールが有効化されているアプリケーションが含まれるプールリストを表示します。必要な詳細を表示するには、UsageRead bytes および Write bytes にマウスをかざします。
  4. プールに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.12 プールの監視

6.12. ダッシュボードでの Ceph ファイルシステムの監視

Red Hat Ceph Storage Dashboard を使用して Ceph File Systems (CephFS) および関連するコンポーネントを監視することができます。ファイルシステム には、次の 4 つの主要なタブがあります。

  • Details: メタデータサーバー (MDS) とそのランクに加えて、スタンバイデーモン、プール、その使用状況、パフォーマンスカウンターを表示します。
  • Clients: ファイルシステムをマウントしたクライアントのリストを表示します。
  • ディレクトリー - ディレクトリーのリストを表示します。
  • パフォーマンス: ファイルシステムのパフォーマンスを表示します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • MDS サービスが少なくとも 1 つのホストにデプロイされている。
  • Ceph File System がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Filesystems をクリックします。
  3. ファイルシステムに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.13 Ceph ファイルシステムの監視

6.13. ダッシュボードでの Ceph Object Gateway デーモンの監視

Red Hat Ceph Storage Dashboard を使用して、Ceph オブジェクトゲートウェイデーモンを監視できます。Ceph オブジェクトゲートウェイデーモンの詳細、パフォーマンスカウンター、およびパフォーマンスの詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ストレージクラスターに少なくとも 1 つの Ceph Object Gateway デーモンが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Ceph オブジェクトゲートウェイデーモンの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.14 Ceph オブジェクトゲートウェイデーモンの監視

    Ceph Object Gateway デーモンを複数設定している場合は、Sync Performance タブをクリックして、マルチサイトのパフォーマンスカウンターを表示します。

6.14. Ceph Dashboard でブロックデバイスイメージを監視します。

Red Hat Ceph ストレージダッシュボードを使用して、ブロックデバイスイメージを監視および管理できます。イメージの詳細、スナップショット、設定の詳細、およびパフォーマンスの詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. イメージの詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.15 ブロックデバイスイメージの監視

第7章 Ceph Dashboard でのアラートの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でアラートの詳細を表示し、アラートのサイレンスを作成できます。これには、次の事前定義されたアラートが含まれます。

  • CephadmDaemonFailed
  • CephadmPaused
  • CephadmUpgradeFailed
  • CephDaemonCrash
  • CephDeviceFailurePredicted
  • CephDeviceFailurePredictionTooHigh
  • CephDeviceFailureRelocationIncomplete
  • CephFilesystemDamaged
  • CephFilesystemDegraded
  • CephFilesystemFailureNoStandby
  • CephFilesystemInsufficientStandby
  • CephFilesystemMDSRanksLow
  • CephFilesystemOffline
  • CephFilesystemReadOnly
  • CephHealthError
  • CephHealthWarning
  • CephMgrModuleCrash
  • CephMgrPrometheusModuleInactive
  • CephMonClockSkew
  • CephMonDiskspaceCritical
  • CephMonDiskspaceLow
  • CephMonDown
  • CephMonDownQuorumAtRisk
  • CephNodeDiskspaceWarning
  • CephNodeInconsistentMTU
  • CephNodeNetworkPacketDrops
  • CephNodeNetworkPacketErrors
  • CephNodeRootFilesystemFull
  • CephObjectMissing
  • CephOSDBackfillFull
  • CephOSDDown
  • CephOSDDownHigh
  • CephOSDFlapping
  • CephOSDFull
  • CephOSDHostDown
  • CephOSDInternalDiskSizeMismatch
  • CephOSDNearFull
  • CephOSDReadErrors
  • CephOSDTimeoutsClusterNetwork
  • CephOSDTimeoutsPublicNetwork
  • CephOSDTooManyRepairs
  • CephPGBackfillAtRisk
  • CephPGImbalance
  • CephPGNotDeepScrubbed
  • CephPGNotScrubbed
  • CephPGRecoveryAtRisk
  • CephPGsDamaged
  • CephPGsHighPerOSD
  • CephPGsInactive
  • CephPGsUnclean
  • CephPGUnavilableBlockingIO
  • CephPoolBackfillFull
  • CephPoolFull
  • CephPoolGrowthWarning
  • CephPoolNearFull
  • CephSlowOps
  • PrometheusJobMissing

図7.1 事前定義されたアラート

簡易ネットワーク管理プロトコル (SNMP) トラップを使用してアラートを監視することもできます。

7.1. 監視スタックの有効化

コマンドラインインターフェイスを使用して、Prometheus、Alertmanager、Grafana などの Red Hat Ceph Storage クラスターのモニタリングスタックを手動で有効にできます。

Prometheus および Alertmanager API を使用して、アラートと無音を管理できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • すべてのホストへの root レベルのアクセス。

手順

  1. cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. 監視スタックの API を設定します。

    • Alertmanager サーバーのホストとポートを指定します。

      構文

      ceph dashboard set-alertmanager-api-host 'ALERTMANAGER_API_HOST:PORT'
      Copy to Clipboard Toggle word wrap

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host 'http://10.0.0.101:9093'
      Option ALERTMANAGER_API_HOST updated
      Copy to Clipboard Toggle word wrap

    • 設定されたアラートを表示するには、Prometheus API への URL を設定します。この API を使用して、Ceph Dashboard UI は、新しい無音が対応するアラートと一致することを確認します。

      構文

      ceph dashboard set-prometheus-api-host 'PROMETHEUS_API_HOST:PORT'
      Copy to Clipboard Toggle word wrap

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-host 'http://10.0.0.101:9095'
      Option PROMETHEUS_API_HOST updated
      Copy to Clipboard Toggle word wrap

      ホストを設定した後、ブラウザーのダッシュボードウィンドウを更新します。

    • Grafana サーバーのホストとポートを指定します。

      構文

      ceph dashboard set-grafana-api-url 'GRAFANA_API_URL:PORT'
      Copy to Clipboard Toggle word wrap

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-url 'http://10.0.0.101:3000'
      Option GRAFANA_API_URL updated
      Copy to Clipboard Toggle word wrap

  3. Prometheus、Alertmanager、および Grafana API ホストの詳細を取得します。

    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host
    http://10.0.0.101:9093
    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host
    http://10.0.0.101:9095
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-url
    http://10.0.0.101:3000
    Copy to Clipboard Toggle word wrap

  4. オプション: Prometheus、Alertmanager、または Grafana のセットアップで自己署名証明書を使用している場合は、ダッシュボードで証明書の検証を無効にします。これにより、不明な認証局 (CA) によって署名された証明書や、ホスト名と一致しない証明書が原因となる接続拒否を回避することができます。

    • Prometheus の場合:

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False
      Copy to Clipboard Toggle word wrap

    • Alertmanager の場合:

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False
      Copy to Clipboard Toggle word wrap

    • Grafana の場合:

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False
      Copy to Clipboard Toggle word wrap

  5. Prometheus、Alertmanager、および Grafana の自己署名証明書検証設定の詳細を取得します。

    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify
    Copy to Clipboard Toggle word wrap

  6. オプション: ダッシュボードに変更が反映されていない場合は、ダッシュボードを無効にしてから有効にする必要があります。

    [ceph: root@host01 /]# ceph mgr module disable dashboard
    [ceph: root@host01 /]# ceph mgr module enable dashboard
    Copy to Clipboard Toggle word wrap

7.2. Grafana 証明書の設定

cephadm は、ceph キー/値ストアで定義された証明書を使用して Grafana をデプロイします。証明書が指定されていない場合、cephadm は Grafana サービスのデプロイメント中に自己署名証明書を生成します。

ceph config-key set コマンドを使用してカスタム証明書を設定できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. Grafana のカスタム証明書を設定します。

    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem
    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem
    Copy to Clipboard Toggle word wrap

  3. Grafana がすでにデプロイされている場合は、reconfig を実行して設定を更新します。

    [ceph: root@host01 /]# ceph orch reconfig grafana
    Copy to Clipboard Toggle word wrap

  4. 新しい証明書を追加するたびに、次の手順に従います。

    1. 新しいディレクトリーを作成する

      [root@host01 ~]# mkdir /root/internalca
      [root@host01 ~]# cd /root/internalca
      Copy to Clipboard Toggle word wrap

    2. キーを生成します。

      [root@host01 internalca]# openssl ecparam -genkey -name secp384r1 -out $(date +%F).key
      Copy to Clipboard Toggle word wrap

    3. キーを表示します。

      [root@host01 internalca]# openssl ec -text -in $(date +%F).key | less
      Copy to Clipboard Toggle word wrap

    4. リクエストを行う:

      [root@host01 internalca]# umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr
      Copy to Clipboard Toggle word wrap

    5. 署名のために送信する前にリクエストを確認してください。

      [root@host01 internalca]# openssl req -text -in $(date +%F).csr | less
      Copy to Clipboard Toggle word wrap

    6. CA サインとして:

      [root@host01 internalca]# openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf
      Copy to Clipboard Toggle word wrap

    7. 署名された証明書を確認します。

      [root@host01 internalca]# openssl x509 -text -in $(date +%F).crt -noout | less
      Copy to Clipboard Toggle word wrap

7.3. Alertmanager Webhook の追加

新しい Webhook を既存の Alertmanager 設定に追加して、ストレージクラスターの正常性に関するリアルタイムのアラートを受け取ることができます。サードパーティーアプリケーションへの非同期メッセージを許可するには、着信 Webhook を有効にする必要があります。

たとえば、Red Hat Ceph Storage クラスターで OSD がダウンしている場合、Alertmanager を設定して Google チャットで通知を送信できます。

前提条件

  • モニタリングスタックコンポーネントが有効になっている実行中の Red Hat Ceph Storage クラスター。
  • 受信側のサードパーティーアプリケーションで設定された着信 Webhook。

手順

  1. cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. Alertmanager が通知のために Webhook を使用するように設定します。

    構文

    service_type: alertmanager
    spec:
      user_data:
        default_webhook_urls:
        - "_URLS_"
    Copy to Clipboard Toggle word wrap

    default_webhook_urls は、デフォルトの受信者の webhook_configs 設定に追加される追加の URL のリストです。

    service_type: alertmanager
    spec:
      user_data:
        webhook_configs:
        - url: 'http:127.0.0.10:8080'
    Copy to Clipboard Toggle word wrap

  3. Alertmanager 設定を更新します。

    [ceph: root@host01 /]#  ceph orch reconfig alertmanager
    Copy to Clipboard Toggle word wrap

検証

  • Alertmanager から Gchat への通知の例:

    using: https://chat.googleapis.com/v1/spaces/(xx- space identifyer -xx)/messages
    posting: {'status': 'resolved', 'labels': {'alertname': 'PrometheusTargetMissing', 'instance': 'postgres-exporter.host03.chest
    response: 200
    response: {
    "name": "spaces/(xx- space identifyer -xx)/messages/3PYDBOsIofE.3PYDBOsIofE",
    "sender": {
    "name": "users/114022495153014004089",
    "displayName": "monitoring",
    "avatarUrl": "",
    "email": "",
    "domainId": "",
    "type": "BOT",
    "isAnonymous": false,
    "caaEnabled": false
    },
    "text": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappeared. An e
    "cards": [],
    "annotations": [],
    "thread": {
    "name": "spaces/(xx- space identifyer -xx)/threads/3PYDBOsIofE"
    },
    "space": {
    "name": "spaces/(xx- space identifyer -xx)",
    "type": "ROOM",
    "singleUserBotDm": false,
    "threaded": false,
    "displayName": "_privmon",
    "legacyGroupChat": false
    },
    "fallbackText": "",
    "argumentText": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappea
    "attachment": [],
    "createTime": "2022-06-06T06:17:33.805375Z",
    "lastUpdateTime": "2022-06-06T06:17:33.805375Z"
    Copy to Clipboard Toggle word wrap

7.4. Ceph Dashboard でのアラートの表示

アラートが起動したら、Red Hat Ceph Storage Dashboard でアラートを表示できます。マネージャーモジュール の設定を編集して、アラートが発行されたときにメールをトリガーできます。

注記

SSL は、Red Hat Ceph Storage 6 クラスターではサポートされていません。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 実行中の簡単なメール転送プロトコル (SMTP) が設定されている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの alerts モジュールをカスタマイズして、ストレージクラスターの電子メールアラートを取得します。

    1. ナビゲーションメニューで、Cluster をクリックします。
    2. Manager modules を選択します。
    3. アラート モジュールを選択します。
    4. Edit ドロップダウンメニューで、Edit を選択します。
    5. Edit Manager module ウィンドウで、必要なパラメーターを更新し、Update をクリックします。

      注記

      smtp_ssl パラメーターを選択しないでください。

      図7.2 アラートの Manager モジュールの編集

  3. ナビゲーションメニューで、Cluster をクリックします。
  4. ドロップダウンメニューから Monitoring を選択します。
  5. アラートの詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図7.3 アラートの表示

  6. アラートのソースを表示するには、その行をクリックし、Source をクリックします。

7.5. Ceph Dashboard でのサイレンスの作成

Red Hat Ceph Storage Dashboard で、アラートを一定期間サイレントに作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. アラートのサイレンスを作成するには、その行を選択します。
  5. +Create Silence をクリックします。
  6. Create Silence ウィンドウで、Duration の詳細を追加し、 Create Silence をクリックします。

    図7.4 サイレンスの作成

  7. サイレンスが正常に作成されたという通知が表示されます。

7.6. Ceph Dashboard でのサイレンスの再作成

Red Hat Ceph Storage Dashboard で、期限切れのサイレンスをもとにサイレンスを再作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. 期限切れのサイレンスを作成しなおすには、その行をクリックします。
  6. Recreate ボタンをクリックします。
  7. Recreate Silence ウィンドウで、詳細を追加し、Recreate Silence をクリックします。

    図7.5 サイレンスの再作成

  8. サイレンスが正常に再作成されたという通知が表示されます。

7.7. Ceph Dashboard でのサイレンスの編集

アクティブなサイレンスは、Red Hat Ceph Storage Dashboard でアクティブな時間を延長するなど、編集が可能です。サイレンスの有効期限が切れている場合は、サイレンスを再作成するか、アラート用に新しいサイレンスを作成することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを編集するには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. Edit Silence ウィンドウで、詳細を更新し、Edit Silence をクリックします。

    図7.6 サイレンスの編集

  8. サイレンスが正常に更新されたという通知が表示されます。

7.8. Ceph Dashboard でのサイレンスの失効

Red Hat Ceph Storage Dashboard で一致したアラートが抑制されないように、サイレンスを期限切れにすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを失効させるには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Expire を選択します。
  7. Expire Silence ダイアログボックスで、Yes, I am sure を選択し、Expire Silence をクリックします。

    図7.7 サイレンスの期限切れ

  8. サイレンスが正常に失効したという通知が届きます。

第8章 Ceph Dashboard でのプールの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でプールを作成、編集、削除できます。

このセクションでは、以下の管理タスクを説明します。

8.1. Ceph Dashboard でのプールの作成

プールを作成せずにストレージクラスターをデプロイすると、Ceph はデフォルトのプールを使用してデータを格納します。Red Hat Ceph Storage Dashboard で、プールを作成して、ストレージオブジェクトを論理的にパーティション分割できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. Create をクリックします。
  4. Create Pool ウィンドウで、次のパラメーターを設定します。

    図8.1 プールの作成

    1. プールの名前を設定し、プールタイプを選択します。
    2. レプリケートまたはイレイジャーコード (EC) のいずれかのプールタイプを選択します。
    3. 配置グループ (PG) 番号を設定します。
    4. 必要に応じて、レプリケートされたプールタイプを使用する場合は、レプリケートされたサイズを設定します。
    5. 必要に応じて、EC プールタイプを使用する場合には、以下の追加設定を設定します。
    6. 必要に応じて、現在選択されている EC プロファイルの設定を確認するには、クレスチョンマークをクリックします。
    7. 必要に応じて、プラス記号をクリックして、新しい EC プロファイルを追加します。
    8. 必要に応じて、鉛筆記号をクリックして、プールのアプリケーションを選択します。
    9. オプション: 該当する場合は、CRUSH ルールを設定します。
    10. 必要に応じて、圧縮が必要な場合は、passiveaggressive、または force を選択します。
    11. オプション: クォータを設定します。
    12. オプション: サービス品質 (Quality of Service) 設定を設定します。
  5. Create Pool をクリックします。
  6. プールが正常に作成されたという通知が表示されます。

8.2. Ceph Dashboard でのプールの編集

Red Hat Ceph Storage Dashboard でプールを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. プールを編集するには、その行をクリックします。
  4. Edit ドロップダウンで Edit を選択します。
  5. Edit Pool ウィンドウで、必要なパラメーターを編集し、Edit Pool をクリックします。

    図8.2 プールの編集

  6. プールが正常に作成されたという通知が表示されます。

8.3. Ceph Dashboard でのプールの削除

Red Hat Ceph Storage Dashboard でプールを削除できます。マネージャーモジュールで mon_allow_pool_delete の値が True に設定されていることを確認します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーの Cluster ドロップダウンメニューで、Configuration をクリックします。
  3. Level ドロップダウンメニューで、Advanced を選択します。
  4. mon_allow_pool_delete を検索し、編集をクリックします。
  5. すべての値を true に設定します。

    図8.3 プールを削除する設定

  6. ナビゲーションバーで、Pools をクリックします。
  7. プールを削除するには、行をクリックします。
  8. Edit ドロップダウンメニューから、Delete を選択します。
  9. Delete Pool ウィンドウで、Yes, I am sure ボックスをクリックし、Delete Pool をクリックして設定を保存します。

    図8.4 プールの削除

第9章 Ceph Dashboard でのホストの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でホストのメンテナンスモードを有効または無効にすることができます。メンテナンスモードでは、メンテナンスアクティビティーを実行するためにホストをシャットダウンしても、クラスターに悪影響を与えることはありません。

Red Hat Ceph Storage Dashboard の Start Drain および Remove オプションを使用して、ホストを削除することもできます。

このセクションでは、以下の管理タスクを説明します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホスト、Ceph Monitor Daemon、および Ceph Manager Daemon がストレージクラスターに追加されている。

9.1. メンテナンスモードの開始

Red Hat Ceph Storage Dashboard でホストをシャットダウンする前に、ホストのメンテナンスモードを開始することができます。メンテナンスモードが正常に有効になると、ホストはエラーなしでオフラインになり、メンテナンスアクティビティーを実行できます。メンテナンスモードが失敗した場合は、失敗の理由と、ホストを停止する前に実行する必要があるアクションが示されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. リストからホストを選択します。
  4. Edit ドロップダウンメニューから、Enter Maintenance をクリックします。

    図9.1 メンテナンスモードの開始

    注記

    ホストがメンテナンスモードを開始すると、すべてのデーモンが停止します。ホストの Daemons タブで、デーモンのステータスを確認できます。

検証

  1. ホストが正常にメンテナンスモードに移行したという通知を受け取り、Status 列に maintenance ラベルが表示されます。
注記

メンテナンスモードが失敗した場合は、失敗の理由を示す通知を受け取ります。

9.2. メンテナンスモードの終了

ホストを再起動するには、Red Hat Ceph Storage Dashboard でホストのメンテナンスモードを終了します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts 一覧から、メンテナンス中のホストを選択します。

    注記

    Status 列の maintenance ラベルを確認することで、メンテナンス中のホストを特定できます。

  4. Edit ドロップダウンメニューから、Exit Maintenance をクリックします。

    図9.2 メンテナンスモードの終了

    メンテナンスモードの終了後、default-crash でホスト上に必要なサービスを作成し、node-exporter がデプロイされるようにする必要があります。

検証

  1. ホストのメンテナンスが正常に終了し、Status 列から maintenance ラベルが削除されたという通知が表示されます。

9.3. Ceph Dashboard を使用したホストの削除

Ceph クラスターからホストを削除するには、Red Hat Ceph Storage Dashboard の Start Drain および Remove オプションを使用できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts リストから、削除するホストを選択します。
  4. Edit ドロップダウンメニューから、Start Drain をクリックします。

    図9.3 Start Drain オプションの選択

    このオプションは、ホストからすべてのデーモンをドレインします。

    注記

    _no_schedule ラベルがホストに自動的に適用され、このホストでのデーモンのデプロイメントがブロックされます。

    1. オプション: ホストからのデーモンのドレインを停止するには、Edit ドロップダウンメニューから Stop Drain オプションをクリックします。
  5. すべてのデーモンがホストから削除されているかどうかを確認します。

    1. その行の Expand/Collapse アイコンをクリックします
    2. Daemons を選択します。デーモンは表示されないはずです。

      図9.4 ホストデーモンのステータスの確認

      重要

      すべてのデーモンがホストから削除された後、ホストをクラスターから安全に削除できます。

  6. ホストの削除。

    1. Edit ドロップダウンメニューから、Remove をクリックします。

      図9.5 ホストの削除

    2. Remove Host ダイアログボックスで、Yes, I am sure. をオンにしてから Remove Host をクリックします。

検証

  1. Hosts リストからホストが正常に削除されると、通知が表示されます。

第10章 ダッシュボードでの Ceph OSD の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で OSD を監視および管理できます。

Red Hat Ceph Storage Dashboard の機能には、次のようなものがあります。

  • OSD、OSD のステータス、統計、属性、メタデータ、デバイスの健全性、パフォーマンスカウンター、パフォーマンスの詳細などの情報をリスト表示します。
  • OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと再加重付け、スクラブ、ディープスクラブ、プロファイルの選択によるバックフィルアクティビティー調整を行います。
  • OSD に関連付けられているすべてのドライブをリスト表示します。
  • OSD のデバイスクラスを設定および変更します。
  • OSD を新しいドライブとホストにデプロイします。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Red Hat Ceph Storage Dashboard での cluster-manager のアクセスレベル

10.1. Ceph Dashboard での OSD の管理

Red Hat Ceph Storage Dashboard の Ceph OSD で以下のアクションを実行できます。

  • 新規 OSD を作成します。
  • OSD のデバイスクラスを編集します。
  • フラグを No UpNo DownNo In または No Out とマーク付けします。
  • OSD をスクラブしてディープスクラブします。
  • OSD の加重を変更します。
  • OSD を OutInDownLost にマークします。
  • OSD をパージします。
  • OSD を破棄します。
  • OSD を削除します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホスト、Monitor Daemon と Manager Daemon がストレージクラスターに追加されている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。

OSD の作成

  1. OSD を作成するには、Create をクリックします。

    図10.1 OSD 用のデバイスの追加

    注記

    使用可能なホストといくつかの使用可能なデバイスがあることを確認してください。Cluster ドロップダウンメニューの Physical Disks で使用可能なデバイスを確認できます。

    1. Create OSDs ウィンドウで、Deployment オプションから次のいずれかのオプションを選択します。

      • Cost/Capacity-optimized: クラスターは、使用可能なすべての HDD でデプロイされます。
      • Throughput-optimized: データの保存には低速のデバイスが使用され、ジャーナル/WAL の保存には高速のデバイスが使用されます。
      • IOPS-optimized : 使用可能なすべての NVME が OSD のデプロイに使用されます。
    2. Advanced モードから、+Add をクリックして、プライマリー、WAL、および DB デバイスを追加できます。

      • プライマリーデバイス: プライマリーストレージデバイスには、すべての OSD データが含まれます。
      • WAL デバイス: Write-Ahead-Log デバイスは、BlueStore の内部ジャーナルに使用され、WAL デバイスがプライマリーデバイスよりも高速な場合にのみ使用されます。たとえば、NVME や SSD などです。
      • DB デバイス: DB デバイスは、BlueStore の内部メタデータを格納するために使用され、DB デバイスがプライマリーデバイスよりも高速な場合にのみ使用されます。たとえば、NVMESSD などです。
    3. セキュリティー上の目的でデータを暗号化する場合は、Featuresencryption を選択します。
    4. Preview ボタンをクリックし、OSD Creation Preview ダイアログボックスで Create をクリックします。
    5. OSD Creation Preview ダイアログボックスで、Create をクリックします。
  2. OSD が正常に作成されたという通知が表示されます。
  3. OSD ステータスが、indown から inup に変わります。

OSD の編集

  1. OSD を編集するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Edit を選択します。
    2. デバイスクラスを編集します。
    3. Edit OSD をクリックします。

      図10.2 OSD の編集

    4. OSD が正常に更新されたという通知が表示されます。

OSD のフラグのマーク付け

  1. OSD のフラグをマークするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Flags を選択します。
    2. フラグを No UpNo DownNo In または No Out とマーク付けします。
    3. Update をクリックします。

      図10.3 OSD のフラグのマーク付け

    4. OSD のフラグが正常に更新されたという通知が表示されます。

OSD のスクラブ

  1. OSD をスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Scrub を選択します。
    2. OSDs Scrub ダイアログボックスで、Update をクリックします。

      図10.4 OSD のスクラブ

    3. OSD のスクラブが正常に開始されたことを示す通知が表示されます。

OSD のディープスクラブ

  1. OSD をディープスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Deep scrub を選択します。
    2. OSDs Deep Scrub ダイアログボックスで、Update をクリックします。

      図10.5 OSD のディープスクラブ

    3. OSD のディープスクラブが正常に開始されたことを示す通知が表示されます。

OSD の加重付けの変更

  1. OSD の加重を変更するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Reweight を選択します。
    2. Reweight OSD ダイアログボックスで、0 から 1 の間の値を入力します。
    3. Reweight をクリックします。

      図10.6 OSD の加重の変更

OSD を Out とマーク付け

  1. OSD を out とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Out を選択します。
    2. Mark OSD out ダイアログボックスで、Mark Out をクリックします。

      図10.7 OSD を Out とマーク付け

    3. OSD のステータスは out に変わります。

OSD を in とマーク付け

  1. OSD を in とマーク付けするには、ステータスが out の OSD 行を選択します。

    1. Edit ドロップダウンメニューから、Mark In を選択します。
    2. Mark OSD in ダイアログボックスで、Mark In をクリックします。

      図10.8 OSD を In とマーク付け

    3. OSD のステータスは in に変わります。

OSD を Down とマーク付け

  1. OSD を down とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Down を選択します。
    2. Mark OSD down ダイアログボックスで、Mark Down をクリックします。

      図10.9 OSD を Down とマーク付け

    3. OSD のステータスは down に変わります。

OSD を Lost とマーク付け

  1. OSD を Lost とマーク付けするには、ステータスが out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Mark Lost を選択します。
    2. Mark OSD Lost ダイアログボックスの Yes, I am sure オプションを選択し、Mark Lost をクリックします。

      図10.10 OSD を Lost とマーク付け

OSD のパージ

  1. OSD をパージするには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Purge を選択します。
    2. Purge OSDs ダイアログボックスで、Yes, I am sure オプションを選択し、Purge OSD をクリックします。

      図10.11 OSD のパージ

    3. すべてのフラグがリセットされ、OSD のステータスが inup に戻ります。

OSD の破棄

  1. OSD を破棄するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Destroy を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Destroy OSD をクリックします。

      図10.12 OSD の破棄

    3. OSD のステータスが destroyed に変わります。

OSD の削除

  1. OSD を削除するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Delete を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Delete OSD をクリックします。

      注記

      障害のある OSD を置き換える必要がある場合は、OSD_ID を保持することができます。

      図10.13 OSD の削除

10.2. Ceph Dashboard で障害が発生した OSD の交換

Red Hat Ceph Storage クラスターで障害のある OSD は、ダッシュボードで cluster-manager レベルのアクセス権限がある場合に、置き換えることができます。ダッシュボードでのこの機能で注目すべき点の 1 つとして、障害のある OSD を置き換える時に OSD ID を保持できることが挙げられます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 最低でも Ceph Dashboard での cluster-manager レベルのアクセス。
  • 最低でも OSD の 1 つが down している。

手順

  1. ダッシュボードでは、以下の方法で障害のある OSD を特定できます。

    • ダッシュボード AlertManager ポップアップ通知。
    • HEALTH_WARN ステータスを示すダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボード OSD ページ。

      この例では、OSD の 1 つが Dashboard のランディングページでダウンしていることが分かります。

      これとは別に、物理ドライブでは、OSD のいずれかがダウンした場合に LED ライトが点滅していることを確認できます。

  2. OSD をクリックします。
  3. out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから Flags を選択し、No Up を選択し、Update をクリックします。
    2. Edit ドロップダウンメニューから、Delete を選択します。
    3. Delete OSD ダイアログボックスで、Preserve OSD ID(s) for replacement チェックボックスと Yes, I am sure チェックボックスを選択します。
    4. Delete OSD をクリックします。
    5. OSD のステータスが out および destroyed に変更されるまで待機します。
  4. オプション: クラスター全体の No Up Flag を変更する場合は、Cluster-wide configuration ドロップダウンメニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up を選択し、更新をクリックします。
  5. オプション: ハードディスク障害が原因で OSD がダウンしている場合は、物理ドライブを置き換えます。

    • ドライブがホットスワップ可能な場合は、故障したドライブを新しいものと交換します。
    • ドライブがホットスワップに対応しておらず、ホストに複数の OSD が含まれる場合は、ホスト全体をシャットダウンして物理ドライブを交換する必要がある場合があります。クラスターのバックフィルを防ぐことを検討してください。詳細は、Red Hat Ceph Storage トラブルシューティングガイドリバランスの停止および開始 の章を参照してください。
    • ドライブが /dev/ ディレクトリー配下に表示されたら、ドライブパスを書き留めます。
    • OSD を手動で追加する必要がある場合には、OSD ドライブを見つけ、ディスクをフォーマットします。
    • 新規ディスクにデータがある場合には、ディスクを消去します。

      構文

      ceph orch device zap HOST_NAME PATH --force
      Copy to Clipboard Toggle word wrap

      ceph orch device zap ceph-adm2 /dev/sdc --force
      Copy to Clipboard Toggle word wrap

  6. Create ドロップダウンメニューから、Create を選択します。
  7. Create OSDs ウィンドウで、+Add をクリックします。

    1. Primary devices ダイアログボックスの Hostname ドロップダウンリストから、いずれかのフィルターを選択します。Any ドロップダウンリストから、該当するオプションを選択します。

      注記

      デバイスを追加するには、まずホスト名を選択し、次に少なくとも 1 つのフィルターを選択する必要があります。

      たとえば、Hostname リストから Type を選択し、Any リストから hdd を選択します。Vendor を選択し、Any リストから ATA を選択します。

    2. Add をクリックします。
    3. Create OSDs window ウィンドウで、Preview ボタンをクリックします。
    4. OSD Creation Preview ダイアログボックスで、Create をクリックします。
    5. OSD が作成されたという通知が表示されます。OSD のステータスが outdown になります。
  8. ステータスが out および down の新規作成された OSD を選択します。

    1. Edit ドロップダウンメニューで、Mark-in を選択します。
    2. Mark OSD in ウィンドウで、Mark in を選択します。
    3. Edit ドロップダウンメニューで、Flags を選択します。
    4. No Up のチェックを外し、Update をクリックします。
  9. オプション: 過去にクラスター全体の設定を No Up のフラグに変更した場合には、Cluster-wide configuration メニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up の選択を解除して、Update をクリックします。

検証

  1. 破棄された OSD がデバイスに作成され、OSD ID が保持されていることを確認します。

第11章 ダッシュボードを使用した Ceph Object Gateway の管理

ストレージ管理者は、ダッシュボードのオブジェクトゲートウェイ機能により、Ceph Object Gateway を管理および監視することができます。

Dashboard を使用して、Secure Sockets Layer (SSL) で Ceph Object Gateway サービスを作成することもできます。

たとえば、監視機能を使用すると、ゾーン名や GET および PUT レートのパフォーマンスグラフなどのゲートウェイデーモンの詳細を表示できます。管理機能を使用すると、ユーザーとバケットの両方を表示、作成、編集できます。

Ceph Object Gateway 機能は、ユーザー機能とバケット機能に分けられます。

11.1. Ceph Object Gateway ログイン認証情報のダッシュボードへの手動追加

Red Hat Ceph Storage Dashboard は、RADOS Gateway または RGW として知られる Ceph Object Gateway を管理できます。Ceph Object Gateway が cephadm とともにデプロイされると、ダッシュボードで使用される Ceph Object Gateway クレデンシャルが自動的に設定されます。コマンドラインインターフェイスを使用して、Ceph Object Gateway の認証情報を Ceph Dashboard に手動で強制することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell
    Copy to Clipboard Toggle word wrap

  2. クレデンシャルを手動で設定します。

    [ceph: root@host01 /]# ceph dashboard set-rgw-credentials
    Copy to Clipboard Toggle word wrap

    これにより、システム内の各レルムの UID ダッシュボード を持つ Ceph Object Gateway ユーザーが作成されます。

  3. オプション: Ceph Object Gateway 管理 API でカスタム admin リソースを設定した場合は、管理リソースも設定する必要があります。

    構文

    ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin
    Option RGW_API_ADMIN_RESOURCE updated
    Copy to Clipboard Toggle word wrap

  4. 必要に応じて、自己署名証明書と共に HTTPS を使用している場合は、ダッシュボードで証明書の検証を無効にして、拒否された接続を回避します。

    証明書が不明な認証局によって署名されている場合や、使用するホスト名が証明書のホスト名と一致しない場合は、拒否される接続が発生する可能性があります。

    構文

    ceph dashboard set-rgw-api-ssl-verify false
    Copy to Clipboard Toggle word wrap

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False
    Option RGW_API_SSL_VERIFY updated
    Copy to Clipboard Toggle word wrap

  5. オプション: Object Gateway が要求の処理に時間がかかりすぎて、ダッシュボードでタイムアウトが発生した場合は、タイムアウト値を設定できます。

    構文

    ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_
    Copy to Clipboard Toggle word wrap

    デフォルト値の 45 秒。

    [ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240
    Copy to Clipboard Toggle word wrap

11.2. ダッシュボードを使用した SSL での Ceph Object Gateway サービスの作成

Red Hat Ceph Storage クラスターのインストール後に、2 つの方法を使用して SSL で Ceph Object Gateway サービスを作成することができます。

  • コマンドラインインターフェイスの使用
  • ダッシュボードの使用

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 認証局 (CA) からの SSL キー
注記

ゲートウェイホストのホスト名に一致する CA から SSL 証明書を取得します。Red Hat は、subject alternate name フィールドがあり、S3-style サブドメインで使用するワイルドカードを持つ CA から証明書を取得することを推奨します。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. +Create をクリックします。
  4. Create Service ウィンドウで、rgw サービスを選択します。
  5. SSL を選択し、Certificate.pem 形式でアップロードします。

    図11.1 Ceph Object Gateway サービスの作成

  6. Create Service をクリックします。
  7. Ceph Object Gateway サービスが稼働していることを確認します。

11.3. ダッシュボードでの Ceph Object Gateway の高可用性の設定

Ingress サービスは、Ceph Object Gateway に可用性の高いエンドポイントを提供します。Ceph Dashboard を使用して、ingress サービスを作成および設定できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 異なるホストで実行されている 2 つ以上の Ceph Object Gateway デーモン。
  • Dashboard がインストールされている。
  • 実行中の rgw サービス。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. Create をクリックします。
  4. Create Service ウィンドウで、ingress サービスを選択します。
  5. バックエンドサービスを選択し、必要なパラメーターを編集します。

    図11.2 ingress サービスの作成

  6. Create Service をクリックします。
  7. ingress サービスが正常に作成されたという通知を受け取ります。

11.4. ダッシュボードでの Ceph Object Gateway ユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway ユーザーの表示および管理を行うことができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

11.4.1. ダッシュボードでの Ceph Object Gateway ユーザーを作成する

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph Object Gateway ユーザーを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Create Service をクリックし、Create をクリックします。
  4. Create User ウィンドウで、次のパラメーターを設定します。

    1. ユーザー名、フルネームを設定し、必要に応じてバケットの最大数を編集します。
    2. 必要に応じて、メールアドレスまたは一時停止のステータスを設定します。
    3. 必要に応じて、Auto-generate key の選択を解除して、カスタムアクセスキーおよびシークレットキーを設定します。
    4. 必要に応じて、ユーザークォータを設定します。
    5. User quotaEnabled を選択します。
    6. Unlimited size または Unlimited objects の選択を解除します。
    7. Max. size または Max. objects に必要な値を入力します。
    8. 必要に応じて、バケットクォータを設定します。
    9. Bucket quotaEnabled をオンにします。
    10. Unlimited size または Unlimited objects の選択を解除します。
    11. Max. size または Max. objects に必要な値を入力します。
  5. Create User をクリックします。

    図11.3 Ceph Object Gateway ユーザーの作成

  6. ユーザーが正常に作成されたという通知が表示されます。

11.4.2. ダッシュボードでの Ceph オブジェクトゲートウェイサブユーザーの作成

サブユーザーは、S3 インターフェイスのユーザーに関連付けられます。Red Hat Ceph Storage Dashboard で、特定の Ceph Object Gateway ユーザーのサブユーザーを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Object Gateway ユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. 行をクリックしてユーザーを選択します。
  5. Edit ドロップダウンメニューから、Edit を選択します。
  6. Edit User ウィンドウで、+Create Subuser をクリックします。
  7. Create Subuser ダイアログボックスで、ユーザー名を入力し、適切な権限を選択します。
  8. Auto-generate secret チェックボックスにチェックを入れ、Create Subuser をクリックします。

    図11.4 Ceph Object Gateway のサブユーザーの作成

    注記

    Auto-generate-secret チェックボックスをクリックすると、Object Gateway の秘密鍵が自動的に生成されます。

  9. Edit User ウィンドウで、Edit user ボタンをクリックします。
  10. ユーザーが正常に更新されたことを示す通知が表示されます。

11.4.3. ダッシュボードで Ceph オブジェクトゲートウェイユーザーの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザー機能を編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Edit User をクリックします。

    図11.5 Ceph Object Gateway ユーザーの編集

  8. ユーザーが正常に更新されたことを示す通知が表示されます。

11.4.4. Dashboard での Ceph オブジェクトゲートウェイユーザーの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザーを削除するには、その行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Delete user ダイアログウィンドウで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

    図11.6 Ceph Object Gateway ユーザーの削除

11.5. ダッシュボードでの Ceph Object Gateway バケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway バケットを表示し、管理できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • 少なくとも 1 つの Ceph Object Gateway ユーザーが作成されている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

11.5.1. ダッシュボードでの Ceph Object Gateway バケットを作成する

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph Object Gateway バケットを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックし、Create をクリックします。
  4. Create Bucket ウィンドウで、Name に値を入力し、中断されていないユーザーを選択します。配置ターゲットを選択します。

    図11.7 Ceph Object Gateway バケットの作成

    注記

    バケットの配置ターゲットが作成時に選択され、これは変更できません。

  5. オプション: バケットのオブジェクトの Locking を有効にします。ロックは、バケットの作成中にのみ有効にできます。ロックが有効になったら、Compliance または Governance のロックモードと、日または年単位 (両方の選択不可) のロック保持期間を選択します。
  6. オプション: Security を有効にして、バケット内のオブジェクトを暗号化します。バケットで暗号化を有効にするには、SSE-S3 の値を設定する必要があります。

    1. 設定するには、疑問符の上にカーソルを置き、Click here をクリックします。
    2. Update RGW Encryption Configurations ウィンドウで、Encryption Type として SSE-S3 を選択し、必要な詳細を指定して Submit をクリックします。

      図11.8 バケット内のオブジェクトの暗号化

      注記

      SSE-S3 暗号化タイプを使用する場合、Ceph は、ユーザーがボールトに保管する暗号鍵を管理します。

  7. Create bucket をクリックします。
  8. バケットが正常に作成されたことを示す通知が表示されます。

11.5.2. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph Object Gateway バケットを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを編集するには、その行をクリックします。
  5. Edit ドロップダウンで Edit を選択します。
  6. Edit bucket ウィンドウで、ドロップダウンからユーザーを選択して Owner を編集します。

    図11.9 Ceph Object Gateway バケットの編集

    1. オプション: 既存バケットのすべてのオブジェクトのバージョン管理状態を有効にするには、Versioning を有効にします。

      • バージョン管理を有効にするには、バケットの所有者である必要があります。
      • バケットの作成時に Locking が有効化されると、バージョン管理を無効にできません。
      • バケットに追加したすべてのオブジェクトは、一意のバージョン ID を受信します。
      • バージョン管理の状態がバケットに設定されていない場合、バケットにはバージョン管理の状態がありません。
    2. オプション: Multi-Factor AuthenticationDelete enabled にチェックを入れます。Multi-Factor Authentication (MFA) により、ユーザーは特定のバケットのオブジェクトの削除時にワンタイムパスワード (OTP) を使用しなければならないようにします。Token Serial Number および Token PIN の値を入力します。

      注記

      バケットは、S3 API を使用してバージョン管理および MFA を有効にして設定する必要があります。

  7. Edit Bucket をクリックします。
  8. バケットが正常に更新されたことを示す通知が表示されます。

11.5.3. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを削除するには、その行をクリックします。
  5. Edit ドロップダウンから Delete を選択します。
  6. Delete Bucket ダイアログボックスで Yes, I am sure ボックスをクリックして Delete bucket クリックし、設定を保存します。

    図11.10 Ceph オブジェクトゲートウェイバケットの削除

11.6. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定の監視

Red Hat Ceph Storage Dashboard は、マルチサイトオブジェクトゲートウェイ設定で、別のゾーンのユーザーとバケットの監視をサポートします。たとえば、ユーザーとバケットがプライマリーサイトのゾーンに作成された場合に、セカンダリーサイトのセカンダリーゾーンでユーザーとバケットを監視できます。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図11.11 マルチサイトオブジェクトゲートウェイの監視

11.7. Ceph ダッシュボードでのマルチサイトオブジェクト設定のバケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で別のゾーンのゾーンバケットを編集できます。ただし、プライマリーサイトで、セカンダリーサイトのバケットを削除できます。他のサイトで、プライマリーサイトのマスターゾーンのバケットは削除できません。たとえば、バケットがセカンダリーサイトのゾーンに作成されている場合に、プライマリーサイトのマスターゾーンでこれらのバケットを編集および削除できます。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

11.7.1. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のバケットの編集

マルチサイトのオブジェクトゲートウェイ設定の場合には、Red Hat Ceph Storage Dashboard の別のゾーンで、あるゾーンのバケットの詳細を編集および更新できます。ダッシュボードの機能で、バケットの所有者、バージョン管理、マルチファクター認証、ロック機能を編集できます。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図11.12 オブジェクトゲートウェイモニタリング

  4. 編集するバケットの行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit Bucket ウィンドウで、必要なパラメーターを編集し、Edit Bucket をクリックします。

    図11.13 マルチサイトのバケットの編集

検証

  • バケットが正常に更新されたことを示す通知が表示されます。

11.7.2. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のバケットの削除

マルチサイトのオブジェクトゲートウェイ設定の場合に、Red Hat Ceph Storage Dashboard でプライマリーサイトからセカンダリーサイトのバケットを削除できます。

重要: Red Hat は、セカンダリーサイトからプライマリーサイトのバケットを削除することを推奨していません。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. プライマリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. セカンダリーサイトのこれらのオブジェクトゲートウェイバケットは、ここで確認できます。
  4. 削除するバケットの行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Delete Bucket ダイアログボックスで、Yes, I am sure チェックボックスをオンにして、Delete Bucket をクリックします。

検証

  • 選択したバケットの行が正常に削除されます。

第12章 Ceph Dashboard を使用したファイルシステムの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でファイルシステムのアクセスを作成、編集、削除、および管理できます。

12.1. CephFS ボリュームの設定

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) ボリュームを設定できます。

12.1.1. CephFS ボリュームの作成

Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) ボリュームを作成できます。

前提条件

  • MDS がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. Create をクリックします。
  3. ボリュームの作成ウィンドウで、次のパラメーターを設定します。

    1. Name: ボリュームの名前を設定します。
    2. Placement (オプション): ボリュームの配置を選択します。ホストまたはラベルのいずれかとして設定できます。
    3. Hosts/Label (オプション): 前のオプションで配置としてホストを選択した場合は、リストから適切なホストを選択します。前のオプションで配置としてラベルを選択した場合は、ラベルを入力します。

      [重要]: 配置として使用中にホスト用に作成したラベルを識別するには、CLI から次のコマンドを実行します。

      [ceph: root@ceph-hk-ds-uoayxl-node1-installer /]# ceph orch host ls
      
      HOST ADDR LABELS STATUS
      
      host01 10.0.210.182 _admin,installer,mon,mgr
      host02 10.0.96.72 mon,mgr
      host03 10.0.99.37 mon,mds
      host04 10.0.99.244 osd,mds
      host05 10.0.98.118 osd,mds
      host06 10.0.98.66 osd,nfs,mds
      host07 10.0.98.23 nfs,mds
      7 hosts in cluster
      Copy to Clipboard Toggle word wrap
  4. Create Volume をクリックします。

    1. ボリュームが正常に作成されたことを示す通知が表示されます。

12.1.2. CephFS ボリュームの編集

Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) ボリュームを編集できます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから編集するボリュームを選択し、Edit をクリックします。
  3. Edit File System ウィンドウで、必要に応じてボリュームの名前を変更し、Edit File System をクリックします。

    ボリュームが正常に編集されたことを示す通知が表示されます。

12.1.3. CephFS ボリュームの削除

Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) ボリュームを削除できます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから削除するボリュームを選択し、アクションドロップダウンから Remove をクリックします。
  3. Remove File System ウィンドウで Yes, I am sure を選択し、Remove File System をクリックします。

    ボリュームが正常に削除されたことを示す通知。

12.2. CephFS サブボリュームグループの設定

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) サブボリュームグループを設定できます。

12.2.1. CephFS サブボリュームグループの作成

ダッシュボードでサブボリュームを作成するサブボリュームグループを作成できます。サブボリュームグループを使用して、サブボリュームのセットにポリシーを適用することもできます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから、サブボリュームを作成する行を選択し、行を展開します。
  3. Subvolume groups タブで 'Create' をクリックし、サブボリュームグループを作成します。
  4. Create Subvolume group ウィンドウで、次のパラメーターを入力します。

    1. Name: サブボリュームグループの名前を設定します。
    2. Volume name: 正しいボリューム名が選択されていることを確認します。
    3. Size: サブボリュームグループのサイズを設定します。空白のままにするか、0 を入力すると、デフォルトでサイズは無限に設定されます。
    4. Pool: サブボリュームグループのプールを設定します。デフォルトでは、親ディレクトリーの data_pool_layout が選択されます。
    5. uid: サブボリュームグループの UID を設定します。
    6. GID: サブボリュームグループの GID を設定します。
    7. Mode: ディレクトリーの権限を設定します。デフォルトでは、モードは 755 (rwxr-xr-x) です。
  5. Create Subvolume group をクリックします。

    サブボリュームグループが正常に作成されたことを示す通知。

12.2.2. CephFS サブボリュームグループの編集

ダッシュボードでサブボリュームグループを編集できます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから、サブボリュームを編集する行を選択し、行を展開します。
  3. Subvolume groups タブで、編集するグループが含まれる行を選択します。
  4. Edit をクリックしてサブボリュームグループを編集します。
  5. Edit Subvolume group ウィンドウで、必要なパラメーターを編集し、Edit Subvolume group をクリックします。

    サブボリュームグループが正常に編集されたことを示す通知が表示されます。

12.2.3. CephFS サブボリュームグループの削除

Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームグループを削除できます。

警告

サブボリュームグループを削除する前に、サブボリュームグループ内のサブボリュームを必ず削除してください。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから、サブボリュームを削除する行を選択し、行を展開します。
  3. Subvolume groups タブで、削除するサブボリュームグループを選択し、アクションドロップダウンから Remove をクリックします。
  4. Remove Subvolume group ウィンドウで 'Yes, I am sure' を選択し、Remove Subvolume group をクリックします。

    サブボリュームグループが正常に削除されたことを示す通知が表示されます。

12.3. CephFS サブボリュームの設定

ストレージ管理者は、Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームを設定できます。

12.3.1. CephFS サブボリュームの作成

Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームを作成できます。

警告

サブボリュームグループを削除する前に、サブボリュームグループ内のサブボリュームを必ず削除してください。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから行を選択します。
  3. Subvolume タブで、サブボリュームを作成する Subvolume グループを選択します。

    注記

    デフォルトオプションを選択した場合、サブボリュームはどのサブボリュームグループにも作成されません。

  4. Create をクリックしてサブボリュームを作成します。
  5. Create Subvolume ウィンドウで、以下のパラメーターを入力します。

    1. Name: サブボリュームグループの名前を設定します。
    2. Subvolume name: ボリュームの名前を設定します。
    3. Size: サブボリュームグループのサイズを設定します。空白のままにするか、0 を入力すると、デフォルトでサイズは無限に設定されます。
    4. pool: サブボリュームグループのプールを設定します。デフォルトでは、親ディレクトリーの data_pool_layout が選択されます。
    5. UID: サブボリュームの UID を設定します。
    6. GID: サブボリュームグループの GID を設定します。
    7. Mode: ディレクトリーの権限を設定します。デフォルトでは、モードは 755 (rwxr-xr-x) です。
    8. Isolated Namespace: 別の RADOS 名前空間にサブボリュームを作成する場合は、このオプションを選択します。
  6. Create Subvolume をクリックします。

    サブボリュームが正常に作成されたことを通知するメッセージが表示されます。

12.3.2. CephFS サブボリュームの編集

Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームを編集できます。

注記

ダッシュボードではサブボリュームのサイズのみを編集できます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
  • サブボリュームが作成されている。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから行を選択します。
  3. Subvolume タブで、編集するサブボリュームを選択し、ボリューム内で Edit をクリックします。
  4. Create をクリックしてサブボリュームを作成します。
  5. Edit Subvolume ウィンドウで、次のパラメーターを入力します。

    1. Name: サブボリュームグループの名前を設定します。
    2. Subvolume name: ボリュームの名前を設定します。
    3. Size: サブボリュームグループのサイズを設定します。空白のままにするか、0 を入力すると、デフォルトでサイズは無限に設定されます。
    4. Pool: サブボリュームグループのプールを設定します。デフォルトでは、親ディレクトリーの data_pool_layout が選択されます。
    5. uid: サブボリュームグループの UID を設定します。
    6. GID: サブボリュームグループの GID を設定します。
    7. Mode: ディレクトリーの権限を設定します。デフォルトでは、モードは 755 (rwxr-xr-x) です。
  6. Edit Subvolume をクリックします。

    サブボリュームが正常に作成されたことを通知するメッセージが表示されます。

12.3.3. CephFS サブボリュームの削除

Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) サブボリュームを削除できます。

前提条件

  • Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
  • サブボリュームが作成されている。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. リストされたボリュームから行を選択します。
  3. Subvolume タブに移動し、削除するサブボリュームを選択し、Remove をクリックします。
  4. Remove Subvolume ウィンドウで、選択したサブボリュームを削除するかどうかを確認し、Remove Subvolume をクリックします。

    サブボリュームが正常に削除されたことを示す通知が表示されます。

12.4. CephFS スナップショットの管理

ストレージ管理者は、Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) ボリュームとサブボリュームのスナップショットを作成できます。

Ceph ファイルシステム (CephFS) スナップショットは、Ceph ファイルシステムの不変の特定時点のビューを作成します。CephFS スナップショットは非同期で、CephFS ディレクトリーの特別な非表示ディレクトリー (.snap) に保存されます。Ceph File System 内の任意のディレクトリーのスナップショット作成を指定できます。ディレクトリーを指定すると、スナップショットにはその中のすべてのサブディレクトリーも含まれます。

CephFS スナップショット機能は、新しい Ceph ファイルシステムではデフォルトで有効になっていますが、既存の Ceph ファイルシステムでは手動で有効にする必要があります。

警告

各 Ceph Metadata Server (MDS) クラスターは snap 識別子を別個に割り当てます。1 つのプールを共有する複数の Ceph File Systems のスナップショットを使用すると、スナップショットの競合が発生し、ファイルデータがありません。

12.4.1. CephFS サブボリュームスナップショットの作成

ストレージ管理者は、Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームスナップショットを作成できます。Ceph File System (CephFS) のイミュータブル (ポイントインタイムビュー) を作成するには、スナップショットを作成します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 対応するサブボリュームが含まれるサブボリュームグループ

手順

  1. Dashboard にログインします。
  2. ダッシュボードのナビゲーションメニューで、File > File Systems をクリックします。
  3. サブスナップショットを作成する CephFS を選択します。

    利用可能なファイルシステムがない場合は、新しいファイルシステムを作成します。

  4. Snapshots タブに移動します。GroupsSubvolumes、および Create の 3 つの列があります。
  5. Groups および Subvolumes の列から、スナップショットの作成先となるグループおよびサブボリュームを選択します。
  6. 3 番目のコラムで Create をクリックします。Create snapshot フォームが開きます。

    1. Name: デフォルトの名前 (スナップショットの作成日時) がすでに追加されています。この名前は編集し、新しい名前を追加できます。
    2. Volume name: ボリューム名はファイルシステム名です。選択内容に従ってすでにフォームに追加されています。
    3. Subvolume group: サブボリュームグループ名は、選択内容に従ってすでに追加されています。または、ドロップダウンリストから別のサブボリュームグループを選択します。
    4. Subvolume: サブボリューム名は選択に応じてすでに追加されています。または、ドロップダウンリストから別のサブボリュームを選択することもできます。
  7. Create Snapshot をクリックします。

    スナップショットが正常に作成されたことを通知するメッセージが表示されます。

検証

  • Snapshots タブに移動し、スナップショットが作成されるサブボリュームおよびサブグループを選択します。

12.4.2. CephFS サブボリュームスナップショットの削除

ストレージ管理者は、Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームスナップショットを作成できます。Ceph File System (CephFS) のイミュータブル (ポイントインタイムビュー) を作成するには、スナップショットを作成します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 対応するサブボリュームが含まれるサブボリュームグループ

手順

  1. Dashboard にログインします。
  2. ダッシュボードのナビゲーションメニューで、File > File Systems をクリックします。
  3. サブボリュームのスナップショットを削除する CephFS を選択します。
  4. Snapshots タブに移動します。
  5. 削除するスナップショットを選択します。スナップショットが作成されたサブボリュームグループとサブボリュームを選択して、スナップショットをリスト表示できます。
  6. 'Yes, I am sure' チェックボックスをオンにして、スナップショットの削除を確定します。
  7. Delete Snapshot をクリックします。

    スナップショットが正常に削除されたことを示す通知が表示されます。

12.4.3. CephFS サブボリュームスナップショットのクローン作成

ストレージ管理者は、Red Hat Ceph Storage ダッシュボードで Ceph File System (CephFS) サブボリュームスナップショットを複製できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • サブボリュームのスナップショット。

手順

  1. Dashboard にログインします。
  2. ダッシュボードのナビゲーションメニューで、File > File Systems をクリックします。
  3. サブボリュームスナップショットをクローンする CephFS を選択します。
  4. Snapshots タブに移動します。
  5. クローンを作成するスナップショットを選択します。スナップショットが作成されたサブボリュームグループとサブボリュームを選択して、スナップショットをリスト表示できます。'Yes, I am sure' チェックボックスをオンにして、スナップショットの削除を確定します。
  6. Delete ボタンの横にある矢印をクリックします。
  7. Clone をクリックして、以下を設定します。

    1. Name: デフォルトの名前 (クローンの作成日時) がすでに追加されています。この名前は変更し、新しい名前を追加できます。
    2. Group name: サブボリュームグループ名は、選択内容に従ってすでに追加されています。または、ドロップダウンリストから別のサブボリュームグループを選択します。
  8. Create Clone をクリックします。

    クローンが正常に作成されたことを通知するメッセージが表示されます。

  9. Subvolume 列の Snapshots タブに移動して、クローンが作成されていることを確認できます。クローンを作成するサブグループを選択します。

12.4.4. CephFS ボリュームスナップショットの作成

ストレージ管理者は、IBM Storage Ceph Dashboard で Ceph ファイルシステム (CephFS) ボリュームスナップショットを作成できます。Ceph File System (CephFS) ボリュームのイミュータブル (ポイントインタイムビュー) を作成するには、スナップショットを作成します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 対応するサブボリュームが含まれるサブボリュームグループ

手順

  1. Dashboard にログインします。
  2. ダッシュボードのナビゲーションメニューで、File > File Systems をクリックします。
  3. サブボリュームスナップショットを作成する CephFS を選択します。

    利用可能なファイルシステムがない場合は、新しいファイルシステムを作成します。

  4. Directories タブに移動します。
  5. サブボリュームとボリュームのリストから、スナップショットを作成するボリュームを選択します。
  6. Snapshot 行の Create をクリックします。Create Snapshot フォームが開きます。

    1. Name: デフォルトの名前 (スナップショットの作成日時) がすでに追加されています。この名前は編集し、新しい名前を追加できます。
  7. Create Snapshot をクリックします。

    スナップショットが正常に作成されたことを通知するメッセージが表示されます。

  8. Directories タブの Snapshots 行からスナップショットが作成されたことを確認できます。

12.4.5. CephFS ボリュームスナップショットの削除

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) ボリュームのスナップショットを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ボリュームのスナップショット。

手順

  1. Dashboard にログインします。
  2. ダッシュボードのナビゲーションメニューで、File > File Systems をクリックします。
  3. サブボリュームのスナップショットを削除する CephFS を選択します。
  4. Directories タブに移動します。
  5. 削除するスナップショットを選択します。Snapshot 行でスナップショットのリストを確認できます。
  6. 'Delete' をクリックします。
  7. Yes, I am sure のボックスをチェックして、スナップショットの削除を確定します。
  8. Delete CephFS Snapshot をクリックします。

    スナップショットが正常に削除されたことを示す通知が表示されます。

12.5. CephFS スナップショットのスケジューリング

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) スナップショットをスケジュールできます。

Ceph File System (CephFS) スナップショットをスケジュールすると、定期的に一貫した信頼性の高いバックアップが確保され、データ損失のリスクが軽減されます。スナップショットをスケジュールすると、手動でバックアップを管理する際の管理オーバーヘッドが削減され、管理が容易になります。

特定のファイルシステム、サブボリューム、またはディレクトリーの使用可能なスナップショットのリストは、File > File Systems ページにあります。スケジュールされたバックアップを作成するには、スナップショットリストを使用します。

12.5.1. CephFS スナップショットスケジュールの作成

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph File System (CephFS) スナップショットスケジュールを作成できます。

ボリュームまたは特定のディレクトリーの Ceph File System (CephFS) スナップショットを自動的に作成するためのポリシーを作成します。スケジュールする頻度を定義することもできます (例: 毎時間、毎日、毎週など)

スナップショットの数やスナップショットを保持する期間を指定できます。スナップショットの数が超過するか、保存期間が過ぎると、古いスナップショットはすべて削除されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。

    ファイルシステムボリュームがリスト表示されます。スナップショットスケジュールを作成するファイルシステムを選択します。

  2. Snapshot schedules タブに移動します。

    注記

    Enable は、クラスターで snapshot_scheduler が無効になっている場合にのみ使用できます。オプション: snapshot_scheduler モジュールを有効にするには、Enable をクリックします。スケジューラーを有効にした後、ダッシュボードが再読み込みされるまで待ってから、スナップショットスケジュールページに戻ります。'Create' をクリックします。

    + Create Snapshot schedule フォームが開きます。

    1. ディレクトリー名、開始日、開始時間、およびスケジュールを入力します。

      1. Directory: ディレクトリーまたはサブボリュームのパスを入力して検索し、スナップショットスケジュールを作成するディレクトリーを推奨リストから選択できます。
      2. Start date: スケジューラーがスナップショットの作成を開始する日付を入力します。デフォルトでは、現在の日付が選択されます。
      3. Start time: スケジューラーがスナップショットの作成を開始する時間を入力します。デフォルトでは現在の時刻が追加されます。
      4. Schedule: スナップショットの数およびスナップショットを作成する頻度を入力します。頻度は、hourly、daily、weekly、monthly、yearly または lastest snapshots に指定できます。
  3. オプション: スケジュールに保持ポリシーを追加する場合は、Add retention policy をクリックします。複数の保持ポリシーを追加できます。スナップショットの数とスナップショットを保持する頻度を入力します。頻度は、hourly、daily、weekly、monthly、yearly または lastest snapshots に指定できます。
  4. Create snapshot schedule をクリックします。

    スナップショットスケジュールが正常に作成されたことを通知するメッセージが表示されます。

12.5.2. CephFS スナップショットスケジュールの編集

ストレージ管理者は、IBM Storage Ceph Dashboard で Ceph ファイルシステム (CephFS) スナップショットスケジュールを編集できます。スナップショットスケジュールの保持ポリシーのみを編集できます。別の保持ポリシーを追加したり、既存のポリシーを削除したりできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. スナップショットスケジュールを編集する CephFS を選択し、Snapshot schedules をクリックします。
  3. 編集するスナップショットスケジュールを選択します。
  4. 'Edit' をクリックします。Edit Snapshot schedule ダイアログボックスが表示されます。
  5. オプション: Edit Snapshot schedule ダイアログから、Add retention policy を選択して、スケジュール保持ポリシーを追加します。

    スナップショットの数とスナップショットを保持する頻度を入力します。頻度は次のいずれかになります。毎週または最新のスナップショット。たとえば、スナップショットの数を 10 と入力し、'latest snapshots' を選択すると、スナップショットが作成された頻度に関係なく、最新の 10 個のスナップショットが保持されます。(Daily ..Hourly ..Monthly ..Yearly)

  6. 'Edit snapshot schedule' をクリックして保存します。

    保持ポリシーが正常に作成されたことを示す通知が表示されます。

  7. 既存の保持ポリシーを削除するには、ゴミ箱アイコンをクリックします。

    保持ポリシーが正常に削除されたことを示す通知が表示されます。

12.5.3. CephFS スナップショットスケジュールの削除

ストレージ管理者は、IBM Storage Ceph Dashboard で Ceph ファイルシステム (CephFS) スナップショットスケジュールを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • スナップショットスケジュール。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. スナップショットスケジュールを編集する CephFS を選択します。
  3. 'Snapshot schedules' をクリックします。
  4. 削除するスナップショットスケジュールを選択します。
  5. ドロップダウンメニューから 'Edit' をクリックします。
  6. 'Delete' をクリックします。

    スナップショットスケジュールの削除ダイアログボックスが表示されます。

  7. Yes, I am sure を選択して、スケジュールの削除を確定します。
  8. 'Delete' snapshot schedule をクリックします。

    スナップショットスケジュールが正常に削除されたことを示す通知が表示されます。

12.5.4. CephFS スナップショットスケジュールの無効化と有効化

ストレージ管理者は、IBM Storage Ceph ダッシュボードで Ceph File System (CephFS) スナップショットスケジュールを非アクティブ化およびアクティブ化できます。スナップショットスケジュールはデフォルトで有効になっており、設定された内容に従って実行されます。非アクティブ化すると、再度アクティブ化されるまでスナップショットはスケジュールから除外されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • スナップショットスケジュール。

手順

  1. ダッシュボードのナビゲーションから、File > File Systems に移動します。
  2. スナップショットスケジュールを編集する CephFS を選択します。
  3. 'Snapshot schedules' をクリックします。
  4. 非アクティブ化するスナップショットスケジュールを選択し、アクションドロップダウンから 'Deactivate' をクリックします。
  5. Yes, I am sure を選択して、スケジュールの非アクティブ化を確定します。
  6. 'Deactivate snapshot schedule' をクリックします。

    スナップショットスケジュールが正常に非アクティブ化されたことを示す通知が表示されます。

  7. アクションドロップダウンで 'Activate' をクリックすると、スナップショットスケジュールをアクティブ化できます。

第13章 Ceph Dashboard を使用したブロックデバイスの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスイメージを管理し、監視することができます。機能は、一般的なイメージ機能とミラーリング機能に分けられます。たとえば、新規イメージの作成、クラスター間でミラーリングされたイメージの状態の表示、イメージでの IOPS 制限を設定できます。

13.1. Ceph Dashboard でのブロックデバイスイメージの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、イメージの作成、編集、コピー、パージ、および削除を実行できます。

また、Ceph Dashboard を使用して、イメージのスナップショット作成、複製、コピー、ロールバック、削除が可能です。

注記

ブロックデバイスのイメージテーブルは、ブロックデバイス情報の取得コストを削減するために、10000 以上のイメージストレージクラスターで使用できるようにページ分割されています。

13.1.1. Ceph Dashboard でのイメージの作成

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. Create をクリックします。
  5. Create RBD ウィンドウで、パラメーターを入力します。
  6. オプション: Advanced をクリックし、パラメーターを設定します。
  7. Create RBD をクリックします。
  8. ブロックデバイスイメージの作成

    図13.1 ブロックデバイスイメージの作成

  9. イメージが正常に作成されたことを示す通知が表示されます。

13.1.2. Ceph Dashboard での namespace の作成

Red Hat Ceph Storage Dashboard で、ブロックデバイスイメージの namespace を作成できます。

namespace が作成されると、それらの namespace のユーザーにアクセス権を割り当てることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. ネームスペースを作成するには、Namespaces タブで Create をクリックします。
  5. Create Namespace ウィンドウでプールを選択し、namespace の名前を入力します。
  6. Create をクリックします。

    図13.2 namespace の作成

  7. namespace が正常に作成されたという通知が表示されます。

13.1.3. Ceph Dashboard でのイメージの編集

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージを編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Edit を選択します。
  6. Edit RBD ウィンドウで、必要なパラメーターを編集し、Edit RBD をクリックします。

    図13.3 ブロックデバイスイメージの編集

  7. イメージが正常に更新されたことを示す通知が表示されます。

13.1.4. Ceph Dashboard でのイメージのコピー

Red Hat Ceph Storage Dashboard でブロックデバイスイメージをコピーすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージをコピーするには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Copy を選択します。
  6. Copy RBD ウィンドウで、必要なパラメーターを設定し、Copy RBD をクリックします。

    図13.4 ブロックデバイスイメージのコピー

  7. イメージが正常にコピーされたことを示す通知が表示されます。

13.1.5. Ceph Dashboard でのイメージのゴミ箱への移動

Red Hat Ceph Storage Dashboard で削除する前に、ブロックデバイスイメージをゴミ箱に移動できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. ドロップダウンメニューから Images を選択します。
  4. イメージをトレイに移動するには、その行をクリックします。
  5. Edit ドロップダウンの Move to Trash を選択します。
  6. Moving an image to trash ウィンドウで、イメージが保護する必要のある日付を編集し、Move Image をクリックします。

    図13.5 イメージのごみ箱への移動

  7. イメージがゴミ箱に移動されたことを示す通知が表示されます。

13.1.6. Ceph Dashboard でのゴミ箱のパージ

Red Hat Ceph Storage Dashboard を使用して、ゴミ箱をパージすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。
  3. Images を選択します。
  4. Trash タブで、Purge Trash をクリックします。
  5. Purge Trash ウィンドウでプールを選択し、Purge Trash をクリックします。

    図13.6 ゴミ箱のパージ

  6. ごみ箱にあるプールが正常にパージされたことを示す通知が表示されます。

13.1.7. Ceph Dashboard のゴミ箱からのイメージの復元

Red Hat Ceph Storage Dashboard では、ゴミ箱にあるイメージや期限切れのイメージを復元できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. ゴミ箱からイメージを復元するには、Trash タブでその行をクリックします。
  5. Restore ドロップダウンメニューで Restore を選択します。
  6. Restore Image ウィンドウで、イメージの名前を入力してから、Restore をクリックします。

    図13.7 ゴミ箱からのイメージの復元

  7. イメージが正常に復元されたことを示す通知が表示されます。

13.1.8. Ceph Dashboard でのイメージの削除

Ceph Dashboard でクラスターからイメージを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージを削除するには、その行を選択します。
  5. Edit ドロップダウンから Delete を選択します。
  6. Delete RBD ダイアログボックスで Yes, I am sure ボックスをクリックして Delete RBD をクリックして設定を保存します。

    図13.8 イメージの削除

  7. イメージが正常に削除されたことを示す通知が表示されます。

13.1.9. Ceph Dashboard での namespace の削除

Red Hat Ceph Storage Dashboard でイメージの namespace を削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • 名前空間がプール内に作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージの名前空間を作成するには、Namespaces タブで、その行をクリックします。
  5. Delete をクリックします。
  6. Delete Namespace ダイアログボックスで Yes, I am sure ボックスをクリックして Delete Namespace をクリックして設定を保存します。

    図13.9 namespace の削除

  7. namespace が正常に削除されたことを示す通知が表示されます。

13.1.10. Ceph Dashboard でのイメージのスナップショット作成

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Create ドロップダウンで Create を選択します。
  6. Delete ダイアログで、名前を入力し、Create RBD Snapshot をクリックします。

    図13.10 イメージのスナップショットの作成

  7. スナップショットが正常に作成されたことを示す通知が表示されます。

13.1.11. Ceph Dashboard でのイメージのスナップショット名変更

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの名前を変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を変更するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rename を選択します。
  6. Rename RBD Snapshot ダイアログで、名前を入力し、Rename RBD Snapshot をクリックします。

    図13.11 イメージのスナップショットの名前変更

13.1.12. Ceph Dashboard でのイメージのスナップショット保護

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを保護します。

これは、スナップショットのクローンを作成する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンで Protect を選択します。
  6. スナップショットの StateUNPROTECTED から PROTECTED に変わります。

13.1.13. Ceph Dashboard でのイメージのスナップショットのクローン作成

Red Hat Ceph Storage Dashboard でイメージのスナップショットのクローンを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Clone を選択します。
  6. Clone RBD ウィンドウで、パラメーターを編集し、Clone RBD をクリックします。

    図13.12 イメージのスナップショットのクローン作成

  7. スナップショットが正常にクローンされたことを示す通知が表示されます。Images タブでは、クローンされたイメージを検索できます。

13.1.14. Ceph Dashboard でのイメージのスナップショットのコピー

Red Hat Ceph Storage Dashboard でイメージのスナップショットをコピーできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで Copy を選択します。
  6. Copy RBD ウィンドウでパラメーターを入力し、Copy RBD ボタンをクリックします。

    図13.13 イメージのスナップショットのコピー

  7. スナップショットが正常にコピーされたことを示す通知が表示されます。コピーしたイメージは、Images タブで検索できます。

13.1.15. Ceph Dashboard でのイメージのスナップショットの保護解除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの保護を解除できます。

これは、スナップショットを削除する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショット名の保護を解除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで UnProtect を選択します。
  6. スナップショットの StatePROTECTED から UNPROTECTED に変わります。

13.1.16. Ceph Dashboard でのイメージのスナップショットのロールバック

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットをロールバックすることができます。イメージをスナップショットにロールバックすると、イメージの現行バージョンがスナップショットからのデータで上書きされます。ロールバックの実行にかかる時間は、イメージのサイズとともに増加します。イメージをスナップショットにロールバックするよりも、クローンする方が短時間ででき、既存の状態に戻す方法として推奨されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットをロールバックするには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rollback を選択します。
  6. RBD snapshot rollback ダイアログボックスで、Rollback をクリックします。

    図13.14 イメージのスナップショットのロールバック

13.1.17. Ceph Dashboard でのイメージのスナップショットの削除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Delete を選択します。

    図13.15 イメージのスナップショットの削除

  6. スナップショットが正常に削除されたことを示す通知が表示されます。

13.2. Ceph Dashboard でのミラーリング機能の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリング機能を管理し、監視することができます。

ストレージクラスター間でデータイメージをミラーリングして、別の階層を Ceph ブロックデバイスに追加して冗長化できます。Ceph ブロックデバイスのミラーリングを理解して使用すると、サイト障害など、データ損失から守ることができます。Ceph ブロックデバイスのミラーリングには、一方向ミラーリングまたは双方向ミラーリングの 2 つの設定があり、プールと個別のイメージにミラーリングを設定できます。

13.2.1. Ceph Dashboard のミラーリングビュー

Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリングを表示できます。

デーモン、サイトの詳細、プール、およびブロックデバイスミラーリング用に設定されたイメージを表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。

    図13.16 ブロックデバイスのミラーリングの表示

13.2.2. Ceph Dashboard でのプールの編集モード

Red Hat Ceph Storage Dashboard では、プールとイメージを含むミラーリング機能全体のモードを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、編集するピアをクリックします。
  5. Edit Mode ドロップダウンで、Edit Mode を選択します。
  6. Edit Pool mirror mode ウィンドウで、ドロップダウンからモードを選択し、Update をクリックします。プールは正常に更新されました。

    図13.17 ミラーリングのモード編集

13.2.3. Ceph Dashboard でのミラーリングのピアの追加

rbd-daemon ミラーにストレージクラスターピアを追加して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 2 つの Red Hat Ceph Storage クラスターが正常に稼働している。
  • ダッシュボードが両方のクラスターにインストールされている。
  • プールが同じ名前で作成されている。
  • 両方のクラスターで rbd アプリケーションが有効化されている。
注記

イメージが作成されるプールでミラーリングが有効になっていることを確認します。

手順

Site A

  1. ダッシュボードにログインします。
  2. Navigation メニューから Block ドロップダウンメニューをクリックし、Mirroring をクリックします。
  3. Create Bootstrap Token をクリックし、ウィンドウで以下を設定します。

    図13.18 ブートストラップトークンを作成する

    1. 指定されたサイト名に対して、ミラーリングするプールを選択します。
    2. 選択したプールに対して、Generate をクリックして新しいブートストラップトークンを生成します。
    3. Copy アイコンをクリックして、トークンをクリップボードにコピーします。
    4. Close をクリックします。
  4. プールミラーモードを有効にします。

    1. プールを選択します。
    2. Edit Mode をクリックします。
    3. Edit pool mirror mode ウィンドウで、ドロップダウンから Image を選択します。
    4. Update をクリックします。

Site B

  1. ダッシュボードにログインします。
  2. Navigation メニューから Block ドロップダウンメニューをクリックし、Mirroring をクリックします。
  3. Create Bootstrap token ドロップダウンから、Import Bootstrap Token を選択します。

    注記

    ブートストラップトークンをインポートする特定のプールに対してミラーリングモードが有効になっていることを確認します。

  4. Import Bootstrap Token ウィンドウで方向を選択し、サイト A から先ほどコピーしたトークンを貼り付けます。

    図13.19 ブートストラップトークンをインポートする

  5. 送信 をクリックします。

    ピアが追加され、イメージがサイト B のクラスターにミラーリングされます。

  6. プールの健全性が OK 状態であることを確認します。

    • Navigation メニューの Block で、Mirroring を選択します。プールの健全性は 良好 です。

Site A

  1. Mirroring を有効にしてイメージを作成します。

    1. Navigation メニューから、Block ドロップダウンメニューをクリックします。
    2. Images をクリックします。
    3. Create をクリックします。
    4. Create RBD ウィンドウで、NameSize を指定し、Mirroring を有効にします。

      注記

      Journal または Snapshot を選択できます。

    5. Create RBD をクリックします。

      図13.20 ミラーリングイメージの作成

  2. イメージが両方のサイトで利用できることを確認します。

    • Navigation メニューの Block で、Images を選択します。サイト A のイメージは primary であり、サイト B のイメージは secondary です。

13.2.4. Ceph Dashboard でのミラーリングのピアの編集

rbd-daemon ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、編集するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Edit peer を選択します。
  6. Edit pool mirror peer ウィンドウでパラメーターを編集し、Submit をクリックします。

    図13.21 ミラーリングのピアの編集

  7. ピアが正常に更新されたことを示す通知が表示されます。

13.2.5. Ceph Dashboard でのミラーリングのピアの削除

`rbd-daemon` ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Delete peer を 選択します。
  6. Delete mirror peer ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete mirror peer クリックし、設定を保存します。

    図13.22 ミラーリングのピアの削除

  7. ピアが正常に削除されたことを示す通知が表示されます。

第14章 テレメトリーのアクティブ化および非アクティブ化

テレメトリーモジュールをアクティブ化すると、Ceph 開発者は、Ceph がどのように使用され、ユーザーがどのような問題に遭遇し得るかを把握できます。これにより、ダッシュボードのエクスペリエンスを向上できます。テレメトリーモジュールをアクティブ化すると、クラスターに関する匿名データが Ceph 開発者に送信されます。

Ceph 開発者に送信されたテレメトリーデータは、パブリックテレメトリーダッシュボード に表示されます。これにより、レポートしているクラスターの数、当該クラスターの総容量と OSD 数、およびバージョン分布の傾向に関する統計情報の概要を、コミュニティーが簡単に確認できるようになります。

テレメトリーレポートはいくつかのチャネルに分類され、それぞれに異なる種類の情報が含まれます。テレメトリーが有効になっている場合、個々のチャネルをオンまたはオフにすることができます。テレメトリーがオフの場合、チャネルごとの設定は無効です。

基本
クラスターに関する基本情報を提供します。
Crash
デーモンのクラッシュに関する情報を提供します。
Device
デバイスのメトリクスに関する情報を提供します。
Ident
クラスターに関するユーザー提供の識別情報を提供します。
Perf
クラスターのさまざまなパフォーマンスメトリクスを提供します。

データレポートには、開発者が Ceph の使用方法をより深く理解するのに役立つ情報が含まれています。データには、クラスターのデプロイ方法、Ceph のバージョン、ホストの分布、その他のパラメーターに関するカウンターと統計情報が含まれます。

重要

データレポートには、プール名、オブジェクト名、オブジェクトの内容、ホスト名、デバイスのシリアル番号などの機密データは含まれません。

注記

テレメトリーは API を使用して管理することもできます。詳細は、Red Hat Ceph Storage 開発者ガイドTelemetry の章を参照してください。

手順

  1. 次のいずれかの方法でテレメトリーモジュールをアクティブ化します。

    • Ceph Dashboard 内のバナーから移動します。

    • Settings→Telemetry configuration に移動します。
  2. テレメトリーを有効にする必要がある各チャネルを選択します。

    注記

    各チャネルタイプの詳細は、チャネルの横にある More Info をクリックします。

  3. クラスターの Contact Information を入力します。連絡先、Ceph クラスターの説明、および組織を入力します。
  4. オプション: Advanced Settings フィールドのオプションを入力します。

    Interval
    間隔を時間単位で設定します。モジュールは、この時間間隔ごとに新しいレポートをコンパイルして送信します。デフォルトの間隔は 24 時間です。
    Proxy

    設定されたテレメトリーエンドポイントにクラスターが直接接続できない場合は、このオプションを使用して HTTP または HTTPS プロキシーサーバーを設定します。次のいずれかの形式でサーバーを追加します。

    https://10.0.0.1:8080 または https://ceph:telemetry@10.0.01:8080

    デフォルトのエンドポイントは telemetry.ceph.com です。

  5. Next をクリックします。これにより、テレメトリーを有効にする前に Telemetry report preview が表示されます。
  6. Report preview を確認します。

    注記

    レポートはダウンロードしてローカルに保存することも、クリップボードにコピーすることもできます。

  7. I agree to my telemetry data being submitted under the Community Data License Agreement を選択します。
  8. Update をクリックしてテレメトリーモジュールを有効にします。

    テレメトリーのアクティブ化を確認する次のメッセージが表示されます。

    The Telemetry module has been configured and activated successfully
    Copy to Clipboard Toggle word wrap

14.1. テレメトリーの非アクティブ化

テレメトリーモジュールを非アクティブ化するには、Settings→Telemetry configuration に移動し、Deactivate をクリックします。

法律上の通知

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat