3.3. Ceph ファイルシステム


外部モードで設定された ODF の CephFS サブボリュームで新しい機能を使用できる

ODF の CephFS が外部モードで設定されている場合、ユーザーはボリューム/サブボリュームメタデータを使用して、ボリューム/サブボリュームの PVC/PV/namespace などをはじめとする Openshift 固有のメタデータ情報を保存することを好みます。

このリリースでは、CephFS サブボリュームからカスタムメタデータを設定、取得、更新、リスト表示、および削除する次の機能が追加されました。

以下を使用して、サブボリュームにカスタムメタデータをキーと値のペアとして設定します。

構文

ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group-name SUBVOLUME_GROUP_NAME]

メタデータキーを使用して、サブボリュームに設定されたカスタムメタデータを取得します。

構文

ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ]

サブボリュームに設定されたカスタムメタデータ、キーと値のペアをリスト表示します。

構文

ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group-name SUBVOLUME_GROUP_NAME ]

メタデータキーを使用して、サブボリュームに設定されたカスタムメタデータを削除します。

構文

ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ] [--force]

clone status コマンドを使用すると、クローンが失敗する理由が表示される

これまでは、クローンが失敗した場合に障害の理由を確認するには、ログを検索するしかありませんでした。

このリリースでは、クローンの失敗理由が clone status コマンドの出力に表示されます。

[ceph: root@host01 /]#  ceph fs clone status cephfs clone1
{
  "status": {
    "state": "failed",
    "source": {
      "volume": "cephfs",
      "subvolume": "subvol1",
      "snapshot": "snap1"
      "size": "104857600"
    },
    "failure": {
      "errno": "122",
      "errstr": "Disk quota exceeded"
    }
  }
}

クローンの失敗の理由は、以下の 2 つのフィールドに表示されます。

  • errno : エラー番号
  • error_msg : 失敗したエラー文字列
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.