検索

3.11. fuse-overlayfs の設定

download PDF

デフォルトでは、Universal Developer Image (UDI) には、ワークスペース内でコンテナーイメージをビルドおよびプッシュするために使用できる Podman と Buildah が含まれています。ただし、UDI の Podman と Buildah は、コピーオンライトのサポートを提供しない vfs ストレージドライバーを使用するように設定されています。より効率的なイメージ管理を行うには、ルートレス環境でコピーオンライトをサポートする fuse-overlayfs ストレージドライバーを使用します。

3.11.1. OpenShift の /dev/fuse へのコンテナーアクセスを有効にする

fuse-overlayfs を使用するには、まず /dev/fuse をワークスペースコンテナーからアクセスできるようにする必要があります。

注記

OpenShift バージョン 4.15 以降では、/dev/fuse デバイスがデフォルトで使用できるため、この手順は必要ありません。リリースノート を参照してください。

警告

OpenShift クラスター上で MachineConfig リソースを作成することは、クラスターに高度なシステムレベルの変更を加えることになるため、潜在的に危険なタスクです。

詳細および考えられるリスクは、MachineConfig のドキュメント を参照してください。

前提条件

  • 使用しているオペレーティングシステムに Butane ツール (butane) がインストールされている。
  • 宛先 OpenShift クラスターへの管理権限を持つアクティブな oc セッション。CLI の使用方法 を参照してください。

手順

  1. OpenShift クラスターのタイプ (シングルノードクラスター、または個別のコントロールプレーンとワーカーノードを持つマルチノードクラスター) に基づいて環境変数を設定します。

    • シングルノードクラスターの場合は、次のように設定します。

      $ NODE_ROLE=master
    • マルチノードクラスターの場合は、次のように設定します。

      $ NODE_ROLE=worker
  2. OpenShift Butane 設定バージョンの環境変数を設定します。この変数は、OpenShift クラスターのメジャーバージョンとマイナーバージョンです。たとえば、4.12.04.13.0、または 4.14.0 です。

    $ VERSION=4.12.0
  3. NODE_ROLE ノードに 99-podman-fuse という名前のドロップイン CRI-O 設定ファイルを作成する MachineConfig リソースを作成します。この設定ファイルにより、特定の Pod が /dev/fuse デバイスにアクセスできるようになります。

    cat << EOF | butane | oc apply -f -
    variant: openshift
    version: ${VERSION}
    metadata:
      labels:
        machineconfiguration.openshift.io/role: ${NODE_ROLE}
      name: 99-podman-dev-fuse-${NODE_ROLE}
    storage:
      files:
      - path: /etc/crio/crio.conf.d/99-podman-fuse 1
        mode: 0644
        overwrite: true
        contents: 2
          inline: |
            [crio.runtime.workloads.podman-fuse] 3
            activation_annotation = "io.openshift.podman-fuse" 4
            allowed_annotations = [
              "io.kubernetes.cri-o.Devices" 5
            ]
            [crio.runtime]
            allowed_devices = ["/dev/fuse"] 6
    EOF
    1
    CRI-O の新しいドロップイン設定ファイルへの絶対ファイルパス。
    2
    新しいドロップイン設定ファイルの内容。
    3
    podman-fuse ワークロードを定義します。
    4
    podman-fuse ワークロード設定をアクティブにする Pod アノテーション。
    5
    podman-fuse ワークロードが処理できるアノテーションのリスト。
    6
    ユーザーが io.kubernetes.cri-o.Devices アノテーションを使用して指定できるホスト上のデバイスのリスト。
  4. MachineConfig リソースを適用した後、変更が適用されると、worker ロールを持つ各ノードのスケジュール設定が一時的に無効になります。ノードのステータスを表示します。

    $ oc get nodes

    出力例:

    NAME                           STATUS                     ROLES    AGE   VERSION
    ip-10-0-136-161.ec2.internal   Ready                      worker   28m   v1.27.9
    ip-10-0-136-243.ec2.internal   Ready                      master   34m   v1.27.9
    ip-10-0-141-105.ec2.internal   Ready,SchedulingDisabled   worker   28m   v1.27.9
    ip-10-0-142-249.ec2.internal   Ready                      master   34m   v1.27.9
    ip-10-0-153-11.ec2.internal    Ready                      worker   28m   v1.27.9
    ip-10-0-153-150.ec2.internal   Ready                      master   34m   v1.27.9
  5. worker ロールを持つすべてのノードのステータスが Ready になると、次のアノテーションを持つすべての Pod で /dev/fuse が利用できるようになります。

    io.openshift.podman-fuse: ''
    io.kubernetes.cri-o.Devices: /dev/fuse

検証手順

  1. worker ロールを持つノードの名前を取得します。

    $ oc get nodes
  2. ワーカーノードへの oc debug セッションを開きます。

    $ oc debug node/<nodename>
  3. 99-podman-fuse という名前の新しい CRI-O 設定ファイルが存在することを確認します。

    sh-4.4# stat /host/etc/crio/crio.conf.d/99-podman-fuse

3.11.2. ワークスペース内で Podman と Buildah への fuse-overlayfs の使用

ユーザーは、https://access.redhat.com/documentation/ja-jp/red_hat_openshift_dev_spaces/3.13/html-single/user_guide/index#end-user-guide:using-the-fuse-overlay-storage-driver に従って、既存のワークスペースを更新し、Podman および Buildah 用の fuse-overlayfs ストレージドライバーを使用できます。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.