1.3. 新機能および拡張機能


今回のリリースでは、以下のコンポーネントおよび概念に関連する拡張機能が追加されました。

1.3.1. Documentation

1.3.1.1. OpenShift Container Platform のスタートガイド

OpenShift Container Platform 4.10 にはスタートガイドが追加されました。OpenShift Container Platform を使い始めることで、基本的な用語を定義し、開発者および管理者向けのロールベースの次のステップを提供します。

チュートリアルは、Web コンソールおよび OpenShift CLI (oc) インターフェイスを使用して新規ユーザーについて説明します。新規ユーザーは、スタートガイドを使用して以下のタスクを実行できます。

  • プロジェクトを作成します。
  • view パーミッションの付与
  • Quay からのコンテナーイメージのデプロイ
  • アプリケーションの検査およびスケーリング
  • GitHub から Python アプリケーションのデプロイ
  • Quay からデータベースへの接続
  • シークレットの作成
  • アプリケーションのロードと表示

詳細は、Getting Started with OpenShift Container Platformを参照してください。

1.3.2. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.2.1. ベアメタル RHCOS インストールのカスタマイズの強化

coreos-installer ユーティリティーには、ライブ ISO イメージおよび PXE イメージから RHCOS をベアメタルにインストールする際に、より柔軟なカスタマイズを可能にする iso customize および pxe customize サブコマンドが含まれるようになりました。

これには、カスタムの認証局または自己署名証明書を使用する HTTPS サーバーから Ignition 設定をフェッチするようにインストールをカスタマイズする機能が含まれます。

1.3.2.2. RHCOS が RHEL 8.4 を使用するように

RHCOS は、OpenShift Container Platform 4.10 で Red Hat Enterprise Linux (RHEL) 8.4 パッケージを使用するようになりました。これらのパッケージは、NetworkManager の機能など、最新の修正、機能、拡張、および最新のハードウェアサポートとドライバーの更新を提供します。

1.3.3. インストールおよびアップグレード

1.3.3.1. AWS インストールの新規デフォルトコンポーネントタイプ

OpenShift Container Platform 4.10 インストーラーは、AWS へのインストールに新規のデフォルトコンポーネントタイプを使用します。インストールプログラムはデフォルトで以下のコンポーネントを使用します。

  • コントロールプレーンとコンピュートノードの両方用の AWS EC2 M6i インスタンス (利用可能な場合)
  • AWS EBS gp3 ストレージ

1.3.3.2. install-config.yaml ファイルの API の機能強化

以前は、ユーザーがベアメタルインストーラーでプロビジョニングされたインフラストラクチャーに OpenShift Container Platform をインストールした場合、Ironic サーバーと通信するための静的 IP や vLAN などのカスタムネットワークインターフェイスを設定する場所がありませんでした。

ベアメタルのみで Day1 インストールを設定する場合、ユーザーは install-config.yaml ファイルの API を使用して、ネットワーク設定 (networkConfig) をカスタマイズできるようになりました。この設定は、インストールおよびプロビジョニングプロセス中に設定され、ホストごとの静的 IP の設定などの高度なオプションが含まれます。

1.3.3.3. ARM 上の OpenShift Container Platform

OpenShift Container Platform 4.10 は ARM ベースの AWS EC2 およびベアメタルプラットフォームでサポートされるようになりました。インスタンスの可用性およびインストールのドキュメントは、さまざまなプラットフォームのサポートされるインストール方法 を参照してください。

以下の機能は ARM の OpenShift Container Platform でサポートされます。

  • OpenShift Cluster Monitoring
  • RHEL 8 Application Streams
  • OVNKube
  • Elastic Block Store (EBS) for AWS
  • AWS .NET アプリケーション
  • ベアメタル上の NFS ストレージ

以下の Operator は ARM の OpenShift Container Platform でサポートされます。

  • Node Tuning Operator
  • Node Feature Discovery Operator
  • Cluster Samples Operator
  • Cluster Logging Operator
  • Elasticsearch Operator
  • Service Binding Operator

1.3.3.4. インストーラーでプロビジョニングされるインフラストラクチャーを使用した IBM Cloud へのクラスターのインストール (テクノロジープレビュー)

OpenShift Container Platform 4.10 では、テクノロジープレビューのインストーラーでプロビジョニングされるインフラストラクチャーを使用して IBM Cloud にクラスターをインストールするためのサポートが導入されました。

以下の制限は、IPI を使用する IBMCloud に適用されます。

  • 既存のネットワークに IPI を使用して IBMCloud をデプロイすることはサポートされていません。
  • Cloud Credential Operator (CCO) は、手動モードのみを使用できます。Mint モードまたは STS はサポートされていません。
  • IBM Cloud DNS Services はサポートされていません。IBM Cloud Internet Services のインスタンスが必要です。
  • プライベートデプロイまたは切断されたデプロイはサポートされていません。

詳細は、IBMCloud へのインストールの準備を参照してください。

1.3.3.5. VMware vSphere クラスターのインストールにおけるシンプロビジョニングのサポート

OpenShift Container Platform 4.10 では、インストーラーでプロビジョニングされるインフラストラクチャーを使用してクラスターをインストールする場合は、シンプロビジョニングされたディスクのサポートが導入されました。ディスクは、thinthick、または eagerZeroedThick としてプロビジョニングできます。VMware vSphere のディスクプロビジョニングモードについての詳細は、Installation configuration parameters を参照してください。

1.3.3.6. クラスターの Amazon Web Services GovCloud リージョンへのインストール

Red Hat Enterprise Linux CoreOS (RHCOS) Amazon Machine Images (AMI) が AWS GovCloud リージョンで利用可能になりました。これらの AMI の可用性は、クラスターをデプロイするためにカスタム RHCOS AMI をアップロードする必要がなくなるため、インストールプロセスが改善されます。

詳細は、AWS のクラスターの government リージョンへのインストール について参照してください。

1.3.3.7. インスタンスプロファイルのカスタム AWS IAM ロールの使用

OpenShift Container Platform 4.10 以降、クラスターを既存の IAM ロールで設定する場合、インストールプログラムはクラスターのデプロイ時に shared タグをロールに追加しなくなりました。今回の機能拡張により、カスタム IAM ロールを使用する組織のインストールプロセスが改善されましたが、セキュリティーポリシーにより shared タグが使用されなくなりました。

1.3.3.8. vSphere クラスターへの CSI ドライバーのインストール

vSphere で実行しているクラスターに CSI ドライバーをインストールするには、以下のコンポーネントがインストールされている必要があります。

  • 仮想ハードウェアバージョン 15 以降
  • vSphere バージョン 6.7 Update 3 以降
  • VMware ESXi バージョン 6.7 Update 3 以降

上記よりも前のバージョンのコンポーネントは引き続きサポートされますが、非推奨です。これらのバージョンは引き続き完全にサポートされていますが、OpenShift Container Platform のバージョン 4.11 には、vSphere 仮想ハードウェアバージョン 15 以降が必要です。

注記

クラスターが vSphere にデプロイされている場合、前述のコンポーネントが上記のバージョンよりも低い場合は、vSphere での OpenShift Container Platform 4.9 から 4.10 へのアップグレードはサポートされますが、vSphere CSI ドライバーはインストールされません。4.10 へのバグ修正およびその他のアップグレードは引き続きサポートされますが、4.11 へのアップグレードは利用できなくなります。

1.3.3.9. インストーラーでプロビジョニングされるインフラストラクチャーを使用した Alibaba Cloud へのクラスターのインストール (テクノロジープレビュー)

OpenShift Container Platform 4.10 では、テクノロジープレビューとしてインストーラーでプロビジョニングされるインフラストラクチャーを使用して Alibaba Cloud にクラスターをインストールする機能が導入されました。このタイプのインストールでは、インストールプログラムを使用して、インストールプログラムがプロビジョニングし、クラスターが管理するインフラストラクチャーにクラスターをデプロイできます。

1.3.3.10. インストーラーでプロビジョニングされるインフラストラクチャーを使用した Microsoft Azure Stack Hub へのクラスターのインストール

OpenShift Container Platform 4.10 では、インストーラーでプロビジョニングされるインフラストラクチャーを使用した Azure Stack Hub へのクラスターのインストールのサポートが導入されました。このタイプのインストールでは、インストールプログラムを使用して、インストールプログラムがプロビジョニングし、クラスターが管理するインフラストラクチャーにクラスターをデプロイできます。

注記

OpenShift Container Platform 4.10.14 以降、premium_LRSstandardSSD_LRS、または standard_LRS ディスクタイプを使用して、コントロールプレーンおよびコンピュートノードをデプロイできます。デフォルトでは、インストールプログラムは premium_LRS ディスクタイプでコントロールプレーンとコンピュートノードをデプロイします。以前の 4.10 リリースでは、standard_LRS ディスクタイプのみがサポートされていました。

詳細は、インストーラーでプロビジョニングされるインフラストラクチャーを使用した Azure Stack Hub へのクラスターのインストール について参照してください。

1.3.3.11. 条件の更新

OpenShift Container Platform 4.10 は、OpenShift Update Service によって提供される条件付き更新パスの使用をサポートするようになりました。条件更新パスは、識別されたリスクと、これらのリスクがクラスターに適用される条件を伝えます。Web コンソールの Administrator パースペクティブは、クラスターが既知のリスクと一致しない推奨されるアップグレードパスのみを提供します。ただし、OpenShift CLI (oc) 4.10 以降を使用して、OpenShift Container Platform 4.10 クラスターの追加のアップグレードパスを表示できます。ドキュメントの参照など、関連するリスク情報がパスに表示されます。管理者は参照資料を確認し、サポートの実行を選択できますが、推奨されなくなったアップグレードは推奨されません。

詳細は、Conditional updates および Updating along a conditional upgrade path を参照してください。

1.3.3.12. oc-mirror CLI プラグインを使用したミラーリングの切断 (テクノロジープレビュー)

本リリースでは、oc-mirror OpenShift CLI (oc) プラグインがテクノロジープレビューとして導入されています。oc-mirror プラグインを使用して、非接続環境のイメージをミラーリングできます。

詳細は、Mirroring images for a disconnected installation using the oc-mirror plug-in を参照してください。

1.3.3.13. OVS-DPDK を使用する RHOSP へのクラスターのインストール

これで、Data Plane Development Kit (OVS-DPDK) ネットワークを使用して Open vSwitch でコンピュートマシンを実行する Red Hat OpenStack Platform (RHOSP) にクラスターをインストールできます。これらのマシンで実行されるワークロードは、OVS-DPDK のパフォーマンスとレイテンシーの改善から利点を得ることができます。

詳細は、Installing a cluster on RHOSP that supports DPDK-connected compute machines を参照してください。

1.3.3.14. RHOSP へのインストール中にコンピューティングマシンのアフィニティーを設定する

RHOSP にクラスターをインストールするときに、コンピューティングマシンアフィニティーを選択できるようになりました。デフォルトでは、コンピュートマシンは soft-anti-affinity サーバーポリシーでデプロイされますが、anti-affinity または soft-affinity ポリシーを選択することも可能です。

1.3.4. Web コンソール

1.3.4.1. Developer パースペクティブ

  • この更新により、バインディング接続を確立するときに、Topology ビューでサービスバインディングコネクターの名前を指定できます。
  • この更新により、パイプラインワークフローの作成が強化されました。

    • Import from Git パイプラインワークフローからアプリケーションをインポートするときに、ドロップダウンリストからユーザー定義のパイプラインを選択できるようになりました。
    • Import from Gitワークフローを使用して作成されたパイプラインにデフォルトの Webhook が追加され、トポロジービューで選択したリソースのサイドパネルに URL が表示されます。
    • Tekton Config カスタムリソースでパラメーター enable-devconsole-integrationfalse に設定することにより、デフォルトの Tekton Hub 統合をオプトアウトできるようになりました。

      Tekton Hub 統合をオプトアウトする Tekton Config CR の例

      ...
      hub:
        params:
          - name: enable-devconsole-integration
            value: 'false'
      ...

    • パイプラインビルダーには、クラスターでサポートされている Tekton Hub タスクが含まれており、サポートされていない他のすべてのタスクはリストから除外されます。
  • この更新により、アプリケーションのエクスポートワークフローで、エクスポートの進行中にログのエクスポートダイアログまたはアラートが表示されるようになりました。ダイアログを使用して、エクスポートプロセスをキャンセルまたは再開できます。
  • この更新により、カスタムリソースを作成することにより、新しい Helm Chart リポジトリーを開発者カタログに追加できます。新しいProject Helm Chart Repositoryを追加するには、開発者パースペクティブのクイックスタートガイドを参照してください。
  • この更新により、Developer Catalog を使用して community devfiles samples にアクセスできるようになりました。

1.3.4.2. 動的プラグイン (テクノロジープレビュー)

OpenShift Container Platform 4.10 以降、OpenShift コンソールの動的プラグインを作成する機能がテクノロジープレビュー機能として利用可能になりました。この機能を使用して、以下のような複数の方法でランタイム時にインターフェイスをカスタマイズできます。

  • カスタムページの追加
  • パースペクティブの追加およびナビゲーションアイテムの更新
  • タブおよびアクションのリソースページへの追加

動的プラグインの詳細は、動的プラグインの OpenShift Container Platform Web コンソールへの追加を参照してください。

1.3.4.3. デバッグモードでの Pod の実行

今回の更新により、Web コンソールでデバッグターミナルを表示できるようになりました。Pod に CrashLoopBackOff 状態にあるコンテナーがある場合、デバッグ Pod を起動できます。端末インターフェイスが表示され、クラッシュループコンテナーのデバッグに使用できます。

  • この機能は、Pod のステータスのポップアップウィンドウからアクセスでき、Pod のステータスをクリックし、Pod 内のクラッシュループするコンテナーごとにデバッグターミナルへのリンクを提供します。
  • また、Pod の詳細ページの Logs タブでこの機能にアクセスすることもできます。クラッシュループコンテナーを選択すると、デバッグターミナルのリンクがログウィンドウの上に表示されます。

さらに、Pod ステータスのポップアップウィンドウに、Pod 詳細ページの Logs タブおよび Events タブへのリンクが表示されるようになりました。

1.3.4.4. カスタマイズされたワークロード通知

今回の更新により、ユーザー設定 ページでワークロード通知をカスタマイズできるようになりました。通知 タブのユーザーワークロード通知 を使用すると、Cluster Overview ページまたはドロワーに表示されるユーザーワークロード通知を非表示にすることができます。

1.3.4.5. クォータの可視性の向上

今回の更新により、管理者以外のユーザーが Project OverviewResourceQuotas、および API Explorer ページの AppliedClusterResourceQuota の使用を表示し、利用可能なクラスタースコープのクォータを判別できるようになりました。さらに、AppliedClusterResourceQuota の詳細は Search ページで確認できます。

1.3.4.6. クラスターのサポートレベル

OpenShift Container Platform では、Overview Details カードの Cluster Settings で、クラスターについてのサポートレベル情報を About モーダルで表示でき、クラスターがサポートされていない場合に通知を通知ドロワーに追加できるようになりました。概要 ページから、サービスレベルアグリーメント (SLA) でサブスクリプション設定を管理できます。

1.3.5. IBM Z および LinuxONE

本リリースでは、IBM Z および LinuxONE は OpenShift Container Platform 4.10 と互換性があります。インストールは z/VM または RHEL KVM で実行できます。インストール手順については、以下のドキュメントを参照してください。

主な機能拡張

以下の新機能は、OpenShift Container Platform 4.10 の IBM Z および LinuxONE でサポートされます。

  • Horizontal Pod Autoscaling
  • 以下の Multus CNI プラグインがサポートされます。

    • ブリッジ
    • host-device
    • IPAM
    • IPVLAN
  • コンプライアンス Operator 0.1.49
  • NMState Operator
  • OVN-Kubernetes IPsec 暗号化
  • Vertical Pod Autoscaler Operator
サポートされる機能

以下の機能が IBM Z および LinuxONE でもサポートされるようになりました。

  • 現時点で、以下の Operator がサポートされています。

    • Cluster Logging Operator
    • コンプライアンス Operator 0.1.49
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • etcd に保存されるデータの暗号化
  • Helm
  • マルチパス化
  • iSCSI を使用した永続ストレージ
  • ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
  • hostPath を使用した永続ストレージ
  • ファイバーチャネルを使用した永続ストレージ
  • Raw Block を使用した永続ストレージ
  • OVN-Kubernetes
  • 複数ネットワークインターフェイスのサポート
  • 3 ノードクラスターのサポート
  • SCSI ディスク上の z/VM Emulated FBA デバイス
  • 4k FCP ブロックデバイス

これらの機能は、4.10 について IBM Z および LinuxONE の OpenShift Container Platform にのみ利用できます。

  • IBM Z および LinuxONE で有効にされている HyperPAV (FICON 接続の ECKD ストレージの仮想マシン用)。
制約

以下の制限は、IBM Z および LinuxONE の OpenShift Container Platform に影響します。

  • 以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。

    • Precision Time Protocol (PTP) ハードウェア
  • 以下の OpenShift Container Platform 機能はサポートされていません。

    • マシンヘルスチェックによる障害のあるマシンの自動修復
    • CodeReady Containers (CRC)
    • オーバーコミットの制御およびノード上のコンテナーの密度の管理
    • CSI ボリュームのクローン作成
    • CSI ボリュームスナップショット
    • FIPS 暗号
    • NVMe
    • OpenShift Metering
    • OpenShift Virtualization
    • OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
  • ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
  • 永続的な共有ストレージは、OpenShift Data Foundation またはその他のサポートされているストレージプロトコルを使用して、プロビジョニングする必要があります
  • 共有されていない永続ストレージは、iSCSI、FC、DASD、FCP または EDEV/FBA と共に LSO を使用するなど、ローカルストレージを使用してプロビジョニングする必要があります。

1.3.6. IBM Power

本リリースでは、IBM Power は OpenShift Container Platform 4.10 と互換性があります。インストール手順については、以下のドキュメントを参照してください。

主な機能拡張

以下の新機能は、OpenShift Container Platform 4.10 の IBM Power でサポートされます。

  • Horizontal Pod Autoscaling
  • 以下の Multus CNI プラグインがサポートされます。

    • ブリッジ
    • host-device
    • IPAM
    • IPVLAN
  • コンプライアンス Operator 0.1.49
  • NMState Operator
  • OVN-Kubernetes IPsec 暗号化
  • Vertical Pod Autoscaler Operator
サポートされる機能

以下の機能は、IBM Power でもサポートされています。

  • 現時点で、以下の Operator がサポートされています。

    • Cluster Logging Operator
    • コンプライアンス Operator 0.1.49
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • SR-IOV Network Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • etcd に保存されるデータの暗号化
  • Helm
  • マルチパス化
  • Multus SR-IOV
  • NVMe
  • OVN-Kubernetes
  • iSCSI を使用した永続ストレージ
  • ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
  • hostPath を使用した永続ストレージ
  • ファイバーチャネルを使用した永続ストレージ
  • Raw Block を使用した永続ストレージ
  • 複数ネットワークインターフェイスのサポート
  • Power10 のサポート
  • 3 ノードクラスターのサポート
  • 4K ディスクのサポート
制約

以下の制限は、OpenShift Container Platform が IBM Power に影響を与えます。

  • 以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。

    • Precision Time Protocol (PTP) ハードウェア
  • 以下の OpenShift Container Platform 機能はサポートされていません。

    • マシンヘルスチェックによる障害のあるマシンの自動修復
    • CodeReady Containers (CRC)
    • オーバーコミットの制御およびノード上のコンテナーの密度の管理
    • FIPS 暗号
    • OpenShift Metering
    • OpenShift Virtualization
    • OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
  • ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
  • 永続ストレージは、ローカルボリュームを使用するファイルシステムタイプ、OpenShift Data Foundation、ネットワークファイルシステム (NFS)、またはコンテナーストレージインターフェイス (CSI) である必要があります。

1.3.7. セキュリティーおよびコンプライアンス

セキュリティーおよびコンプライアンスコンポーネントの新機能、拡張機能、およびバグ修正に関する情報は、Compliance Operator および File Integrity Operator のリリースノートに記載されています。

セキュリティーおよびコンプライアンスについての詳細は、OpenShift Container Platform セキュリティーおよびコンプライアンスを参照してください。

1.3.8. ネットワーク

1.3.8.1. デュアルスタックサービスでは、ipFamilyPolicy を指定する必要があります。

複数の IP アドレスファミリーを使用するサービスを作成する場合、Service オブジェクト定義で ipFamilyPolicy: PreferDualStack または ipFamilyPolicy: RequireDualStack を明示的に指定する必要があります。この変更により、OpenShift Container Platform の以前のリリースとの後方互換性が失われます。

詳細は、BZ#2045576 を参照してください。

1.3.8.2. クラスターのインストール後のクラスターネットワーク MTU の変更

クラスターのインストール後に、OpenShift SDN クラスターネットワークプロバイダーまたは OVN-Kubernetes クラスターネットワークプロバイダーを使用している場合、ハードウェア MTU およびクラスターネットワーク MTU 値を変更できます。クラスター全体で MTU を変更すると、混乱が生じ、各ノードが数回再起動される必要があります。詳細は、クラスターネットワーク MTU の変更を参照してください。

1.3.8.3. ゲートウェイ設定の OVN-Kubernetes サポート

OVN-Kubernetes CNI ネットワークプロバイダーは、egress トラフィックがノードゲートウェイに送信される方法の設定についてサポートを追加します。デフォルトでは、egress トラフィックは OVN で処理され、クラスターを終了するために処理され、トラフィックはカーネルルーティングテーブルの特殊なルートによる影響を受けません。

今回の機能拡張により、gatewayConfig.routingViaHost フィールドが追加されました。今回の更新により、このフィールドをインストール後のアクティビティーとしてランタイム時に設定でき、これが true に設定される場合、egress トラフィックは Pod からホストネットワークスタックに送信されます。今回の更新では、カーネルルーティングテーブルで手動で設定されたルートに依存する非常に特殊なインストールおよびアプリケーションが得られます。

今回の機能拡張により、Open vSwitch ハードウェアオフロード機能との対話が可能になりました。今回の更新により、gatewayConfig.routingViaHost フィールドが true に設定されている場合、egress トラフィックがホストネットワークスタックによって処理されるため、オフロードのパフォーマンス上の利点は受けられなくなりました。

重要

Egress トラフィックを設定するには、gatewayConfig.routingViaHost を使用し、gateway-mode-config config map を openshift-network-operator namespace で設定している場合は削除します。Gateway-mode-config ソリューションと OpenShift Container Platform 4.10 以降での OVN-Kubernetes ゲートウェイモードの設定の詳細は、ソリューション を参照してください。

設定についての詳細は、OVN-Kubernetes CNI クラスターネットワークプロバイダーの設定 を 参照してください。

1.3.8.4. ネットワークメトリックの強化

以下のメトリックがクラスターで利用可能になりました。sdn_controller で始まるメトリック名は OpenShift SDN CNI ネットワークプロバイダーに固有のものです。ovn で始まるメトリック名は OVN-Kubernetes CNI ネットワークプロバイダーに固有のものです。

  • network_attachment_definition_instances{networks="egress-router"}
  • openshift_unidle_events_total
  • ovn_controller_bfd_run
  • ovn_controller_ct_zone_commit
  • ovn_controller_flow_generation
  • ovn_controller_flow_installation
  • ovn_controller_if_status_mgr
  • ovn_controller_if_status_mgr_run
  • ovn_controller_if_status_mgr_update
  • ovn_controller_integration_bridge_openflow_total
  • ovn_controller_ofctrl_seqno_run
  • ovn_controller_patch_run
  • ovn_controller_pinctrl_run
  • ovnkube_master_ipsec_enabled
  • ovnkube_master_num_egress_firewall_rules
  • ovnkube_master_num_egress_firewalls
  • ovnkube_master_num_egress_ips
  • ovnkube_master_pod_first_seen_lsp_created_duration_seconds
  • ovnkube_master_pod_lsp_created_port_binding_duration_seconds
  • ovnkube_master_pod_port_binding_chassis_port_binding_up_duration_seconds
  • ovnkube_master_pod_port_binding_port_binding_chassis_duration_seconds
  • sdn_controller_num_egress_firewall_rules
  • sdn_controller_num_egress_firewalls
  • sdn_controller_num_egress_ips

ovnkube_master_resource_update_total メトリックは 4.10 リリースに対して削除されます。

1.3.8.5. YAML ビューと Web コンソールフォームの切り替え

  • 以前のバージョンでは、Web コンソールで YAML ビューフォームビュー を切り替える際に変更は保持されませんでした。さらに、YAML ビュー に切り替えた後、フォームビュー に戻ることができませんでした。今回の更新により、変更を失うことなく、Web コンソールの YAML ビューフォームビュー を簡単に切り替えできるようになりました。

1.3.8.6. ネットワークポリシーでターゲットとする Pod のリスト表示

OpenShift Container Platform Web コンソールでネットワークポリシー機能を使用する場合、ポリシーの影響を受ける Pod がリスト表示されます。これらのポリシーセクションで組み合わせた namespace および Pod セレクターの変更時に、このリストが変更されます。

  • ピア定義
  • ルール定義
  • Ingress
  • Egress

影響を受ける Pod のリストには、ユーザーがアクセス可能な Pod のみが含まれます。

1.3.8.7. ネットワークトレースを単純化するための must-gather の拡張機能

oc adm must-gather コマンドは、ネットワークパケットのキャプチャーの収集を単純化する方法で強化されています。

以前のバージョンでは、oc adm must-gather は単一のデバッグ Pod のみを起動することができました。今回の機能拡張により、デバッグ Pod を同時に複数のノードで起動できるようになりました。

この機能拡張を使用すると、ネットワーク通信問題のトラブルシューティングを単純化するために、複数のノードでパケットキャプチャーを同時に実行できます。新しい --node-selector 引数は、パケットキャプチャーを収集するノードを特定する方法を提供します。

詳細は、Network trace methods および Collecting a host network trace を参照してください。

1.3.8.8. セカンダリーネットワークの Pod レベルボンディング

Pod レベルでのボンディングは、高可用性とスループットを必要とする Pod 内のワークロードを有効にするために不可欠です。Pod レベルのボンディングでは、カーネルモードインターフェイスで複数の Single Root I/O Virtualization (SR-IOV) 仮想機能インターフェイスからボンドインターフェイスを作成できます。SR-IOV Virtual Function は Pod に渡され、カーネルドライバーに割り当てられます。

Pod レベルのボンディングが必要なシナリオには、異なる Physical Function 上の複数の SR-IOV Virtual Function からのボンディングインターフェイスの作成が含まれます。ホストの 2 つの異なる Physical Function からボンディングインターフェイスを作成して、Pod レベルで高可用性を実現するために使用できます。

1.3.8.9. パブリッククラウドにインストールされているクラスターの egress IP アドレスのサポート

クラスター管理者は、1 つ以上の egress IP アドレスを namespace に関連付けることができます。egress IP アドレスにより、一貫性のあるソース IP アドレスが、クラスターから出る特定の namespace からのトラフィックに関連付けられます。

OVN-Kubernetes および OpenShift SDN クラスターネットワークプロバイダーの場合、以下のパブリッククラウドプロバイダーで egress IP アドレスを設定できます。

  • Amazon Web Services (AWS)
  • Google Cloud Platform (GCP)
  • Microsoft Azure

詳細は、クラスターネットワークプロバイダーについての該当するドキュメントを参照してください。

1.3.8.10. egress ポリシーおよび ipBlock except の OpenShift SDN クラスターネットワークプロバイダーネットワークポリシーのサポート

OpenShift SDN クラスターネットワークプロバイダーを使用する場合、ipBlock および ipBlock.except を使用して、ネットワークポリシーで egress ルールを使用できるようになりました。NetworkPolicy オブジェクトの egress 配列で egress ポリシーを定義します。

詳細は、ネットワークポリシーについて を参照してください。

1.3.8.11. Ingress コントローラーのルーター圧縮

今回の機能拡張により、特定の MIME タイプについて HAProxy Ingress コントローラーでグローバル HTTP トラフィック圧縮を設定する機能が追加されました。今回の更新により、大量の圧縮ルーティングされたトラフィックが大量にある場合に、ingress ワークロードの gzip 圧縮が可能になりました。

詳細は、Using router compression を参照してください。

1.3.8.12. CoreDNS のカスタマイズのサポート

クラスター管理者は、デフォルトドメインの設定済みのサーバーを使用した DNS 名前解決を許可するように DNS サーバーを設定できるようになりました。DNS 転送設定には、/etc/resolv.conf ファイルおよびアップストリーム DNS サーバーで指定されたデフォルトのサーバーの両方を設定できます。

詳細は、DNS 転送の使用 を参照してください。

1.3.8.13. CoreDNS ログレベルと Operator ログレベルのサポート

この機能拡張により、Operator のログレベルを個別にまたはクラスター全体で手動で変更する機能が追加されます。

詳細は、Setting the CoreDNS log level を参照してください。

1.3.8.14. Ingress コントローラーでの syslog メッセージの最大長の設定のサポート

Ingress コントローラーの syslog メッセージの最大長を 480 から 4096 バイト間の任意の値に設定できるようになりました。

詳細は、Ingress Controller configuration parameters を参照してください。

1.3.8.15. CoreDNS 転送ポリシーの設定

DNS Operator を使用して CoreDNS 転送ポリシーを設定できるようになりました。デフォルト値は Random で、値を RoundRobin または Sequential に設定できます。

詳細は、DNS 転送の使用 を参照してください。

1.3.8.16. SR-IOV に対する Open vSwitch ハードウェアオフロードのサポート

Open vSwitch ハードウェアオフロードを設定して、互換性のあるベアメタルノードでデータ処理のパフォーマンスを向上できるようになりました。ハードウェアオフロードは、CPU からデータ処理タスクを削除し、ネットワークインターフェイスコントローラーの専用のデータ処理ユニットに転送するデータを処理する方法です。この機能の利点として、データ処理の高速化、CPU ワークロードの軽減、コンピューティングコストの削減などがあります。

詳細は、ハードウェアオフロードの設定を参照してください。

1.3.8.17. Red Hat 外部 DNS オペレーターを使用した DNS レコードの作成 (テクノロジープレビュー)

AWS、Azure、および GCP などのクラウドプロバイダーの Red Hat 外部 DNS Operator を使用して DNS レコードを作成できるようになりました。OperatorHub を使用して外部 DNS Operator をインストールできます。パラメーターを使用して、必要に応じて ExternalDNS を設定できます。

詳細は、Understanding the External DNS Operator を参照してください。

1.3.8.18. Mutable Ingress Controller エンドポイント公開戦略の強化

クラスター管理者は、OpenShift Container Platform の InternalExtrenal の間でロードバランサースコープを変更するように Ingress Controller エンドポイントパブリッシング戦略を設定できるようになりました。

詳細は、Ingress Controller エンドポイント公開戦略を参照してください。

1.3.8.19. RHOSP でのクラスターの OVS ハードウェアオフロード (テクノロジープレビュー)

Red Hat Open Stack Platform (RHOSP) で実行されるクラスターの場合、Open vSwitch (OVS) ハードウェアオフロードを有効にできます。

詳細は、OVS ハードウェアオフロードの有効化を参照してください。

1.3.8.20. Kuryr によって作成された RHOSP リソースの削減

RHOSP で実行されるクラスターの場合、Kuryr は、Pod ネットワーク上に少なくとも 1 つの Pod を持つ名前空間の Neutron ネットワークとサブネットのみを作成するようになりました。さらに、名前空間内のプールは、Pod ネットワーク上の少なくとも 1 つの Pod が名前空間内に作成された後に作成されます。

1.3.8.21. RHOSP DCN (テクノロジープレビュー) のサポート

これで、分散コンピュートノード (DCN) 設定を使用する Red Hat Open Stack Platform (RHOSP) デプロイメントにクラスターをデプロイできます。このデプロイメント設定には、いくつかの制限があります。

  • RHOSP バージョン 16 のみがサポートされています。
  • RHOSP 16.1.4 の場合、ハイパーコンバージドインフラストラクチャー (HCI) と Ceph テクノロジーのみがエッジでサポートされます。
  • RHOSP 16.2 では、非 HCI および Ceph テクノロジーもサポートされています。
  • ネットワークは、テナントネットワークまたはプロバイダーネットワークとして事前に作成する必要があります (独自のネットワークを持参)。これらのネットワークは、適切なアベイラビリティーゾーンでスケジュールする必要があります。

1.3.8.22. RHOSP (テクノロジープレビュー) でのクラスターの外部クラウドプロバイダーのサポート

RHOSP で実行されるクラスターは、Cloud Provider Open Stack を使用できるようになりました。この機能は、TechPreviewNoUpgrade 機能セットの一部として利用できます。

1.3.8.23. インストーラーでプロビジョニングされるクラスターでの NMState を使用したホストネットワークインターフェイスの設定

OpenShift Container Platform は、インストーラーでプロビジョニングされるクラスターの networkConfig 設定を提供するようになりました。インストーラーでプロビジョニングされるインストールでは、networkConfig 設定と NMState YAML 設定を install-config.yaml ファイルに追加します。さらに、Bare Metal Operator を使用する際に、networkConfig 設定および NMState YAML 設定をベアメタルホストリソースに追加できます。

networkConfig 設定で最もよく使われるユースケースは、インストール時またはクラスターを拡張する間にホストのネットワークインターフェイスに静的 IP アドレスを設定することです。

詳細は、install-config.yaml ファイルでのホストネットワークインターフェイスの設定について参照してください。

1.3.8.24. linuxptp サービスへの境界クロックおよび PTP 機能拡張

PtpConfig プロファイルで複数のネットワークインターフェイスを指定できるようになり、RAN vDU アプリケーションを実行しているノードが Precision Time Protocol Telecom Boundary Clock (PTP T-BC) として機能するノードに対応できるようになりました。境界クロックとして設定されるインターフェイスが PTP 高速イベントに対応するようになりました。

詳細は、Configuring linuxptp services as boundary clock を参照してください。

1.3.8.25. Intel 800-Series Columbiaville NIC のサポート

Intel 800-Series Columbiaville NIC が、境界クロックまたは通常のクロックとして設定されるインターフェイスに対して完全にサポートされるようになりました。Columbiaville NIC は、以下の設定でサポートされています。

  • 通常のクロック
  • Grandmaster クロックに同期した境界クロック
  • 帯域クロックと、アップストリームのソースクロックから同期する 1 つのポート、および宛先クロックにダウンストリームのタイミングを提供する 3 つのポート。

詳細は、PTP デバイスの設定を参照してください。

1.3.8.26. Kubernetes NMState Operator は、ベアメタル、IBM Power、IBM Z、および LinuxONE インストール向けの GA です。

OpenShift Container Platform は、ベアメタル、IBM Power、IBM Z、および LinuxONE インストールの Kubernetes NMState Operator を提供するようになりました。Kubernetes NMState Operator は依然として、他のすべてのプラットフォームでのテクノロジープレビューです。詳細は、Kubernetes NMState 演算子についてをご覧ください。

1.3.8.27. Mellanox MT2892 カードの SR-IOV サポート

Mellanox MT2892 カード で SR-IOV サポートが利用できるようになりました。

1.3.8.28. ネットワークトラフィックフローを監視する Network Observability Operator

管理者は、Network Observability Operator をインストールして、コンソールで OpenShift Container Platform クラスターのネットワークトラフィックを監視できるようになりました。さまざまなグラフィック表現でネットワークトラフィックデータを表示および監視できます。Network Observability Operator は、eBPF テクノロジーを使用してネットワークフローを作成します。その後、ネットワークフローは OpenShift Container Platform 情報で強化され、Loki に保存されます。ネットワークトラフィック情報を使用して、詳細なトラブルシューティングと分析を行うことができます。

Network Observability Operator は、OpenShift Container Platform の 4.12 リリースで一般公開 (GA) ステータスとなり、OpenShift Container Platform 4.10 でもサポートされています。

詳細は、Network Observability を参照してください。

1.3.8.28.1. ネットワーク可観測性 Operator の更新

Network Observability Operator は、OpenShift Container Platform マイナーバージョンのリリースストリームとは独立して更新をリリースします。更新は、現在サポートされているすべての OpenShift Container Platform 4 バージョンでサポートされている単一のローリングストリームを介して使用できます。Network Observability Operator の新機能、機能拡張、バグ修正に関する情報は、Network Observability リリースノート に記載されています。

1.3.9. ハードウェア

1.3.9.1. MetalLB 負荷分散の機能拡張

MetalLB および MetalLB Operator の以下の拡張機能は、本リリースに含まれています。

  • Border Gateway Protocol (BGP) のサポートが追加されました。
  • BGP と組み合わせて双方向転送検出 (BFD) のサポートが追加されました。
  • IPv6 およびデュアルスタックネットワークのサポートが追加されました。
  • speaker Pod でノードセレクターを指定するサポートが追加されます。ロードバランサーサービスの IP アドレスのアドバタイズに使用されるノードを制御できるようになりました。今回の機能拡張は、レイヤー 2 モードおよび BGP モードに適用されます。
  • Web フックの検証により、アドレスプールと BGP ピアカスタムリソースが有効であることを確認します。
  • 4.9 リリースで導入された AddressPool および MetalLB カスタムリソース定義の v1alpha1 API バージョンは非推奨になりました。どちらのカスタムリソースも v1beta1 API バージョンに更新されます。
  • MetalLB カスタムリソース定義のスピーカー Pod の容認のサポートが追加されました。

詳細は、About MetalLB and the MetalLB Operator を参照してください。

1.3.9.2. ホストファームウェア設定の変更のサポート

OpenShift Container Platform は HostFirmwareSettings および FirmwareSchema リソースをサポートします。ベアメタルホストに OpenShift Container Platform をデプロイする場合、プロビジョニングの前後にホストに変更を加える必要がある場合があります。これには、ホストのファームウェアおよび BIOS の詳細の検証が含まれます。Bare Metal Operator (BMO) で使用できる新しいリソースが 2 つあります。

  • HostFirmwareSettings: HostFirmwareSettings リソースを使用して、ホストの BIOS 設定を取得および管理できます。リソースには、ベースボード管理コントローラー (BMC) から返される完全な BIOS 設定が含まれます。BareMetalHost リソースのファームウェアフィールドは、3 つのベンダーに依存しないフィールドを返しますが、通常 HostFirmwareSettings リソースはホストモデルごとにベンダー固有のフィールドの BIOS 設定を多数設定します。
  • FirmwareSchema: ホストファームウェア設定を変更する際に、FirmwareSchema を使用してホストの変更可能な BIOS 値および制限を特定できます。

詳細は、ベアメタルの設定を参照してください。

1.3.10. ストレージ

1.3.10.1. ストレージメトリックインジケーター

  • この更新により、ワークロードは、Shared Resource CSI ドライバーによって提供されるインラインの一時csiボリュームを使用して、namespace で Secrets および ConfigMap オブジェクトを安全に共有できます。Container Storage Interface (CSI) ボリュームおよび Shared Resource CSI ドライバーはテクノロジープレビュー機能です。(BUILD-293)

1.3.10.2. コンソールストレージプラグインの拡張機能

  • スクリーンリーダーのインストールフロー全体で Aria ラベルを追加する Console Storage プラグインに新しい機能が追加されました。これにより、スクリーンリーダーを使用してコンソールにアクセスするユーザーに、アクセス性が向上します。
  • Persistent Volume Claim (永続ボリューム要求、PVC) に使用されるボリュームで使用される領域の量を示すメトリックを提供する新機能が追加されました。この情報は PVC リストに表示され、PVC の詳細の Used 列に表示されます。(BZ#1985965)

1.3.10.3. Alibaba AliCloud Disk CSI ドライバー Operator を使用した永続ストレージ

OpenShift Container Platform は、AliCloud Disk の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する AliCloud Disk Driver Operator は一般に利用可能であり、OpenShift Container Platform 4.10 ではデフォルトで有効になっています。

詳細は、AliCloud Disk CSI Driver Operator を参照してください。

1.3.10.4. Microsoft Azure File CSI ドライバー Operator を使用した永続ストレージ (テクノロジープレビュー)

OpenShift Container Platform は、Azure ファイルの Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する Azure File Driver Operator はテクノロジープレビュー機能です。

詳細は、Azure File CSI Driver Operatorを参照してください。

1.3.10.5. IBM VPC Block CSI Driver Operator を使用した永続ストレージ

OpenShift Container Platform は、Red Hat Virtualization (RHV) の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する IBM VPC Block Driver Operator は一般に利用可能であり、OpenShift Container Platform 4.10 ではデフォルトで有効になっています。

詳細は、IBM VPC Block CSI Driver Operatorを参照してください。

1.3.10.6. VMware vSphere CSI Driver Operator を使用した永続ストレージが一般に利用可能になる

OpenShift Container Platform は、vSphere の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.8 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となり、デフォルトで有効にされます。

詳細は、vSphere CSI Driver Operator を参照してください。

vSphere CSI ドライバー Operator のインストールには以下が必要です。

前述の条件が満たされなくても、クラスターはアップグレードされますが、サポートされる vSphere CSI Operator ドライバーを使用するにはこれらの条件を満たすことが推奨されます。

1.3.10.7. Microsoft Azure Disk CSI Driver Operator を使用した永続ストレージが一般に利用可能になる

OpenShift Container Platform は、Azure ディスクの Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.8 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となり、デフォルトで有効にされます。

詳細は、Azure Disk CSI Driver Operator を参照してください。

1.3.10.8. AWS Elastic File Storage CSI ドライバー Operator を使用した永続ストレージが一般に利用可能になる

OpenShift Container Platform は、AWS Elastic File Storage (EFS) の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.9 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となりました。

詳細は、AWS EFS CSI Driver Operator を参照してください。

1.3.10.9. CSI の自動移行による Microsoft Azure ファイルのサポート (テクノロジープレビュー)

OpenShift Container Platform 4.8 以降、インツリーボリュームプラグインの同等の Container Storage Interface (CSI) ドライバーへの自動移行がテクノロジープレビュー機能として利用可能になりました。この機能は、Azure File in-tree プラグインの Azure File CSI ドライバーへの自動移行をサポートするようになりました。

詳細は、CSI 自動移行を参照してください。

1.3.10.10. CSI の自動移行による VMware vSphere のサポート (テクノロジープレビュー)

OpenShift Container Platform 4.8 以降、インツリーボリュームプラグインの同等の Container Storage Interface (CSI) ドライバーへの自動移行がテクノロジープレビュー機能として利用可能になりました。この機能は、vSphere in-tree プラグインの vSphere CSI ドライバーへの自動移行をサポートするようになりました。

詳細は、CSI 自動移行を参照してください。

1.3.10.11. fsGroup を使用した Pod タイムアウトの削減

ストレージボリュームに多数のファイル (およそ 100 万以上) が含まれる場合には、Pod のタイムアウトが生じる可能性があります。

OpenShift Container Platform 4.10 では、fsGroup および fsGroupChangePolicy を使用して、ストレージボリュームの再帰的なパーミッションの変更をスキップする機能が導入されているため、Pod タイムアウトの問題を回避できます。

詳細は、fsGroup を使用した Pod タイムアウトの削減を参照してください。

1.3.11. レジストリー

1.3.12. Operator ライフサイクル

1.3.12.1. 大規模なクラスターをサポートするためにコピーされた CSV の無効化

Operator が Operator Lifecycle Manager (OLM) によってインストールされると、そのクラスターサービスバージョン (CSV) の簡単なコピーが Operator が監視するすべての namespace に作成されます。これらの CSV は、コピーされる CSV として知られ、それらは特定の namespace でリソースイベントをアクティブに調整しているコントローラーを特定します。

大規模なクラスターでは、namespace およびインストールされた Operator が数百または数千の場合に、コピーされた CSV は OLM のメモリー使用量、クラスター etcd 制限、およびネットワーク帯域幅などのリソースを有効にしない量を消費する可能性があります。これらの大規模なクラスターをサポートするために、クラスター管理者は、AllNamespaces モードでインストールされる Operator のコピーされた CSV を無効にできます。

詳細は、Operator Lifecycle Manager 機能の設定を参照してください。

1.3.12.2. 依存関係に対する汎用的および複雑な制約

特定の依存関係要件を持つ Operator は、複雑な制約または要件式を使用できるようになりました。新しい olm.constraint バンドルプロパティーは、依存関係制約情報を保持します。message フィールドにより、Operator の作成者は特定の制約が使用される理由についてハイレベルな詳細情報を伝えることができます。

詳細は、Operator Lifecycle Manager の依存関係の解決を参照してください。

1.3.12.3. Hypershift の Operator Lifecycle Manager のサポート

Operator カタログを含む Operator Lifecycle Manager (OLM) コンポーネントは、Hypershift 管理のコントロールプレーンで完全に実行できるようになりました。この機能により、ワーカーノードのテナントにコストがかかりません。

1.3.12.4. ARM の Operator Lifecycle Manager のサポート

以前のバージョンでは、デフォルトの Operator カタログは ARM をサポートしませんでした。今回の機能拡張により、Operator Lifecycle Manager (OLM) がデフォルトの Operator カタログを ARM クラスターに追加するようになりました。その結果、OperatorHub には ARM をサポートする Operator がデフォルトでコンテンツが含まれるようになりました。(BZ#1996928)

1.3.13. Operator の開発

1.3.13.1. ハイブリッド Helm Operator (テクノロジープレビュー)

Operator SDK における標準の Helm ベースの Operator サポートは、Operator の Operator 成熟度モデル で Auto Pilot 機能 (レベル V) に達した Go ベースおよび Ansible ベースの Operator サポートよりも機能が限定されています。

OpenShift Container Platform 4.10 以降、Operator SDK にはハイブリッド Helm Operator が含まれており、Go API 経由で既存の Helm ベースのサポートを強化します。Operator の作成者は Helm チャートで始まる Operator プロジェクトを生成し、Go 言語の Helm リコンサイラーに高度なイベントベースのロジックを追加できます。作成者は Go を使用して、同じプロジェクトに新規 API およびカスタムリソース定義 (CRD) の追加を継続できます。

詳細は、ハイブリッド Helm Operator の Operator SDK チュートリアルを参照してください。

1.3.13.2. Ansible ベースの Operator のカスタムメトリック

Operator の作成者は Operator SDK で Ansible ベースの Operator サポートを使用し、カスタムメトリックの公開、Kubernetes イベントの送信、および優れたロギングの提供が可能になりました。

詳細は、Ansible ベースの Operator のカスタムメトリックの公開を参照してください。

1.3.13.3. Go ベースの演算子のオブジェクトプルーニング

operator-lib プルーニングユーティリティーを使用すると、Go ベースのオペレーターは、クラスター内にとどまり、リソースを使用できるジョブや Pod などのオブジェクトをクリーンアップできます。このユーティリティーには、囲碁ベースのオペレーター向けの一般的な剪定戦略が含まれています。Operator の作成者は、ユーティリティーを使用してカスタムフックと戦略を作成することもできます。

プルーニングユーティリティーの詳細は、Go ベースの演算子のオブジェクトプルーニングユーティリティーを参照してください。

1.3.13.4. 切断された環境向けのダイジェストベースのバンドル

この機能拡張により、Operator SDK は、Operator Lifecycle Manager (OLM) を使用して切断された環境で機能するバンドルに Operator プロジェクトをパッケージ化できるようになりました。オペレーターの作成者は、make bundleコマンドを実行し、USE_IMAGE_DIGESTStrue に設定して、オペレーターのイメージ参照をタグではなくダイジェストに自動的に更新できます。このコマンドを使用するには、環境変数を使用して、ハードコードされた関連するイメージ参照を置き換える必要があります。

切断された環境用の Operator の開発の詳細には、制限されたネットワーク環境での Operator の有効化を参照してください。

1.3.14. ビルド

  • 今回の更新により、OpenShift ビルドで CSI ボリュームを使用できるようになりました。これはテクノロジープレビュー機能です。この機能は、新たに導入された Shared Resource CSI ドライバーおよび Insights Operator に依存して、RHEL Simple Content Access (SCA) 証明書をインポートします。たとえば、この機能を使用すると、SharedSecret オブジェクトでエンタイトルメントが適用されたビルドを実行し、RHEL サブスクリプション認証情報および証明書をビルドの namespace にコピーするのではなく、ビルド時にエンタイトルメントのある RPM パッケージをインストールできます。(BUILD-274)

    重要

    SharedSecret オブジェクトおよび OpenShift Shared Resources 機能は、TechPreviewNoUpgrade 機能セットを有効にする場合にのみ利用できます。これらのテクノロジープレビュー機能は、デフォルトの機能の一部ではありません。この機能セットを有効にすると元に戻すことができなくなり、アップグレードできなくなります。この機能セットは、実稼働クラスターでは推奨されません。FeatureGate の使用によるテクノロジープレビュー機能の有効化を参照してください。

  • この更新により、ワークロードは、Shared Resource CSI ドライバーによって提供されるインラインの一時csiボリュームを使用して、namespace で Secrets および ConfigMap オブジェクトを安全に共有できます。Container Storage Interface (CSI) ボリュームおよび Shared Resource CSI ドライバーはテクノロジープレビュー機能です。(BUILD-293)

1.3.15. Jenkins

  • 今回の更新により、Jenkins エージェントをサイドカーコンテナーとして実行できるようになりました。この機能を使用して、適切に設定された Pod テンプレートと Jenkins ファイルを持つ Jenkins パイプライン内のコンテナーイメージを実行できます。コードをコンパイルするために、java-buildnodejs-builder という名前の 2 つの新規 Pod テンプレートを Jenkins を使用してサイドカーコンテナーとして実行できるようになりました。これらの 2 つの Pod テンプレートは、openshift namespace の java および nodejs イメージストリームで提供される最新の Java および NodeJS バージョンを使用します。以前の non-sidecar maven および nodejs Pod テンプレートが非推奨になりました。(JKNS-132)

1.3.16. マシン API

1.3.16.1. Azure Ephemeral OS ディスクのサポート

今回の機能拡張により、マシンを Azure Ephemeral OS ディスクにデプロイする Azure で実行されるマシンセットを作成できるようになりました。Azure Ephemeral OS ディスクは、リモートの Azure Storage ではなく、ローカルの VM 容量を使用します。

詳細は、マシンを Ephemeral OS ディスクにデプロイするマシンセット ついて参照してください。

1.3.16.2. Azure Accelerated Networking のサポート

このリリースでは、Machine API を使用して、Microsoft Azure VM の高速ネットワークを有効にできます。アクセラレートネットワークでは、Single Root I/O Virtualization (SR-IOV) を使用して、仮想マシンのスイッチへの直接パスを提供します。

詳細は、Accelerated Networking for Microsoft Azure VMsを参照してください。

1.3.16.3. グローバル Azure 可用性セットのサポート

今回のリリースにより、高可用性を確保するために、複数のアベイラビリティーゾーンを持たないグローバル Azure リージョンで可用性セットを使用できるようになりました。

1.3.16.4. Google Cloud Platform での GPU サポート

Google Cloud Platform (GCP) Compute Engine を使用すると、ユーザーは仮想マシンインスタンスに GPU を追加できます。GPU リソースにアクセスできるワークロードは、この機能を有効にしてコンピュートマシンでより優れたパフォーマンスが得られます。今回のリリースにより、Machine API を使用して、インスタンスに使用するサポートされる GPU を定義できるようになりました。

詳細は、マシンセットの GPU サポートの有効化 について参照してください。

1.3.16.5. Cluster Autoscaler ノード使用率のしきい値

今回の機能拡張により、ClusterAutoscaler リソース定義にノード使用率のしきい値を指定できるようになりました。このしきい値は、不要なノードが削除の対象となっているノードの使用率レベルを表します。

詳細は、Cluster Autoscaler についてを参照してください。

1.3.17. Machine Config Operator

1.3.17.1. 設定ドリフト検出の強化

今回の機能拡張により、Machine Config Daemon (MCD) は、ノード起動に加えて、マシン設定で指定されたファイルについてファイルシステム書き込みイベントが発生する場合、またはノードの起動に加えて新規のマシン設定が適用される前に、ノードの設定ドリフトをチェックするようになりました。以前のバージョンでは、MCD はノードの起動時にのみ設定のドリフトの有無を確認していました。この変更は、管理者が問題を修正するまで設定ドリフトによって生じる問題を回避するためにノードの再起動が頻繁に行われないために加えられました。

設定ドリフトは、ノードのディスク上の状態がマシン設定で設定される内容と異なる場合に発生します。Machine Config Operator (MCO) は MCD を使用して設定ドリフトの有無を確認し、検出される場合はノードおよびマシン設定プール (MCP) のパフォーマンスが 低下 します。

設定ドリフトの詳細は、Understanding configuration drift detection を参照してください。

1.3.18. ノード

1.3.18.1. Linux コントロールグループのバージョン 2(開発者プレビュー)

クラスター内の特定ノードで Linux control groups version 2 (cgroups v2) を有効化できるようになりました。cgroups v2 を有効にする OpenShift Container Platform プロセスにより、cgroups バージョン 1 コントローラーおよび階層がすべて無効になります。OpenShift Container Platform cgroups バージョン 2 機能は Developer プレビューとして提供されており、現時点では Red Hat ではサポートされていません。詳細は、Enabling Linux control groups version 2 (cgroups v2)を参照してください。

1.3.18.2. ノードでのスワップメモリー使用のサポート (テクノロジープレビュー)

ノードごとに OpenShift Container Platform ワークロードの swap メモリー使用量を有効にすることができます。詳細は、ノードでの swap メモリー使用の有効化を参照してください。

1.3.18.3. Node Maintenance Operator を使用したノードのメンテナンスモードへの配置

Node Maintenance Operator (NMO) は、クラスターの残りの部分からノードを切り離し、ノードからすべての Pod をドレイン (解放) します。ノードをメンテナンス状態にすることで、マシンの問題を調査したり、基礎となるマシンで操作を実行したり、ノードに障害が発生する可能性があります。これは NMO のスタンドアロンバージョンです。OpenShift Virtualization をインストールしている場合、バンドルされる NMO を使用する必要があります。

1.3.18.4. ノードヘルスチェックオペレーターの機能強化 (テクノロジープレビュー)

Node Health Check Operator は、これらの新たな拡張機能を提供します。

1.3.18.5. Poison Pill Operator の拡張機能

Poison Pill Operator は NodeDeletion をデフォルトの修復ストラテジーとして使用します。NodeDeletion 修復ストラテジーは node オブジェクトを削除します。

OpenShift Container Platform 4.10 では、Poison Pill Operator は ResourceDeletion という新規の修復ストラテジーを導入しています。ResourceDeletion 修復ストラテジーは、node オブジェクトではなくノードでの Pod および関連付けられたボリュームの割り当てを削除します。このストラテジーは、ワークロードをより迅速に復元するのに役立ちます。

1.3.18.6. RHOSP でのコントロールプレーンノードの移行

これで、サービスを中断することなく、コントロールプレーンノードをある RHOSP ホストから別のホストに移行できます。

1.3.19. Red Hat OpenShift Logging

OpenShift Container Platform 4.7 では、Cluster LoggingRed Hat OpenShift Logging になりました。詳細は、Release notes for Red Hat OpenShift Logging を参照してください。

1.3.20. モニタリング

本リリースのモニタリングスタックには、以下の新機能および変更された機能が含まれています。

1.3.20.1. モニタリングスタックコンポーネントおよび依存関係

モニタリングスタックコンポーネントおよび依存関係のバージョンの更新には、以下が含まれます。

  • Alertmanager to 0.23.0
  • Grafana to 8.3.4
  • kube-state-metrics to 2.3.0
  • node-exporter to 1.3.1
  • prom-label-proxy to 0.4.0
  • Prometheus to 2.32.1
  • Prometheus adapter to 0.9.1
  • Prometheus operator to 0.53.1
  • Thanos to 0.23.1

1.3.20.2. OpenShift Container Platform Web コンソールでのメトリックターゲットの新規ページ

OpenShift Container Platform Web コンソールの新規 Metrics Targets ページには、デフォルトの OpenShift Container Platform プロジェクトおよびユーザー定義プロジェクトのターゲットが表示されます。このページを使用すると、現在収集の対象となっているエンドポイントを表示、検索、およびフィルタリングできます。これにより、問題を特定してトラブルシューティングしやすくなります。

1.3.20.3. メトリクス収集に TLS 認証を使用するように更新されたモニタリングコンポーネント

今回のリリースにより、すべてのモニタリングコンポーネントが、メトリクス収集にベアラートークンの静的認証ではなく、相互 TLS 認証を使用するように設定されるようになりました。TLS 認証は、Kubernetes API の停止に対してより回復力が高く、Kubernetes API の負荷が軽減されます。

1.3.20.4. Cluster Monitoring Operator がグローバル TLS セキュリティープロファイルを使用するように更新

今回のリリースにより、Cluster Monitoring Operator コンポーネントはグローバルな OpenShift Container Platform tlsSecurityProfile 設定を有効にするようになりました。以下のコンポーネントおよびサービスは、TLS セキュリティープロファイルを使用するようになりました。

  • Alertmanager Pod (ポート 9092 および 9097)
  • kube-state-metrics Pod (ポート 8443 および 9443)
  • openshift-state-metrics Pod (ポート 8443 および 9443)
  • node-exporter pods (ポート 9100)
  • Grafana pod (ポート 3002)
  • prometheus-adapter pods (ポート 6443)
  • prometheus-k8s pods (ポート 9092 および 10902)
  • Thanos クエリー pods (ポート 9092、9093 および 9094)
  • Prometheus Operator (ポート 8080 および 8443)
  • Telemeter-client Pod (ポート 8443)

ユーザー定義モニタリングを有効にしている場合、以下の Pod がプロファイルを使用するようになりました。

  • prometheus-user-workload Pod (ポート 9091 および 10902)
  • prometheus-operator Pod (ポート 8080 および 8443)

1.3.20.5. アラートルールの変更

  • New

    • すべての Thanos アラートルールに namespace ラベルを追加しました。
    • すべてのプラットフォームアラートに openshift_io_alert_source="platform" ラベルが追加されました。
  • 変更済み

    • AggregatedAPIDown の名前を KubeAggregatedAPIDown に変更します。
    • AggregatedAPIErrors の名前を KubeAggregatedAPIErrors に変更します。
    • HighlyAvailableWorkloadIncorrectlySpread アラートが削除されました。
    • KubeMemoryOvercommit アラートの説明が改善されました。
    • NodeFilesystemSpaceFillingUp アラートが強化され、Kubernetes ガべージコレクションのしきい値と一致しました。
    • KubePersistentVolumeFillingUp アラートから除外される ReadOnlyMany ボリューム。
    • 拡張 PrometheusOperator アラートが openshift-user-workload-monitoring namespace で実行されている Prometheus Operator を組み込むように拡張されました。
    • ThanosSidecarPrometheusDown および ThanosSidecarUnhealthy のアラートを ThanosSidecarNoConnectionToStartedPrometheus に変更しました。
    • KubeletTooManyPods の重大度を warning から info に変更しました。
    • alerts.k8s.io/KubePersistentVolumeFillingUp: disabled ラベルを永続ボリュームリソースに追加して、KubePersistentVolumeFillingUp アラートから特定の永続ボリュームの除外が有効にされています。
注記

Red Hat は、記録ルールまたはアラートルールの後方互換性を保証しません。

1.3.20.6. メトリックの変更

  • スライスレベルで利用可能な Pod 中心の cAdvisor メトリックがドロップされました。
  • 以下のメトリックが公開されました。

    • kube_poddisruptionbudget_labels
    • kube_persistentvolumeclaim_labels
    • kube_persistentvolume_labels
  • 名前が kube_*annotation のメトリックは kube-state-metrics から削除されました。
注記

Red Hat は、メトリックの後方互換性を保証しません。

1.3.20.7. 特定のコンポーネントのハード非アフィニティールールおよび Pod の Disruption Budget (停止状態の予算) を追加

今回のリリースにより、ハード非アフィニティールールおよび Pod の Disruption Budget (停止状態の予算) がモニタリングするコンポーネントで、パッチのアップグレード時にダウンタイムを短縮できるようになりました。

  • Alertmanager

    注記

    この変更の一環として、Alertmanager レプリカの数が 3 から 2 に削減されました。ただし、削除された 3 番目のレプリカの Persistent Volume Claim (永続ボリューム要求、PVC) は、アップグレードプロセスの一環として自動的に削除されません。Alertmanager の永続ストレージを設定している場合、この PVC を Cluster Monitoring Operator から手動で削除できます。詳細は、既知の問題のセクションを参照してください。

  • Prometheus アダプター
  • Prometheus
  • Thanos Querier

ユーザー定義のモニタリングを有効にしている場合、以下のコンポーネントはそれらのルールおよび予算も使用します。

  • Prometheus
  • Thanos Ruler

1.3.20.8. ユーザー定義プロジェクトのアラートルーティング (テクノロジープレビュー)

本リリースでは、管理者がユーザー定義プロジェクトのモニタリングのアラートルーティングを有効にできるテクノロジープレビュー機能が導入されました。ユーザーは、ユーザー定義プロジェクトのアラートルーティングを追加し、設定できます。

1.3.20.9. Alertmanager

OpenShift Container Platform ルートからサードパーティーの Alertmanager Web ユーザーインターフェイスへのアクセスが削除されました。

1.3.20.10. Prometheus

  • OpenShift Container Platform クラスター管理者は、Prometheus のクエリーロギングを設定できるようになりました。
  • サードパーティーの Prometheus Web ユーザーインターフェイスへのアクセスは非推奨となり、今後の OpenShift Container Platform リリースで削除されます。

1.3.20.11. Prometheus アダプター

  • Prometheus アダプターは、Prometheus API ではなく Thanos Querier API を使用するようになりました。
  • OpenShift Container Platform クラスター管理者は、Prometheus アダプターの監査ログを設定できるようになりました。

1.3.20.12. Thanos Querier

  • OpenShift Container Platform ルートからサードパーティーの Thanos Querier Web ユーザーインターフェイスへのアクセスが削除されました。
  • Thanos Querier テナントポートの /api/v1/labels/api/v1/label/*/values および /api/v1/series エンドポイントが公開されるようになりました。
  • OpenShift Container Platform クラスター管理者はクエリーロギングを設定できるようになりました。
  • ユーザーワークロードモニタリングが有効にされている場合、OpenShift Container Platform ルートからサードパーティーの Thanos Ruler Web ユーザーインターフェイスへのアクセスが削除されます。

1.3.20.13. Grafana

サードパーティーの Grafana Web ユーザーインターフェイスへのアクセスは非推奨となり、今後の OpenShift Container Platform リリースで削除されます。

1.3.21. スケーラビリティーおよびパフォーマンス

1.3.21.1. 新しい Special Resource Operator メトリック

Special Resource Operator (SRO) は、SRO カスタムリソースおよびオブジェクトの正常性を監視するためのメトリックを公開するようになりました。詳細は、Prometheus Special Resource Operator metrics を参照してください。

1.3.21.2. 特別な Resource Operator カスタムリソース定義フィールド

Special Resource Operator (SRO) に oc explain を使用すると、SRO カスタムリソース定義 (CRD) のオンラインドキュメントが提供されるようになりました。今回の機能拡張により、CRD フィールドの詳細が改善されました。(BZ#2031875)

1.3.21.3. 新たな Node Tuning Operator メトリックが Telemetry に追加される

Node Tuning Operator (NTO) メトリックが Telemetry に追加されました。Telemetry によって収集されるデータの表示についての手順に従い、Telemetry によって 収集されるすべてのメトリックを表示します。

1.3.21.4. NFD Topology Updater が利用可能になりました。

Node Feature Discovery (NFD) Topology Updater は、ワーカーノードに割り当てられたリソースを調べるデーモンです。これは、ゾーンごとに新規 Pod に割り当てることができるリソースに対応し、ゾーンを Non-Uniform Memory Access (NUMA) ノードにすることができます。詳細は、NFD Topology Updater の使用を参照してください。

1.3.21.5. ハイパースレッディング対応の CPU マネージャーポリシー (テクノロジープレビュー)

OpenShift Container Platform のハイパースレッディング対応の CPU マネージャーポリシーは追加のチューニングなしに利用できるようになりました。クラスター管理者は、必要に応じてこの機能を有効にできます。ハイパースレッドは、ハードウェアによって論理プロセッサーとして抽象化されます。ハイパースレッディングにより、単一の物理プロセッサーが同時に 2 つの負荷スレッド (プロセス) を実行し、プロセッサーリソースを動的に共有できます。

1.3.21.6. NUMA Resources Operator による NUMA 対応スケジューリング (テクノロジープレビュー)

デフォルトの OpenShift Container Platform スケジューラーは、コンピュートノード内の個々の Non-Uniform Memory Access (NUMA) ゾーンを認識しません。これにより、レイテンシーの影響を受けやすいワークロードのスケジューリングが最適化されない可能性があります。NUMA 対応のセカンダリースケジューラーをデプロイする新しい NUMA Resources Operator が利用可能です。NUMA 対応のセカンダリースケジューラーは、クラスター内で使用可能な NUMA ゾーンの全体像に基づいて、ワークロードのスケジューリングを決定します。これにより、レイテンシーの影響を受けやすいワークロードが単一の NUMA ゾーンで処理され、効率とパフォーマンスが最大化されます。

詳細は、About NUMA-aware scheduling を参照してください。

1.3.21.7. SiteConfig フィルターを使用して ZTP スポーククラスターのインストール中にカスタムリソースをフィルター処理する

フィルターを使用して SiteConfig CR をカスタマイズし、ゼロタッチプロビジョニング (ZTP) GitOps パイプラインのインストールフェーズで使用する他の CR を含めたり除外したりできるようになりました。詳細は、Filtering custom resources using SiteConfig filters を参照してください。

1.3.21.8. vDU ユースケースの PolicyGenTemplate CR で chronyd を無効にする

RAN vDU アプリケーションを実行しているノードでは、以前のバージョンから OpenShift Container Platform 4.10 に更新する場合に、chronyd を無効にする必要があります。chronyd を無効にするには、TunedPerformancePatch.yaml ファイルの .spec.profile.data の下の [service] セクションに以下の行を追加します。TunedPerformancePatch.yaml ファイルは、グループ PolicyGenTemplate CR で参照されます。

[service]
service.chronyd=stop,disable

詳細は、vDU アプリケーションを実行するための推奨クラスター設定 を参照してください。

1.3.22. バックアップと復元

1.3.23. 開発者エクスペリエンス

1.3.23.1. デプロイメントレプリカセットのプルーニング (テクノロジープレビュー)

本リリースでは、テクノロジープレビューフラグ --replica-setsoc adm prune deployments コマンドに追加されました。デフォルトで、レプリケーションコントローラーのみが oc adm prune deployments コマンドでプルーニングされます。--replica-setstrue に設定すると、レプリカセットもプルーニングプロセスに含まれます。

詳細は、デプロイメントリソースのプルーニングを参照してください。

1.3.24. Insights Operator

1.3.24.1. シンプルなコンテンツアクセス証明書のインポート

OpenShift Container Platform 4.10 では、Insights Operator はデフォルトで Red Hat OpenShift Cluster Manager から単純なコンテンツアクセス証明書をインポートするようになりました。

詳細は、Importing simple content access certificates with Insights Operator を参照してください。

1.3.24.2. Insights Operator のデータ収集機能の拡張

Red Hat に送信されるデータ量を減らすために、Insights Operator は特定の条件が満たされる場合にのみ情報を収集します。たとえば、Insights Operator は、Alertmanager がアラート通知の送信に失敗する場合にのみ Alertmanager ログを収集します。

OpenShift Container Platform 4.10 では、Insights Operator は以下の追加情報を収集します。

  • (条件)KubePodCrashlooping および KubePodNotReady アラートが実行される Pod からのログ
  • (条件)AlertmanagerClusterFailedToSendAlerts または AlertmanagerFailedToSendAlerts アラートの実行時に Alertmanager ログ。
  • Alertmanager からの無音アラート
  • ジャーナルユニット (kubelet) からのノードログ
  • costmanagement-metrics-operator がインストールされているクラスターの CostManagementMetricsConfig
  • モニタリングスタック Prometheus インスタンスからの時系列データベースのステータス
  • OpenShift Container Platform スケジューラーに関する追加情報

この追加情報により、Red Hat は OpenShift Container Platform 機能を強化し、Insights Advisor の推奨事項を強化します。

1.3.25. 認証および認可

1.3.25.1. OpenID Connect アイデンティティープロバイダーからのグループメンバーシップの同期

本リリースでは、ユーザーのログイン時に、OpenID Connect プロバイダーから OpenShift Container Platform にグループメンバーシップを同期するサポートが導入されました。これを有効にするには、OpenShift Container Platform OpenID Connect アイデンティティープロバイダー設定で groups 要求を設定します。

詳細は、Sample OpenID Connect CRs を参照してください。

1.3.25.2. サポートされる追加の OIDC プロバイダー

Okta および Ping Identity OpenID Connect (OIDC) プロバイダーは、OpenShift Container Platform でテストされ、サポートされるようになりました。

OIDC プロバイダーの完全リストは、サポートされている OIDC プロバイダーを参照してください。

1.3.25.3. oc コマンドが Podman 設定の場所から認証情報を取得できるようになりました。

以前のバージョンでは、レジストリー設定 (oc login または oc image など) を使用する oc コマンドは、Docker 設定の場所から認証情報を取得していました。OpenShift Container Platform 4.10 では、レジストリーエントリーがデフォルトの Docker 設定の場所で見つからない場合、oc コマンドは Podman 設定の場所から認証情報を取得します。場所の優先順位付けのために REGISTRY_AUTH_PREFERENCE 環境変数を使用して docker または podman のいずれかの設定を設定できます。

また、ユーザーは REGISTRY_AUTH_FILE 環境変数を使用するオプションもあります。これは、既存の --registry-config CLI フラグの代わりに機能します。REGISTRY_AUTH_FILE 環境変数も podman と互換性があります。

1.3.25.4. Google Cloud Platform Workload Identity のサポート

Cloud Credential Operator (CCO) ユーティリティー ccoctl を使用して、Google Cloud Platform Workload Identity を使用するように CCO を設定できるようになりました。CCO が GCP Workload Identity を使用するように設定されている場合、クラスター内のコンポーネントは、短期的で制限付き権限のセキュリティー認証情報を使用して IAM サービスアカウントになりすますことができます。

詳細は、Using manual mode with GCP Workload Identity を参照してください。

注記

OpenShift Container Platform 4.10.8 では、イメージレジストリーへの悪影響が発見されたため、GCP ワークロード ID を使用するためのイメージレジストリーサポートが削除されました。ワークロード ID を使用する OpenShift Container Platform 4.10.8 クラスターでイメージレジストリーを使用するには、代わりに長期間有効なクレデンシャルを使用するようにイメージレジストリーを設定する必要があります。

OpenShift Container Platform 4.10.21 では、イメージレジストリーで GCP Workload Identity を使用するためのサポートが復活しました。OpenShift Container Platform 4.10.8 から 4.10.20 までのこの機能のステータスに関する詳細は、関連する ナレッジベースの記事 を参照してください。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.