検索

サービスとしての負荷分散の設定

download PDF
Red Hat OpenStack Platform 17.1

負荷分散サービス (octavia) を使用したデータプレーン全体のネットワークトラフィックの管理

OpenStack Documentation Team

概要

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) をインストール、設定、操作、トラブルシューティング、およびアップグレードします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、用語の置き換えは、今後の複数のリリースにわたって段階的に実施されます。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。

Red Hat ドキュメントへのフィードバック (英語のみ)

Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。

Jira でドキュメントのフィードバックを提供する

ドキュメントに関するフィードバックを提供するには、Create Issue フォームを使用します。Red Hat OpenStack Platform Jira プロジェクトで Jira Issue が作成され、フィードバックの進行状況を追跡できます。

  1. Jira にログインしていることを確認してください。Jira アカウントをお持ちでない場合は、アカウントを作成してフィードバックを送信してください。
  2. Create Issue をクリックして、Create Issue ページを開きます。
  3. Summary フィールドと Description フィールドに入力します。Description フィールドに、ドキュメントの URL、章またはセクション番号、および問題の詳しい説明を入力します。フォーム内の他のフィールドは変更しないでください。
  4. Create をクリックします。

第1章 Load-balancing サービスの概要

Load-balancing サービス (octavia) は、Red Hat OpenStack Platform (RHOSP) のデプロイメントに対して、Load Balancing-as-a-Service (LBaaS) API バージョン 2 の実装を提供します。Load-balancing サービスは、複数の仮想マシン、コンテナー、またはベアメタルサーバーを管理します。amphora と総称して、オンデマンドで起動します。オンデマンドの水平スケーリングを提供する機能により、Load-balancing サービスは RHOSP の大規模なエンタープライズデプロイメントに適した完全機能のロードバランサーになります。

注記

Red Hat は、Neutron-LBaaS から Load-balancing サービスへの移行パスをサポートしません。サポート対象外のオープンソースツールを使用できます。たとえば、GitHub で nlbaas2octavia-lb-replicator を検索します。

1.1. Load-balancing サービスのコンポーネント

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) は、コンピュートノード上で実行される amphora と呼ばれる仮想マシンインスタンスのセットを使用します。Load-balancing サービスコントローラーは、負荷分散管理ネットワーク (lb-mgmt-net) を使用して amphora と通信します。

octavia を使用する場合は、フローティング IP (FIP) を必要としないロードバランサー仮想 IP (VIP) を作成できます。FIP を使用しないことには、ロードバランサーによってパフォーマンスが向上するという利点があります。

図1.1 Load-balancing サービスのコンポーネント

Load-balancing サービスのコンポーネント

図 1.1 Load-balancing サービスのコンポーネントは、Networking API サーバーと同じノード上でホストされます。デフォルトでは、コントローラーノード上にあります。Load-balancing サービスは、以下のコンポーネントで構成されます。

octavia API (octavia_api コンテナー)
ユーザーが octavia と対話するための REST API を提供します。
コントローラーワーカー (octavia_worker コンテナー)
負荷分散管理ネットワークを通じて、設定および設定の更新を amphora に送信します。
ヘルスマネージャー (octavia_health_manager コンテナー)
個々の amphora の正常性をモニターし、amphora に障害が発生した場合にフェイルオーバーイベントを処理します。
ハウスキーピングマネージャー (octavia_housekeeping コンテナー)
削除したデータベースレコードをクリーンアップし、amphora 証明書のローテーションを管理します。
ドライバーエージェント (octavia_driver_agent コンテナー)
OVN などの他のプロバイダードライバーをサポートします。
Amphora
負荷分散を実行します。amphora は、通常コンピュートノード上で実行されるインスタンスで、リスナー、プール、ヘルスモニター、L7 ポリシー、メンバーの設定に応じた負荷分散パラメーターにより設定されます。amphora はヘルスマネージャーに定期的なハートビートを送信します。

1.2. Load-balancing サービスのオブジェクトモデル

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) は、通常の負荷分散オブジェクトモデルを使用します。

図1.2 Load-balancing サービスオブジェクトモデルダイアグラム

Load-balancing サービスオブジェクトモデルダイアグラム
ロードバランサー
負荷分散エンティティーを表す最上位の API オブジェクト。仮想 IP アドレスは、ロードバランサーの作成時に割り当てられます。amphora プロバイダーを使用してロードバランサー 1 つまたは複数の amphora インスタンスを作成する場合には、1 つまたは複数のコンピュートノードで起動します。
リスナー
ロードバランサーがリッスンするポート (HTTP の場合は TCP ポート 80 など)。
ヘルスモニター
各バックエンドメンバーサーバーで定期的なヘルスチェックを実行して失敗したサーバーを事前に検出し、プールから一時的に削除します。
プール
ロードバランサーからのクライアント要求を処理するメンバーのグループ。API を使用してプールを複数のリスナーに関連付けることができます。L7 ポリシーでプールを共有することができます。
メンバー
では、バックエンドインスタンスまたはサービスに接続する方法を説明します。この説明は、バックエンドメンバーが利用できる IP アドレスとネットワークポートで構成されます。
L7 ルール
L7 ポリシーが接続に適用されるかどうかを判断するレイヤー 7(L7) 条件を定義します。
L7 ポリシー
リスナーに関連付けられた L7 ルールのコレクション。バックエンドプールに関連付けることもできます。ポリシーは、ポリシー内のすべてのルールが true の場合、ロードバランサーが実行するアクションを記述します。

1.3. Red Hat OpenStack Platform での負荷分散の使用

負荷分散は、クラウドデプロイメントにおけるシンプルまたは自動配信のスケーリングおよび可用性を可能にする上で不可欠です。Load-balancing サービス (octavia) は、他の Red Hat OpenStack Platform (RHOSP) サービスに依存します。

  • Compute サービス (nova): Load-balancing サービスの仮想マシンインスタンス (amphora) のライフサイクルを管理し、オンデマンドでコンピュートリソースを作成します。
  • Networking サービス (neutron):amphora、テナント環境、および外部ネットワークとの間のネットワーク接続用。
  • Key Manager サービス (barbican): TLS セッションの終了がリスナーに設定されている場合に、TLS 証明書および認証情報を管理します。
  • Identity サービス (keystone): octavia API への認証要求、および Load-balancing サービスが他の RHOSP サービスに対して認証を行う場合。
  • Image サービス (glance): amphora 仮想マシンイメージを保存します。
  • Common Libraries (oslo): Load-balancing サービスコントローラーコンポーネント間の通信、標準の OpenStack フレームワーク内で機能する Load-balancing サービス、およびプロジェクトコード構造の確認を行います。
  • Taskflow: 共通ライブラリーの一部で、Load-balancing サービスは、バックエンドサービスの設定および管理のオーケストレーション時にこのジョブフローシステムを使用します。

Load-balancing サービスは、ドライバーインターフェイスを介して他の RHOSP サービスと対話します。このドライバーインターフェイスは、外部コンポーネントが機能的に同等のサービスに置き換える必要がある場合に、Load-balancing サービスを大幅に再構築しないようにします。

第2章 Load-balancing サービスの実装に関する考慮事項

使用するプロバイダーを選択する、または高可用性環境を実装するかどうかなど、Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) をデプロイする予定の場合には、いくつかの決定を行う必要があります。

2.1. Load-balancing サービスプロバイダードライバー

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) では、Octavia v2 API を使用して複数のプロバイダードライバーを有効にすることができます。1 つのプロバイダードライバーを使用するか、複数のプロバイダードライバーを同時に使用するかを選択することができます。

RHOSP では、amphora と Open Virtual Network (OVN) という 2 つの負荷分散プロバイダーを利用することができます。

デフォルトの amphora は、コンピュート環境でスケーリングする機能セットを備えた高可用性ロードバランサーです。このため、amphora は大規模なデプロイメントに適しています。

OVN 負荷分散プロバイダーは、基本的な機能セットを持つ軽量ロードバランサーです。OVN は、通常、east-west のレイヤー 4 ネットワークトラフィック用です。OVN は迅速にプロビジョニングを行い、amphora 等のフル機能の負荷分散プロバイダーよりも少ないリソースを消費します。

OVN メカニズムドライバー (ML2/OVN) と共に neutron Modular Layer 2 プラグインを使用する RHOSP デプロイメントでは、RHOSP director は追加のインストールや設定なしに Load-balancing サービスの OVN プロバイダードライバーを自動的に有効にします。

重要

このセクションの情報は、特に特に記載がない限り、amphora の負荷分散プロバイダーにのみ適用されます。

2.2. Load-balancing サービス (octavia) 機能のサポートマトリックス

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) では、amphora と Open Virtual Network (OVN) という 2 つの負荷分散プロバイダーを利用することができます。

Amphora はフル機能の負荷分散プロバイダーで、別個の haproxy 仮想マシンと追加のレイテンシーホップが必要になります。

OVN はすべてのノードで実行され、別の仮想マシンや追加のホップは必要ありません。ただし、OVN では、amphora よりも負荷分散機能がはるかに少なくなります。

以下の表には、Red Hat OpenStack Platform (RHOSP) 17.1 がサポートする Load-balancing サービスの機能と、機能が開始されたメンテナンスリリースのサポートをまとめています。

注記

この機能が一覧にない場合、RHOSP 17.1 はこの機能をサポートしません。

表2.1 Load-balancing サービス (octavia) 機能のサポートマトリックス

機能

RHOSP 17.1 のサポートレベル

amphora プロバイダー

OVN プロバイダー

ML2/OVS L3 HA

フルサポート

サポートなし

ML2/OVS DVR

フルサポート

サポートなし

ML2/OVS L3 HA とコンポーザブルネットワークノードの組み合わせ [1]

フルサポート

サポートなし

ML2/OVS DVR とコンポーザブルネットワークノードの組み合わせ [1]

フルサポート

サポートなし

ML2/OVN L3 HA

フルサポート

フルサポート

ML2/OVN DVR

フルサポート

フルサポート

DPDK

サポートなし

サポートなし

SR-IOV

サポートなし

サポートなし

ヘルスモニター

フルサポート

サポートなし

amphora アクティブ/スタンバイ

フルサポート

サポートなし

HTTPS 終端ロードバランサー (barbican を使用)

フルサポート

サポートなし

amphora 予備プール

テクノロジープレビューとしてのみ提供

サポートなし

UDP

フルサポート

フルサポート

バックアップメンバー

テクノロジープレビューとしてのみ提供

サポートなし

プロバイダーフレームワーク

テクノロジープレビューとしてのみ提供

サポートなし

TLS クライアント認証

テクノロジープレビューとしてのみ提供

サポートなし

TLS バックエンド暗号化

テクノロジープレビューとしてのみ提供

サポートなし

octavia フレーバー

フルサポート

サポートなし

オブジェクトタグ

フルサポート

サポートなし

リスナー API タイムアウト

フルサポート

サポートなし

ログのオフロード

フルサポート

サポートなし

仮想 IP アクセス制御リスト

フルサポート

サポートなし

アベイラビリティーゾーン

フルサポート

サポートなし

ボリュームベースの amphora

サポートなし

サポートなし

[1] ネットワークノードと OVS、メタデータ、DHCP、L3、および octavia (ワーカー、ヘルスモニター、およびハウスキーピング) の組み合わせ

2.3. Load-balancing サービスのソフトウェア要件

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) には、以下の OpenStack コアコンポーネントの設定が必要です。

  • Compute (nova)
  • OpenStack Networking (neutron)
  • Image (glance)
  • Identity (keystone)
  • RabbitMQ
  • MySQL

2.4. アンダークラウドでの Load-balancing サービスの前提条件

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) には、RHOSP アンダークラウドに対する以下の要件があります。

  • アンダークラウドの正常なインストール。
  • アンダークラウドに存在する Load-balancing サービス
  • コンテナーベースのオーバークラウドデプロイメントプラン
  • コントローラーノードに設定された負荷分散サービスコンポーネント。
重要

既存のオーバークラウドデプロイメントで Load-balancing サービスを有効にする場合には、アンダークラウドを準備する必要があります。準備を行わないと、Load-balancing サービスが動作していない状態でオーバークラウドのインストールは成功と報告されます。

2.5. Load-balancing サービスインスタンスのアクティブ/スタンバイトポロジーの基本

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) をデプロイする場合には、ユーザーがロードバランサーを作成する際に、デフォルトで高可用性であるかどうかを決定することができます。ユーザーに選択肢を与えたい場合は、RHOSP のデプロイメント後に、高可用性ロードバランサーを作成するための Load-balancing サービスフレーバー、およびスタンドアロンロードバランサーを作成するためのフレーバーを作成します。

デフォルトでは、amphora プロバイダードライバーは単一の Load-balancing サービス (amphora) インスタンストポロジーに対して設定され、高可用性 (HA) のサポートは限定的です。ただし、アクティブ/スタンバイのトポロジーを実装すると、Load-balancing サービスインスタンスを高可用性の設定にすることが可能です。

このトポロジーでは、Load-balancing サービスは各ロードバランサーに対してアクティブおよびスタンバイ状態のインスタンスを起動し、ロードバランサー間でセッションの永続性を維持します。アクティブなインスタンスが正常でなくなると、インスタンスは自動的にスタンバイ状態のインスタンスにフェイルオーバーし、アクティブにします。Load-balancing サービスヘルスマネージャーは、障害が発生したインスタンスを自動的に再構築します。

2.6. Load-balancing サービスデプロイメント後の操作

Red Hat OpenStack Platform (RHOSP) は、Load-balancing サービス (octavia) のデプロイ後のステップを簡素化するためのワークフロータスクを提供しています。このワークフローは、Ansible Playbook のセットを実行して、オーバークラウドのデプロイの最終段階として、以下のデプロイ後のステップを提供します。

  • 証明書と鍵を設定する。
  • amphora および Load-balancing サービスコントローラーワーカーおよびヘルスマネージャーの間の負荷分散管理ネットワークを設定します。

amphora イメージ

事前にプロビジョニングされたサーバーでは、Load-balancing サービスをデプロイする前に、アンダークラウドに amphora イメージをインストールする必要があります。

$ sudo dnf install octavia-amphora-image-x86_64.noarch

事前にプロビジョニングされていないサーバーでは、RHOSP director はデフォルトの amphora イメージを自動的にダウンロードして、オーバークラウドの Image サービス (glance) にアップロードし、Load-balancing サービスがその amphora イメージを使用するように設定します。スタックの更新またはアップグレード中に、director はこのイメージを最新の amphora イメージに更新します。

注記

カスタムの amphora イメージはサポートされていません。

第3章 Load-balancing サービスのセキュリティー保護

Red Hat OpenStack Load-balancing サービス (octavia) のさまざまなコンポーネント間の通信を保護するには、TLS 暗号化プロトコルと公開鍵暗号を使用します。

3.1. Load-balancing サービスにおける双方向 TLS 認証

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) のコントローラープロセスは、TLS 接続を介して Load-balancing サービスインスタンス (amphorae) と通信します。Load-balancing サービスは、双方向 TLS 認証を使用して、両側が信頼されていることを検証します。

注記

これは、TLS ハンドシェイクの完全なプロセスを単純化します。TLS ハンドシェイクプロセスの詳細は、TLS 1.3 RFC 8446 を参照してください。

双方向 TLS 認証には、2 つのフェーズがあります。フェーズ 1 では、Load-balancing サービスのワーカープロセスなどの Controller プロセスが Load-balancing サービスインスタンスに接続し、インスタンスがそのサーバー証明書を Controller に提示します。次に、Controller は Controller に保存されているサーバー認証局 (CA) 証明書に対して検証します。提示された証明書がサーバー CA 証明書に対して検証されている場合は、接続はフェーズ 2 に進みます。

フェーズ 2 では、Controller はクライアント証明書を Load-balancing サービスインスタンスに提示します。次に、インスタンスはインスタンス内に保存されているクライアント CA 証明書に対して証明書を検証します。この証明書が正常に検証されると、残りの TLS ハンドシェイクは、Controller と Load-balancing サービスインスタンス間にセキュアな通信チャネルを確立します。

3.2. Load-balancing サービスの証明書ライフサイクル

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) コントローラーは、サーバーの認証局の証明書およびキーを使用して、それぞれの Load-balancing サービスインスタンス (amphora) の証明書を一意に生成します。

Load-balancing サービスハウスキーピングコントローラープロセスは、これらのサーバー証明書の有効期限が近づくと証明書を自動的にローテーションします。

Load-balancing サービスコントローラープロセスは、クライアント証明書を使用します。これらの TLS 証明書を管理する人の運用者は、証明書がクラウドコントロールプレーンで使用されるため、通常、長い有効期限を付与します。

3.3. Load-balancing サービスの証明書および鍵の設定

Red Hat OpenStack Platform (RHOSP) director を設定して証明書およびキーを生成するか、独自の証明書を指定することができます。必要なプライベート認証局を自動的に作成し、必要な証明書を発行するように director を設定します。これらの証明書は Load-balancing サービス (octavia) の内部通信専用で、ユーザーに公開されません。

重要

RHOSP director は証明書およびキーを生成し、有効期限が切れる前にそれらを自動的に更新します。独自の証明書を使用する場合は、証明書を更新することを覚えている必要があります。

注記

手動で生成された証明書から自動生成された証明書への切り替えは、RHOSP director ではサポートされません。ただし、Controller ノード上の既存の証明書 (/var/lib/config-data/puppet-generated/octavia/etc/octavia/certs ディレクトリー内) を削除して、オーバークラウドを更新することで、証明書を強制的に再作成することができます。

独自の証明書および鍵を使用する必要がある場合は、以下の手順を実行します。

前提条件

  • 「Load-balancing サービスのデフォルト設定の変更」を読んで理解している (関連情報のリンクを参照してください)。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. YAML カスタム環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml

  4. YAML 環境ファイルに以下のパラメーターを追加し、ご自分のサイトに適した値を設定します。

    • OctaviaCaCert:

      Octavia が証明書を生成するために使用する CA の証明書。

    • OctaviaCaKey:

      生成された証明書の署名に使用するプライベート CA 鍵

    • OctaviaCaKeyPassphrase:

      上記のプライベート CA 鍵で使用するパスフレーズ

    • OctaviaClientCert:

      コントローラー用に octavia CA が発行するクライアント証明書および暗号化されていない鍵

    • OctaviaGenerateCerts:

      証明書および鍵の自動生成の有効 (true) または無効 (false) を director に指示するブール値

      重要

      OctaviaGenerateCerts を false に設定する必要があります。

      parameter_defaults:
          OctaviaCaCert: |
            -----BEGIN CERTIFICATE-----
            MIIDgzCCAmugAwIBAgIJAKk46qw6ncJaMA0GCSqGSIb3DQEBCwUAMFgxCzAJBgNV
            [snip]
            sFW3S2roS4X0Af/kSSD8mlBBTFTCMBAj6rtLBKLaQbIxEpIzrgvp
            -----END CERTIFICATE-----
      
          OctaviaCaKey: |
            -----BEGIN RSA PRIVATE KEY-----
            Proc-Type: 4,ENCRYPTED
            [snip]
            -----END RSA PRIVATE KEY-----[
      
          OctaviaClientCert: |
            -----BEGIN CERTIFICATE-----
            MIIDmjCCAoKgAwIBAgIBATANBgkqhkiG9w0BAQsFADBcMQswCQYDVQQGEwJVUzEP
            [snip]
            270l5ILSnfejLxDH+vI=
            -----END CERTIFICATE-----
            -----BEGIN PRIVATE KEY-----
            MIIEvgIBADANBgkqhkiG9w0BAQEFAASCBKgwggSkAgEAAoIBAQDU771O8MTQV8RY
            [snip]
            KfrjE3UqTF+ZaaIQaz3yayXW
            -----END PRIVATE KEY-----
      
          OctaviaCaKeyPassphrase:
            b28c519a-5880-4e5e-89bf-c042fc75225d
      
          OctaviaGenerateCerts: false
          [rest of file snipped]

  5. コア heat テンプレート、環境ファイル、およびこの新しいカスタム環境ファイルを指定して、openstack overcloud deploy コマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

関連情報

第4章 Load-balancing サービスのインストールおよび設定

RHOSP director を使用して Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) をデプロイする場合、その仮想マシンインスタンス (amphora) を高可用性にすることができます。また、Load-balancing サービスの設定変更を行う場合には、director も使用します。

4.1. Load-balancing サービスのデプロイ

Red Hat OpenStack Platform (RHOSP) director を使用して、Load-balancing サービス (octavia) をデプロイします。director は、環境のプランのセットである Orchestration サービス (heat) テンプレートを使用します。アンダークラウドはこれらのプランをインポートし、Load-balancing サービスおよび RHOSP 環境を作成する手順に従います。

前提条件

  • お使いの環境が octavia のイメージにアクセスできるようにしている。

手順

  • コア heat テンプレート、環境ファイル、および octavia.yaml heat テンプレートを指定してデプロイメントコマンドを実行します。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml

    注記

    director は、スタックの更新またはアップグレード中に amphora を最新の amphora イメージに更新します。

関連情報

4.2. Load-balancing サービスインスタンスでのアクティブ/スタンバイトポロジーの有効化

Red Hat OpenStack Platform (RHOSP) director を使用してアクティブ/スタンバイトポロジーを実装すると、Load-balancing サービスインスタンス (amphorae) を高可用性にすることができます。director は、環境のプランのセットである Orchestration サービス (heat) テンプレートを使用します。アンダークラウドはこれらのプランをインポートし、Load-balancing サービスおよび RHOSP 環境を作成する手順に従います。

前提条件

  • Compute サービスに対して非アフィニティーが有効であることを確認します。これはデフォルトになります。
  • 最小 3 台のコンピュートノードホスト:

    • 異なるホストに amphora を配置する 2 台のコンピュートノードホスト (Compute の非アフィニティー)。
    • 問題が発生した場合に、アクティブスタンバイロードバランサーを正常にフェイルオーバーする 3 番目のホスト。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. カスタム YAML 環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml

  4. カスタム環境ファイルに、以下のパラメーターを追加します。

    parameter_defaults:
        OctaviaLoadBalancerTopology: "ACTIVE_STANDBY"
  5. コア heat テンプレート、環境ファイル、およびこの新しいカスタム環境ファイルを指定して、deployment コマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

検証

  • デプロイメントが完了してロードバランサーを作成したら、以下のコマンドを実行します。

    $ source overcloudrc
    $ openstack loadbalancer amphora list

    Load-balancing サービスインスタンスの高可用性設定に成功すると、2 つのインスタンス (amphora) に関する出力が表示され、roleSINGLE は表示されなくなります。

関連情報

4.3. Load-balancing サービスのデフォルト設定の変更

Red Hat OpenStack Platform (RHOSP) director を使用して、Load-balancing サービス (octavia) に設定変更を行います。director は、環境のプランのセットである Orchestration サービス (heat) テンプレートを使用します。アンダークラウドはこれらのプランをインポートし、Load-balancing サービスおよび RHOSP 環境を作成する手順に従います。

前提条件

  • アンダークラウドで以下のファイルを参照して、director が Load-balancing サービスをデプロイするのにすでに使用している RHOSP Orchestration サービス (heat) パラメーターを決定します。
/usr/share/openstack-tripleo-heat-templates/deployment/octavia/octavia-deployment-config.j2.yaml
  • 変更するパラメーターを決定します。

    以下にいくつか例を示します。

    • OctaviaControlNetwork

      負荷分散管理ネットワークに使用される neutron ネットワークの名前

    • OctaviaControlSubnetCidr

      amphora 管理サブネット用のサブネット (CIDR 形式)

      このパラメーターを使用して、amphora 制御サブネットを IPv6 CIDR として指定できます。OctaviaControlSubnetCidr で IPv6 CIDR を使用するには、OctaviaControlSubnetPoolStartOctaviaControlSubnetPoolEnd でも IPv6 アドレスを設定する必要があります。

      重要

      負荷分散管理ネットワークに IPv6 CIDR を使用するこの機能は、このリリースでは テクノロジープレビュー として利用可能であるため、Red Hat では完全にはサポートされていません。これは、テスト用途にのみご利用いただく機能です。実稼働環境にはデプロイしないでください。

      テクノロジープレビュー機能の詳細は、対象範囲の詳細 を参照してください。

      重要

      amphora 制御サブネットの CIDR を設定した後は、これらの値を変更することはできません。これは、IPv4 サブネットから IPv6 サブネットにアップグレードできないことも意味します。

    • OctaviaMgmtPortDevName

      octavia ワーカー/ヘルスマネージャーと amphora マシン間の通信に使用される octavia 管理ネットワークインターフェイスの名前

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. カスタム YAML 環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml

  4. ご自分の環境ファイルには、parameter_defaults というキーワードを含める必要があります。parameter_defaults のキーワードの後に、ご自分のパラメーター/値ペアを定義します。

    parameter_defaults:
        OctaviaMgmtPortDevName: "o-hm0"
        OctaviaControlNetwork: 'lb-mgmt-net'
        OctaviaControlSubnet: 'lb-mgmt-subnet'
        OctaviaControlSecurityGroup: 'lb-mgmt-sec-group'
        OctaviaControlSubnetCidr: '172.24.0.0/16'
        OctaviaControlSubnetGateway: '172.24.0.1'
        OctaviaControlSubnetPoolStart: '172.24.0.2'
        OctaviaControlSubnetPoolEnd: '172.24.255.254'

  5. コア heat テンプレート、環境ファイル、およびこの新しいカスタム環境ファイルを指定して、deployment コマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

関連情報

第5章 Load-balancing サービスインスタンスのログの管理

テナントフローのロギングを有効にするか、amphora ローカルファイルシステムへのログインを抑制することができます。また、コンテナーのセットの syslog レシーバーに管理またはテナントフローログを転送したり、選択したエンドポイントで他の syslog レシーバーに転送することもできます。

TCP syslog プロトコルの使用を選択した場合は、プライマリーエンドポイントに障害が発生した場合に備えて、管理ログとテナントログのオフロード用に 1 つ以上のセカンダリーエンドポイントを指定できます。

さらに、syslog ファシリティー値を設定する、テナントフローログのフォーマットを変更する、カーネル等のソースや cron からのログを含めるように管理ログの範囲を拡張する、等のさまざまなロギング機能を制御できます。

5.1. Load-balancing サービスインスタンスの管理ログのオフロードの有効化

デフォルトでは、Load-balancing サービスインスタンス (amphora) は、ローカルマシンの systemd ジャーナルにログを保存します。ただし、amphora がログを syslog レシーバーにオフロードするように指定して、管理ログを集約することができます。ログのオフロードにより、管理者はログを 1 カ所で管理し、amphora のローテーション後もログを維持することができます。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. カスタム YAML 環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml

  4. YAML 環境ファイルの parameter_defaults セクションで、OctaviaLogOffloadtrue に設定します。

    parameter_defaults:
        OctaviaLogOffload: true
        ...
    注記

    OctaviaAdminLogFacility パラメーターで別の値を指定しない限り、デフォルトでは、amphora は syslog ファシリティーの値に local1 を使用して管理ログをオフロードします。有効な値は、0 〜 7 です。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaAdminLogFacility: 2
        ...

  5. amphora は、haproxy 管理ログ、keepalived、amphora エージェントログなどのロードバランサー関連の管理ログのみを転送します。カーネル、システム、およびセキュリティーログ等の amphora からのすべての管理ログを送信するように amphora を設定する場合には、OctaviaForwardAllLogstrue に設定します。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaForwardAllLogs: true
        ...

  6. ログプロトコルを選択: UDP (デフォルト) または TCP。

    プライマリーエンドポイントに障害が発生した場合、amphorae はログプロトコルが TCP の場合にのみログをセカンダリーエンドポイントに送信します。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaConnectionLogging: false
        OctaviaLogOffloadProtocol: tcp
        ...
  7. amphora は、ログメッセージをリッスンする syslog レシーバーが含まれる、Orchestration サービス (heat) で定義されたデフォルトコンテナーのセットを使用します。異なるエンドポイントのセットを使用する場合は、OctaviaAdminLogTargets パラメーターでそれらを指定することができます。

    テナントフローログオフロード用に設定されたエンドポイントは、管理ログオフロードに使用されるエンドポイントと同じにすることができます。

    また、ログオフロードプロトコルが TCP の場合、最初のエンドポイントに到達できない際、amphorae は接続が成功するまで、リストされた順序で追加のエンドポイントを試行します。

    OctaviaAdminLogTargets: <ip_address>:<port>[, <ip_address>:<port>]

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaLogOffloadProtocol: tcp
        OctaviaAdminLogTargets: 192.0.2.1:10514, 2001:db8:1::10:10514
        ...

  8. デフォルトでは、ログオフロードを有効にすると、テナントフローログもオフロードされます。

    テナントフローログのオフロードを無効にする場合は、OctaviaConnectionLoggingfalse に設定します。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaConnectionLogging: false
        ...

  9. コア heat テンプレート、環境ファイル、およびこの新しいカスタム環境ファイルを指定して、deployment コマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e [your-environment-files] \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

検証

  • OctaviaAdminLogTargets または OctaviaTenantLogTargets で特定のエンドポイントを指定しない限り、amphora は RHOSP コントローラー内の他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にログをオフロードします。
  • 適切な場所を確認して、以下のログファイルが存在することを確認します。

    • octavia-amphora.log: 管理ログのログファイル
    • (有効な場合) octavia-tenant-traffic.log: テナントトラフィックフローログのログファイル

関連情報

5.2. Load-balancing サービスインスタンスのテナントフローログのオフロードの有効化

デフォルトでは、Load-balancing サービスインスタンス (amphora) は、ローカルマシンの systemd ジャーナルにログを保存します。ただし、代わりに代替の syslog レシーバエンドポイントを指定できます。テナントフローログのサイズはテナント接続の数に応じて増加するため、代替 syslog レシーバに十分なディスク領域があることを確認してください。

デフォルトでは、管理ログオフロードが有効になると、テナントフローログオフロードが自動的に有効になります。テナントフローログのオフロードをオフにするには、OctaviaConnectionLogging パラメーターを false に設定します。

重要

テナントフローロギングは、ロードバランサーが受信する接続の数によって、多数の syslog メッセージを生成する場合があります。テナントフローロギングは、ロードバランサーへの接続ごとに 1 つのログエントリーを生成します。ログボリュームを監視し、ロードバランサーが管理する接続の数に基づいて syslog レシーバーを適切に設定します。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. OctaviaConnectionLogging パラメーターが設定されている環境ファイルを見つけます。

    $ grep -rl OctaviaConnectionLogging /home/stack/templates/
  4. ファイルが見つからない場合は、環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml
  5. OctaviaLogOffload パラメーターおよび OctaviaConnectionLogging パラメーターを環境ファイルの parameter_defaults セクションに追加し、値を true に設定します。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaConnectionLogging: true
        ...
    注記

    amphora は、OctaviaTenantLogFacility パラメーターを使用して別の値を指定しない限り、テナントフローログをオフロードするために local0 の syslog ファシリティーのデフォルト値を使用します。有効な値は、0 〜 7 です。

  6. オプション: amphorae がテナントと管理ログのオフロードの両方に使用するデフォルトのエンドポイントを変更するには、OctaviaTenantLogTargetsOctaviaAdminLogTargets をそれぞれ使用します。amphora は、ログメッセージをリッスンする syslog レシーバーを含むデフォルトコンテナーのセットを使用します。

    また、ログオフロードプロトコルが TCP の場合、最初のエンドポイントに到達できない際、amphorae は接続が成功するまで、リストされた順序で追加のエンドポイントを試行します。

    OctaviaAdminLogTargets: <ip-address>:<port>[, <ip-address>:<port>]
    OctaviaTenantLogTargets: <ip-address>:<port>[, <ip-address>:<port>]
  7. コア heat テンプレート、環境ファイル、修正したカスタム環境ファイルを指定してデプロイメントコマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

検証

  • OctaviaAdminLogTargets または OctaviaTenantLogTargets で特定のエンドポイントを指定しない限り、amphora は RHOSP コントローラー内の他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にログをオフロードします。
  • 適切な場所を確認して、以下のログファイルが存在することを確認します。

    • octavia-amphora.log: 管理ログのログファイル
    • octavia-tenant-traffic.log: テナントトラフィックフローログのログファイル

関連情報

5.3. Load-balancing サービスインスタンスのテナントフローのロギングの無効化

管理ログのオフロードを有効にすると、Load-balancing サービスインスタンス (amphorae) のテナントフローログのオフロードは自動的に有効になります。

管理ログのオフロードを有効にし、テナントフローのロギングを無効にするには、OctaviaConnectionLogging パラメーターを false に設定する必要があります。

OctaviaConnectionLogging パラメーターが false の場合、amphora は amphora 内のディスクにテナントフローログを書き込みせず、別の場所でリッスンする syslog レシーバーにログをオフロードします。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. amphora ロギングが設定されている YAML カスタム環境ファイルを見つけます。

    $ grep -rl OctaviaLogOffload /home/stack/templates/

  4. カスタム環境ファイルの parameter_defaults セクションで、OctaviaConnectionLoggingfalse に設定します。

    parameter_defaults:
        OctaviaLogOffload: true
        OctaviaConnectionLogging: false
        ...

  5. コア heat テンプレート、環境ファイル、および OctaviaConnectionLoggingtrue に設定するカスタム環境ファイルを指定してデプロイメントコマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e [your-environment-files] \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

検証

  • OctaviaAdminLogTargets または OctaviaTenantLogTargets で特定のエンドポイントを指定しない限り、amphora は RHOSP コントローラー内の他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にログをオフロードします。
  • 適切な場所を確認して、octavia-tenant-traffic.log存在しない ことを確認します。

関連情報

5.4. Load-balancing サービスインスタンスのローカルログストレージの無効化

管理者およびテナントフローログをオフロードするように Load-balancing サービスインスタンス (amphorae) を設定している場合でも、amphora は引き続きこれらのログを amphora 内のディスクに書き込みます。ロードバランサーのパフォーマンスを向上させるために、ローカルでロギングを停止することができます。

重要

ロギングをローカルで無効にする場合には、カーネル、システム、セキュリティーロギングなど、amphora のすべてのログストレージも無効にしてください。

注記

ローカルログストレージを無効にし、OctaviaLogOffload パラメーターが false に設定されている場合、負荷分散のパフォーマンスを強化するために OctaviaConnectionLogging を false に設定するようにしてください。

手順

  1. アンダークラウドホストに stack ユーザーとしてログインします。
  2. source コマンドでアンダークラウドの認証情報ファイルを読み込みます。

    $ source ~/stackrc
  3. カスタム YAML 環境ファイルを作成します。

    $ vi /home/stack/templates/my-octavia-environment.yaml

  4. parameter_defaults の下にある環境ファイルで、OctaviaDisableLocalLogStoragetrue に設定します。

    parameter_defaults:
        OctaviaDisableLocalLogStorage: true
        ...
  5. コア heat テンプレート、環境ファイル、およびこの新しいカスタム環境ファイルを指定して、deployment コマンドを実行します。

    重要

    後で実行される環境ファイルで定義されているパラメーターとリソースが優先されることになるため、環境ファイルの順序は重要となります。

    $ openstack overcloud deploy --templates \
    -e <your_environment_files> \
    -e /usr/share/openstack-tripleo-heat-templates/environments/services/octavia.yaml \
    -e /home/stack/templates/my-octavia-environment.yaml

検証

  • amphora インスタンスで、ログファイルが書き込まれる場所を確認し、新しいログファイルが書き込まれていないことを確認します。

関連情報

5.5. Load-balancing サービスインスタンスのロギング用 heat パラメーター

Load-balancing サービスインスタンス (amphora) のロギングを設定する場合は、ロギングを制御する 1 つまたは複数の Orchestration サービス (heat) パラメーターに値を設定し、openstack overcloud deploy コマンドを実行します。

amphora ロギング用の heat パラメーターにより、ログオフロードの有効化、ログをオフロードするカスタムエンドポイントの定義、ログの syslog ファシリティー値の設定などの機能を制御できます。

表5.1 すべてのログの heat パラメーター
パラメーターデフォルト説明

OctaviaLogOffload

false

true の場合、インスタンスはログをオフロードします。エンドポイントが指定されていない場合、デフォルトでは、インスタンスはそのログを他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にオフロードします。

OctaviaDisableLocalLogStorage

false

true の場合、インスタンスはインスタンスのホストのファイルシステムにログを格納しません。これには、すべてのカーネル、システム、およびセキュリティーログが含まれます。

OctaviaForwardAllLogs

false

true の場合、インスタンスはすべてのログメッセージを管理ログのエンドポイントに転送します。これには、cron やカーネルログなどの負荷分散に関連しないログも含まれます。

インスタンスが OctaviaForwardAllLogs を認識するには、OctaviaLogOffload も有効にする必要があります。

表5.2 管理ロギング用の heat パラメーター
パラメーターデフォルト説明

OctaviaAdminLogTargets

値なし。

管理ログメッセージを受信する syslog エンドポイントのコンマ区切りリスト (<host>:<port>)

これらのエンドポイントは、指定されたポートでログメッセージをリッスンするプロセスを実行しているコンテナー、仮想マシン、または物理ホストになります。

OctaviaAdminLogTargets が存在しない場合、インスタンスは RHOSP director で定義されたコンテナーセットの他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にログをオフロードします。

OctaviaAdminLogFacility

1

管理ログメッセージに使用する syslog "LOG_LOCAL" ファシリティーである 0 から 7 の間の数字

表5.3 テナントフローロギング用の heat パラメーター
パラメーターデフォルト説明

OctaviaConnectionLogging

true

true の場合、テナント接続フローがログに記録されます。

OctaviaConnectionLogging が false の場合、amphora は OctaviaLogOffload 設定に関係なく、テナントの接続を停止します。OctaviaConnectionLogging はローカルのテナントフローログのストレージを無効にし、ログのオフロードが有効な場合、テナントフローログを転送しません。

OctaviaTenantLogTargets

値なし。

テナントトラフィックフローログメッセージを受信する syslog エンドポイントのコンマ区切りリスト (<host>:<port>)

これらのエンドポイントは、指定されたポートでログメッセージをリッスンするプロセスを実行しているコンテナー、仮想マシン、または物理ホストになります。

OctaviaTenantLogTargets が存在しない場合、インスタンスは RHOSP director で定義されたコンテナーセットの他の RHOSP ログと同じ場所 (/var/log/containers/octavia-amphorae/) にログをオフロードします。

OctaviaTenantLogFacility

0

テナントトラフィックフローログメッセージに使用する syslog "LOG_LOCAL" ファシリティーである 0 から 7 の間の数字

OctaviaUserLogFormat

"{{ '{{' }} project_id {{ '}}' }} {{ '{{' }} lb_id {{ '}}' }} %f %ci %cp %t %{+Q}r %ST %B %U %[ssl_c_verify] %{+Q}[ssl_c_s_dn] %b %s %Tt %tsc"

テナントトラフィックフローログの形式

英数字は特定の octavia フィールドを表し、中括弧 ({}) は置換変数です。

関連情報

5.6. Load-balancing サービスインスタンスのテナントフローログ形式

Load-balancing サービスインスタンス (amphorae) のテナントフローがログを記録するログ形式は HAProxy ログ形式です。2 つの例外は、project_idlb_id 変数で、その値は amphora プロバイダードライバーによって提供されます。

rsyslog を syslog レシーバーとして使用するログエントリーの例を以下に示します。

Jun 12 00:44:13 amphora-3e0239c3-5496-4215-b76c-6abbe18de573 haproxy[1644]: 5408b89aa45b48c69a53dca1aaec58db fd8f23df-960b-4b12-ba62-2b1dff661ee7 261ecfc2-9e8e-4bba-9ec2-3c903459a895 172.24.4.1 41152 12/Jun/2019:00:44:13.030 "GET / HTTP/1.1" 200 76 73 - "" e37e0e04-68a3-435b-876c-cffe4f2138a4 6f2720b3-27dc-4496-9039-1aafe2fee105 4 --

注記

  • ハイフン (-) は、不明または接続に該当しない任意のフィールドを示します。
  • 上記のサンプルログエントリーの接頭辞は rsyslog レシーバーに由来するもので、amphora からの syslog メッセージの一部ではありません。

    Jun 12 00:44:13 amphora-3e0239c3-5496-4215-b76c-6abbe18de573 haproxy[1644]:”

デフォルト

デフォルトの amphora テナントフローログの形式は以下のとおりです。

`"{{ '{{' }} project_id {{ '}}' }} {{ '{{' }} lb_id {{ '}}' }} %f %ci %cp %t %{+Q}r %ST %B %U %[ssl_c_verify] %{+Q}[ssl_c_s_dn] %b %s %Tt %tsc"`

形式の説明は、以下の表を参照してください。

表5.4 テナントフローログ形式の変数定義のデータ変数
変数フィールド名

{{project_id}}

UUID

プロジェクト ID (amphora プロバイダードライバーからの置換変数)

{{lb_id}}

UUID

ロードバランサー ID (amphora プロバイダードライバーからの置換変数)

%f

string

frontend_name

%ci

IP アドレス

client_ip

%cp

numeric

client_port

%t

date

date_time

%ST

numeric

status_code

%B

numeric

bytes_read

%U

numeric

bytes_uploaded

%ssl_c_verify

Boolean

client_certificate_verify (0 または 1)

%ssl_c_s_dn

string

client_certificate_distinguised_name

%b

string

pool_id

%s

string

member_id

%Tt

numeric

processing_time (ミリ秒)

%tsc

string

termination_state (cookie ステータスあり)

関連情報

第6章 Load-balancing サービスフレーバーの設定

Load-balancing サービス (octavia) フレーバー は、作成するプロバイダー設定オプションのセットです。ユーザーがロードバランサーを要求する場合、定義されたフレーバーのいずれかを使用してロードバランサーを構築するように指定できます。各負荷分散プロバイダードライバー用にフレーバーを定義して、該当するプロバイダーの一意の機能を公開します。

新しい Load-balancing サービスフレーバーを作成するには、以下の手順を実施します。

  1. フレーバーで設定する負荷分散プロバイダーの機能を決定する。
  2. 選択したフレーバー機能でフレーバープロファイルを作成する。
  3. フレーバーを作成する。

6.1. Load-balancing サービスプロバイダー機能のリスト

それぞれの Load-balancing サービス (octavia) プロバイダードライバーが公開する機能のリストを確認することができます。

手順

  1. RHOSP admin ロールでオーバークラウドへのアクセスを許可する認証情報ファイルを入手します。

    $ source ~/my_overcloudrc

  2. 各ドライバーの機能をリスト表示します。

    $ openstack loadbalancer provider capability list <provider>

    <provider> をプロバイダーの名前または UUID に置き換えます。

    $ openstack loadbalancer provider capability list amphora

    コマンド出力には、プロバイダーがサポートするすべての機能がリスト表示されます。

    出力例

    +-----------------------+---------------------------------------------------+
    | name                  | description                                       |
    +-----------------------+---------------------------------------------------+
    | loadbalancer_topology | The load balancer topology. One of: SINGLE - One  |
    |                       | amphora per load balancer. ACTIVE_STANDBY - Two   |
    |                       | amphora per load balancer.                        |
    | ...                   | ...                                               |
    +-----------------------+---------------------------------------------------+

  3. 作成するフレーバーに追加する機能の名前をメモします。

関連情報

6.2. フレーバープロファイルの定義

Load-balancing サービス (octavia) フレーバープロファイルには、プロバイダードライバー名と機能のリストが含まれます。フレーバープロファイルを使用して、ユーザーがロードバランサーを作成するために指定するフレーバーを作成します。

前提条件

  • どの負荷分散プロバイダーがフレーバープロファイルに追加するかを把握しておく必要があります。

手順

  1. RHOSP admin ロールでオーバークラウドへのアクセスを許可する認証情報ファイルを入手します。

    $ source ~/my_overcloudrc

  2. フレーバープロファイルを作成します。

    $ openstack loadbalancer flavorprofile create --name <profile_name> --provider <provider_name> --flavor-data '{"<capability>": "<value>"}'

    $ openstack loadbalancer flavorprofile create --name amphora-single-profile --provider amphora --flavor-data '{"loadbalancer_topology": "SINGLE"}'

    出力例

    +---------------+--------------------------------------+
    | Field         | Value                                |
    +---------------+--------------------------------------+
    | id            | 72b53ac2-b191-48eb-8f73-ed012caca23a |
    | name          | amphora-single-profile               |
    | provider_name | amphora                              |
    | flavor_data   | {"loadbalancer_topology": "SINGLE"}  |
    +---------------+--------------------------------------+

    以下の例では、amphora プロバイダー用にフレーバープロファイルが作成されます。このプロファイルがフレーバーで指定されている場合には、フレーバーを使用して作成するロードバランサーは単一の amphora ロードバランサーです。

検証

  • フレーバープロファイルの作成時に、Load-balancing サービスはフレーバーの値をプロバイダーに検証し、プロバイダーが指定した機能をサポートできるようにします。

関連情報

6.3. Load-balancing サービスフレーバーの作成

フレーバープロファイルを使用して、Load-balancing サービス (octavia) 用にユーザー向けのフレーバーを作成します。フレーバーに割り当てる名前は、ユーザーがロードバランサーの作成時に指定する値です。

前提条件

  • フレーバープロファイルを作成している必要があります。

手順

  1. RHOSP admin ロールでオーバークラウドへのアクセスを許可する認証情報ファイルを入手します。

    $ source ~/my_overcloudrc

  2. フレーバーを作成します。

    $ openstack loadbalancer flavor create --name <flavor_name> \
    --flavorprofile <flavor-profile> --description "<string>"
    ヒント

    ユーザーは提供するフレーバーの機能を理解できるように、詳細な説明を指定します。

    $ openstack loadbalancer flavor create --name standalone-lb --flavorprofile amphora-single-profile --description "A non-high availability load balancer for testing."

    出力例

    +-------------------+--------------------------------------+
    | Field             | Value                                |
    +-------------------+--------------------------------------+
    | id                | 25cda2d8-f735-4744-b936-d30405c05359 |
    | name              | standalone-lb                        |
    | flavor_profile_id | 72b53ac2-b191-48eb-8f73-ed012caca23a |
    | enabled           | True                                 |
    | description       | A non-high availability load         |
    |                   | balancer for testing.                |
    +-------------------+--------------------------------------+

    この例では、フレーバーが定義されている。このフレーバーを指定すると、Load-balancing サービスインスタンス (amphora) を使用するロードバランサーが作成され、高可用性はありません。

注記

無効にしたフレーバーはユーザーが引き続き表示されますが、ユーザーは、無効にしたフレーバーを使用してロードバランサーを作成することはできません。

関連情報

第7章 Load-balancing サービスの監視

負荷分散の動作を維持するには、ロードバランサー管理ネットワークを使用し、負荷分散のヘルスモニターを作成、変更、および削除できます。

7.1. 負荷分散管理ネットワーク

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) は、負荷分散管理ネットワーク と呼ばれるプロジェクトネットワークを介してロードバランサーをモニターします。負荷分散サービスを実行するホストには、負荷分散管理ネットワークに接続するためのインターフェイスが必要です。サポートされるインターフェイス設定は、neutron Modular Layer 2 プラグインと Open Virtual Network メカニズムドライバーの組み合わせ (ML2/OVN) または Open vSwitch メカニズムドライバーの組み合わせ (ML2/OVS) で機能します。他のメカニズムドライバーを使用するインターフェイスの使用はテストされていません。

デプロイメント時に作成されるデフォルトのインターフェイスは、デフォルトの統合ブリッジ br-int 上の内部 Open vSwitch (OVS) ポートです。これらのインターフェイスを、ロードバランサー管理ネットワークに割り当てられた実際の Networking サービス (neutron) ポートに関連付ける必要があります。

デフォルトでは、デフォルトインターフェイスの名前は、o-hm0 です。これらは、Load-balancing サービスホストの標準のインターフェイス設定ファイルで定義されます。RHOSP director は、デプロイメント時に Networking サービスポートおよび各 Load-balancing サービスホストのインターフェイスを自動的に設定します。ポート情報とテンプレートは、以下を含むインターフェイス設定ファイルの作成に使用されます。

  • IP およびネットマスクを含む IP ネットワークアドレス情報
  • MTU 設定
  • MAC アドレス
  • Networking サービスのポート ID

デフォルトの OVS の場合、Networking サービスのポート ID は追加データを OVS ポートに登録するのに使用されます。Networking サービスは、このインターフェイスをポートに属するものとして認識し、ロードバランサー管理ネットワーク上で通信できるように OVS を設定します。

デフォルトでは、RHOSP は、Load-balancing サービスコントローラーが TCP ポート 9443 で仮想マシンインスタンス (amphora) と通信できるようにするセキュリティーグループおよびファイアウォールルールを設定し、amphora からのハートビートメッセージが UDP ポート 5555 のコントローラーに到達できるようにします。メカニズムドライバーによっては、負荷分散サービスとロードバランサー間の通信を可能にするために、追加または代替要件が必要になる場合があります。

7.2. Load-balancing サービスインスタンスの監視

Load-balancing サービス (octavia) は、負荷分散インスタンス (amphora) を監視し、amphora に異常が発生した場合にフェイルオーバーを開始して、置き換えます。フェイルオーバーが発生すると、Load-balancing サービスは /var/log/containers/octavia のコントローラー上の対応するヘルスマネージャーのログにフェイルオーバーを記録します。

ログ解析を使用して、フェイルオーバーの傾向を監視し、早い段階で問題に対処します。Networking サービス (neutron) の接続の問題、サービス拒否攻撃、および Compute サービス (nova) の異常などの問題により、ロードバランサーのフェイルオーバーの頻度が上がります。

7.3. Load-balancing サービスプールメンバーの監視

Load-balancing サービス (octavia) は、ベースとなる負荷分散サブシステムからの健全性情報を使用して、負荷分散プールのメンバーの健全性を判断します。健全性情報は Load-balancing サービスのデータベースにストリーミングされ、ステータスツリーまたは他の API メソッドにより利用できるようになります。重要なアプリケーションの場合、定期的な間隔で健全性情報をポーリングする必要があります。

7.4. ロードバランサーのプロビジョニングステータスの監視

ロードバランサーのプロビジョニングステータスをモニターし、プロビジョニングのステータスが ERROR の場合にはアラートを送信することができます。アプリケーションがプールに定期的な変更を加え、いくつかの PENDING ステージに入ったときにトリガーするように、アラートを設定しないでください。

ロードバランサーオブジェクトのプロビジョニングステータスは、コンタクトして作成、更新、および削除要求を正常にプロビジョニングするコントロールプレーンの性能を反映しています。ロードバランサーオブジェクトの操作ステータスは、ロードバランサーの現在の機能を報告します。

たとえば、ロードバランサーのプロビジョニングステータスが ERROR で、操作ステータスが ONLINE となる場合あります。これは、最後に要求されたロードバランサー設定への更新が正常に完了しないという、Networking (neutron) の障害により生じる可能性があります。この場合、ロードバランサーはロードバランサー経由でトラフィックの処理が継続しますが、最新の設定の更新が適用されていない可能性があります。

7.5. ロードバランサー機能の監視

ロードバランサーとその子オブジェクトの動作ステータスを監視できます。

また、ロードバランサーリスナーに接続し、クラウド外から監視する外部モニタリングサービスを使用することもできます。外部のモニタリングサービスでは、ルーターの失敗、ネットワーク接続の問題など、Load-balancing サービス (octavia) 外にロードバランサーの機能に影響を与える可能性のある障害が発生しているかどうかを示します。

7.6. Load-balancing サービスヘルスモニターの概要

Load-balancing サービス (octavia) のヘルスモニターは、各バックエンドメンバーサーバーで定期的なヘルスチェックを実行するプロセスで、障害が発生したサーバーを事前検出し、それらをプールから一時的に除外します。

ヘルスモニターが障害が発生したサーバーを検出すると、サーバーをプールから除外し、メンバーを ERROR とマークします。サーバーを修正して再度稼動状態にすると、ヘルスモニターはメンバーのステータスを ERROR から ONLINE に自動的に変更し、トラフィックをこれに渡すことを再開します。

実稼働環境のロードバランサーでは、ヘルスモニターを常に使用します。ヘルスモニターがない場合は、失敗したサーバーはプールから削除されません。これにより、Web クライアントのサービスの中断が発生する可能性があります。

以下に示すように、ヘルスモニターにはいくつかの種別があります。

HTTP
デフォルトでは、アプリケーションサーバーの / パスを調べます。
HTTPS

HTTP ヘルスモニターとまったく同じように動作しますが、TLS バックエンドサーバーが対象です。

サーバーがクライアント証明書の検証を実行する場合、HAProxy には有効な証明書がありません。このような場合、TLS-HELLO ヘルスモニタリングが代替手段です。

TLS-HELLO

バックエンドサーバーが SSLv3-client hello メッセージに応答するようにします。

TLS-HELLO ヘルスモニターは、ステータスコードやボディーの内容などの他のヘルスメトリックを確認しません。

PING

定期的に ICMP ping リクエストをバックエンドサーバーに送信します。

これらのヘルスチェックに合格するように、PING を許可するようにバックエンドサーバーを設定する必要があります。

重要

PING ヘルスモニターは、メンバーに到達可能で ICMP エコーリクエストに応答するかどうかを確認するだけです。PING ヘルスモニターは、インスタンスで実行されるアプリケーションが正常であるかどうかを確認しません。ICMP エコーリクエストが有効なヘルスチェックである場合にのみ、PING ヘルスモニターを使用します。

TCP

バックエンドサーバープロトコルポートへの TCP 接続を開きます。

TCP アプリケーションは TCP 接続を開き、TCP ハンドシェイクの後にデータを送信せずに接続を閉じる必要があります。

UDP-CONNECT

基本的な UDP ポート接続を実行します。

Destination Unreachable (ICMP タイプ 3) がメンバーサーバーで有効化されていない場合、またはセキュリティールールによってブロックされている場合には、UDP-CONNECT ヘルスモニターが正しく動作しないことがあります。この場合、メンバーサーバーは、実際にダウンしている時に ONLINE の稼働ステータスとしてマークされる可能性があります。

7.7. Load-balancing サービスヘルスモニターの作成

負荷分散サービス (octavia) ヘルスモニターを使用して、ユーザーのサービスの中断を回避します。各バックエンドメンバーサーバーで定期的なヘルスチェックを実行するプロセスで、障害が発生したサーバーを事前検出し、それらをプールから一時的に除外します。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. サイトに適した引数値を使用して、openstack loadbalancer healthmonitor create コマンドを実行します。

    • すべてのヘルスモニタータイプには、次の設定可能な引数が必要です。

      <pool>
      監視対象のバックエンドメンバーサーバーのプールの名前または ID。
      --type
      ヘルスモニターのタイプ。HTTPHTTPSPINGSCTPTCPTLS-HELLO、または UDP-CONNECT のいずれか。
      --delay
      ヘルスチェックの間隔 (秒単位)。
      --timeout
      指定したヘルスチェックが完了するまで待機する時間 (秒単位)。timeout は、常に delay よりも小さくなければなりません。
      --max-retries
      バックエンドサーバーが停止しているとみなされるまでに失敗する必要のあるヘルスチェックの数。また、障害が発生したバックエンドサーバーが再度稼働中とみなされるために成功しなければならないヘルスチェックの数。
    • さらに、HTTP ヘルスモニタータイプには、デフォルトで設定されている次の引数も必要です。

      --url-path
      バックエンドサーバーから取得される URL のパスの部分。デフォルトでは、これは / です。
      --http-method
      url_path を取得するために使用される HTTP メソッド。デフォルトでは、これは GET だけです。
      --expected-codes

      ヘルスチェックの成功を表す HTTP ステータスコードのリスト。デフォルトでは、これは 200 です。

      $ openstack loadbalancer healthmonitor create --name my-health-monitor --delay 10 --max-retries 4 --timeout 5 --type TCP lb-pool-1

検証

  • openstack loadbalancer healthmonitor list コマンドを実行し、ヘルスモニターが実行していることを確認します。

関連情報

7.8. Load-balancing サービスヘルスモニターの変更

メンバーにプローブを送信する間隔、接続タイムアウト間隔、要求の HTTP メソッドなどを変更する場合は、負荷分散サービス (octavia) ヘルスモニターの設定を変更できます。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ヘルスモニター (my-health-monitor) を変更します。

    この例では、ユーザーは、ヘルスモニターがメンバーにプローブを送信するまで待機する時間を秒単位で変更しています。

    $ openstack loadbalancer healthmonitor set my_health_monitor --delay 600

検証

  • openstack loadbalancer healthmonitor show コマンドを実行して、設定の変更を確認します。

    $ openstack loadbalancer healthmonitor show my_health_monitor

関連情報

7.9. Load-balancing サービスヘルスモニターの削除

負荷分散サービス (octavia) ヘルスモニターを削除できます。

ヒント

ヘルスモニターを削除する代わりに、openstack loadbalancer healthmonitor set --disable コマンドを使用して無効にすることもできます。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ヘルスモニター (my-health-monitor) を削除します。

    $ openstack loadbalancer healthmonitor delete my-health-monitor

検証

  • openstack loadbalancer healthmonitor list コマンドを実行して、削除したヘルスモニターが存在しないことを確認します。

関連情報

7.10. Load-balancing サービス HTTP ヘルスモニターのベストプラクティス

Web アプリケーションでヘルスチェックを生成するコードを作成するときは、次のベストプラクティスを使用してください。

  • ヘルスモニター url-path には、読み込む認証は必要ありません。
  • expected-codes を代わりに指定しない限り、デフォルトでは、ヘルスモニター url-path はサーバーが正常であることを示すために HTTP 200 OK ステータスコードを返します。
  • ヘルスチェックは、アプリケーションが完全に正常であることを確認するために、十分な内部チェックを実行します。アプリケーションについて、以下の条件を満たしていることを確認します。

    • 必要なデータベースまたは他の外部ストレージ接続が稼働している。
    • アプリケーションを実行するサーバーで読み込みが許可されている。
    • お使いのサイトがメンテナンスモードにない。
    • アプリケーションに固有のテストが機能する。
  • ヘルスチェックによって生成されるページのサイズは小さくする必要があります。

    • 1 秒未満の間隔で戻ります。
    • アプリケーションサーバーに大きな負荷は発生させません。
  • ヘルスチェックによって生成されたページはキャッシュされませんが、ヘルスチェックを実行するコードはキャッシュされたデータを参照する場合があります。

    たとえば、cron を使用してさらに広範なヘルスチェックを実行し、結果をディスクに保存すると便利です。ヘルスモニターの url-path でページを生成するコードは、実行するテストにこの cron ジョブの結果を組み込みます。

  • Load-balancing サービスは、返された HTTP ステータスコードのみを処理し、ヘルスチェックが頻繁に実行されるため、HEAD または OPTIONS HTTP メソッドを使用してページ全体の処理を省略できます。

第8章 セキュアではない HTTP 用ロードバランサーの作成

非セキュア HTTP ネットワークトラフィック用に次のロードバランサーを作成できます。

8.1. ヘルスモニターを使用した HTTP ロードバランサーの作成

Red Hat OpenStack Platform Networking Service (neutron) フローティング IP と互換性のないネットワークの場合、安全でない HTTP アプリケーションのネットワークトラフィックを管理するためのロードバランサーを作成します。ヘルスモニターを作成して、バックエンドメンバーが引き続き利用できるようにします。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. パブリックサブネット (public-subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  3. ポート (80) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol HTTP --protocol-port 80 lb1

  4. リスナーの状態を確認します。

    $ openstack loadbalancer listener show listener1

    次の手順に進む前に、ステータスが ACTIVE であることを確認してください。

  5. リスナーのデフォルトプール (pool1) を作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP

  6. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  7. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 pool1

検証

  1. ロードバランサー (lb1) の設定を表示および確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:13                  |
    | vip_address         | 198.51.100.12                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    $ openstack loadbalancer member show pool1 member1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:16:23                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:20:45                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

8.2. フローティング IP を使用する HTTP ロードバランサーの作成

セキュアでない HTTP アプリケーションのネットワークトラフィックを管理するには、Floating IP に依存する仮想 IP (VIP) によるロードバランサーを作成することができます。Floating IP を使用する利点は、割り当てられた IP の制御を維持することです。このことは、ロードバランサーを移動、破棄、または再作成する場合に必要です。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

注記

Floating IP は IPv6 ネットワークでは機能しません。

前提条件

  • ロードバランサー VIP で使用するフローティング IP。
  • フローティング IP に使用するためにインターネットから到達できる Red Hat OpenStack Platform Networking サービス (neutron) 共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. プライベートサブネット (private_subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id private_subnet --wait

  3. 後のステップで指定する必要があるため、ステップ 2 の出力で load_balancer_vip_port_id の値をメモします。
  4. ポート (80) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol HTTP --protocol-port 80 lb1

  5. リスナーのデフォルトプール (pool1) を作成します。

    この例のコマンドは、TCP ポート 80 で非セキュアな HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  6. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  7. プライベートサブネットのロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 pool1
  8. 共有外部サブネット (public) に Floating IP アドレスを作成します。

    $ openstack floating ip create public

  9. 後のステップで指定する必要があるため、ステップ 8 の出力で float_ip_address の値をメモします。
  10. このフローティング IP (203.0.113.0) をロードバランサー vip_port_id (69a85edd-5b1c-458f-96f2-b4552b15b8e6) に関連付けます。

    $ openstack floating ip set --port 69a85edd-5b1c-458f-96f2-b4552b15b8e6 203.0.113.0

検証

  1. HTTP トラフィックが Floating IP (203.0.113.0) を使用してロードバランサー全体に流れることを確認します。

    $ curl -v http://203.0.113.0 --insecure

    出力例

    * About to connect() to 203.0.113.0 port 80 (#0)
    *   Trying 203.0.113.0...
    * Connected to 203.0.113.0 (203.0.113.0) port 80 (#0)
    > GET / HTTP/1.1
    > User-Agent: curl/7.29.0
    > Host: 203.0.113.0
    > Accept: */*
    >
    < HTTP/1.1 200 OK
    < Content-Length: 30
    <
    * Connection #0 to host 203.0.113.0 left intact

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    $ openstack loadbalancer member show pool1 member1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.02.10                          |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:23                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:28:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer
  • コマンドラインインターフェイスリファレンスfloating

8.3. セッション永続性による HTTP ロードバランサーの作成

セキュアでない HTTP アプリケーションのネットワークトラフィックを管理するには、セッション永続性を追跡するロードバランサーを作成することができます。これにより、リクエスト受け取ると、ロードバランサーは、同じクライアントからの後続のリクエストを同じバックエンドサーバーに転送します。セッションの永続性は、時間とメモリーを節約することで負荷分散を最適化します。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • ネットワークトラフィックの負荷分散を行うセキュアではない Web アプリケーションで、クッキーが有効になっている。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. パブリックサブネット (public-subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  3. ポート (80) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol HTTP --protocol-port 80 lb1

  4. クッキーのセッション永続性 (PHPSESSIONID) を定義するリスナーのデフォルトプール (pool1) を作成します。

    この例のコマンドは、TCP ポート 80 で非セキュアな HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP \
    --session-persistence type=APP_COOKIE,cookie_name=PHPSESSIONID
  5. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  6. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:58                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:28:42                  |
    | vip_address         | 198.51.100.22                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    $ openstack loadbalancer member show pool1 member1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.02.10                          |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:23                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:28:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

第9章 セキュアな HTTP 用ロードバランサーの作成

セキュアな HTTP (HTTPS) ネットワークトラフィックを管理するために、さまざまな種別のロードバランサーを作成することができます。

9.1. HTTPS 非終端ロードバランサーの概要

HTTPS 非終端ロードバランサーは、一般的な TCP ロードバランサーのように効果的に機能します。ロードバランサーは、Web クライアントからの未加工の TCP トラフィックを、HTTPS 接続が Web クライアントで終端するバックエンドサーバーに転送します。終端ではない HTTPS ロードバランサーはレイヤー 7 機能などの高度なロードバランサー機能をサポートしていませんが、証明書とキー自体を管理することにより、ロードバランサーのリソース使用率を低下させます。

9.2. HTTPS 非終端ロードバランサーの作成

アプリケーションがバックエンドメンバーサーバーで終端する HTTPS トラフィックを必要とする場合に (一般的に HTTPS パススルー と呼ばれます)、ロードバランサーリスナーに HTTPS プロトコルを使用できます。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. パブリックサブネット (public-subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  3. ポート (443) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol HTTPS --protocol-port 443 lb1

  4. リスナーのデフォルトプール (pool1) を作成します。

    この例のコマンドは、TCP ポート 443 上の TLS 暗号化 Web アプリケーションで設定された HTTPS アプリケーションをホストするバックエンドサーバーが含まれるプライベートサブネットを使用する HTTPS プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 \
    --protocol HTTPS
  5. バックエンドサーバーに接続し、パス (/) をテストする型 (TLS-HELLO) のプール (pool1) 上に、ヘルスモニター (healthmon1) を作成します。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type TLS-HELLO \
    --url-path / pool1

  6. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    $ openstack loadbalancer member show pool1 member1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 443                                  |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

9.3. TLS 終端 HTTPS ロードバランサーについて

TLS 終端 HTTPS ロードバランサーが実装されると、Web クライアントは Transport Layer Security (TLS) プロトコルを介してロードバランサーと通信します。ロードバランサーは TLS セッションを終端し、復号化されたリクエストをバックエンドサーバーに転送します。ロードバランサーで TLS セッションを終端することで、CPU 負荷の高い暗号化操作をロードバランサーにオフロードし、これによりロードバランサーはレイヤー 7 インスペクション等の高度な機能を使用することができます。

9.4. TLS 終端 HTTPS ロードバランサーの作成

TLS 終端 HTTPS ロードバランサーを使用することで、CPU 負荷の高い暗号化操作をロードバランサーにオフロードし、これによりロードバランサーはレイヤー 7 インスペクション等の高度な機能を使用することができます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • TLS 公開鍵暗号化は、次の特性で設定されています。

    • ロードバランサーの仮想 IP アドレス (例: www.example.com) に割り当てられた DNS 名用に、TLS 証明書、鍵、および中間証明書チェーンが外部認証局 (CA) から取得される。
    • 証明書、鍵、および中間証明書チェーンが、現在のディレクトリー内の個別ファイルに保存される。
    • 鍵および証明書は PEM 形式でエンコードされる。
    • 中間証明書チェーンには PEM 形式でエンコードされた複数の証明書が含まれ、チェーンを形成する。
  • Key Manager サービス (barbican) を使用するように Load-balancing サービス (octavia) が設定されている。詳細は、Key Manager サービスによるシークレットの管理 ガイドを参照してください。

手順

  1. 鍵 (server.key)、証明書 (server.crt)、および中間証明書チェーン (ca-chain.crt) を 1 つの PKCS12 ファイル (server.p12) に組み合わせます。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openssl pkcs12 -export -inkey server.key -in server.crt \
    -certfile ca-chain.crt -passout pass: -out server.p12

    注記

    PKCS12 ファイルをパスワードで保護している場合、次の手順は正常に機能しません。

  2. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  3. Key Manager サービスを使用して、PKCS12 ファイルのシークレットリソース (tls_secret1) を作成します。

    $ openstack secret store --name='tls_secret1' \
    -t 'application/octet-stream' -e 'base64' \
    --payload="$(base64 < server.p12)"

  4. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  5. TERMINATED_HTTPS リスナー (listener1) を作成し、リスナーのデフォルト TLS コンテナーとしてシークレットリソースを参照します。

    $ openstack loadbalancer listener create --protocol-port 443 \
    --protocol TERMINATED_HTTPS \
    --default-tls-container=\
    $(openstack secret list | awk '/ tls_secret1 / {print $2}') lb1

  6. プール (pool1) を作成し、リスナーのデフォルトプールに設定します。

    この例のコマンドは、TCP ポート 80 で非セキュアな HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  7. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  8. プライベートサブネット (private_subnet) 上のセキュアではない HTTP バックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    $ openstack loadbalancer member show pool1 member1

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

9.5. SNI を使用した TLS 終端 HTTPS ロードバランサーの作成

Server Name Indication (SNI) テクノロジーを使用する TLS 終端 HTTPS ロードバランサーでは、単一のリスナーに複数の TLS 証明書を含めることができ、ロードバランサーは、共有 IP の使用時に提示する証明書を認識することができます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • TLS 公開鍵暗号化は、次の特性で設定されています。

    • ロードバランサーの仮想 IP アドレス (例: www.example.com および www2.example.com) に割り当てられた DNS 名用に、複数の TLS 証明書、鍵、および中間証明書チェーンが外部認証局 (CA) から取得される。
    • 鍵および証明書は PEM 形式でエンコードされる。
  • Key Manager サービス (barbican) を使用するように Load-balancing サービス (octavia) が設定されている。詳細は、Key Manager サービスによるシークレットの管理 ガイドを参照してください。

手順

  1. SNI リストの TLS 証明書ごとに、鍵 (server.key)、証明書 (server.crt)、および中間証明書チェーン (ca-chain.crt) を 1 つの PKCS12 ファイル (server.p12) に組み合わせます。

    以下の例では、それぞれの証明書 (www.example.com および www2.example.com) 用に、2 つの PKCS12 ファイル (server.p12 および server2.p12) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openssl pkcs12 -export -inkey server.key -in server.crt \
    -certfile ca-chain.crt -passout pass: -out server.p12
    
    $ openssl pkcs12 -export -inkey server2.key -in server2.crt \
    -certfile ca-chain2.crt -passout pass: -out server2.p12

  2. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  3. Key Manager サービスを使用して、PKCS12 ファイルのシークレットリソース (tls_secret1 および tls_secret2) を作成します。

    $ openstack secret store --name='tls_secret1' \
    -t 'application/octet-stream' -e 'base64' \
    --payload="$(base64 < server.p12)"
    
    $ openstack secret store --name='tls_secret2' \
    -t 'application/octet-stream' -e 'base64' \
    --payload="$(base64 < server2.p12)"

  4. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  5. TERMINATED_HTTPS リスナー (listener1) を作成し、SNI を使用して両方のシークレットリソースを参照します。

    リスナーのデフォルト TLS コンテナーとして tls_secret1 を参照します。)

    $ openstack loadbalancer listener create  --name listener1 \
    --protocol-port 443 --protocol TERMINATED_HTTPS \
    --default-tls-container=\
    $(openstack secret list | awk '/ tls_secret1 / {print $2}') \
    --sni-container-refs \
    $(openstack secret list | awk '/ tls_secret1 / {print $2}') \
    $(openstack secret list | awk '/ tls_secret2 / {print $2}') -- lb1

  6. プール (pool1) を作成し、リスナーのデフォルトプールに設定します。

    この例のコマンドは、TCP ポート 80 で非セキュアな HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  7. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  8. プライベートサブネット (private_subnet) 上のセキュアではない HTTP バックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    $ openstack loadbalancer member show pool1 member1

    出力例

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

9.6. HTTP/2 リスナーを使用した TLS 終端ロードバランサーの作成

TLS 終端 HTTPS ロードバランサーを使用することで、CPU 負荷の高い暗号化操作をロードバランサーにオフロードし、これによりロードバランサーはレイヤー 7 インスペクション等の高度な機能を使用することができます。HTTP/2 リスナーを追加すると、HTTP/2 プロトコルを利用してページをより速く読み込み、パフォーマンスを向上させることができます。ロードバランサーは、Application-Layer Protocol Negotiation (ALPN) TLS 拡張機能を使用してクライアントと HTTP/2 をネゴシエートします。

負荷分散サービス (octavia) は、エンドツーエンドの HTTP/2 トラフィックをサポートします。つまり、HTTP2 トラフィックは、リクエストがリスナーに到達してからロードバランサーから応答が返されるまで、HAProxy で変換されません。エンドツーエンドの HTTP/2 トラフィックを実現するには、バックエンド再暗号化を備えた HTTP プール、つまり安全なポートでリッスンしているプールメンバーと、HTTPS トラフィック用に設定された Web アプリケーションが必要です。

バックエンドの再暗号化なしで、HTTP/2 トラフィックを HTTP プールに送信できます。この状況では、HAProxy はトラフィックがプールに到達する前にそのトラフィックを変換し、応答はロードバランサーから返される前に HTTP/2 に変換されます。

Red Hat では、バックエンドメンバーが利用可能な状態を維持できるようにヘルスモニターを作成することを推奨します。

注記

現在、負荷分散サービスは、HTTP/2 リスナーを使用する TLS で終了するロードバランサーの健全性監視をサポートしていません。

前提条件

  • TLS 公開鍵暗号化は、次の特性で設定されています。

    • ロードバランサーの仮想 IP アドレス (例: www.example.com) に割り当てられた DNS 名用に、TLS 証明書、鍵、および中間証明書チェーンが外部認証局 (CA) から取得される。
    • 証明書、鍵、および中間証明書チェーンが、現在のディレクトリー内の個別ファイルに保存される。
    • 鍵および証明書は PEM 形式でエンコードされる。
    • 中間証明書チェーンには PEM 形式でエンコードされた複数の証明書が含まれ、チェーンを形成する。
  • Key Manager サービス (barbican) を使用するように Load-balancing サービス (octavia) が設定されている。詳細は、Key Manager サービスによるシークレットの管理 ガイドを参照してください。

手順

  1. 鍵 (server.key)、証明書 (server.crt)、および中間証明書チェーン (ca-chain.crt) を 1 つの PKCS12 ファイル (server.p12) に組み合わせます。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    重要

    PKCS12 ファイルの作成時は、ファイルをパスワードで保護しないでください。

    この例では、PKCS12 ファイルはパスワードなしで作成されます。

    $ openssl pkcs12 -export -inkey server.key -in server.crt \
    -certfile ca-chain.crt -passout pass: -out server.p12
  2. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  3. Key Manager サービスを使用して、PKCS12 ファイルのシークレットリソース (tls_secret1) を作成します。

    $ openstack secret store --name='tls_secret1' \
    -t 'application/octet-stream' -e 'base64' \
    --payload="$(base64 < server.p12)"

  4. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    $ openstack loadbalancer create --name lb1 --vip-subnet-id \
    public_subnet --wait

  5. TERMINATED_HTTPS リスナー (listener1) を作成し、次の操作を実行します。

    • シークレットリソース (tls_secret1) をリスナーのデフォルトの TLS コンテナーとして参照します。
    • ALPN プロトコル (h2) を設定します。
    • クライアントが HTTP/2 (http/1.1) をサポートしていない場合は、フォールバックプロトコルを設定します。

      $ openstack loadbalancer listener create --name listener1 \
      --protocol-port 443 --protocol TERMINATED_HTTPS --alpn-protocol h2 \
      --alpn-protocol http/1.1 --default-tls-container=\
      $(openstack secret list | awk '/ tls_secret1 / {print $2}') lb1

  6. プール (pool1) を作成し、リスナーのデフォルトプールに設定します。

    この例のコマンドは、TCP ポート 80 上の Web アプリケーションで設定された HTTP アプリケーションをホストするバックエンドサーバーを含めて HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  7. バックエンドサーバーに接続するプール (pool1) 上に、タイプ (TCP) のヘルスモニター (healthmon1) を作成します。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15  --max-retries 4 --timeout 10 --type TCP pool1

  8. プライベートサブネット (private_subnet) 上の HTTP バックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer status show lb1

    出力例

    {
        "loadbalancer": {
            "id": "936dad29-4c3f-4f24-84a8-c0e6f10ed810",
            "name": "lb1",
            "operating_status": "ONLINE",
            "provisioning_status": "ACTIVE",
            "listeners": [
                {
                    "id": "708b82c6-8a6b-4ec1-ae53-e619769821d4",
                    "name": "listener1",
                    "operating_status": "ONLINE",
                    "provisioning_status": "ACTIVE",
                    "pools": [
                        {
                            "id": "5ad7c678-23af-4422-8edb-ac3880bd888b",
                            "name": "pool1",
                            "provisioning_status": "ACTIVE",
                            "operating_status": "ONLINE",
                            "health_monitor": {
                                "id": "4ad786ef-6661-4e31-a325-eca07b2b3dd1",
                                "name": "healthmon1",
                                "type": "TCP",
                                "provisioning_status": "ACTIVE",
                                "operating_status": "ONLINE"
                            },
                            "members": [
                                {
                                    "id": "facca0d3-61a7-4b46-85e8-da6994883647",
                                    "name": "member1",
                                    "operating_status": "ONLINE",
                                    "provisioning_status": "ACTIVE",
                                    "address": "192.0.2.10",
                                    "protocol_port": 80
                                },
                                {
                                    "id": "2b0d9e0b-8e0c-48b8-aa57-90b2fde2eae2",
                                    "name": "member2",
                                    "operating_status": "ONLINE",
                                    "provisioning_status": "ACTIVE",
                                    "address": "192.0.2.11",
                                    "protocol_port": 80
                                }
    ...

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    $ openstack loadbalancer member show pool1 member1

    出力例

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2023-11-16T20:08:01                  |
    | id                  | facca0d3-61a7-4b46-85e8-da6994883647 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | 9b29c91f67314bd09eda9018616851cf     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 3b459c95-64d2-4cfa-b348-01aacc4b3fa9 |
    | updated_at          | 2023-11-16T20:08:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    | tags                |                                      |
    +---------------------+--------------------------------------+

関連情報

9.7. 同じ IP およびバックエンドでの HTTP および TLS 終端 HTTPS 負荷分散の作成

クライアントがセキュアなプロトコルまたはセキュアではない HTTP プロトコルで接続されているかどうかにかかわらず、まったく同じコンテンツで Web クライアントに応答する場合に、同じロードバランサーおよび同じ IP アドレスにセキュアではないリスナーと TLS 終端 HTTPS リスナーを設定できます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • TLS 公開鍵暗号化は、次の特性で設定されています。

    • ロードバランサーの仮想 IP アドレス (例: www.example.com) に割り当てられた DNS 名用に、TLS 証明書、鍵、およびオプションの中間証明書チェーンが外部認証局 (CA) から取得される。
    • 証明書、鍵、および中間証明書チェーンが、現在のディレクトリー内の個別ファイルに保存される。
    • 鍵および証明書は PEM 形式でエンコードされる。
    • 中間証明書チェーンには PEM 形式でエンコードされた複数の証明書が含まれ、チェーンを形成する。
  • Key Manager サービス (barbican) を使用するように負荷分散サービス (octavia) を設定しました。詳細は、Key Manager サービスによるシークレットの管理 ガイドを参照してください。
  • セキュアではない HTTP リスナーが、HTTPS TLS 終端ロードバランサーと同じプールで設定されている。

手順

  1. 鍵 (server.key)、証明書 (server.crt)、および中間証明書チェーン (ca-chain.crt) を 1 つの PKCS12 ファイル (server.p12) に組み合わせます。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openssl pkcs12 -export -inkey server.key -in server.crt \
    -certfile ca-chain.crt -passout pass: -out server.p12

  2. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  3. Key Manager サービスを使用して、PKCS12 ファイルのシークレットリソース (tls_secret1) を作成します。

    $ openstack secret store --name='tls_secret1' \
    -t 'application/octet-stream' -e 'base64' \
    --payload="$(base64 < server.p12)"

  4. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id external_subnet --wait

  5. TERMINATED_HTTPS リスナー (listener1) を作成し、リスナーのデフォルト TLS コンテナーとしてシークレットリソースを参照します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol-port 443 --protocol TERMINATED_HTTPS \
    --default-tls-container=\
    $(openstack secret list | awk '/ tls_secret1 / {print $2}') lb1

  6. プール (pool1) を作成し、リスナーのデフォルトプールに設定します。

    この例のコマンドは、TCP ポート 80 で非セキュアな HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  7. プール (pool1) 上に型が HTTP のヘルスモニター (healthmon1) を作成し、バックエンドサーバーに接続してパス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  8. プライベートサブネット (private_subnet) 上のセキュアではない HTTP バックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1
  9. セキュアではない HTTP リスナー (listener2) を作成し、そのデフォルトのプールをセキュアなリスナーと同じプールに設定します。

    $ openstack loadbalancer listener create --name listener2 \
    --protocol-port 80 --protocol HTTP --default-pool pool1 lb1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    $ openstack loadbalancer member show pool1 member1

    出力例

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

第10章 他の種別のロードバランサーの作成

Load-balancing サービス (octavia) を使用して、管理する HTTP 以外のネットワークトラフィックの種別に一致するロードバランサーの種別を作成します。

10.1. TCP ロードバランサーの作成

HTTP 以外、TCP ベースのサービスおよびアプリケーションのネットワークトラフィックを管理する必要がある場合は、ロードバランサーを作成できます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet --wait

  3. カスタムアプリケーションが設定された指定のポート (23456) で TCP リスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol TCP --protocol-port 23456 lb1

  4. プール (pool1) を作成し、リスナーのデフォルトプールに設定します。

    この例では、特定の TCP ポートでカスタムアプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用するプールが作成されます。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 \
    --protocol TCP
  5. バックエンドサーバーに接続するプール (pool1) にヘルスモニター (healthmon1) を作成し、TCP サービスポートを確認します。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type TCP pool1
  6. プライベートサブネット (private_subnet) 上のバックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                         |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。次のコマンドを使用して、メンバー ID を取得します。

    $ openstack loadbalancer member list pool1

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    $ openstack loadbalancer member show pool1 member1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 80                                   |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

10.2. ヘルスモニターを使用した UDP ロードバランサーの作成

UDP ポート上のネットワークトラフィックを管理する必要がある場合が、ロードバランサーを作成することができます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • ICMP Destination Unreachable メッセージ (ICMP タイプ 3) をブロックするセキュリティールールはありません。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. プライベートサブネット (private_subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id private_subnet --wait

  3. ポート (1234) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol UDP --protocol-port 1234 lb1

  4. リスナーのデフォルトプール (pool1) を作成します。

    この例のコマンドは、UDP ポートを使用するように設定された 1 つ以上のアプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用するプールを作成します。

    $ openstack loadbalancer pool create --name pool1 \
    --lb-algorithm ROUND_ROBIN --listener listener1 --protocol UDP
  5. UDP (UDP-CONNECT) を使用してバックエンドサーバーに接続するヘルスモニター (healthmon1) を、プール (pool1) 上に作成します。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 5 --max-retries 2 --timeout 3 --type UDP-CONNECT pool1

  6. プライベートサブネット (private_subnet) 上のバックエンドサーバー (192.0.2.10 および 192.0.2.11) を、デフォルトプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 1234 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 1234 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. ヘルスモニターが存在し正常に機能する場合は、各メンバーのステータスを確認することができます。

    $ openstack loadbalancer member show pool1 member1

    動作中のメンバー (member1) の operating_status 値は ONLINE です。

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | address             | 192.0.2.10                           |
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | id                  | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 |
    | name                | member1                              |
    | operating_status    | ONLINE                               |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | protocol_port       | 1234                                 |
    | provisioning_status | ACTIVE                               |
    | subnet_id           | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    | updated_at          | 2022-01-15T11:12:42                  |
    | weight              | 1                                    |
    | monitor_port        | None                                 |
    | monitor_address     | None                                 |
    | backup              | False                                |
    +---------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

10.3. QoS ルールが適用されるロードバランサーの作成

Red Hat OpenStack Platform (RHOSP) ネットワーキングサービス (neutron) の Quality of Service (QoS) ポリシーを、ロードバランサーを使用する仮想 IP アドレス (VIP) に適用できます。これにより、QoS ポリシーを使用して、ロードバランサーが管理することのできる送受信ネットワークトラフィックを制限することができます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。
  • RHOSP ネットワークサービス用に作成された帯域幅制限ルールを含む QoS ポリシー。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. 最大 1024 kbps および最大バーストレートが 1024 kb のネットワーク帯域幅 QoS ポリシー (qos_policy_bandwidth) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack network qos policy create qos_policy_bandwidth
    
    $ openstack network qos rule create --type bandwidth-limit --max-kbps 1024 --max-burst-kbits 1024 qos-policy-bandwidth

  3. QoS ポリシー (qos-policy-bandwidth) を使用してパブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    $ openstack loadbalancer create --name lb1 \
    --vip-subnet-id public_subnet \
    --vip-qos-policy-id qos-policy-bandwidth --wait

  4. ポート (80) にリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol HTTP --protocol-port 80 lb1

  5. リスナーのデフォルトプール (pool1) を作成します。

    この例のコマンドは、TCP ポート 80 で HTTP アプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 --lb-algorithm ROUND_ROBIN --listener listener1 --protocol HTTP
  6. バックエンドサーバーに接続してパス (/) をテストするヘルスモニター (healthmon1) をプール上に作成します。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / \
    pool1

  7. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 443 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 443 pool1

検証

  • リスナー (listener1) の設定を表示して確認します。

    $ openstack loadbalancer list

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | cdfc3398-997b-46eb-9db1-ebbd88f7de05 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

    この例では、パラメーター vip_qos_policy_id にポリシー ID が含まれます。

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

10.4. アクセス制御リストを使用したロードバランサーの作成

アクセス制御リスト (ACL) を作成し、リスナーへの受信トラフィックを、許可されたソース IP アドレスのセットに制限することができます。それ意外の受信トラフィックは、すべて拒否されます。バックエンドメンバーを利用できる状態に保つためのヘルスモニターも作成するのがベストプラクティスです。

前提条件

  • インターネットから到達できる共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. パブリックサブネット (public_subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 --vip-subnet-id public_subnet --wait

  3. 許可される CIDR (192.0.2.0/24 および 198.51.100.0/24) でリスナー (listener1) を作成します。

    $ openstack loadbalancer listener create --name listener1 --protocol TCP --protocol-port 80 --allowed-cidr 192.0.2.0/24 --allowed-cidr 198.51.100.0/24 lb1

  4. リスナーのデフォルトプール (pool1) を作成します。

    この例では、TCP ポート 80 上のカスタムアプリケーションで設定されたバックエンドサーバーを含むプライベートサブネットを使用するプールが作成されます。

    $ openstack loadbalancer pool create --name pool1 --lb-algorithm ROUND_ROBIN --listener listener1 --protocol TCP
  5. バックエンドサーバーに接続するプールにヘルスモニターを作成し、パス (/) をテストします。

    ヘルスチェックは推奨されていますが、必須ではありません。ヘルスモニターが定義されていない場合、メンバーサーバーは ONLINE とみなされます。

    $ openstack loadbalancer healthmonitor create --name healthmon1 \
    --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / pool1

  6. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をデフォルトのプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --subnet-id private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --subnet-id private_subnet --address 192.0.2.11 --protocol-port 80 pool1

検証

  1. リスナー (listener1) の設定を表示して確認します。

    $ openstack loadbalancer listener show listener1

    出力例

    +-----------------------------+--------------------------------------+
    | Field                       | Value                                |
    +-----------------------------+--------------------------------------+
    | admin_state_up              | True                                 |
    | connection_limit            | -1                                   |
    | created_at                  | 2022-01-15T11:11:09                  |
    | default_pool_id             | None                                 |
    | default_tls_container_ref   | None                                 |
    | description                 |                                      |
    | id                          | d26ba156-03c3-4051-86e8-f8997a202d8e |
    | insert_headers              | None                                 |
    | l7policies                  |                                      |
    | loadbalancers               | 2281487a-54b9-4c2a-8d95-37262ec679d6 |
    | name                        | listener1                            |
    | operating_status            | ONLINE                               |
    | project_id                  | 308ca9f600064f2a8b3be2d57227ef8f     |
    | protocol                    | TCP                                  |
    | protocol_port               | 80                                   |
    | provisioning_status         | ACTIVE                               |
    | sni_container_refs          | []                                   |
    | timeout_client_data         | 50000                                |
    | timeout_member_connect      | 5000                                 |
    | timeout_member_data         | 50000                                |
    | timeout_tcp_inspect         | 0                                    |
    | updated_at                  | 2022-01-15T11:12:42                  |
    | client_ca_tls_container_ref | None                                 |
    | client_authentication       | NONE                                 |
    | client_crl_container_ref    | None                                 |
    | allowed_cidrs               | 192.0.2.0/24                         |
    |                             | 198.51.100.0/24                      |
    +-----------------------------+--------------------------------------+

    この例では、パラメーター allowed_cidrs は、192.0.2.0/24 および 198.51.100.0/24 からのトラフィックだけを許可するように設定します。

  2. ロードバランサーが保護されていることを確認するには、allowed_cidrs のリストに記載されていない CIDR のクライアントからリスナーへの要求を確認します。要求は成功しないはずです。

    出力例

    curl: (7) Failed to connect to 203.0.113.226 port 80: Connection timed out
    curl: (7) Failed to connect to 203.0.113.226 port 80: Connection timed out
    curl: (7) Failed to connect to 203.0.113.226 port 80: Connection timed out
    curl: (7) Failed to connect to 203.0.113.226 port 80: Connection timed out

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

10.5. OVN ロードバランサーの作成

Red Hat OpenStack Platform (RHOSP) クライアントを使用して、RHOSP デプロイメントのネットワークトラフィックを管理するロードバランサーを作成できます。RHOSP Load-Balancing サービスは、neutron Modular Layer 2 プラグインと Open Virtual Network メカニズムドライバーの組み合わせ (ML2/OVN) をサポートします。

前提条件

  • ML2/OVN プロバイダードライバーがデプロイされている必要があります。

    重要

    OVN プロバイダーは、レイヤー 4 TCP および UDP ネットワークトラフィック、ならびに SOURCE_IP_PORT ロードバランサーアルゴリズムだけをサポートします。OVN プロバイダーはヘルスモニタリングをサポートしません。

  • インターネットから到達できる共有外部 (パブリック) サブネット。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. --provider ovn 引数を使用して、プライベートサブネット (private_subnet) にロードバランサー (lb1) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer create --name lb1 --provider ovn \
    --vip-subnet-id private_subnet --wait

  3. カスタムアプリケーションが設定された指定のポート (80) でプロトコル (tcp) を使用するリスナー (listener1) を作成します。

    注記

    OVN プロバイダーは、レイヤー 4 TCP および UDP ネットワークトラフィックだけをサポートします。

    $ openstack loadbalancer listener create --name listener1 \
    --protocol tcp --protocol-port 80 lb1

  4. リスナーのデフォルトプール (pool1) を作成します。

    注記

    OVN 用にサポートされる唯一の負荷分散アルゴリズムは SOURCE_IP_PORT です。

    この例のコマンドは、特定の TCP ポートでカスタムアプリケーションをホストするバックエンドサーバーを含むプライベートサブネットを使用する HTTP プールを作成します。

    $ openstack loadbalancer pool create --name pool1 --lb-algorithm \
    SOURCE_IP_PORT --listener listener1 --protocol tcp
    重要

    OVN は負荷分散のヘルスモニター機能をサポートしません。

  5. プライベートサブネット (private_subnet) 上のバックエンドサーバー (192.0.2.10 および 192.0.2.11) をプールに追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 pool1
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 pool1

検証

  1. ロードバランサー (lb1) の設定を表示して確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-01-15T11:11:09                  |
    | description         |                                      |
    | flavor              |                                      |
    | id                  | 788fe121-3dec-4e1b-8360-4020642238b0 |
    | listeners           | 09f28053-fde8-4c78-88b9-0f191d84120e |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 627842b3-eed8-4f5f-9f4a-01a738e64d6a |
    | project_id          | dda678ca5b1241e7ad7bf7eb211a2fd7     |
    | provider            | ovn                                  |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-01-15T11:12:42                  |
    | vip_address         | 198.51.100.11                        |
    | vip_network_id      | 9bca13be-f18d-49a5-a83d-9d487827fd16 |
    | vip_port_id         | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 |
    +---------------------+--------------------------------------+

  2. リスナーの情報を表示するには、openstack loadbalancer listener show コマンドを実行します。

    $ openstack loadbalancer listener show listener1

    出力例

    +-----------------------------+--------------------------------------+
    | Field                       | Value                                |
    +-----------------------------+--------------------------------------+
    | admin_state_up              | True                                 |
    | connection_limit            | -1                                   |
    | created_at                  | 2022-01-15T11:13:52                  |
    | default_pool_id             | a5034e7a-7ddf-416f-9c42-866863def1f2 |
    | default_tls_container_ref   | None                                 |
    | description                 |                                      |
    | id                          | a101caba-5573-4153-ade9-4ea63153b164 |
    | insert_headers              | None                                 |
    | l7policies                  |                                      |
    | loadbalancers               | 653b8d79-e8a4-4ddc-81b4-e3e6b42a2fe3 |
    | name                        | listener1                            |
    | operating_status            | ONLINE                               |
    | project_id                  | 7982a874623944d2a1b54fac9fe46f0b     |
    | protocol                    | TCP                                  |
    | protocol_port               | 64015                                |
    | provisioning_status         | ACTIVE                               |
    | sni_container_refs          | []                                   |
    | timeout_client_data         | 50000                                |
    | timeout_member_connect      | 5000                                 |
    | timeout_member_data         | 50000                                |
    | timeout_tcp_inspect         | 0                                    |
    | updated_at                  | 2022-01-15T11:15:17                  |
    | client_ca_tls_container_ref | None                                 |
    | client_authentication       | NONE                                 |
    | client_crl_container_ref    | None                                 |
    | allowed_cidrs               | None                                 |
    +-----------------------------+--------------------------------------+

  3. プール (pool1) とロードバランサーのメンバーを表示するには、openstack loadbalancer pool show コマンドを実行します。

    $ openstack loadbalancer pool show pool1

    出力例

    +----------------------+--------------------------------------+
    | Field                | Value                                |
    +----------------------+--------------------------------------+
    | admin_state_up       | True                                 |
    | created_at           | 2022-01-15T11:17:34                  |
    | description          |                                      |
    | healthmonitor_id     |                                      |
    | id                   | a5034e7a-7ddf-416f-9c42-866863def1f2 |
    | lb_algorithm         | SOURCE_IP_PORT                       |
    | listeners            | a101caba-5573-4153-ade9-4ea63153b164 |
    | loadbalancers        | 653b8d79-e8a4-4ddc-81b4-e3e6b42a2fe3 |
    | members              | 90d69170-2f73-4bfd-ad31-896191088f59 |
    | name                 | pool1                                |
    | operating_status     | ONLINE                               |
    | project_id           | 7982a874623944d2a1b54fac9fe46f0b     |
    | protocol             | TCP                                  |
    | provisioning_status  | ACTIVE                               |
    | session_persistence  | None                                 |
    | updated_at           | 2022-01-15T11:18:59                  |
    | tls_container_ref    | None                                 |
    | ca_tls_container_ref | None                                 |
    | crl_container_ref    | None                                 |
    | tls_enabled          | False                                |
    +----------------------+--------------------------------------+

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

第11章 レイヤー 7 負荷分散の実装

レイヤー 7 ポリシーと共に Red Hat OpenStack Platform Load-balancing サービス (octavia) を使用して、ビジネスニーズに応じた複数の条件により、HTTP リクエストを特定のアプリケーションサーバープールにリダイレクトすることができます。

11.1. レイヤー 7 の負荷分散について

レイヤー 7 (L7) の負荷分散は、Open Systems Interconnection (OSI) モデルからその名前を取ります。ロードバランサーは、レイヤー 7 (アプリケーション) データに基づいてリクエストをバックエンドアプリケーションサーバープールに分散します。リクエストスイッチングアプリケーションロードバランシング、および コンテンツベースのルーティングスイッチング、または バランシング は、すべて L7 負荷分散を意味する用語です。Red Hat OpenStack Platform Load-balancing サービス (octavia) は、L7 負荷分散の堅牢なサポートを提供します。

注記

UDP ロードバランサーで L7 ポリシーおよびルールを作成することはできません。

L7 ロードバランサーは、数多くのバックエンドプールの代わりにリクエストを受け入れ、アプリケーションデータを使用してそれぞれのリクエストを処理するプールを決定するポリシーに基づいてこれらのリクエストを分散するリスナーで構成されます。これにより、アプリケーションインフラストラクチャーを、特定の種別のコンテンツに対応できるように具体的に調整および最適化することができます。たとえば、バックエンドサーバーの 1 つのグループ (プール) をイメージのみに対応するように調整し、別のグループを PHP や ASP などのサーバー側のスクリプト言語の実行用に、さらに別のグループを HTML、CSS、JavaScript などの静的コンテンツ用に調整することができます。

下位レベルの負荷分散と異なり、L7 負荷分散機能では、負荷分散サービスの背後にあるすべてのプールが同じコンテンツを持つ必要はありません。L7 ロードバランサーは、アプリケーションメッセージ内の URI、ホスト、HTTP ヘッダー、およびその他のデータに基づいてリクエストを送信できます。

11.2. Load-balancing サービスでのレイヤー 7 負荷分散

レイヤー 7 (L7) の負荷分散は、適切に定義された任意の L7 アプリケーションインターフェイスに対して実装できますが、Red Hat OpenStack Platform Load-balancing サービス (octavia) の L7 機能は、HTTP および TERMINATED_HTTPS プロトコルとその意味のみを参照します。

Neutron LBaaS と負荷分散サービスは、L7 負荷分散のロジックに L7 ルールとポリシーを使用します。L7 ルールは、1 つの単純な論理テストで、true または false に評価します。L7 ポリシーは、L7 ルールのコレクションであり、ポリシーに関連付けられているすべてのルールが一致した場合に実行する定義済みのアクションです。

11.3. レイヤー 7 負荷分散ルール

Red Hat OpenStack Platform Load-balancing サービス (octavia) の場合、レイヤー 7 (L7) 負荷分散ルールは、true または false を返す単一の単純な論理テストです。これは、ルールの種別、比較の種別、値、およびルール種別に応じて使用されるオプションのキーで構成されます。L7 ルールは、常に L7 ポリシーに関連付ける必要があります。

注記

UDP ロードバランサーで L7 ポリシーおよびルールを作成することはできません。

11.4. レイヤー 7 負荷分散ルールの種別

Red Hat OpenStack Platform Load-balancing サービス (octavia) には、以下の種別のレイヤー 7 負荷分散ルールがあります。

  • HOST_NAME: ルールは、リクエスト内の HTTP /1.1 ホスト名をルール内の value パラメーターと比較します。
  • PATH: ルールは、HTTP URI のパス部分を、ルールの値パラメーターと比較します。
  • FILE_TYPE: ルールは、URI の最後の部分を、ルールの値パラメーターと比較します (例: txt、jpg など)。
  • HEADER: ルールはキーパラメーターで定義されるヘッダーを検索し、それをルールの値パラメーターと比較します。
  • COOKIE: ルールはキーパラメーターで命名されるクッキーを検索し、それをルールの値パラメーターと比較します。
  • SSL_CONN_HAS_CERT: クライアントが TLS クライアント認証用の証明書を提示した場合、ルールは一致します。これは、証明書が有効であることを意味するものではありません。
  • SSL_VERIFY_RESULT: このルールは、TLS クライアント認証証明書の検証結果を照合します。ゼロ (0) の値は、証明書が正常に検証されたことを意味します。ゼロより大きい値は、証明書が検証に失敗したことを意味します。この値は、openssl-verify 結果コードに従います。
  • SSL_DN_FIELD: ルールはキーパラメーターで定義される Distinguished Name を検索し、それをルールの値パラメーターと比較します。

11.5. レイヤー 7 負荷分散ルール比較の種別

Red Hat OpenStack Platform Load-balancing サービス (octavia) の場合、指定された種別のレイヤー 7 負荷分散ルールは常に比較を行います。負荷分散サービスは、次のタイプの比較をサポートします。すべてのルールタイプがすべての比較タイプをサポートしているわけではありません。

  • REGEX: Perl 種別の正規表現の照合
  • STARTS_WITH: 文字列で始まる
  • ENDS_WITH: 文字列で終わる
  • CONTAINS: 文字列が含まれる
  • EQUAL_TO: 文字列が等しい

11.6. レイヤー 7 負荷分散ルールの結果の反転

一部のポリシーが必要とし、Red Hat OpenStack プラットフォームの負荷分散サービス (octavia) が使用するロジックをより完全に表現するために、レイヤー 7 の負荷分散ルールの結果を反転させることができます。指定されたルールの invert パラメーターが true の場合、その比較の結果は反転されます。

たとえば、equal to ルールを反転すると、実質的には not equal to ルールになります。regex ルールを反転すると、指定された正規表現が一致しない場合にだけ true が返されます。

11.7. レイヤー 7 負荷分散ポリシー

Red Hat OpenStack Platform Load-balancing サービス (octavia) の場合、レイヤー 7 (L7) 負荷分散ポリシーは、リスナーと関連付けられた L7 ルールの集合です。また、バックエンドプールとも関連付けられる場合があります。ポリシーは、ポリシー内のすべてのルールが true の場合、ロードバランサーが実行するアクションです。

注記

UDP ロードバランサーで L7 ポリシーおよびルールを作成することはできません。

11.8. レイヤー 7 負荷分散ポリシーのロジック

Red Hat OpenStack Platform Load-balancing サービス (octavia) の場合、レイヤー 7 負荷分散ポリシーのロジックは非常にシンプルです。指定されたポリシーに関連付けられたすべてのルールは、論理的に AND で結合されます。ポリシーとマッチするためには、リクエストはすべてのポリシールールとマッチする必要があります。

ルール間で論理 OR 演算を表現する必要がある場合は、同じアクションで複数のポリシーを作成するか、より複雑な正規表現を作成します)。

11.9. レイヤー 7 負荷分散ポリシーのアクション

レイヤー 7 負荷分散ポリシーが指定のリクエストとマッチする場合は、そのポリシーのアクションが実行されます。L7 ポリシーが実行する可能性のあるアクションは次のとおりです。

  • REJECT: リクエストは適切な応答コードと共に拒否され、いずれのバックエンドプールにも転送されません。
  • REDIRECT_TO_URL: リクエストは、redirect_url パラメーターに定義された URL に HTTP リダイレクトが送信されます。
  • REDIRECT_PREFIX: このポリシーにマッチするリクエストは、この接頭辞 URL にリダイレクトされます。
  • REDIRECT_TO_POOL: リクエストは、L7 ポリシーに関連付けられたバックエンドプールに転送されます。

11.10. レイヤー 7 負荷分散ポリシーの位置

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) の場合には、複数のレイヤー 7 (L7) 負荷分散ポリシーがリスナーに関連付けられると、ポリシーの位置パラメーターの値が重要になります。位置パラメーターは、L7 ポリシーが評価される順序を決定する際に使用されます。ポリシーの位置は、次の方法でリスナーの動作に影響を与えます。

  • 負荷分散サービス (haproxy amphora) の参照実装では、HAProxy はポリシーのアクションに関する以下の順序を強制します。

    • REJECT ポリシーは、他のすべてのポリシーよりも優先されます。
    • REDIRECT_TO_URL ポリシーは、REDIRECT_TO_POOL ポリシーよりも優先されます。
    • REDIRECT_TO_POOL ポリシーは、上記のすべての後で、ポリシーの位置が指定する順序でのみ評価されます。
  • L7 ポリシーは、位置属性で定義されるように特定の順序で評価されます。指定のリクエストとマッチする最初のポリシーのアクションが実行されます。
  • いずれのポリシーも指定のリクエストにマッチしない場合、リクエストはリスナーのデフォルトプール (存在する場合) にルーティングされます。リスナーにデフォルトのプールがない場合は、エラー 503 を返します。
  • ポリシーの位置の番号は、1 から始まります。
  • 既存ポリシーの位置に一致する位置で新しいポリシーが作成されると、新しいポリシーが指定の位置に挿入されます。
  • 位置を指定せずに新しいポリシーが作成されるか、一覧にすでにあるポリシーの番号よりも大きい位置を指定すると、新しいポリシーはただ一覧に追加されます。
  • ポリシーがリストに挿入、削除、または追加されると、ポリシーの位置の値は数字を飛ばさずに 1 から並べ替えられます。たとえば、ポリシー A、B、および C の位置の値がそれぞれ 12、および 3 の場合、リストからポリシー B を削除すると、ポリシー C の位置は 2 になります。

11.11. セキュアではない HTTP リクエストのセキュアな HTTP へのリダイレクト

レイヤー 7 (L7) ポリシーと共に Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) を使用して、セキュアではない TCP ポート上で受信した HTTP リクエストをセキュアな TCP ポートにリダイレクトすることができます。

この例では、セキュアではない TCP ポート 80 に到達するすべての HTTP リクエストは、セキュアな TCP ポート 443 にリダイレクトされます。

前提条件

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) のポート (80) に HTTP リスナー (http_listener) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer listener create --name http_listener \
    --protocol HTTP --protocol-port 80 lb1

  3. リスナー (http_listener) に L7 ポリシー (policy1) を作成します。ポリシーには、アクション (REDIRECT_TO_URL) が含まれ、URL (https://www.example.com/) を示す必要があります。

    $ openstack loadbalancer l7policy create --name policy1 \
    --action REDIRECT_PREFIX --redirect-prefix https://www.example.com/ \
    http_listener

  4. すべてのリクエストにマッチする L7 ルールを、ポリシー (policy1) に追加します。

    $ openstack loadbalancer l7rule create --compare-type STARTS_WITH \
    --type PATH --value / policy1

検証

  1. openstack loadbalancer l7policy list コマンドを実行し、ポリシー policy1 が存在することを確認します。
  2. openstack loadbalancer l7rule list <l7policy> コマンドを実行し、compare_typeSTARTS_WITH のルールが存在することを確認します。

    $ openstack loadbalancer l7rule list policy1

関連情報

11.12. 開始パスに基づくリクエストのプールへのリダイレクト

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) を使用して、HTTP リクエストをサーバーの別のプールにリダイレクトすることができます。リクエストの URL の 1 つ以上の開始パスに一致するようにレイヤー 7 (L7) ポリシーを定義できます。

以下の例では、/js または /images で始まる URL が含まれるリクエストは、すべて静的コンテンツサーバーの別のプールにリダイレクトされます。

前提条件

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) に 2 番目のプール (static_pool) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer pool create --name static_pool \
    --lb-algorithm ROUND_ROBIN --loadbalancer lb1 --protocol HTTP

  3. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をプール (static_pool) に追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 static_pool
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 static_pool
  4. リスナー (listener1) に L7 ポリシー (policy1) を作成します。ポリシーには、アクション (REDIRECT_TO_POOL) を追加し、プール (static_pool) を示す必要があります。

    $ openstack loadbalancer l7policy create --name policy1 \
    --action REDIRECT_TO_POOL --redirect-pool static_pool listener1

  5. リクエストパスの先頭に /js を探す L7 ルールを、ポリシーに追加します。

    $ openstack loadbalancer l7rule create --compare-type STARTS_WITH \
    --type PATH --value /js policy1

  6. アクション (REDIRECT_TO_POOL) で L7 ポリシー (policy2) を作成し、プールに示したリスナー (listener1) を追加します。

    $ openstack loadbalancer l7policy create --name policy2 \
    --action REDIRECT_TO_POOL --redirect-pool static_pool listener1

  7. リクエストパスの先頭に /images を探す L7 ルールを、ポリシーに追加します。

    $ openstack loadbalancer l7rule create --compare-type STARTS_WITH \
    --type PATH --value /images policy2

検証

  1. openstack loadbalancer l7policy list コマンドを実行し、ポリシー policy1 および policy2 が存在することを確認します。
  2. openstack loadbalancer l7rule list <l7policy> コマンドを実行し、それぞれのポリシーごとに compare_typeSTARTS_WITH のルールが存在することを確認します。

    $ openstack loadbalancer l7rule list policy1
    
    $ openstack loadbalancer l7rule list policy2

関連情報

11.13. 特定プールへのサブドメインリクエストの送信

レイヤー 7 (L7) ポリシーと共に Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) を使用して、特定の HTTP/1.1 ホスト名が含まれるリクエストをアプリケーションサーバーの異なるプールにリダイレクトすることができます。

以下の例では、HTTP/1.1 ホスト名 www2.example.com が含まれるリクエストは、すべてアプリケーションサーバーの別のプール pool2 にリダイレクトされます。

前提条件

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) に 2 つ目のプール (pool2) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer pool create --name pool2 \
    --lb-algorithm ROUND_ROBIN --loadbalancer lb1 --protocol HTTP

  3. リスナー (listener1) に L7 ポリシー (policy1) を作成します。ポリシーには、アクション (REDIRECT_TO_POOL) を追加し、プール (pool2) を示す必要があります。

    $ openstack loadbalancer l7policy create --name policy1 \
    --action REDIRECT_TO_POOL --redirect-pool pool2 listener1

  4. HTTP/1.1 ホスト名 www2.example.com を使用するすべてのリクエストを 2 番目のプール (pool2) に送信するポリシーに、L7 ルールを追加します。

    $ openstack loadbalancer l7rule create --compare-type EQUAL_TO \
    --type HOST_NAME --value www2.example.com policy1

検証

  1. openstack loadbalancer l7policy list コマンドを実行し、ポリシー policy1 が存在することを確認します。
  2. openstack loadbalancer l7rule list <l7policy> コマンドを実行し、ポリシーに compare_typeEQUAL_TO のルールが存在することを確認します。

    $ openstack loadbalancer l7rule list policy1

関連情報

11.14. ホスト名末尾に基づくリクエストの特定プールへの送信

レイヤー 7 (L7) ポリシーと共に Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) を使用して、特定の文字列で終わる HTTP/1.1 ホスト名が含まれるリクエストをアプリケーションサーバーの異なるプールにリダイレクトすることができます。

以下の例では、.example.com で終わる HTTP/1.1 ホスト名が含まれるリクエストは、すべてアプリケーションサーバーの別のプール pool2 にリダイレクトされます。

前提条件

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) に 2 つ目のプール (pool2) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer pool create --name pool2 \
    --lb-algorithm ROUND_ROBIN --loadbalancer lb1 --protocol HTTP

  3. リスナー (listener1) に L7 ポリシー (policy1) を作成します。ポリシーには、アクション (REDIRECT_TO_POOL) を追加し、プール (pool2) を示す必要があります。

    $ openstack loadbalancer l7policy create --name policy1 \
    --action REDIRECT_TO_POOL --redirect-pool pool2 listener1

  4. HTTP/1.1 ホスト名 (www2.example.com) を使用するすべてのリクエストを 2 番目のプール (pool2) に送信するポリシーに、L7 ルールを追加します。

    $ openstack loadbalancer l7rule create --compare-type ENDS_WITH \
    --type HOST_NAME --value .example.com policy1

検証

  1. openstack loadbalancer l7policy list コマンドを実行し、ポリシー policy1 が存在することを確認します。
  2. openstack loadbalancer l7rule list <l7policy> コマンドを実行し、ポリシーに compare_typeEQUAL_TO のルールが存在することを確認します。

    $ openstack loadbalancer l7rule list policy1

関連情報

11.17. 名前がホスト名およびパスと一致するリクエストのプールへの送信

Red Hat OpenStack Platform (RHOSP) Load-balancing サービス (octavia) を使用して、特定の条件に一致する Web クライアントリクエストをアプリケーションサーバーの別のプールにリダイレクトすることができます。ビジネスロジックの条件は、事前定義されたホスト名およびリクエストパスを照合しようとするレイヤー 7 (L7) ポリシーで実行されます。

以下の例では、ホスト名 api.example.com に一致するか、リクエストパスの先頭が /api であるすべての Web クライアントリクエストは、別のプール api_pool にリダイレクトされます。

前提条件

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) に 2 番目のプール (api_pool) を作成します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer pool create --name api_pool \
    --lb-algorithm ROUND_ROBIN --loadbalancer lb1 --protocol HTTP

  3. プライベートサブネット (private_subnet) のロードバランサーメンバー (192.0.2.10 および 192.0.2.11) をプール (static_pool) に追加します。

    この例では、バックエンドサーバー 192.0.2.10 および 192.0.2.11 の名前は、それぞれ member1 および member2 です。

    $ openstack loadbalancer member create --name member1 --subnet-id \
    private_subnet --address 192.0.2.10 --protocol-port 80 static_pool
    
    $ openstack loadbalancer member create --name member2 --subnet-id \
    private_subnet --address 192.0.2.11 --protocol-port 80 static_pool
  4. リスナー (listener1) に L7 ポリシー (policy1) を作成します。ポリシーには、アクション (REDIRECT_TO_POOL) を追加し、プール (api_pool) を示す必要があります。

    $ openstack loadbalancer l7policy create --action REDIRECT_TO_POOL \
    --redirect-pool api_pool --name policy1 listener1

  5. ホスト名 api.example.com にマッチする L7 ルールを、ポリシーに追加します。

    $ openstack loadbalancer l7rule create --compare-type EQUAL_TO \
    --type HOST_NAME --value api.example.com policy1

  6. リクエスパスの最初の /api にマッチする 2 番目の L7 ルールを、ポリシーに追加します。

    このルールは、最初のルールと論理的に AND で結合されます。

    $ openstack loadbalancer l7rule create --compare-type STARTS_WITH \
    --type PATH --value /api policy1

検証

  1. openstack loadbalancer l7policy list コマンドを実行し、ポリシー policy1 が存在することを確認します。
  2. openstack loadbalancer l7rule list <l7policy> コマンドを実行し、policy1compare_typeSTARTS_WITH および STARTS_WITH であるルールが共に存在することを確認します。

    $ openstack loadbalancer l7rule list policy1
    
    $ openstack loadbalancer l7rule list policy2

関連情報

第12章 タグを使用した負荷分散サービスオブジェクトのグループ化

タグは、グループに分類する目的で Red Hat OpenStack Platform 負荷分散サービス (octavia) オブジェクトに追加できる任意の文字列です。タグは、負荷分散オブジェクト (ロードバランサー、リスナー、プール、メンバー、ヘルスモニター、ルール、およびポリシー) の機能には影響しません。オブジェクトの作成時にタグを追加することも、オブジェクトの作成後にタグを追加または削除することもできます。

特定のタグを負荷分散オブジェクトに関連付けることで、list コマンドを実行して、1 つ以上のグループに属するオブジェクトをフィルタリングできます。オブジェクトを 1 つ以上のグループにフィルター処理できることは、負荷分散サービスリソースの使用、割り当て、および保守を管理するための出発点となります。オブジェクトにタグを付ける機能は、自動化された設定管理ツールによっても活用できます。

このセクションに含まれるトピックは次のとおりです。

12.1. 負荷分散サービスオブジェクトの作成時にタグを追加する

Red Hat OpenStack 負荷分散サービス (octavia) オブジェクトを作成するときに、選択したタグを追加できます。タグが配置されると、それぞれの loadbalancer list コマンドを使用して、ロードバランサー、リスナー、プール、メンバー、ヘルスモニター、ルール、およびポリシーをフィルター処理できます。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. オブジェクトの適切な create コマンドで --tag <tag> オプションを使用して作成するときに、負荷分散オブジェクトにタグを追加します。

    • openstack loadbalancer create --tag <tag> …​
    • openstack loadbalancer listener create --tag <tag> …​
    • openstack loadbalancer pool create --tag <tag> …​
    • openstack loadbalancer member create --tag <tag> …​
    • openstack loadbalancer healthmonitor create --tag <tag> …​
    • openstack loadbalancer l7policy create --tag <tag> …​
    • openstack loadbalancer l7rule create --tag <tag> …​

      注記

      タグは、最大長が 255 文字の任意の有効な Unicode 文字列にすることができます。

      例 - ロードバランサーの作成およびタグ付け

      この例では、FinanceSales の 2 つのタグを持つロードバランサー lb1 が作成されます。

      $ openstack loadbalancer create --name lb1 \
      --vip-subnet-id public_subnet --tag Finance --tag Sales
      注記

      負荷分散サービスオブジェクトは、1 つ以上のタグを持つことができます。追加するタグごとに --tag <tag> オプションを繰り返します。

      例 - リスナーの作成およびタグ付け

      この例では、listener1 がタグ Sales で作成されます。

      $ openstack loadbalancer listener create --name listener1 --protocol HTTP --protocol-port 80 --tag Sales lb1

      例 - プールの作成およびタグ付け

      この例では、プール pool1 がタグ Sales で作成されます。

      $ openstack loadbalancer pool create --name pool1 \
      --lb-algorithm ROUND_ROBIN --listener listener1 \
      --protocol HTTP --tag Sales

      例 - プールにメンバーを作成してタグ付けする

      この例では、メンバー 192.0.2.10 が、タグ Sales を持つ pool1 に作成されます。

      $ openstack loadbalancer member create --name member1 \
      --subnet-id private_subnet --address 192.0.2.10 --protocol-port 80 \
      --tag Sales pool1

      例 - ヘルスモニターの作成およびタグ付け

      この例では、ヘルスモニター healthmon1 がタグ Sales で作成されます。

      $ openstack loadbalancer healthmonitor create --name healthmon1 \
      --delay 15 --max-retries 4 --timeout 10 --type HTTP --url-path / \
      --tag Sales pool1

      例 - L7 ポリシーの作成およびタグ付け

      この例では、L7 ポリシー policy1 がタグ Sales で作成されます。

      $ openstack loadbalancer l7policy create --action REDIRECT_PREFIX \
      --redirect-prefix https://www.example.com/ \
      --name policy1 http_listener --tag Sales

      例 - L7 ルールの作成およびタグ付け

      この例では、L7 ルール rule1 がタグ Sales で作成されます。

      $ openstack loadbalancer l7rule create --compare-type STARTS_WITH \
      --type PATH --value / --tag Sales policy1

検証

  • 作成したオブジェクトが存在し、オブジェクトに適切な show コマンドを使用して追加したタグが含まれていることを確認します。

    この例では、lb1show コマンドが実行されます。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | availability_zone   | None                                 |
    | created_at          | 2022-08-26T19:34:15                  |
    | description         |                                      |
    | flavor_id           | None                                 |
    | id                  | 7975374b-3367-4436-ab19-2d79d8c1f29b |
    | listeners           |                                      |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               |                                      |
    | project_id          | 2eee3b86ca404cdd977281dac385fd4e     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-08-30T13:30:17                  |
    | vip_address         | 172.24.3.76                          |
    | vip_network_id      | 4c241fc4-95eb-491a-affe-26c53a8805cd |
    | vip_port_id         | 9978a598-cc34-47f7-ba28-49431d570fd1 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | e999d323-bd0f-4469-974f-7f66d427e507 |
    | tags                | Finance                              |
    |                     | Sales                                |
    +---------------------+--------------------------------------+

  • コマンドラインインターフェイスリファレンスloadbalancer create
  • コマンドラインインターフェイスリファレンスloadbalancer show

12.2. 既存の負荷分散サービスオブジェクトへのタグの追加または削除

Red Hat OpenStack Load-balancing サービス (octavia) オブジェクトが作成された後、選択したタグを追加および削除できます。タグが配置されると、それぞれの loadbalancer list コマンドを使用して、ロードバランサー、リスナー、プール、メンバー、ヘルスモニター、ルール、およびポリシーをフィルター処理できます。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. 次のいずれかを行います。

    • オブジェクトの適切な set コマンドで --tag <tag> オプションを使用して、既存の負荷分散オブジェクトにタグを追加します。

      • openstack loadbalancer set --tag <tag> <load_balancer_name_or_ID>
      • openstack loadbalancer listener set --tag <tag> <listener_name_or_ID>
      • openstack loadbalancer pool set --tag <tag> <pool_name_or_ID>
      • openstack loadbalancer member set --tag <tag> <pool_name_or_ID> <member_name_or_ID>
      • openstack loadbalancer healthmonitor set --tag <tag> <healthmon_name_or_ID>
      • openstack loadbalancer l7policy set --tag <tag> <l7policy_name_or_ID>
      • openstack loadbalancer l7rule set --tag <tag> <l7policy_name_or_ID> <l7rule_ID>

        注記

        タグは、最大長が 255 文字の任意の有効な Unicode 文字列にすることができます。

        この例では、タグ Finance および Sales がロードバランサー lb1 に追加されます。

        $ openstack loadbalancer set --tag Finance --tag Sales lb1
        注記

        負荷分散サービスオブジェクトは、1 つ以上のタグを持つことができます。追加するタグごとに --tag <tag> オプションを繰り返します。

    • オブジェクトの適切な unset コマンドで --tag <tag> オプションを使用して、既存の負荷分散オブジェクトからタグを削除します。

      • openstack loadbalancer unset --tag <tag> <load_balancer_name_or_ID>
      • openstack loadbalancer listener unset --tag <tag> <listener_name_or_ID>
      • openstack loadbalancer pool unset --tag <tag> <pool_name_or_ID>
      • openstack loadbalancer member unset --tag <tag> <pool_name_or_ID> <member_name_or_ID>
      • openstack loadbalancer healthmonitor unset --tag <tag> <healthmon_name_or_ID>
      • openstack loadbalancer l7policy unset --tag <tag> <policy_name_or_ID>
      • openstack loadbalancer l7rule unset --tag <tag> <policy_name_or_ID> <l7rule_ID>

        この例では、タグ Sales がロードバランサー lb1 から削除されます。

        $ openstack loadbalancer unset --tag Sales lb1
    • オブジェクトに適切な set コマンドで --no-tag オプションを使用して、既存の負荷分散オブジェクトからすべてのタグを削除します。

      • openstack loadbalancer set --no-tag <load_balancer_name_or_ID>
      • openstack loadbalancer listener set --no-tag <listener_name_or_ID>
      • openstack loadbalancer pool set --no-tag <pool_name_or_ID>
      • openstack loadbalancer member set --no-tag <pool_name_or_ID> <member_name_or_ID>
      • openstack loadbalancer healthmonitor set --no-tag <healthmon_name_or_ID>
      • openstack loadbalancer l7policy set --no-tag <l7policy_name_or_ID>
      • openstack loadbalancer l7rule set --no-tag <l7policy_name_or_ID> <l7rule_ID>

        この例では、すべてのタグがロードバランサー lb1 から削除されます。

        $ openstack loadbalancer set --no-tag lb1

検証

  • オブジェクトに適切な show コマンドを使用して、ロードバランシングオブジェクトで 1 つ以上のタグを追加または削除したことを確認します。

    この例では、lb1show コマンドが実行されます。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | availability_zone   | None                                 |
    | created_at          | 2022-08-26T19:34:15                  |
    | description         |                                      |
    | flavor_id           | None                                 |
    | id                  | 7975374b-3367-4436-ab19-2d79d8c1f29b |
    | listeners           |                                      |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               |                                      |
    | project_id          | 2eee3b86ca404cdd977281dac385fd4e     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-08-30T13:30:17                  |
    | vip_address         | 172.24.3.76                          |
    | vip_network_id      | 4c241fc4-95eb-491a-affe-26c53a8805cd |
    | vip_port_id         | 9978a598-cc34-47f7-ba28-49431d570fd1 |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | e999d323-bd0f-4469-974f-7f66d427e507 |
    | tags                | Finance                              |
    |                     | Sales                                |
    +---------------------+--------------------------------------+

  • コマンドラインインターフェイスリファレンスloadbalancer set
  • コマンドラインインターフェイスリファレンスloadbalancer show

12.3. タグを使用した負荷分散サービスオブジェクトのフィルタリング

Red Hat OpenStack Load-balancing サービス (octavia) を使用して、オブジェクトのリストを作成できます。タグ付けされたオブジェクトについては、フィルタリングされたリストを作成できます。これは、オブジェクトに指定されたタグが 1 つ以上含まれているかどうかに基づいて、オブジェクトを含めたり除外したりするリストです。タグを使用してロードバランサー、リスナー、プール、メンバー、ヘルスモニター、ルール、およびポリシーをフィルタリングできることは、負荷分散サービスリソースの使用、割り当て、およびメンテナンスを管理するための出発点となります。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. 次のいずれかのタグオプションを使用して、オブジェクトに対して適切な loadbalancer list コマンドを実行し、一覧表示するオブジェクトをフィルタリングします。

    表12.1 オブジェクトをフィルタリングするためのタグオプション
    リストの中でしたいこと

    指定されたすべてのタグに一致するオブジェクトを含めます。

    $ openstack loadbalancer list --tags Sales,Finance

    $ openstack loadbalancer listener list --tags Sales,Finance

    $ openstack loadbalancer l7pool list --tags Sales,Finance

    $ openstack loadbalancer member list --tags Sales,Finance pool1

    $ openstack loadbalancer healthmonitor list --tags Sales,Finance

    $ openstack loadbalancer l7policy list --tags Sales,Finance

    $ openstack loadbalancer l7rule list --tags Sales,Finance policy1

    1 つ以上の指定されたタグに一致するオブジェクトを含めます。

    $ openstack loadbalancer list --any-tags Sales,Finance

    $ openstack loadbalancer listener list --any-tags Sales,Finance

    $ openstack loadbalancer l7pool list --any-tags Sales,Finance

    $ openstack loadbalancer member list --any-tags Sales,Finance pool1

    $ openstack loadbalancer healthmonitor list --any-tags Sales,Finance

    $ openstack loadbalancer l7policy list --any-tags Sales,Finance

    $ openstack loadbalancer l7rule list --any-tags Sales,Finance policy1

    指定されたすべてのタグに一致するオブジェクトを除外します。

    $ openstack loadbalancer list --not-tags Sales,Finance

    $ openstack loadbalancer listener list --not-tags Sales,Finance

    $ openstack loadbalancer l7pool list --not-tags Sales,Finance

    $ openstack loadbalancer member list --not-tags Sales,Finance pool1

    $ openstack loadbalancer healthmonitor list --not-tags Sales,Finance

    $ openstack loadbalancer l7policy list --not-tags Sales,Finance

    $ openstack loadbalancer l7rule list --not-tags Sales,Finance policy1

    1 つ以上の指定されたタグに一致するオブジェクトを除外します。

    $ openstack loadbalancer list --not-any-tags Sales,Finance

    $ openstack loadbalancer listener list --not-any-tags Sales,Finance

    $ openstack loadbalancer l7pool list --not-any-tags Sales,Finance

    $ openstack loadbalancer member list --not-any-tags Sales,Finance pool1

    $ openstack loadbalancer healthmonitor list --not-any-tags Sales,Finance

    $ openstack loadbalancer l7policy list --not-any-tags Sales,Finance

    $ openstack loadbalancer l7rule list --not-any-tags Sales,Finance policy1

    注記

    複数のタグを指定する場合は、タグをコンマで区切ります。

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer list

第13章 エッジでネットワークトラフィックの負荷を分散するためのアベイラビリティーゾーンの作成

Red Hat OpenStack Platform (RHOSP) 負荷分散サービス (octavia) を使用すると、アベイラビリティーゾーンにロードバランサーを作成して、トラフィックのスループットを向上させ、レイテンシーを短縮できます。

このセクションに含まれるトピックは次のとおりです。

13.1. 負荷分散サービス用のアベイラビリティーゾーンの作成

Red Hat OpenStack Platform (RHOSP) の Load-balancing サービス (octavia) を使用すると、RHOSP 管理者はアベイラビリティーゾーン (AZ) を作成できます。これにより、プロジェクトユーザーは分散コンピュートノード (DCN) 環境にロードバランサーを作成して、トラフィックスループットを向上させ、レイテンシーを短縮できます。

Load-balancing サービス AZ を作成するには手順を 2 つ実行する必要があります。RHOSP 管理者は、まず AZ プロファイルを作成し、次にそのプロファイルを使用してユーザーに表示される Load-balancing サービス AZ を作成する必要があります。

AZ プロファイルには次のものが必要です。

  • Compute サービス (nova) AZ の名前。
  • 使用する管理ネットワーク。

    複数の管理ネットワークがあり、それぞれの AZ に固有のネットワークが 1 つある。中央の AZ は既存の負荷分散管理ネットワーク lb-mgmt-net を使用し、追加の AZ はそれぞれのネットワーク lb-mgmt-<AZ_name>-net を使用します (例: lb-mgmt-az-dcn1-net)lb-mgmt-az-dcn2-net など)。

前提条件

  • octavia-dcn-deployment.yaml Ansible Playbook を実行して、必要なネットワークリソースが作成された DCN 環境が必要です。

    詳細は、分散コンピュートノード (DCN) アーキテクチャーのデプロイ ガイドの 負荷分散サービスアベイラビリティーゾーンのネットワークリソースの作成 を参照してください。

  • Load-balancing サービスプロバイダードライバーが amphora である。OVN プロバイダードライバーは AZ をサポートしません。
  • admin ロールを持つ RHOSP ユーザーである。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/centralrc

  2. Load-balancing サービス AZ に名前を付けるために使用する Compute サービス AZ の名前を収集します。

    重要

    作成する Load-balancing サービス AZ の名前は、Compute サービス AZ の名前と一致する必要があります。

    $ openstack availability zone list --compute

    出力例

    +------------+-------------+
    | Zone Name  | Zone Status |
    +------------+-------------+
    | az-central | available   |
    | az-dcn1    | available   |
    | az-dcn2    | available   |
    | internal   | available   |
    +------------+-------------+

  3. Load-balancing サービス AZ の作成に使用する管理ネットワークの ID を収集します。

    $ openstack network list -c Name -c ID

    出力例

    +--------------------------------------+--------------------------+
    | ID                                   | Name                     |
    +--------------------------------------+--------------------------+
    | 10458d6b-e7c9-436f-92d9-711677c9d9fd | lb-mgmt-az-dcn2-net      |
    | 662a94f5-51eb-4a4c-86c4-52dcbf471ef9 | lb-mgmt-net              |
    | 6b97ef58-2a25-4ea5-931f-b7c07cd09474 | lb-mgmt-backbone-net     |
    | 99f4215b-fad8-432d-8444-1f894154dc30 | heat_tempestconf_network |
    | a2884aaf-846c-4936-9982-3083f6a71d9b | lb-mgmt-az-dcn1-net      |
    | d7f7de6c-0e84-49e2-9042-697fa85d2532 | public                   |
    | e887a9f9-15f7-4854-a797-033cedbfe5f3 | public2                  |
    +--------------------------------------+--------------------------+

  4. AZ プロファイルを作成します。この手順を繰り返して、作成する Load-balancing サービス AZ ごとに AZ プロファイルを作成します。

    $ openstack loadbalancer availabilityzoneprofile create \
    --name <AZ_profile_name> --provider amphora --availability-zone-data '{"compute_zone": "<compute_AZ_name>","management_network": "<lb_mgmt_AZ_net_UUID>"}'

    例: az-central のプロファイルを作成する

    この例では、Compute AZ (az-central) で実行される Compute ノード上の管理ネットワーク (lb-mgmt-net) を使用する AZ プロファイル (az_profile_central) が作成されます。

    $ openstack loadbalancer availabilityzoneprofile create \
    --name az_profile_central --provider amphora --availability-zone-data \
    '{"compute_zone": "az-central","management_network": \
    "662a94f5-51eb-4a4c-86c4-52dcbf471ef9"}'
  5. 手順 4 を繰り返して、作成する Load-balancing サービス AZ ごとに AZ プロファイルを作成します。

    例: az-dcn1 のプロファイルを作成する

    この例では、コンピュート AZ (az-dcn1) で実行される Compute ノード上の管理ネットワーク (lb-mgmt-az-dcn1-net) を使用する AZ プロファイル (az-profile-dcn1) が作成されます。

    $ openstack loadbalancer availabilityzoneprofile create \
    --name az-profile-dcn1 --provider amphora --availability-zone-data \
    '{"compute-zone": "az-dcn1","management-network": \
    "a2884aaf-846c-4936-9982-3083f6a71d9b"}'

    例: az-dcn2 のプロファイルを作成する

    この例では、Compute AZ (az-dcn2) で実行される Compute ノード上の管理ネットワーク (lb-mgmt-az-dcn2-net) を使用する AZ プロファイル (az-profile-dcn2) が作成されます。

    $ openstack loadbalancer availabilityzoneprofile create \
    --name az-profile-dcn2 --provider amphora --availability-zone-data \
    '{"compute-zone": "az-dcn2","management-network": \
    "10458d6b-e7c9-436f-92d9-711677c9d9fd"}'
  6. AZ プロファイルを使用して、Load-balancing サービス AZ を作成します。各 AZ に適切なプロファイルを使用して、追加の AZ に対してこの手順を繰り返します。

    例: AZ: az-central を作成する

    この例では、AZ プロファイル (az-profile-central) を使用して、Load-balancing サービス AZ (az-central) が作成されます。

    $ openstack loadbalancer availabilityzone create --name az-central \
    --availabilityzoneprofile az-profile-central \
    --description "AZ for Headquarters" --enable

    例: AZ: az-dcn1 を作成する

    この例では、AZ プロファイル (az-profile-az-dcn1) を使用して、Load-balancing サービス AZ (az-dcn1) が作成されます。

    $ openstack loadbalancer availabilityzone create --name az-dcn1 \
    --availabilityzoneprofile az-profile-az-dcn1 \
    --description "AZ for South Region" --enable

    例: AZ: az-dcn2 を作成する

    この例では、AZ プロファイル (az-profile-az-dcn2) を使用して、Load-balancing サービス AZ (az-dcn2) が作成されます。

    $ openstack loadbalancer availabilityzone create --name az-dcn2 \
    --availabilityzoneprofile az-profile-az-dcn2 \
    --description "AZ for North Region" --enable

検証

  • AZ (az-central) が作成されたことを確認します。各 AZ に適切な名前を使用して、追加の AZ に対してこの手順を繰り返します。

    例: az-central を検証する

    $ openstack loadbalancer availabilityzone show az-central

    出力例

    +------------------------------+--------------------------------------+
    | Field                        | Value                                |
    +------------------------------+--------------------------------------+
    | name                         | az-central                           |
    | availability_zone_profile_id | 5ed25d22-52a5-48ad-85ec-255910791623 |
    | enabled                      | True                                 |
    | description                  | AZ for Headquarters                  |
    +------------------------------+--------------------------------------+

    例: az-dcn1 を検証する

    $ openstack loadbalancer availabilityzone show az-dcn1

    出力例

    +------------------------------+--------------------------------------+
    | Field                        | Value                                |
    +------------------------------+--------------------------------------+
    | name                         | az-dcn1                              |
    | availability_zone_profile_id | e0995a82-8e67-4cea-b32c-256cd61f9cf3 |
    | enabled                      | True                                 |
    | description                  | AZ for South Region                  |
    +------------------------------+--------------------------------------+

    例: az-dcn2 を検証する

    $ openstack loadbalancer availabilityzone show az-dcn2

    出力例

    +------------------------------+--------------------------------------+
    | Field                        | Value                                |
    +------------------------------+--------------------------------------+
    | name                         | az-dcn2                              |
    | availability_zone_profile_id | 306a4725-7dac-4046-8f16-f2e668ee5a8d |
    | enabled                      | True                                 |
    | description                  | AZ for North Region                  |
    +------------------------------+--------------------------------------+

関連情報

13.2. アベイラビリティーゾーンでのロードバランサーの作成

Red Hat OpenStack Platform (RHOSP) の Load-balancing サービス (octavia) を使用すると、分散コンピュートノード (DCN) 環境のアベイラビリティーゾーン (AZ) にロードバランサーを作成して、トラフィックのスループットを向上させ、レイテンシーを短縮できます。

前提条件

  • RHOSP 管理者が Load-balancing サービス AZ を提供しておく。
  • ロードバランサーに関連付けられた仮想 IP (VIP) ネットワークは、ロードバランサーがメンバーになっている AZ で利用できる必要があります。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/centralrc

  2. DCN 環境のロードバランサーを作成するには、loadbalancer create コマンドを --availability-zone オプションとともに使用し、適切な AZ を指定します。

    たとえば、アベイラビリティーゾーン (az-central) のパブリックサブネット (public_subnet) 上に終了されない HTTPS ロードバランサー (lb1) を作成するには、次のコマンドを入力します。

    $ openstack loadbalancer create --name lb1 --vip-subnet-id \
    public_subnet --availability-zone az-central
  3. リスナー、プール、ヘルスモニター、およびロードバランサーのメンバーを追加して、ロードバランサーの作成を続けます。

検証

  • ロードバランサー (lb1) がアベイラビリティーゾーン (az-central) のメンバーであることを確認します。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | availability_zone   | az-central                           |
    | created_at          | 2023-07-12T16:35:05                  |
    | description         |                                      |
    | flavor_id           | None                                 |
    | id                  | 85c7e567-a0a7-4fcb-af89-a0bbc9abe3aa |
    | listeners           |                                      |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               |                                      |
    | project_id          | d303d3bda9b34d73926dc46f4d0cb4bc     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2023-07-12T16:36:45                  |
    | vip_address         | 10.101.10.229                        |
    | vip_network_id      | d7f7de6c-0e84-49e2-9042-697fa85d2532 |
    | vip_port_id         | 7f916764-d171-4317-9c86-a1750a54b16e |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | a421cbcf-c5db-4323-b7ab-1df20ee6acab |
    | tags                |                                      |
    +---------------------+--------------------------------------+

関連情報

第14章 Load-balancing サービスの更新およびアップグレード

最新の Red Hat OpenStack Platform 負荷分散サービス (octavia) 機能とバグ修正を入手できるように、定期的な更新とアップグレードを実行します。

14.1. Load-balancing サービスの更新およびアップグレード

Load-balancing サービス (octavia) は、Red Hat OpenStack Platform (RHOSP) の更新またはアップグレードの一部です。

前提条件

  • アップグレード中に負荷分散サービスコントロールプレーンが完全には機能しなくなるので、アップグレードを実行するためのメンテナンス期間がスケジュールされていること。

手順

  1. Red Hat OpenStack Platform のマイナー更新の実行 ガイドの説明に従って、RHOSP 更新を実行します。
  2. メンテナンスリリースを適用した後に新機能を使用する必要がある場合は、実行中の amphora をローテーションして最新の amphora イメージに更新します。

14.2. 実行中の Load-balancing サービスインスタンスの更新

定期的に、実行中の Load-balancing サービスインスタンス (amphora) をより新しいイメージで更新することができます。たとえば、以下のイベント時に amphora インスタンスを更新する必要があります。

  • Red Hat OpenStack Platform (RHOSP) の更新またはアップグレード
  • システムへのセキュリティー更新
  • ベースとなる仮想マシンのフレーバー変更

RHOSP の更新またはアップグレード時に、director は自動的にデフォルトの amphora イメージをダウンロードし、それをオーバークラウドの Image サービス (glance) にアップロードし、負荷分散サービス (octavia) が新しいイメージを使用するように設定します。ロードバランサーをフェイルオーバーするときは、負荷分散サービスに、新しい amphora イメージを使用するインスタンス (amphora) を強制的に開始させます。

前提条件

  • amphora の新しいイメージ。これらは RHOSP の更新またはアップグレード時に利用可能です。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. 更新するすべてのロードバランサーの ID をリスト表示します。

    $ openstack loadbalancer list -c id -f value
  3. それぞれのロードバランサーをフェイルオーバーします。

    $ openstack loadbalancer failover <loadbalancer_id>
    注記

    ロードバランサーのフェイルオーバーを開始したら、システムの使用状況を監視し、必要に応じてフェイルオーバーを実行する速度を調整します。ロードバランサーのフェイルオーバーにより、新規仮想マシンおよびポートが作成されます。これにより、一時的に OpenStack Networking の負荷が高まる場合があります。

  4. ロードバランサーのフェイルオーバーの状態を監視します。

    $ openstack loadbalancer show <loadbalancer_id>

    ロードバランサーのステータスが ACTIVE になれば、更新は完了です。

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

第15章 Load-balancing サービスのトラブルシューティングおよびメンテナンス

Load-balancing サービス (octavia) の基本的なトラブルシューティングとメンテナンスは、ステータスを表示しインスタンスを移行するための OpenStack クライアントコマンドを熟知し、ログへのアクセス方法を理解することから始まります。より詳細なトラブルシューティングを行う必要がある場合は、1 つまたは複数の Load-balancing サービスインスタンス (amphora) に SSH 接続することができます。

15.1. ロードバランサーの検証

ロードバランサーの show コマンドと list コマンドの出力を表示することで、負荷分散サービス (octavia) とそのさまざまなコンポーネントのトラブルシューティングを行うことができます。

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. ロードバランサー (lb1) の設定を確認します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer show lb1

    出力例

    +---------------------+--------------------------------------+
    | Field               | Value                                |
    +---------------------+--------------------------------------+
    | admin_state_up      | True                                 |
    | created_at          | 2022-02-17T15:59:18                  |
    | description         |                                      |
    | flavor_id           | None                                 |
    | id                  | 265d0b71-c073-40f4-9718-8a182c6d53ca |
    | listeners           | 5aaa67da-350d-4125-9022-238e0f7b7f6f |
    | name                | lb1                                  |
    | operating_status    | ONLINE                               |
    | pools               | 48f6664c-b192-4763-846a-da568354da4a |
    | project_id          | 52376c9c5c2e434283266ae7cacd3a9c     |
    | provider            | amphora                              |
    | provisioning_status | ACTIVE                               |
    | updated_at          | 2022-02-17T16:01:21                  |
    | vip_address         | 192.0.2.177                          |
    | vip_network_id      | afeaf55e-7128-4dff-80e2-98f8d1f2f44c |
    | vip_port_id         | 94a12275-1505-4cdc-80c9-4432767a980f |
    | vip_qos_policy_id   | None                                 |
    | vip_subnet_id       | 06ffa90e-2b86-4fe3-9731-c7839b0be6de |
    +---------------------+--------------------------------------+

  3. 前の手順の loadbalancer ID (265d0b71-c073-40f4-9718-8a182c6d53ca) を使用して、ロードバランサーに関連付けられている amphora の ID (lb1) を取得します。

    $ openstack loadbalancer amphora list | grep 265d0b71-c073-40f4-9718-8a182c6d53ca

    出力例

    | 1afabefd-ba09-49e1-8c39-41770aa25070 | 265d0b71-c073-40f4-9718-8a182c6d53ca | ALLOCATED | STANDALONE | 198.51.100.7  | 192.0.2.177   |

  4. 前の手順の amphora ID (1afabefd-ba09-49e1-8c39-41770aa25070) を使用して、amphora 情報を表示します。

    $ openstack loadbalancer amphora show 1afabefd-ba09-49e1-8c39-41770aa25070

    出力例

    +-----------------+--------------------------------------+
    | Field           | Value                                |
    +-----------------+--------------------------------------+
    | id              | 1afabefd-ba09-49e1-8c39-41770aa25070 |
    | loadbalancer_id | 265d0b71-c073-40f4-9718-8a182c6d53ca |
    | compute_id      | ba9fc1c4-8aee-47ad-b47f-98f12ea7b200 |
    | lb_network_ip   | 198.51.100.7                         |
    | vrrp_ip         | 192.0.2.36                           |
    | ha_ip           | 192.0.2.177                          |
    | vrrp_port_id    | 07dcd894-487a-48dc-b0ec-7324fe5d2082 |
    | ha_port_id      | 94a12275-1505-4cdc-80c9-4432767a980f |
    | cert_expiration | 2022-03-19T15:59:23                  |
    | cert_busy       | False                                |
    | role            | STANDALONE                           |
    | status          | ALLOCATED                            |
    | vrrp_interface  | None                                 |
    | vrrp_id         | 1                                    |
    | vrrp_priority   | None                                 |
    | cached_zone     | nova                                 |
    | created_at      | 2022-02-17T15:59:22                  |
    | updated_at      | 2022-02-17T16:00:50                  |
    | image_id        | 53001253-5005-4891-bb61-8784ae85e962 |
    | compute_flavor  | 65                                   |
    +-----------------+--------------------------------------+

  5. リスナー (listener1) の詳細を表示します。

    $ openstack loadbalancer listener show listener1

    出力例

    +-----------------------------+--------------------------------------+
    | Field                       | Value                                |
    +-----------------------------+--------------------------------------+
    | admin_state_up              | True                                 |
    | connection_limit            | -1                                   |
    | created_at                  | 2022-02-17T16:00:59                  |
    | default_pool_id             | 48f6664c-b192-4763-846a-da568354da4a |
    | default_tls_container_ref   | None                                 |
    | description                 |                                      |
    | id                          | 5aaa67da-350d-4125-9022-238e0f7b7f6f |
    | insert_headers              | None                                 |
    | l7policies                  |                                      |
    | loadbalancers               | 265d0b71-c073-40f4-9718-8a182c6d53ca |
    | name                        | listener1                            |
    | operating_status            | ONLINE                               |
    | project_id                  | 52376c9c5c2e434283266ae7cacd3a9c     |
    | protocol                    | HTTP                                 |
    | protocol_port               | 80                                   |
    | provisioning_status         | ACTIVE                               |
    | sni_container_refs          | []                                   |
    | timeout_client_data         | 50000                                |
    | timeout_member_connect      | 5000                                 |
    | timeout_member_data         | 50000                                |
    | timeout_tcp_inspect         | 0                                    |
    | updated_at                  | 2022-02-17T16:01:21                  |
    | client_ca_tls_container_ref | None                                 |
    | client_authentication       | NONE                                 |
    | client_crl_container_ref    | None                                 |
    | allowed_cidrs               | None                                 |
    +-----------------------------+--------------------------------------+

  6. プール (pool1) とロードバランサーメンバーを表示します。

    $ openstack loadbalancer pool show pool1

    出力例

    +----------------------+--------------------------------------+
    | Field                | Value                                |
    +----------------------+--------------------------------------+
    | admin_state_up       | True                                 |
    | created_at           | 2022-02-17T16:01:08                  |
    | description          |                                      |
    | healthmonitor_id     | 4b24180f-74c7-47d2-b0a2-4783ada9a4f0 |
    | id                   | 48f6664c-b192-4763-846a-da568354da4a |
    | lb_algorithm         | ROUND_ROBIN                          |
    | listeners            | 5aaa67da-350d-4125-9022-238e0f7b7f6f |
    | loadbalancers        | 265d0b71-c073-40f4-9718-8a182c6d53ca |
    | members              | b92694bd-3407-461a-92f2-90fb2c4aedd1 |
    |                      | 4ccdd1cf-736d-4b31-b67c-81d5f49e528d |
    | name                 | pool1                                |
    | operating_status     | ONLINE                               |
    | project_id           | 52376c9c5c2e434283266ae7cacd3a9c     |
    | protocol             | HTTP                                 |
    | provisioning_status  | ACTIVE                               |
    | session_persistence  | None                                 |
    | updated_at           | 2022-02-17T16:01:21                  |
    | tls_container_ref    | None                                 |
    | ca_tls_container_ref | None                                 |
    | crl_container_ref    | None                                 |
    | tls_enabled          | False                                |
    +----------------------+--------------------------------------+

  7. ロードバランサーの VIP アドレス ( 192.0.2.177) に接続して、リスナーが HTTPS または TERMINATED_HTTPS プロトコルに設定されているロードバランサー全体に、HTTPS トラフィックが流れることを確認します。

    ヒント

    コマンド openstack loadbalancer show <load_balancer_name> を使用して、ロードバランサーの VIP アドレスを取得します。

    注記

    ロードバランサー VIP 用に実装されたセキュリティーグループは、必要なプロトコルとポートのデータトラフィックのみを許可します。上記の理由から、ICMP トラフィックがブロックされているため、ロードバランサー VIP に ping を実行できません。

    $ curl -v https://192.0.2.177 --insecure

    出力例

    * About to connect() to 192.0.2.177 port 443 (#0)
    *   Trying 192.0.2.177...
    * Connected to 192.0.2.177 (192.0.2.177) port 443 (#0)
    * Initializing NSS with certpath: sql:/etc/pki/nssdb
    * skipping SSL peer certificate verification
    * SSL connection using TLS_ECDHE_RSA_WITH_AES_256_GCM_SHA384
    * Server certificate:
    * 	subject: CN=www.example.com,O=Dis,L=Springfield,ST=Denial,C=US
    * 	start date: Jan 15 09:21:45 2021 GMT
    * 	expire date: Jan 15 09:21:45 2021 GMT
    * 	common name: www.example.com
    * 	issuer: CN=www.example.com,O=Dis,L=Springfield,ST=Denial,C=US
    > GET / HTTP/1.1
    > User-Agent: curl/7.29.0
    > Host: 192.0.2.177
    > Accept: */*
    >
    < HTTP/1.1 200 OK
    < Content-Length: 30
    <
    * Connection #0 to host 192.0.2.177 left intact

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

15.2. Load-balancing サービスインスタンスの管理ログ

Load-balancing サービスインスタンス (amphora) の管理ログオフロード機能は、テナントフローログを除く amphora 内のすべてのシステムロギングを対象とします。管理ログが送信されるのと同じ syslog レシーバーにテナントフローログを送信できます。管理ログを処理するのと同じ syslog レシーバーにテナントフローログを送信できますが、テナントフローログを個別に設定する必要があります。

amphora は、メッセージを送信するアプリケーションのネイティブログ形式を使用して、すべての管理ログメッセージを送信します。amphora は、他の Red Hat OpenStack Platform (RHOSP) ログと同じ場所の RHOSP Controller ノードにログを記録します (/var/log/containers/octavia-amphorae/)。

15.3. 特定の Load-balancing サービスインスタンスの移行

場合によっては、負荷分散サービスインスタンス (amphora) を移行する必要があります。たとえば、ホストがメンテナンスのためにシャットダウンされている場合

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. 移行する amphora の ID を特定します。後のステップで ID を指定する必要があります。

    $ openstack loadbalancer amphora list
  3. Compute スケジューラーサービスが退避しているコンピュートノードに新しい amphora をスケジュールしないようにするには、コンピュートノード (compute-host-1) を無効にします。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack compute service set compute-host-1 nova-compute --disable

  4. 取得した amphora ID (ea17210a-1076-48ff-8a1f-ced49ccb5e53) を使用して amphora をフェイルオーバーします。

    $ openstack loadbalancer amphora failover ea17210a-1076-48ff-8a1f-ced49ccb5e53

関連情報

  • コマンドラインインターフェイスリファレンスcompute service set
  • コマンドラインインターフェイスリファレンスloadbalancer

15.4. SSH を使用した負荷分散インスタンスへの接続

サービスの問題をトラブルシューティングするときは、SSH を使用して負荷分散サービスインスタンス (amphora) にログインします。

サービスの問題のトラブルシューティングを行う際に、Secure Shell (SSH) を使用して実行中の Load-balancing サービスインスタンス (amphora) にログインすると便利な場合があります。

前提条件

  • 負荷分散サービス (octavia) の SSH 秘密鍵が必要です。

手順

  1. ディレクターノードで、ssh-agent を起動し、ユーザー ID キーをエージェントに追加します。

    $ eval $(ssh-agent -s)
    $ sudo -E ssh-add /etc/octavia/ssh/octavia_id_rsa
  2. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  3. 接続する amphora の負荷分散管理ネットワーク (lb_network_ip) 上の IP アドレスを把握します。

    $ openstack loadbalancer amphora list
  4. SSH を使用して amphora に接続します。

    $ ssh -A -t tripleo-admin@<controller_node_IP_address> ssh cloud-user@<lb_network_ip>
  5. 終了したら、amphora への接続を閉じて、SSH エージェントを停止します。

    $ exit

関連情報

  • コマンドラインインターフェイスリファレンスloadbalancer

15.5. リスナー統計の表示

OpenStack クライアントを使用して、特定の Red Hat OpenStack Platform (RHOSP) ロードバランサーのリスナーに関する統計を取得できます。

  • 現在のアクティブな接続 (active_connections)
  • 受信バイト数の合計 (bytes_in)。
  • 送信されたバイトの合計 (bytes_out)。
  • 満たできなかった要求の合計 (request_errors)。
  • 処理した合計接続数 (total_connections)

手順

  1. Source コマンドで認証情報ファイルを読み込みます。

    $ source ~/overcloudrc

  2. リスナー (listener1) の統計を表示します。

    注記

    丸かっこ内の値は、この手順のコマンド例で使用されるサンプルの値です。これらのサンプル値を、実際のサイトに適した値に置き換えてください。

    $ openstack loadbalancer listener stats show listener1

    ヒント

    リスナーの名前が分からない場合は、loadbalancer listener list コマンドを実行します。

    出力例

    +--------------------+-------+
    | Field              | Value |
    +--------------------+-------+
    | active_connections | 0     |
    | bytes_in           | 0     |
    | bytes_out          | 0     |
    | request_errors     | 0     |
    | total_connections  | 0     |
    +--------------------+-------+

関連情報

15.6. リスナーリクエストエラーの解釈

特定の Red Hat OpenStack Platform (RHOSP) ロードバランサーのリスナーに関する統計を取得できます。詳細は、「リスナー統計の表示」 を参照してください。

RHOSP ロードバランサー (request_errors) が追跡する統計の 1 つが、ロードバランサーに接続するエンドユーザーからの要求で発生したエラーのみをカウントします。request_errors 変数は、メンバーサーバーによって報告されるエラーを測定しません。

たとえば、テナントが RHOSP Load-balancing サービス (octavia) を介して HTTP ステータスコード 400 (Bad Request) を返す Web サーバーに接続する場合、このエラーは Load-balancing サービスによって収集されません。ロードバランサーは、データトラフィックの内容を検査しません。この例では、ロードバランサーはユーザーと Web サーバーと正しく情報を転送するため、このフローを成功として解釈します。

以下の条件により、request_errors 変数が増分する可能性があります。

  • 要求を送信する前に、クライアントから早期の終了を行います。
  • クライアントからエラーを読み取ります。
  • クライアントのタイムアウト。
  • クライアントは接続を閉じます。
  • クライアントからのさまざまな不適切な要求。

関連情報

法律上の通知

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.