ネットワーク機能仮想化のための Red Hat ソリューション
ネットワーク機能仮想化のための Red Hat ソリューションの概要
概要
第1章 概要 リンクのコピーリンクがクリップボードにコピーされました!
ここでは、現在テクノロジープレビューとして提供されている Network Function Virtualization 向けの Red Hat ソリューションについて説明します。テクノロジープレビューとしてマークされた機能のサポート範囲の詳細については、https://access.redhat.com/support/offerings/techpreview/ を参照してください。
ネットワーク機能仮想化(NFV) では、仮想化の概念を使用して、ネットワークノード機能のクラス全体を相互接続して通信サービスを作成するビルディングブロックに移動します。NFV とは、専用のハードウェアアプライアンスをソフトウェアや自動化に置き換えることによって、ネットワークの定義、作成、管理を行う新しい方法です。
仮想 ネットワーク機能(VNF)は、ネットワーク機能ごとにカスタムハードウェアアプライアンスを使用する代わりに、標準の大量のサーバー、スイッチ、およびストレージ上でソフトウェアを実行する仮想環境で設定され ます。ネットワークベンダーの大部分は実行環境として仮想マシン(VM)を探していますが、コンテナーベースのアプローチも検討されています。ホップにより、効率と機敏性が向上します。サービスプロバイダーがアプリケーションの重点を重視し、オーバーヘッド(ハードウェアリソースのコストとインストール)をクラウドに移動することで、仮想化の利点を増やすと、コンテナーはますます重要になります。コンテナーは、実行するために必要なものすべて(コード、ランタイム、システムツールなど)を含む、ソフトウェアの周りにパッケージを作成できます。その後、ソフトウェアは異なるオペレーティング環境で同じ方法で実行できます。コンテナーには、密度の増加、高密度、インストール時間の加速などの利点が提供されます。
NFV は、汎用のクラウドベースのインフラストラクチャーでネットワーク機能を仮想化し、レガシーインフラストラクチャーよりも耐性、柔軟性、シンプルさ、効率、およびスケーラビリティーを提供します。また、コストを削減し、革新性を高めます。
NFV 環境は、仮想サーバー、ストレージ、その他のネットワークなど、完全に仮想化されたインフラストラクチャーをサポートするために必要なネットワークコンポーネントを統合し、提供するように設計されています。ハイボリュームサービス、スイッチ、およびストレージハードウェア上で動作する標準の IT 仮想化テクノロジーを利用して、ネットワーク機能を仮想化します。管理およびオーケストレーションロジックにより、これらのサービスをデプロイおよび維持します。NFV には、もう 1 つのコンポーネントもあります。ネットワーク機能仮想化インフラストラクチャー(NFVi) は、仮想機能のホストおよび接続に使用するリソースのプールです。NFVi リソースは、Virtualized Infrastructure Manager (VIM) により管理および制御されます。これらのリソースは、必要に応じて VNF および NFV Management and Orchestration (MANO) により使用されます。NFV の主な目標の 1 つは、ハードウェアとソフトウェアを分離することです。この分離には、追加の管理層が必要です。この管理には、NFV MANO により対処されます。MANO は、仮想マシンや VNF と対話して、仮想マシンと VNF のライフサイクルを管理する Virtual Network Functions Manager (VNFM) を定義します。MANO で定義されるその他の重要なコンポーネントは Orchestrator です。運用/ビジネスサポートシステム(OSS/BSS) や VNF マネージャーなど、さまざまなデータベースおよびシステムとのオーケストレーターインターフェイスオーケストレーターが VNF または仮想マシンのインスタンスを作成する場合には、VNF マネージャーにこのようなインスタンスを作成するよう要求します。
NFV を実装する際の主な利点は以下のとおりです。
- ビジネス要件の変更をサポートするために新しいハードウェアをインストールする必要がないため、新しいネットワークサービスを迅速に展開できるようにすることで、マークへの時間短縮を加速します。NFV により、新たなサービスのロールアウトに関連するリスクが軽減され、プロバイダーは簡単にサービスのトライアルと進化を行い、お客様のニーズに最適なものを判断できます。
- 変化する要求に対応するためにサービスを迅速にスケーリングし、あらゆる業界標準サーバーハードウェア上のソフトウェアを使用してサービスを配信できるようにすることで、イノベーションをサポートすることで、機敏性と柔軟性を提供します。
- セキュリティーやパフォーマンスを犠牲にせず、週/日単位ではなく、時間/分単位で顧客のニーズに対応します。
- ワンタイムデベートを可能にするため、大文字の手間が減少します。
- 機器のスペース、電力、色付けの要件を削減することで、運用コストを削減します。
1.1. Red Hat および NFV リンクのコピーリンクがクリップボードにコピーされました!
Red Hat は、オープンソースの中継グレードのソリューションを提供しています。Red Hat Solution for NFV は、OpenStack などの既存のオープンソース製品で利用可能な NFV 機能を追加することで、IT およびネットワークのコンバージェンスを実現するために通信サービスプロバイダー(CSP)を支援するのに役立ちます。
Red Hat NFV ソリューションの最も一般的なユースケースは、幅広いカテゴリーに分類されます。
Mobility: vEPC や vIMS などのサービスをデプロイする CSP のヘルプ。
マネージドサービス の管理 サービスは、サービスプロバイダーが小規模、中規模、大規模な企業に提供するサービスです。大半の一般的なサービスは、CPE (Managed Customer Premise Equipment)、管理対象ファイアウォール、VPN 終了ゲートウェイ、Intrusion Detection および Analytics です。
マネージドサービスでは、SP はこれらの "aaS" (サービスとして)(CPEaaS、FWaaS など)を提供します。マネージドサービスの場合、VNF は仮想化を提供しますが、より重要なこれらのサービスをリンクするサービスチェーンを作成する機能があります。これには、クラウド内で従来のルーティングとレイヤー 2 の切り替えだけでなく、レイヤー 2 およびレイヤー 3 ベースの基準を超えてプログラムフローをプログラム化するための Software-Defined Networking (SDN)も必要です。
Netflix などの ビデオ 可能な演算子(MSO)およびその他のオーバーレイ(OTT)プロバイダーは、Amazon Video は多数のサーバーおよびネットワークデバイスを使用します。このようなネットワークに使用される一般的な用語は、コンテンツ配信ネットワーク(CDN)です。目的のハードウェアではなく、デバイスの仮想化クラウドインスタンスを使用することから、運用コストが大きい別の領域です。これらの仮想化 CDN は、配布ネットワークが存在する場所に近いデータセンターに存在することができます。より多くの容量を必要として、重複させたり、障害復旧を実行したりする場合に、スケーリングが容易になります。
Red Hat のアプローチは、多くの Red Hat 製品に NFV 機能を挿入し、それらをキャリアの期待に適合させることです。これをキャリアグレードのオープンソースの NFV ソリューションと呼びます。Red Hat は、独立した NFV/Telco 製品を作成する予定はありません。
一般的な固有のプラットフォームを持つサービスプロバイダーの利点は、IT とネットワークの収束です。Red Hat には、NFV アーキテクチャーに使用できる以下の製品があります。
- サービスプロバイダーである Red Hat OpenStack Platform は、IT および NFV ワークロードを VIM として実行できます。
- Red Hat Enterprise Linux および Red Hat Enterprise Linux Atomic Host では、VNF として仮想マシンやコンテナーを作成できます。
- Red Hat JBoss および OpenShift Enterprise は、OSS/BSS レイヤーとして機能するように変更できます。
- Red Hat CloudForms は VNF マネージャーとして機能し、統一されたディスプレイで VIM や NFVi などの複数のソースのデータを表示します。
1.2. 設計環境 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat NFV ソリューション は、多くのテクノロジーを統合した Red Hat ポートフォリオの複数の製品で設定されています。
- Red Hat Enterprise Linux (RHEL)
- KVM および Open vSwitch を使用する Red Hat OpenStack Platform
- Red Hat CloudForms
- Red Hat Ceph Storage
Red Hat NFV ソリューションは、以下のレイヤーで設定されています。
- インフラストラクチャー層
- 仮想化レイヤー
- OpenStack Layer
- 管理レイヤー
1.2.1. インフラストラクチャー層 リンクのコピーリンクがクリップボードにコピーされました!
インフラストラクチャーレイヤーは、Red Hat NFV ソリューションの基盤です。主なコンポーネントは以下のとおりです。
- Red Hat Enterprise Linux (RHEL)
- Ceph を使用したソフトウェア定義ストレージ
- SSF または認定済みのサードパーティーコントローラーを備えた Software-Defined Networking (SDN)
- Open vSwitch (OVS)スタンドアロン、または Data Plane Development Kit (DPDK)で高速化する
主なファクト:
- RHEL for NFV のユースケースの主な要素は、高可用性フレーバーおよび Real Time フレーバーです。
- RHEL Atomic ホストは、Docker 形式で Linux コンテナーを実行するように最適化された Red Hat Enterprise Linux 7 のバリエーションです。また、SELinux を使用してマルチテナント環境で強力な保護機能を提供し、アトミックアップグレードとロールバックを実行する機能を提供し、ダウンタイムを削減してより迅速かつ容易なメンテナンスを可能にします。RHEL Atomic は、コンテナーとしての VNF の実行に適しています。
- Ceph は、パフォーマンス、スケール、信頼性などのストレージ特性を提供します。
- JmxTrans はオープンソースの SDN コントローラーです。Red Hat NFV ソリューションには、複数の商用 SDN オファリング(例:Nuage、Contrail など)で認定されている。
- RHEL は DPDK およびダイレクトデバイステクノロジー(SR-IOV、PCI パススルー)をサポートします。DPDK は、Red Hat OpenStack Platform 8 リリースで追加チャネルの一部としてテクノロジープレビューとして利用できます。
1.2.2. 仮想化レイヤー リンクのコピーリンクがクリップボードにコピーされました!
仮想化レイヤーは、主に以下で設定される Red Hat Enterprise Virtualization Hypervisor により提供されます。
- カーネルベースの仮想マシン(KVM)およびクイックエミュレーター(QEMU)
- Libvirt
主なファクト:
- リアルタイム KVM は、たとえば、高速パフォーマンスよりも低い平均予測レイテンシーが重要な場合、仮想無線アクセスネットワーク(vRAN)で使用されるものです。
1.2.3. OpenStack Layer リンクのコピーリンクがクリップボードにコピーされました!
OpenStack レイヤーは主に Red Hat OpenStack Platform で設定されています。NFV のユースケースには、一部の OpenStack サービスだけに関連します。Red Hat は、上部の OpenStack 貢献者として、アップストリームの OpenStack コミュニティーの Intel、Cisco、Huawei、NEC 等の NFV 機能の業界で他のリーダーと協力しています。NFV の特殊機能を必要とする主なサービスは以下のとおりです。
- Compute (nova)
- OpenStack Networking (neutron)
- Block Storage (cinder)
- Telemetry (ceilometer)
主なファクト:
- 仮想 CPU ピニング、大規模ページ、NUMA 認識 等のコンピュート NFV 機能
- IPv6、SR-IOV 等の OpenStack Networking NFV 機能、DPDK で高速化された Open vSwitch との統合
- Block Storage サービスは、NFV に関連するメインのストレージサービスです。バックエンドとして Ceph と共に、キャリア向けのストレージ要件を提供します。
- Telemetry、OpenStack のメータリングサービスは、専用のデータベースでイベントを収集します。その後、これらのイベントは、さらなる消費のために管理ツールに送信されます。FCAPS は、ISO モデルがネットワーク管理タスクを定義する管理カテゴリーであるフォールト、設定、アカウンティング、パフォーマンス、セキュリティーのための頭字語です。
1.2.4. 管理レイヤー リンクのコピーリンクがクリップボードにコピーされました!
管理レイヤーは、主に以下で設定されています。
- Red Hat CloudForms
- Red Hat OpenStack Platform director
- FCAPS 運用ツール
主なファクト:
- Red Hat CloudForms は、Virtual Infrastructure Manager (VIM)やネットワーク機能仮想化インフラストラクチャー(NFVI)などの複数のソースのデータを統一されたディスプレイで表示するクラウド管理ツールです。これにより、ハイブリッド VIM シナリオ(レガシー仮想化プラットフォームで実行されている VNF および上位 Openstack プラットフォームで実行されている VNF)を管理して、FCAPS を統合することができます。
- Red Hat OpenStack Platform director では、NFV インフラストラクチャー(NFVi)のプロビジョニングが可能です。このインフラストラクチャーでは、VNF などの幅広いテレコアプリケーションをサポートします。これにより、更新とアップグレードが可能になります。
- 運用ツールは、障害、設定、アカウンティング、パフォーマンス、セキュリティー(FCAPS)の管理を提供します。これらのツールにより、NFVi の正常性を監視することができます。これらは、クラウドコミュニティーが大規模なクラウドプラットフォームを管理するために使用するオープンソースツールです。
第2章 テクノロジーの詳細 リンクのコピーリンクがクリップボードにコピーされました!
以下の機能は、Red Hat NFV ソリューションの設定で使用されます。
2.1. コンピュート リンクのコピーリンクがクリップボードにコピーされました!
Compute (nova)は、必要に応じて仮想マシンを作成、スケジューリング、および非アクティブ化することにより、OpenStack 環境内のインスタンスを管理します。Compute は NFV のユースケースに関連します。たとえば、スケジューラーはパフォーマンスと回復性のために非常に重要です。これは、インスタンスを正しく配置することで実現できます。また、最初に、特に障害検出に対する対応のために、新しいインスタンスをすばやく起動する必要があります。主なコンピュート機能の一部を以下に示します。
2.1.1. NUMA (Non Uniform Memory Access)トポロジーを認識 リンクのコピーリンクがクリップボードにコピーされました!
NUMA では、システムメモリーはノードと呼ばれるゾーンに分割され、特定の CPU またはソケットに割り当てられます。CPU のローカルにあるメモリーには、そのシステムのリモートの CPU に接続されているメモリーにアクセスするよりも高速です。通常、NUMA システム上のソケットにはそれぞれローカルのメモリーノードがあり、別の CPU のローカルにあるノードのメモリーや、全 CPU で共有されるバス上のメモリーよりも、コンテンツに早くアクセスできます。各 CPU ソケットには、仮想化を目的とする個別の CPU として扱われる複数の CPU コアを配置することができます。
OpenStack Compute (nova)は、インスタンスの起動時にスマートなスケジューリングや配置の決定を行います。管理者はこのような機能を活用すると、NFV や高性能コンピューティング (HPC) などの特化されたワークロードを対象にするカスタマイズされたパフォーマンスフレーバーを構築することができます。詳細は、NUMA を参照してください。
2.1.2. vCPU Pinning リンクのコピーリンクがクリップボードにコピーされました!
CPU ピニングとは、特定のホストにおいて、特定の仮想マシンの仮想 CPU を特定の物理 CPU で実行する機能のことです。
OpenStack Compute 環境は、仮想マシンインスタンスを専用の物理 CPU コアに固定することをサポートできます。これを容易にするため、手順は次のとおりです。
- コンピュートホスト上の専用コアをホストプロセス用に確保します。
- 仮想マシンインスタンス自体用にコンピュートホスト上で専用コアを確保します。
- 必要なスケジューラーフィルターを有効にします
- ホストアグリゲートを作成して、CPU ピニング用に設定されたすべてのホストを追加します。
- このホストアグリゲートを対象とするパフォーマンス重点のあるフレーバーを作成します。
- CPU ピニング用に設定されていないすべてのホストのホストアグリゲートを作成し、他のすべてのフレームをそのホストにマッピングします。
- CPU ピニングが設定されたインスタンスの起動
詳細は、NUMA を使用した CPU ピニングの設定 を参照し てください。
2.1.3. large-pages (または Huge Pages)のサポート リンクのコピーリンクがクリップボードにコピーされました!
物理メモリーは、ページと呼ばれる一連の連続したリージョンに分割されます。効率を向上させるために、個々のメモリーのバイトにアクセスする代わりに、システムはページ全体にアクセスしてメモリーを取得します。各ページには、ページサイズと呼ばれるバイト数が含まれます。ページにアクセスするには、システムが最初に仮想アドレスを物理アドレスに変換し、要求されたメモリーが含まれるページを決定します。
基本的なレベルでは、大量のメモリーや、またはメモリーを大量に使用するプロセスはメモリーを大量に消費します。これは、多くの場合、大きなページや Huge Page と呼ばれる大きなページサイズを活用できる可能性があります。Red Hat Enterprise Linux 7.1 システムは、2 MB および 1 GB の Huge Page をサポートしており、これは起動時またはランタイム時に割り当てることができます。詳細は、Huge Pages および Transparent Huge Pages を参照してください。
2.1.4. サポート(PCIPassThrough) リンクのコピーリンクがクリップボードにコピーされました!
PCI パススルーにより、ゲストはさまざまなタスクで PCI デバイスに排他的にアクセスできます。標準のパススルーにより、仮想マシンは PCI デバイスへの排他的アクセスが可能になり、PCI デバイスがゲスト OS に物理的に接続されているかのように表示および動作できます。ネットワークの場合は、PCI パススルーを使用して、仮想マシン内で実行されているゲスト OS にネットワークデバイス全体(ネットワークアダプターの物理ポートなど)専用にすることができます。
Single Root I/O Virtualization (SR-IOV)は、PCI デバイスがさまざまな PCI ハードウェア機能間でリソースへのアクセスを分離できるようにする仕様です。
2.2. ネットワーク リンクのコピーリンクがクリップボードにコピーされました!
パフォーマンスの要件は、高パフォーマンスのパケット処理に大まかに、ネットワークからネットワークからパケットを取得し、仮想マシンにすばやく処理し、ネットワーク上で再度復帰する方法です。使用可能な手法の 1 つは、仮想マシンが SR-IOV を介してネットワークに直接アクセスできるようにすることです。OpenStack Networking は、特定の設定で IPv6 テナントサブネットをサポートしています。高速仮想スイッチを使用した高速パケット処理のための DPDK で高速化された Open vSwitch は、Red Hat OpenStack Platform 8 リリースのテクノロジープレビューとして、OpenStack Networking でもサポートされています。
2.2.1. Single Root I/O Virtualization (SR-IOV) リンクのコピーリンクがクリップボードにコピーされました!
SR-IOV により、単一の root 機能(単一のイーサネットポートなど)を複数の個別の物理デバイスとして表示できます。SR-IOV 機能を持つ物理デバイスは、PCI 設定領域に複数の機能として表示されるように設定できます。各デバイスには、ベースアドレスレジスタ (BAR) を含む独自の設定領域があります。SR-IOV は、次の 2 つの PCI 機能を使用します。
- Physical Function (PF) は、SR-IOV 機能を含む完全な PCIe デバイスです。物理機能は、検出、管理、および通常の PCI デバイスとして設定されます。物理機能は、仮想機能を割り当てることにより、SR-IOV 機能を設定および管理します。
- 仮想機能 (VF) は、I/O のみを処理する単純な PCIe 機能です。各仮想機能は、物理機能から派生しています。デバイスに含まれる仮想機能の数は、デバイスのハードウェアにより制限されます。単一のイーサネットポートである物理デバイスは、仮想マシンで共有できる多くの仮想機能にマップできます。
ハイパーバイザーは、1 つ以上の仮想機能を仮想マシンにマッピングできます。その後、仮想機能の設定領域が、ゲストに提示される設定領域にマッピングされます。
OpenStack Networking は、仮想ブリッジの以前の要件を確保し、物理 NIC の機能をインスタンスに直接拡張することができます。詳細は、SR-IOV Support for Virtual Networking を参照してください。
2.2.2. port-security 拡張 リンクのコピーリンクがクリップボードにコピーされました!
以前は、セキュリティー対策として、OpenStack Networking セキュリティーグループの実装は常にデフォルトのルールを自動的に適用して、IP アドレスのスプーフィング攻撃をブロックし、仮想マシンがポートに属していない MAC または IP アドレスでトラフィックを送受信するのを防ぎます。
NFV のユースケースでは、ネットワーク機能が仮想マシン内で実行されている場合には、デフォルトのアンプルールをオフにするオプションが必要になります。このエクステンションを使用すると、管理者は port-security-enabled 属性を使用してポートごとにセキュリティーグループ機能を有効または無効にすることができます。これにより、テナント管理者はトポロジーでファイアウォールが必要であるかどうかと場所を決定できます。
2.2.3. IPv6 サポート リンクのコピーリンクがクリップボードにコピーされました!
OpenStack Networking はデュアルスタック設定の IPv6 テナントサブネットをサポートしているため、プロジェクトは Stateless Address Autoconfiguration (SLAAC)または DHCPv6 を使用して IPv6 アドレスを仮想マシンに動的に割り当てることができます。OpenStack Networking は、物理ルーター上で SLAAC と統合することもできます。これにより、仮想マシンは既存のインフラストラクチャーから IPv6 アドレスを受け取ることができます。詳細は、IPv6 を使用した Tenant Networking を 参照してください。
2.2.4. DPDK で高速化された vSwitch リンクのコピーリンクがクリップボードにコピーされました!
DPDK は、高速パケット処理用のライブラリーとユーザー空間ドライバーのセットで設定され、アプリケーションが NIC から直接独自のパケット処理を実行できるようにし、特定のユースケースで最大ワイヤースピードパフォーマンスを提供します。DPDK で高速化された Open vSwitch (OVS+DPDK)は、コア機能を維持しながら、Open vSwitch のパフォーマンスを大幅に向上させます。これにより、ゲストインスタンス(およびゲストインスタンス間)内のホストの物理 NIC からアプリケーションへの切り替えをほぼ完全にユーザー空間で処理できます。
OpenStack Networking (neutron) OVS プラグインが更新され、OVS+DPDK バックエンド設定がサポートされるようになりました。詳細は、Configure DPDK for OpenStack Networking を参照してください。
DPDK で高速化された vSwitch 機能は、Red Hat OpenStack Platform 8 リリースでテクノロジープレビュー機能として導入されています。
2.2.5. Quality of Service (QoS) リンクのコピーリンクがクリップボードにコピーされました!
QoS とは、アプリケーションプロバイダーとエンドユーザー間のサービスレベルアグリーメント(SLA)を満たすために、帯域幅、レイテンシー、信頼性などの特定のネットワーク要件を保証するリソース制御システムを指します。スイッチやルーターなどのネットワークデバイスは、SLA に同意した QoS 条件を満たすために、より高い優先度で処理されるようにトラフィックをマークすることができます。その他の場合は、IP (Voip over IP)やビデオストリーミングなどの特定のネットワークトラフィックを最小限の帯域幅制約で送信する必要があります。ネットワーク QoS 管理のないシステムでは、すべてのトラフィックがベストエフォート方式で送信されるため、顧客へのサービス配信を保証できなくなります。
Red Hat OpenStack Platform 8 以降、送信帯域幅の制限ルールがサポートされるようになりました。これにより、仮想マシンをレート制限にすることができます。詳細は、Quality-of-Service (QoS)の設定 を参照し てください。
2.2.6. OpenDaylight リンクのコピーリンクがクリップボードにコピーされました!
DevOps は、お客様、パートナー、開発者向けに、業界全体で、ソフトウェア定義ネットワーク(SDN)の一般的なオープンソースフレームワークやプラットフォームを提供します。SDN により、ユーザーはネットワーク層をプログラムし、データプレーンをコントロールプレーンから分離しながら、必要な場合にネットワークサービスをアジャイル配置することができます。このレベルのプログラム性を有効にすることで、SDN および NFV を使用すると、ユーザーはネットワークリソースを最適化し、ネットワークアジリティー、サービスイノベーション、サービスのタイムツーケットの加速、ビジネスインテリジェンスの抽出、最終的には動的サービス駆動型の仮想ネットワークの有効化を行うことができます。
SSF は、Red Hat OpenStack Platform 8 リリース以降、テクニカルプレビューとしてサポートされています。Red Hat のサンドボックス化ディストリビューションは OpenStack 中心であり、必要なインターフェイスのみを OpenStack Networking と Open vSwitch に(OVSDB NetVirt を介して)提供します。
2.3. ストレージ リンクのコピーリンクがクリップボードにコピーされました!
OpenStack ストレージは、データ保護とクラウドへの災害復旧の重要な部分を果たします。Red Hat OpenStack Platform を使用すると、お客様およびユーザーは重要なデータをクラウドストレージにセキュアにバックアップし、オフサイトバックアップのコンプライアンス要件に対応し、クラウドストレージで提供されるコストの低いコストの恩恵を受けます。また、災害復旧のためのセカンダリークラウドの維持コストを削減できます。
2.3.1. ボリュームの移行 リンクのコピーリンクがクリップボードにコピーされました!
OpenStack では、ボリューム種別に対応するバックエンド間でボリュームを移行することができます。ボリュームの移行は、ボリュームのデータを現在のバックエンドから新規バックエンドに透過的に移動します。ボリュームの移行により、ボリューム移行ステータスをより適切に管理したり、移行の進捗表示を追加したり、Ceilometer に報告して通知システムを強化したり、tempest テストや CI サポートによる移行品質を保証したりできます。詳細は、ボリュームの 移行 を参照してください。
2.3.2. スナップショットのインポートとエクスポート リンクのコピーリンクがクリップボードにコピーされました!
スナップショットをインポート/エクスポートする手段を提供します。'export' を使用すると、Block Storage ボリューム間でスナップショットを移行でき、インポートではバックエンドデバイス上の OpenStack 以外のスナップショットを OpenStack または Block Storage ボリュームにインポートすることができます。利点は次のとおりです。
- スナップショットをボリュームテンプレートとしてインポートして、スナップショットからボリュームを作成できます。
- また、スナップショットをインポートして、ボリュームのインポートに対する効果的な手段を提供することもできます。
2.4. High Availability リンクのコピーリンクがクリップボードにコピーされました!
高可用性とは、パフォーマンスが低下するかサブシステムの障害に対応するために、設計に十分な余分の容量を含む長い期間にわたって継続的に動作するシステムまたはコンポーネントのことです。可用性は、100% の運用中または失敗に対して測定できます。システムまたは製品の可用性の広く抑制されますが、困難な標準は、"five 9s" (99.999%)可用性として知られています。高可用性システムでは、システムのダウンタイムやデータ損失を最小限に抑えることができます。
各サービスの冗長インスタンスを実行する冗長ハードウェアを追加して、高可用性が実装されます。サービスのインスタンスを実行しているハードウェアの一部に障害が発生した場合、システムはフェイルオーバーしてサービスの別のインスタンスを使用できます。
2.4.1. 高可用性(keepalived) リンクのコピーリンクがクリップボードにコピーされました!
keepalived は、アクティブな Linux 仮想サーバー(LVS)ルーターで実行され、1 つ以上のオプションのバックアップ LVS ルーターで実行されます。アクティブ LVS ルーターには 2 つのロールがあります。
- 複数の実サーバー全体の負荷分散
- それぞれの実サーバー上にあるサービスの整合性チェック
アクティブ(マスター)ルーターは、Virtual Router Redundancy Protocol (VRRP)を使用してアクティブなステータスをバックアップルーターに通知します。この場合、マスタールーターが一定の間隔でアドバタイズメントを送信する必要があります。マスタールーターは、通常の間隔でアドバタイズメントを送信する必要があります。アクティブルーターがアドバタイズメントの送信を停止すると、新しいマスターが選出されます。
keepalived デーモンは、サービスまたはシステムを監視し、問題が発生した場合に自動的にスタンバイにフェイルオーバーするために使用されます。keepalived デーモンは、健全性に従って動的に分散されたサーバープールを動的に維持し、管理するためのチェッカーのセットを実装します。これは、低レベルで高速プロトコルの対話を提供する Virtual Router Redundancy Protocol (VRRP)状態マシンにフックのセットを実装します。keepalived フレームワークは、個別に使用することも、すべて一緒に使用して回復性のあるインフラストラクチャーを提供することもできます。
2.4.2. インスタンスの高可用性(pacemaker リモート) リンクのコピーリンクがクリップボードにコピーされました!
Pacemaker は、Linux プラットフォームの状態高可用性および負荷分散スタックです。インスタンスの高可用性は、障害の有無について仮想マシンを監視し、フェンシングおよび復旧に対する自動応答をトリガーすることで実現されます。フェンシングとは、障害が発生したホストを完全に分離する操作です。復旧システムは、障害が発生したホストからの仮想マシンのレスキューをオーケストレーションします。
Pacemaker は、OpenStack インフラストラクチャーを高可用性にする場合に役立ちます。本質的に、管理しているアプリケーションを理解するものではありません。代わりに、リソースエージェント(RA)に依存します。リソースエージェントは、クラスターによって管理される各アプリケーションの開始、停止、および正常性の確認方法に関する知識をカプセル化するスクリプトです。
クラウドまたは仮想化環境でワークロードの高可用性を提供するために、最終的なソリューションには 3 つの主要な機能があります。
- 特定のコンピュートノードに障害が発生したことを検出し、障害の処理をトリガーする監視機能。
- 関連するコンピュートノードを環境から削除するフェンシング機能。
- 障害が発生したコンピュートノードからのインスタンスのレスキューを調整するための復旧機能。
2.5. モニタリング リンクのコピーリンクがクリップボードにコピーされました!
システムを監視することで、最適なパフォーマンスが確保されます。収集されるデータは、顧客の請求、システムの監視、または警告に使用することができます。障害が発生することを知るために、OpenStack は回復性の監視、障害検出、応答に集中する必要があります。
OpenStack では、以下に示すメトリクスとイベントを監視することで、デプロイメントの正常性とパフォーマンスが大幅に確認できます。
- hypervisor_load
- running_vms
- free_disk_gb
- free_ram_mb
- キューメモリー
- キューコンシューマー
- consumer_utilisation
特にインフラストラクチャーやユースケースに関連する追加のメトリクス、およびモニターする内容は、所有している運用ツール(FCAPS)と使用している OpenStack コンポーネントの両方によって異なります。
FCAPS ツールを使用すると、障害、設定、アカウンティング、パフォーマンス、およびセキュリティーの問題を管理できます。FCAPS 管理ツールの目標は次のとおりです。
- 障害は、負の意味のあるイベントです。障害管理は、ネットワークで発生する障害を分離し、修正し、ログに記録します。傾向分析を使用して、高可用性のネットワークにおいてエラーを予測します。
- 設定管理は、システム設定情報と変更を監視します。ネットワークの問題の多くは、設定ファイル、ソフトウェアバージョンの更新、またはシステムハードウェアへの変更が直接行われた結果として発生するため、これは特に重要です。
- アカウンティング管理は、個々のユーザー、部門、または事業ユニットがアカウンティングの目的で適切に請求または課金できるように、ネットワークの使用状況情報を追跡します。発信されていないネットワークの場合、管理者はアカウントを置き換えます。管理の目的は、ユーザー、パスワード、パーミッションを確立し、ソフトウェアのバックアップと復元を実行して機器の操作を管理することによって、許可されたユーザーのセットを管理することです。多くの場合、計算は 課金管理 と呼ばれます。統計を使用することで、ユーザーは請求され、利用状況のクォータを適用できます。これは、ディスク使用量、リンク使用率、CPU 時間などである可能性があります。
- パフォーマンス管理は、ネットワークパフォーマンスが許容レベルのままであることを確認することに重点を置いています。これにより、マネージャーは将来のためにネットワークを準備したり、現在のネットワークの効率を判断したりできます。たとえば、設定するために行われた投資に関連するものです。ネットワークパフォーマンスは、スループット、ネットワーク応答時間、パケットロス率、リンク使用率、使用率、エラー率などに対応します。
- セキュリティー管理は、ネットワーク内のアセットへのアクセスを制御します。データセキュリティーは、主に認証と暗号化を使用して実現できます。セキュリティー管理は、ネットワーク環境が安全であることを確認するだけではなく、収集されたセキュリティー関連情報も定期的に分析します。セキュリティー管理機能には、内部ユーザーと外部の両方のユーザーが適切なネットワークリソースにのみアクセスできるように、ネットワークの認証、承認、監査の管理が含まれます。他の一般的なタスクには、ネットワークファイアウォールの設定と管理、侵入検知システム、およびセキュリティーポリシー(アクセスリストなど)が含まれます。
2.6. Real-time KVM リンクのコピーリンクがクリップボードにコピーされました!
NFVi の要件を満たすように既存のハイパーバイザーは設計または対象ではないため、NFV 機能を有効にするには、さらに協力作業が必要です。KVM を使用すると、高パフォーマンスと低レイテンシーが可能になります。異なるユースケースで、レイテンシーは異なりますが、多くの場合 20 マイクロ秒のレイテンシーが少なくなります。5 - 10 マイクロ秒を必要とするものもあれば、パフォーマンスを保証する必要があります。これらの数値を実現するには、CPU 周波数変更、カーネルモジュールの読み込みまたはアンロードはなく、スワッピングなしなど、あらゆる種類の高レイテンシーシステム操作を回避するためにシステムを慎重に設定する必要があります。また、リアルタイム以外のヘルパープログラムを除き、ディスクやサウンドデバイスなどの低速なデバイスを回避するために、アプリケーションを調整する必要があります。したがって、リアルタイム KVM をデプロイするには、タイムスタンプカウンターが安定し、システムが別のクロックソースにフォールバックしないように、システムに関する深い知識が必要になります。Real-time KVM を使用すると、ピークが低くなり、予想されるレイテンシーバンドをアドバタイズする機能でレイテンシーが長くなります。
処理パフォーマンスとレイテンシーは、CPU (周波数、電源管理機能など)、マイクロアーキテクチャーリソース、キャッシュ階層とサイズ、メモリー(NUMA など)および速度、接続間、I/O および I/O NUMA デバイスなど、多くの要因に依存します。
Real-time KVM for NFV の初期機能拡張を以下に示します。
データプレーン VNF の最小割り込みレイテンシーのバリエーション
- リアルタイム VNF の正確性の Timing Variation の最小調整は、Radio スケジューリングなどのスケジューリング操作の正確性のタイミングによって実現できます。
- パケット処理に適用されるパケット遅延の変動によって達成できるデータプレーン VNF の最小パケット遅延変動。
仮想マシンの場合、割り込みのレイテンシー(ハードウェア割り込みの到着と仮想マシンの割り込みハンドラーの呼び出しの間の時間。たとえば、タイミングバリエーションまたはパケットレイテンシーのいずれか、またはデバイスのタイプに応じて両方の時間)。仮想タイマーを使用した割り込みレイテンシーは、パケット処理のポーリングのみを使用する場合でも、リアルタイムの VNF でタイミングの正確性の問題が発生する可能性があります。仮想マシン内の割り込みレイテンシーのバリエーションを最小限に抑えるには、VNF を適切に実装する必要があります。
リアルタイム KVM は、Red Hat OpenStack Platform 8 リリース以降、テクニカルプレビューとしてサポートされています。
第3章 用語 リンクのコピーリンクがクリップボードにコピーされました!
ここでは、本章で使用された用語の一部について説明します。
3.1. オープンソース リンクのコピーリンクがクリップボードにコピーされました!
オープンソースは Red Hat DNA の一部です。NFV 使用開始時の CSP から 2 つの主要な要件が急速にイノベーションされ、ベンダーロックの防止。オープンソースはこれを実現できます。オープンソースの概念はコミットメントとリンクされ、最初に新しい NFV 機能をアップストリームコミュニティーに送信します。利点は、プロプライエタリー機能をサポートするための非表示のメンテナンスコストを持たないことです。
NFV (OPNFV)向けの Open Platform は、NFV ソリューションをデプロイするためのオープンソースプラットフォームを提供し、開発者やソリューションプロバイダーのコミュニティーからの利益を活用します。OPNFV は、新しい NFV 製品およびサービスの導入を加速するための、キャリアグレードの統合オープンソースプラットフォームです。Red Hat は OPNFV プロジェクトのアクティブなメンバーです。
3.2. carrier Grade リンクのコピーリンクがクリップボードにコピーされました!
時間が経つにつれて、テレコサービスプロバイダーは、six-nines の信頼性を保証できるネットワークに幅広い機能を開発しました。これは、ネットワークが時間の 99.9999% を上回ることを保証し、年に 32 秒以下のダウンタイムを意味します。サービスプロバイダーは、NFV をネットワークに徐々に導入する計画を絞り込み、仮想化機能を取り入れたネットワークインフラストラクチャーで、6 つの信頼性の影響をレビューしています。キャリアグレードの信頼性を実現するための要件の一覧は、可用性、セキュリティー、パフォーマンス、および管理です。
Red Hat ソリューションの Red Hat のストラテジーは、お客様やパートナーと協力して、アップストリームの最初のポリシーで Red Hat ソリューションのグレードグレートをオープンソースで行うための機能を開発することです。これは、Red Hat がオープンソースのプロジェクトに統合してから、製品オファリングに統合する機能があることを意味します。Openstack 環境にデプロイされた VNF のコンテキストでは、キャリアグレーターという用語は、テクノロジーの成熟度で再定義および調整する必要があります。ネットワークパフォーマンス、高可用性、管理性、簡単に展開と使用のために、複数の機能をすでに開発しています。しかし、Intel と一緒に Red Hat の目的は、残りのギャップを解決し、操作と実稼働の準備を実現することであり、CSP がレガシーハードウェアと使用したのと同様の確信で VNF をデプロイできるようにすることです。
3.3. 統合エンジニアリング(Integrate Engineering) リンクのコピーリンクがクリップボードにコピーされました!
完全なオープンソースの NFV ソリューションを構築するには、非常に異なるコミュニティー(Openstack、KVM、Linux など)からの複数のコンポーネントを統合する必要があります。Red Hat は、これらのコミュニティーにおける主要な貢献者であり、すべてのコンポーネントを統合する商用ソリューションを提案します。これはキーであるため、以下が可能になります。
- 新しい NFV 機能を開発するため。たとえば、新しい NFV 機能を開発するには、多くの場合、Linux、KVM、Libvirt、OpenStack Compute、および Openstack Networking サービスで変更および同期が必要です。
- これらの NFV 機能に対応するため。これらの機能の開発を担当するチームは、多くの場合、これらの機能をサポートする責任を負います。これが開発概念です。キャリアグレードの SLA を保証するには、コミュニティーのサポートと商用サポートを提供する専門家の両方が必要です。
3.4. European Telecommunication Standards Institute (ETSI) リンクのコピーリンクがクリップボードにコピーされました!
ETSI は、ヨーロッパの情報と通信テクノロジー(ICT)の標準を開発する独立した標準化グループです。ETSI Industry Specification Group for Network Functions Virtualization (ETSI ISG NFV)は、通信ネットワーク内のさまざまな機能の仮想化の要件とアーキテクチャーの開発を担当する。
ネットワーク機能仮想化 (NFV) は、プロプライエタリーのハードウェアデバイスの使用に伴う問題への対処に重点を置いています。標準の IT 仮想化テクノロジーを進化させることで、NFV はさまざまな業界標準サーバーハードウェア上で稼働できるように、ネットワーク機能をソフトウェアに実装し、必要に応じてネットワーク内のさまざまな場所に簡単に移動することができます。NFV により、新しい機器をインストールする必要性がなくなります。ETSI ISG NFV は、仮想化機能を維持するために必要なハードウェアおよびソフトウェアインフラストラクチャーの要件とアーキテクチャー仕様を設定することで役立ちます。ETSI ISG NFV は、ネットワーク機能開発のためのガイドラインも管理します。
3.5. 管理およびオーケストレーション(MANO) リンクのコピーリンクがクリップボードにコピーされました!
NFV MANO アーキテクチャーは、クラウドインフラストラクチャーの管理、ホスト型要素または VNF のデプロイとサービスの展開と接続を行います。
3.6. Virtual Evolved Packet Core (vEPC) リンクのコピーリンクがクリップボードにコピーされました!
VEPC は、Long-Term Evolution (LTE)ネットワークのコアコンポーネント用のプラットフォームを提供するクラウドアーキテクチャーであり、ゲートウェイとモバイルエンドポイントの動的プロビジョニングが、スマートフォンおよびその他のデバイスからのデータトラフィックの増加したボリュームを持続できるようにします。
3.7. 仮想 IP Multimedia サブシステム(vIMS) リンクのコピーリンクがクリップボードにコピーされました!
VIMS は、ワイヤレスまたはランドラインを介したすべての既知の形式のパケット通信に IP (インターネットプロトコル)を簡単に使用できるようにします。