InfiniBand ネットワークおよび RDMA ネットワークの設定
高速ネットワークプロトコルと RDMA ハードウェアの設定と管理
概要
Red Hat ドキュメントへのフィードバック (英語のみ) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat ドキュメントに関するご意見やご感想をお寄せください。また、改善点があればお知らせください。
Jira からのフィードバック送信 (アカウントが必要)
- Jira の Web サイトにログインします。
- 上部のナビゲーションバーで Create をクリックします。
- Summary フィールドにわかりやすいタイトルを入力します。
- Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。
- ダイアログの下部にある Create をクリックします。
第1章 InfiniBand と RDMA の概要 リンクのコピーリンクがクリップボードにコピーされました!
InfiniBand は、次の 2 つの異なるものを指します。
- InfiniBand ネットワーク用の物理リンク層プロトコル
- Remote Direct Memory Access (RDMA) テクノロジーの実装である InfiniBand Verbs API
RDMA は、オペレーティングシステム、キャッシュ、またはストレージを使用せずに、2 台のコンピューターのメインメモリー間のアクセスを提供します。RDMA を使用することで、高スループット、低レイテンシー、低 CPU 使用率でデータ転送が可能になります。
通常の IP データ転送では、あるマシンのアプリケーションが別のマシンのアプリケーションにデータを送信すると、受信側で以下のアクションが起こります。
- カーネルがデータを受信する必要がある。
- カーネルは、データがアプリケーションに属するかどうかを判別する必要がある。
- カーネルは、アプリケーションを起動する。
- カーネルは、アプリケーションがカーネルへのシステムコールを実行するまで待機する。
- アプリケーションは、データをカーネルの内部メモリー領域から、アプリケーションが提供するバッファーにコピーする。
このプロセスでは、ホストアダプターが直接メモリーアクセス (DMA) などを使用する場合には、ほとんどのネットワークトラフィックが、システムのメインメモリーに少なくとも 2 回コピーされます。さらに、コンピューターはいくつかのコンテキストスイッチを実行して、カーネルとアプリケーションを切り替えます。これらのコンテキストスイッチは、他のタスクの速度を低下させる一方で、高いトラフィックレートで高い CPU 負荷を引き起こす可能性があります。
従来の IP 通信とは異なり、RDMA 通信は通信プロセスでのカーネルの介入を回避します。これにより、CPU のオーバーヘッドが軽減されます。パケットがネットワークに入ると、RDMA プロトコルにより、どのアプリケーションがパケットを受信するか、またそのアプリケーションのメモリー空間のどこにパケットを保存するかをホストアダプターが決定できるようになります。処理のためにパケットをカーネルに送信してユーザーアプリケーションのメモリーにコピーする代わりに、ホストアダプターは、パケットの内容をアプリケーションバッファーに直接配置します。このプロセスには、別個の API である InfiniBand Verbs API が必要であり、アプリケーションは RDMA を使用するために InfiniBand Verbs API を実装する必要があります。
Red Hat Enterprise Linux は、InfiniBand ハードウェアと InfiniBand Verbs API の両方をサポートしています。さらに、InfiniBand 以外のハードウェアで InfiniBand Verbs API を使用するための次のテクノロジーをサポートしています。
- iWARP: IP ネットワーク上で RDMA を実装するネットワークプロトコル
- RDMA over Converged Ethernet (RoCE)、別名 InfiniBand over Ethernet (IBoE): RDMA over Ethernet ネットワークを実装するネットワークプロトコル
第2章 rdma サービスの設定 リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) プロトコルを使用すると、メインメモリーを使用して、ネットワーク経由で RDMA 対応システム間でデータを転送できます。RDMA プロトコルは、低レイテンシーと高スループットを実現します。サポートされているネットワークプロトコルと通信標準を管理するには、rdma
サービスを設定する必要があります。この設定には、RoCE や iWARP などの高速ネットワークプロトコル、および Soft-RoCE や Soft-iWARP などの通信標準が含まれます。Red Hat Enterprise Linux が、InfiniBand、iWARP、または RoCE デバイスおよびそれらの設定ファイルが /etc/rdma/modules/*
ディレクトリーに存在することを検出すると、udev
デバイスマネージャーが systemd
に rdma
サービスを起動するように指示します。/etc/rdma/modules/rdma.conf
ファイル内のモジュールの設定は、再起動後も保持されます。変更を適用するには、rdma-load-modules@rdma.service
設定サービスを再起動する必要があります。
手順
rdma-core
およびopensm
パッケージをインストールします。dnf install rdma-core opensm
# dnf install rdma-core opensm
Copy to Clipboard Copied! Toggle word wrap Toggle overflow opensm
サービスを有効にします。systemctl enable opensm
# systemctl enable opensm
Copy to Clipboard Copied! Toggle word wrap Toggle overflow opensm
サービスを開始します。systemctl start opensm
# systemctl start opensm
Copy to Clipboard Copied! Toggle word wrap Toggle overflow /etc/rdma/modules/rdma.conf
ファイルを編集し、有効にするモジュールのコメントを解除します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow サービスを再起動して変更を有効にします。
systemctl restart <rdma-load-modules@rdma.service>
# systemctl restart <rdma-load-modules@rdma.service>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
libibverbs-utils
およびinfiniband-diags
パッケージをインストールします。dnf install libibverbs-utils infiniband-diags
# dnf install libibverbs-utils infiniband-diags
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 利用可能な InfiniBand デバイスのリストを表示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_1
デバイスの情報を表示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_1
デバイスのステータスを表示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow ibping
ユーティリティーは、パラメーターを設定することで InfiniBand アドレスに ping を実行し、クライアント/サーバーとして動作します。ホスト上で InfiniBand チャネルアダプター (CA) 名
-C
を指定し、ポート番号-P
でサーバーモード-S
を開始します。ibping -S -C mlx4_1 -P 1
# ibping -S -C mlx4_1 -P 1
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ホスト上でローカル識別子 (LID)
-L
および InfiniBand チャネルアダプター (CA) 名-C
を指定し、ポート番号-P
でクライアントモードを開始して、パケット-c
をいくつか送信します。ibping -c 50 -C mlx4_0 -P 1 -L 2
# ibping -c 50 -C mlx4_0 -P 1 -L 2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第3章 IPoIB の設定 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、InfiniBand は通信にインターネットプロトコル (IP) を使用しません。ただし、IPoIB (IP over InfiniBand) は、InfiniBand Remote Direct Memory Access (RDMA) ネットワーク上に IP ネットワークエミュレーション層を提供します。これにより、変更を加えていない既存のアプリケーションが InfiniBand ネットワーク経由でデータを送信できるようになりますが、アプリケーションが RDMA をネイティブに使用する場合よりもパフォーマンスが低下します。
RHEL 8 以降の Mellanox デバイス (ConnectX-4 以降) は、デフォルトで Enhanced IPoIB モードを使用します (データグラムのみ)。これらのデバイスでは、Connected モードはサポートされていません。
3.1. IPoIB の通信モード リンクのコピーリンクがクリップボードにコピーされました!
IPoIB デバイスは、Datagram
モードまたは Connected
モードのいずれかで設定可能です。違いは、通信の反対側で IPoIB 層がマシンで開こうとするキューペアのタイプです。
Datagram
モードでは、システムは信頼できない非接続のキューペアを開きます。このモードは、InfiniBand リンク層の Maximum Transmission Unit (MTU) を超えるパッケージには対応していません。IPoIB 層は、データ転送時に IP パケットに 4 バイトの IPoIB ヘッダーを追加します。その結果、IPoIB MTU は InfiniBand リンク層 MTU より 4 バイト少なくなります。一般的な InfiniBand リンク層 MTU は
2048
であるため、Datagram
モードの一般的な IPoIB デバイス MTU は2044
になります。Connected
モードでは、システムは信頼できる接続されたキューペアを開きます。このモードでは、InfiniBand のリンク層の MTU より大きなメッセージを許可します。ホストアダプターがパケットのセグメンテーションと再構築を処理します。その結果、
Connected
モードでは、Infiniband アダプターから送信されるメッセージのサイズに制限がありません。しかし、data
フィールドと TCP/IPheader
フィールドにより、IP パケットには制限があります。このため、Connected
モードの IPoIB MTU は65520
バイトです。Connected
モードではパフォーマンスが向上しますが、より多くのカーネルメモリーを消費します。
システムが Connected
モードを使用するように設定されていても、InfiniBand スイッチとファブリックは Connected
モードでマルチキャストトラフィックを渡すことができないため、システムは引き続き Datagram
モードを使用してマルチキャストトラフィックを送信します。また、ホストが Connected
モードを使用するように設定されていない場合、システムは Datagram
モードにフォールバックします。
インターフェイス上で MTU までのマルチキャストデータを送信するアプリケーションを実行しながら、インターフェイスを Datagram
モードに設定するか、データグラムサイズのパケットに収まるように、パケットの送信サイズに上限を設けるようにアプリケーションを設定します。
3.2. IPoIB ハードウェアアドレスについて リンクのコピーリンクがクリップボードにコピーされました!
IPoIB デバイスには、以下の部分で構成される 20
バイトのハードウェアアドレスがあります。
- 最初の 4 バイトはフラグとキューペアの番号です。
次の 8 バイトはサブネットの接頭辞です。
デフォルトのサブネットの接頭辞は
0xfe:80:00:00:00:00:00:00
です。デバイスがサブネットマネージャーに接続すると、デバイスはこの接頭辞を変更して、設定されたサブネットマネージャーと一致させます。- 最後の 8 バイトは、IPoIB デバイスに接続する InfiniBand ポートのグローバル一意識別子 (GUID) です。
最初の 12 バイトは変更される可能性があるため、udev
デバイスマネージャールールでは使用しないでください。
3.3. IPoIB デバイスの名前変更 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、カーネルは Internet Protocol over InfiniBand (IPoIB) デバイスに、ib0
、ib1
などの名前を付けます。競合を回避するために、Red Hat では、udev
デバイスマネージャーでルールを作成し、mlx4_ib0
などの永続的で意味のある名前を作成することを推奨しています。
前提条件
- InfiniBand デバイスがインストールされている。
手順
デバイス
ib0
のハードウェアアドレスを表示します。ip link show ib0
# ip link show ib0 8: ib0: >BROADCAST,MULTICAST,UP,LOWER_UP< mtu 65520 qdisc pfifo_fast state UP mode DEFAULT qlen 256 link/infiniband 80:00:02:00:fe:80:00:00:00:00:00:00:00:02:c9:03:00:31:78:f2 brd 00:ff:ff:ff:ff:12:40:1b:ff:ff:00:00:00:00:00:00:ff:ff:ff:ff
Copy to Clipboard Copied! Toggle word wrap Toggle overflow アドレスの最後の 8 バイトは、次のステップで
udev
ルールを作成するために必要です。00:02:c9:03:00:31:78:f2
のハードウェアアドレスを持つデバイスの名前をmlx4_ib0
に変更するルールを設定するには、/etc/udev/rules.d/70-persistent-ipoib.rules
ファイルを編集してACTION
ルールを追加してください。ACTION=="add", SUBSYSTEM=="net", DRIVERS=="?*", ATTR{type}=="32", ATTR{address}=="?*00:02:c9:03:00:31:78:f2", NAME="mlx4_ib0"
ACTION=="add", SUBSYSTEM=="net", DRIVERS=="?*", ATTR{type}=="32", ATTR{address}=="?*00:02:c9:03:00:31:78:f2", NAME="mlx4_ib0"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ホストを再起動します。
reboot
# reboot
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.4. nmcli を使用した IPoIB 接続の設定 リンクのコピーリンクがクリップボードにコピーされました!
nmcli
ユーティリティーを使用して、コマンドラインで IP over InfiniBand 接続を作成できます。
前提条件
- InfiniBand デバイスがサーバーにインストールされている。
- 対応するカーネルモジュールがロードされている。
手順
InfiniBand 接続を作成して、
Connected
トランスポートモードでmlx4_ib0
インターフェイスを使用し、最大 MTU が65520
バイトになるようにします。nmcli connection add type infiniband con-name mlx4_ib0 ifname mlx4_ib0 transport-mode Connected mtu 65520
# nmcli connection add type infiniband con-name mlx4_ib0 ifname mlx4_ib0 transport-mode Connected mtu 65520
Copy to Clipboard Copied! Toggle word wrap Toggle overflow P_Key
を設定します。次に例を示します。nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
# nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
Copy to Clipboard Copied! Toggle word wrap Toggle overflow IPv4 を設定します。
DHCP を使用するには、次のように実行します。
nmcli connection modify mlx4_ib0 ipv4.method auto
# nmcli connection modify mlx4_ib0 ipv4.method auto
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ipv4.method
がすでにauto
(デフォルト) に設定されている場合は、この手順をスキップしてください。静的 IPv4 アドレス、ネットワークマスク、デフォルトゲートウェイ、DNS サーバー、および検索ドメインを設定するには、次のように実行します。
nmcli connection modify mlx4_ib0 ipv4.method manual ipv4.addresses 192.0.2.1/24 ipv4.gateway 192.0.2.254 ipv4.dns 192.0.2.200 ipv4.dns-search example.com
# nmcli connection modify mlx4_ib0 ipv4.method manual ipv4.addresses 192.0.2.1/24 ipv4.gateway 192.0.2.254 ipv4.dns 192.0.2.200 ipv4.dns-search example.com
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
IPv6 設定を行います。
ステートレスアドレス自動設定 (SLAAC) を使用するには、次のように実行します。
nmcli connection modify mlx4_ib0 ipv6.method auto
# nmcli connection modify mlx4_ib0 ipv6.method auto
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ipv6.method
がすでにauto
(デフォルト) に設定されている場合は、この手順をスキップしてください。静的 IPv6 アドレス、ネットワークマスク、デフォルトゲートウェイ、DNS サーバー、および検索ドメインを設定するには、次のように実行します。
nmcli connection modify mlx4_ib0 ipv6.method manual ipv6.addresses 2001:db8:1::fffe/64 ipv6.gateway 2001:db8:1::fffe ipv6.dns 2001:db8:1::ffbb ipv6.dns-search example.com
# nmcli connection modify mlx4_ib0 ipv6.method manual ipv6.addresses 2001:db8:1::fffe/64 ipv6.gateway 2001:db8:1::fffe ipv6.dns 2001:db8:1::ffbb ipv6.dns-search example.com
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
プロファイルの他の設定をカスタマイズするには、次のコマンドを使用します。
nmcli connection modify mlx4_ib0 <setting> <value>
# nmcli connection modify mlx4_ib0 <setting> <value>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 値はスペースまたはセミコロンで引用符で囲みます。
プロファイルをアクティブ化します。
nmcli connection up mlx4_ib0
# nmcli connection up mlx4_ib0
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
ping
ユーティリティーを使用して、ICMP パケットをリモートホストの InfiniBand アダプターに送信します。次に例を示します。ping -c5 192.0.2.2
# ping -c5 192.0.2.2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.5. network RHEL システムロールを使用した IPoIB 接続の設定 リンクのコピーリンクがクリップボードにコピーされました!
IP over InfiniBand (IPoIB) を使用すると、InfiniBand インターフェイス経由で IP パケットを送信できます。IPoIB を設定するには、NetworkManager 接続プロファイルを作成します。Ansible と network
システムロールを使用すると、このプロセスを自動化し、Playbook で定義されたホスト上の接続プロファイルをリモートで設定できます。
network
RHEL システムロールを使用して IPoIB を設定できます。InfiniBand の親デバイスの接続プロファイルが存在しない場合は、このロールによって作成することもできます。
前提条件
- コントロールノードと管理対象ノードの準備が完了している。
- 管理対象ノードで Playbook を実行できるユーザーとしてコントロールノードにログインしている。
-
管理対象ノードへの接続に使用するアカウントに、そのノードに対する
sudo
権限がある。 -
mlx4_ib0
という名前の InfiniBand デバイスが管理対象ノードにインストールされている。 - 管理対象ノードが NetworkManager を使用してネットワークを設定している。
手順
次の内容を含む Playbook ファイル (例:
~/playbook.yml
) を作成します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow サンプル Playbook で指定されている設定は次のとおりです。
type: <profile_type>
- 作成するプロファイルのタイプを設定します。このサンプル Playbook では、2 つの接続プロファイルを作成します。1 つは InfiniBand 接続用、もう 1 つは IPoIB デバイス用です。
parent: <parent_device>
- IPoIB 接続プロファイルの親デバイスを設定します。
p_key: <value>
-
InfiniBand パーティションキーを設定します。この変数を設定する場合は、IPoIB デバイスに
interface_name
を設定しないでください。 transport_mode: <mode>
-
IPoIB 接続の動作モードを設定します。この変数は、
datagram
(デフォルト) またはconnected
に設定できます。
Playbook で使用されるすべての変数の詳細は、コントロールノードの
/usr/share/ansible/roles/rhel-system-roles.network/README.md
ファイルを参照してください。Playbook の構文を検証します。
ansible-playbook --syntax-check ~/playbook.yml
$ ansible-playbook --syntax-check ~/playbook.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow このコマンドは構文を検証するだけであり、有効だが不適切な設定から保護するものではないことに注意してください。
Playbook を実行します。
ansible-playbook ~/playbook.yml
$ ansible-playbook ~/playbook.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
mlx4_ib0.8002
デバイスの IP 設定を表示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002
デバイスのパーティションキー (P_Key) を表示します。ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/pkey' managed-node-01.example.com | CHANGED | rc=0 >> 0x8002
# ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/pkey' managed-node-01.example.com | CHANGED | rc=0 >> 0x8002
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002
デバイスのモードを表示します。ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/mode' managed-node-01.example.com | CHANGED | rc=0 >> datagram
# ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/mode' managed-node-01.example.com | CHANGED | rc=0 >> datagram
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.6. nmstatectl を使用して IPoIB 接続を設定する リンクのコピーリンクがクリップボードにコピーされました!
nmstatectl
ユーティリティーを使用して、Nmstate API を介して IP over InfiniBand (IPoIB) 接続を設定できます。Nmstate API は、設定を行った後、結果が設定ファイルと一致することを確認します。何らかの障害が発生した場合には、nmstatectl
は自動的に変更をロールバックし、システムが不正な状態のままにならないようにします。
前提条件
- InfiniBand デバイスがサーバーにインストールされている。
- InfiniBand デバイスのカーネルモジュールがロードされている。
手順
次の内容を含む YAML ファイル (例:
~/create-IPoIB-profile.yml
) を作成します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow IPoIB 接続に以下が設定されました。
-
IPOIB デバイス名:
mlx4_ib0.8002
-
基本インターフェイス (親):
mlx4_ib0
-
InfiniBand パーティションキー:
0x8002
-
トランスポートモード:
datagram
-
静的 IPv4 アドレス:
192.0.2.1
(サブネットマスクが/24
) -
静的 IPv6 アドレス:
2001:db8:1::1
(サブネットマスクが/64
) -
IPv4 デフォルトゲートウェイ:
192.0.2.254
-
IPv6 デフォルトゲートウェイ:
2001:db8:1::fffe
-
IPOIB デバイス名:
設定をシステムに適用します。
nmstatectl apply ~/create-IPoIB-profile.yml
# nmstatectl apply ~/create-IPoIB-profile.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
mlx4_ib0.8002
デバイスの IP 設定を表示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002
デバイスのパーティションキー (P_Key) を表示します。cat /sys/class/net/mlx4_ib0.8002/pkey 0x8002
# cat /sys/class/net/mlx4_ib0.8002/pkey 0x8002
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002
デバイスのモードを表示します。cat /sys/class/net/mlx4_ib0.8002/mode datagram
# cat /sys/class/net/mlx4_ib0.8002/mode datagram
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.7. nm-connection-editor を使用した IPoIB 接続の設定 リンクのコピーリンクがクリップボードにコピーされました!
nmcli-connection-editor
アプリケーションは、管理コンソールを使用して、NetworkManager によって保存されたネットワーク接続を設定および管理します。
前提条件
- InfiniBand デバイスがサーバーにインストールされている。
- 対応するカーネルモジュールがロードされている。
-
nm-connection-editor
パッケージがインストールされている。
手順
コマンドを入力します。
nm-connection-editor
$ nm-connection-editor
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - + ボタンをクリックして、新しい接続を追加します。
-
InfiniBand
接続タイプを選択し、 をクリックします。 InfiniBand
タブで以下を行います。- 必要に応じて、接続名を変更します。
- トランスポートモードを選択します。
- デバイスを選択します。
- 必要に応じて MTU を設定します。
-
IPv4 Settings
タブで、IPv4 設定を設定します。たとえば、静的な IPv4 アドレス、ネットワークマスク、デフォルトゲートウェイ、および DNS サーバーを設定します。 -
IPv6 Settings
タブで、IPv6 設定を設定します。たとえば、静的な IPv6 アドレス、ネットワークマスク、デフォルトゲートウェイ、および DNS サーバーを設定します。 - をクリックして、チーム接続を保存します。
-
nm-connection-editor
を閉じます。 P_Key
インターフェイスを設定することができます。この設定はnm-connection-editor
では利用できないため、コマンドラインでこのパラメーターを設定する必要があります。たとえば、
mlx4_ib0
接続のP_Key
インターフェイスとして0x8002
を設定するには、以下のコマンドを実行します。nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
# nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.8. IPoIB の設定後に qperf を使用した RDMA ネットワークのテスト リンクのコピーリンクがクリップボードにコピーされました!
qperf
ユーティリティーは、2 つのノード間の RDMA と IP のパフォーマンスを、帯域幅、レイテンシー、CPU 使用率の観点から測定します。
前提条件
-
両方のホストに
qperf
パッケージがインストールされている。 - IPoIB が両方のホストに設定されている。
手順
サーバーとして機能するオプションを指定せずに、いずれかのホストで
qperf
を起動します。qperf
# qperf
Copy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントで以下のコマンドを使用します。コマンドは、クライアントの
mlx4_0
ホストチャネルアダプターのポート1
を使用して、サーバーの InfiniBand アダプターに割り当てられた IP アドレス192.0.2.1
に接続します。ホストチャネルアダプターの設定を表示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Reliable Connection (RC) ストリーミングの双方向帯域幅を表示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RC ストリーミングの一方向帯域幅を表示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第4章 RoCE の設定 リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) over Converged Ethernet (RoCE) は、イーサネットネットワーク上で RDMA を利用するネットワークプロトコルです。RoCE の設定には特定のハードウェアが必要です。ハードウェアベンダーには Mellanox、Broadcom、QLogic などがあります。
4.1. RoCE プロトコルバージョンの概要 リンクのコピーリンクがクリップボードにコピーされました!
以下は、RoCE のさまざまなバージョンです。
- RoCE v1
-
RoCE バージョン 1 プロトコルは、Ethertype
0x8915
を持つイーサネットリンク層プロトコルです。同じイーサネットブロードキャストドメイン内にある 2 つのホスト間の通信を可能にします。 - RoCE v2
-
RoCE バージョン 2 プロトコルは、UDP over IPv4 または UDP over IPv6 プロトコルの上位に存在します。RoCE v2 の場合、UDP の宛先ポート番号は
4791
です。
RDMA_CM は、データを転送するためにクライアントとサーバーとの間に信頼できる接続を確立します。RDMA_CM は、接続を確立するために RDMA トランスポートに依存しないインターフェイスを提供します。通信は、特定の RDMA デバイスとメッセージベースのデータ転送を使用します。
クライアントで RoCE v2 を使用し、サーバーで RoCE v1 を使用するなど、異なるバージョンの使用はサポートされていません。このような場合は、サーバーとクライアントの両方が RoCE v1 で通信するように設定してください。
4.2. デフォルトの RoCE バージョンを一時的に変更する リンクのコピーリンクがクリップボードにコピーされました!
クライアントで RoCE v2 プロトコルを使用し、サーバーで RoCE v1 を使用することはサポートされていません。サーバーのハードウェアが RoCE v1 のみをサポートしている場合は、サーバーと通信できるようにクライアントを RoCE v1 用に設定します。たとえば、RoCE v1 のみをサポートする Mellanox ConnectX-5 InfiniBand デバイス用には、mlx5_0
ドライバーを使用するクライアントを設定できます。
ここで説明する変更は、ホストを再起動するまで有効です。
前提条件
- クライアントが、RoCE v2 プロトコルに対応した InfiniBand デバイスを使用している。
- サーバーが、RoCEv1 のみをサポートする InfiniBand デバイスを使用している。
手順
/sys/kernel/config/rdma_cm/mlx5_0/
ディレクトリーを作成します。mkdir /sys/kernel/config/rdma_cm/mlx5_0/
# mkdir /sys/kernel/config/rdma_cm/mlx5_0/
Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルトの RoCE モードを表示します。
cat /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode RoCE v2
# cat /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode RoCE v2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルトの RoCE モードをバージョン 1 に変更します。
echo "IB/RoCE v1" > /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode
# echo "IB/RoCE v1" > /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3. Soft-RoCE の設定 リンクのコピーリンクがクリップボードにコピーされました!
Soft-RoCE は、イーサネット経由のリモートダイレクトメモリーアクセス (RDMA) のソフトウェア実装で、RXE とも呼ばれます。RoCE ホストチャンネルアダプター (HCA) のないホストで Soft-RoCE を使用します。
Soft-RoCE はテクノロジープレビューとしてのみ提供されます。テクノロジープレビュー機能は、Red Hat 製品サポートのサービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビュー機能では、最新の製品機能をいち早く提供します。これにより、お客様は開発段階で機能をテストし、フィードバックを提供できます。
テクノロジープレビュー機能のサポート範囲は、Red Hat カスタマーポータルの テクノロジープレビュー機能のサポート範囲 を参照してください。
前提条件
- イーサネットアダプターが搭載されている。
手順
iproute
パッケージ、libibverbs
パッケージ、libibverbs-utils
パッケージ、およびinfiniband-diags
パッケージをインストールします。yum install iproute libibverbs libibverbs-utils infiniband-diags
# yum install iproute libibverbs libibverbs-utils infiniband-diags
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RDMA リンクを表示します。
rdma link show
# rdma link show
Copy to Clipboard Copied! Toggle word wrap Toggle overflow enp0s1
インターフェイスを使用するrxe0
という名前の新しいrxe
デバイスを追加します。rdma link add rxe0 type rxe netdev enp1s0
# rdma link add rxe0 type rxe netdev enp1s0
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
すべての RDMA リンクの状態を表示します。
rdma link show
# rdma link show link rxe0/1 state ACTIVE physical_state LINK_UP netdev enp1s0
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 利用可能な RDMA デバイスをリスト表示します。
ibv_devices
# ibv_devices device node GUID ------ ---------------- rxe0 505400fffed5e0fb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ibstat
ユーティリティーを使用して詳細なステータスを表示することができます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第5章 システムでユーザーがピニング (固定) できるメモリーの量を増やす リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) の操作には、物理メモリーのピニングが必要です。これにより、カーネルがスワップ領域にメモリーを書き込むことができなくなります。ユーザーがメモリーを過剰に固定すると、システムのメモリーが不足し、カーネルがプロセスを終了してより多くのメモリーを解放することがあります。したがって、メモリーのピニングは特権が必要な操作です。
root 以外のユーザーが大規模な RDMA アプリケーションを実行する必要がある場合は、プライマリーメモリー内のページを常にピニングしておくために、メモリーの量を増やす必要があります。
手順
root
ユーザーで、/etc/security/limits.conf
ファイルを以下の内容で作成します。@rdma soft memlock unlimited @rdma hard memlock unlimited
@rdma soft memlock unlimited @rdma hard memlock unlimited
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
/etc/security/limits.conf
ファイルの編集後、rdma
グループのメンバーとしてログインします。Red Hat Enterprise Linux は、ユーザーのログイン時に、更新された
ulimit
の設定を適用することに注意してください。ulimit -l
コマンドを使用して制限を表示します。ulimit -l
$ ulimit -l unlimited
Copy to Clipboard Copied! Toggle word wrap Toggle overflow コマンドが
unlimited
を返す場合、ユーザーはメモリーのピニングを無制限に行うことができます。
第6章 NFS サーバーで NFS over RDMA を有効にする リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) は、クライアントシステムがストレージサーバーのメモリーから自身のメモリーにデータを直接転送できるようにするプロトコルです。これにより、ストレージのスループットが向上し、サーバーとクライアント間のデータ転送の遅延が減少し、両側の CPU 負荷が軽減されます。NFS サーバーとクライアントの両方が RDMA 経由で接続されている場合、クライアントは NFS over RDMA (NFSoRDMA) を使用してエクスポートされたディレクトリーをマウントできます。
前提条件
- NFS サービスが実行および設定されている。
- InfiniBand または RDMA over Converged Ethernet (RoCE) デバイスがサーバーにインストールされている。
- サーバーに IP over InfiniBand (IPoIB) が設定され、InfiniBand デバイスに IP アドレスが割り当てられている。
手順
rdma-core
パッケージをインストールします。dnf install rdma-core
# dnf install rdma-core
Copy to Clipboard Copied! Toggle word wrap Toggle overflow パッケージがすでにインストールされている場合は、
/etc/rdma/modules/rdma.conf
ファイル内のxprtrdma
およびsvcrdma
モジュールのコメントが解除されていることを確認します。NFS over RDMA client support NFS over RDMA server support
# NFS over RDMA client support xprtrdma # NFS over RDMA server support svcrdma
Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: デフォルトでは、NFS over RDMA はポート 20049 を使用します。別のポートを使用する場合は、
/etc/nfs.conf
ファイルの[nfsd]
セクションでrdma-port
設定を指定します。rdma-port=<port>
rdma-port=<port>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow firewalld
で NFSoRDMA ポートを開きます。firewall-cmd --permanent --add-port={20049/tcp,20049/udp} firewall-cmd --reload
# firewall-cmd --permanent --add-port={20049/tcp,20049/udp} # firewall-cmd --reload
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 20049 以外のポートを設定する場合は、ポート番号を変更します。
nfs-server
サービスを再起動します。systemctl restart nfs-server
# systemctl restart nfs-server
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
InfiniBand ハードウェアを搭載したクライアントで、次の手順を実行します。
以下のパッケージをインストールします。
dnf install nfs-utils rdma-core
# dnf install nfs-utils rdma-core
Copy to Clipboard Copied! Toggle word wrap Toggle overflow エクスポートされた NFS 共有を RDMA 経由でマウントします。
mount -o rdma server.example.com:/nfs/projects/ /mnt/
# mount -o rdma server.example.com:/nfs/projects/ /mnt/
Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルト (20049) 以外のポート番号を設定する場合は、コマンドに
port=<port_number>
を渡します。mount -o rdma,port=<port_number> server.example.com:/nfs/projects/ /mnt/
# mount -o rdma,port=<port_number> server.example.com:/nfs/projects/ /mnt/
Copy to Clipboard Copied! Toggle word wrap Toggle overflow rdma
オプションを使用して共有がマウントされたことを確認します。mount | grep "/mnt"
# mount | grep "/mnt" server.example.com:/nfs/projects/ on /mnt type nfs (...,proto=rdma,...)
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第7章 Soft-iWARP の設定 リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) は、パフォーマンス向上と補助プログラミングインターフェイスのために、iWARP、Soft-iWARP など、いくつかのライブラリーとプロトコルをイーサネット上で使用します。
Soft-iWARP はテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。Red Hat のテクノロジープレビュー機能のサポート範囲の詳細は、https://access.redhat.com/ja/support/offerings/techpreview/ を参照してください。
7.1. iWARP と Soft-iWARP の概要 リンクのコピーリンクがクリップボードにコピーされました!
Remote Direct Memory Access (RDMA) は、イーサネットを介した iWARP を使用して、TCP 経由で集中型の低レイテンシーのデータ送信を行います。iWARP は、標準のイーサネットスイッチと TCP/IP スタックを使用して、IP サブネット全体にトラフィックをルーティングし、既存のインフラストラクチャーを効率的に利用します。Red Hat Enterprise Linux では、複数のプロバイダーがハードウェアネットワークインターフェイスカードに iWARP を実装しています。たとえば、cxgb4
、irdma
、qedr
などです。
Soft-iWARP (siw) は、Linux 用のソフトウェアベースの iWARP カーネルドライバーおよびユーザーライブラリーです。これはソフトウェアベースの RDMA デバイスであり、ネットワークインターフェイスカードに接続すると、RDMA ハードウェアにプログラミングインターフェイスを提供します。Soft-iWARP は、RDMA 環境をテストおよび検証する簡単な方法を提供します。
7.2. Soft-iWARP の設定 リンクのコピーリンクがクリップボードにコピーされました!
Soft-iWARP (siw) は、Linux TCP/IP ネットワークスタックを介して iWARP Remote Direct Memory Access (RDMA) トランスポートを実装します。これにより、標準のイーサネットアダプターを備えたシステムが、iWARP アダプター、または Soft-iWARP ドライバーを実行している別のシステム、または iWARP をサポートするハードウェアを備えたホストと相互運用できるようになります。
Soft-iWARP 機能は、テクノロジープレビューとしてのみ提供されます。テクノロジープレビュー機能は、Red Hat 製品サポートのサービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビュー機能では、最新の製品機能をいち早く提供します。これにより、お客様は開発段階で機能をテストし、フィードバックを提供できます。
テクノロジープレビュー機能のサポート範囲は、Red Hat カスタマーポータルの テクノロジープレビュー機能のサポート範囲 を参照してください。
Soft-iWARP を設定する際には、スクリプトで次の手順を使用して、システムの起動時に自動的にスクリプトを実行できます。
前提条件
- イーサネットアダプターが搭載されている。
手順
iproute
パッケージ、libibverbs
パッケージ、libibverbs-utils
パッケージ、およびinfiniband-diags
パッケージをインストールします。yum install iproute libibverbs libibverbs-utils infiniband-diags
# yum install iproute libibverbs libibverbs-utils infiniband-diags
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RDMA リンクを表示します。
rdma link show
# rdma link show
Copy to Clipboard Copied! Toggle word wrap Toggle overflow siw
カーネルモジュールをロードします。modprobe siw
# modprobe siw
Copy to Clipboard Copied! Toggle word wrap Toggle overflow enp0s1
インターフェイスを使用する、siw0
という名前の新しいsiw
デバイスを追加します。rdma link add siw0 type siw netdev enp0s1
# rdma link add siw0 type siw netdev enp0s1
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
すべての RDMA リンクの状態を表示します。
rdma link show
# rdma link show link siw0/1 state ACTIVE physical_state LINK_UP netdev enp0s1
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 利用可能な RDMA デバイスをリスト表示します。
ibv_devices
# ibv_devices device node GUID ------ ---------------- siw0 0250b6fffea19d61
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ibv_devinfo
ユーティリティーを使用して、詳細なステータスを表示することができます。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第8章 InfiniBand サブネットマネージャー リンクのコピーリンクがクリップボードにコピーされました!
すべての InfiniBand ネットワークでは、ネットワークが機能するために、サブネットマネージャーが実行されている必要があります。これは、2 台のマシンがスイッチなしで直接接続されている場合にも当てはまります。
複数のサブネットマネージャーを使用することもできます。その場合、1 つのサブネットマネージャーはマスターとして、もう 1 つはスレーブとして機能します。スレーブは、マスターサブネットマネージャーに障害が発生した場合に引き継ぎます。
Red Hat Enterprise Linux は、InfiniBand サブネットマネージャーの実装である OpenSM
を提供します。ただし、OpenSM
は機能が限られており、アップストリームの開発が活発に行われていません。通常、InfiniBand スイッチに組み込まれているサブネットマネージャーのほうが、より多くの機能を備えており、最新の InfiniBand ハードウェアをサポートしています。詳細は、Installing and configuring the OpenSM InfiniBand subnet manager を参照してください。