InfiniBand 및 RDMA 네트워크 구성
고속 네트워크 프로토콜 및 RDMA 하드웨어 구성 및 관리
초록
Red Hat 문서에 관한 피드백 제공 링크 복사링크가 클립보드에 복사되었습니다!
문서에 대한 피드백에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.
Jira를 통해 피드백 제출 (등록 필요)
- Jira 웹 사이트에 로그인합니다.
- 상단 탐색 모음에서 생성 을 클릭합니다.
- Summary (요약) 필드에 설명 제목을 입력합니다.
- Description (설명) 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
- 대화 상자 하단에서 생성 을 클릭합니다.
1장. InfiniBand 및 RDMA 소개 링크 복사링크가 클립보드에 복사되었습니다!
InfiniBand는 다음 두 가지를 참조합니다.
- InfiniBand 네트워크의 물리적 링크 계층 프로토콜
- InfiniBand Verbs API - 원격 직접 메모리 액세스(RDMA) 기술 구현
RDMA는 운영 체제, 캐시 또는 스토리지를 포함하지 않고 두 컴퓨터의 기본 메모리 간의 액세스를 제공합니다. RDMA를 사용하면 처리량이 높고 대기 시간이 짧고 CPU 사용률이 낮은 데이터 전송입니다.
일반적인 IP 데이터 전송에서는 한 시스템의 애플리케이션이 다른 머신의 애플리케이션에 데이터를 보내면 수신 끝에서 다음 작업이 수행됩니다.
- 커널이 데이터를 수신해야 합니다.
- 커널은 데이터가 애플리케이션에 속하는지 결정해야 합니다.
- 커널이 애플리케이션을 활성화합니다.
- 커널은 애플리케이션이 커널에 시스템 호출을 수행할 때까지 기다립니다.
- 애플리케이션은 커널의 내부 메모리 공간에서 애플리케이션에서 제공하는 버퍼로 데이터를 복사합니다.
이 프로세스는 호스트 어댑터가 직접 메모리 액세스(DMA)를 사용하거나 두 번 이상 사용하는 경우 대부분의 네트워크 트래픽이 시스템의 기본 메모리에 복사됩니다. 또한 컴퓨터는 일부 컨텍스트 스위치를 실행하여 커널과 애플리케이션 간에 전환합니다. 이러한 컨텍스트 스위치는 다른 작업이 느려지는 동안 트래픽 속도가 높은 CPU 부하를 증가시킬 수 있습니다.
기존 IP 통신과 달리 RDMA 통신은 통신 프로세스의 커널 개입을 우회합니다. 이렇게 하면 CPU 오버헤드가 줄어듭니다. 패킷이 네트워크에 진입하면 RDMA 프로토콜을 통해 호스트 어댑터에서 수신해야 하는 애플리케이션과 해당 애플리케이션의 메모리 공간에 저장할 위치를 결정할 수 있습니다. 호스트 어댑터는 커널에 처리할 패킷을 보내고 사용자 애플리케이션의 메모리에 복사하는 대신 패킷 콘텐츠를 애플리케이션 버퍼에 직접 배치합니다. 이 프로세스에는 별도의 API, InfiniBand Verbs API가 필요하며 애플리케이션은 RDMA를 사용하려면 InfiniBand Verbs API를 구현해야 합니다.
Red Hat Enterprise Linux는 InfiniBand 하드웨어와 InfiniBand Verbs API를 모두 지원합니다. 또한 InfiniBand 비 하드웨어에서 InfiniBand Verbs API를 사용하도록 다음 기술을 지원합니다.
- iWARP: IP 네트워크를 통해 RDMA를 구현하는 네트워크 프로토콜
- RoCE(RDMA over Converged Ethernet)를 IBoE(InfiniBand over Ethernet)라고도 합니다. 이더넷 네트워크를 통해 RDMA를 구현하는 네트워크 프로토콜
2장. rdma 서비스 구성 링크 복사링크가 클립보드에 복사되었습니다!
RDMA(Remote Direct Memory Access) 프로토콜을 사용하면 기본 메모리를 사용하여 RDMA가 활성화된 시스템 간에 데이터를 전송할 수 있습니다. RDMA 프로토콜은 짧은 대기 시간과 높은 처리량을 제공합니다. 지원되는 네트워크 프로토콜 및 통신 표준을 관리하려면 rdma 서비스를 구성해야 합니다. 이 구성에는 RoCE 및 iWARP와 같은 고속 네트워크 프로토콜과 Soft-RoCE 및 Soft-iWARP와 같은 통신 표준이 포함됩니다. Red Hat Enterprise Linux가 InfiniBand, iWARP 또는 RoCE 장치 및 /etc/rdma/modules/* 디렉터리에 있는 구성 파일을 감지하면 udev 장치 관리자는 systemd 에 rdma 서비스를 시작하도록 지시합니다. 재부팅 후에도 /etc/rdma/modules/rdma.conf 파일의 모듈 구성은 영구적으로 유지됩니다. 변경 사항을 적용하려면 rdma-load-modules@rdma.service 구성 서비스를 다시 시작해야 합니다.
절차
rdma-core및opensm패키지를 설치합니다.dnf install rdma-core opensm
# dnf install rdma-core opensmCopy to Clipboard Copied! Toggle word wrap Toggle overflow opensm서비스를 활성화합니다.systemctl enable opensm
# systemctl enable opensmCopy to Clipboard Copied! Toggle word wrap Toggle overflow opensm서비스를 시작합니다.systemctl start opensm
# systemctl start opensmCopy to Clipboard Copied! Toggle word wrap Toggle overflow /etc/rdma/modules/rdma.conf파일을 편집하고 활성화하려는 모듈의 주석을 제거합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 서비스를 다시 시작하여 변경 사항을 적용합니다.
systemctl restart <rdma-load-modules@rdma.service>
# systemctl restart <rdma-load-modules@rdma.service>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
libibverbs-utils및infiniband-diags패키지를 설치합니다.dnf install libibverbs-utils infiniband-diags
# dnf install libibverbs-utils infiniband-diagsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 사용 가능한 InfiniBand 장치를 나열합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_1장치의 정보를 표시합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_1장치의 상태를 표시합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow ibping유틸리티는 InfiniBand 주소를 ping하고 매개 변수를 구성하여 클라이언트/서버로 실행됩니다.Start server mode
-Son port number-Pwith-CInfiniBand channel adapter (CA) name on the host:ibping -S -C mlx4_1 -P 1
# ibping -S -C mlx4_1 -P 1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 클라이언트 모드를 시작하려면 호스트에서
InfiniBand 채널 어댑터(CA) 이름을 사용하여 포트 번호-C-P에서-LID(Local Identifier)를 사용하여 일부 패킷을 보냅니다.ibping -c 50 -C mlx4_0 -P 1 -L 2
# ibping -c 50 -C mlx4_0 -P 1 -L 2Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3장. IPoIB 구성 링크 복사링크가 클립보드에 복사되었습니다!
기본적으로 InfiniBand는 통신에 인터넷 프로토콜(IP)을 사용하지 않습니다. 그러나 IP over InfiniBand(IPoIB)는 InfiniBand RDMA(Remote Direct Memory Access) 네트워크 위에 IP 네트워크 에뮬레이션 계층을 제공합니다. 이렇게 하면 수정되지 않은 기존 애플리케이션에서 InfiniBand 네트워크를 통해 데이터를 전송할 수 있지만 성능은 애플리케이션이 기본적으로 RDMA를 사용하는 것보다 낮습니다.
Mellanox 장치는, ConnectX-4 이상에서 시작하여 RHEL 8에서는 기본적으로 향상된 IPoIB 모드를 사용합니다(데이터그램만 해당). 연결 모드는 이러한 장치에서 지원되지 않습니다.
3.1. IPoIB 통신 모드 링크 복사링크가 클립보드에 복사되었습니다!
IPoIB 장치는 Datagram 또는 Connected 모드에서 구성할 수 있습니다. 차이점은 통신의 다른 끝에서 IPoIB 계층이 머신으로 열려고 하는 대기열 쌍의 유형입니다.
Datagram모드에서는 시스템이 신뢰할 수 없고 연결이 끊긴 큐 쌍을 엽니다.이 모드는 InfiniBand 링크 계층의 MTU(최대 전송 단위)보다 큰 패키지를 지원하지 않습니다. 데이터를 전송하는 동안, IPoIB 계층은 IP 패킷 상단에 4 바이트 IPoIB 헤더를 추가합니다. 결과적으로 IPoIB MTU는 InfiniBand 링크 계층 MTU보다 4바이트 미만입니다.
2048는 일반적인 InfiniBand 링크 계층 MTU이므로Datagram모드의 공통 IPoIB 장치 MTU는2044입니다.연결모드에서는 시스템이 신뢰할 수 있고 연결된 큐 쌍을 엽니다.이 모드에서는 InfiniBand 링크 MTU보다 큰 메시지를 사용할 수 있습니다. 호스트 어댑터는 패킷 분할 및 재사양을 처리합니다. 결과적으로
연결모드에서 Infiniband 어댑터에서 보낸 메시지에 크기 제한이 없습니다. 그러나데이터필드 및 TCP/IP헤더필드로 인해 IP 패킷이 제한됩니다. 이러한 이유로연결된모드의 IPoIB MTU는65520바이트입니다.연결된모드는 성능이 높지만 커널 메모리를 더 많이 사용합니다.
시스템은 연결 모드를 사용하도록 구성되어 있지만 InfiniBand 스위치 및 패브릭은 연결된 모드에서 멀티 캐스트 트래픽을 전달할 수 없기 때문에 시스템은 Datagram 모드를 사용하여 멀티캐스트 트래픽을 계속 보냅니다. 또한 호스트가 Connected 모드를 사용하도록 구성되지 않은 경우 시스템이 데이터그램 모드로 전환됩니다.
인터페이스의 MTU로 멀티 캐스트 데이터를 전송하는 애플리케이션을 실행하는 동안 데이터그램 모드에서 인터페이스를 구성하거나 데이터그램 크기의 패킷에 맞는 패킷의 전송 크기를 제한하도록 애플리케이션을 구성합니다.
3.2. IPoIB 하드웨어 주소 이해 링크 복사링크가 클립보드에 복사되었습니다!
IPoIB 장치에는 다음 부분으로 구성된 20 바이트 하드웨어 주소가 있습니다.
- 처음 4바이트는 플래그 및 큐 쌍 번호입니다.
다음 8바이트는 서브넷 접두사입니다.
기본 서브넷 접두사는
0xfe:80:00:00:00:00입니다. 장치가 서브넷 관리자에 연결한 후 장치는 이 접두사를 구성된 서브넷 관리자와 일치하도록 변경합니다.- 마지막 8바이트는 IPoIB 장치에 연결되는 InfiniBand 포트의 GUID(Globally Unique Identifier)입니다.
처음 12바이트가 변경될 수 있으므로 udev 장치 관리자 규칙에서 사용하지 마십시오.
3.3. IPoIB 장치 이름 변경 링크 복사링크가 클립보드에 복사되었습니다!
기본적으로 커널은 InfiniBand(IPoIB) 장치를 통한 인터넷 프로토콜(예: ib0,ib1 등)을 지정합니다. 충돌을 피하기 위해 Red Hat은 udev 장치 관리자에 규칙을 생성하여 mlx4_ib0 과 같은 지속적이고 의미 있는 이름을 만들 것을 권장합니다.
사전 요구 사항
- InfiniBand 장치를 설치했습니다.
절차
장치
ib0의 하드웨어 주소를 표시합니다.ip link show ib0
# ip link show ib0 8: ib0: >BROADCAST,MULTICAST,UP,LOWER_UP< mtu 65520 qdisc pfifo_fast state UP mode DEFAULT qlen 256 link/infiniband 80:00:02:00:fe:80:00:00:00:00:00:00:00:02:c9:03:00:31:78:f2 brd 00:ff:ff:ff:ff:12:40:1b:ff:ff:00:00:00:00:00:00:ff:ff:ff:ffCopy to Clipboard Copied! Toggle word wrap Toggle overflow 주소의 마지막 8바이트는 다음 단계에서
udev규칙을 생성하는 데 필요합니다.장치의 이름을
00:02:c9:03:00:31:78:f2하드웨어 주소를mlx4_ib0으로 변경하는 규칙을 구성하려면/etc/udev/rules.d/70-persistent-ipoib.rules파일을 편집합니다.ACTION=="add", SUBSYSTEM=="net", DRIVERS=="?*", ATTR{type}=="32", ATTR{address}=="?*00:02:c9:03:00:31:78:f2", NAME="mlx4_ib0"ACTION=="add", SUBSYSTEM=="net", DRIVERS=="?*", ATTR{type}=="32", ATTR{address}=="?*00:02:c9:03:00:31:78:f2", NAME="mlx4_ib0"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 호스트를 재부팅합니다.
reboot
# rebootCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.4. nmcli를 사용하여 IPoIB 연결 구성 링크 복사링크가 클립보드에 복사되었습니다!
nmcli 유틸리티를 사용하여 명령줄에서 InfiniBand 연결을 통해 IP를 만들 수 있습니다.
사전 요구 사항
- InfiniBand 장치가 서버에 설치됨
- 해당 커널 모듈이 로드됩니다.
절차
연결된전송 모드에서mlx4_ib0인터페이스와65520바이트의 최대 MTU를 사용하려면 InfiniBand 연결을 만듭니다.nmcli connection add type infiniband con-name mlx4_ib0 ifname mlx4_ib0 transport-mode Connected mtu 65520
# nmcli connection add type infiniband con-name mlx4_ib0 ifname mlx4_ib0 transport-mode Connected mtu 65520Copy to Clipboard Copied! Toggle word wrap Toggle overflow P_Key를 설정합니다. 예를 들면 다음과 같습니다.nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
# nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002Copy to Clipboard Copied! Toggle word wrap Toggle overflow IPv4 설정을 구성합니다.
DHCP를 사용하려면 다음을 입력합니다.
nmcli connection modify mlx4_ib0 ipv4.method auto
# nmcli connection modify mlx4_ib0 ipv4.method autoCopy to Clipboard Copied! Toggle word wrap Toggle overflow ipv4.method가 이미auto(기본값)로 설정된 경우 이 단계를 건너뜁니다.정적 IPv4 주소, 네트워크 마스크, 기본 게이트웨이, DNS 서버 및 검색 도메인을 설정하려면 다음을 입력합니다.
nmcli connection modify mlx4_ib0 ipv4.method manual ipv4.addresses 192.0.2.1/24 ipv4.gateway 192.0.2.254 ipv4.dns 192.0.2.200 ipv4.dns-search example.com
# nmcli connection modify mlx4_ib0 ipv4.method manual ipv4.addresses 192.0.2.1/24 ipv4.gateway 192.0.2.254 ipv4.dns 192.0.2.200 ipv4.dns-search example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow
IPv6 설정을 구성합니다.
SLAAC(상태 비저장 주소 자동 구성)를 사용하려면 다음을 입력합니다.
nmcli connection modify mlx4_ib0 ipv6.method auto
# nmcli connection modify mlx4_ib0 ipv6.method autoCopy to Clipboard Copied! Toggle word wrap Toggle overflow ipv6.method가 이미auto(기본값)로 설정된 경우 이 단계를 건너뜁니다.정적 IPv6 주소, 네트워크 마스크, 기본 게이트웨이, DNS 서버 및 검색 도메인을 설정하려면 다음을 입력합니다.
nmcli connection modify mlx4_ib0 ipv6.method manual ipv6.addresses 2001:db8:1::fffe/64 ipv6.gateway 2001:db8:1::fffe ipv6.dns 2001:db8:1::ffbb ipv6.dns-search example.com
# nmcli connection modify mlx4_ib0 ipv6.method manual ipv6.addresses 2001:db8:1::fffe/64 ipv6.gateway 2001:db8:1::fffe ipv6.dns 2001:db8:1::ffbb ipv6.dns-search example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow
프로필의 다른 설정을 사용자 지정하려면 다음 명령을 사용합니다.
nmcli connection modify mlx4_ib0 <setting> <value>
# nmcli connection modify mlx4_ib0 <setting> <value>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 값을 따옴표로 묶거나 spaces로 묶습니다.
프로필을 활성화합니다.
nmcli connection up mlx4_ib0
# nmcli connection up mlx4_ib0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
ping유틸리티를 사용하여 원격 호스트의 InfiniBand 어댑터에 ICMP 패킷을 보냅니다. 예를 들면 다음과 같습니다.ping -c5 192.0.2.2
# ping -c5 192.0.2.2Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.5. 네트워크 RHEL 시스템 역할을 사용하여 IPoIB 연결 구성 링크 복사링크가 클립보드에 복사되었습니다!
IP는 InfiniBand (IPoIB)를 통해 InfiniBand 인터페이스를 통해 IP 패킷을 보낼 수 있습니다. IPoIB를 구성하려면 NetworkManager 연결 프로필을 만듭니다. Ansible 및 네트워크 시스템 역할을 사용하면 이 프로세스를 자동화하고 플레이북에 정의된 호스트에서 연결 프로필을 원격으로 구성할 수 있습니다.
네트워크 RHEL 시스템 역할을 사용하여 IPoIB를 구성할 수 있으며, InfiniBand의 상위 장치에 대한 연결 프로파일이 없으면 역할도 생성할 수 있습니다.
사전 요구 사항
- 컨트롤 노드 및 관리형 노드를 준비했습니다.
- 관리 노드에서 플레이북을 실행할 수 있는 사용자로 제어 노드에 로그인되어 있습니다.
-
관리형 노드에 연결하는 데 사용하는 계정에는
sudo권한이 있습니다. -
mlx4_ib0이라는 InfiniBand 장치가 관리 노드에 설치됩니다. - 관리형 노드는 NetworkManager를 사용하여 네트워크를 구성합니다.
절차
다음 콘텐츠를 사용하여 플레이북 파일(예:
~/playbook.yml)을 생성합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제 플레이북에 지정된 설정은 다음과 같습니다.
type: <profile_type>- 생성할 프로필 유형을 설정합니다. 예제 플레이북은 두 개의 연결 프로필을 생성합니다. 하나는 InfiniBand 연결용이고 하나는 IPoIB 장치용입니다.
parent: <parent_device>- IPoIB 연결 프로필의 상위 장치를 설정합니다.
p_key: <value>-
InfiniBand 파티션 키를 설정합니다. 이 변수를 설정하는 경우 IPoIB 장치에
interface_name을 설정하지 마십시오. transport_mode: <mode>-
IPoIB 연결 작업 모드를 설정합니다. 이 변수를
데이터그램(기본값) 또는연결된 로 설정할 수 있습니다.
플레이북에 사용되는 모든 변수에 대한 자세한 내용은 제어 노드의
/usr/share/ansible/roles/rhel-system-roles.network/README.md파일을 참조하십시오.플레이북 구문을 확인합니다.
ansible-playbook --syntax-check ~/playbook.yml
$ ansible-playbook --syntax-check ~/playbook.ymlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 이 명령은 구문만 검증하고 잘못되었지만 유효한 구성으로부터 보호하지 않습니다.
플레이북을 실행합니다.
ansible-playbook ~/playbook.yml
$ ansible-playbook ~/playbook.ymlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
mlx4_ib0.8002장치의 IP 설정을 표시합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002장치의 파티션 키(P_Key)를 표시합니다.ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/pkey' managed-node-01.example.com | CHANGED | rc=0 >> 0x8002
# ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/pkey' managed-node-01.example.com | CHANGED | rc=0 >> 0x8002Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002장치의 모드를 표시합니다.ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/mode' managed-node-01.example.com | CHANGED | rc=0 >> datagram
# ansible managed-node-01.example.com -m command -a 'cat /sys/class/net/mlx4_ib0.8002/mode' managed-node-01.example.com | CHANGED | rc=0 >> datagramCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.6. nmstatectl을 사용하여 IPoIB 연결 구성 링크 복사링크가 클립보드에 복사되었습니다!
nmstatectl 유틸리티를 사용하여 Nmstate API를 통해 InfiniBand(IPoIB) 연결을 통해 IP를 구성할 수 있습니다. Nmstate API는 구성을 설정한 후 결과가 구성 파일과 일치하는지 확인합니다. 문제가 발생하면 nmstatectl 이 변경 사항을 자동으로 롤백하여 시스템을 잘못된 상태로 두지 않습니다.
사전 요구 사항
- InfiniBand 장치가 서버에 설치됩니다.
- InfiniBand 장치의 커널 모듈이 로드됩니다.
절차
다음 콘텐츠를 사용하여 YAML 파일(예:
~/create-IPoIB-profile.yml)을 생성합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 이제 IPoIB 연결이 다음 설정을 갖습니다.
-
IPOIB 장치 이름:
mlx4_ib0.8002 -
기본 인터페이스(parent):
mlx4_ib0 -
InfiniBand 파티션 키:
0x8002 -
전송 모드:
데이터그램 -
정적 IPv4 주소:
192.0.2.1및/24서브넷 마스크 -
정적 IPv6 주소:
2001:db8:1::1및/64서브넷 마스크 -
IPv4 기본 게이트웨이:
192.0.2.254 -
IPv6 기본 게이트웨이:
2001:db8:1::fffe
-
IPOIB 장치 이름:
시스템에 설정을 적용합니다.
nmstatectl apply ~/create-IPoIB-profile.yml
# nmstatectl apply ~/create-IPoIB-profile.ymlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
mlx4_ib0.8002장치의 IP 설정을 표시합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002장치의 파티션 키(P_Key)를 표시합니다.cat /sys/class/net/mlx4_ib0.8002/pkey 0x8002
# cat /sys/class/net/mlx4_ib0.8002/pkey 0x8002Copy to Clipboard Copied! Toggle word wrap Toggle overflow mlx4_ib0.8002장치의 모드를 표시합니다.cat /sys/class/net/mlx4_ib0.8002/mode datagram
# cat /sys/class/net/mlx4_ib0.8002/mode datagramCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.7. nm-connection-editor를 사용하여 IPoIB 연결 구성 링크 복사링크가 클립보드에 복사되었습니다!
nmcli-connection-editor 애플리케이션은 관리 콘솔을 사용하여 NetworkManager에서 저장한 네트워크 연결을 구성하고 관리합니다.
사전 요구 사항
- InfiniBand 장치가 서버에 설치됩니다.
- 해당 커널 모듈이 로드됩니다.
-
nm-connection-editor패키지가 설치됩니다.
절차
명령을 입력합니다.
nm-connection-editor
$ nm-connection-editorCopy to Clipboard Copied! Toggle word wrap Toggle overflow - + 버튼을 클릭하여 새 연결을 추가합니다.
-
InfiniBand연결 유형을 선택하고 클릭합니다. InfiniBand탭에서 다음을 수행합니다.- 원하는 경우 연결 이름을 변경합니다.
- 전송 모드를 선택합니다.
- 장치를 선택합니다.
- 필요한 경우 MTU를 설정합니다.
-
IPv4 Settings(IPv4 설정) 탭에서 IPv4 설정을 구성합니다. 예를 들어 정적 IPv4 주소, 네트워크 마스크, 기본 게이트웨이 및 DNS 서버를 설정합니다.
-
IPv6 Settings(IPv6 설정) 탭에서 IPv6 설정을 구성합니다. 예를 들어 정적 IPv6 주소, 네트워크 마스크, 기본 게이트웨이 및 DNS 서버를 설정합니다.
- )를 클릭하여 팀 연결을 저장합니다.
-
nm-connection-editor를 닫습니다. P_Key인터페이스를 설정할 수 있습니다.nm-connection-editor에서 이 설정을 사용할 수 없으므로 명령줄에서 이 매개변수를 설정해야 합니다.예를 들어,
0x8002를mlx4_ib0연결의P_Key인터페이스로 설정하려면 다음을 수행합니다.nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002
# nmcli connection modify mlx4_ib0 infiniband.p-key 0x8002Copy to Clipboard Copied! Toggle word wrap Toggle overflow
3.8. IPoIB가 구성된 후 qperf를 사용하여 RDMA 네트워크 테스트 링크 복사링크가 클립보드에 복사되었습니다!
qperf 유틸리티는 대역폭, 대기 시간, CPU 사용률 측면에서 두 노드 간에 RDMA 및 IP 성능을 측정합니다.
사전 요구 사항
-
두 호스트 모두에
qperf패키지를 설치했습니다. - IPoIB은 두 호스트에 모두 구성됩니다.
절차
서버 역할을 하는 옵션 없이 호스트 중 하나에서
qperf을 시작합니다.qperf
# qperfCopy to Clipboard Copied! Toggle word wrap Toggle overflow 클라이언트에서 다음 명령을 사용합니다. 이 명령은 클라이언트의
mlx4_0호스트 채널 어댑터의 포트1을 사용하여 서버의 InfiniBand 어댑터에 할당된 IP 주소192.0.2.1에 연결합니다.호스트 채널 어댑터의 구성을 표시합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 신뢰할 수 있는 연결(RC)이 양방향 대역폭 스트리밍을 표시합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RC 스트리밍 단방향 대역폭을 표시합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4장. RoCE 구성 링크 복사링크가 클립보드에 복사되었습니다!
RoCE(Remote Direct Memory Access) over Converged Ethernet(RoCE)은 이더넷 네트워크를 통해 RDMA를 사용하는 네트워크 프로토콜입니다. 구성을 위해 RoCE에는 특정 하드웨어가 필요하며 일부 하드웨어 공급업체는 Mellanox, Broadcom 및 QLogic입니다.
4.1. RoCE 프로토콜 버전 개요 링크 복사링크가 클립보드에 복사되었습니다!
다음은 다른 RoCE 버전입니다.
- RoCE v1
-
RoCE 버전 1 프로토콜은 Ethertype
0x8915가 있는 이더넷 링크 계층 프로토콜로, 동일한 이더넷 브로드캐스트 도메인에 있는 두 호스트 간의 통신을 가능하게 합니다. - RoCE v2
-
RoCE 버전 2 프로토콜은 UDP over IPv4 또는 UDP over IPv6 프로토콜에 존재합니다. RoCE v2의 경우 UDP 대상 포트 번호는
4791입니다.
RDMA_CM은 데이터를 전송하는 클라이언트와 서버 간에 안정적인 연결을 설정합니다. RDMA_CM은 연결 설정을 위한 RDMA 전송 중립 인터페이스를 제공합니다. 통신은 특정 RDMA 장치 및 메시지 기반 데이터 전송을 사용합니다.
클라이언트에서 RoCE v2와 같은 다른 버전을 사용하고 서버에서 RoCE v1을 사용하는 것은 지원되지 않습니다. 이러한 경우 RoCE v1에서 통신하도록 서버와 클라이언트를 구성합니다.
4.2. 기본 RoCE 버전 일시적으로 변경 링크 복사링크가 클립보드에 복사되었습니다!
서버에서 클라이언트 및 RoCE v1에서 RoCE v2 프로토콜을 사용하는 것은 지원되지 않습니다. 서버의 하드웨어가 RoCE v1만 지원하는 경우 RoCE v1이 서버와 통신할 수 있도록 클라이언트를 구성합니다. 예를 들어 RoCE v1만 지원하는 Mellanox ConnectX-5 InfiniBand 장치에 mlx5_0 드라이버를 사용하는 클라이언트를 구성할 수 있습니다.
여기에서 설명된 변경 사항은 호스트를 재부팅할 때까지 적용됩니다.
사전 요구 사항
- 클라이언트는 RoCE v2 프로토콜이 포함된 InfiniBand 장치를 사용합니다.
- 서버는 RoCE v1만 지원하는 InfiniBand 장치를 사용합니다.
절차
/sys/kernel/config/rdma_cm/mlx5_0/디렉터리를 만듭니다.mkdir /sys/kernel/config/rdma_cm/mlx5_0/
# mkdir /sys/kernel/config/rdma_cm/mlx5_0/Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기본 RoCE 모드를 표시합니다.
cat /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode RoCE v2
# cat /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode RoCE v2Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기본 RoCE 모드를 버전 1로 변경합니다.
echo "IB/RoCE v1" > /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_mode
# echo "IB/RoCE v1" > /sys/kernel/config/rdma_cm/mlx5_0/ports/1/default_roce_modeCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3. 소프트 로빈 구성 링크 복사링크가 클립보드에 복사되었습니다!
소프트 로빈은 이더넷을 통한 RDMA(Remote Direct Memory Access) 소프트웨어 구현으로 RXE라고도 합니다. RoCE HCA(호스트 채널 어댑터)가 없는 호스트에서 소프트 로빈을 사용합니다.
soft-RoCE는 기술 프리뷰로만 제공됩니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않을 수 있으며, 기능적으로 완전하지 않을 수 있으며 Red Hat은 프로덕션에 이러한 기능을 사용하지 않는 것이 좋습니다. 이러한 프리뷰를 통해 향후 제품 기능에 조기 액세스할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 Red Hat 고객 포털의 기술 프리뷰 기능 지원 범위를 참조하십시오.
사전 요구 사항
- 이더넷 어댑터가 설치됨
절차
iproute,,libibverbs-utilsinfiniband-diags패키지를 설치합니다.yum install iproute libibverbs libibverbs-utils infiniband-diags
# yum install iproute libibverbs libibverbs-utils infiniband-diagsCopy to Clipboard Copied! Toggle word wrap Toggle overflow RDMA 링크를 표시합니다.
rdma link show
# rdma link showCopy to Clipboard Copied! Toggle word wrap Toggle overflow enp0s1인터페이스를 사용하는이라는 새 rxe 장치를 추가합니다.rxe0rdma link add rxe0 type rxe netdev enp1s0
# rdma link add rxe0 type rxe netdev enp1s0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
모든 RDMA 링크의 상태를 표시합니다.
rdma link show
# rdma link show link rxe0/1 state ACTIVE physical_state LINK_UP netdev enp1s0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 사용 가능한 RDMA 장치를 나열합니다.
ibv_devices
# ibv_devices device node GUID ------ ---------------- rxe0 505400fffed5e0fbCopy to Clipboard Copied! Toggle word wrap Toggle overflow ibstat유틸리티를 사용하여 자세한 상태를 표시할 수 있습니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow
5장. 사용자가 시스템에서 고정할 수 있는 메모리 양 증가 링크 복사링크가 클립보드에 복사되었습니다!
RDMA(Remote Direct Memory Access) 작업을 수행하려면 실제 메모리 고정이 필요합니다. 결과적으로 커널은 스왑 공간에 메모리를 쓸 수 없습니다. 사용자가 메모리를 너무 많이 고정하면 시스템은 메모리가 부족해질 수 있으며 커널은 프로세스를 종료하여 더 많은 메모리를 확보합니다. 따라서 메모리 고정은 권한 있는 작업입니다.
루트가 아닌 사용자가 대규모 RDMA 애플리케이션을 실행해야 하는 경우 항상 고정된 기본 메모리의 페이지를 유지하기 위해 메모리 양을 늘려야 합니다.
절차
root사용자로 다음 콘텐츠를 사용하여/etc/security/limits.conf파일을 생성합니다.@rdma soft memlock unlimited @rdma hard memlock unlimited
@rdma soft memlock unlimited @rdma hard memlock unlimitedCopy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
/etc/security/limits.conf파일을 편집한 후rdma그룹의 멤버로 로그인합니다.Red Hat Enterprise Linux는 사용자가 로그인할 때 업데이트된
ulimit설정을 적용합니다.ulimit -l명령을 사용하여 제한을 표시합니다.ulimit -l
$ ulimit -l unlimitedCopy to Clipboard Copied! Toggle word wrap Toggle overflow 명령이
무제한을 반환하는 경우 사용자는 무제한 메모리를 고정할 수 있습니다.
6장. NFS 서버에서 RDMA를 통해 NFS 활성화 링크 복사링크가 클립보드에 복사되었습니다!
RDMA(Remote Direct Memory Access)는 클라이언트 시스템이 스토리지 서버의 메모리에서 자체 메모리로 직접 데이터를 전송할 수 있는 프로토콜입니다. 이렇게 하면 스토리지 처리량이 향상되고 서버와 클라이언트 간의 데이터 전송 대기 시간이 단축되고 두 종료 모두에서 CPU 부하가 줄어듭니다. NFS 서버와 클라이언트가 모두 RDMA를 통해 연결된 경우 클라이언트는 NFSoRDMA를 사용하여 내보낸 디렉터리를 마운트할 수 있습니다.
사전 요구 사항
- NFS 서비스가 실행 중이고 구성됨
- RoCE(InfiniBand 또는 RDMA over Converged Ethernet) 장치가 서버에 설치되어 있습니다.
- IP over InfiniBand (IPoIB)는 서버에 구성되고 InfiniBand 장치에 IP 주소가 할당됩니다.
절차
rdma-core패키지를 설치합니다.dnf install rdma-core
# dnf install rdma-coreCopy to Clipboard Copied! Toggle word wrap Toggle overflow 패키지가 이미 설치된 경우
/etc/rdma/modules/rdma.conf파일의xprtrdma및svcrdma모듈이 주석 해제되었는지 확인합니다.NFS over RDMA client support NFS over RDMA server support
# NFS over RDMA client support xprtrdma # NFS over RDMA server support svcrdmaCopy to Clipboard Copied! Toggle word wrap Toggle overflow 선택 사항: 기본적으로 RDMA를 통한 NFS에서는 포트 20049를 사용합니다. 다른 포트를 사용하려면
/etc/nfs.conf파일의[nfsd]섹션에서rdma-port설정을 설정합니다.rdma-port=<port>
rdma-port=<port>Copy to Clipboard Copied! Toggle word wrap Toggle overflow firewalld에서 NFSoRDMA 포트를 엽니다.firewall-cmd --permanent --add-port={20049/tcp,20049/udp} firewall-cmd --reload# firewall-cmd --permanent --add-port={20049/tcp,20049/udp} # firewall-cmd --reloadCopy to Clipboard Copied! Toggle word wrap Toggle overflow 20049 이외의 다른 포트를 설정하면 포트 번호를 조정합니다.
nfs-server서비스를 다시 시작합니다.systemctl restart nfs-server
# systemctl restart nfs-serverCopy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
InfiniBand 하드웨어가 있는 클라이언트에서 다음 단계를 수행합니다.
다음 패키지를 설치합니다.
dnf install nfs-utils rdma-core
# dnf install nfs-utils rdma-coreCopy to Clipboard Copied! Toggle word wrap Toggle overflow RDMA를 통해 내보낸 NFS 공유를 마운트합니다.
mount -o rdma server.example.com:/nfs/projects/ /mnt/
# mount -o rdma server.example.com:/nfs/projects/ /mnt/Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기본값(20049) 이외의 포트 번호를 설정하면 port
= <port_number>를 명령에 전달합니다.mount -o rdma,port=<port_number> server.example.com:/nfs/projects/ /mnt/
# mount -o rdma,port=<port_number> server.example.com:/nfs/projects/ /mnt/Copy to Clipboard Copied! Toggle word wrap Toggle overflow rdma옵션을 사용하여 공유가 마운트되었는지 확인합니다.mount | grep "/mnt"
# mount | grep "/mnt" server.example.com:/nfs/projects/ on /mnt type nfs (...,proto=rdma,...)Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7장. soft-iWARP 구성 링크 복사링크가 클립보드에 복사되었습니다!
RDMA(Remote Direct Memory Access)는 성능 향상 및 도움이 되는 프로그래밍 인터페이스를 위해 iWARP와 같은 이더넷을 통해 여러 라이브러리와 프로토콜을 사용합니다.
soft-iWARP는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview 을 참조하십시오.
7.1. iWARP 및 soft-iWARP에 대한 개요 링크 복사링크가 클립보드에 복사되었습니다!
RDMA(Remote Direct Memory Access)는 TCP를 통해 통합 및 대기 시간이 짧은 데이터 전송을 위해 이더넷을 통해 iWARP를 사용합니다. 표준 이더넷 스위치와 TCP/IP 스택을 사용하여 iWARP는 IP 서브넷을 통해 트래픽을 라우팅하여 기존 인프라를 효율적으로 활용합니다. Red Hat Enterprise Linux에서 여러 공급자는 하드웨어 네트워크 인터페이스 카드에 대해 iWARP를 구현합니다. 예를 들어 cxgb4,irdma,qedr 등입니다.
soft-iWARP(siw)는 Linux용 소프트웨어 기반 iWARP 커널 드라이버 및 사용자 라이브러리입니다. 네트워크 인터페이스 카드에 연결된 경우 RDMA 하드웨어에 프로그래밍 인터페이스를 제공하는 소프트웨어 기반 RDMA 장치입니다. RDMA 환경을 쉽게 테스트하고 검증할 수 있습니다.
7.2. soft-iWARP 구성 링크 복사링크가 클립보드에 복사되었습니다!
소프트-iWARP(siw)는 Linux TCP/IP 네트워크 스택을 통해 iWARP Remote Direct Memory Access(RDMA) 전송을 구현합니다. 표준 이더넷 어댑터가 있는 시스템이 iWARP 어댑터 또는 iWARP 드라이버를 실행하는 다른 시스템과 상호 운용하거나 iWARP를 지원하는 하드웨어를 사용하여 호스트를 실행할 수 있습니다.
soft-iWARP 기능은 기술 프리뷰로만 제공됩니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않을 수 있으며, 기능적으로 완전하지 않을 수 있으며 Red Hat은 프로덕션에 이러한 기능을 사용하지 않는 것이 좋습니다. 이러한 프리뷰를 통해 향후 제품 기능에 조기 액세스할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 Red Hat 고객 포털의 기술 프리뷰 기능 지원 범위를 참조하십시오.
soft-iWARP를 구성하려면 스크립트에서 이 절차를 사용하여 시스템이 부팅될 때 자동으로 실행될 수 있습니다.
사전 요구 사항
- 이더넷 어댑터가 설치됨
절차
iproute,,libibverbs-utilsinfiniband-diags패키지를 설치합니다.yum install iproute libibverbs libibverbs-utils infiniband-diags
# yum install iproute libibverbs libibverbs-utils infiniband-diagsCopy to Clipboard Copied! Toggle word wrap Toggle overflow RDMA 링크를 표시합니다.
rdma link show
# rdma link showCopy to Clipboard Copied! Toggle word wrap Toggle overflow siw커널 모듈을 로드합니다.modprobe siw
# modprobe siwCopy to Clipboard Copied! Toggle word wrap Toggle overflow enp0s1인터페이스를 사용하는이라는 새 siw 장치를 추가합니다.siw0rdma link add siw0 type siw netdev enp0s1
# rdma link add siw0 type siw netdev enp0s1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
모든 RDMA 링크의 상태를 표시합니다.
rdma link show
# rdma link show link siw0/1 state ACTIVE physical_state LINK_UP netdev enp0s1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 사용 가능한 RDMA 장치를 나열합니다.
ibv_devices
# ibv_devices device node GUID ------ ---------------- siw0 0250b6fffea19d61Copy to Clipboard Copied! Toggle word wrap Toggle overflow ibv_devinfo유틸리티를 사용하여 자세한 상태를 표시할 수 있습니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow
8장. InfiniBand 서브넷 관리자 링크 복사링크가 클립보드에 복사되었습니다!
모든 InfiniBand 네트워크에는 네트워크가 작동하려면 서브넷 관리자가 실행 중이어야 합니다. 두 시스템이 연결된 스위치 없이 직접 연결된 경우에도 마찬가지입니다.
서브넷 관리자가 두 개 이상 있을 수 있습니다. 이 경우 마스터 역할을 하고 다른 서브넷 관리자는 마스터 서브넷 관리자가 실패할 경우 이를 수행하는 슬레이브 역할을 합니다.
Red Hat Enterprise Linux는 InfiniBand 서브넷 관리자의 구현인 OpenSM 을 제공합니다. 그러나 OpenSM 의 기능은 제한되어 있으며 활성 업스트림 개발이 없습니다. 일반적으로 InfiniBand 스위치에 내장된 서브넷 관리자는 더 많은 기능을 제공하고 최신 InfiniBand 하드웨어를 지원합니다. 자세한 내용은 OpenSM InfiniBand 서브넷 관리자 설치 및 구성 을 참조하십시오.