IPoIB (IP over InfiniBand) 및 RDMA 성능 DRBD 8 over IPoIB와의 연결을 제공하는 Linux

나는 두 개의 데비안 호스트 사이에서 IPoIB (IP over InfiniBand)를 통해 DRBD 8 over IPoIB와의 연결을 제공하는 Linux HA 클러스터를 부분적으로 상속했습니다. 그것은 깨지지 않았으므로 고치지 않을 것입니다.

또한 DRBD 9가 RDMA를 지원한다는 사실을 알았으므로 향후 RDMA를 통해 DRBD 9 (예 : “기본”InfiniBand)로 연결을 교체할지 여부에 대한 의문이 생길 수 있습니다.

프로덕션 시스템에서 성능 테스트를 실행하고 싶지 않기 때문에 궁금합니다. IPoIB와 RDMA / InfiniBand의 성능 비교가 게시되어 있습니까? 예를 들어 IPoIB에서 10 %, 50 % 또는 100 % 순서로 IPoIB를 전환하면 대역폭 / 대기 시간이 늘어날 것으로 예상 할 수 있습니까? 무엇을 기대할 수 있습니까?



답변

이 프리젠 테이션을 보셨습니까?
https://www.linbit.com/en/drbd-9-over-rdma-with-micron-ssds/
http://downloads.openfabrics.org/Media/Monterey_2015/Tuesday/tuesday_09_ma.pdf

InfiniBand는 RDMA를 제공하는 특정 네트워크 아키텍처 일 뿐이지 만 실행중인 애플리케이션 유형에 따라 성능이 달라집니다. 내 경험은 주로 MPI 기반 응용 프로그램을 사용하는 학술 / 연구 시스템을 기반으로합니다. 어떤 경우에는 RDMA가 IPoIB보다 20 % 더 나은 성능을 보였습니다. 그러나 나는 그러한 벤치마킹에 대해 잘 모르지만 많은 학술 논문과 공급 업체 백서가 있습니다. I / O에 대해서만 생각하고 있다면 파일 크기, 읽기 수 및 쓰기 수를 고려하십시오. RDMA는 일반적으로 임의의 작은 읽기에는 큰 이점을 제공하지만 쓰기에는 작은 이점 만 제공했습니다. RoCE (RDMA over Converged Ethernet) 및 InfiniBand 기본 RDMA에서 읽을 수 있습니다.


답변