NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Netwerkkaart

Productdetails:

Merknaam: Mellanox
Modelnummer: MCX555A-ECAT
Document: CONNECTX-5 infiniband.pdf

Betalen & Verzenden Algemene voorwaarden:

Min. bestelaantal: 1 stks
Prijs: Negotiate
Verpakking Details: Buitenste doos
Levertijd: Op basis van inventarisatie
Betalingscondities: T/T
Levering vermogen: Levering door project/batch
Beste prijs Contact

Gedetailleerde informatie

Productenstatus: Voorraad Sollicitatie: Server
Voorwaarde: Nieuw en origineel Type: Bedraad
Maximale snelheid: EDR en 100GBE Ethernet -connector: QSFP28
Markeren:

NVIDIA ConnectX-5 InfiniBand adapter

,

100Gb/s QSFP28-netwerkkaart

,

PCIe 3.0 x16 Mellanox-kaart

Productomschrijving

NVIDIA ConnectX-5 MCX555A-ECAT InfiniBand Adapter Card
Single-Port QSFP28 100Gb/s InfiniBand & Ethernet PCIe 3.0 x16 RDMA ingeschakeld

High-performance, low-latency 100Gb/s netwerkadapter ontworpen voor HPC, AI en cloud datacenters.en tagmatching voor MPI-werkbelastingen, waardoor de doorvoer en CPU-efficiëntie toonaangevend zijn in de industrie.

Productoverzicht

DeNVIDIA ConnectX-5 MCX555A-ECATis een enkele poort 100Gb/s InfiniBand adapter kaart in een low-profile PCIe-form factor.100 Gb/s doorvoerDe kaart ondersteunt zowel InfiniBand (tot EDR) als 100GbE, en biedt veelzijdige connectiviteit voor high-performance computing, opslag,en gevirtualiseerde omgeving.

Gebouwd met een ingebouwde PCIe-switch en geavanceerde RDMA-mogelijkheden, de MCX555A-ECAT offloads kritieke communicatie taken van de CPU lager stroomverbruikHet is volledig compatibel met PCIe 3.0 x16-slots en ondersteunt een breed scala aan besturingssystemen en versnellingsframeworks.

Belangrijkste kenmerken
  • Tot 100 Gb/sverbinding per poort (InfiniBand EDR / 100GbE)
  • enkelvoudige QSFP28-connectormet een breedte van niet meer dan 50 mm,
  • PCIe 3.0 x16-hostinterface(Auto-onderhandelingen naar x8, x4, x2, x1)
  • RDMA, verzend/ontvang semantiekmet op hardware gebaseerd betrouwbaar transport
  • Tagmatching en rendezvous van losladenvoor MPI en SHMEM
  • NVMe over Fabrics (NVMe-oF) doelverlastenvoor efficiënte opslag
  • GPUDirect RDMA (PeerDirect)versnelling voor GPU-communicatie
  • Hardwaregebaseerde congestiebeheersing en adaptieve routingsupport
  • SR-IOV virtualisatie:tot 512 virtuele functies
  • RoHS-conform, laag profielvormfactor(met inbegrip van de lengte)
Geavanceerde technologie en ontladen

De ConnectX-5 architectuur integreert een reeks hardware versnelling motoren die CPU-interventie verminderen en de schaalbaarheid van de applicatie te verbeteren:

  • MPI Tag Matching & Rendezvous Offload:Verlaadt berichtmatching en rendezvousprotocolverwerking, waardoor de MPI-prestaties voor HPC-clusters drastisch worden verbeterd.
  • Out-of-Order RDMA met adaptieve routing:Het maakt efficiënt gebruik van meerdere netwerkpaden mogelijk, terwijl de semantiek van de geordende voltooiing wordt gehandhaafd, waardoor het gebruik van de stof wordt gemaksimaliseerd.
  • NVMe-oF-doelontladingen:NVMe-opslagsystemen kunnen op afstand worden gebruikt met bijna nul CPU-overhead, ideaal voor gedesaggregeerde opslagarchitecturen.
  • Dynamisch verbonden vervoer (DCT):Biedt extreme schaalbaarheid voor grote computersystemen en opslagsystemen door de overhead van verbindingsopstelling te elimineren.
  • ASAP2 Versnelde schakeling en pakketverwerking:Hardware offload voor Open vSwitch (OVS) en overlay network tunneling (VXLAN, NVGRE, GENEVE).
  • Paging op aanvraag (ODP):Ondersteunt virtuele geheugenpaging voor RDMA-operaties, waardoor applicatieontwikkeling wordt vereenvoudigd.
Typische uitzendingen
  • High-Performance Computing (HPC):Ideaal voor supercomputingclusters, op MPI gebaseerde simulaties en wetenschappelijke onderzoekswerklasten die een lage latentie en hoge berichtpercentages vereisen.
  • AI & Deep Learning-opleiding:Gecombineerd met GPUDirect RDMA, maakt het een snelle GPU-naar-GPU-communicatie tussen knooppunten mogelijk, waardoor de trainingstijden worden versneld.
  • NVMe-oF-opslagsystemen:Invoer als opslagdoelen of initiatoren in NVMe over Fabrics-omgevingen voor toegang tot blokopslag met hoge doorvoer en lage latentie.
  • Cloud en gevirtualiseerde datacenters:SR-IOV en virtualisatie-offloads ondersteunen multi-tenantomgevingen met gegarandeerde QoS en veilige isolatie.
  • Hoogfrequentiehandel (HFT):Ultralage latentie en hardware-tijdstempels (IEEE 1588v2) voldoen aan de eisen van toepassingen voor financiële diensten.
Compatibiliteit en interoperabiliteit

De MCX555A-ECAT is ontworpen voor brede compatibiliteit met NVIDIA InfiniBand-switches (bijv. Quantum, Spectrum) en 100GbE-switches van derden.Het ondersteunt zowel passieve koperen DAC's als actieve optische kabels via QSFP28-poorten.

Besturingssystemen en software-stacks:

  • RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
  • OpenFabrics Enterprise Distribution (OFED) / WinOF-2
  • NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, Platform MPI
  • Data Plane Development Kit (DPDK) voor kernel bypass
Technische specificaties
Parameter Specificatie
Model MCX555A-ECAT
Vormfactor PCIe Low-Profile (14,2 cm x 6,9 cm zonder beugel), hoog beugel vooraf geïnstalleerd, kort beugel inbegrepen
Port snelheid en type 1x QSFP28, tot 100Gb/s InfiniBand (EDR) en 100GbE
Host Interface PCI Express 3.0 x16 (compatibel met x8, x4, x2, x1)
Ondersteuning van InfiniBand IBTA 1.3-compatibel, 100Gb/s EDR, FDR, QDR, DDR, SDR; 8 virtuele lanes + VL15; 16 miljoen I/O-kanalen
Ondersteuning voor Ethernet 100 GbE, 50 GbE, 40 GbE, 25 GbE, 10 GbE, 1 GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae
RDMA-mogelijkheden RDMA over Converged Ethernet (RoCE), hardware betrouwbaar transport, RDMA buiten orde, atoomoperaties
opslag en losladen NVMe over Fabrics doellast, iSER, SRP, NFS RDMA, SMB Direct, overdracht van T10 DIF-handtekening
Virtualisatie SR-IOV (maximaal 512 virtuele functies), VMware NetQueue, NPAR, PCIe Access Control Services (ACS)
CPU-afladen TCP/UDP/IP stateless offload, LSO/LRO, checksum offload, RSS/TSS, VLAN/MPLS tag inbrengen/uittrekken
Overlappende netwerken Hardware-afladen voor VXLAN-, NVGRE-, GENEVE-inkapseling/dekapseling
Beheer NC-SI via MCTP, PLDM voor monitor/controle en firmware-update, I2C, SPI, JTAG
Afstandsstarten Remote boot over InfiniBand, Ethernet, iSCSI; ondersteuning voor UEFI, PXE
Energieverbruik Niet openbaar gespecificeerd; typisch bereik van minder dan 20 W ️ bevestig voor uw systeem
Werktemperatuur 0°C tot 55°C (typische omgeving)
Naleving RoHS, REACH, FCC, CE, VCCI, ICES, RCM

Opmerking: specificaties afgeleid van NVIDIA ConnectX-5 productdocumentatie.

Selectiegids ️ ConnectX-5 Familie
Nummer van het bestelgedeelte Ports / snelheid Host Interface Vormfactor Belangrijkste kenmerken
MCX555A-ECAT 1x QSFP28, 100 Gb/s PCIe 3.0 x16 PCIe met een laag profiel Standaard single-port, EDR InfiniBand / 100GbE
MCX556A-ECAT 2x QSFP28, 100 Gb/s PCIe 3.0 x16 PCIe met een laag profiel Dual-port, EDR/100GbE
MCX556A-EDAT 2x QSFP28, 100 Gb/s PCIe 4.0 x16 PCIe met een laag profiel ConnectX-5 Ex, verbeterde PCIe Gen4
MCX556M-ECAT-S25 2x QSFP28, 100 Gb/s 2x PCIe 3.0 x8 Socket Direct Dual-socket serververbinding via harness
MCX545B-ECAN 1x QSFP28, 100 Gb/s PCIe 3.0 x16 OCP 2.0 type 1 Open Compute Project vormfactor

Voor OCP- of Multi-Host-varianten, neem dan contact op met de verkoop.

Waarom ConnectX-5 MCX555A-ECAT kiezen
  • Superieure toepassingsprestatiesHardware offloads voor MPI, NVMe-oF, en overlays vrije CPU-kernen voor zakelijke logica.
  • Scalable RDMA-stof:DCT, XRC en out-of-order RDMA leveren lineaire schaalbaarheid voor duizenden knooppunten.
  • GPU versnelling klaar:GPUDirect RDMA maakt directe geheugentoegang tussen GPU's en netwerkadapters mogelijk, waardoor CPU-flessknopen in AI-clusters worden geëlimineerd.
  • Flexible inzet:Een enkele QSFP28-poort vereenvoudigt de bekabeling en is ideaal voor 100 Gb/s-architecturen.
  • Bescherming van investeringen:Ondersteuning voor zowel InfiniBand als Ethernet maakt naadloze overgang tussen protocollen mogelijk naarmate de behoeften evolueren.
Dienstverlening en ondersteuning

Hong Kong Starsurge Group biedt volledige levenscyclusondersteuning voor NVIDIA ConnectX-5-adapters, inclusief pre-sales configuratiehulp, firmware-updategids en garantie-service.Ons technisch team kan u helpen met:

  • Verificatie van de compatibiliteit met uw server en switchinfrastructuur
  • Performance-tuning voor HPC- of opslagwerkbelastingen
  • Opties voor aangepaste behuizingen en vereisten voor bulkverpakkingen
  • RMA-verwerking en geavanceerde vervangingsdiensten

Neem contact op met onze verkoopingenieurs voor de prijzen en de levertijden.

Vaak gestelde vragen
V: Wat is het verschil tussen MCX555A-ECAT en MCX556A-ECAT?
A: MCX555A-ECAT heeft een enkele QSFP28-poort, terwijl MCX556A-ECAT twee poorten heeft. Beide ondersteunen 100Gb / s per poort en PCIe 3.0 x16.
V: Kan deze kaart worden gebruikt in een PCIe 3.0 x8 slot?
A: Ja, de kaart onderhandelt automatisch met x8, x4, x2 of x1 rijstrookbreedten, hoewel de maximale doorvoer kan worden beperkt door de beschikbare bandbreedte.
V: Ondersteunt het RoCE (RDMA over Converged Ethernet)?
A: Ja, ConnectX-5 ondersteunt RoCE voor Ethernet-fabrieken en biedt RDMA-diensten met lage latentie op standaard Ethernet-netwerken.
V: Welke kabels zijn compatibel?
A: De kaart werkt met QSFP28 passieve koperen DAC's (tot 5m) en actieve optische kabels (AOC) voor langere afstanden, evenals optische transceivers voor glasvezelconnectiviteit.
V: Wordt deze kaart ondersteund in VMware ESXi?
A: Ja, VMware ESXi wordt ondersteund met native drivers en SR-IOV-mogelijkheden.
Voorzorgsmaatregelen voor gebruik en installatie

Elektrostatische ontlading (ESD):Gebruik altijd ESD-veilige praktijken bij het hanteren van de adapter.Verkoelingseisen:Zorg voor een voldoende luchtstroom in het chassis van de server om de werktemperatuur binnen het gespecificeerde bereik te houden.Firmware-updates:Gebruik NVIDIA officiële firmware tools (MFT) en controleer de compatibiliteit met uw besturingssysteem en stuurprogramma versie voordat u bijwerkt.Kabelbuigwerk:Volgt de richtlijnen voor de straal van de QSFP28-kabel om signaldegradatie te voorkomen.

Dit is een product van klasse A. In een woonomgeving kan het radio-interferentie veroorzaken.

Over Hong Kong Starsurge Group Co., Limited
NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Netwerkkaart 0

Opgericht in 2008,Hong Kong Starsurge Group Co., Limitedis een technologiegerichte leverancier van netwerkhardware, IT-diensten en systeemintegratieoplossingen.controllersStarsurge combineert diepgaande technische expertise met een klantgerichte aanpak.,Het bedrijf biedt IoT-oplossingen, netwerkbeheersystemen, maatwerksoftwareontwikkeling en meertalige wereldwijde levering.Starsurge helpt klanten om efficiënt te bouwen, schaalbare en betrouwbare netwerkinfrastructuur.

Belangrijkste feiten NVIDIA MCX555A-ECAT
100 Gb/s
Port snelheid (InfiniBand & Ethernet)
PCIe 3.0 x16
Host-interface bandbreedte
512 VF
Maximale SR-IOV virtuele functies
NVMe-oF
Hardware ontladen opslagdoel
Compatibiliteitsmatrix
Component / systeem Standaard van verenigbaarheid Notities
NVIDIA Quantum InfiniBand-schakelaars Gecertificeerd EDR- en HDR-compatibiliteit bij gebruik van geschikte firmware
NVIDIA Spectrum Ethernet-switches Gecertificeerd Ondersteunde standen 100GbE, 50GbE, 25GbE
100GbE-switches van derden Compatibel Vereist naleving van IEEE-normen; getest bij grote leveranciers
GPU-servers (NVIDIA DGX, HGX) Gecertificeerd met GPUDirect RDMA-versnelling voor multi-GPU-communicatie
Storage-arrays met NVMe-oF Ondersteund Doelontlading maakt efficiënte NVMe-stoftoegang mogelijk
Kopercontrolelist 100Gb/s InfiniBand Adapter
  • Bevestig dat de server beschikt over een PCIe 3.0 x16 (of x8) slot met voldoende ruimte.
  • ¢ Bepaal het aantal poorten: enkelvoudige (MCX555A-ECAT) versus dubbelvoudige (MCX556A-ECAT).
  • ¢ Kies het type kabel: passief koperen DAC voor korte afstanden (≤5m) of optisch voor langere afstanden.
  • ¢ Bevestig de ondersteuning van het besturingssysteem en de stuurprogramma's (OFED, Windows, VMware).
  • Voor GPU-clusters moet u ervoor zorgen dat GPUDirect RDMA compatibel is met uw GPU-model en stuurprogramma-versie.
  • Controleer of er een hoge of een korte beugel nodig is voor het chassis van uw server.
Gerelateerde producten
  • NVIDIA MCX556A-ECAT Dual-port 100Gb/s ConnectX-5 adapter
  • NVIDIA MCX556A-EDAT ️ ConnectX-5 Ex met ondersteuning voor PCIe 4.0
  • NVIDIA Quantum-2 QM9700 40-poort 800Gb/s InfiniBand Switch
  • Mellanox QSFP28 passieve DAC-kabels (1m, 2m, 3m)
  • NVIDIA Spectrum-4 SN5600 100GbE/400GbE Ethernet-switches
Gerelateerde gidsen en bronnen
  • NVIDIA ConnectX-5 InfiniBand Adapter Card Gebruikershandleiding
  • RDMA over Converged Ethernet (RoCE) Implementatiegids
  • GPUDirect RDMA Best Practices voor AI-clusters
  • NVMe over Fabrics met ConnectX-5
  • OFED Installatie- en tuninggids


Wilt u meer details over dit product weten
Ik ben geïnteresseerd NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Netwerkkaart kun je me meer details sturen zoals type, maat, hoeveelheid, materiaal, etc.
Bedankt!
Wachten op je antwoord.