NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Kartu Jaringan
Detail produk:
| Nama merek: | Mellanox |
| Nomor model: | MCX555A-ECAT |
| Dokumen: | CONNECTX-5 infiniband.pdf |
Syarat-syarat pembayaran & pengiriman:
| Kuantitas min Order: | 1 buah |
|---|---|
| Harga: | Negotiate |
| Kemasan rincian: | Kotak luar |
| Waktu pengiriman: | Berdasarkan persediaan |
| Syarat-syarat pembayaran: | T/T |
| Menyediakan kemampuan: | Pasokan dengan proyek/batch |
|
Informasi Detail |
|||
| status produk: | Saham | Aplikasi: | pelayan |
|---|---|---|---|
| Kondisi: | Baru dan Asli | Jenis: | Kabel |
| Kecepatan Maks: | EDR dan 100GBE | Konektor Ethernet: | QSFP28 |
| Menyoroti: | Adaptor NVIDIA ConnectX-5 InfiniBand,Kartu jaringan 100Gb/s QSFP28,Kartu PCIe 3.0 x16 Mellanox |
||
Deskripsi Produk
Adaptor jaringan 100Gb/s berkinerja tinggi dan latensi rendah yang dirancang untuk pusat data HPC, AI, dan cloud.dan pencocokan tag untuk beban kerja MPI.
PeraturanNVIDIA ConnectX-5 MCX555A-ECATadalah kartu adaptor InfiniBand port tunggal 100Gb/s dalam faktor bentuk PCIe profil rendah.100Gb/s throughputdengan latensi sub-mikrosekund dan kecepatan pesan yang tinggi. Kartu ini mendukung InfiniBand (hingga EDR) dan 100GbE, memberikan konektivitas serbaguna untuk komputasi berkinerja tinggi, penyimpanan,dan lingkungan virtual.
Dibangun dengan switch PCIe tertanam dan kemampuan RDMA canggih, MCX555A-ECAT offload tugas komunikasi kritis dari CPU memungkinkan kinerja aplikasi yang lebih tinggi,konsumsi daya yang lebih rendahIni sepenuhnya kompatibel dengan slot PCIe 3.0 x16 dan mendukung berbagai sistem operasi dan kerangka kerja akselerasi.
- Hingga 100Gb/sKonektivitas per port (InfiniBand EDR / 100GbE)
- Konektor QSFP28 tunggaluntuk kabel optik atau tembaga
- Interface host PCIe 3.0 x16(menegosiasikan otomatis ke x8, x4, x2, x1)
- RDMA, mengirim / menerima semantikdengan transportasi handal berbasis perangkat keras
- Pencocokan tag dan pertemuan pengungkapanuntuk MPI dan SHMEM
- NVMe over Fabrics (NVMe-oF) target offloaduntuk penyimpanan yang efisien
- GPUDirect RDMA (PeerDirect)percepatan untuk komunikasi GPU
- Kontrol kemacetan berbasis perangkat keras & dukungan routing adaptif
- Virtualisasi SR-IOV:hingga 512 fungsi virtual
- RoHS sesuai, faktor bentuk profil rendah(termasuk kurung tinggi)
Arsitektur ConnectX-5 mengintegrasikan berbagai mesin akselerasi perangkat keras yang mengurangi intervensi CPU dan meningkatkan skalabilitas aplikasi:
- MPI Tag Matching & Rendezvous Offload:Mengangkat pencocokan pesan dan pemrosesan protokol pertemuan, secara dramatis meningkatkan kinerja MPI untuk cluster HPC.
- Out-of-Order RDMA dengan Adaptive Routing:Memungkinkan penggunaan jalur jaringan yang efisien sambil mempertahankan semantik penyelesaian yang teratur, memaksimalkan pemanfaatan kain.
- NVMe-oF Target Offloads:Memungkinkan sistem penyimpanan NVMe untuk melayani akses jarak jauh dengan overhead CPU hampir nol, ideal untuk arsitektur penyimpanan terurai.
- Transportasi yang Terhubung Dinamis (DCT):Memberikan skalabilitas ekstrim untuk sistem komputasi dan penyimpanan besar dengan menghilangkan overhead pengaturan koneksi.
- ASAP2 Percepatan Switching & Pengolahan Paket:Hardware offload untuk Open vSwitch (OVS) dan overlay network tunneling (VXLAN, NVGRE, GENEVE).
- Paging On-Demand (ODP):Mendukung penelusuran memori virtual untuk operasi RDMA, menyederhanakan pengembangan aplikasi.
- High-Performance Computing (HPC):Ideal untuk kluster superkomputer, simulasi berbasis MPI, dan beban kerja penelitian ilmiah yang membutuhkan latensi rendah dan tingkat pesan yang tinggi.
- Pelatihan AI & Deep Learning:Dikombinasikan dengan GPUDirect RDMA, memungkinkan komunikasi GPU-ke-GPU yang cepat di seluruh node, mempercepat waktu pelatihan.
- Sistem penyimpanan NVMe-oF:Dilisensikan sebagai target penyimpanan atau inisiator di lingkungan NVMe over Fabrics untuk akses penyimpanan blok dengan throughput tinggi dan latensi rendah.
- Cloud & Pusat Data Virtualisasi:SR-IOV dan virtualisasi offload mendukung lingkungan multi-penyewa dengan jaminan QoS dan isolasi yang aman.
- Perdagangan Frekuensi Tinggi (HFT):Latensi ultra-rendah dan hardware timestamping (IEEE 1588v2) memenuhi permintaan aplikasi layanan keuangan.
MCX555A-ECAT dirancang untuk kompatibilitas luas dengan switch NVIDIA InfiniBand (misalnya, Quantum, Spectrum) dan switch 100GbE pihak ketiga.Ini mendukung DAC tembaga pasif dan kabel optik aktif melalui port QSFP28.
Sistem Operasi & Software Stack:
- RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
- OpenFabrics Enterprise Distribution (OFED) / WinOF-2
- NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, Platform MPI
- Data Plane Development Kit (DPDK) untuk bypass kernel
| Parameter | Spesifikasi |
|---|---|
| Model | MCX555A-ECAT |
| Faktor Bentuk | PCIe Low-Profile (14.2cm x 6.9cm tanpa bracket), Bracket tinggi sudah terpasang, bracket pendek termasuk |
| Kecepatan & Jenis Pelabuhan | 1x QSFP28, hingga 100Gb/s InfiniBand (EDR) dan 100GbE |
| Antarmuka Host | PCI Express 3.0 x16 (kompatibel dengan x8, x4, x2, x1) |
| Dukungan InfiniBand | IBTA 1.3 kompatibel, 100Gb/s EDR, FDR, QDR, DDR, SDR; 8 jalur virtual + VL15; 16 juta saluran I/O |
| Dukungan Ethernet | 100GbE, 50GbE, 40GbE, 25GbE, 10GbE, 1GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae |
| Kemampuan RDMA | RDMA over Converged Ethernet (RoCE), hardware reliable transport, RDMA out-of-order, operasi atom |
| Penyimpanan Pengiriman | NVMe over Fabrics target offload, iSER, SRP, NFS RDMA, SMB Direct, penyerahan tanda tangan T10 DIF |
| Virtualisasi | SR-IOV (hingga 512 fungsi virtual), VMware NetQueue, NPAR, PCIe Access Control Services (ACS) |
| Pengurangan beban CPU | TCP/UDP/IP stateless offload, LSO/LRO, checksum offload, RSS/TSS, VLAN/MPLS tag insertion/stripping |
| Jaringan Overlay | Hardware offload untuk VXLAN, NVGRE, GENEVE encapsulation/decapsulation |
| Manajemen | NC-SI melalui MCTP, PLDM untuk monitor/kontrol dan pembaruan firmware, I2C, SPI, JTAG |
| Remote Boot | Remote boot melalui InfiniBand, Ethernet, iSCSI; dukungan UEFI, PXE |
| Konsumsi Daya | Tidak ditentukan secara publik; rentang yang khas di bawah 20W |
| Suhu operasi | 0°C sampai 55°C (lingkungan khas) |
| Kepatuhan | RoHS, REACH, FCC, CE, VCCI, ICES, RCM |
Catatan: Spesifikasi berasal dari dokumentasi produk NVIDIA ConnectX-5. Untuk rincian terbaru dan dukungan firmware, lihat catatan rilis resmi NVIDIA.
| Nomor Bagian Pemesanan | Pelabuhan / Kecepatan | Antarmuka Host | Faktor Bentuk | Fitur Utama |
|---|---|---|---|---|
| MCX555A-ECAT | 1x QSFP28, 100Gb/s | PCIe 3.0 x16 | PCIe profil rendah | Standar single-port, EDR InfiniBand / 100GbE |
| MCX556A-ECAT | 2x QSFP28, 100Gb/s | PCIe 3.0 x16 | PCIe profil rendah | Dua port, EDR/100GbE |
| MCX556A-EDAT | 2x QSFP28, 100Gb/s | PCIe 4.0 x16 | PCIe profil rendah | ConnectX-5 Ex, PCIe Gen4 yang ditingkatkan |
| MCX556M-ECAT-S25 | 2x QSFP28, 100Gb/s | 2x PCIe 3.0 x8 | Socket Direct | Koneksi server dual-socket melalui sabuk |
| MCX545B-ECAN | 1x QSFP28, 100Gb/s | PCIe 3.0 x16 | OCP 2.0 Tipe 1 | Open Compute Project faktor bentuk |
Untuk varian OCP atau Multi-Host, silakan hubungi penjualan.
- Kinerja aplikasi yang superior:Hardware offload untuk MPI, NVMe-oF, dan overlay core CPU gratis untuk logika bisnis.
- Kain RDMA yang dapat diskalakan:DCT, XRC, dan RDMA out-of-order memberikan skalabilitas linier untuk ribuan node.
- GPU Percepatan Siap:GPUDirect RDMA memungkinkan akses memori langsung antara GPU dan adaptor jaringan, menghilangkan kemacetan CPU di cluster AI.
- Pengiriman Fleksibel:Port QSFP28 tunggal menyederhanakan kabel dan ideal untuk arsitektur leaf-spine 100Gb / s.
- Perlindungan Investasi:Dukungan untuk InfiniBand dan Ethernet memungkinkan transisi mulus antara protokol sesuai kebutuhan berkembang.
Hong Kong Starsurge Group menyediakan dukungan siklus hidup lengkap untuk adaptor NVIDIA ConnectX-5, termasuk bantuan konfigurasi pra-penjualan, panduan pembaruan firmware, dan layanan garansi.Tim teknis kami dapat membantu dengan:
- Verifikasi kompatibilitas dengan server dan infrastruktur switch Anda
- Performance tuning untuk beban kerja HPC atau penyimpanan
- Opsi bracket khusus dan persyaratan kemasan besar
- Layanan pengolahan RMA dan penggantian lanjutan
Hubungi insinyur penjualan kami untuk harga volume dan informasi lead time.
Pengeluaran Elektrostatik (ESD):Selalu gunakan metode ESD-safe saat menangani adaptor.Persyaratan pendinginan:Memastikan aliran udara yang memadai di sasis server untuk menjaga suhu operasi dalam kisaran yang ditentukan.Pembaruan Firmware:Gunakan alat firmware resmi NVIDIA (MFT) dan verifikasi kompatibilitas dengan OS dan versi driver Anda sebelum memperbarui.Pengelompokan Kabel:Ikuti pedoman radius tikungan kabel QSFP28 untuk menghindari degradasi sinyal.
Ini adalah produk Kelas A. Di lingkungan perumahan dapat menyebabkan gangguan radio.
Didirikan pada tahun 2008,Hong Kong Starsurge Group Co., Limitedadalah penyedia perangkat keras jaringan, layanan TI, dan solusi integrasi sistem yang didorong oleh teknologi.pengontrol, dan kabel kecepatan tinggi, Starsurge menggabungkan keahlian teknis yang mendalam dengan pendekatan pelanggan pertama.,dan perusahaan, menawarkan solusi IoT, sistem manajemen jaringan, pengembangan perangkat lunak khusus, dan pengiriman global multibahasa.Starsurge membantu klien membangun efisien, infrastruktur jaringan yang dapat diskalakan dan dapat diandalkan.
| Komponen / Sistem | Status Kompatibilitas | Catatan |
|---|---|---|
| NVIDIA Quantum InfiniBand Switch | Diperiksa | Kompatibilitas EDR, HDR saat menggunakan firmware yang tepat |
| NVIDIA Spektrum Ethernet Switch | Diperiksa | Modus 100GbE, 50GbE, 25GbE didukung |
| Switch 100GbE pihak ketiga | Kompatibel | Memerlukan kepatuhan standar IEEE; diuji dengan vendor utama |
| Server GPU (NVIDIA DGX, HGX) | Disertifikasi dengan GPUDirect | RDMA akselerasi untuk komunikasi multi-GPU |
| Array penyimpanan dengan NVMe-oF | Didukung | Target offload memungkinkan akses kain NVMe yang efisien |
- Konfirmasi server memiliki slot PCIe 3.0 x16 (atau x8) yang tersedia dengan jarak yang cukup.
- ️ Tentukan jumlah port: single-port (MCX555A-ECAT) vs dual-port (MCX556A-ECAT).
- Pilih jenis kabel: DAC tembaga pasif untuk jarak pendek (≤5m) atau optik untuk jarak yang lebih panjang.
- Periksa dukungan sistem operasi dan driver (OFED, Windows, VMware).
- Untuk cluster GPU, pastikan kompatibilitas GPUDirect RDMA dengan model GPU dan versi driver Anda.
- Periksa apakah dukungan tinggi atau pendek diperlukan untuk sasis server Anda.
- NVIDIA MCX556A-ECAT Dual-port 100Gb/s ConnectX-5 adaptor
- NVIDIA MCX556A-EDAT ConnectX-5 Ex dengan dukungan PCIe 4.0
- NVIDIA Quantum-2 QM9700 40-port 800Gb/s InfiniBand Switch
- Kabel DAC pasif Mellanox QSFP28 (1m, 2m, 3m)
- NVIDIA Spectrum-4 SN5600 100GbE/400GbE Ethernet switch
- NVIDIA ConnectX-5 InfiniBand Adapter Card User Manual
- RDMA atas Converged Ethernet (RoCE) Panduan penyebaran
- GPUDirect RDMA Praktik Terbaik untuk Kluster AI
- NVMe over Fabrics dengan ConnectX-5 Konfigurasi Panduan
- Panduan Instalasi dan Tuning OFED







