NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Kartu Jaringan

Detail produk:

Nama merek: Mellanox
Nomor model: MCX555A-ECAT
Dokumen: CONNECTX-5 infiniband.pdf

Syarat-syarat pembayaran & pengiriman:

Kuantitas min Order: 1 buah
Harga: Negotiate
Kemasan rincian: Kotak luar
Waktu pengiriman: Berdasarkan persediaan
Syarat-syarat pembayaran: T/T
Menyediakan kemampuan: Pasokan dengan proyek/batch
Harga terbaik Kontak

Informasi Detail

status produk: Saham Aplikasi: pelayan
Kondisi: Baru dan Asli Jenis: Kabel
Kecepatan Maks: EDR dan 100GBE Konektor Ethernet: QSFP28
Menyoroti:

Adaptor NVIDIA ConnectX-5 InfiniBand

,

Kartu jaringan 100Gb/s QSFP28

,

Kartu PCIe 3.0 x16 Mellanox

Deskripsi Produk

NVIDIA ConnectX-5 MCX555A-ECAT InfiniBand Adapter Card
Single-Port QSFP28 100Gb/s InfiniBand & Ethernet PCIe 3.0 x16 RDMA diaktifkan

Adaptor jaringan 100Gb/s berkinerja tinggi dan latensi rendah yang dirancang untuk pusat data HPC, AI, dan cloud.dan pencocokan tag untuk beban kerja MPI.

Ringkasan Produk

PeraturanNVIDIA ConnectX-5 MCX555A-ECATadalah kartu adaptor InfiniBand port tunggal 100Gb/s dalam faktor bentuk PCIe profil rendah.100Gb/s throughputdengan latensi sub-mikrosekund dan kecepatan pesan yang tinggi. Kartu ini mendukung InfiniBand (hingga EDR) dan 100GbE, memberikan konektivitas serbaguna untuk komputasi berkinerja tinggi, penyimpanan,dan lingkungan virtual.

Dibangun dengan switch PCIe tertanam dan kemampuan RDMA canggih, MCX555A-ECAT offload tugas komunikasi kritis dari CPU memungkinkan kinerja aplikasi yang lebih tinggi,konsumsi daya yang lebih rendahIni sepenuhnya kompatibel dengan slot PCIe 3.0 x16 dan mendukung berbagai sistem operasi dan kerangka kerja akselerasi.

Fitur Utama
  • Hingga 100Gb/sKonektivitas per port (InfiniBand EDR / 100GbE)
  • Konektor QSFP28 tunggaluntuk kabel optik atau tembaga
  • Interface host PCIe 3.0 x16(menegosiasikan otomatis ke x8, x4, x2, x1)
  • RDMA, mengirim / menerima semantikdengan transportasi handal berbasis perangkat keras
  • Pencocokan tag dan pertemuan pengungkapanuntuk MPI dan SHMEM
  • NVMe over Fabrics (NVMe-oF) target offloaduntuk penyimpanan yang efisien
  • GPUDirect RDMA (PeerDirect)percepatan untuk komunikasi GPU
  • Kontrol kemacetan berbasis perangkat keras & dukungan routing adaptif
  • Virtualisasi SR-IOV:hingga 512 fungsi virtual
  • RoHS sesuai, faktor bentuk profil rendah(termasuk kurung tinggi)
Teknologi Lanjutan & Pengiriman

Arsitektur ConnectX-5 mengintegrasikan berbagai mesin akselerasi perangkat keras yang mengurangi intervensi CPU dan meningkatkan skalabilitas aplikasi:

  • MPI Tag Matching & Rendezvous Offload:Mengangkat pencocokan pesan dan pemrosesan protokol pertemuan, secara dramatis meningkatkan kinerja MPI untuk cluster HPC.
  • Out-of-Order RDMA dengan Adaptive Routing:Memungkinkan penggunaan jalur jaringan yang efisien sambil mempertahankan semantik penyelesaian yang teratur, memaksimalkan pemanfaatan kain.
  • NVMe-oF Target Offloads:Memungkinkan sistem penyimpanan NVMe untuk melayani akses jarak jauh dengan overhead CPU hampir nol, ideal untuk arsitektur penyimpanan terurai.
  • Transportasi yang Terhubung Dinamis (DCT):Memberikan skalabilitas ekstrim untuk sistem komputasi dan penyimpanan besar dengan menghilangkan overhead pengaturan koneksi.
  • ASAP2 Percepatan Switching & Pengolahan Paket:Hardware offload untuk Open vSwitch (OVS) dan overlay network tunneling (VXLAN, NVGRE, GENEVE).
  • Paging On-Demand (ODP):Mendukung penelusuran memori virtual untuk operasi RDMA, menyederhanakan pengembangan aplikasi.
Penempatan Tipikal
  • High-Performance Computing (HPC):Ideal untuk kluster superkomputer, simulasi berbasis MPI, dan beban kerja penelitian ilmiah yang membutuhkan latensi rendah dan tingkat pesan yang tinggi.
  • Pelatihan AI & Deep Learning:Dikombinasikan dengan GPUDirect RDMA, memungkinkan komunikasi GPU-ke-GPU yang cepat di seluruh node, mempercepat waktu pelatihan.
  • Sistem penyimpanan NVMe-oF:Dilisensikan sebagai target penyimpanan atau inisiator di lingkungan NVMe over Fabrics untuk akses penyimpanan blok dengan throughput tinggi dan latensi rendah.
  • Cloud & Pusat Data Virtualisasi:SR-IOV dan virtualisasi offload mendukung lingkungan multi-penyewa dengan jaminan QoS dan isolasi yang aman.
  • Perdagangan Frekuensi Tinggi (HFT):Latensi ultra-rendah dan hardware timestamping (IEEE 1588v2) memenuhi permintaan aplikasi layanan keuangan.
Kompatibilitas & Interoperabilitas

MCX555A-ECAT dirancang untuk kompatibilitas luas dengan switch NVIDIA InfiniBand (misalnya, Quantum, Spectrum) dan switch 100GbE pihak ketiga.Ini mendukung DAC tembaga pasif dan kabel optik aktif melalui port QSFP28.

Sistem Operasi & Software Stack:

  • RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
  • OpenFabrics Enterprise Distribution (OFED) / WinOF-2
  • NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, Platform MPI
  • Data Plane Development Kit (DPDK) untuk bypass kernel
Spesifikasi Teknis
Parameter Spesifikasi
Model MCX555A-ECAT
Faktor Bentuk PCIe Low-Profile (14.2cm x 6.9cm tanpa bracket), Bracket tinggi sudah terpasang, bracket pendek termasuk
Kecepatan & Jenis Pelabuhan 1x QSFP28, hingga 100Gb/s InfiniBand (EDR) dan 100GbE
Antarmuka Host PCI Express 3.0 x16 (kompatibel dengan x8, x4, x2, x1)
Dukungan InfiniBand IBTA 1.3 kompatibel, 100Gb/s EDR, FDR, QDR, DDR, SDR; 8 jalur virtual + VL15; 16 juta saluran I/O
Dukungan Ethernet 100GbE, 50GbE, 40GbE, 25GbE, 10GbE, 1GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae
Kemampuan RDMA RDMA over Converged Ethernet (RoCE), hardware reliable transport, RDMA out-of-order, operasi atom
Penyimpanan Pengiriman NVMe over Fabrics target offload, iSER, SRP, NFS RDMA, SMB Direct, penyerahan tanda tangan T10 DIF
Virtualisasi SR-IOV (hingga 512 fungsi virtual), VMware NetQueue, NPAR, PCIe Access Control Services (ACS)
Pengurangan beban CPU TCP/UDP/IP stateless offload, LSO/LRO, checksum offload, RSS/TSS, VLAN/MPLS tag insertion/stripping
Jaringan Overlay Hardware offload untuk VXLAN, NVGRE, GENEVE encapsulation/decapsulation
Manajemen NC-SI melalui MCTP, PLDM untuk monitor/kontrol dan pembaruan firmware, I2C, SPI, JTAG
Remote Boot Remote boot melalui InfiniBand, Ethernet, iSCSI; dukungan UEFI, PXE
Konsumsi Daya Tidak ditentukan secara publik; rentang yang khas di bawah 20W
Suhu operasi 0°C sampai 55°C (lingkungan khas)
Kepatuhan RoHS, REACH, FCC, CE, VCCI, ICES, RCM

Catatan: Spesifikasi berasal dari dokumentasi produk NVIDIA ConnectX-5. Untuk rincian terbaru dan dukungan firmware, lihat catatan rilis resmi NVIDIA.

Panduan Pemilihan ConnectX-5 Family
Nomor Bagian Pemesanan Pelabuhan / Kecepatan Antarmuka Host Faktor Bentuk Fitur Utama
MCX555A-ECAT 1x QSFP28, 100Gb/s PCIe 3.0 x16 PCIe profil rendah Standar single-port, EDR InfiniBand / 100GbE
MCX556A-ECAT 2x QSFP28, 100Gb/s PCIe 3.0 x16 PCIe profil rendah Dua port, EDR/100GbE
MCX556A-EDAT 2x QSFP28, 100Gb/s PCIe 4.0 x16 PCIe profil rendah ConnectX-5 Ex, PCIe Gen4 yang ditingkatkan
MCX556M-ECAT-S25 2x QSFP28, 100Gb/s 2x PCIe 3.0 x8 Socket Direct Koneksi server dual-socket melalui sabuk
MCX545B-ECAN 1x QSFP28, 100Gb/s PCIe 3.0 x16 OCP 2.0 Tipe 1 Open Compute Project faktor bentuk

Untuk varian OCP atau Multi-Host, silakan hubungi penjualan.

Mengapa Pilih ConnectX-5 MCX555A-ECAT
  • Kinerja aplikasi yang superior:Hardware offload untuk MPI, NVMe-oF, dan overlay core CPU gratis untuk logika bisnis.
  • Kain RDMA yang dapat diskalakan:DCT, XRC, dan RDMA out-of-order memberikan skalabilitas linier untuk ribuan node.
  • GPU Percepatan Siap:GPUDirect RDMA memungkinkan akses memori langsung antara GPU dan adaptor jaringan, menghilangkan kemacetan CPU di cluster AI.
  • Pengiriman Fleksibel:Port QSFP28 tunggal menyederhanakan kabel dan ideal untuk arsitektur leaf-spine 100Gb / s.
  • Perlindungan Investasi:Dukungan untuk InfiniBand dan Ethernet memungkinkan transisi mulus antara protokol sesuai kebutuhan berkembang.
Layanan & Dukungan

Hong Kong Starsurge Group menyediakan dukungan siklus hidup lengkap untuk adaptor NVIDIA ConnectX-5, termasuk bantuan konfigurasi pra-penjualan, panduan pembaruan firmware, dan layanan garansi.Tim teknis kami dapat membantu dengan:

  • Verifikasi kompatibilitas dengan server dan infrastruktur switch Anda
  • Performance tuning untuk beban kerja HPC atau penyimpanan
  • Opsi bracket khusus dan persyaratan kemasan besar
  • Layanan pengolahan RMA dan penggantian lanjutan

Hubungi insinyur penjualan kami untuk harga volume dan informasi lead time.

Pertanyaan yang Sering Diajukan
T: Apa perbedaan antara MCX555A-ECAT dan MCX556A-ECAT?
A: MCX555A-ECAT memiliki port QSFP28 tunggal, sementara MCX556A-ECAT memiliki port ganda. Keduanya mendukung 100Gb / s per port dan PCIe 3.0 x16. Pilih port tunggal untuk kabel yang lebih sederhana atau port ganda untuk kepadatan yang lebih tinggi.
T: Dapatkah kartu ini digunakan dalam slot PCIe 3.0 x8?
A: Ya, kartu secara otomatis bernegosiasi ke lebar jalur x8, x4, x2, atau x1, meskipun throughput maksimum mungkin dibatasi oleh bandwidth yang tersedia.
T: Apakah mendukung RoCE (RDMA over Converged Ethernet)?
A: Ya, ConnectX-5 mendukung RoCE untuk kain Ethernet, menyediakan layanan RDMA latensi rendah pada jaringan Ethernet standar.
T: Kabel apa yang kompatibel?
A: Kartu ini bekerja dengan QSFP28 DAC tembaga pasif (hingga 5m) dan kabel optik aktif (AOC) untuk jangkauan yang lebih panjang, serta transceiver optik untuk konektivitas serat.
T: Apakah kartu ini didukung di VMware ESXi?
A: Ya, VMware ESXi didukung dengan driver asli dan kemampuan SR-IOV. Silakan periksa panduan kompatibilitas VMware untuk versi tertentu.
Penanganan dan Pemasangan

Pengeluaran Elektrostatik (ESD):Selalu gunakan metode ESD-safe saat menangani adaptor.Persyaratan pendinginan:Memastikan aliran udara yang memadai di sasis server untuk menjaga suhu operasi dalam kisaran yang ditentukan.Pembaruan Firmware:Gunakan alat firmware resmi NVIDIA (MFT) dan verifikasi kompatibilitas dengan OS dan versi driver Anda sebelum memperbarui.Pengelompokan Kabel:Ikuti pedoman radius tikungan kabel QSFP28 untuk menghindari degradasi sinyal.

Ini adalah produk Kelas A. Di lingkungan perumahan dapat menyebabkan gangguan radio.

Tentang Hong Kong Starsurge Group Co., Limited
NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Kartu Jaringan 0

Didirikan pada tahun 2008,Hong Kong Starsurge Group Co., Limitedadalah penyedia perangkat keras jaringan, layanan TI, dan solusi integrasi sistem yang didorong oleh teknologi.pengontrol, dan kabel kecepatan tinggi, Starsurge menggabungkan keahlian teknis yang mendalam dengan pendekatan pelanggan pertama.,dan perusahaan, menawarkan solusi IoT, sistem manajemen jaringan, pengembangan perangkat lunak khusus, dan pengiriman global multibahasa.Starsurge membantu klien membangun efisien, infrastruktur jaringan yang dapat diskalakan dan dapat diandalkan.

Fakta-Fakta Kunci NVIDIA MCX555A-ECAT
100Gb/s
Kecepatan port (InfiniBand & Ethernet)
PCIe 3.0 x16
Bandwidth antarmuka host
512 VF
Fungsi virtual SR-IOV maksimum
NVMe-oF
Target penyimpanan tanpa hardware
Matriks Kompatibilitas
Komponen / Sistem Status Kompatibilitas Catatan
NVIDIA Quantum InfiniBand Switch Diperiksa Kompatibilitas EDR, HDR saat menggunakan firmware yang tepat
NVIDIA Spektrum Ethernet Switch Diperiksa Modus 100GbE, 50GbE, 25GbE didukung
Switch 100GbE pihak ketiga Kompatibel Memerlukan kepatuhan standar IEEE; diuji dengan vendor utama
Server GPU (NVIDIA DGX, HGX) Disertifikasi dengan GPUDirect RDMA akselerasi untuk komunikasi multi-GPU
Array penyimpanan dengan NVMe-oF Didukung Target offload memungkinkan akses kain NVMe yang efisien
Daftar Periksa Pembeli Adaptor InfiniBand 100Gb/s
  • Konfirmasi server memiliki slot PCIe 3.0 x16 (atau x8) yang tersedia dengan jarak yang cukup.
  • ️ Tentukan jumlah port: single-port (MCX555A-ECAT) vs dual-port (MCX556A-ECAT).
  • Pilih jenis kabel: DAC tembaga pasif untuk jarak pendek (≤5m) atau optik untuk jarak yang lebih panjang.
  • Periksa dukungan sistem operasi dan driver (OFED, Windows, VMware).
  • Untuk cluster GPU, pastikan kompatibilitas GPUDirect RDMA dengan model GPU dan versi driver Anda.
  • Periksa apakah dukungan tinggi atau pendek diperlukan untuk sasis server Anda.
Produk terkait
  • NVIDIA MCX556A-ECAT Dual-port 100Gb/s ConnectX-5 adaptor
  • NVIDIA MCX556A-EDAT ConnectX-5 Ex dengan dukungan PCIe 4.0
  • NVIDIA Quantum-2 QM9700 40-port 800Gb/s InfiniBand Switch
  • Kabel DAC pasif Mellanox QSFP28 (1m, 2m, 3m)
  • NVIDIA Spectrum-4 SN5600 100GbE/400GbE Ethernet switch
Panduan & Sumber Daya terkait
  • NVIDIA ConnectX-5 InfiniBand Adapter Card User Manual
  • RDMA atas Converged Ethernet (RoCE) Panduan penyebaran
  • GPUDirect RDMA Praktik Terbaik untuk Kluster AI
  • NVMe over Fabrics dengan ConnectX-5 Konfigurasi Panduan
  • Panduan Instalasi dan Tuning OFED


Ingin Tahu lebih detail tentang produk ini
NVIDIA MCX555A-ECAT 100Gb/s Single-Port QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 Kartu Jaringan bisakah Anda mengirimkan saya lebih banyak detail seperti jenis, ukuran, jumlah, bahan, dll.
Terima kasih!
Menunggu jawaban Anda.