NVIDIA ConnectX-6 MCX653106A-HDAT Adaptor Pintar InfiniBand Port Ganda 200Gb/s

Detail produk:

Nama merek: Mellanox
Nomor model: Mcx653106a-hdat
Dokumen: connectx-6-infiniband.pdf

Syarat-syarat pembayaran & pengiriman:

Kuantitas min Order: 1 buah
Harga: Negotiate
Kemasan rincian: Kotak luar
Waktu pengiriman: Berdasarkan persediaan
Syarat-syarat pembayaran: T/T
Menyediakan kemampuan: Pasokan dengan proyek/batch
Harga terbaik Kontak

Informasi Detail

status produk: Saham Aplikasi: pelayan
Kondisi: Baru dan Asli Jenis: Kabel
Kecepatan Maks: Hingga 200 GB/s Konektor Ethernet: QSFP56
Model: Mcx653106a-hdat

Deskripsi Produk

Adaptor Pintar Flagship In-Network Computing NVIDIA Quantum InfiniBand
NVIDIA ConnectX-6 InfiniBand Adapter
MCX653106A-HDAT ¢ Dual-Port 200Gb/s
Latensi sangat rendah • RDMA, NVMe-oF offload • Enkripsi tingkat blok • PCIe Gen 4.0

Dirancang untuk menuntut HPC, AI, dan infrastruktur cloud hyperscale, NVIDIA® ConnectX®-6 MCX653106A-HDAT kartu adaptor pintar memberikan hingga200Gb/sBandwidth per port dengan akselerasi In-Network Computing.dan keamanan dari pelatihan jaringan saraf yang mendalam hingga analisis data real-time.

Ringkasan Produk

Sebagai komponen inti dari platform NVIDIA Quantum InfiniBand, ConnectX-6 memungkinkan RDMA end-to-end, transportasi berbasis perangkat keras yang dapat diandalkan, dan kontrol kemacetan lanjutan.MCX653106A-HDATFitur modeldual-port QSFP56, mendukung InfiniBand dan Ethernet (hingga 200Gb/s). Ini mengintegrasikan enkripsi XTS-AES tingkat blok, NVMe over Fabrics (NVMe-oF),dan GPUDirect RDMA akselerasi yang membuatnya pilihan yang ideal untuk GPU-diakselerasi cluster, penyimpanan yang ditentukan oleh perangkat lunak, dan jaringan virtual.

Fitur Utama
200Gb/s per portBandwidth maksimum, hingga 215M pesan/detik
¢ Latensi yang sangat rendahSub-mikrosekund RDMA & mengirim / menerima semantik
Perhitungan dalam JaringanOperasi kolektif lepas, pencocokan tag, protokol pertemuan
Perlindungan perangkat kerasOpsi tingkat blok XTS-AES 256/512-bit, sesuai FIPS
¢ NVMe-oF yang dilepasTarget dan inisiator untuk penyimpanan NVMe yang efisien
¢ PCIe Gen 4.0/3.0 x16Antarmuka host dengan dukungan 32 jalur (2x16)
¢ ASAP2 & Open vSwitch offloadFleksibel pipa & encapsulation offload (VXLAN, NVGRE, Geneva)
GPUDirect RDMA & PeerDirectKomunikasi GPU dipercepat tanpa overhead CPU
Teknologi: In-Network Computing & RDMA Fabric

NVIDIA ConnectX-6 memperluas Remote Direct Memory Access (RDMA) di luar batas konvensional. Dengan menerapkan hardware offload untuk MPI tag matching, out-of-order RDMA mendukung Adaptive Routing,dan Dynamically Connected Transport (DCT), ini memastikan skala efisien di ribuan node.Memori dalam JaringanKemampuan ini memungkinkan akses memori RDMA tanpa registrasi, mengurangi overhead perangkat lunak.0, data bergerak langsung antara memori dan jaringan, membebaskan siklus CPU untuk logika aplikasi.

Dengan dukungan untukRoCE (RDMA over Converged Ethernet)dan overlay network tunneling offloads, ConnectX-6 menyediakan kain cerdas yang terpadu untuk lingkungan InfiniBand dan Ethernet.

Penempatan Tipikal
  • High Performance Computing (HPC):Simulasi skala besar, pemodelan cuaca, dan kelompok penelitian yang membutuhkan latensi rendah dan tingkat pesan yang tinggi.
  • AI & Machine Learning:Mempercepat pelatihan terdistribusi jaringan saraf dalam dengan GPUDirect RDMA dan tautan 200Gb/s dengan throughput tinggi.
  • Array penyimpanan NVMe-oF:Membangun target penyimpanan NVMe/TCP atau NVMe/RDMA berkinerja tinggi dengan hardware offload, mengurangi beban CPU.
  • Hyperscale Cloud & NFV:Rantai layanan yang efisien, OVS offload (ASAP2), dan SR-IOV untuk hingga 1K fungsi virtual per adaptor.
  • Big Data Analytics:Akselerasi komputasi dalam jaringan untuk mesin streaming dan basis data terdistribusi.
Kompatibilitas

ConnectX-6 MCX653106A-HDAT kompatibel dengan berbagai server, switch, dan lingkungan OS.InfiniBand beralih hingga 200Gb/s (HDR)danEthernet beralih hingga 200Gb/sAdaptor bekerja di seluruh platform berbasis x86, Power, Arm, GPU, dan FPGA.

Kategori Opsi / Standar yang Didukung
Sistem Operasi RHEL, SLES, Ubuntu, distribusi Linux utama lainnya, Windows Server, FreeBSD, VMware vSphere
InfiniBand Spec Sesuai dengan IBTA 1.3, 200/100/50/25/10Gb/s, 8 jalur virtual + VL15
Standar Ethernet 200/100/50/40/25/10/1GbE, IEEE 802.3bj, 802.3by, PFC, ETS, DCB, 1588v2
CPU offload & virtualisasi SR-IOV (1K VF), NPAR, DPDK, ASAP2 OVS offload, Tunneling (VXLAN, NVGRE, Geneva)
Manajemen & Boot NC-SI, MCTP melalui SMBus/PCIe, PLDM (DSP0248/DSP0267), UEFI, PXE, iSCSI remote boot
Spesifikasi Teknis
Parameter Rincian
Model Produk MCX653106A-HDAT
Faktor Bentuk PCIe Stand-up, bracket profil rendah termasuk, bracket tinggi dipasang, aksesori bracket pendek
Pelabuhan Jaringan 2x QSFP56 (dual-port)
Kecepatan yang Didukung InfiniBand: 200/100/50/25/10 Gb/s; Ethernet: 200/100/50/40/25/10/1 Gb/s
Antarmuka Host PCIe Gen 3.0/4.0 x16 (juga mendukung x8, x4, x2, x1)
Bandwidth Maksimal 200Gb/s per port
Tingkat Pesan Hingga 215 juta pesan per detik
Latensi Sangat rendah (RDMA sub-mikrosecond)
Enkripsi Hardware Enkripsi tingkat blok XTS-AES 256/512-bit, mampu FIPS
Penyimpanan Pengiriman Target/inisiator NVMe-oF, T10-DIF, SRP, iSER, NFS RDMA, SMB Direct
Virtualisasi SR-IOV (hingga 1K VF), VMware NetQueue, QoS per VM
Remote Boot InfiniBand, Ethernet, iSCSI, UEFI, PXE
Dimensi (tanpa kurung) 167.65mm x 68.90mm
RoHS & Kepatuhan RoHS sesuai, ODCC kompatibel
Panduan Pemilihan ConnectX-6 Family
Nomor Bagian Pemesanan (OPN) Pelabuhan / Kecepatan Antarmuka Host Fitur Utama
MCX653106A-HDAT 2x QSFP56, hingga 200Gb/s PCIe 3.0/4.0 x16 Dual-port, Crypto, bracket standar
MCX653105A-HDAT 1x QSFP56, 200Gb/s PCIe 3.0/4.0 x16 Single-port, dukungan kripto
MCX653106A-ECAT 2x QSFP56, 100Gb/s PCIe 3.0/4.0 x16 Varian 100Gb/s, tidak ada kripto
MCX653436A-HDAT (OCP 3.0) 2x QSFP56, 200Gb/s PCIe x16 OCP 3.0 faktor bentuk kecil
MCX654106A-HCAT 2x QSFP56, Socket Direct 2x PCIe 3.0 x16 Akses khusus per CPU, Socket Direct

Catatan: Untuk varian dengan piring dingin untuk Sistem Server Intel D50TNP yang didinginkan cair, silakan hubungi Starsurge untuk pemesanan khusus.

Mengapa memilih Starsurge untuk ConnectX-6?
✔ Saham asli dan bersertifikat
Adaptor NVIDIA ConnectX-6 100% asli, batch bisa dilacak.
✔ Logistik Global & Pengiriman Cepat
Gudang & hub mitra melayani Amerika, EMEA, APAC.
✔ Teknik Pra-Penjualan & Integrasi
Konfigurasi firmware, penyesuaian RDMA, validasi NVMe-oF.
✔ Harga OEM yang kompetitif
Hubungan jangka panjang dengan mitra NVIDIA, hemat biaya.
✔ Garansi 3 Tahun + Dukungan RMA
Penggantian bebas kerumitan dan kapal silang canggih tersedia.
✔ Multi-bahasa & solusi yang disesuaikan
Bahasa Inggris, Cina, dan dukungan integrasi kustom.
Layanan & Dukungan

Hong Kong Starsurge Group menyediakan dukungan end-to-end: dari pemeriksaan kompatibilitas, kustomisasi firmware, hingga panduan penyebaran di lokasi.Kami menawarkan manajer akun teknis khusus untuk peningkatan pusat data dan pengujian proof-of-concept (PoC)Semua adaptor dikirim dengan kemasan anti-statis dan kit instalasi opsional.
✔ Sistem tiket dukungan teknik 24 jam ✔ Penggantian lanjutan untuk lingkungan bisnis-kritis ✔ Driver & software stack assistance (OFED, WinOF-2, DPDK).

Pertanyaan yang Sering Diajukan
Apa perbedaan antara MCX653106A-HDAT dan kartu ConnectX-6 standar?

Model ini menawarkan dual-port 200Gb / s kemampuan, penuh crypto offload (XTS-AES), dan mendukung baik InfiniBand dan Ethernet pada adaptor yang sama.Ini dioptimalkan untuk server dengan kepadatan tinggi yang membutuhkan throughput maksimum.

Apakah adaptor ini mendukung GPUDirect RDMA?

Ya, sepenuhnya mendukung NVIDIA GPUDirect RDMA (PeerDirect) memungkinkan komunikasi langsung GPU-ke-jaringan, menghilangkan salinan memori yang tidak perlu dan mengurangi latensi untuk pelatihan AI.

Apakah kartu kompatibel dengan slot PCIe Gen 3?

Tentu saja ∙ ini kompatibel ke belakang dengan PCIe Gen 3.0, Gen 2.0, dan Gen 1.1, meskipun throughput maksimum mungkin terbatas dibandingkan dengan Gen 4.0 host.

Jenis kabel apa yang didukung untuk 200Gb/s?

Kabel tembaga pasif dengan perlindungan ESD, kabel optik aktif, dan konektor bertenaga.

Dapatkah ini digunakan untuk NVMe-oF target offload?

Ya, ConnectX-6 memiliki NVMe over Fabrics offload untuk target dan inisiator, secara drastis mengurangi overhead CPU dan meningkatkan skalabilitas IOPS.

Peringatan & Catatan Pesanan
  • Konfirmasi kelonggaran mekanik server: bracket PCIe tinggi standar termasuk; bracket profil rendah juga disediakan sebagai aksesori.
  • Untuk platform pendingin cair (Intel D50TNP), periksa ketersediaan pilihan pelat dingin sebelum memesan.
  • Silahkan konfirmasi kompatibilitas driver dengan versi distribusi Linux Anda NVIDIA OFED direkomendasikan.
  • Tidak ditentukan secara publik: Konsumsi daya yang tepat per port pada beban penuh 200Gb / s
  • Sertifikasi FIPS adalah hardware-capable tetapi mungkin memerlukan firmware khusus notify sales team if FIPS compliance is mandatory.
Tentang Hong Kong Starsurge Group
NVIDIA ConnectX-6 MCX653106A-HDAT Adaptor Pintar InfiniBand Port Ganda 200Gb/s 0

Didirikan pada tahun 2008,Hong Kong Starsurge Group Co., Limitedadalah penyedia berbasis teknologi perangkat keras jaringan, layanan TI, dan solusi integrasi sistem. Dengan basis pelanggan global yang mencakup pemerintah, kesehatan, manufaktur, pendidikan, keuangan,dan sektor perusahaanStarsurge menyediakan peralatan jaringan berkinerja tinggi termasuk switch, NIC, solusi nirkabel, dan perangkat lunak yang disesuaikan.Perusahaan menggabungkan tim penjualan dan teknis yang berpengalaman untuk mendukung proyek infrastruktur yang kompleksPendekatan pelanggan pertama, kualitas yang andal, dan pengiriman global yang responsif membuat Starsurge menjadi mitra tepercaya untuk pusat data generasi berikutnya.

Hubungi tim Starsurge

Fakta-Fakta Utama NVIDIA ConnectX-6 MCX653106A-HDAT
Fakta Nilai
Maksimum throughput 200Gb/s per port (teoritis total 400Gb/s)
Akselerasi pada chip Pencocokan tag, pengisian rendezvous, pengisian kolektif, burst buffer
Fungsi Virtual Hingga 1024 VF per adaptor
Standar Enkripsi XTS-AES 256/512-bit, lepas dari CPU
Routing Adaptif Dukungan RDMA di luar urutan
Matriks Kompatibilitas (Platform yang Divalidasi Sebelumnya)
Server / Platform Arsitektur CPU Sistem operasi yang diuji
Dell PowerEdge R750 Intel Xeon Scalable (Gen 4) RHEL 8.6, Ubuntu 22.04
HPE ProLiant DL380 Gen10 Plus Intel Xeon SLES 15 SP4, VMware ESXi 7.0
Supermicro GPU SuperServer AMD EPYC 7003 Ubuntu 20.04, NVIDIA HPC SDK
Lenovo ThinkSystem SR650 Intel Xeon Windows Server 2022
Basis NVIDIA DGX / HGX NVIDIA Arm / x86 Ubuntu dengan MLNX_OFED
Daftar Periksa Pembeli Sebelum Memesan ConnectX-6
  • Jenis slot PCIe: x16 mekanik (x16 listrik / x8 / x4 didukung)
  • Kecepatan port yang diperlukan: 200Gb/s atau lebih rendah; jenis kabel (QSFP56 pasif/aktif)
  • Tersedia driver OS: Periksa versi MLNX_OFED atau WinOF-2
  • ️ Syarat enkripsi: modus FIPS atau standar AES-XTS
  • Pemanasan dan bracket: pilihan piring standar atau dingin diperlukan?
  • Jumlah dan waktu pengiriman: Konfirmasi stok dengan penjualan Starsurge
Produk terkait (NVIDIA Ecosystem)
NVIDIA Quantum InfiniBand Switch
Seri QM8700 / QM9700, 40 port HDR 200Gb/s
ConnectX-6 Lx Smart NIC
Dioptimalkan untuk Ethernet dan RoCE, 200Gb/s
NVIDIA BlueField-3 DPU
InfiniBand/Ethernet dengan jalur data yang dapat diprogram
Kabel LinkX & Transceiver
Kabel serat aktif untuk 200G
Panduan & Sumber Daya terkait
  • ▸ NVIDIA ConnectX-6 User Manual (Firmware & Konfigurasi)
  • ▸ RDMA atas Converged Ethernet (RoCE) Panduan penyebaran
  • ▸ NVMe-oF dengan ConnectX-6: Praktik Terbaik
  • ▸ Performance Tuning untuk MPI dan GPUDirect
  • ▸ Pengaturan Enkripsi tingkat blok untuk lingkungan FIPS

* Spesifikasi dan fitur didasarkan pada lembar data NVIDIA yang diterbitkan dan dapat diperbarui.silahkan lihat dokumentasi resmi NVIDIA atau hubungi Starsurge pre-sales engineering.

Ingin Tahu lebih detail tentang produk ini
NVIDIA ConnectX-6 MCX653106A-HDAT Adaptor Pintar InfiniBand Port Ganda 200Gb/s bisakah Anda mengirimkan saya lebih banyak detail seperti jenis, ukuran, jumlah, bahan, dll.
Terima kasih!
Menunggu jawaban Anda.