NVIDIA ConnectX-6 MCX653105A-HDAT Adaptor Pintar InfiniBand Port Tunggal 200Gb/s dengan Enkripsi Perangkat Keras & PCIe 4.0
Detail produk:
| Nama merek: | Mellanox |
| Nomor model: | Mcx653105a-hdat |
| Dokumen: | connectx-6-infiniband.pdf |
Syarat-syarat pembayaran & pengiriman:
| Kuantitas min Order: | 1 buah |
|---|---|
| Harga: | Negotiate |
| Kemasan rincian: | Kotak luar |
| Waktu pengiriman: | Berdasarkan persediaan |
| Syarat-syarat pembayaran: | T/T |
| Menyediakan kemampuan: | Pasokan dengan proyek/batch |
|
Informasi Detail |
|||
| status produk: | Saham | Aplikasi: | pelayan |
|---|---|---|---|
| Kondisi: | Baru dan Asli | Jenis: | Kabel |
| Kecepatan Maks: | Hingga 200 GB/s | Konektor Ethernet: | QSFP56 |
| Model: | Mcx653105a-hdat | ||
| Menyoroti: | NVIDIA ConnectX-6 Infiniband adaptor,Kartu jaringan PCIe 4.0 200Gb/s,Adaptor InfiniBand dengan enkripsi perangkat keras |
||
Deskripsi Produk
200Gb/s Single-Port HDR Smart Adapter dengan In-Network Computing & Hardware Encryption
NVIDIA ConnectX-6MCX653105A-HDATmemberikan throughput penuh 200Gb / s pada port QSFP56 tunggal, menggabungkan latensi ultra-rendah, hardware offload, dan enkripsi XTS-AES tingkat blok.ini PCIe 4.0 x16 adaptor offloads operasi kolektif, RDMA, dan enkripsi dari CPU, memaksimalkan kinerja aplikasi dan skalabilitas dalam lingkungan pusat data menuntut.
PeraturanMCX653105A-HDATmilik keluarga adaptor NVIDIA ConnectX-6 InfiniBand, dirancang untuk kinerja ekstrim di pusat data modern.200Gb/s(HDR InfiniBand atau 200GbE) dengan akselerasi perangkat keras penuh untuk RDMA, transportasi yang dapat diandalkan, dan In-Network Computing.dan NVMe atas akselerasi kain, adaptor secara signifikan mengurangi overhead CPU sambil meningkatkan efisiensi kain. Enkripsi tingkat blok AES-XTS terintegrasi memastikan keamanan data tanpa hukuman kinerja,membuatnya ideal untuk layanan keuangan, penelitian pemerintah, dan penyebaran cloud hyperscale.
Hingga 200Gb/s (HDR InfiniBand / 200GbE) pada QSFP56 tunggal
Hingga 215 juta pesan/detik
Tingkat blok XTS-AES 256/512-bit, sesuai dengan FIPS
Pengisian kolektif, NVMe-oF target/pengisian inisiator, burst buffer
PCIe Gen 4.0 / 3.0 x16 (kompatibel ke belakang)
SR-IOV (1K VF), ASAP2, Open vSwitch offload, terowongan overlay
RoCE, XRC, DCT, On-Demand Paging, Dukungan GPUDirect RDMA
Stand-up PCIe berprofil rendah, bracket tinggi yang sudah dipasang + bracket pendek termasuk
NVIDIA ConnectX-6 terintegrasiIn-Network Computingmesin akselerasi yang memuat operasi pusat data kritis dari CPU host. MCX653105A-HDAT mendukung transportasi berbasis perangkat keras yang dapat diandalkan, routing adaptif, dan kontrol kemacetan,Memastikan kinerja yang dapat diprediksi pada kain berskala besar.Remote Direct Memory Access (RDMA)memungkinkan transfer data tanpa salinan, melewati kernel OS.NVIDIA GPUDirect RDMA, memori GPU berkomunikasi langsung dengan adaptor jaringan, memotong latensi untuk pelatihan AI dan simulasi HPC.Enkripsi tingkat blok XTS-AES(256/512-bit key) memastikan keamanan data-in-transit dan data-in-rest tanpa overhead CPU, dan adaptor dirancang untuk memenuhi persyaratan kepatuhan FIPS 140-2.
- High Performance Computing (HPC):Simulasi skala besar, peramalan cuaca, dan dinamika fluida komputasi yang membutuhkan 200Gb/s low-latency interconnect.
- Kluster AI & Deep Learning:Pelatihan terdistribusi dengan GPUDirect RDMA, memaksimalkan throughput antara node GPU.
- Sistem penyimpanan NVMe-oF:Performa tinggi penyimpanan terurai dengan penuh target / inisiator offloads, mengurangi pemanfaatan CPU.
- Pusat Data Hyperscale & Cloud:Lingkungan virtual dengan SR-IOV, jaringan overlay, dan enkripsi dipercepat perangkat keras.
- Platform Perdagangan Keuangan:Jaringan deterministik latensi ultra rendah untuk perdagangan algoritmik.
ConnectX-6 MCX653105A-HDAT bekerja sama dengan lancar dengan switch NVIDIA Quantum InfiniBand (HDR 200Gb/s), switch standar 200GbE, dan berbagai platform server.Ini mendukung sistem operasi utama dan tumpukan virtualisasi, memastikan integrasi yang fleksibel ke dalam infrastruktur yang ada.
| Parameter | Spesifikasi |
|---|---|
| Model Produk | MCX653105A-HDAT |
| Tingkat Data | 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s |
| Pelabuhan & Konektor | 1x QSFP56 (mendukung kabel tembaga pasif, optik aktif, dan AOC) |
| Antarmuka Host | PCIe Gen 4.0 x16 (juga kompatibel dengan Gen 3.0, 2.0; mendukung konfigurasi x8, x4, x2, x1) |
| Latensi | Sub-mikrosecond (biasanya < 0,7μs) |
| Tingkat Pesan | Hingga 215 juta pesan per detik |
| Enkripsi | XTS-AES 256/512-bit hardware offload, FIPS 140-2 siap |
| Faktor Bentuk | PCIe low-profile stand-up (bracket tinggi yang sudah dipasang sebelumnya, termasuk aksesori bracket pendek) |
| Dimensi (tanpa kurung) | 167.65mm x 68.90mm |
| Konsumsi Daya | Tipikal 22W 24W (tergantung pada pemanfaatan link) |
| Virtualisasi | SR-IOV (hingga 1K Fungsi Virtual), VMware NetQueue, NPAR, ASAP2 flow offload |
| Manajemen & Pemantauan | NC-SI, MCTP melalui PCIe/SMBus, PLDM (DSP0248, DSP0267), I2C, SPI flash |
| Remote Boot | InfiniBand, iSCSI, PXE, UEFI |
| Sistem Operasi | RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OpenFabrics Enterprise Distribution (OFED), WinOF-2 |
| Nomor Bagian Pemesanan (OPN) | Pelabuhan | Kecepatan maksimum | Antarmuka Host | Fitur Utama |
|---|---|---|---|---|
| MCX653105A-HDAT | 1x QSFP56 | 200Gb/s | PCIe 3.0/4.0 x16 | Single-port, hardware crypto, Full ConnectX-6 offloads, ideal untuk server dengan kepadatan tinggi |
| MCX653106A-HDAT | 2x QSFP56 | 200Gb/s (dual-port) | PCIe 3.0/4.0 x16 | Dual-port 200Gb/s dengan crypto, kepadatan bandwidth maksimum |
| MCX653105A-ECAT | 1x QSFP56 | 100Gb/s | PCIe 3.0/4.0 x16 | Single-port 100Gb/s, biaya dioptimalkan untuk persyaratan kecepatan rendah |
| MCX653106A-ECAT | 2x QSFP56 | 100Gb/s (dual-port) | PCIe 3.0/4.0 x16 | Dual-port 100Gb/s, virtualisasi & penyimpanan offload |
| MCX653436A-HDAT (OCP 3.0) | 2x QSFP56 | 200Gb/s | PCIe 3.0/4.0 x16 | OCP 3.0 faktor bentuk kecil, dual-port 200Gb/s |
- Bandwidth penuh 200Gb/s:Desain port tunggal memberikan throughput maksimum untuk node komputasi di mana kepadatan tinggi per port diprioritaskan.
- Keamanan Hardware Dibangun-in:Enkripsi blok XTS-AES tanpa overhead CPU, memenuhi persyaratan FIPS untuk industri yang diatur.
- Penyimpanan Dipercepat & AI:NVMe-oF offloads dan GPUDirect RDMA secara signifikan meningkatkan kinerja untuk pelatihan AI dan penyimpanan yang didefinisikan perangkat lunak.
- Future-Ready PCIe 4.0:Ganda menghubungkan bandwidth ke host, menghilangkan kemacetan untuk jaringan 200Gb / s.
- Pengelolaan yang disederhanakan:Stack driver yang terpadu (OFED, WinOF-2) dan kompatibilitas OS yang luas mengurangi kompleksitas penyebaran.
Hong Kong Starsurge Group menyediakan dukungan teknis ahli, cakupan garansi, dan layanan RMA global untuk semua adaptor NVIDIA ConnectX.penyesuaian kinerjaKami menawarkan harga yang fleksibel, penawaran massal untuk proyek pusat data, dan pengiriman cepat di seluruh dunia.Hubungi tim penjualan kami untuk mendiskusikan waktu pengiriman dan diskon volume.
• Memverifikasi slot PCIe menyediakan daya yang cukup (75W dari slot; adaptor mengkonsumsi ~ 22-24W khas).
• Untuk platform pendingin cair, kartu pendingin udara standar ini tidak kompatibel dengan varian piring dingin; hubungi Starsurge untuk kebutuhan SKU pendingin cair.
• Selalu gunakan kabel atau modul QSFP56 untuk mencapai kinerja 200Gb/s.
• Konfirmasi kompatibilitas versi driver dengan OS dan kernel Anda sebelum penyebaran.
Sejak tahun 2008, Hong Kong Starsurge Group Co., Limited telah menjadi penyedia perangkat keras jaringan perusahaan yang tepercaya, integrasi sistem, dan layanan TI.Sebagai mitra resmi untuk solusi jaringan NVIDIAStarsurge menyediakan adaptor ConnectX asli, switch, dan kabel untuk pemerintah, keuangan, perawatan kesehatan, pendidikan, dan klien hyperscale di seluruh dunia.Tim penjualan dan teknis kami yang berpengalaman memastikan penyebaran mulus dari arsitektur pra-penjualan hingga dukungan pasca-penjualan, dengan komitmen untuk kualitas yang dapat diandalkan dan layanan responsif.
Pengiriman global · Dukungan multibahasa · Layanan OEM & integrasi yang disesuaikan
| Komponen / Ekosistem | Status Dukungan | Pengamatan |
|---|---|---|
| NVIDIA Quantum HDR InfiniBand Switch | ✓ Didukung sepenuhnya | 200Gb/s kain, routing adaptif |
| 200GbE Switch (IEEE 802.3) | ✓ Kompatibel | Memerlukan mode FEC per spesifikasi switch |
| GPU Direct RDMA | ✓ Ya | Seri GPU NVIDIA (Volta, Ampere, Hopper, dll.) |
| VMware vSphere 7.0/8.0 | ✓ Disertifikasi | Pengemudi asli, dukungan SR-IOV |
| Linux (RHEL, Ubuntu, SLES) | ✓ Dukungan penuh | MLNX_OFED, driver kotak masuk tersedia |
| Windows Server 2019/2022 | ✓ Didukung | Paket driver WinOF-2 |
- [ ] Konfirmasi kecepatan link yang diperlukan: 200Gb / s single-port cocok dengan persyaratan bandwidth node Anda.
- [ ] Periksa slot PCIe server: slot fisik x16, Gen 4 direkomendasikan untuk kinerja penuh 200Gb/s.
- [ ] Pilih kabel atau transceiver QSFP56 yang sesuai (tembaga pasif hingga 5m, AOC, atau optik).
- [ ] Memverifikasi dukungan driver OS (versi OFED atau kotak masuk).
- [ ] Memastikan persyaratan kepatuhan enkripsi dipenuhi (XTS-AES, FIPS).
- [ ] Evaluasi pendinginan lingkungan: adaptor kecepatan tinggi mungkin memerlukan aliran udara yang diarahkan.







