NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT 100Gb/s Dual-Port InfiniBand Adapter Ethernet Capable

Detail produk:

Nama merek: Mellanox
Nomor model: MCX653106A-ECAT
Dokumen: connectx-6-infiniband.pdf

Syarat-syarat pembayaran & pengiriman:

Kuantitas min Order: 1 buah
Harga: Negotiate
Kemasan rincian: Kotak luar
Waktu pengiriman: Berdasarkan persediaan
Syarat-syarat pembayaran: T/T
Menyediakan kemampuan: Pasokan dengan proyek/batch
Harga terbaik Kontak

Informasi Detail

status produk: Saham Aplikasi: pelayan
Tipe Antarmuka:: Infiniband Pelabuhan: Ganda
Kecepatan Maks: 100Gbe Jenis: Kabel
Kondisi: Baru dan Asli Waktu garansi: 1 Tahun
Model: MCX653106A-ECAT Nama: MCX653106A-ECAT Mellanox 100gb Nic ConnectX- 6 VPI Hdr100 Edr Ib Dual Port
Kata kunci: Kartu Jaringan Mellanox
Menyoroti:

Adaptor jaringan Mellanox ConnectX-6

,

Kartu InfiniBand Ethernet 100Gb/s

,

Kartu jaringan Mellanox dual-port

Deskripsi Produk

NVIDIA ConnectX-6 MCX653106A-ECAT Adaptor Pintar InfiniBand Port Ganda 100Gb/s

Kartu adaptor InfiniBand dan Ethernet port ganda 100Gb/s serbaguna dengan antarmuka PCIe 3.0/4.0 x16—memberikan RDMA, offload NVMe-oF, enkripsi tingkat blok, dan komputasi dalam jaringan untuk penerapan HPC, perusahaan, dan cloud yang dioptimalkan biayanya.

  • Konektivitas InfiniBand (EDR/HDR100) dan Ethernet port ganda 100Gb/s
  • PCIe Gen 3.0/4.0 x16 (kompatibel mundur) | Hingga 215 juta pesan per detik
  • Offload perangkat keras: target/inisiasi NVMe-oF, enkripsi XTS-AES 256/512-bit, pencocokan tag MPI
  • Dukungan NVIDIA In-Network Computing dan GPUDirect RDMA
  • Faktor bentuk PCIe stand-up profil rendah, sesuai RoHS
Karakteristik
  • Throughput 100Gb/s: Port ganda beroperasi pada InfiniBand (EDR/HDR100) atau Ethernet hingga 100Gb/s dengan bandwidth dua arah penuh.
  • Komputasi dalam Jaringan: Offload operasi kolektif (MPI, NCCL, SHMEM) menggunakan teknologi NVIDIA SHARP.
  • Enkripsi Tingkat Blok: Enkripsi/dekripsi AES-XTS 256/512-bit perangkat keras tanpa beban CPU; sesuai FIPS.
  • Offload NVMe-oF: Offload target dan inisiator untuk NVMe over Fabrics, mengurangi pemanfaatan CPU.
  • Virtualisasi Tingkat Lanjut: SR-IOV hingga 1K VF, akselerasi ASAP² untuk OVS dan switching virtual.
Teknologi & Standar

MCX653106A-ECAT mengintegrasikan mesin NVIDIA In-Network Computing (SHARP), RDMA (IBTA 1.3), RoCE, dan NVMe-oF. Mendukung PCIe Gen 4.0 (x16) dan Gen 3.0, PAM4 dan NRZ SerDes, dan fitur canggih seperti Dynamically Connected Transport (DCT), On-Demand Paging (ODP), dan Adaptive Routing. Offload overlay untuk VXLAN, NVGRE, Geneve dipercepat perangkat keras. Sesuai dengan spesifikasi IEEE 802.3bj, 802.3bm, 802.3by, dan InfiniBand Trade Association.

Prinsip Kerja: Arsitektur Offload Cerdas

ConnectX-6 meng-offload tugas komunikasi dan penyimpanan dari CPU host ke perangkat keras adaptor. Untuk kolektif MPI, adaptor memproses data saat transit menggunakan SHARP, mengurangi lalu lintas endpoint. Untuk penyimpanan, perintah NVMe-oF diproses langsung pada adaptor, membebaskan inti CPU. Enkripsi/dekripsi blok terjadi secara inline pada kecepatan kawat. Hasilnya adalah latensi lebih rendah, tingkat pesan lebih tinggi (215 Mpps), dan skalabilitas aplikasi yang lebih baik—bahkan pada kecepatan 100Gb/s.

Aplikasi & Penerapan
  • Kluster HPC Menengah: Simulasi berbasis MPI yang membutuhkan interkoneksi 100Gb/s yang hemat biaya.
  • Inferensi & Pelatihan AI: Kluster GPU dengan GPUDirect RDMA dan kolektif NCCL.
  • Penyimpanan NVMe-oF: Offload target/inisiasi untuk akses penyimpanan NVMe berkinerja tinggi.
  • Pusat Data Virtual: SR-IOV dan ASAP² untuk offload OVS di NFV dan cloud.
  • Cloud Perusahaan: Konektivitas Ethernet 100Gb untuk konvergensi virtualisasi dan penyimpanan.
Spesifikasi Teknis & Opsi Pemesanan
Model Port & Kecepatan Antarmuka Host Faktor Bentuk Enkripsi Protokol OPN
ConnectX-6 2x QSFP56 (100Gb/s IB/Eth) PCIe 3.0/4.0 x16 PCIe stand-up (profil rendah) AES-XTS 256/512-bit InfiniBand, Ethernet, NVMe-oF MCX653106A-ECAT
ConnectX-6 1x QSFP56 (100Gb/s) PCIe 4.0 x8 PCIe stand-up AES-XTS IB/Eth MCX651105A-EDAT
ConnectX-6 2x QSFP56 (200Gb/s) PCIe 4.0 x16 PCIe stand-up AES-XTS IB/Eth MCX653106A-HDAT

Catatan: MCX653106A-ECAT mendukung InfiniBand 100Gb/s (EDR/HDR100) dan 100/50/25/10GbE. Dimensi: 167,65mm x 68,90mm (tanpa braket). Termasuk braket tinggi (aksesori braket pendek). Konsumsi daya < 15W tipikal.

Keunggulan & Pembeda
  • vs. ConnectX-5: Bandwidth dua kali lipat (100Gb/s vs. 50Gb/s), SHARP terintegrasi untuk komputasi dalam jaringan, dan enkripsi tingkat blok tanpa biaya tambahan.
  • vs. NIC Pesaing: Offload perangkat keras sejati untuk NVMe-oF dan kolektif MPI—bukan hanya offload tanpa status.
  • 100G yang Dioptimalkan Biayanya: Ideal untuk menyeimbangkan kinerja dan anggaran di kluster ukuran menengah.
  • Kepatuhan FIPS: Enkripsi perangkat keras memenuhi standar keamanan pemerintah.
Layanan & Dukungan

Kami menawarkan konsultasi teknis 24/7, layanan RMA, dan dukungan integrasi untuk adaptor ConnectX-6. Setiap kartu didukung oleh garansi 1 tahun (dapat diperpanjang). Tim kami menyediakan validasi driver untuk distribusi Linux utama, Windows, dan VMware. Bantuan konfigurasi pra-penjualan untuk desain jaringan InfiniBand/Ethernet tersedia.

Pertanyaan yang Sering Diajukan (FAQ)

T: Apakah MCX653106A-ECAT kompatibel dengan switch Quantum 200Gb/s?

J: Ya, ini dapat dioperasikan dengan switch NVIDIA Quantum QM8700/QM8790 saat menggunakan mode HDR100 (100Gb/s per port).

T: Bisakah adaptor ini digunakan untuk Ethernet maupun InfiniBand?

J: Ya, ini mendukung protokol InfiniBand dan Ethernet. Firmware secara otomatis mendeteksi jenis switch dan mengonfigurasi mode yang sesuai.

T: Apakah mendukung RoCE (RDMA over Converged Ethernet)?

J: Ya, ConnectX-6 sepenuhnya mendukung RoCE, memberikan RDMA latensi rendah di lingkungan Ethernet.

T: Berapa tingkat pesan maksimumnya?

J: Adaptor memberikan hingga 215 juta pesan per detik, ideal untuk beban kerja HPC paket kecil.

T: Apakah kartu ini kompatibel dengan slot PCIe Gen 3.0?

J: Ya, ini sepenuhnya kompatibel dengan slot PCIe Gen 3.0 x16; kinerja akan terbatas pada ~100Gb/s agregat, yang sesuai dengan kecepatan port.

Catatan Pencegahan & Kompatibilitas
  • Persyaratan Slot PCIe: Untuk kinerja optimal, pasang di slot PCIe Gen 3.0 x16 atau Gen 4.0 x8/x16.
  • Pendinginan: Pastikan aliran udara yang memadai di sasis server; pendinginan pasif membutuhkan minimal 200 LFM.
  • Kabel: Gunakan modul tembaga pasif/aktif QSFP56 atau optik yang diberi peringkat untuk 100Gb/s (EDR/HDR100).
  • Dukungan Driver: Gunakan NVIDIA MLNX_OFED terbaru untuk Linux atau WinOF-2 untuk Windows.
  • Suhu Operasional: 0°C hingga 70°C; simpan antara -40°C dan 85°C.
Pengantar Perusahaan
NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT 100Gb/s Dual-Port InfiniBand Adapter Ethernet Capable 0

Dengan pengalaman lebih dari satu dekade, kami mengoperasikan pabrik skala besar yang didukung oleh tim teknis yang kuat. Basis pelanggan kami yang luas dan keahlian domain memungkinkan kami menawarkan harga yang kompetitif tanpa mengorbankan kualitas. Sebagai distributor resmi untuk Mellanox, Ruckus, Aruba, dan Extreme, kami menyimpan switch jaringan asli, solusi kartu jaringan (kartu NIC), Titik Akses nirkabel, pengontrol, dan kabel. Kami mempertahankan inventaris senilai 10 juta USD untuk memastikan pemenuhan yang cepat di berbagai lini produk. Setiap pengiriman diverifikasi keakuratannya, dan kami menyediakan konsultasi serta dukungan teknis 24/7. Tim penjualan dan teknis profesional kami telah mendapatkan reputasi tinggi di pasar global—bermitra dengan kami untuk solusi infrastruktur yang andal.

Ingin Tahu lebih detail tentang produk ini
NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT 100Gb/s Dual-Port InfiniBand Adapter Ethernet Capable bisakah Anda mengirimkan saya lebih banyak detail seperti jenis, ukuran, jumlah, bahan, dll.
Terima kasih!
Menunggu jawaban Anda.