Scheda intelligente InfiniBand NVIDIA ConnectX-6 MCX653105A-HDAT a 200 Gb/s a porta singola con crittografia hardware e PCIe 4.0
Dettagli:
| Marca: | Mellanox |
| Numero di modello: | MCX653105A-HDAT |
| Documento: | connectx-6-infiniband.pdf |
Termini di pagamento e spedizione:
| Quantità di ordine minimo: | 1 pz |
|---|---|
| Prezzo: | Negotiate |
| Imballaggi particolari: | Scatola esterna |
| Tempi di consegna: | Basato sull'inventario |
| Termini di pagamento: | T/T |
| Capacità di alimentazione: | Fornitura per progetto/batch |
|
Informazioni dettagliate |
|||
| Stato dei prodotti: | Azione | Applicazione: | Server |
|---|---|---|---|
| Condizione: | Nuovo e originale | Tipo: | Cablato |
| Velocità massima: | Fino a 200 GB/s | Connettore Ethernet: | QSFP56 |
| Modello: | MCX653105A-HDAT | ||
| Evidenziare: | NVIDIA ConnectX-6 adattatore Infiniband,Scheda di rete PCIe 4.0 a 200 Gb/s,Adattatore InfiniBand con crittografia hardware |
||
Descrizione di prodotto
200 Gb/s Single-Port HDR Smart Adapter con In-Network Computing & Hardware Encryption
NVIDIA ConnectX-6MCX653105A-HDATfornisce un throughput completo di 200Gb/s su una singola porta QSFP56, combinando latenza ultra-bassa, offload hardware e crittografia XTS-AES a livello di blocco.questo PCIe 4L'adattatore.0 x16 sgancia le operazioni collettive, RDMA e la crittografia dalla CPU, massimizzando le prestazioni delle applicazioni e la scalabilità negli ambienti dei data center più esigenti.
IlMCX653105A-HDATAppartiene alla famiglia di adattatori NVIDIA ConnectX-6 InfiniBand, progettata per prestazioni estreme nei moderni data center.200 Gb/s(HDR InfiniBand o 200GbE) con accelerazione hardware completa per RDMA, trasporto affidabile e In-Network Computing.e NVMe sull'accelerazione dei tessuti, l'adattatore riduce significativamente i costi generali della CPU aumentando l'efficienza del tessuto.rendendolo ideale per i servizi finanziari, ricerche governative e implementazioni di cloud a iperescala.
Fino a 200Gb/s (HDR InfiniBand / 200GbE) su singolo QSFP56
Fino a 215 milioni di messaggi/sec
XTS-AES a livello di blocco a 256/512 bit, conforme a FIPS
Discarichi collettivi, NVMe-oF target/initiator, burst buffer
PCIe Gen 4.0 / 3.0 x16 (compatibile con il passato)
SR-IOV (1K VF), ASAP2, Open vSwitch offload, tunnel di sovrapposizione
RoCE, XRC, DCT, Paging su richiesta, supporto GPUDirect RDMA
PCIe stand-up a basso profilo, con supporto alto preinstallato + supporto corto incluso
NVIDIA ConnectX-6 integraInformatica in reteMCX653105A-HDAT supporta il trasporto affidabile basato su hardware, il routing adattivo e il controllo della congestione,garantire prestazioni prevedibili nei tessuti di grandi dimensioni.Accesso remoto diretto alla memoria (RDMA)permette trasferimenti di dati a copia zero, bypassando il kernel del sistema operativo.NVIDIA GPUDirect RDMA, la memoria GPU comunica direttamente con l'adattatore di rete, riducendo la latenza per l'addestramento dell'IA e le simulazioni HPC.Crittografia XTS-AES a livello di blocco(256/512-bit key) garantisce la sicurezza dei dati in transito e dei dati in stato di riposo senza costi generali della CPU e l'adattatore è progettato per soddisfare i requisiti di conformità FIPS 140-2.
- Calcolo ad alte prestazioni (HPC):Simulazioni su larga scala, previsioni meteorologiche e dinamica dei fluidi computazionali che richiedono un'interconnessione a bassa latenza di 200 Gb/s.
- Cluster di AI e di apprendimento profondo:Formazione distribuita con GPUDirect RDMA, massimizzando il throughput tra i nodi GPU.
- Sistemi di stoccaggio NVMe-oF:Memoria disaggregata ad alte prestazioni con carichi completi di destinazione/iniziatore, riducendo l'utilizzo della CPU.
- Centri dati hyperscale e cloud:Ambienti virtualizzati con SR-IOV, reti sovrapposte e crittografia accelerata da hardware.
- Piattaforme di negoziazione finanziaria:Rete deterministica a latenza ultra bassa per il trading algoritmico.
Il ConnectX-6 MCX653105A-HDAT interagisce perfettamente con gli switch NVIDIA Quantum InfiniBand (HDR 200Gb/s), gli switch standard 200GbE e una vasta gamma di piattaforme server.Supporta i principali sistemi operativi e stack di virtualizzazione, garantendo un'integrazione flessibile nelle infrastrutture esistenti.
| Parametro | Specificità |
|---|---|
| Modello di prodotto | MCX653105A-HDAT |
| Tasso di dati | 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s (InfiniBand ed Ethernet) |
| Porte e connettore | 1x QSFP56 (supporta cavi in rame passivo, ottico attivo e AOC) |
| Interfaccia dell'host | PCIe Gen 4.0 x16 (compatibile anche con Gen 3.0, 2.0; supporta le configurazioni x8, x4, x2, x1) |
| Latenza | Sub-microsegondi (tipicamente < 0,7μs) |
| Tasso dei messaggi | Fino a 215 milioni di messaggi al secondo |
| Crittografia | Discarico hardware a 256/512 bit XTS-AES, FIPS 140-2 pronto |
| Fattore di forma | PCIe stand-up a basso profilo (con supporto a bracciale alto preinstallato, inclusi gli accessori a bracciale corto) |
| Dimensioni (senza parentesi) | 167.65 mm x 68.90 mm |
| Consumo di energia | Tipico 22 W 24 W (dipende dall'utilizzo del collegamento) |
| Virtualizzazione | SR-IOV (fino a 1K funzioni virtuali), VMware NetQueue, NPAR, ASAP2 flow offload |
| Gestione e monitoraggio | NC-SI, MCTP su PCIe/SMBus, PLDM (DSP0248, DSP0267), I2C, flash SPI |
| Avvio remoto | InfiniBand, iSCSI, PXE, UEFI |
| Sistemi operativi | RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OpenFabrics Enterprise Distribution (OFED), WinOF-2 |
| Numero della parte da ordinare (OPN) | Portos | Velocità massima | Interfaccia dell'host | Caratteristiche chiave |
|---|---|---|---|---|
| MCX653105A-HDAT | 1x QSFP56 | 200 Gb/s | PCIe 3.0/4.0 x16 | Single-port, hardware criptato, connessione ConnectX-6 completa, ideale per server ad alta densità |
| MCX653106A-HDAT | 2x QSFP56 | 200 Gb/s (due porte) | PCIe 3.0/4.0 x16 | Dual-port 200Gb/s con crittografia, densità massima di larghezza di banda |
| MCX653105A-ECAT | 1x QSFP56 | 100 Gb/s | PCIe 3.0/4.0 x16 | 100Gb/s a porta singola, ottimizzato in termini di costi per i requisiti di velocità inferiore |
| MCX653106A-ECAT | 2x QSFP56 | 100 Gb/s (due porte) | PCIe 3.0/4.0 x16 | Dual-port 100Gb/s, virtualizzazione e storage offload |
| MCX653436A-HDAT (OCP 3.0) | 2x QSFP56 | 200 Gb/s | PCIe 3.0/4.0 x16 | OCP 3.0 small form factor, doppia porta 200Gb/s |
- Larghezza di banda completa di 200 Gb/s:La progettazione a porta singola offre il massimo throughput per i nodi di calcolo in cui viene data priorità all'alta densità per porta.
- Sicurezza hardware integrata:Crittografia di blocchi XTS-AES senza costi generali della CPU, conforme ai requisiti FIPS per le industrie regolamentate.
- Immagazzinamento accelerato e IA:Gli offload NVMe-oF e GPUDirect RDMA aumentano significativamente le prestazioni per la formazione dell'IA e lo storage definito da software.
- Future-Ready PCIe 4.0:Doppia interconnessione della larghezza di banda all'host, eliminando i colli di bottiglia per la rete 200Gb/s.
- Gestione semplificata:Lo stack di driver unificato (OFED, WinOF-2) e l'ampia compatibilità del sistema operativo riducono la complessità della distribuzione.
Hong Kong Starsurge Group fornisce assistenza tecnica esperta, copertura di garanzia e servizi RMA globali per tutti gli adattatori NVIDIA ConnectX.sintonizzazione delle prestazioniOffriamo prezzi flessibili, quotazioni per progetti di data center e spedizioni veloci in tutto il mondo.contattare il nostro team di vendita per discutere tempi di consegna e sconti sul volume.
• Verificare che lo slot PCIe fornisca una potenza sufficiente (75W dallo slot; l'adattatore consuma tipicamente ~ 22-24W).
• Per le piattaforme raffreddate a liquido, questa scheda standard raffreddata ad aria non è compatibile con le varianti delle piastre fredde; contatta Starsurge per le esigenze di SKU raffreddate a liquido.
• Utilizzare sempre cavi o moduli QSFP56 per ottenere prestazioni di 200 Gb/s.
• Confirmare la compatibilità della versione del driver con il sistema operativo e il kernel prima della distribuzione.
Dal 2008, Hong Kong Starsurge Group Co., Limited è stata un fornitore affidabile di hardware di rete aziendale, integrazione di sistemi e servizi IT.Come partner autorizzato per le soluzioni di rete NVIDIA, Starsurge fornisce autentici adattatori ConnectX, interruttori e cavi per il governo, finanza, sanità, istruzione e clienti hyperscale in tutto il mondo.I nostri esperti team di vendita e tecnici assicurano una implementazione fluida dall'architettura pre-vendita al supporto post-vendita, con un impegno per una qualità affidabile e un servizio reattivo.
Consegna globale · Supporto multilingue · Servizi OEM e di integrazione su misura
| Componente / Ecosistema | Status del supporto | Commenti |
|---|---|---|
| NVIDIA Quantum HDR InfiniBand Switch | ✓ Supporto completo | 200Gb/s tessuto, routing adattivo |
| 200GbE Switch (IEEE 802.3) | ✓ Compatibile | Richiede modalità FEC per specifica di switch |
| GPU Direct RDMA | ✓ Sì | Serie GPU NVIDIA (Volta, Ampere, Hopper, ecc.) |
| VMware vSphere 7.0/8.0 | ✓ Certificato | Guidatori nativi, supporto SR-IOV |
| Linux (RHEL, Ubuntu, SLES) | ✓ Supporto completo | MLNX_OFED, driver per la casella di posta in arrivo disponibili |
| Windows Server 2019/2022 | ✓ Sostenuto | Pacchetto driver WinOF-2 |
- [ ] Conferma la velocità di collegamento richiesta: 200Gb/s di porta singola corrisponde ai requisiti di larghezza di banda del nodo.
- [ ] Controllare lo slot PCIe del server: slot fisico x16, Gen 4 raccomandato per prestazioni complete a 200Gb/s.
- [ ] Selezionare i cavi o i ricevitori QSFP56 appropriati (coperro passivo fino a 5 m, AOC o ottici).
- [ ] Verificare il supporto dei driver del sistema operativo (versione OFED o casella di posta).
- [ ] Assicurare il rispetto dei requisiti di conformità alla crittografia (XTS-AES, FIPS).
- [ ] Valutare il raffreddamento ambientale: gli adattatori ad alta velocità possono richiedere un flusso d'aria diretto.







