NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200Gb/s Smart NIC

Dettagli:

Marca: Mellanox
Numero di modello: MCX653106A-ECAT
Documento: connectx-6-infiniband.pdf

Termini di pagamento e spedizione:

Quantità di ordine minimo: 1 pz
Prezzo: Negotiate
Imballaggi particolari: Scatola esterna
Tempi di consegna: Basato sull'inventario
Termini di pagamento: T/T
Capacità di alimentazione: Fornitura per progetto/batch
Miglior prezzo Contatto

Informazioni dettagliate

Stato dei prodotti: Azione Applicazione: Server
Tipo di interfaccia:: Infiniband Porti: Doppio
Velocità massima: 100 gbe Tipo: Cablato
Condizione: Nuovo e originale Tempo di garanzia: 1 anno
Modello: MCX653106A-ECAT Nome: Cartella di rete Mellanox MCX653106A-ECAT originale connettere X-6 100Gb/s doppia porta QSFP56 Ether
Parola chiave: scheda di rete Mellanox
Evidenziare:

NVIDIA ConnectX-6 adattatore Infiniband

,

200 Gb/s Smart NIC

,

Scheda di rete Mellanox con garanzia

Descrizione di prodotto

NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT

Adapter intelligente a doppia porta da 200 Gb/s con elaborazione in rete

Il NVIDIA ConnectX-6 MCX653106A-ECAT offre fino a200 Gb/scon banda larga, latenza sub-microsegonda e hardware offload per HPC, AI e storage iperconvergente.0, questo adattatore QSFP56 InfiniBand a doppia porta massimizza l'efficienza e la scalabilità del data center.

Supporto InfiniBand e Ethernet RDMA / GPUDirect NVMe-oF di scarico
Visualizzazione del prodotto

IlMCX653106A-ECATfa parte della famiglia di adattatori NVIDIA ConnectX-6 InfiniBand, progettati per i carichi di lavoro più esigenti. Combina due porte QSFP56 capaci di connettività InfiniBand o Ethernet a 200 Gb/s,offrire un trasporto affidabile basato su hardware, controllo della congestione, e motori di network computing.l'adattatore riduce i costi generali della CPU e aumenta le prestazioni delle applicazioni in cluster su larga scalaImprese, laboratori di ricerca e data center di iper-scala si affidano a ConnectX-6 per costruire tessuti ad alta efficienza energetica e a bassa latenza.

Caratteristiche chiave
Velocità della porta
Fino a 200 Gb/s per porta (HDR InfiniBand / 200 GbE)
Tasso dei messaggi
Fino a 215 milioni di messaggi/sec
Crittografia hardware
XTS-AES a livello di blocco a 256/512 bit, conforme a FIPS
Informatica in rete
Discarichi collettivi, NVMe-oF target/initiator discarichi
Interfaccia dell'host
PCIe Gen 4.0/3.0 x16 (supporto a doppia porta)
Virtualizzazione
SR-IOV fino a 1K VF, ASAP2, Open vSwitch offload
Capacità RDMA
RoCE, XRC, DCT, Paging on-demand, supporto al routing adattivo
Fattore di forma
PCIe stand-up (basso profilo), doppia porta QSFP56
Tecnologia avanzata

Basato sull'architettura InfiniBand di NVIDIA, ConnectX-6 integraInformatica in reteL'adattatore supporta anche sistemi per l'accelerazione delle operazioni MPI, dei framework di deep learning e dei protocolli di archiviazione.Accesso remoto diretto alla memoria (RDMA)Il controllo della congestione basato su hardware garantisce prestazioni prevedibili anche sotto carico elevato.NVIDIA GPUDirect RDMAPermette lo scambio diretto di dati tra la memoria GPU e l'adattatore di rete, riducendo la latenza per l'addestramento dell'IA.NVMe su tessuti (NVMe-oF)La scheda riduce l'utilizzo della CPU nelle matrici di archiviazione, consentendo al contempo un accesso ad alto throughput e a bassa latenza al flash NVMe.

Disposizioni tipiche
  • Calcolo ad alte prestazioni (HPC):Simulazioni su larga scala, modellazione del tempo e dinamica dei fluidi computazionali che richiedono bassa latenza e ampiezza di banda.
  • Cluster di AI e Machine Learning:Formazione distribuita di reti neurali profonde, sfruttando GPUDirect e RDMA per la massima efficienza.
  • Sistemi di stoccaggio NVMe-oF:I carichi di destinazione o di inizio consentono lo storage disaggregato ad alte prestazioni con bassi costi generali di CPU.
  • Centri di dati a iperescala:Ambienti virtualizzati con SR-IOV, reti di sovrapposizione e catena di servizi.
  • Servizi finanziari:Infrastrutture di trading a latenza ultra bassa che richiedono prestazioni deterministiche.
Compatibilità

Il ConnectX-6 MCX653106A-ECAT è compatibile con una vasta gamma di server, switch e sistemi operativi.con una capacità di accensione superiore a 50 WL'adattatore supporta le slot PCIe standard (x16, x8, x4) e include il supporto dei driver per le principali piattaforme OS.

Specifiche tecniche
Parametro Specificità
Modello di prodotto MCX653106A-ECAT
Tasso di dati 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s (InfiniBand e Ethernet)
Portos 2x connettori QSFP56
Interfaccia dell'host PCIe Gen 4.0 / 3.0 x16 (supporta configurazioni x8, x4, x2, x1)
Latenza Un'intensità di calore inferiore o uguale a 0,8 μs
Tasso dei messaggi Fino a 215 milioni di messaggi/sec
Crittografia XTS-AES 256/512-bit, conformità FIPS 140-2 pronta
Fattore di forma PCIe stand-up a basso profilo (montato con supporto alto, supporto corto incluso)
Dimensioni (senza parentesi) 167.65 mm x 68.90 mm
Consumo di energia Tipico 22W (a seconda del traffico)
Virtualizzazione SR-IOV (1K VF), VMware NetQueue, NPAR, ASAP2 flow offload
Gestione NC-SI, MCTP su PCIe/SMBus, PLDM per l'aggiornamento e il monitoraggio del firmware
Avvio remoto InfiniBand, iSCSI, PXE, UEFI
Sistemi operativi RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OFED stack
Guida alla selezione degli adattatori ConnectX-6
Numero della parte da ordinare (OPN) Portos Velocità massima Interfaccia dell'host Principale differenziatore
MCX653106A-ECAT 2x QSFP56 100Gb/s (anche inferiore) PCIe 3.0/4.0 x16 Dual-port 100GbE/IB, offloads avanzati, criptovaluta opzionale? nessuna criptovaluta integrata in questa variante, ma supporta la crittografia di blocchi tramite software?ideale per la virtualizzazione e lo storage
MCX653105A-HDAT 1x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 200Gb/s a porta singola, supporto criptografico
MCX653106A-HDAT 2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 Doppia porta 200Gb/s con larghezza di banda completa, crittografia di scarico
MCX653105A-ECAT 1x QSFP56 100 Gb/s PCIe x16 100Gb/s a porta singola, accesso a basso costo
MCX653436A-HDAT (OCP 3.0) 2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 piccolo fattore di forma, doppia porta
Nota: non tutte le funzionalità (ad esempio, motore criptografico) sono disponibili in ogni OPN. MCX653106A-ECAT si concentra sull'efficienza a doppia porta di 100Gb/s con l'intero set di funzionalità ConnectX-6, inclusi RDMA, storage offloads,e virtualizzazione. Per le doppie porte da 200Gb/s, considera le varianti -HDAT.
Perché scegliere ConnectX-6 MCX653106A-ECAT
  • Performance delle applicazioni massimizzata:I discarichi hardware per MPI, NVMe-oF e crittografia liberano i core della CPU per i carichi di lavoro effettivi.
  • Larghezza di banda pronta per il futuro:La disponibilità PCIe 4.0 e 200 Gb/s garantisce la longevità dei tessuti ad alta velocità.
  • Memoria e calcolo in rete:Supporta scarichi collettivi e burst buffer, riducendo i costi di movimento dei dati.
  • Sicurezza affidabile:La crittografia AES-XTS a livello di blocco con conformità FIPS garantisce la protezione dei dati in stato di riposo e in transito senza colpi di performance.
  • Gestione semplificata:Ampio supporto per il sistema operativo e l'ipervisor, con driver stack unificato (OFED, WinOF-2).
Servizio e supporto

Hong Kong Starsurge Group fornisce supporto tecnico completo, copertura di garanzia e servizi RMA per tutti gli adattatori NVIDIA ConnectX.aggiornamenti del firmwareOffriamo spedizioni globali, prezzi all'ingrosso per progetti di data center e prenotazioni di magazzino personalizzate.contattare il nostro team di vendita per ricevere preventivi personalizzati e dettagli del tempo di consegna.

Domande frequenti
D: MCX653106A-ECAT è compatibile sia con InfiniBand che con Ethernet?
R: Sì. La serie ConnectX-6 supporta il funzionamento a doppio protocollo: InfiniBand (fino a 200Gb/s per porta) ed Ethernet (fino a 200GbE).L'OPN specifico supporta velocità fino a 100Gb/s per entrambi i protocolli quando utilizzato con trasmettitori e switch appropriati.
D: Questo adattatore supporta la GPU Direct RDMA?
R: Assolutamente. NVIDIA GPUDirect RDMA è supportato, consentendo la comunicazione diretta tra la memoria GPU e la rete, ideale per i framework AI e i carichi di lavoro MPI.
D: Qual è la differenza tra il suffisso -ECAT e -HDAT?
R: -ECAT indica una velocità massima di 100 Gb/s (sia IB che ETH) con determinati set di caratteristiche; -HDAT indica una capacità di 200 Gb/s con criptovaluta hardware e motori avanzati.Scegliere in base alla larghezza di banda richiesta.
D: Posso usare questa carta in uno slot PCIe 3.0?
R: Sì, è retrocompatibile con PCIe 3.0Tuttavia, la larghezza di banda massima può essere limitata rispetto a PCIe 4.0.
D: L'adattatore include NVMe-oF hardware offload?
R: Sì, ConnectX-6 fornisce il pieno NVMe-oF target e iniziatore offloads, riducendo significativamente la CPU overhead per i carichi di lavoro di archiviazione.
Precauzioni importanti
• Assicurarsi che la scheda madre del server abbia un flusso d'aria sufficiente per gli adattatori ad alta velocità.
• Verificare che lo slot PCIe fornisca una potenza adeguata (fino a 75W tramite slot; questo adattatore utilizza in genere < 25W).
• Per le piattaforme raffreddate a liquido, verificare la compatibilità con Intel Server System D50TNP se è necessaria una variante della piastra fredda (questa OPN è raffreddata a aria standard).
• Verificare la compatibilità dei driver del sistema operativo con gli ultimi stack OFED o WinOF-2.
Su Hong Kong Starsurge Group

Dal 2008, Hong Kong Starsurge Group Co., Limited fornisce hardware di rete di livello aziendale, integrazione di sistemi e servizi IT in tutto il mondo.Starsurge offre soluzioni certificate per il governoIl nostro team tecnico garantisce una implementazione fluida, dalla progettazione dell'architettura pre-vendita al supporto post-vendita.,Forniamo componenti infrastrutturali su misura e scalabili, inclusi NIC, switch, cavi e soluzioni di rete end-to-end.

Consegna globale · Supporto multilingue · Servizi OEM disponibili

Fatti chiave in sintesi
2 porte da 100 Gb/s
215 Msg/sec
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VF)
NVMe-oF di scarico
Matrice di compatibilità (riferimento rapido)
Componente / Ecosistema Sostenuto Altre note
NVIDIA Quantum HDR Switch ✓ Sì 200 Gb/s integrazione completa del tessuto
Switch Ethernet 200G/100G ✓ Sì Richiede modalità di ricevitore/FEC compatibili
GPU Direct RDMA ✓ Sì Supporto per serie di GPU NVIDIA
VMware vSphere / ESXi ✓ Certificato Guidatori nativi, supporto SR-IOV
Windows Server 2019/2022 ✓ Sì Pacchetto driver WinOF-2
Linux Kernel e OFED ✓ Supporto completo MLNX_OFED, driver della casella di posta
Lista di controllo dell'acquirente prima di ordinare
  • Confirmare la velocità di collegamento richiesta: 100Gb/s dual-port soddisfa il piano di larghezza di banda del cluster?
  • Verificare lo slot PCIe del server: x16 fisico, Gen 3 o Gen 4 raccomandato.
  • Controllare il tipo di cavo: QSFP56 in rame passivo (fino a 5 m) o cavi ottici attivi per una portata più lunga.
  • Assicurarsi che i driver del sistema operativo siano disponibili (OFED, WinOF).
  • Per i requisiti di crittografia: confermare se è necessaria la crittografia a blocchi integrata MCX653106A-ECAT supporta AES-XTS, ma conferma sempre il livello FIPS con la scheda dati NVIDIA.
  • Valutare le esigenze di virtualizzazione: SR-IOV, VXLAN offload, ecc.

Vuoi conoscere maggiori dettagli su questo prodotto
Sono interessato a NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200Gb/s Smart NIC potresti inviarmi maggiori dettagli come tipo, dimensione, quantità, materiale, ecc.
Grazie!
Aspettando la tua risposta.