NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand Adapter

Dettagli:

Marca: Mellanox
Numero di modello: MCX75310AAS-NEAT (900-9x766-003N-SQ0)
Documento: Connectx-7 infiniband.pdf

Termini di pagamento e spedizione:

Quantità di ordine minimo: 1 pz
Prezzo: Negotiate
Imballaggi particolari: Scatola esterna
Tempi di consegna: Basato sull'inventario
Termini di pagamento: T/T
Capacità di alimentazione: Fornitura per progetto/batch
Miglior prezzo Contatto

Informazioni dettagliate

Modello n.: MCX75310AAS-NEAT (900-9x766-003N-SQ0) Porti: Porta singola
Tecnologia: Infiniband Tipo di interfaccia: OSFP56
Specifica: 16,7 cm x 6,9 cm Origine: India / Israele / Cina
velocità di trasmissione: 400GBE Interfaccia host: Gen3 x16
Evidenziare:

Scheda InfiniBand NVIDIA ConnectX-7

,

Carta di rete Mellanox 400Gb/s

,

Adaptatore NDR InfiniBand con garanzia

Descrizione di prodotto

NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand Adapter

L'NVIDIA ConnectX-7 MCX75310AAS-NEAT è un adattatore intelligente NDR 400Gb/s InfiniBand con interfaccia PCIe Gen5 x16 sia per InfiniBand che per RoCE.e data center cloud a iperescala, questo adattatore ad ultra bassa latenza integra l'informatica in rete, la sicurezza dell'hardware,e la virtualizzazione avanzata per accelerare l'elaborazione scientifica moderna e le infrastrutture definite da software.

Visualizzazione del prodotto

La famiglia NVIDIA ConnectX-7 offre prestazioni rivoluzionarie con larghezza di banda fino a 400Gb/s per porta, supportando sia InfiniBand (NDR/HDR/EDR) che Ethernet (fino a 400GbE).MCX75310AAS-NEATpresenta l'interfaccia host PCIe Gen5 (fino a corsie x32), la capacità di multi-host e motori avanzati per GPUDirect RDMA, accelerazione NVMe-oF e crittografia in linea.simulazione, e analisi in tempo reale, questo adattatore riduce le spese generali della CPU massimizzando al contempo la capacità di trasmissione e la sicurezza dei dati.

Con la memoria di bordo per lo scarico di rendezvous, l'accelerazione collettiva SHARP e gli scarichi SDN ASAP2,ConnectX-7 trasforma i server standard in nodi di rete ad alte prestazioni con jitter vicino a zero e tempistica di precisione di nanosecondi (IEEE 1588v2 Classe C).

Caratteristiche chiave
  • NDR InfiniBand e 400GbE pronti- fino a 400 Gb/s di larghezza di banda totale, supporta NDR, HDR, EDR InfiniBand e 400/200/100/50/25/10GbE
  • PCIe Gen5 x16 (fino a 32 corsie)- Interfaccia host ad alto throughput con suggerimenti di elaborazione TLP, ATS, PASID e SR-IOV
  • Informatica in rete- Discarico hardware delle operazioni collettive (SHARP), protocollo di incontro, discarico del buffer di scoppio
  • GPUDirect RDMA & GPUDirect Storage- percorso di dati diretto da GPU a NIC, accelerando l'apprendimento profondo e l'analisi dei dati
  • Motori di sicurezza hardware- Crittografia/decrittografia IPsec/TLS/MACsec in linea (AES-GCM 128/256-bit) + avvio sicuro con root-of-trust hardware
  • Accelerazione avanzata di memorizzazione- NVMe-oF (via Fabrics/TCP), NVMe/TCP offload, trasferimento della firma T10-DIF, iSER, NFS su RDMA
  • ASAP2 SDN & VirtIO Accelerazione- OVS offload, incapsulamento VXLAN/GENEVA/NVGRE, tracciamento delle connessioni e parser programmabile
  • Tempismo preciso- PTP (IEEE 1588v2) con precisione di 12 ns, SyncE, programmazione azionata dal tempo, pacing dei pacchetti
Tecnologia: Inside ConnectX-7

Basato su un processo a 7 nm, ConnectX-7 integra più motori di accelerazione hardware che scaricano la CPU e offrono prestazioni deterministiche.

  • RDMA su Ethernet convergente (RoCE)- RoCE a zero contatto per tessuti Ethernet a bassa latenza
  • Trasporti dinamicamente connessi (DCT) e XRC- Comunicazione MPI e HPC efficiente
  • Paging on-demand (ODP) e registrazione della memoria utente (UMR)- Semplifica la gestione della memoria per applicazioni su larga scala
  • Protocollo di aggregazione e riduzione gerarchica scalabile (SHARP)- Riduzione dei dati in rete per i collettivi MPI
  • Tecnologia multi-host- Consente fino a 4 host indipendenti di condividere un unico adattatore, ottimizzando l'utilizzo del server
  • Gestibilità PLDM e SPDM- Aggiornamento del firmware, monitoraggio e attestazione dei dispositivi per la sicurezza aziendale
Disposizioni tipiche
  • Cluster di AI e apprendimento automatico- formazione su larga scala con NCCL, UCX e GPUDirect RDMA
  • Simulazione e ricerca HPC- Modellazione meteorologica, genomica, dinamica molecolare che richiede MPI a bassa latenza
  • Hyperscale Cloud e SDDC- Rete sovrapposte, accelerazione NFV, multi-tenancy sicuro (SR-IOV)
  • Sistemi di archiviazione aziendali- NVMe-oF target offload e sistemi di file distribuiti (Lustre, GPUDirect Storage)
  • 5G Edge & Telecom- Infrastrutture sensibili al tempo con sicurezza PTP e MACsec di classe C
Compatibilità

Sistemi operativi e virtualizzazione:Driver integrati per Linux (RHEL, Ubuntu, Rocky Linux), Windows Server, VMware ESXi (SR-IOV) e Kubernetes (plug-in CNI). Ottimizzati per NVIDIA HPC-X, UCX, OpenMPI, MVAPICH, MPICH, OpenSHMEM, NCCL,e UCC.

Compatibilità hardware:Scatene PCIe Gen5 standard (x16 meccaniche, x16/x32 elettriche). Certificate con le principali piattaforme server di Dell, HPE, Supermicro, Lenovo e sistemi NVIDIA DGX.

Interoperabilità:Completamente conforme alla specifica 1 dell'InfiniBand Trade Association.5, IEEE 802.3 per Ethernet e PCI-SIG Gen5 specifiche.

Specificativi - ConnectX-7 MCX75310AAS-NEAT
Parametro Dettaglio
Modello di prodotto MCX75310AAS-NEAT
Fattore di forma PCIe HHHL (Mezza altezza Mezza lunghezza), compreso il supporto FHHL
Interfaccia dell'host PCIe Gen5.0 x16 (fino a 32 corsie, con supporto per bifurcazione e multi-host)
Protocolli di rete InfiniBand (NDR/HDR/EDR) e Ethernet (400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE)
Configurazione della porta QSFP-DD a singola porta (supporta 1x 400G NDR o 2x 200G split; conferma la densità di porta per SKU)
Velocità in banda infinita NDR 400 Gbps, HDR 200 Gbps, EDR 100 Gbps, FDR (compatibile)
Velocità Ethernet 400/200/100/50/25/10GbE NRZ/PAM4
Memoria di bordo Memoria integrata in rete per il rendezvous offload e il burst buffer
Sgomberata di sicurezza Inline IPsec, TLS, MACsec (AES-GCM 128/256-bit), Secure Boot, Flash Encryption
Discariche di stoccaggio NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, SRP, iSER, NFS su RDMA, SMB Direct
Timing e sincronizzazione IEEE 1588v2 PTP (12ns di precisione), SyncE, PPS programmabile, programmazione azionata dal tempo
Virtualizzazione SR-IOV, accelerazione VirtIO, VXLAN/NVGRE/GENEVE offload, tracciamento delle connessioni (firewall L4)
Gestibilità NC-SI, MCTP su SMBus/PCIe, PLDM (Monitor/Firmware/FRU/Redfish), SPDM, flash SPI, JTAG
Avvio remoto InfiniBand boot, iSCSI, UEFI, PXE
Consumo di energia Non specificato pubblicamente - gli adattatori tipici ad alte prestazioni richiedono un flusso d'aria adeguato; si prega di confermare prima di ordinare
Temperatura di funzionamento 0°C a 55°C (con adeguato raffreddamento del telaio)
Nota: alcuni parametri possono variare in base al firmware e alla configurazione del sistema. Consulta la documentazione NVIDIA o contatta Starsurge per una validazione specifica.
Guida alla selezione - Portfolio ConnectX-7
Modello (parziale) Port/Velocità Interfaccia dell'host Fattore di forma Caso di utilizzo
MCX75310AAS-NEAT 1x NDR 400Gb/s InfiniBand/Ethernet PCIe Gen5 x16 HHHL AI, HPC, Cloud - fiore all'occhiello con Multi-Host e avvio sicuro
MCX75310AAS-NCAT 1x NDR 400Gb/s PCIe Gen5 x16 HHHL Set di funzionalità simili con criptovaluta abilitata
MCX75510AAS-NEAT 2x NDR 200 Gb/s o 1x 400 Gb/s PCIe Gen5 x16 FHHL Doppia porta per la ridondanza
Variante OCP 3.0 Fino a 2x 200Gb/s PCIe Gen5 x16 OCP 3.0 SFF Piattaforme OCP a iperscala

Per i codici di ordinazione esatti e le configurazioni personalizzate, consultare il manuale ufficiale dell'adattatore ConnectX-7 PCIe (docs.nvidia.com) o contattare Hong Kong Starsurge Group.

Vantaggi - progettati per i moderni data center

Costo totale di proprietà più basso- Scarica la CPU da attività di rete, storage e sicurezza... riducendo i costi di alimentazione e raffreddamento per Gb/s.

Larghezza di banda pronta per il futuro- Il supporto per PCIe Gen5 e NDR 400G elimina i colli di bottiglia per i server GPU di nuova generazione e i cluster AI.

Sicurezza aziendale- La crittografia hardware in linea (IPsec/TLS/MACsec) e la catena di fiducia sicura soddisfano i requisiti (FIPS, DoD).

Integrazione senza soluzione di continuità- Compatibilità completa con le principali distribuzioni, ipervisori e piattaforme di orchestrazione dei container.

Servizio e supporto

Hong Kong Starsurge Group fornisce supporto end-to-end per il ciclo di vita: guida architettonica pre-vendita, convalida della compatibilità, gestione della garanzia e servizi RMA.Il nostro team tecnico assiste con la regolazione del driverGaranzia standard: supporto hardware limitato di 3 anni con copertura estesa opzionale. Spedizione globale e assistenza tecnica multilingue sono disponibili.

Domande frequenti (FAQ)
D: L'MCX75310AAS-NEAT è compatibile con gli switch InfiniBand ed Ethernet?
Sì. ConnectX-7 supporta il funzionamento a doppio protocollo; è possibile utilizzarlo in modalità InfiniBand (NDR fabric) o in modalità Ethernet (RoCE).
D: Questo modello supporta il GPUDirect Storage?
Assolutamente. GPUDirect Storage e GPUDirect RDMA sono completamente supportati, consentendo il movimento diretto di dati tra lo storage e la memoria GPU senza buffer di rimbalzo della CPU.
D: Quali opzioni di bifurcazione PCIe sono disponibili?
Supporta la bifurcazione standard (x16, x8/x8) e NVIDIA Multi-Host consentendo fino a 4 host indipendenti con adeguate piattaforme di commutazione PCIe.
D: Posso utilizzare questo adattatore per NVMe/TCP?
Sì, l'offload hardware per NVMe su TCP riduce l'utilizzo della CPU e migliora la latenza per lo storage definito dal software.
D: Dove posso trovare l'ultimo firmware e driver?
I driver sono inclusi nei kernel Linux mainstream (MLNX_OFED). Gli strumenti ufficiali Mellanox di NVIDIA (mlxconfig, flint) supportano gli aggiornamenti del firmware.
Precauzioni e note d'ordine
  • Assicurarsi che la scheda madre del server fornisca uno slot PCIe Gen5 con un raffreddamento adeguato (circolazione dell'aria attiva raccomandata per il funzionamento 400G)
  • Per le configurazioni multi-host, verificare i requisiti di supporto della piattaforma e di cablaggio (potrebbero essere necessari cavi splitter)
  • Moduli ottici / cavi DAC sono venduti separatamente; utilizzare trasmettitori NVIDIA-qualificati per la conformità
  • Consumo energetico massimo non pubblicato da NVIDIA; il tipico design termico presuppone un range di 25W-30W sotto carico pesante, verificate con la guida termica del telaio
  • Per le funzionalità crittografiche (offload IPsec/TLS) può essere richiesta una licenza aggiuntiva; si prega di confermare con le vendite
A proposito di Hong Kong Starsurge Group Co., Limited
NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand Adapter 0

Fondata nel 2008, Starsurge è un fornitore tecnologico di hardware di rete, servizi IT e integrazione di sistemi.e sviluppo software personalizzatoSostenuta da esperti team di vendita e tecnici, Starsurge supporta i settori governativo, sanitario, finanziario, manifatturiero, educativo e aziendale.Il nostro approccio basato sul cliente garantisce una qualità affidabile, logistica reattiva e soluzioni infrastrutturali su misura in tutto il mondo.

In qualità di partner autorizzato dei principali marchi di networking, Starsurge offre consulenza professionale pre-vendita, consegna globale e supporto multilingue per aiutarti a costruire reti scalabili ed efficienti.

I fatti chiave - a colpo di vista
  • Trasmissione massima:400 Gb/s per porta
  • PCIe Gen5:Fino a 32 GT/s
  • Supporto RDMA:InfiniBand & RoCE
  • Sicurezza:Inline IPsec/TLS/MACsec
  • NVIDIA SHARP:Aggregazione in rete
  • GPUDirect:RDMA + memorizzazione
Matrice di compatibilità (semplificata)
Componente / Ecosistema Sostenuto Altre note
NVIDIA DGX H100 / GH200 - Sì, sì. Certificato
VMware vSphere / ESXi Sì (SR-IOV) Incluso il supporto del conducente
Kernel Linux 5.x+ Sì (in scatola) MLNX_OFED raccomandato
Windows Server 2022 - Sì, sì. RDMA / RoCE nativo
Kubernetes / CNI - Sì, sì. Multus, SR-IOV CNI
OpenMPI / MVAPICH - Sì, sì. Ottimizzato per i verbi InfiniBand
Lista di controllo dell'acquirente - adozione di ConnectX-7
  • Verificare la piattaforma host: slot PCIe Gen5 (o Gen4 con compatibilità con il passato ma larghezza di banda limitata)
  • Confermare il tipo di cavo: 400G NDR (OSFP/QSFP-DD) o splitter per 2x200G
  • Verificare il raffreddamento: l'adattatore ad alta potenza richiede almeno 300 LFM di flusso d'aria
  • Per le funzionalità di sicurezza: confermare se è necessario l'avvio sicuro e il crittografico (il modello NEAT include il root-of-trust hardware)
  • Software stack: compatibilità della versione del driver MLNX_OFED o della casella di posta in arrivo con il kernel/OS
Prodotti correlati - NVIDIA Networking Ecosystem
  • NVIDIA Quantum-2 NDR InfiniBand Switch (Q9700) - 64 porte 400G
  • NVIDIA BlueField-3 DPU - infrastrutture di data center programmabili
  • ConnectX-6 Dx - 200G dual-port adapter per implementazioni economicamente efficienti
  • Cavi della serie LinkX - 400G DAC/AOC certificati per ConnectX-7
Guida e risorse correlate
  • Manuale utente dell'adattatore PCIe NVIDIA ConnectX-7 (docs.nvidia.com)
  • RDMA su Ethernet convergente (RoCE)
  • GPUDirect Storage Best Practices (Migliori pratiche di archiviazione)
  • Libro bianco sulla tecnologia NVIDIA SHARP

Vuoi conoscere maggiori dettagli su questo prodotto
Sono interessato a NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand Adapter potresti inviarmi maggiori dettagli come tipo, dimensione, quantità, materiale, ecc.
Grazie!
Aspettando la tua risposta.