NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand Adapter
Dettagli:
| Marca: | Mellanox |
| Numero di modello: | MCX75310AAS-NEAT (900-9x766-003N-SQ0) |
| Documento: | Connectx-7 infiniband.pdf |
Termini di pagamento e spedizione:
| Quantità di ordine minimo: | 1 pz |
|---|---|
| Prezzo: | Negotiate |
| Imballaggi particolari: | Scatola esterna |
| Tempi di consegna: | Basato sull'inventario |
| Termini di pagamento: | T/T |
| Capacità di alimentazione: | Fornitura per progetto/batch |
|
Informazioni dettagliate |
|||
| Modello n.: | MCX75310AAS-NEAT (900-9x766-003N-SQ0) | Porti: | Porta singola |
|---|---|---|---|
| Tecnologia: | Infiniband | Tipo di interfaccia: | OSFP56 |
| Specifica: | 16,7 cm x 6,9 cm | Origine: | India / Israele / Cina |
| velocità di trasmissione: | 400GBE | Interfaccia host: | Gen3 x16 |
| Evidenziare: | Scheda InfiniBand NVIDIA ConnectX-7,Carta di rete Mellanox 400Gb/s,Adaptatore NDR InfiniBand con garanzia |
||
Descrizione di prodotto
L'NVIDIA ConnectX-7 MCX75310AAS-NEAT è un adattatore intelligente NDR 400Gb/s InfiniBand con interfaccia PCIe Gen5 x16 sia per InfiniBand che per RoCE.e data center cloud a iperescala, questo adattatore ad ultra bassa latenza integra l'informatica in rete, la sicurezza dell'hardware,e la virtualizzazione avanzata per accelerare l'elaborazione scientifica moderna e le infrastrutture definite da software.
La famiglia NVIDIA ConnectX-7 offre prestazioni rivoluzionarie con larghezza di banda fino a 400Gb/s per porta, supportando sia InfiniBand (NDR/HDR/EDR) che Ethernet (fino a 400GbE).MCX75310AAS-NEATpresenta l'interfaccia host PCIe Gen5 (fino a corsie x32), la capacità di multi-host e motori avanzati per GPUDirect RDMA, accelerazione NVMe-oF e crittografia in linea.simulazione, e analisi in tempo reale, questo adattatore riduce le spese generali della CPU massimizzando al contempo la capacità di trasmissione e la sicurezza dei dati.
Con la memoria di bordo per lo scarico di rendezvous, l'accelerazione collettiva SHARP e gli scarichi SDN ASAP2,ConnectX-7 trasforma i server standard in nodi di rete ad alte prestazioni con jitter vicino a zero e tempistica di precisione di nanosecondi (IEEE 1588v2 Classe C).
- NDR InfiniBand e 400GbE pronti- fino a 400 Gb/s di larghezza di banda totale, supporta NDR, HDR, EDR InfiniBand e 400/200/100/50/25/10GbE
- PCIe Gen5 x16 (fino a 32 corsie)- Interfaccia host ad alto throughput con suggerimenti di elaborazione TLP, ATS, PASID e SR-IOV
- Informatica in rete- Discarico hardware delle operazioni collettive (SHARP), protocollo di incontro, discarico del buffer di scoppio
- GPUDirect RDMA & GPUDirect Storage- percorso di dati diretto da GPU a NIC, accelerando l'apprendimento profondo e l'analisi dei dati
- Motori di sicurezza hardware- Crittografia/decrittografia IPsec/TLS/MACsec in linea (AES-GCM 128/256-bit) + avvio sicuro con root-of-trust hardware
- Accelerazione avanzata di memorizzazione- NVMe-oF (via Fabrics/TCP), NVMe/TCP offload, trasferimento della firma T10-DIF, iSER, NFS su RDMA
- ASAP2 SDN & VirtIO Accelerazione- OVS offload, incapsulamento VXLAN/GENEVA/NVGRE, tracciamento delle connessioni e parser programmabile
- Tempismo preciso- PTP (IEEE 1588v2) con precisione di 12 ns, SyncE, programmazione azionata dal tempo, pacing dei pacchetti
Basato su un processo a 7 nm, ConnectX-7 integra più motori di accelerazione hardware che scaricano la CPU e offrono prestazioni deterministiche.
- RDMA su Ethernet convergente (RoCE)- RoCE a zero contatto per tessuti Ethernet a bassa latenza
- Trasporti dinamicamente connessi (DCT) e XRC- Comunicazione MPI e HPC efficiente
- Paging on-demand (ODP) e registrazione della memoria utente (UMR)- Semplifica la gestione della memoria per applicazioni su larga scala
- Protocollo di aggregazione e riduzione gerarchica scalabile (SHARP)- Riduzione dei dati in rete per i collettivi MPI
- Tecnologia multi-host- Consente fino a 4 host indipendenti di condividere un unico adattatore, ottimizzando l'utilizzo del server
- Gestibilità PLDM e SPDM- Aggiornamento del firmware, monitoraggio e attestazione dei dispositivi per la sicurezza aziendale
- Cluster di AI e apprendimento automatico- formazione su larga scala con NCCL, UCX e GPUDirect RDMA
- Simulazione e ricerca HPC- Modellazione meteorologica, genomica, dinamica molecolare che richiede MPI a bassa latenza
- Hyperscale Cloud e SDDC- Rete sovrapposte, accelerazione NFV, multi-tenancy sicuro (SR-IOV)
- Sistemi di archiviazione aziendali- NVMe-oF target offload e sistemi di file distribuiti (Lustre, GPUDirect Storage)
- 5G Edge & Telecom- Infrastrutture sensibili al tempo con sicurezza PTP e MACsec di classe C
Sistemi operativi e virtualizzazione:Driver integrati per Linux (RHEL, Ubuntu, Rocky Linux), Windows Server, VMware ESXi (SR-IOV) e Kubernetes (plug-in CNI). Ottimizzati per NVIDIA HPC-X, UCX, OpenMPI, MVAPICH, MPICH, OpenSHMEM, NCCL,e UCC.
Compatibilità hardware:Scatene PCIe Gen5 standard (x16 meccaniche, x16/x32 elettriche). Certificate con le principali piattaforme server di Dell, HPE, Supermicro, Lenovo e sistemi NVIDIA DGX.
Interoperabilità:Completamente conforme alla specifica 1 dell'InfiniBand Trade Association.5, IEEE 802.3 per Ethernet e PCI-SIG Gen5 specifiche.
| Parametro | Dettaglio |
|---|---|
| Modello di prodotto | MCX75310AAS-NEAT |
| Fattore di forma | PCIe HHHL (Mezza altezza Mezza lunghezza), compreso il supporto FHHL |
| Interfaccia dell'host | PCIe Gen5.0 x16 (fino a 32 corsie, con supporto per bifurcazione e multi-host) |
| Protocolli di rete | InfiniBand (NDR/HDR/EDR) e Ethernet (400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE) |
| Configurazione della porta | QSFP-DD a singola porta (supporta 1x 400G NDR o 2x 200G split; conferma la densità di porta per SKU) |
| Velocità in banda infinita | NDR 400 Gbps, HDR 200 Gbps, EDR 100 Gbps, FDR (compatibile) |
| Velocità Ethernet | 400/200/100/50/25/10GbE NRZ/PAM4 |
| Memoria di bordo | Memoria integrata in rete per il rendezvous offload e il burst buffer |
| Sgomberata di sicurezza | Inline IPsec, TLS, MACsec (AES-GCM 128/256-bit), Secure Boot, Flash Encryption |
| Discariche di stoccaggio | NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, SRP, iSER, NFS su RDMA, SMB Direct |
| Timing e sincronizzazione | IEEE 1588v2 PTP (12ns di precisione), SyncE, PPS programmabile, programmazione azionata dal tempo |
| Virtualizzazione | SR-IOV, accelerazione VirtIO, VXLAN/NVGRE/GENEVE offload, tracciamento delle connessioni (firewall L4) |
| Gestibilità | NC-SI, MCTP su SMBus/PCIe, PLDM (Monitor/Firmware/FRU/Redfish), SPDM, flash SPI, JTAG |
| Avvio remoto | InfiniBand boot, iSCSI, UEFI, PXE |
| Consumo di energia | Non specificato pubblicamente - gli adattatori tipici ad alte prestazioni richiedono un flusso d'aria adeguato; si prega di confermare prima di ordinare |
| Temperatura di funzionamento | 0°C a 55°C (con adeguato raffreddamento del telaio) |
| Modello (parziale) | Port/Velocità | Interfaccia dell'host | Fattore di forma | Caso di utilizzo |
|---|---|---|---|---|
| MCX75310AAS-NEAT | 1x NDR 400Gb/s InfiniBand/Ethernet | PCIe Gen5 x16 | HHHL | AI, HPC, Cloud - fiore all'occhiello con Multi-Host e avvio sicuro |
| MCX75310AAS-NCAT | 1x NDR 400Gb/s | PCIe Gen5 x16 | HHHL | Set di funzionalità simili con criptovaluta abilitata |
| MCX75510AAS-NEAT | 2x NDR 200 Gb/s o 1x 400 Gb/s | PCIe Gen5 x16 | FHHL | Doppia porta per la ridondanza |
| Variante OCP 3.0 | Fino a 2x 200Gb/s | PCIe Gen5 x16 | OCP 3.0 SFF | Piattaforme OCP a iperscala |
Per i codici di ordinazione esatti e le configurazioni personalizzate, consultare il manuale ufficiale dell'adattatore ConnectX-7 PCIe (docs.nvidia.com) o contattare Hong Kong Starsurge Group.
Costo totale di proprietà più basso- Scarica la CPU da attività di rete, storage e sicurezza... riducendo i costi di alimentazione e raffreddamento per Gb/s.
Larghezza di banda pronta per il futuro- Il supporto per PCIe Gen5 e NDR 400G elimina i colli di bottiglia per i server GPU di nuova generazione e i cluster AI.
Sicurezza aziendale- La crittografia hardware in linea (IPsec/TLS/MACsec) e la catena di fiducia sicura soddisfano i requisiti (FIPS, DoD).
Integrazione senza soluzione di continuità- Compatibilità completa con le principali distribuzioni, ipervisori e piattaforme di orchestrazione dei container.
Hong Kong Starsurge Group fornisce supporto end-to-end per il ciclo di vita: guida architettonica pre-vendita, convalida della compatibilità, gestione della garanzia e servizi RMA.Il nostro team tecnico assiste con la regolazione del driverGaranzia standard: supporto hardware limitato di 3 anni con copertura estesa opzionale. Spedizione globale e assistenza tecnica multilingue sono disponibili.
- Assicurarsi che la scheda madre del server fornisca uno slot PCIe Gen5 con un raffreddamento adeguato (circolazione dell'aria attiva raccomandata per il funzionamento 400G)
- Per le configurazioni multi-host, verificare i requisiti di supporto della piattaforma e di cablaggio (potrebbero essere necessari cavi splitter)
- Moduli ottici / cavi DAC sono venduti separatamente; utilizzare trasmettitori NVIDIA-qualificati per la conformità
- Consumo energetico massimo non pubblicato da NVIDIA; il tipico design termico presuppone un range di 25W-30W sotto carico pesante, verificate con la guida termica del telaio
- Per le funzionalità crittografiche (offload IPsec/TLS) può essere richiesta una licenza aggiuntiva; si prega di confermare con le vendite
Fondata nel 2008, Starsurge è un fornitore tecnologico di hardware di rete, servizi IT e integrazione di sistemi.e sviluppo software personalizzatoSostenuta da esperti team di vendita e tecnici, Starsurge supporta i settori governativo, sanitario, finanziario, manifatturiero, educativo e aziendale.Il nostro approccio basato sul cliente garantisce una qualità affidabile, logistica reattiva e soluzioni infrastrutturali su misura in tutto il mondo.
In qualità di partner autorizzato dei principali marchi di networking, Starsurge offre consulenza professionale pre-vendita, consegna globale e supporto multilingue per aiutarti a costruire reti scalabili ed efficienti.
- Trasmissione massima:400 Gb/s per porta
- PCIe Gen5:Fino a 32 GT/s
- Supporto RDMA:InfiniBand & RoCE
- Sicurezza:Inline IPsec/TLS/MACsec
- NVIDIA SHARP:Aggregazione in rete
- GPUDirect:RDMA + memorizzazione
| Componente / Ecosistema | Sostenuto | Altre note |
|---|---|---|
| NVIDIA DGX H100 / GH200 | - Sì, sì. | Certificato |
| VMware vSphere / ESXi | Sì (SR-IOV) | Incluso il supporto del conducente |
| Kernel Linux 5.x+ | Sì (in scatola) | MLNX_OFED raccomandato |
| Windows Server 2022 | - Sì, sì. | RDMA / RoCE nativo |
| Kubernetes / CNI | - Sì, sì. | Multus, SR-IOV CNI |
| OpenMPI / MVAPICH | - Sì, sì. | Ottimizzato per i verbi InfiniBand |
- Verificare la piattaforma host: slot PCIe Gen5 (o Gen4 con compatibilità con il passato ma larghezza di banda limitata)
- Confermare il tipo di cavo: 400G NDR (OSFP/QSFP-DD) o splitter per 2x200G
- Verificare il raffreddamento: l'adattatore ad alta potenza richiede almeno 300 LFM di flusso d'aria
- Per le funzionalità di sicurezza: confermare se è necessario l'avvio sicuro e il crittografico (il modello NEAT include il root-of-trust hardware)
- Software stack: compatibilità della versione del driver MLNX_OFED o della casella di posta in arrivo con il kernel/OS
- NVIDIA Quantum-2 NDR InfiniBand Switch (Q9700) - 64 porte 400G
- NVIDIA BlueField-3 DPU - infrastrutture di data center programmabili
- ConnectX-6 Dx - 200G dual-port adapter per implementazioni economicamente efficienti
- Cavi della serie LinkX - 400G DAC/AOC certificati per ConnectX-7
- Manuale utente dell'adattatore PCIe NVIDIA ConnectX-7 (docs.nvidia.com)
- RDMA su Ethernet convergente (RoCE)
- GPUDirect Storage Best Practices (Migliori pratiche di archiviazione)
- Libro bianco sulla tecnologia NVIDIA SHARP







