Scheda InfiniBand NVIDIA ConnectX-7 NDR 400Gb/s MCX75310AAS-HEAT | PCIe Gen5 Dual-Port
Dettagli:
| Marca: | Mellanox |
| Numero di modello: | MCX75310AAS-HEAT (900-9x766-003N-ST0) |
| Documento: | Connectx-7 infiniband.pdf |
Termini di pagamento e spedizione:
| Quantità di ordine minimo: | 1 pz |
|---|---|
| Prezzo: | Negotiate |
| Imballaggi particolari: | Scatola esterna |
| Tempi di consegna: | Basato sull'inventario |
| Termini di pagamento: | T/T |
| Capacità di alimentazione: | Fornitura per progetto/batch |
|
Informazioni dettagliate |
|||
| Modello n.: | MCX75310AAS-HEAT (900-9x766-003N-ST0) | Porti: | Porta singola |
|---|---|---|---|
| Tecnologia: | Infiniband | Tipo di interfaccia: | OSFP56 |
| Specifica: | 16,7 cm x 6,9 cm | Origine: | India / Israele / Cina |
| velocità di trasmissione: | 200 gbe | Interfaccia host: | Gen3 x16 |
Descrizione di prodotto
Networking RDMA a latenza ultra-bassa per fabbriche AI, cluster HPC e cloud hyperscale. Supporta InfiniBand NDR (400 Gb/s) ed Ethernet fino a 400 GbE. Motori di calcolo in-network, accelerazione hardware della sicurezza e pronto per GPUDirect® Storage.
La famiglia NVIDIA ConnectX-7 ridefinisce l'interconnessione dei data center con una larghezza di banda fino a 400 Gb/s, trasporto affidabile basato su hardware e calcolo avanzato in-network. Il modello MCX75310AAS-HEAT appartiene alla serie di adattatori ConnectX-7 VPI che supporta sia InfiniBand (NDR/HDR/EDR) che Ethernet (da 400 GbE a 10 GbE). Costruito per AI, calcolo scientifico e moderni storage software-defined, offre una latenza sub-‑microsecondo e libera core CPU tramite motori di accelerazione per sicurezza, virtualizzazione e NVMe‑oF. Con interfaccia host PCIe Gen5, questo adattatore massimizza il movimento dei dati per cluster GPU e ambienti di trading ad alta frequenza.
Sfruttando ASAP² (Accelerated Switch and Packet Processing) e Zero-Touch RoCE, l'adattatore semplifica il deployment fornendo crittografia hardware inline – dall'edge al core. Le aziende possono rendere a prova di futuro la loro infrastruttura con velocità NDR e supporto flessibile multi‑host.
InfiniBand NDR dual-port da 400 Gb/s o 400 GbE, PCIe Gen5 x16 (fino a 32 corsie).
Operazioni collettive SHARPv3 offload, protocollo rendezvous offload, memoria on‑board per burst.
Crittografia inline IPsec/TLS/MACsec AES-GCM a 128/256 bit, avvio sicuro con root-of-trust hardware, crittografia flash.
IEEE 1588v2 PTP (accuratezza 12 ns), SyncE, classe C G.8273.2, time-triggered pacing.
GPUDirect RDMA, GPUDirect Storage, NVMe‑oF offload, handover firma T10-DIF.
VXLAN, GENEVE, NVGRE, parser flessibile programmabile, tracciamento connessioni (firewall L4).
NVIDIA ASAP² (Accelerated Switch and Packet Processing) scarica interi percorsi dati, offrendo prestazioni SDN a velocità di linea con zero overhead CPU. ConnectX‑7 integra virtualizzazione avanzata della memoria: On‑Demand Paging (ODP), User Mode Registration (UMR) e servizi di traduzione indirizzi (ATS) per carichi di lavoro containerizzati efficienti. Con supporto per SR-IOV, accelerazione VirtIO e tecnologia Multi‑Host (fino a 4 host), l'adattatore abilita prestazioni bare‑metal in ambienti virtualizzati. Il motore hardware RoCE garantisce un deployment zero‑touch per fabric Ethernet convergenti, mentre la memoria in‑network riduce la latenza per le librerie di comunicazione MPI e collettive (NVIDIA HPC-X, UCX, NCCL).
Per affrontare la sicurezza dall'edge al core, i motori di crittografia inline gestiscono IPsec, TLS 1.3 e MACsec senza consumare core di esecuzione, rendendolo ideale per cloud multi‑tenant e servizi finanziari.
- Cluster AI e Large Language Model: RDMA & GPUDirect che accelerano l'addestramento distribuito su centinaia di GPU.
- High‑Performance Computing (HPC): Offload MPI, SHARPv3 per riduzioni in‑network, routing adattivo.
- Data center cloud ed edge: Accelerazione rete overlay, VXLAN offload, SR-IOV.
- Storage software-defined (SDS): NVMe/TCP, NVMe‑oF, iSER, NFS su RDMA.
- Analisi in tempo reale e trading: Latenza ultra-bassa + sincronizzazione PTP classe C.
| Componente / Ecosistema | Opzioni supportate |
|---|---|
| Interfaccia Host | PCIe Gen5 (fino a x32 corsie, x16 tipico), biforcazione PCIe, Multi-Host (4 host) |
| Sistemi operativi | Linux (RHEL, Ubuntu, driver in-box), Windows Server, VMware ESXi (SR-IOV), Kubernetes |
| Virtualizzazione e Container | SR-IOV, accelerazione VirtIO, NVMe over TCP offload per container |
| Middleware / Librerie HPC | OpenMPI, MVAPICH, MPICH, UCX, NCCL, UCC, OpenSHMEM, PGAS |
| Protocolli di Storage | NVMe‑oF (RDMA/TCP), SRP, iSER, NFS su RDMA, SMB Direct, GPUDirect Storage |
| Parametro | Specifiche |
|---|---|
| Modello prodotto | MCX75310AAS-HEAT |
| Form Factor | PCIe HHHL / FHHL, OCP 3.0 SFF/TSFF (fare riferimento alla guida all'ordine) |
| Velocità InfiniBand | NDR 400 Gb/s, HDR 200 Gb/s, EDR 100 Gb/s |
| Velocità Ethernet | 400 GbE, 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE (NRZ/PAM4) |
| Porte di rete | Configurazioni 1/2/4 porte (dipende dallo SKU; 2 porte tipiche per questo modello) |
| Bus Host | PCI Express Gen 5.0 (compatibile con Gen4/Gen3), fino a x32 corsie, suggerimenti elaborazione TLP, ATS, PASID |
| Offload di sicurezza | IPsec inline (AES-GCM 128/256), TLS 1.3, MACsec, avvio sicuro, crittografia flash, attestazione dispositivo |
| RDMA / Trasporto | Trasporto affidabile hardware, XRC, DCT, On-Demand Paging, UMR, GPUDirect RDMA |
| Timing & Sync | IEEE 1588v2 PTP, G.8273.2 Classe C, accuratezza 12 ns, SyncE, PPS in/out, pianificazione time-triggered |
| Gestione | NC-SI, MCTP su PCIe/SMBus, PLDM (DSP0248/0267/0218), SPDM, flash SPI, JTAG |
| Avvio remoto | Avvio remoto InfiniBand, iSCSI, UEFI, PXE |
| Open Networking | ASAP² per SDN, VXLAN/GENEVE/NVGRE offload, mirroring dei flussi, QoS gerarchico, tracciamento connessioni L4 |
| Alimentazione e Ambiente | Fare riferimento al manuale utente (tipico ~15W-25W a seconda della configurazione), temperatura operativa: 0°C - 55°C (non specificato pubblicamente, confermare per SKU) |
| Esempio numero di parte | Porte / Velocità | Form Factor | Uso tipico |
|---|---|---|---|
| MCX75310AAS-HEAT | NDR 400 Gb/s dual-port, PCIe 5.0 x16 | PCIe HHHL / FHHL | AI & HPC Top‑of‑rack, cluster GPU |
| MCX75340AAS-HEAT (esempio) | 4‑port NDR200 / 200 GbE | OCP 3.0 | Hyperscale & multi-host |
| Altri SKU ConnectX-7 | Porta singola/doppia, 100G/200G/400G | OCP, FHHL | Appliance enterprise, storage |
Per assistenza nella scelta dello SKU corretto (supporto cavi, tipo di staffa, staffa alta/bassa) contattare il team Starsurge.
- ✅ Parti originali e certificate – garanzia completa, catena di approvvigionamento sicura.
- ✅ Consulenza architetturale pre‑vendita – progettazione cluster HPC / AI, tuning RDMA.
- ✅ Logistica globale e evasione rapida – scorte in Asia/Europa/Americhe.
- ✅ Firmware personalizzato e opzioni OEM – richiesta configurazione in blocco.
- ✅ Supporto tecnico post‑vendita – integrazione driver, aggiornamenti firmware, RMA.
Hong Kong Starsurge Group fornisce supporto per l'intero ciclo di vita: dalla validazione della compatibilità al deployment e alla manutenzione continua. I nostri ingegneri assistono con:
- Progettazione del fabric InfiniBand e ottimizzazione delle prestazioni.
- Configurazione RoCE per ambienti Ethernet.
- Integrazione con GPUDirect Storage e target NVMe‑oF.
- Garanzia standard di 3 anni più copertura estesa disponibile.
Prezzi per volumi, spedizioni in blocco e personalizzazione (staffa, linguette) sono disponibili su richiesta.
NDR include funzionalità avanzate di calcolo in-network come SHARP, routing adattivo e trasporto affidabile hardware nativamente; la modalità Ethernet utilizza RoCE per RDMA con la stessa velocità di linea. ConnectX-7 supporta entrambi tramite doppia personalità.
Sì, l'adattatore è retrocompatibile con PCIe Gen4 e Gen3, ma a velocità di corsia ridotta. Le migliori prestazioni si ottengono su slot PCIe Gen5.
Sì, ConnectX-7 supporta la tecnologia NVIDIA Multi-Host, consentendo a un massimo di 4 host indipendenti di condividere lo stesso adattatore (dipende dallo SKU specifico e dal cablaggio). Si prega di confermare con la guida all'ordine.
IPsec (AES-GCM a 128/256 bit), TLS (AES-GCM a 128/256 bit) e MACsec (AES-GCM a 128/256 bit). Tutti scaricati dalla CPU.
Assolutamente. ConnectX-7 scarica NVMe over TCP e NVMe‑oF, riducendo l'overhead della CPU host per lo storage.
- Assicurare un flusso d'aria adeguato nel chassis del server quando si utilizzano transceiver ad alta potenza (ottici attivi o DAC).
- Utilizzare il firmware fornito da NVIDIA o convalidato da Starsurge per le correzioni di sicurezza.
- Installare il driver più recente (MLNX_OFED o nativo in-box) per abilitare gli offload hardware completi.
- Verificare la compatibilità QSFP-DD o OSFP per ottiche 400G; fare riferimento alla guida dei transceiver Ethernet NVIDIA.
- È richiesta la manipolazione antistatica – l'adattatore contiene componenti PCIe sensibili.
Hong Kong Starsurge Group Co., Limited è un fornitore di hardware di rete, servizi IT e soluzioni di integrazione di sistemi guidato dalla tecnologia. Fondata nel 2008, l'azienda serve clienti in tutto il mondo con prodotti tra cui switch di rete, NIC, access point wireless, controller, cavi e attrezzature correlate. Supportata da un team di vendita e tecnico esperto, Starsurge supporta settori come governo, sanità, produzione, istruzione, finanza e impresa. L'azienda offre anche soluzioni IoT, sistemi di gestione di rete, sviluppo software personalizzato, supporto multilingue e consegna globale. Con un approccio incentrato sul cliente, Starsurge si concentra su qualità affidabile, servizio reattivo e soluzioni su misura che aiutano i clienti a costruire un'infrastruttura di rete efficiente, scalabile e affidabile.
✓ Partner autorizzato per marchi leader, inclusi i prodotti di rete NVIDIA.
| Throughput massimo | 400 Gb/s (NDR / 400 GbE) | PCIe Gen5 | Fino a 32 corsie |
|---|---|---|---|
| Supporto RDMA | InfiniBand & RoCE | Sicurezza | IPsec/TLS/MACsec inline |
| GPUDirect | RDMA + Storage | Accuratezza del timing | PTP 12 ns |
| Componente | Raccomandato / Supportato | Note |
|---|---|---|
| Server GPU (HGX/DGX) | Pienamente compatibile con GPUDirect | Offload SHARP su InfiniBand |
| Switch Top-of-Rack | NVIDIA QM9700 (NDR), SN4000 (Ethernet) | Supportato |
| Host di virtualizzazione | VMware ESXi 7.0/8.0, KVM, Hyper-V | SR-IOV abilitato |
| Sistemi di storage | PureStorage, VAST Data, WEKA, Dell PowerScale | NVMe-oF / RoCE pronto |
| Cavi / Ottiche | NVIDIA DAC in rame passivo, ottici attivi (400G SR4/DR4) | Confermare la matrice di compatibilità |
- Confermare la configurazione delle porte (NDR a 2 porte o 2x200G suddivise) che corrisponde al piano dello switch.
- Confermare la lunghezza fisica dello slot PCIe e il tipo di staffa (HHHL / FHHL).
- Verificare la direzione del flusso d'aria e i requisiti dei cavi passivi/attivi.
- Assicurare il supporto del driver del sistema operativo (versione MLNX_OFED per il kernel in uso).
- Per le funzionalità di sicurezza: abilitare l'avvio sicuro e la crittografia inline nel firmware.
- Rivedere la garanzia e le opzioni di sostituzione anticipata.
64 porte 400G InfiniBand, integrazione SHARPv3.
200 Gb/s conveniente per cluster più piccoli.
Accelerazione storage e sicurezza + percorso dati programmabile.
OSFP compatibile a 2xOSFP o 2xQSFP56.







