Scheda InfiniBand NVIDIA ConnectX-7 NDR 400Gb/s MCX75310AAS-HEAT | PCIe Gen5 Dual-Port

Dettagli:

Marca: Mellanox
Numero di modello: MCX75310AAS-HEAT (900-9x766-003N-ST0)
Documento: Connectx-7 infiniband.pdf

Termini di pagamento e spedizione:

Quantità di ordine minimo: 1 pz
Prezzo: Negotiate
Imballaggi particolari: Scatola esterna
Tempi di consegna: Basato sull'inventario
Termini di pagamento: T/T
Capacità di alimentazione: Fornitura per progetto/batch
Miglior prezzo Contatto

Informazioni dettagliate

Modello n.: MCX75310AAS-HEAT (900-9x766-003N-ST0) Porti: Porta singola
Tecnologia: Infiniband Tipo di interfaccia: OSFP56
Specifica: 16,7 cm x 6,9 cm Origine: India / Israele / Cina
velocità di trasmissione: 200 gbe Interfaccia host: Gen3 x16

Descrizione di prodotto

Adattatore Smart InfiniBand NVIDIA ConnectX-7 NDR da 400 Gb/s
MCX75310AAS-HEAT | PCIe Gen5 Dual-Port 400GbE / NDR

Networking RDMA a latenza ultra-bassa per fabbriche AI, cluster HPC e cloud hyperscale. Supporta InfiniBand NDR (400 Gb/s) ed Ethernet fino a 400 GbE. Motori di calcolo in-network, accelerazione hardware della sicurezza e pronto per GPUDirect® Storage.

✓ PCIe 5.0 x16 ✓ RoCE & InfiniBand ✓ Avvio sicuro + IPsec/TLS/MACsec inline ✓ Offload collettivi SHARPv3
Panoramica del prodotto

La famiglia NVIDIA ConnectX-7 ridefinisce l'interconnessione dei data center con una larghezza di banda fino a 400 Gb/s, trasporto affidabile basato su hardware e calcolo avanzato in-network. Il modello MCX75310AAS-HEAT appartiene alla serie di adattatori ConnectX-7 VPI che supporta sia InfiniBand (NDR/HDR/EDR) che Ethernet (da 400 GbE a 10 GbE). Costruito per AI, calcolo scientifico e moderni storage software-defined, offre una latenza sub-‑microsecondo e libera core CPU tramite motori di accelerazione per sicurezza, virtualizzazione e NVMe‑oF. Con interfaccia host PCIe Gen5, questo adattatore massimizza il movimento dei dati per cluster GPU e ambienti di trading ad alta frequenza.

Sfruttando ASAP² (Accelerated Switch and Packet Processing) e Zero-Touch RoCE, l'adattatore semplifica il deployment fornendo crittografia hardware inline – dall'edge al core. Le aziende possono rendere a prova di futuro la loro infrastruttura con velocità NDR e supporto flessibile multi‑host.

Caratteristiche principali
 Throughput ultra-elevato

InfiniBand NDR dual-port da 400 Gb/s o 400 GbE, PCIe Gen5 x16 (fino a 32 corsie).

 Calcolo in-network

Operazioni collettive SHARPv3 offload, protocollo rendezvous offload, memoria on‑board per burst.

 Motori di sicurezza hardware

Crittografia inline IPsec/TLS/MACsec AES-GCM a 128/256 bit, avvio sicuro con root-of-trust hardware, crittografia flash.

 Timing di precisione

IEEE 1588v2 PTP (accuratezza 12 ns), SyncE, classe C G.8273.2, time-triggered pacing.

 Storage accelerato & GPUDirect

GPUDirect RDMA, GPUDirect Storage, NVMe‑oF offload, handover firma T10-DIF.

 Offload SDN & Overlay

VXLAN, GENEVE, NVGRE, parser flessibile programmabile, tracciamento connessioni (firewall L4).

Tecnologia – Costruito per l'accelerazione guidata dai dati

NVIDIA ASAP² (Accelerated Switch and Packet Processing) scarica interi percorsi dati, offrendo prestazioni SDN a velocità di linea con zero overhead CPU. ConnectX‑7 integra virtualizzazione avanzata della memoria: On‑Demand Paging (ODP), User Mode Registration (UMR) e servizi di traduzione indirizzi (ATS) per carichi di lavoro containerizzati efficienti. Con supporto per SR-IOV, accelerazione VirtIO e tecnologia Multi‑Host (fino a 4 host), l'adattatore abilita prestazioni bare‑metal in ambienti virtualizzati. Il motore hardware RoCE garantisce un deployment zero‑touch per fabric Ethernet convergenti, mentre la memoria in‑network riduce la latenza per le librerie di comunicazione MPI e collettive (NVIDIA HPC-X, UCX, NCCL).

Per affrontare la sicurezza dall'edge al core, i motori di crittografia inline gestiscono IPsec, TLS 1.3 e MACsec senza consumare core di esecuzione, rendendolo ideale per cloud multi‑tenant e servizi finanziari.

Deployment tipici
  • Cluster AI e Large Language Model: RDMA & GPUDirect che accelerano l'addestramento distribuito su centinaia di GPU.
  • High‑Performance Computing (HPC): Offload MPI, SHARPv3 per riduzioni in‑network, routing adattivo.
  • Data center cloud ed edge: Accelerazione rete overlay, VXLAN offload, SR-IOV.
  • Storage software-defined (SDS): NVMe/TCP, NVMe‑oF, iSER, NFS su RDMA.
  • Analisi in tempo reale e trading: Latenza ultra-bassa + sincronizzazione PTP classe C.
Compatibilità
Componente / Ecosistema Opzioni supportate
Interfaccia Host PCIe Gen5 (fino a x32 corsie, x16 tipico), biforcazione PCIe, Multi-Host (4 host)
Sistemi operativi Linux (RHEL, Ubuntu, driver in-box), Windows Server, VMware ESXi (SR-IOV), Kubernetes
Virtualizzazione e Container SR-IOV, accelerazione VirtIO, NVMe over TCP offload per container
Middleware / Librerie HPC OpenMPI, MVAPICH, MPICH, UCX, NCCL, UCC, OpenSHMEM, PGAS
Protocolli di Storage NVMe‑oF (RDMA/TCP), SRP, iSER, NFS su RDMA, SMB Direct, GPUDirect Storage
Specifiche tecniche
Parametro Specifiche
Modello prodotto MCX75310AAS-HEAT
Form Factor PCIe HHHL / FHHL, OCP 3.0 SFF/TSFF (fare riferimento alla guida all'ordine)
Velocità InfiniBand NDR 400 Gb/s, HDR 200 Gb/s, EDR 100 Gb/s
Velocità Ethernet 400 GbE, 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE (NRZ/PAM4)
Porte di rete Configurazioni 1/2/4 porte (dipende dallo SKU; 2 porte tipiche per questo modello)
Bus Host PCI Express Gen 5.0 (compatibile con Gen4/Gen3), fino a x32 corsie, suggerimenti elaborazione TLP, ATS, PASID
Offload di sicurezza IPsec inline (AES-GCM 128/256), TLS 1.3, MACsec, avvio sicuro, crittografia flash, attestazione dispositivo
RDMA / Trasporto Trasporto affidabile hardware, XRC, DCT, On-Demand Paging, UMR, GPUDirect RDMA
Timing & Sync IEEE 1588v2 PTP, G.8273.2 Classe C, accuratezza 12 ns, SyncE, PPS in/out, pianificazione time-triggered
Gestione NC-SI, MCTP su PCIe/SMBus, PLDM (DSP0248/0267/0218), SPDM, flash SPI, JTAG
Avvio remoto Avvio remoto InfiniBand, iSCSI, UEFI, PXE
Open Networking ASAP² per SDN, VXLAN/GENEVE/NVGRE offload, mirroring dei flussi, QoS gerarchico, tracciamento connessioni L4
Alimentazione e Ambiente Fare riferimento al manuale utente (tipico ~15W-25W a seconda della configurazione), temperatura operativa: 0°C - 55°C (non specificato pubblicamente, confermare per SKU)
Nota: le specifiche complete variano in base allo SKU esatto. Si prega di confermare il numero di porte e il supporto dei cavi con la scheda tecnica ufficiale o il team di vendita.
Guida alla selezione – Adattatori ConnectX-7 VPI
Esempio numero di parte Porte / Velocità Form Factor Uso tipico
MCX75310AAS-HEAT NDR 400 Gb/s dual-port, PCIe 5.0 x16 PCIe HHHL / FHHL AI & HPC Top‑of‑rack, cluster GPU
MCX75340AAS-HEAT (esempio) 4‑port NDR200 / 200 GbE OCP 3.0 Hyperscale & multi-host
Altri SKU ConnectX-7 Porta singola/doppia, 100G/200G/400G OCP, FHHL Appliance enterprise, storage

Per assistenza nella scelta dello SKU corretto (supporto cavi, tipo di staffa, staffa alta/bassa) contattare il team Starsurge.

Vantaggi – Perché scegliere Starsurge + NVIDIA ConnectX-7
  • Parti originali e certificate – garanzia completa, catena di approvvigionamento sicura.
  • Consulenza architetturale pre‑vendita – progettazione cluster HPC / AI, tuning RDMA.
  • Logistica globale e evasione rapida – scorte in Asia/Europa/Americhe.
  • Firmware personalizzato e opzioni OEM – richiesta configurazione in blocco.
  • Supporto tecnico post‑vendita – integrazione driver, aggiornamenti firmware, RMA.
Servizio e Supporto

Hong Kong Starsurge Group fornisce supporto per l'intero ciclo di vita: dalla validazione della compatibilità al deployment e alla manutenzione continua. I nostri ingegneri assistono con:

  • Progettazione del fabric InfiniBand e ottimizzazione delle prestazioni.
  • Configurazione RoCE per ambienti Ethernet.
  • Integrazione con GPUDirect Storage e target NVMe‑oF.
  • Garanzia standard di 3 anni più copertura estesa disponibile.

Prezzi per volumi, spedizioni in blocco e personalizzazione (staffa, linguette) sono disponibili su richiesta.

Domande frequenti
1. Qual è la differenza principale tra la modalità NDR InfiniBand e 400GbE?

NDR include funzionalità avanzate di calcolo in-network come SHARP, routing adattivo e trasporto affidabile hardware nativamente; la modalità Ethernet utilizza RoCE per RDMA con la stessa velocità di linea. ConnectX-7 supporta entrambi tramite doppia personalità.

2. L'MCX75310AAS-HEAT è compatibile con schede madri PCIe Gen4?

Sì, l'adattatore è retrocompatibile con PCIe Gen4 e Gen3, ma a velocità di corsia ridotta. Le migliori prestazioni si ottengono su slot PCIe Gen5.

3. Questo modello supporta Multi‑Host?

Sì, ConnectX-7 supporta la tecnologia NVIDIA Multi-Host, consentendo a un massimo di 4 host indipendenti di condividere lo stesso adattatore (dipende dallo SKU specifico e dal cablaggio). Si prega di confermare con la guida all'ordine.

4. Quali standard di crittografia sono accelerati inline?

IPsec (AES-GCM a 128/256 bit), TLS (AES-GCM a 128/256 bit) e MACsec (AES-GCM a 128/256 bit). Tutti scaricati dalla CPU.

5. Posso usare questo adattatore per l'accelerazione NVMe/TCP?

Assolutamente. ConnectX-7 scarica NVMe over TCP e NVMe‑oF, riducendo l'overhead della CPU host per lo storage.

Precauzioni e note di installazione
  • Assicurare un flusso d'aria adeguato nel chassis del server quando si utilizzano transceiver ad alta potenza (ottici attivi o DAC).
  • Utilizzare il firmware fornito da NVIDIA o convalidato da Starsurge per le correzioni di sicurezza.
  • Installare il driver più recente (MLNX_OFED o nativo in-box) per abilitare gli offload hardware completi.
  • Verificare la compatibilità QSFP-DD o OSFP per ottiche 400G; fare riferimento alla guida dei transceiver Ethernet NVIDIA.
  • È richiesta la manipolazione antistatica – l'adattatore contiene componenti PCIe sensibili.
Introduzione all'azienda
Scheda InfiniBand NVIDIA ConnectX-7 NDR 400Gb/s MCX75310AAS-HEAT | PCIe Gen5 Dual-Port 0

Hong Kong Starsurge Group Co., Limited è un fornitore di hardware di rete, servizi IT e soluzioni di integrazione di sistemi guidato dalla tecnologia. Fondata nel 2008, l'azienda serve clienti in tutto il mondo con prodotti tra cui switch di rete, NIC, access point wireless, controller, cavi e attrezzature correlate. Supportata da un team di vendita e tecnico esperto, Starsurge supporta settori come governo, sanità, produzione, istruzione, finanza e impresa. L'azienda offre anche soluzioni IoT, sistemi di gestione di rete, sviluppo software personalizzato, supporto multilingue e consegna globale. Con un approccio incentrato sul cliente, Starsurge si concentra su qualità affidabile, servizio reattivo e soluzioni su misura che aiutano i clienti a costruire un'infrastruttura di rete efficiente, scalabile e affidabile.

✓ Partner autorizzato per marchi leader, inclusi i prodotti di rete NVIDIA.

Fatti chiave – A colpo d'occhio
Throughput massimo 400 Gb/s (NDR / 400 GbE) PCIe Gen5 Fino a 32 corsie
Supporto RDMA InfiniBand & RoCE Sicurezza IPsec/TLS/MACsec inline
GPUDirect RDMA + Storage Accuratezza del timing PTP 12 ns
Matrice di compatibilità – Riferimento rapido
Componente Raccomandato / Supportato Note
Server GPU (HGX/DGX) Pienamente compatibile con GPUDirect Offload SHARP su InfiniBand
Switch Top-of-Rack NVIDIA QM9700 (NDR), SN4000 (Ethernet) Supportato
Host di virtualizzazione VMware ESXi 7.0/8.0, KVM, Hyper-V SR-IOV abilitato
Sistemi di storage PureStorage, VAST Data, WEKA, Dell PowerScale NVMe-oF / RoCE pronto
Cavi / Ottiche NVIDIA DAC in rame passivo, ottici attivi (400G SR4/DR4) Confermare la matrice di compatibilità
Checklist acquirente – MCX75310AAS-HEAT
  • Confermare la configurazione delle porte (NDR a 2 porte o 2x200G suddivise) che corrisponde al piano dello switch.
  • Confermare la lunghezza fisica dello slot PCIe e il tipo di staffa (HHHL / FHHL).
  • Verificare la direzione del flusso d'aria e i requisiti dei cavi passivi/attivi.
  • Assicurare il supporto del driver del sistema operativo (versione MLNX_OFED per il kernel in uso).
  • Per le funzionalità di sicurezza: abilitare l'avvio sicuro e la crittografia inline nel firmware.
  • Rivedere la garanzia e le opzioni di sostituzione anticipata.
Prodotti correlati
Switch NVIDIA Quantum-2 NDR

64 porte 400G InfiniBand, integrazione SHARPv3.

Adattatore ConnectX-6 HDR 200G

200 Gb/s conveniente per cluster più piccoli.

DPU NVIDIA BlueField-3

Accelerazione storage e sicurezza + percorso dati programmabile.

Cavi DAC / AOC 400G

OSFP compatibile a 2xOSFP o 2xQSFP56.

Vuoi conoscere maggiori dettagli su questo prodotto
Sono interessato a Scheda InfiniBand NVIDIA ConnectX-7 NDR 400Gb/s MCX75310AAS-HEAT | PCIe Gen5 Dual-Port potresti inviarmi maggiori dettagli come tipo, dimensione, quantità, materiale, ecc.
Grazie!
Aspettando la tua risposta.