Scheda di rete NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT 100Gb/s InfiniBand Dual-Port con capacità Ethernet
Dettagli:
| Marca: | Mellanox |
| Numero di modello: | MCX653106A-ECAT |
| Documento: | connectx-6-infiniband.pdf |
Termini di pagamento e spedizione:
| Quantità di ordine minimo: | 1 pz |
|---|---|
| Prezzo: | Negotiate |
| Imballaggi particolari: | Scatola esterna |
| Tempi di consegna: | Basato sull'inventario |
| Termini di pagamento: | T/T |
| Capacità di alimentazione: | Fornitura per progetto/batch |
|
Informazioni dettagliate |
|||
| Stato dei prodotti: | Azione | Applicazione: | Server |
|---|---|---|---|
| Tipo di interfaccia:: | Infiniband | Porti: | Doppio |
| Velocità massima: | 100 gbe | Tipo: | Cablato |
| Condizione: | Nuovo e originale | Tempo di garanzia: | 1 anno |
| Modello: | MCX653106A-ECAT | Nome: | Doppia porta del NIC ConnectX- 6 VPI Hdr100 Edr Ib di MCX653106A-ECAT Mellanox 100gb |
| Parola chiave: | scheda di rete Mellanox | ||
| Evidenziare: | Scheda di rete Mellanox ConnectX-6,Scheda InfiniBand Ethernet 100Gb/s,Scheda di rete Mellanox dual-port |
||
Descrizione di prodotto
versatile doppia porta 100Gb/s InfiniBand e scheda di adattatore Ethernet con interfaccia PCIe 3.0/4.0 x16 fornire RDMA, NVMe-oF offload, crittografia a livello di blocco,e di elaborazione in rete per HPC ottimizzato in termini di costi, aziendali e di distribuzione cloud.
- connessione InfiniBand (EDR/HDR100) a doppia porta da 100 Gb/s e connessione 100/50/40/25/10 GbE
- PCIe Gen 3.0/4.0 x16 (compatibile con il passato)
- Discariche hardware: obiettivo/iniziatore NVMe-oF, crittografia a 256/512 bit XTS-AES, abbinamento di tag MPI
- NVIDIA In-Network Computing e GPUDirect RDMA
- Fattore di forma PCIe stand-up a basso profilo, conforme alla RoHS
- 100 Gbit/s Trasmissione:Portature doppie che funzionano a velocità fino a 100 Gb/s InfiniBand (EDR/HDR100) o Ethernet con larghezza di banda bidirezionale completa.
- Informatica in rete:Offloads operazioni collettive (MPI, NCCL, SHMEM) utilizzando la tecnologia NVIDIA SHARP.
- Crittografia a livello di blocco:Hardware AES-XTS 256/512 bit di crittografia/decrittografia senza spese generali di CPU; conforme a FIPS.
- NVMe-oF Sgomberati:Il bersaglio e l'iniziatore si scaricano per NVMe su Fabrics, riducendo l'utilizzo della CPU.
- Virtualizzazione avanzataSR-IOV fino a 1K VF, accelerazione ASAP2 per OVS e commutazione virtuale.
Il MCX653106A-ECAT integraNVIDIA In-Network Computingmotori (SHARP),RDMA (IBTA 1.3),RoCE, eNVMe-oFSupportaPCIe Gen 4.0 (x16) e Gen 3.0,PAM4 e NRZ SerDes, e funzionalità avanzate comeTrasporti dinamicamente connessi (DCT),Paging su richiesta (ODP), eRouting adattivo. Gli overlay offload per VXLAN, NVGRE, Geneve sono accelerati da hardware. Conformi alle specifiche IEEE 802.3bj, 802.3bm, 802.3by e InfiniBand Trade Association.
ConnectX-6 trasferisce le attività di comunicazione e di archiviazione dalla CPU host all'hardware dell'adattatore.Per la conservazione, i comandi NVMe-oF vengono elaborati direttamente sull'adattatore, liberando i core della CPU.minore latenza, maggiore velocità dei messaggi (215 Mpps) e migliore scalabilità delle applicazioniAnche a velocità di 100 Gb/s.
- Cluster HPC a medio raggio:Simulazioni basate su MPI che richiedono un'interconnessione economica a 100 Gb/s.
- Intelligenza artificiale:Cluster GPU con gruppi GPUDirect RDMA e NCCL.
- Immagazzinamento NVMe-oF:Discarico del bersaglio/iniziatore per l'accesso all'archiviazione NVMe ad alte prestazioni.
- Centri dati virtualizzati:SR-IOV e ASAP2 per il discarico OVS in NFV e cloud.
- Enterprise Cloud:Connettività Ethernet da 100 Gb per la virtualizzazione e la convergenza dello storage.
| Modello | Porti e velocità | Interfaccia dell'host | Fattore di forma | Crittografia | Protocolli | OPN |
|---|---|---|---|---|---|---|
| ConnectX-6 | 2x QSFP56 (100Gb/s IB/Eth) | PCIe 3.0/4.0 x16 | PCIe stand-up (basso profilo) | AES-XTS 256/512 bit | InfiniBand, Ethernet, NVMe-oF | MCX653106A-ECAT |
| ConnectX-6 | 1x QSFP56 (100Gb/s) | PCIe 4.0 x8 | PCIe stand-up | AES-XTS | IB/Eth | MCX651105A-EDAT |
| ConnectX-6 | 2x QSFP56 (200Gb/s) | PCIe 4.0 x16 | PCIe stand-up | AES-XTS | IB/Eth | MCX653106A-HDAT |
Nota: MCX653106A-ECAT supporta 100Gb/s InfiniBand (EDR/HDR100) e 100/50/25/10GbE. Dimensioni: 167.65mm x 68.90mm (senza supporto).Consumo energetico < 15 W tipico.
- contro ConnectX-5:Doppio della larghezza di banda (100Gb/s contro 50Gb/s), SHARP integrato per l'informatica in rete e crittografia a livello di blocco senza costi aggiuntivi.
- Rispetto alle NIC concorrenti:Un vero scarico hardware per i collettivi NVMe-oF e MPI, non solo scarichi senza statuto.
- 100G ottimizzato per i costi:Ideale per bilanciare prestazioni e budget nei cluster di medie dimensioni.
- Conformità FIPS:La crittografia dell'hardware soddisfa gli standard di sicurezza governativi.
Offriamo consulenza tecnica 24 ore su 24, 7 giorni su 7, servizi RMA e supporto di integrazione per gli adattatori ConnectX-6.Il nostro team fornisce la convalida dei driver per le principali distribuzioni LinuxÈ disponibile assistenza di configurazione pre-vendita per la progettazione di tessuti InfiniBand / Ethernet.
D: L'MCX653106A-ECAT è compatibile con gli interruttori quantistici a 200 Gb/s?
A:Sì, è interoperabile con gli switch NVIDIA Quantum QM8700/QM8790 quando si utilizza la modalità HDR100 (100Gb/s per porta).
D: Questo adattatore può essere utilizzato sia per Ethernet che per InfiniBand?
A:Sì, supporta sia i protocolli InfiniBand che Ethernet. Il firmware rileva automaticamente il tipo di switch e configura la modalità appropriata.
D: Supporta il RoCE (RDMA su Ethernet convergente)?
A:Sì, ConnectX-6 supporta pienamente RoCE, fornendo RDMA a bassa latenza in ambienti Ethernet.
D: Qual è la velocità massima dei messaggi?
A:L'adattatore fornisce fino a 215 milioni di messaggi al secondo, ideale per carichi di lavoro HPC a piccoli pacchetti.
D: La scheda è compatibile con gli slot PCIe Gen 3.0?
A:Sì, è pienamente compatibile con le slot PCIe Gen 3.0 x16; le prestazioni saranno limitate a ~ 100Gb/s aggregate, che corrisponde alla velocità delle porte.
- Requisito di slot PCIe:Per prestazioni ottimali, installare in uno slot PCIe Gen 3.0 x16 o Gen 4.0 x8/x16.
- Frigorifero:Assicurare un adeguato flusso d'aria nel telaio del server; il raffreddamento passivo richiede un minimo di 200 LFM.
- Cavi:Utilizzare moduli QSFP56 in rame passivo/attivo o ottici per 100 Gb/s (EDR/HDR100).
- Supporto al conducente:Utilizzare l'ultimo NVIDIA MLNX_OFED per Linux o WinOF-2 per Windows.
- Temperatura di funzionamento:0°C a 70°C; conservare tra -40°C e 85°C.
Con oltre un decennio di esperienza, gestiamo una fabbrica su larga scala supportata da un forte team tecnico.La nostra vasta base di clienti e la nostra esperienza nel settore ci permettono di offrire prezzi competitivi senza compromettere la qualitàCome distributori autorizzati per Mellanox, Ruckus, Aruba ed Extreme, abbiamo in magazzino switch di rete originali, soluzioni per schede di rete, access point wireless, controller e cablaggio.Manteniamo un inventario di 10 milioni di dollari per assicurare un rapido adempimento delle diverse linee di prodotti.Ogni spedizione viene verificata per la sua accuratezza, e forniamo consulenza e supporto tecnico 24 ore su 24.I nostri team di vendita e tecnici professionisti hanno guadagnato un'alta reputazione nei mercati globali.







