InfiniBand

InfiniBand er en spesifikasjon av et maskinvaregrensesnitt for seriell høyhastighetsoverføring over korte avstander med lav ventetid . Den brukes fortrinnsvis i datasentre , for eksempel for å koble serverne i dataklynger til hverandre og for å koble til servere og tilstøtende masselagringssystemer som lagringsnettverk (SAN).

Grensesnittet er resultatet av foreningen av to konkurrerende systemer: Future I / O fra Compaq , IBM og Hewlett-Packard og Next Generation I / O (ngio), som ble utviklet av Intel , Microsoft og Sun Microsystems . Kort tid før det nye navnet ble valgt var InfiniBand kjent som system I / O . Fra og med 2016 tilbyr Mellanox og Intel vertsbussadaptere for InfiniBand. Disse maskinvaregrensesnittene støttes av operativsystemer som Solaris , forskjellige Linux-distribusjoner som Debian eller Red Hat Enterprise Linux , HP-UX , FreeBSD og VMware vSphere , blant andre .

konstruksjon

InfiniBand CX4-porter

InfiniBand bruker toveis punkt-til-punkt-tilkoblinger for dataoverføring med lav latens med forsinkelsestider under 2 µs, og oppnår teoretiske dataoverføringshastigheter per kanal mellom 2,5 Gbit / s (SDR) og 50 Gbit / s (HDR) i begge retninger. Med InfiniBand kan flere kanaler pakkes gjennomsiktig i en kabel for skalering. Fire kanaler er vanlige; for forbindelser med høyere gjennomstrømningskrav, for eksempel med byttet stoff , er kanalbunning av for eksempel 12 kanaler og mer vanlig.

Vanligvis overføres InfiniBand over kobberkabler, da de også brukes til 10 Gigabit Ethernet . Dette muliggjør overføringsavstander på opptil 15 meter. Hvis lengre avstander må broes, kan fiberoptiske mediekonvertere brukes som konverterer InfiniBand-kanalene til individuelle fiberpar. Her brukes optiske båndkabler med MPO-kontakter .

Bruksområder

Dual InfiniBand vertsbusadapter for bruk i serversystemer

Bruksområdene til InfiniBand spenner fra bussystemer til nettverkstilkoblinger. I likhet med HyperTransport var det imidlertid vanskelig å etablere seg som et bussystem og brukes for tiden stort sett bare som en klyngetilknytningsteknologi . Et unntak her er IBM-hovedrammesystemer System z fra modellserien z10 . B. har 24 InfiniBand vertskapskanaler med 6 GB / s hver. Den store fordelen med InfiniBand sammenlignet med vanlige teknologier som TCP / IP-Ethernet ligger i minimering av ventetiden ved å outsource protokollstakken til nettverksmaskinvaren.

Ulike databehandlingsnoder er koblet sammen med InfiniBand-kabler og spesielle brytere ; såkalte HCAer ( Host Channel Adapters ) brukes som nettverkskort . Ulike tilkoblingsmodi er tilgjengelige, inkludert: RDMA Write / RDMA Les så vel som enkle send / mottak- operasjoner.

For å unngå tidkrevende endringer mellom operativsystemet og brukerkonteksten, som for eksempel stikkontakter , blir minneområdene som er beregnet for bruk først registrert på kortet. Dette gjør at kortet kan oversette virtuelle adresser til fysiske adresser selv. Ved sending av data indikeres av tildelingen ( " mapping ") av forskjellige styreregistre av HCAs i minnet i prosessen (ringeklokke mekanisme), sendeoperasjonen utføres uten å gå gjennom operativsystemkjernen - HCA henter data fra hoved minne ved å kontrollere DMA- kontrollerne. Sending av data tilgjengelig på HCA (enten pålitelig eller ikke-pålitelig) blir overtatt av kortets protokollstabel. For dette formål administrerer kortet en oversettelsestabell som er tilgjengelig med indeksene som returneres av brukeren når man registrerer et minneområde.

For å ytterligere minimere ventetid, gir InfiniBand to tilkoblingsmodi som overfører data til eller leser fra hovedminnet til en annen node uten å involvere operativsystemet eller prosessen på den andre siden. Disse to operasjonene er kjent som RDMA Write / RDMA Read ( Remote DMA ). I tillegg tilbyr InfiniBand to moduser for implementering av låsemekanismer: Atomic Compare & Swap og Atomic Fetch & Add. Disse kan for eksempel brukes til å implementere semaforer ; finner du blant annet. applikasjon i distribuerte databaser .

litteratur

  • Frank Kyne, Hua Bin Chu, George Handera, Marek Liedel, Masaya Nakagawa, Iain Neville, Christian Zass, IBM Redbooks: Implementing and Managing InfiniBand Coupling Links on IBM System z. Fjerde utgave, IBM Redbooks Edition, 2014.
  • Hans Zima (red.): High Performance Computing. Volum 4, Springer Verlag, Berlin / Heidelberg 2002, ISBN 3-540-43674-X .
  • Patrick Crowley, Mark A. Franklin (red.): Network Processor Design. Issues and Practices, Volume 2, Morgan Kaufmann Publishers, San Francisco 2004, ISBN 0-12-198157-6 .
  • Luc Bougé: High Performance Computing - HiPC 2004. Volum 11, Springer Verlag, Berlin / Heidelberg 2004, ISBN 3-540-24129-9 .

weblenker

Commons : InfiniBand  - samling av bilder, videoer og lydfiler