Tipps für den Kauf eines Load-Balancers für Ihr Rechenzentrum

Mag ich anklicken, wenn dieser Ratgeber hilfreich war
Einige Tipps für den Kauf eines Load-Balancers für Ihr Rechenzentrum

Load Balancing bedeutet Lastenverteilung. In der Informatik werden dabei große Berechnungen oder ein hohes Aufkommen an Anfragen über mehrere, parallel zueinander arbeitende Systeme, verteilt. Eine der einfachsten Möglichkeiten, einen Load-Balancer einzusetzen, ist die Ausstattung des Servers mit mehreren Prozessoren. Das kann aber unter Umständen die gesamte Systemperformance beeinflussen, da zum Beispiel der jeweilige Cache-Inhalt lokal auf jeden einzelnen Prozessor bezogen ist.

Worauf Sie beim Load Balancing achten sollten und welche Komponenten notwendig sind, damit ein Load-Balancer in Ihrem Rechenzentrum seine Aufgaben korrekt erfüllt, erläutert dieser Ratgeber in übersichtlicher Form.

Load Balancing im Verbundsystem

Bei größeren Rechenzentren ist die Verwendung eines Servers mit mehreren Prozessoren unzureichend. Hier wird mit sogenannten Computer-Clustern gearbeitet. Das bedeutet, mehrere einzelne Rechner werden in einem Verbundsystem zusammengeschlossen. Jeder einzelne dieser Rechner verhält sich dabei nach außen wie ein eigenständiges Computersystem.

Damit der Verbund reibungslos funktioniert, wird ein sogenannter Load-Balancer – auch Fronted Server genannt – vorgeschaltet. Dieser Load-Balancer verteilt dann alle eingehenden Anfragen auf die jeweiligen Rechner, die diese dann abarbeiten und beantworten.

Besonders wichtig ist der Load-Balancer bei Webservern. Hier ist ein einzelner Rechner gar nicht in der Lage, das hohe Aufkommen an http-Anfragen auf einmal zu bearbeiten. Der Load-Balancer fügt den einzelnen Abfragen zusätzliche Informationen hinzu, damit sichergestellt ist, dass unterschiedliche Anfragen eines Benutzers immer an denselben Server gerichtet werden. Besonders wichtig ist diese Funktion bei sogenannten SSL-Anfragen, die ja für eine gesicherte und vertrauenswürdige Datenübertragung stehen. Wird immer derselbe Server angesprochen, muss nicht jedes Mal eine neue Identifizierung ausgeführt werden.

Der Load-Balancer sorgt für Ausfallsicherheit im System

Für ein Rechenzentrum kann es katastrophale Auswirkungen haben, wenn es zu Server-Abstürzen kommt. Würde hier nur ein einzelner Server mit mehreren Prozessoren verwendet, wäre das gesamte Rechenzentrum lahmgelegt.

Im Verbundsystem mit einem vorgeschalteten Load-Balancer kann der Ausfall eines Servers durch die Ansprache eines anderen kompensiert werden. Man bezeichnet diese Ausfallabsicherungen mit dem Begriff high availability – Hochverfügbarkeit. Die Wahrscheinlichkeit, dass trotz des Ausfalls einer Komponente der Betrieb gewährleistet bleibt, liegt bei nahezu 100 Prozent.

Spezielle Software für den Load-Balancer

Damit die zu speichernden Daten korrekt im gesamten System verteilt werden, sollten Load-Balancer mit einer sogenannten Serverlastverteilungs-Software ausgestattet sein. Einfluss auf das reibungslose Verteilen der Daten haben hier unter anderem die Zugriffsgeschwindigkeit der einzelnen Cluster sowie die Übersichtlichkeit des Systems an sich.

Um herauszufinden, ob ein einzelner Server mit mehreren Prozessen ausreicht oder ein Load-Balancer notwendig ist, ermittelt man in der Regel die anfallende Datenrate, die Anzahl der Benutzer sowie die durchschnittliche Anfragerate. Je höher die Werte sind, umso wichtiger ist der Einsatz des Server Load Balancing (SLB).

Ein weiterer Aspekt, der nicht vernachlässigt werden sollte, ist die erhöhte Datensicherheit, wenn man mit einem Load-Balancer arbeitet. Bekannte Unternehmen, die mit Load Balancing arbeiten, sind unter anderem große Onlineshops, Auskunftsportale oder Ähnliches. Der Anwender, der eine Anfrage an diese Systeme richtet, erkennt in der Regel nicht, dass ein Load-Balancer zunächst seine Anfrage entgegennimmt und dann an einen entsprechenden Server weiterleitet.

Das ISO-OSI-Referenzmodell und das Server Load Balancing System

Das OSI-Modell ist entwickelt worden, damit unterschiedliche technische Systeme miteinander kommunizieren können. Dieses Modell definiert dazu insgesamt sieben unterschiedliche Schichten, die jeweils sehr eng eingegrenzte Aufgaben haben. Netzwerkprotokolle innerhalb einer Schicht, die über klare Schnittstellen verfügen, sind dabei untereinander austauschbar.

Die einzelnen Schichten heißen:

  • Schicht 1 – Bitübertragungsschicht
  • Schicht 2 – Sicherungsschicht
  • Schicht 3 – Vermittlungsschicht
  • Schicht 4 – Transportschicht
  • Schicht 5 – Sitzungsschicht
  • Schicht 6 – Darstellungsschicht
  • Schicht 7 – Anwendungsschicht.

Das Server Load Balancing (SLB) kann auf den verschiedenen Stufen dieses ISO-OSI-Referenzmodells eingesetzt werden. Hierzu gibt es drei Ansätze, die sich jedoch grundsätzlich voneinander unterscheiden, und zwar:

  • DNS based SLB
  • NAT based SLB
  • Flat based SLB

DNS bedeutet Domain Name System. Dieses Protokoll arbeitet auf der Anwendungsschicht und stellt die preiswerteste Variante dar, ein Server Load Balancing System zu implementieren. Alles, was dazu benötigt wird, sind ein Router und ein Switch. Die Ansprache erfolgt dann über mehrere homogene Rechner, die unterschiedliche Namen tragen und auf die mit einem besonderen Algorithmus zugegriffen werden kann.

Voraussetzungen für die Nutzung von NAT based SLB

Um die Version NAT based SLB zu nutzen, müssen zunächst zwei unterschiedliche Netzwerke aufgebaut werden. Zum sogenannten privaten Netz gehören die Server. Zusätzlich wird ein öffentliches Netz als ständig verfügbare Internetverbindung über einen Router geschaffen. Zwischen diese beiden eigenständigen Netze wird ein sogenannter Content-Switch geschaltet. Ein Content-Switch ist im Grunde ebenfalls ein Router. Er nimmt die Anfragen aus dem öffentlichen Netz entgegen, wertet sie aus und entscheidet, mit welchem Rechner im privaten Netz er nun die Verbindung herstellt. NAT based SLB arbeitet beim OSI-Modell in Schicht 3, der Vermittlungsschicht.

Die hier eingesetzte NAT-Technik ermöglicht es dem Load-Balancer, ein- und ausgehende Pakete von IP-Adressen so zu manipulieren, dass der Anwender das Gefühl vermittelt bekommt, er kommuniziere immer mit ein und demselben Rechner, auch wenn seine Daten an einen anderen Server weitergeleitet werden. Bei NAT based SLB haben alle Server im privaten Netzwerk eine identische IP-Adresse.

Aber Achtung: wenn der gesamte Datenverkehr über den Load-Balancer fließt, kann es zu Engpässen kommen, wenn der Server nicht groß genug dimensioniert wurde. Achten Sie also darauf, dass Ihr Load-Balancer so viel Kapazität an Prozessorleistung und Speicherplatz hat wie möglich.

Die Vorteile von NAT based SLB

Die NAT-Technik beim Server Load Balancing bietet einige entscheidende Vorteile. Durch den Einsatz eines Load-Balancers werden die einzelnen Server zusätzlich geschützt. Es gibt eine Reihe von Herstellern für SLB-Lösungen, die zusätzliche Sicherheitsmodule anbieten. So können Angriffe oder auch fehlerhafte Anfragen bereits im Vorfeld aussortiert werden und erreichen den Serververbund gar nicht erst.

Darüber hinaus kann mit der NAT-Technik eine wesentlich bessere Organisation und Terminierung von SSL-Sitzungen vorgenommen werden. Das gesamte Servercluster wird so erheblich entlastet und arbeitet so störungsfreier. Dazu ein Hinweis: wenn Sie in Ihrem Rechenzentrum mit groß angelegten Clustern arbeiten, sollten sie neben den herkömmlichen aktiven Healthchecks auch passive Systeme einsetzen. Dabei wird der gesamte ein- und ausgehende Datenverkehr bereits durch den Load-Balancer überwacht. Überschreitet ein Server die vorgesehene Zeit für die Bearbeitung einer Anfrage, reicht der Load-Balancer sie unverzüglich an einen anderen zurzeit freien Server weiter. Der Anwender bemerkt von dieser Umleitung nichts, profitiert aber durch die schnelleren Zugriffszeiten, die so ermöglicht werden.

Flat based SLB

Die dritte Variante, das Flat based SLB, benötigt wieder nur ein Netz, ähnlich wie das DNS based SLB. Die jeweiligen Server werden dabei mit dem Load-Balancer über einen Switch verbunden. Die Anfrage des Benutzers geht automatisch an den Load-Balancer, der den Ethernet-Frame so manipuliert, dass der Eindruck einer direkten Anfrage an den jeweiligen Server entsteht. Dazu tauscht der Load-Balancer die eigene MAC-Adresse gegen die Adresse des zuständigen Servers aus. Die IP-Adresse hingegen bleibt unverändert. Dieser Vorgang wird auch als MAT (MAC Adress Translation) bezeichnet. Hierbei kommuniziert dann nicht mehr der Load-Balancer mit dem Benutzer, sondern der jeweilige Server erledigt die Aufgaben im Direct Server Return-Verfahren (DSR).

Der große Vorteil dieser Art der Kommunikation liegt darin, dass der Load-Balancer entlastet wird. Der Rückverkehr, der meist wesentlich mehr Daten enthält als die Anfrage, erfolgt auf direktem Weg zwischen dem jeweiligen Server und dem Benutzer.

Wenn Ihr Rechenzentrum Client-Anfragen über Sessions verwaltet

Unter einer Session versteht man im IT-Bereich eine dauerhafte Verbindung zwischen Client (Benutzer) und Server. Hier muss der Load-Balancer in der Lage sein, Anfragen eines bestimmten Clients immer wieder an denselben Server weiterzuleiten. Das bedeutet, er muss auch auf der Anwendungsschicht des OSI-Modells agieren können, um zum Beispiel einzelne Cookies oder sogenannten Session-IDs aus den jeweiligen Datenpaketen zu extrahieren, auszuwerten und dann zu entscheiden, wohin die Anfrage vermittelt werden soll.

Damit Sie ohne zusätzliche Software sicherstellen, dass eine Session immer auf denselben Backend-Server weitergereicht wird, können Sie einen Sie einen Layer 4-7 Seven Switch verwenden. Damit sorgen Sie dafür dass Ihr Load-Balancer seine Aufgabe perfekt umsetzen kann.

Neue Möglichkeiten in der Lastverteilung bei Webservern

Mit dem Content Switching wurde die Lastverteilung bei Webservern technisch weiterentwickelt. Die Anforderungen an die Hardware sind besonders bei Webservern in den letzten Jahren rasant angestiegen. Ein einzelner Server mit mehreren Prozessoren reich hier schon lange nicht mehr aus. Dementsprechend wurden sogenannte Serverfarmen aufgebaut, bei denen der Load-Balancer zuständig ist für die Verteilung der Anfragelast auf mehrere einzelne Computer.

Inzwischen gibt es jedoch so komplexe Anfragen, dass auch ein einzelner Load-Balancer für die Lastverteilung an seine Grenzen stößt. Also entstand die Idee, einen Router beziehungsweise Switch mit der Aufgabe zu betrauen, die Datenströme innerhalb einer solchen Serverfarm zu regulieren und zu verteilen. Dabei soll der Switch automatisch erkennen, welcher Server im Augenblick der Anfrage gerade die höchste Kapazität anbieten kann. Ein Problem entstand jedoch bei der Beantwortung der Anfragen.

Content Switches sorgen für eine korrekte Zuordnung

Da jeder Server in der Serverfarm eine eigene IP-Adresse hatte, war es schwierig, sie dem richtigen Benutzer wieder zuzuordnen und gleichzeitig dafür zu sorgen, dass http-Cookies, soweit sie verwendet wurden, konsistent blieben. Es wurden also sogenannte Content Switches entwickelt, die mit intelligenter Technik ausgestattet sind. Sie sind in der Lage, auf der Basis der aktuellen URL-Informationen und mithilfe von Headern oder Cookies ständige die korrekte Zuordnung zu garantieren.

Dazu ein Hinweis: Wenn Ihr Rechenzentrum im Mega-Proxy-Bereich arbeitet, ist die Anschaffung eines solchen Content Switches eine gute Entscheidung, um für eine gleichmäßige Lastverteilung zu sorgen.

Fazit

Mithilfe dieser allgemeinen technischen Informationen über das Server Load Balancing und die dazu notwendigen Komponenten sollten Sie in der Lage sein, sich für den passenden Load-Balancer mit allen technisch notwendigen Weiterentwicklungen zu entscheiden.

Möchten Sie Ihr Wissen weitergeben? Erstellen Sie Ihren eigenen Ratgeber… Verfassen Sie einen Ratgeber
Weitere Ratgeber erkunden