Netzwerkgrundlagen: Auswahlfaktoren Server-Systeme

Den richtigen Server wählen

25. Februar 2008, 6:00 Uhr | | Kommentar(e)

Anschaffungskriterien – Die Auswahl der individuell passenden Server-Systeme ist komplex. Von den Prozessoren bis zum Service gilt es eine ganze Reihe von Kriterien zu beachten.

Bei der Anschaffung eines neuen Servers ist es in der schnelllebigen IT-Branche für viele Administratoren keine leichte Aufgabe, auf Anhieb die richtige Auswahl zu treffen. Vorab sollten IT-Verantwortliche sich Gedanken über den genauen Einsatzzweck des Servers machen.

Dieser ist für die Auswahl der CPU und des Arbeitsspeichers entscheidend. Während man für Systeme wie Webserver oder kleinere Applikationsserver gut mit 32-Bit-CPUs auskommt, sind für den Einsatz als Datenbank- oder Host-Server für Virtualisierungsumgebungen 64-Bit-CPUs empfehlenswert.

64-Bit-Systeme unterstützen wesentlich mehr Arbeitsspeicher als 32-Bit-Systeme, was sich für hochperformante Systeme positiv auswirken kann. Zusätzlich sollte man beachten, dass der RAM-Zugriff immer schneller ist als der Zugriff auf Festplatten. Außerdem reduziert ein großzügig dimensionierter Arbeitsspeicher die I/O-Zugriffe auf Festplatten-Subsysteme. Jedoch muss der Arbeitsspeicher auch von der eingesetzten Applikation unterstützt werden.


Keine modifizierte PC-Platine

Als Basis für den neuen Server sollte auf jeden Fall ein Mainboard dienen, das auch für den Einsatz in Servern entwickelt wurde. So ist beispielsweise die Anordnung der CPU-Sockel und die der RAM-Steckplätze für den Einsatz in Server-Chassis optimiert. Nur durch eine Abstimmung der Bauteile aufeinander ist es möglich, alle Komponenten optimal zu kühlen und die maximale Leistung zu erhalten.

Solche Server-Boards bieten außerdem die Option, Arbeitsspeicher für speicherhungrige Anwendungen wie Virtualisierung groß genug zu dimensionieren. Die Möglichkeit 32 GByte und mehr zu verbauen ist dabei schon bei verhältnismäßig günstigen Mainboards gegeben.

Bei der CPU kommt es auf den Einsatzzweck und die Arbeiten, die geleistet werden müssen, an. Selten können Standardanwendungen die Multicore-CPUs ausreizen, aber gerade durch die Virtualisierung von Betriebssystemen kommt deren Stärke zur Geltung.

Stromverbrauch

Durch den Einsatz von spezieller Virtualisierungssoftware wie Vmware, werden die anfallenden Lasten gleichmäßig auf die einzelnen Kerne verteilt. Worauf bei der CPU aber auch geachtet werden sollte, ist der Stromverbrauch. So hat man gerade bei den neuen modernen Multicore-CPUs die Qual der Wahl. Man kann bei beiden Herstellern, AMD und Intel, die neuen CPUs auch jeweils als sehr stromsparende Variante kaufen.

Der Verbrauch reicht dabei von 60 Watt bis 130 Watt, was sich gerade bei großen Serverfarmen drastisch auf die TCO auswirkt, wenn man noch den Faktor Serverraumkühlung mit einbezieht. Damit können die Betriebskosten auf die Laufzeit gerechnet um 30 bis 50 Prozent gesenkt werden.

Den zu verwendenden RAM schreibt meist die CPU beziehungsweise der Chipsatz vor. So ist es beispielsweise notwendig, bei den aktuellen Intel-Xeon-5xxx-Prozessoren Fully-Buffered-DIMMs zu verwenden.

Dagegen begnügt sich AMD bei ihren Opterons der neusten Generation noch mit den älteren DDR2-ECC-Registered-RAMs, die gerade beim Aspekt Stromsparen ganz klar die Nase vorn haben. So verbraucht ein mit RAM voll bestückter Intel-basierter Server rund 50 bis 80 Watt mehr, als ein vergleichsweise aufgebautes AMD-System mit DDR2-Modulen.

Arbeitsspeicher

Bei den Speichern sollte aber auch darauf geachtet werden, dass diese von einem namhaften Hersteller stammen. Sollte der Arbeitsspeicher nach ein oder zwei Jahren aufgestockt werden müssen, ist es von Vorteil, wenn ein identisches Speichermodul nachgekauft werden kann und nicht die gesamten Module getauscht werden müssen.

Je nach Einsatzzweck des Servers empfiehlt sich die Investition in ein redundantes Netzteil, das für den Serverbetrieb freigegeben ist. Der Hauptvorteil von redundanten Netzteilen liegt darin, dass man den Server an mindestens zwei verschiedene Stromquellen anschließen kann. Somit wirkt sich eine defekte USV nicht weiter auf den Serverbetrieb aus.

PCI-Express-Steckplätze

Bei den Erweiterungskarten für die PCI-Slots ist darauf zu achten, so weit wie möglich schon die neue PCI-Express-Technologie zu verwenden. Dies bietet durch standardmäßige CRC-Fehlerüberprüfung eine bessere Datensicherheit. Somit führen Datenfehler auf dem PCI-Express-Bus nicht unbedingt zum Serverausfall, sondern können schon vorher abgefangen werden.

Stellt der PCI-Express-Bus Fehler in der Datenintegrität fest, schickt er die Daten einfach nochmals. Diese Fehlerkorrektur bietet der PCI- beziehungsweise PCI-X-Bus noch nicht. Dieser Umstand wirkt sich im Fehlerfall negativ auf die Stabilität des Serversystems aus.

Der PCI-Express hat sich mittlerweile aber schon so weit etabliert, dass alle wichtigen Server-Add-on-Karten (RAID- und Netzwerk-Controller sowie Fibre-HBAs) auch als PCI-Express-Variante erhältlich sind.


  1. Den richtigen Server wählen
  2. On-Board- oder separater Raid-Controller

Das könnte Sie auch interessieren

Matchmaker+