Bitte wählen Sie:

Server

Wenn man im Umfeld von Hosting-Dienstleistungen vom Server spricht, ist der Begriff so wie er verwendet wird nicht eindeutig.

Man kann damit Computer – Hardware meinen oder auch Software, je nach Kontext.

Server Hardware

Um die in Richtung Hardware tendierende Variante stärker abzugrenzen, wird für die Server-Hardware auch der Begriff Host oder auch Maschine verwendet, um den Hardware-Charakter zu unterstreichen.

Bei einem Host handelt sich meist um einen recht leistungsfähigen Rechner, der in der Lage ist, viele angeschlossene Arbeitsplatzrechner mit Informationen zu bedienen, also Dateien oder ganze Datenbanken bereitzustellen. In anderen Nutzungsszenarien kann es aber auch sinnvoll sein, Rechner zu verwenden, die man eher in die Kategorie leistungsschwach einordnen würde. Manchmal ist nämlich nicht die Rechenkapazität gefragt, die besonders starke Prozessoren verlangen würde, sondern Effizienz, die sich aus harten Betriebskosten ermitteln lässt, in die auch Kosten für Energie mit einfließen. Daher kann es sinnvoll sein, kleine Prozessoren mit geringem Stromverbrauch und weniger Abwärme zu verwenden. Dies gilt besonders dann, wenn auf Anforderung eher Content ausgeliefert werden soll.

Diese zentral zur Verfügung gestellten Rechner befinden sich in aller Regel in einem Rechenzentrum, das gelegentlich mit dem englischen Begriff Datacenter bezeichnet wird und sind wiederum Teil eines mehr oder weniger großen Verbunds. Das heißt, diese als Server eingesetzten Rechner sind miteinander vernetzt. Man unterscheidet in Bezug auf die Vernbetzung eine interne und eine externe Anbindung.

Mit interner Anbindung ist die verbindende Infrastruktur innerhalb des Datacenters gemeint. In der Praxis sind dies manchmal kilometerlange LAN-Kabel, Switches und Router. Manche Rechner übernehmen Spezialaufgaben, die sich auf der Notwendigkeit ergeben, diesen Rechnerverbund zu verwalten und zu überwachen oder auch abzusichern (Stichwort Firewall). Bei wichtigen Systemen werden auch vollständig gespiegelte Ersatzmaschinen vorgehalten.

Unter der externen Anbindung versteht man die Verbindung zum offenen Internet. Besonders im Hosting-Umfeld geht es ja darum, die Rechner aus dem Internet heraus schnell erreichbar zu machen: Usereingaben und daraus resultierende Anforderungen sollen möglichst schnell bearbeitet werden, so dass eine angeforderte Webseite schnell im Browser des Users angezeigt werden kann oder ein Download schnell gestartet wird. Die Bandbreite der Anbindung ist als ein entscheidender Faktor, denn damit wird festgelegt, wie viele User gleichzeitig mit einem zufrieden stellenden Zugriff auf die Serverlandschaft rechnen können.

Arbeitsplatzrechner, die mit einem Host verbunden sind, werden gemeinhin als Client bezeichnet. Auch für den Begriff Client gibt es wiederum verschiedene Auslegungen: Man kann damit ebenfalls Software oder Hardware meinen.

Server – Software

Damit ein Rechner, der als Host funktionieren soll, seiner Aufgabe nachkommen kann, benötigt er Software, die es möglich macht, die Anfragen vieler Arbeitsplatzrechner nahezu gleichzeitig anzunehmen und zu beantworten. In der Praxis sind Betriebssystem und Serversoftware stark miteinander verwoben. Die bekanntesten Serverbetriebssysteme für Standardrechner kleinerer und mittlerer Größenordnung sind Derivate von UNIX wie etwa BSD oder Linux (das in vielen verschiedenen Distributionen vorliegt) und Windows in verschiedenen Versionen.

Der Begriff Server in seiner Software-Dimension wird auch in Zusammenhang mit speziellen Anwendungen verwendet. Man spricht also vom Mailserver, wenn man Software meint, die dazu entworfen wurde, E-Mails zu transportieren und Mailboxen bereit zu stellen. Der Begriff Webserver beschreibt Software, die auf Anforderung Webdokumente ausliefern. Ein Streamingserver soll kontinuierlich Audio- oder Videoclips ausliefern, eine FTP-Serversoftware ermöglicht das Hoch- und Herunterland von Dateien nachdem sich ein User eingeloggt hat.

Entwicklungslinien

Server sind in einer Frühphase der Informationstechnologie entstanden. Das Server-Client-Modell ist eines der zentralen Konzepte und ein wichtiges Paradigma in der Informatik.

Dieses Konzept entwickelte sich in einer Zeit, in der Computerhardware teuer war und alle verfügbaren Komponenten sehr effizient eingesetzt werden mussten. Eine Umsetzung war, die Rechenkapazität in einem Host, also einem zentralen Großrechner zu bündeln und den Zugriff darauf über vergleichsweise schwach ausgestattete Terminals zu ermöglichen. Die zentrale Einheit war extrem teuer, die Terminals, die als Clients fungieren dagegen recht billig.

Mit dem Aufkommen und der rasanten Verbreitung von IMB-kompatiblen Personal Computern (PCs) in den 1980er Jarhen, die im Gegensatz zu Terminals bereits selbst Anwendungssoftware ausführen konnten, haben sich die Gewichte verschoben.

Den Hosts kam verstärkt die spezielle Aufgabe zu, Dateien bereit zu stellen, auf die jeder in einer Arbeitsgruppe Zugriff haben sollte. Informationsaustausch und Dinge wie Document Sharing haben ein stärkeres Gewicht bekommen. Mit der Verbereitung der Internetnutzung und dem Entstehen des Word Wide Web wuchs der Bedarf an Serverkapazitäten, die skalierbar sind, das heißt die mit steigender Nachfrage möglichst einfach ausgebaut werden können. Eine Lösung war, Verbünde von relativ preisgünstigen Standardrechnern aufzubauen. Die Skalierung wurde dadurch realisiert, dass einfach mehr Server ins Netzwerk integriert wurden.

Ein aktueller Trend deutet auf eine eher gegenläufige Entwicklung hin: Leistungsfähige Standardrechner können virtualisiert werden. Das bedeutet: Ein größerer Rechner kann so aufgeteilt werden, dass mehrere virtuelle Maschinen parallel nebeneinander auf dieser physikalischen Maschine gehostet werden können. In der aktuellen Praxis werden als Gastsystem vergleichsweise große Rechner mit vielen Prozessorkernen und RAM-Bausteinen verwendet, um möglichst viele virtuelle Maschinen auf einer physikalischen Maschine zu betreiben. Nach außen verhält sich jede virtuelle Maschine wie ein echter Server. Je nach Virtualisierungstechnologie ist es möglich, verschiedene Betriebssysteme nebeneinander aufzusetzen und Ressourcen wie Arbeitsspeicher, Prozessorkapazität oder Festplattenspeicher explizit für jede virtuelle Maschine zuzuweisen.