Startseite: Blog Tec-Trends > Netzwerk > Servervirtualisierung: Welche Möglichkeiten gibt es?

Servervirtualisierung: Welche Möglichkeiten gibt es?

Servervirtualisierung bezieht sich auf Software- oder Hardwaretechnologien, mit denen mehrere Instanzen derselben oder verschiedener Betriebssysteme gleichzeitig auf demselben Computer ausgeführt werden. Einzelne Instanzen werden als virtuelle Maschinen (VMs) oder virtuelle Server bezeichnet und agieren in einer virtuellen Umgebung, die mit dem „normalen“ direkten Betrieb auf dem Gerät identisch ist. Aus Sicht des zugrunde liegenden Betriebssystems (Host) ist der Gast von der Hardware getrennt und kann daher unabhängig von der zugrunde liegenden Hardware als Softwareobjekt betrachtet werden.

Servervirtualisierung

Joe Techapanupreeda/shutterstock.com

Abhängig von der Architektur wird die Trennung auf Hardwareebene durchgeführt oder die vollständige oder teilweise virtuelle Hardwareumgebung für einzelne virtuelle Maschinen mithilfe einer speziellen Software (Virtual Machine Monitor, Hypervisor) modelliert. Die meisten Virtualisierungsansätze basieren auf einer speziellen Softwareschicht, die normalerweise als VMM (Virtual Machine Monitor) oder Hypervisor bezeichnet wird.

Wie funktioniert die Servervirtualisierung?

Die Servervirtualisierung trennt Software und Hardware mit einem Hypervisor. Es gibt verschiedene Arten von Hypervisoren, die in unterschiedlichen Szenarien verwendet werden. Der am häufigsten verwendete Hypervisor, Typ 1, kann direkt auf einem Server gehostet werden, weshalb er auch als Open Source-Hypervisor bezeichnet wird. Hypervisoren vom Typ 1 bieten die Möglichkeit, eine Hardwareplattform für die Verwendung durch virtuelle Maschinen zu virtualisieren. Hypervisoren vom Typ 2 fungieren als Softwareschicht im Host-Betriebssystem und werden häufiger in Testumgebungen verwendet.

Einer der ersten Schritte bei der Servervirtualisierung besteht darin, herauszufinden, welche Server die Organisation virtualisieren möchte. Beispielsweise ist ein Server, der nicht alle Ressourcen nutzt, ein guter Kandidat, sodass diese nicht verwendeten Ressourcen für andere Aufgaben frei sind. Nachdem ein Server für die Virtualisierung ausgewählt wurde, muss das physische System die Anwendung von Ressourcen überprüfen, bevor die Größe der virtuellen Maschine bestimmt wird. Zu diesem Zweck sollten Benutzer die Verwendung von Ressourcen, wie Speicher, Festplatten oder Mikroprozessoren überwachen. Auf diese Weise erhalten Unternehmen eine Vorstellung davon, wie viele Ressourcen für jede virtuelle Instanz zugewiesen werden können.

Servervirtualisierungsmodell

Auf VMM- oder Hypervisor-Ebene können mehrere verschiedene Betriebssysteme die Hardwareressourcen eines Computers gemeinsam nutzen, indem die verfügbaren RAM-Kapazitäten, Prozessoren, E / A-Controller, DMA-Controller und alle anderen relevanten Komponenten für Gastsysteme transparent verteilt werden. Unabhängig von der Architektur müssen Servervirtualisierungslösungen die folgenden Anforderungen erfüllen:

  • Äquivalenz: Ein virtualisiertes System sollte genau das gleiche Verhalten aufweisen wie bei direkter Ausführung auf Hardware (nicht virtualisiert).
  • Isolierung: Es ist notwendig, die sichere Isolierung virtualisierter Systeme (VMs) voneinander zu gewährleisten, um Datensicherheit, Vertraulichkeit und Konsistenz von Daten und Bedingungen zu garantieren. Eine instabile virtuelle Maschine (VM) sollte nicht zum Absturz einer anderen VM führen.
  • Steuerung: Computerressourcen wie RAM und CPU (einschließlich Kernel und Thread) müssen virtuellen Maschinen individuell zugewiesen werden.

Effizienz im Detail

Im Zusammenhang mit der Virtualisierung sollte die virtuelle Maschine keinen ungerechtfertigten Overhead verursachen, sondern fast so schnell arbeiten wie auf der „nackten Hardware“. Insbesondere das Erfordernis der Effizienz ist ein ernstes Problem bei der Entwicklung von Lösungen für die Servervirtualisierung. Daher gibt es einerseits viele völlig unterschiedliche Architekturansätze, die andererseits mit verschiedenen Eigenschaften und differenter Leistung arbeiten. Zwei sinnvolle Klassifizierungsansätze bestehen darin, zu berücksichtigen, was virtualisiert wird (Hardware, Betriebssystem usw.) oder wie die Position der Virtualisierungsebene in Bezug auf virtualisierte Hardware ist.

virtuelle server

ESB Professional/shutterstock.com

Welche Servervirtualisierungsarten gibt es?

Der Hauptunterschied besteht zwischen drei Ansätzen:

1. Virtuelle Maschinen

Diese Option funktioniert gemäß dem Host / Guest-Paradigma. Die physischen Server sind die Hosts und die virtuellen Maschinen (VM) sind die Gäste. Die Ausstattungsstufe wird für jeden Gast separat emuliert. Dies ermöglicht mehrere Gäste auf demselben Host. Sie sind vollständig voneinander getrennt, autark und können daher unterschiedliche Betriebssysteme verwenden. Beispielsweise kann eine virtuelle Maschine neu gestartet werden, ohne dass dies Auswirkungen auf andere virtuelle Maschinen hat. Virtuelle Maschinen kennen sich nicht, weder über die Host-Software noch über Host-Hardware. Sie arbeiten als reale physische Komponenten.

Der Hypervisor, auch als VMM (Virtual Machine Monitor) bezeichnet, ist für das Zusammenspiel aller Befehle mit dem Prozessor verantwortlich. Er steuert Ressourcen, bestätigt und verwaltet jeden ausgeführten Code. Die Systememulation verringert jedoch im Allgemeinen die Systemleistung (Verlust der Virtualisierung). Abhängig von der Virtualisierungssoftware und der Art des Zugriffs liegen diese Verluste zwischen 5 und 25 %. Die neueste Software versucht, diesen Verlust aufgrund einer effektiveren Steuerung so gering wie möglich zu halten.

2. Paravirtuelle Maschinen

Basieren auch auf dem Host / Gast-Paradigma und verwenden ebenso die VMM. Im Gegensatz zu einer virtuellen Maschine kommunizieren einzelne Gäste direkt mit der virtuellen Maschine und nicht mit physischen Geräten. Infolgedessen kennt das Gastsystem die virtuelle Hardware und erhält Zugriff auf die angepasste Version. Alle virtuellen Maschinen kennen sich und kennen die entsprechenden Anforderungen an die Rechenleistung. Virtuelle Maschinen bilden ein Ganzes, sodass physische Geräte dynamisch nach den Anforderungen einzelner Gäste aufgeteilt werden können. Dieses Funktionsprinzip entlastet den Hypervisor – es ist nur eine Zuordnung der virtuellen Hardware erforderlich. Dies verbessert den Zugang der Gäste zu den Geräten.

3. Virtualisierung auf Betriebssystemebene

Im Gegensatz zu den beiden vorherigen Optionen gibt es nur ein Betriebssystem – das physische Serversystem. Es übernimmt alle Funktionen eines Hypervisors. Jede virtuelle Maschine arbeitet unabhängig, einzelne Fehler wirken sich nicht auf andere virtuelle Maschinen aus. Es läuft jedoch alles auf demselben Betriebssystem, seine Programme und Bibliotheken werden gemeinsam genutzt, auch wenn Prozesse ausgeführt werden. Feste Systemaufrufe zwischen den Schichten, verringern die CPU-Auslastung und erhöhen die Arbeitsgeschwindigkeit. Darüber hinaus brauchen solche virtuelle Server sehr wenig Speicher.

Wann ist eine Servervirtualisierung sinnvoll?

Grundsätzlich gilt: wenn nicht genutzte Ressourcen vorhanden sind. Aus technischer Sicht wird die Servervirtualisierung mit nur 5 oder mehr Servern wirksam. Bei weniger Servern ist das Ausfallrisiko aufgrund der Konsolidierung einfach zu hoch. Die Analyse der Anforderungen ist im Voraus wichtig. Das Virtualisierungsprojekt ist ohne Analyse sehr komplex, insbesondere kleine und mittlere Unternehmen riskieren, zu groß oder zu klein zu investieren. Im besten Fall ist es nur teuer, im schlimmsten Fall führt es zu einer Systemstörung. Virtualisierung ist weniger nützlich für anspruchsvolle Anwendungen, die viel CPU, RAM oder Speicher benötigen.

Die Vorteile auf einen Blick

Wie oben erwähnt, werden physische Server in Computernetzwerken nicht vollständig genutzt – der Server kann mit virtuellen Maschinen optimal verwendet werden. Das spart Hardware: Optimal genutzte Server bedeuten weniger Speicherplatz und weniger Strom. Gleichzeitig bietet die Virtualisierung eine hohe Verfügbarkeit – selbst wenn eine virtuelle Maschine ausfällt, ist die Arbeit aller anderen geschützt. Wenn die Anwendung auf mehreren virtuellen Maschinen parallel ausgeführt wird, ist auch ihre kontinuierliche Verfügbarkeit garantiert.

  • Einfaches Testen: Das Testen neuer Anwendungen sollte nicht mehr auf speziell gekauften Servern durchgeführt werden. Sie erstellen einfach eine neue virtuelle Maschine als Testumgebung.
  • Umstellung auf neue Geräte: Unternehmen haben immer Anwendungen, die bestimmte (veraltete) Geräte oder ein veraltetes Betriebssystem erfordern. Sie können auf virtuelle Maschinen migriert werden, die die alte Umgebung imitieren, und dort weiterarbeiten, bis die Änderung abgeschlossen ist.

Ein Kommentar

  1. Pingback: Virtuelle Server: Erklärung und Tipps |

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.