Verteiltes System












Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Ein verteiltes System ist nach der Definition von Andrew S. Tanenbaum ein Zusammenschluss unabhängiger Computer, die sich für den Benutzer als ein einziges System präsentieren. Peter Löhr definiert es etwas grundlegender als „eine Menge interagierender Prozesse (oder Prozessoren), die über keinen gemeinsamen Speicher verfügen und daher über Nachrichten miteinander kommunizieren“. Das Teilgebiet in der Informatik, welches sich mit verteilten Systemen und deren Algorithmen beschäftigt, wird Verteiltes Rechnen oder Verteilte Verarbeitung (englisch: Distributed Computing) genannt.[1]




Inhaltsverzeichnis






  • 1 Klassifizierungen


  • 2 Gründe für den Einsatz verteilter Systeme


  • 3 Transparenz


  • 4 Probleme


  • 5 Modelle


  • 6 Algorithmen


    • 6.1 Algorithmen zur Uhren-Synchronisation


    • 6.2 Broadcastalgorithmen


    • 6.3 Auswahlalgorithmen


    • 6.4 Nebenläufigkeitskontrolle




  • 7 Siehe auch


  • 8 Literatur


  • 9 Weblinks


  • 10 Einzelnachweise





Klassifizierungen |


Meist unterscheidet man in




  • Client-Server-System: Viele Clients greifen auf einen oder mehrere Server zu.


  • Verteilte Anwendung: Durch die Programmierung der Anwendung wird das verteilte System erstellt.


  • Verteiltes Betriebssystem: Das Betriebssystem selbst ist verteilt, für Benutzer und Anwendungen ist dies nicht sichtbar.



Gründe für den Einsatz verteilter Systeme |


Mit verteilten Systemen kann eine echte Nebenläufigkeit realisiert werden; das heißt, dass mehrere Prozesse echt gleichzeitig ausgeführt werden können. Darüber hinaus ist ein verteiltes System in der Regel auch besser skalierbar als ein einzelner Computer, da man auf einfache Art und Weise durch Hinzufügen weiterer Rechner die Leistungsfähigkeit erhöhen kann.


Ein häufig anzutreffendes Szenario ist auch die Bereitstellung von entfernten Ressourcen, wie es bei der Wikipedia der Fall ist. Außerdem werden verteilte Systeme zur Erhöhung der Ausfallsicherheit benutzt, indem bestimmte Funktionalitäten von mehreren Rechnern angeboten werden (Redundanz), so dass beim Ausfall eines Rechners die gleiche Funktionalität von einem weiteren Rechner angeboten wird.


In vielen Fällen gibt es auch wirtschaftliche Gründe, um preisgünstige Rechner zu vernetzen, statt einen teuren Supercomputer anzuschaffen. Dies machen sich beispielsweise Volunteer-Computing-Projekte wie SETI@home zunutze, die brachliegende Rechenleistung von Einzelplatzrechnern zur Lösung komplexer Probleme nutzen.


Weitere Gründe:[2]



  • Fernzugriff auf bestimmte Ressourcen (Drucker, …)


  • Kooperation (Computer Supported Cooperative Work)

  • Lastverteilung



Transparenz |



Für den Benutzer sowie für die Applikation eines verteilten Systems ist die Art der Verteilung nicht relevant und idealerweise auch nicht ersichtlich.
Das System verhält sich transparent (i. S. v. durchsichtig), als hätte der Nutzer es mit einem Gesamtsystem zu tun.



Probleme |


Da es bei verteilten Systemen zu einem Teilausfall kommen kann, von dem einzelne Rechner oder Teile des Netzwerkes betroffen sind, sollte darauf geachtet werden, dass es keinen Single Point of Failure im System gibt. Dabei ist zu bemerken, dass die Wahrscheinlichkeit eines Fehlverhaltens eines Prozesses mit der Anzahl der beteiligten Prozesse steigt (siehe Verfügbarkeit).


Ein wichtiges Teilproblem davon ist, einen Teilausfall erst zu bemerken. Es existieren keine voll zufriedenstellenden Methoden, die einen Teilausfall erkennen und beheben können. Eine Möglichkeit wäre der Heartbeat oder ein regelmäßiges Anpingen der beteiligten Systeme. Diese Möglichkeiten sind jedoch nicht perfekt.


In verteilten Systemen ist zwar eine echte Nebenläufigkeit möglich, allerdings können Prozesse in unterschiedlichen Geschwindigkeiten abgearbeitet werden. Eine hierdurch bedingte starke Form von Nicht-Determinismus erhöht die Anforderungen zur Synchronisierung von Prozessen. Aus diesem Grunde ist eine Nebenläufigkeitskontrolle meist sehr wichtig: Zum einen im Bezug auf Transaktionen und zum anderen beim Zugriff auf gemeinsame Ressourcen (Mutex). Außerdem kann es in verteilten Systemen immer Deadlocks geben.


Gesamtzustände (Summe der Zustände aller beteiligten Prozesse) und Abläufe können in einem verteilten System oft im Nachhinein nicht nachvollzogen werden. Eine Diagnose im Fehlerfall wird hierdurch erschwert.


Verteilte Systeme teilen sich keinen gemeinsamen Speicher und müssen ihre gesamte Kommunikation darum durch das Versenden und Empfangen von Nachrichten realisieren. Eine solche Kommunikation ist sehr fehleranfällig, so dass es zu Problemen durch Verfälschung von Nachrichten, Duplizierung von Nachrichten und den Verlust von Nachrichten kommen kann. Außerdem ist die Nachrichtenlaufzeit unvorhersehbar, so dass man nie mit Sicherheit vorhersehen kann, ob ein System ausgefallen ist oder ob es nur eine lange Antwortzeit hat.


Ein weiteres Problem der Nachrichten ist, dass diese Art der Kommunikation unsicher sein kann, also durch Angreifer abgehört oder bewusst manipuliert werden kann, und über eine Infrastruktur laufen muss, die (wie das Internet) vielleicht nicht vollständig für Gruppen-basierte Kommunikation geeignet ist.


Bei komplexen Prozessen ist es oft notwendig, einen gemeinsamen Zeitbegriff in der Datenverarbeitung zu realisieren (Synchronisierung ohne Prozess-Kommunikation). Hierfür muss sichergestellt werden, dass die jedem Prozess bekannte Zeit nur mit kleinen Abweichungen übereinstimmt. So lassen sich verteilte Transaktionen sicher durchführen, da hier mit Hilfe von Timeouts eine Veralterung ausgesendeter Nachrichten vermieden wird. (Siehe auch „Algorithmen zur Uhren-Synchronisation“ unten).


Außerdem erschweren verteilte Systeme die (zentrale) Administration, besonders bei nicht-strukturierten Topologien. Je nach Anwendung treffen Millionen unterschiedlich konfigurierter Rechner aufeinander, die außerdem noch völlig fremden Personen gehören können.[3][4]



Modelle |


Bei verteilten Systemen geht man von unterschiedlichen Kommunikationsmodellen aus.



Asynchrones Modell

Prozesse haben im asynchronen Modell nur den Zustand aktiv und passiv. Nur ein aktiver Prozess versendet Nachrichten. Ein aktiver Prozess kann jederzeit passiv werden, wohingegen ein passiver Prozess nur durch eine Nachricht reaktiviert werden kann.



Synchrones Modell

Beim synchronen Modell haben Nachrichten selbst keine Laufzeit. Diese Verhaltensweise wird in der Praxis durch die Synchrone Kommunikation erreicht.



Atommodell

Beim Atommodell haben zwar die Nachrichten eine Laufzeit, allerdings haben die Prozesse selbst keine Laufzeit.



Algorithmen |



Algorithmen zur Uhren-Synchronisation |



Logische Uhren


Logische Uhren geben Ereignissen eindeutige Zeitstempel. Anders als bei Echtzeituhren ist der Anspruch hier nicht das Messen der physikalischen Zeit, sondern allein ein monoton steigender Zeitwert, um eine Kausalordnung der Ereignisse erkennbar zu machen.



  • Mittelwert-Algorithmus

  • Logische Zeitstempel nach Lamport

  • Vektoruhr


Physikalische Uhren-Synchronisation


  • Algorithmus von Cristian

  • Berkeley-Algorithmus

  • Network Time Protocol



Broadcastalgorithmen |


Das Ziel eines Broadcasts ist die Verteilung einer Information im gesamten Netz.


Beispiele:



  • Flooding-Algorithmus

  • Echo-Algorithmus



Auswahlalgorithmen |


Auswahlalgorithmen können in zwei Kategorien unterteilt werden: Algorithmen, die aus einer Menge von identischen Knoten einen eindeutigen Knoten auswählen und Maximumsalgorithmen, die aus einer Menge von Knoten mit eindeutiger ID den Knoten mit der größten ID auswählen.


Beispiele:



  • Bullyalgorithmus

  • Nachrichtenauslöschung nach Chang und Roberts

  • Randomisierte Auswahl in bidirektionalen Ringen

  • Las Vegas-Auswahl für anonyme Ringe

  • Hirschberg/Sinclair-Auswahlalgorithmus

  • Wahlalgorithmus auf Bäumen

  • Echo-Algorithmus


  • Itai-Rodeh-Algorithmus (Auswahl auf anonymen unidirektionalen Ringen)

  • Algorithmus von Peterson (Auswahl auf Ringen)



Nebenläufigkeitskontrolle |


  • Locking/Mutex Algorithmen

    • Serverbasierte Mutex

    • Token Ring

    • Ricart-Agrawala-Algorithmus


    • Maekawa-Algorithmus (Voting-Sets)




Siehe auch |



  • Schnappschussalgorithmus

  • CORBA

  • RPC

  • Cloud-Computing

  • Grid-Computing

  • Plan 9 (Betriebssystem)

  • Rainbow (Betriebssystem)

  • Erlang (Programmiersprache)

  • CAP-Theorem



Literatur |



  • Günther Bengel, Christian Baun, Marcel Kunze, Karl-Uwe Stucky: Masterkurs Parallele und Verteilte Systeme. Vieweg+Teubner, 2008, ISBN 978-3-8348-0394-8.


  • Andrew S. Tanenbaum, Maarten van Steen: Verteilte Systeme. 2., aktualisierte Auflage, Pearson Studium, 2007, ISBN 978-3-8273-7293-2.

  • Günther Bengel: Verteilte Systeme. 3. Auflage, Vieweg, Braunschweig 2004, ISBN 3-528-25738-5.

  • George Coulouris, Jean Dollimore, Tim Kindberg: Distributed Systems: Concepts and Design. Addison-Wesley Longman, Amsterdam; 4. Auflage (14. Juni 2005), ISBN 0-321-26354-5.



Weblinks |



  • Folien und Video der Vorlesung „Verteilte Systeme“ an der TU Braunschweig


Einzelnachweise |




  1. Hagit Attiya, Jennifer Welch: Distributed Computing: Fundamentals, Simulations, and Advanced Topics. Wiley Series on Parallel and Distributed Computing. John Wiley & Sons, 2004, ISBN 978-0-471-45324-6, S. 2 (Übersetzung des Begriffs „Distributed Computing“ nach Masterkurs Parallele und Verteilte Systeme, S. 25). 


  2. Distributed Systems Principles (PDF; 78 kB)


  3. Andrew Warfield, Yvonne Coady, and Norm Hutchinson: Identifying Open Problems In Distributed Systems (PDF; 40 kB)


  4. Security Engineering: A Guide to Building Dependable Distributed Systems, Kapitel 6 (PDF; 568 kB)









Popular posts from this blog

To store a contact into the json file from server.js file using a class in NodeJS

Redirect URL with Chrome Remote Debugging Android Devices

Dieringhausen