Zurück   EffizienzGurus Forum > Software & mehr > Netzwerk, Sicherheit & Co

Hinweise

Distributed Computing

Dieses Thema wurde 0 mal beantwortet und 7559 x angesehen.

Antwort
 
Themen-Optionen
Alt 26.06.2010, 06:01   #1
EG-Staff
Pixeldompteur
 
Benutzerbild von Drag
 
Registriert seit: 12.2006
Ort: Maxhütte-Haidhof
Beiträge: 728
Standard Distributed Computing

Was ist Distributed Computing (Verteiltes Rechnen)
Distributed Computing ist eine Technik bei der Berechnungen auf verschiedene Computer Systeme aufgeteilt werden um so die Rechenleistung der Systeme zu kombinieren und ein Ergebnis schneller berechnen zu können.

Einsatzgebiete
Distributed Computing wird in vielen Bereichen der Forschung eingesetzt, vor allem bei sehr rechenintensiven Anwendungen (z. B. Docking-Simulationen für das Design künftiger Medikamente, die Berechnung von Proteinfaltungsvorgängen, die Suche nach Primzahlen oder die Widerlegung von mathematischen Vermutungen), für deren Bearbeitung die Leistung von herkömmlichen Supercomputern nicht ausreicht, oder für die nur ungenügende finanzielle Mittel zur Verfügung stehen. Distributed-Computing-Projekte finden sich demnach sehr häufig bei von Universitäten, Stiftungen oder kleinen, bzw. mittelständischen Firmen durchgeführten Projekten.



Berkeley Open Infrastructure for Network Computing (BOINC)


Die Berkeley Open Infrastructure for Network Computing ist eine, von der Universität Berkeley entwickelte, Software-Plattform für verteiltes Rechnen.

So können auch Privatpersonen ihre ungenutzte Rechenleistung dazu verwenden, Weltweit Projekte zu unterstützen. Diese Projekte, arbeiten meist gemeinnützig und werden von Universitäten oder anderen Institutionen betreut.

Homepage: http://boinc.berkeley.edu/


Bestandteile auf Client-Seite


Der Core-Client ist ein im Hintergrund laufendes Kommandozeilen-Programm. Er steuert und überwacht die wissenschaftlichen Anwendungen, puffert Arbeitspakete und kommuniziert mit den Schedulern und Datenservern der Projekte.

Der BOINC Manager ist eine grafische Oberfläche zur Konfiguration und Überwachung des Core-Clients. Er ist auf vielen Plattformen lauffähig. (Windows, Linux, Mac OS X, ...)

Das Programm boinc_cmd erlaubt es, den Core-Clienten über die Kommandozeile zu steuern, beispielsweise wenn keine grafische Oberfläche verfügbar ist (wie bei Servern).

Jedes Projekt stellt Anwendungen bereit, die vom Core-Client heruntergeladen und zur Berechnung der Arbeitspakete verwendet werden. Diese werden zur Laufzeit vom Core-Client überwacht. Die Funktionen für diese Überwachung werden in der von BOINC mitgelieferten Programmierschnittstelle (BOINC-API) bereitgestellt.




Bestandteile auf Server-Seite


Der Scheduler ist ein CGI-Programm auf dem Webserver des Projekts. Er teilt die Arbeitspakete zu und nimmt nach getaner Arbeit eine kurze Meldung über Erfolg/Misserfolg entgegen. Alle Aktivitäten werden in der Datenbank protokolliert.

Ein einfacher HTTP-Server, von dem die Clients ihre zugeteilten Arbeitspakete herunterladen und die Ergebnisse hochladen.

Der Validator (ein für jedes Projekt unterschiedliches Programm) prüft die von den Clients zurückgelieferten Ergebnisdateien auf Korrektheit. Meist geschieht dies dadurch, dass ein Arbeitspaket von mehreren Teilnehmern redundant bearbeitet wird. Der Validator vergleicht dann die Ergebnisse. Idealerweise sind sie identisch.

Der Assimilator ist ein projektspezifisches Programm. Er nimmt validierte Ergebnisse und bereitet sie zur weitergehenden wissenschaftlichen Analyse auf. Dazu können die Ergebnisse beispielsweise in einer weiteren Datenbank archiviert werden.

Mit dem File-Deleter werden nicht mehr benötigte Dateien vom Server gelöscht. (Wie zum Beispiel die vom Client zurückgelieferten Ergebnisse nachdem sie "assimiliert" wurden)

Der Transitioner überwacht den Fortschritt der Arbeitspakete. So stößt er beispielsweise den Validator an, wenn er feststellt, dass zu einem Arbeitspaket genügend redundante Ergebnisse vorliegen, so dass mit der Validierung begonnen werden kann.




Projekte
Es gibt eine Vielzahl von Projekten, hier möchte ich nur einen kleinen Teil auflisten.





SETI@home ist ein Projekt für verteiltes Rechnen der Universität Berkeley, das sich mit der Suche nach außerirdischem intelligenten Leben befasst.

SETI@home verteilt zwei Programme: SETI@home Enhanced und Astropulse.

Während SETI@home Enhanced im schmalbandigen Frequenzbereich tätig ist, sucht Astropulse hingegen nach breitbandigeren Pulsen kurzer Dauer. Es werden hauptsächlich drei Tests mit den Daten durchgeführt:

* Suche nach Gaußschen Anstiegen und Fällen der Übertragungsleistung, die möglicherweise auf eine Radioquelle hindeuten könnten.
* Suche nach Pulsen, die eine schmalbandige Digital-artige Transmission sein könnten
* Suche nach Tripeln, also drei Pulsen nacheinander

Homepage: http://setiathome.ssl.berkeley.edu/






MilkyWay@home ist ein Projekt für verteiltes Rechnen am Computer Science Department des Rensselaer Polytechnic Institute.
Das Ziel des Projektes ist es, ein hochgenaues 3D-Computermodell der Milchstraße zu erstellen, wobei die Daten benutzt werden, die vom Sloan Digital Sky Survey erfasst wurden.

Die Forschung konzentriert sich dabei einerseits auf die Astroinformatik und andererseits auf die allgemeine Informatik.

Homepage: http://milkyway.cs.rpi.edu/milkyway/






Einstein@home (E@h) ist ein Projekt für verteiltes Rechnen der LIGO Scientific Collaboration (LSC).
Es sucht in den vom Laser Interferometer Gravitational wave Observatory in den Vereinigten Staaten und dem deutschen GEO600 gesammelten Daten nach Hinweisen auf Gravitationswellen von extrem dichten, schnell rotierenden kompakten Sternen.
Dazu gehören Pulsare. Laut der Allgemeinen Relativitätstheorie deformieren solche Sterne die Raumzeit um sie herum, wobei messbare Gravitationswellen entstehen sollten.

Seit Ende März 2009 wird zusätzlich noch nach binären Radiopulsaren in den Daten des Areciboteleskops gesucht.

Homepage: http://einsteinathome.org/







Rosetta@home ist ein Projekt für verteiltes Rechnen der University of Washington.
Es versucht Proteinstrukturen und Proteinbindungen aus einer Aminosäuresequenz vorherzusagen.

Dabei werden Algorithmen entwickelt und getestet, die eine zuverlässige Strukturvorhersage ermöglichen. Eine akkurate Vorhersage von Proteinstrukturen könnte sich als sehr hilfreich für die Entwicklung von Heilverfahren für beispielsweise AIDS, Krebs, Malaria, Alzheimer und Virenerkrankungen erweisen.

Homepage: http://boinc.bakerlab.org/rosetta






Bei World Community Grid (WCG) handelt es sich um ein von IBM unterstütztes nicht-kommerzielles Projekt für verteiltes Rechnen.

World Community Grid vereint mehrere Projekte unter einer Oberfläche.

Alle Projekte, die bei World Community Grid teilnehmen, werden von Non-Profit-Organisationen geleitet und deren Ergebnisse unter Public Domain veröffentlicht.

Es ist möglich, zwischen den verschiedenen Projekten zu wählen und alle oder auch nur einzelne Projekte zu unterstützen. Die Projekte haben jedoch unterschiedliche Systemvoraussetzungen, so dass unter Umständen die Teilnahme an einem bestimmten Projekt nicht möglich ist.

Homepage: http://www.worldcommunitygrid.org/






__________________
Twitter: @The_Black_Pixel
Blog: http://black-pixel.net
Google Plus: +1

Geändert von Drag (12.12.2010 um 11:53 Uhr)
Drag ist offline   Mit Zitat antworten
Antwort

Lesezeichen

Themen-Optionen

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Trackbacks are aus
Pingbacks are an
Refbacks are aus


Alle Zeitangaben in WEZ +1. Es ist jetzt 07:24 Uhr.


Powered by vBulletin® Version 3.7.5 (Deutsch)
Copyright ©2000 - 2018, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.2.0

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41