T
Taudan
Guest
Die präzise Vermessung des Sternenhimmels
Neue Teleskope und Raumsonden werden in den kommenden Jahren eine Flut an Messdaten liefern. Doch nur zusammen mit verfeinerten Simulationen können die Astronomen das Universum besser verstehen.
Von Hermann-Michael Hahn
Der Satellit Gaia der Esa soll die Entfernungen und Helligkeiten von einer Milliarde Sternen messen
Nicht nur die Menschheitsgeschichte allgemein kennt eine Entwicklung vom Jäger und Sammler über den Ackerbau zum modernen Dienstleister - auch die Erforscher des Weltalls haben einen ähnlichen Wandel vollzogen. Während das Sammeln von astronomischen Daten eine jahrtausendealte Tradition besitzt - schon auf sumerischen Keilschrifttafeln findet man Angaben über die Positionen der Planeten am Himmel -, ist das Modellieren astronomischer Objekte eine eher junge Disziplin dieser ältesten Wissenschaft. Weil aber neue Satelliten und Teleskope demnächst eine bislang unerreichte Flut an Daten auslösen werden, trug die alljährliche wissenschaftliche Herbsttagung der Astronomischen Gesellschaft diesmal den Titel "Surveys and Simulations - The Real and the Virtuell Universe" (Sammeln und Modellieren - das reale und das virtuelle Universum).
Nachfolger von erfolgreichen Missionen
Mehr als vierhundert Astronomen aus zehn Ländern trafen sich in der vergangenen Woche in Heidelberg, um über neue Ergebnisse und Entwicklungen in der Erforschung des Universums zu diskutieren. So soll Gaia, der nächste europäische Astrometriesatellit und Nachfolger der erfolgreichen Hipparcos-Mission der neunziger Jahre, von 2013 an die Positionen, Helligkeiten und Entfernungen von mehr als einer Milliarde Sternen vermessen. Wie Timo Prusti vom Esa-Technologiezentrum Estec in Noordwijk betonte, stellt dies gegenüber Hipparcos eine ungeahnte Steigerung dar: Während Sterndistanzen bislang nur in etwa siebenhundert Fällen auf weniger als ein Prozent genau bekannt sind, wird Gaia diese Zahl auf rund zehn Millionen anschwellen lassen. Hinzu kommen bei mehr als zehn Prozent der erfassten Sterne zusätzliche Spektren, aus denen Temperatur, Oberflächengravitation, die Radialgeschwindigkeit und die chemische Zusammensetzung bestimmt werden können.
Erfassung des Radiohimmels
Die Lofar-Station von Tautenburg vor der Kuppel des 2-Meter-Teleskops der Thüringer Landessternwarte
Doch nicht nur im sichtbaren Bereich des Spektrums wird die Datenmenge in den kommenden Jahren stark zunehmen. So machte Heino Falcke von der Radboud Universiteit Nijmegen deutlich, dass mit Lofar, einem neuartigen "Computer-Radioteleskop", ständig der gesamte, über dem Horizont befindliche Radiohimmel gleichzeitig erfasst werden kann, was sogar eine nachträgliche Fokussierung auf jedes beliebige Objekt am Himmel ermöglicht. Lofar ist vor allem für langwellige Radiostrahlung empfindlich, die bislang noch wenig erforscht wurde. Die einzelnen Antennenbereiche bestehen aus jeweils 192 einfachen Dipolantennen, deren Daten über Hochleistungsdatenleitungen zum Zentralrechner an der Universität in Groningen geleitet werden. Erst am vergangenen Montag wurde auf dem Gelände des schwedischen Weltraumobservatoriums Onsala südlich von Göteborg eine derartige Antennenanlage dieses Verbundteleskops in Dienst gestellt, und am 5. Oktober geht am Forschungszentrum Jülich eine weitere Anlage in Betrieb. Lofar gilt darüber hinaus als ein Vorläuferteleskop für das geplante "Square Kilometer Array", das eine Antennenfläche von einem Quadratkilometer (das entspricht der Fläche von etwa 130 Effelsberg-Radioteleskopen mit jeweils 100 Meter Durchmesser), verteilt auf zahlreiche kleinere Parabolantennen, bündeln soll. Über den Standort - Australien oder Südafrika - soll noch in diesem Jahr entschieden werden, damit die Bauarbeiten im Jahr 2013 beginnen können.
Mehr Informationen durch bessere Simulationen
Allerdings liefert die Datenflut alleine noch kein besseres Verständnis der Welt. Weil aber astronomische Prozesse in der Regel gewaltige Zeiträume in Anspruch nehmen, entwickeln die Forscher immer komplexere Simulationsrechnungen, um ihre Theorien überprüfen zu können. Der Vorteil dieser "experimentellen Astrophysik": Durch Verändern der Anfangsbedingungen lassen sich die Ergebnisse so lange variieren, bis sie mit den Beobachtungen übereinstimmen. Das gilt für die Entstehung und Frühgeschichte des Sonnensystems ebenso wie für die Explosion einer Supernova oder die Kollision zweier Galaxien. Zwar haben die Forscher auch dann noch keine Gewissheit, dass bestimmte Entwicklungen im Kosmos wirklich so begonnen haben und abgelaufen sind, wie es die am Ende "erfolgreichen" Modellszenarien nahelegen. Aber je genauer die wirksamen Prozesse modelliert werden können, desto größer dürfte die Übereinstimmung zwischen virtuellem und realem Universum werden.
Realistische Szenarien
Prototyp des Antennenarrays Lofar in den Niederlanden
Entsprechend ausführlich wurde in Heidelberg die Frage diskutiert, inwieweit das beobachtbare Universum in unserer Umgebung in seiner Vielfalt den Vorhersagen entspricht, die man aus den bisherigen Modellrechnungen über seine zurückliegende Entwicklung abgeleitet hat. So fand Simone Weinmann von der Sterrewacht der Universiteit Leiden gemeinsam mit Forschern des Astronomischen Recheninstituts Heidelberg, dass bestimmte Modellvarianten zur Entwicklung von Zwerggalaxien in Galaxienhaufen recht gute Ergebnisse liefern können, sofern regionale Besonderheiten der einzelnen Haufen gebührend berücksichtigt werden. Solche als halbanalytische Modelle bezeichneten Szenarien basieren auf Berechnungen zur Entwicklung von Ansammlungen aus dunkler Materie, die als "Kondensationskeime" von Zwerggalaxien gelten. Obwohl deutlich wurde, dass einige Teilaspekte wie etwa die Auswirkungen von Galaxienkollisionen auf leuchtschwache Galaxien noch unbefriedigend verstanden sind, scheint die Anwendung solcher Modelle auch auf weiter entfernte Gebiete der Raumzeit vertretbar.
Neue Teleskope und Raumsonden werden in den kommenden Jahren eine Flut an Messdaten liefern. Doch nur zusammen mit verfeinerten Simulationen können die Astronomen das Universum besser verstehen.
Von Hermann-Michael Hahn
Der Satellit Gaia der Esa soll die Entfernungen und Helligkeiten von einer Milliarde Sternen messen
Nicht nur die Menschheitsgeschichte allgemein kennt eine Entwicklung vom Jäger und Sammler über den Ackerbau zum modernen Dienstleister - auch die Erforscher des Weltalls haben einen ähnlichen Wandel vollzogen. Während das Sammeln von astronomischen Daten eine jahrtausendealte Tradition besitzt - schon auf sumerischen Keilschrifttafeln findet man Angaben über die Positionen der Planeten am Himmel -, ist das Modellieren astronomischer Objekte eine eher junge Disziplin dieser ältesten Wissenschaft. Weil aber neue Satelliten und Teleskope demnächst eine bislang unerreichte Flut an Daten auslösen werden, trug die alljährliche wissenschaftliche Herbsttagung der Astronomischen Gesellschaft diesmal den Titel "Surveys and Simulations - The Real and the Virtuell Universe" (Sammeln und Modellieren - das reale und das virtuelle Universum).
Nachfolger von erfolgreichen Missionen
Mehr als vierhundert Astronomen aus zehn Ländern trafen sich in der vergangenen Woche in Heidelberg, um über neue Ergebnisse und Entwicklungen in der Erforschung des Universums zu diskutieren. So soll Gaia, der nächste europäische Astrometriesatellit und Nachfolger der erfolgreichen Hipparcos-Mission der neunziger Jahre, von 2013 an die Positionen, Helligkeiten und Entfernungen von mehr als einer Milliarde Sternen vermessen. Wie Timo Prusti vom Esa-Technologiezentrum Estec in Noordwijk betonte, stellt dies gegenüber Hipparcos eine ungeahnte Steigerung dar: Während Sterndistanzen bislang nur in etwa siebenhundert Fällen auf weniger als ein Prozent genau bekannt sind, wird Gaia diese Zahl auf rund zehn Millionen anschwellen lassen. Hinzu kommen bei mehr als zehn Prozent der erfassten Sterne zusätzliche Spektren, aus denen Temperatur, Oberflächengravitation, die Radialgeschwindigkeit und die chemische Zusammensetzung bestimmt werden können.
@charset "utf-8";.google_font {font-family:Verdana, Geneva, Arial, Helvetica, sans-serif; text-align:left;}.google_font a:link {text-decoration:none; outline:0;}.google_font a:visited {text-decoration:none; outline:0;}.google_font a:active {text-decoration:none; outline:0;}.google_font a:focus {text-decoration:none; outline:0;}.google_font a:hover {text-decoration:underline; color:#CC0000;}
Erfassung des Radiohimmels
Die Lofar-Station von Tautenburg vor der Kuppel des 2-Meter-Teleskops der Thüringer Landessternwarte
Doch nicht nur im sichtbaren Bereich des Spektrums wird die Datenmenge in den kommenden Jahren stark zunehmen. So machte Heino Falcke von der Radboud Universiteit Nijmegen deutlich, dass mit Lofar, einem neuartigen "Computer-Radioteleskop", ständig der gesamte, über dem Horizont befindliche Radiohimmel gleichzeitig erfasst werden kann, was sogar eine nachträgliche Fokussierung auf jedes beliebige Objekt am Himmel ermöglicht. Lofar ist vor allem für langwellige Radiostrahlung empfindlich, die bislang noch wenig erforscht wurde. Die einzelnen Antennenbereiche bestehen aus jeweils 192 einfachen Dipolantennen, deren Daten über Hochleistungsdatenleitungen zum Zentralrechner an der Universität in Groningen geleitet werden. Erst am vergangenen Montag wurde auf dem Gelände des schwedischen Weltraumobservatoriums Onsala südlich von Göteborg eine derartige Antennenanlage dieses Verbundteleskops in Dienst gestellt, und am 5. Oktober geht am Forschungszentrum Jülich eine weitere Anlage in Betrieb. Lofar gilt darüber hinaus als ein Vorläuferteleskop für das geplante "Square Kilometer Array", das eine Antennenfläche von einem Quadratkilometer (das entspricht der Fläche von etwa 130 Effelsberg-Radioteleskopen mit jeweils 100 Meter Durchmesser), verteilt auf zahlreiche kleinere Parabolantennen, bündeln soll. Über den Standort - Australien oder Südafrika - soll noch in diesem Jahr entschieden werden, damit die Bauarbeiten im Jahr 2013 beginnen können.
Mehr Informationen durch bessere Simulationen
Allerdings liefert die Datenflut alleine noch kein besseres Verständnis der Welt. Weil aber astronomische Prozesse in der Regel gewaltige Zeiträume in Anspruch nehmen, entwickeln die Forscher immer komplexere Simulationsrechnungen, um ihre Theorien überprüfen zu können. Der Vorteil dieser "experimentellen Astrophysik": Durch Verändern der Anfangsbedingungen lassen sich die Ergebnisse so lange variieren, bis sie mit den Beobachtungen übereinstimmen. Das gilt für die Entstehung und Frühgeschichte des Sonnensystems ebenso wie für die Explosion einer Supernova oder die Kollision zweier Galaxien. Zwar haben die Forscher auch dann noch keine Gewissheit, dass bestimmte Entwicklungen im Kosmos wirklich so begonnen haben und abgelaufen sind, wie es die am Ende "erfolgreichen" Modellszenarien nahelegen. Aber je genauer die wirksamen Prozesse modelliert werden können, desto größer dürfte die Übereinstimmung zwischen virtuellem und realem Universum werden.
Realistische Szenarien
Prototyp des Antennenarrays Lofar in den Niederlanden
Entsprechend ausführlich wurde in Heidelberg die Frage diskutiert, inwieweit das beobachtbare Universum in unserer Umgebung in seiner Vielfalt den Vorhersagen entspricht, die man aus den bisherigen Modellrechnungen über seine zurückliegende Entwicklung abgeleitet hat. So fand Simone Weinmann von der Sterrewacht der Universiteit Leiden gemeinsam mit Forschern des Astronomischen Recheninstituts Heidelberg, dass bestimmte Modellvarianten zur Entwicklung von Zwerggalaxien in Galaxienhaufen recht gute Ergebnisse liefern können, sofern regionale Besonderheiten der einzelnen Haufen gebührend berücksichtigt werden. Solche als halbanalytische Modelle bezeichneten Szenarien basieren auf Berechnungen zur Entwicklung von Ansammlungen aus dunkler Materie, die als "Kondensationskeime" von Zwerggalaxien gelten. Obwohl deutlich wurde, dass einige Teilaspekte wie etwa die Auswirkungen von Galaxienkollisionen auf leuchtschwache Galaxien noch unbefriedigend verstanden sind, scheint die Anwendung solcher Modelle auch auf weiter entfernte Gebiete der Raumzeit vertretbar.