Trotz seines Titels wird auch diese FAQ-Seite dieses Thema nicht (erschöpfend) behandeln - denn die Urknall-Theorie ist, obwohl dies von vielen angenommen wird, nicht eine Theorie über den Ursprung des Universums, sondern über seine zeitliche Entwicklung (oft auch als "kosmische" oder "kosmologische Evolution" bezeichnet - was manchmal zu Verwechslungen mit der eigentlichen Evolutionstheorie führt, die sich eigentlich nur auf biologische "Ursprünge" bezieht). Bis heute hat die Wissenschaft keine Erklärung für den eigentlichen Ursprung des Universums (es gibt allerdings einige Ideen hierzu, die weiter unten kurz angesprochen werden). Andererseits ist die Urknall-Theorie unzweifelhaft eine Theorie über Ursprünge - den Ursprung der Materie, den Ursprung der Elemente, den Ursprung der Kosmischen Mikrowellen-Hintergrundstrahlung, den Ursprung der großräumigen Strukturen im Universum usw. All dies wird weiter unten ausführlich erklärt und diskutiert werden.
Hier im deutschsprachigen Raum ist der primäre Grund für diese FAQ-Seite natürlich hinfällig - die Kreationisten-Bewegung ist hier praktisch nicht existent. Auch andere religiöse Implikationen der Theorie (teilweise wird sie als "atheistische Theorie bezeichnet, nur erfunden, damit Wissenschaftler die Existenz Gottes leugnen können, andererwseits wird sie von vielen Christen als Beweis für dessen Existenz angesehen!) sind hier weit unwichtiger als in den USA. Wer dennoch an diesem Thema interessiert ist, findet dazu mehr beispielsweise auf der Webseite Big Bang Theory rules out a creator for the universe oder im in der Literaturliste zitierten Buch von book by Craig and Smith.
Aber auch hier in Deutschland gilt ein anderer Hauptgrund für die Existenz dieser Seite weiterhin: die Urknall-Theorie ist eine der bestbekannten wissenschaftlichen Theorien in der Öffentlichkeit - aber leider auch eine der am meisten missverstandenen und falsch dargestellten Theorien. Eine deutsche Übersetzung dieser FAQ-Seite schien also angebracht - und liegt hiermit vor. Das FAQ wird im folgenden erklären, was die Theorie wirklich aussagt, warum sie entwickelt wurde, und was die Belege für sie sind; aber auch einige offene Probleme werden angesprochen und diskutiert.
Erst anschließend, in Kapitel 2, wird näher darauf eingegangen, welche Vorhersagen die Theorie macht, und wie gut diese Vorhersagen mit den Beobachtungen übereinstimmen - mit anderen Worten, was die Belege für die Theorie sind. In Kapitel 3 werden einige der häufigsten Einwände gegen und Probleme mit der Theorie besprochen, bevor in Kapitel 4 einige alternative kosmologische Modelle kurz angesprochen werden. Kapitel 5 skizziert einige derzeitige Ideen über die früheste Zeit und den eigentlichen Ursprung des Universums. Schlußendlich enthält Kapitel 6 eine Zusammenfassung - und einen Ausblick, welche Vorschritte voraussichtlich in den nächsten Jahren in der Kosmologie zu erwarten sind.
In der Literaturliste finden sich einige gute Bücher über die Theorie - auf verschiedenen Niveaus. Beispielsweise richten sich die Bücher von Peebles und von Kolb & Turner an Leute mit gutem mathematischen Vorwissen. Die Bücher von Coles und Harrison sind dagegen weit weniger technisch. Wer vor allem an den frühesten Entwicklungsstadien des Universums (Nukleosynthese usw,), einschließlich der zugrundeliegenden Elementarteilchen-Physik, interessiert ist, dem sei das Buch von Fritzsch sehr ans Herz gelegt. Auch das recht bekannte Buch Die ersten drei Minuten von Weinberg ist hierfür empfehlenswert. Beide sind für die allgemeine Öffentlichkeit geschrieben und setzen praktisch keine mathematischen Vorkenntnisse voraus.
All die bisher erwähnten Bücher haben ein aber ein großes Problem: sie sind (zumindest teilweise) veraltet. Die Entwicklungen und Beobachtungen der letzten Jahre, wie die beschleunigte Ausdehnung des Universums und die vom WMAP-Satelliten gelieferten Daten, sind nicht enthalten. Neuere Literatur, die diese Themen enthält, sind beispielsweise die Bücher von Peacock, Kirshner und Livio. Zu all diesen Büchern gibt es sehr lobende Buchbesprechungen; der Autor dieser Seite hat allerdings keine persönlichen Erfahrungen mit ihnen. Das erste ist ein Lehrbuch für Studenten, die anderen beiden sind auch für Laien verständlich.
Schließlich und endlich gibt es auch seit relativ kurzer Zeit ein sehr gutes deutsches Buch zur Kosmologie, das sich an die allgemeine Öffentlichkeit richtet: Kosmologie für die Westentasche, geschrieben von dem Astrophysiker Kippenhahn (Universität München).
Eine weithin bekannte (und sehr gut gemachte) Website über die Urknall-Theorie ist das "cosmology tutorial" des professionellen Kosmologen Edward L. (Ned) Wright, welches auch an mehreren Stellen als Quelle für dieses FAQ verwendet wurde. Ned Wright schrieb auch ein exzellentes FAQ über die UT, aktualisiert seine Website regelmäßig mit den neuesten Neuigkeiten in der Kosmologie, und diskutiert einige der bekanntesten alternativen kosmologischen Modelle.
Auch die NASA hat einige sehr gute Webseiten über die theoretischen Grundlagen der UT und die Beobachtungen, um sie zu testen, geschrieben für Laien. Man findet sie auf der Website des WMAP-Satelliten: Cosmology: The Study of the Universe. Andere gut geschriebene Seiten über die UT finden sich beispielsweise auf Wikipedia: die Seiten zum Universum und zum The Big Bang and the Expansion of the Universe auf der Website An Atlas of the Universe, welches einige der häufigsten Fehlvorstellungen ausräumt.
Hier verstecken sich gleich mehrere Fehlvorstellungen:
Das bereits erwähnte Buch "Kosmologie fuer die Westentasche" des deutschen Astrophysikers Rudolf Kippenhahn enthält ebenfalls eine entsprechende Aussage: "Es ist auch ein weitverbreiteter Irrtum zu glauben, das Hubblesche Gesetz sage aus, der Urknall habe an einem bestimmten Punkt im Raum begonnen. Etwas so: An einem Punkt hat eine Art Explosion stattgefunden, darauf breitet sich von dort eine Explosionswolke wie bei einer irdischen Explosion in einen leeren Raum aus, und die Materie verduennt sich in ihr allmaehlich auf immer groessere Raumgebiete. Nein, das Hubblesche Gesetz besagt nur, dass die Materie frueher ueberall dicher war, und dass sie sich im Laufe der Zeit verduennt, weil alles auseinanderfliegt." und "In populaeren Darstellungen wird gerne auf fruehe Phasen des Weltalls hingewiesen, "als das Weltall so gross war wie ein Apfel" oder "wie eine Erbse". Gemeint ist damit meist die Epoche, in der nicht das ganze, sondern der nur heute beobachtbare Teil des Weltalls diese Groessen hatte." (Seite 46f; alle Hervorhebungen wie im Original)
Und auch auf der Webseite The ekpyrotic universe, welche ein neues Modell für die frühe Entwicklung des Universums vorschlägt, werden diese Fehlvorstellungen aufgezeigt; siehe der erste Abschnitt "What is the Big Bang model?". Zu dieser Webseite liegt auch eine deutsche Übersetzung vor.
Es gibt mannigfältige Gründe für diese Fehlvorstellungen; sogar die Bezeichnung "Urknall" klingt bereits nach einer Explosion, die an einem bestimmten Punkt stattfand. Aber diese Bezeichnung ist nur die eingedeutschte Version von "Big Bang" ("großer Knall") - und dieser Name wurde vom Astrophysiker Sir Fred Hoyle erfunden. Dieser war ein überzeugter Gegner der Theorie und ersann diese Bezeichnung nur, um ein Schlagwort zu haben, dem er seine eigene Theorie ("steady state", siehe Kapitel 4) gegenüberstellen konnte. Doch leider wurde dieser Name schnell auch von den Befürwortern der Theorie schnell aufgegriffen und als Schlagwort benutzt. Eine andere Quelle für die Fehlvorstellung eines explodierenden Punktes könnte der Ausdruck "Uratom" ("primeval atom") sein, der von Lemaitre, einem der Erfinder der Theorie, benutzt wurde, um den Ursprung des Universums zu beschreiben.
Aber der Hauptgrund ist wohl, dass diese bildliche Vorstellung für Laien relativ leicht verständlich ist, wohingegen die eigentlichen Aussagen der Theorie weit schwerer zu veranschaulichen sind. Und so verbreiten sich die falschen Darstellungen weiter und weiter - bis irgendwann manche Leute anfangen zu denken, dass die UT Blödsinn sei. Diese Verdrehungen der tatsächlichen Theorie können tatsächlich oft reichlich lächerlich erscheinen - solange man nicht die Wahrheit hinter ihnen kennt.
Die Hauptaussage der Theorie ist in etwa: "In früheren Zeiten war das Universum sehr dicht und heiss, und seit damals hat es sich ausgedehnt und bekam dadurch dünner und kühler." Diese "Ausdehnung" bedeutet nicht etwa, dass materielle Körper auseinanderfliegen - sie bedeutet, dass der Raum selbst sich ausdehnt! Übliche Analogien sind hier die Oberfläche eines Luftballons, der aufgeblasen wird (wobei die Galaxien durch Punkte oder Münzen auf der Oberfläche dargestellt werden), oder ein Teig, der aufgeht (wobei die Galaxien durch Rosinen im Teig dargestellt werden). Wie alle Analogien versagen auch diese beiden irgendwo: sie scheinen zu sagen, dass das Universum sich in einen bereits vorhandenen Raum hinein ausdehnt. Aber die Theorie sagt nichts dergleichen - sie beschreibt nur die Ausdehnung des dreidimensionalen Raumes, mit nichts "aussenherum", in den er sich ausdehnen würde (siehe dazu auch What is the Universe expanding into?).
Viele Leute haben ein Problem mit der Aussage "der Raum selbst dehnt sich aus". Schliesslich ist "der Raum selbst" nichts wirklich Fassbares, und manche Leute meinen gar, eigentlich wäre er doch "nichts". Deshalb ist eine alternative Formulierung oft besser: "Der Abstand zwischen je zwei beliebig gewählten Punkten vergrößert sich mit der Zeit". Aber auch diese Formulierung hat ihre Tücken und ist eigentlich nicht wirklich immer richtig; mehr darüber weiter unten im Abschnitt zur Rotverschiebung. Um wirklich zu verstehen, was hier gemeint ist, muss man eine Vorstellung davon haben, was die Allgemeine Relativitätstheorie (im folgenden "ART" abgekürzt) aussagt - Einsteins Theorie der Gravitation, aussagt. Denn auf diese Theorie gründet sich die UT letztlich.
Doch wiederum ist dies eine Theorie, die nicht leicht in der Alltagssprache beschreibbar ist. Misner, Thorne und Wheeler, drei Wissenschaftler, die für ihre Arbeiten zur ART berühmt sind, fassten sie einst in dieser kurzen Aussage zusammen (siehe ihr Buch über Gravitation): "Der Raum sagt der Materie, wie sie sich zu bewegen hat; die Materie sagt dem Raum, wie er sich zu krümmen hat." Aber das ist natürlich notwendigerweise eine allzu stark vereinfachte Beschreibung der ART. Einige wesentliche fehlende Bestandteile sind hier beispielsweise, dass der Raum nicht nur der Materie "sagt, wie sie sich zu bewegen hat", sondern auch der (elektromagnetischen) Strahlung (beispielsweise wird Licht von schweren Körpern, wie unserer Sonne, abgelenkt); dass nicht nur die Materie dem Raum "sagt, wie er sich zu krümmen hat", sondern auch Energie; dass nicht nur der Raum "gekrümmt" wird, sondern im Allgemeinen auch die Zeit ("Raumzeit"); und nicht nur Krümmung kann auftreten, sondern auch Streckung, Dehnung usw. Vielleicht beschreibt der folgende kurze Satz die ART schon besser: "Energie bestimmt die Geometrie und Änderungen in der Geometrie des Universums, und umgedreht bestimmt die Geometrie die Bewegung der Energie."
Wie kommt man denn aber nun von der ART zur UT? Eine der wichtigsten Annahmen in der Kosmologie, die hier benutzt wird, ist das sogenannte kosmologische Prinzip. Es besagt, dass das Universum homogen und isotrop ist, das heißt, dass es überall und in jede Richtung gleich aussieht. Offensichtlich kann dies nur für sehr großräumige Strukturen gelten - auf kleineren Längenskalen (Planeten, Galaxien, Galaxienhaufen usw.) sehen verschiedene Orte und verschiedene Richtungen im Universum ziemlich unterschiedlich aus! Aber wir haben gute Belege, dass das kosmologische Prinzip auf Skalen von mehreren hundert Millionen Lichtjahren in der Tat gilt - zumindest in unserer "Nachbarschaft" (mehr dazu unten im Abschnitt 2a). Andererseits können wir einen großen Teil des Universums nicht sehen (weil das Licht von dort uns noch nicht erreicht hat, und uns vielleicht nie wird erreichen können), und so kann das kosmologische Prinzip nie wirklich bewiesen werden - und muss eine Annahme bleiben.
Unter dieser Annahme der Homogenität und Isotropie kann man mathematisch zeigen, dass die möglichen Geometrien ("Formen") des Universums sehr beschränkt sind (siehe z. B. diese Vorlesungsnotizen über Kosmologie und ART und Die Friedmann-Robertson-Walker-Metrik). Aus der Annahme der Homogenität folgt, dass das Universum überall dieselbe "Krümmung" haben muss - und deshalb hat man nur noch drei Möglichkeiten zu unterscheiden: positive oder negative Krümmung, oder gar keine. Zwei-dimensionale Modelle sind oft sehr hilfreich, um sich dies vorzustellen: Im zwei-dimensionalen ist die Oberfläche einer Kugel (nicht die ganze Kugel!) ein Raum mit positiver Krümmung, eine Ebene ein Raum ohne Krümmung, und eine Sattel-artige Form (die in eine Richtung "aufwärts" und in die andere Richtung, senkrecht dazu, "abwärts" geht) ist ein Raum mit negativer Krümmung. Das Bild unten (freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team) zeigt eine Darstellung dieser drei Möglichkeiten.
Außerdem gibt es noch andere, kompliziertere Möglichkeiten für die Geometrie des Raumes, beispielsweise die eines Torus' (Rings), aber diese werden hier nicht weiter erörtert. Für Interessierte: der einschlägige Begriff ist hier Die Topology des Universums.)
Beachten Sie, dass aus dem kosmologischen Prinzip auch automatisch folgt, dass das Universum weder einen Rand noch einen Mittelpunkt hat - denn hätte es dies, so wäre die Annahme der Homogenität und Isotropie verletzt! (da das Universum am Rand offensichtlich deutlich anders aussehen würde als in der Nähe des Mittelpunktes) Man hat sich also sowohl die Ebene als auch den Sattel als bis ins Unendliche erstreckt vorzustellen; die Kugeloberfläche dagegen hat automatisch keinen Rand und keinen Mittelpunkt, obwohl sie nur eine endliche Größe hat. Es folgt, dass bei Gültigkeit des kosmologischen Prinzips das Universum unendlich groß sein muss, falls es negative oder gar keine Krümmung hat. Hat es dagegen positive Krümmung, so hat es eine endlich Größe. Kaum zu glauben, aber obwohl seit Jahrzehnten daran geforscht wird, wissen wir immer noch nicht, welche Krümmung unser Universum denn nun hat - und folglich wissen wir auch immer noch nicht, ob es eine endliche oder eine unendliche Größe hat.
Es ist sogar noch ein weniger einfacher: für alle (bekannten) möglichen Komponenten gibt es sogenannte "Zustandsgleichungen", welche die Energiedichte und den Druck miteinander in Zusammenhang setzt. Für jede mögliche Komponente muss man also nur die Energiedichte wissen; der Druck ergibt sich dann automatisch, indem man in die jeweilige Zustandsgleichung einsetzt.
Im Wesentlichen gibt es drei verschiedene Materie- bzw. Energieformen, die man zu betrachten hat:
Man sollte hier auch die Möglichkeit nicht außer Acht lassen, dass wir einen großen Teil der vorhandenen Materie nicht direkt beobachten können - auf der einen Seite, dunkle Objekte wie Planeten, ausgebrannte Sterne, kalte Gaswolken usw., auf der anderen Seite von Quantenfeldtheorien vorhergesagte Teilchen, die nicht mit Licht wechselwirken. Zusammenfassend bezeichnet man den letzteren Typ von Materie als "Dunkle Materie", wohingegen die "normale" Materie (Planeten die anderen oben erwähnten Objekte eingeschlossen) "baryonische" Materie genannt wird (da Protonen und Neutronen, die Hauptbestandteile normaler Materie, zu einer Baryonen genannten Teilchenfamilie gehören). Für Details siehe den Abschnitt über Dunkle Materie) weiter unten.
Da wir die Dunkle Materie nicht direkt beobachten können, wissen wir offensichtlich nicht, wie schnell sie sich bewegt - und also auch nicht, welchen Druck sie hat. Also müssten wir hier eigentlich zwischen "kalter Dunkler Materie" (welche sich langsam bewegt, d. h. eine niedrige Temperatur hat) und "heisser Dunkler Materie (schnell, also heiss) unterscheiden. Im zweiteren Fall wäre der Druck nicht vernachlässigbar, sondern vergleichbar groß wie die Energiedichte ("langsam" und "schnell" meint hier wieder verglichen mit der Lichtgeschwindigkeit). Zusätzlich müsste man im Allgemeinen auch "warme dunkle Materie", ein Mittelding zwischen beiden, berücksichtigen.
Das Einzige, was hier helfen kann, sind Beobachtungen. Und in der Tat lieferten ausgedehnte Beobachtungen in den letzten Jahren das Ergebnis, dass es kalte Dunkle Materie im Universum gibt, aber anscheinend keine oder nur sehr wenig warme oder heisse. Wiederum sei hier auf den Abschnitt über Dunkle Materie) weiter unten verwiesen.
Wenn die Größe eines Raumbereichs anwächst, dann steigt auch die in ihm enthaltene Menge an Vakuumenergie (da die Energiedichte der Vakuumenergie immer konstant bleibt). Vakuumenergie hat einen negativen Druck, aber die zugehörige Zustandsgleichung besagt, dass ihre Energiedichte gleich minus dem Druck ist, also positiv. Wenn man den Einfluss einer solchen Energieform mit positiver Dichte, aber negativem Druck, auf die Änderung der Geometrie des Raumes analysiert, so stellt sich heraus, dass dies zu einer abstossenden Kraft führt - das heißt, die Vakuumenergie wirkt der Gravitationskraft der Materie (einschließlich Dunkler Materie) entgegen und beschleunigt die Ausdehnung des Universums (anstatt diese abzubremsen).
Oft hört man auch die Bezeichnung "Kosmologische Konstante" für die Dunkle Energie. Die Gründe dafür sind historisch: Als Einstein zum ersten Mal versuchte, die ART auf das Universum als Ganzes anzuwenden, stellte er fest, dass das Universum sich entweder ausdehnen oder zusammenziehen sollte. Aber zu jener Zeit wurde allgemein angenommen, das Universum wäre statisch. Also schaute er sich die Annahmen, die er bei der Herleitung der Gleichungen der ART gemacht hatte, nochmals genauer an. Eine dieser Annahmen war, dass ein leeres Universum, das heißt eines ohne Materie oder Strahlung, ungekrümmt, also flach sein sollte. Einstein fand heraus, dass er diese Annahme fallenlassen konnte, ohne dadurch die wesentlichen Aussagen der ART zu ändern. Es tauchte allerdings ein neuer freier Parameter in den Gleichungen auf. Ordnete er diesem Parameter einen ganz bestimmten Wert zu, so ergaben die Gleichungen nun tatsächlich das gewünschte statische Universum! Infolgedessen nannte er diesen zusätzlichen Parameter die "Kosmologische Konstante".
Natürlich war dies eine reichliche ad hoc-Lösung für ein nur scheinbares Problem - wir wissen ja heutzutage, dass das Universum eben nicht statisch ist! Einstein nannte diesen "Trick" später seine "größte Eselei". Aber auf der anderen Seite wissen wir heutzutage auch, dass sogar ein "leerer" Raum, ohne Materie und Strahlung, immer noch die von der Quantenfeldtheorie vorhergesagten Vakuumfluktuationen enthalten muss - oder in anderen Worten: sogar ein "leerer" Raum enthält immer noch Energie und kann dementsprechend nicht flach sein! Dies rechtfertigt die Einführung der Kosmologischen Konstante im nachhinein - Jahrzehnte, nachdem Einstein sie ad hoc eingeführt hatte. Im Wesentlichen misst sie einfach die durch Quantenfluktuationen verursachte Vakuumenergiedichte, stellt also, wie oben ausgeführt, eine spezielle Form von Dunkler Energie dar. Vom heutigen Standpunkt aus war die Einführung der Kosmologischen Konstante also keine Eselei - eher die fast versehentliche Entdeckung eines notwendigen, sogar ausschlaggebenden zusätzlichen Parameters in den Gleichungen der ART (und damit auch den Gleichungen der UT).
Das sieht nach einer ziemlich langen Liste von Parametern aus - und man könnte argumentieren, dass die Übereinstimmung zwischen Theorie und Beobachtungsdaten einfach an der großen Zahl von freien Parametern liegt, deren Werte man ziemlich beliebig wählen könnte. Aber wie bereits angedeutet sind nicht alle dieser Parameter wirklich unabhängig voneinander (beispielsweise beeinflussen sich die Werte für den Hubble-Parameter, die Energiedichten und den Dezelerations-Parameter gegenseitig). Außerdem gibt es eine Vielzahl möglicher Beobachtungen, die man in der Kosmologie durchführen kann - Beobachtungen mit extrem unterschiedlichen Methoden, Empfindlichkeiten und systematischen Fehlern. Wenn eine große Anzahl solche unterschiedlicher Beobachtungen konsistent alle dieselben Werte für die Parameter ergeben (innerhalb der Fehlergrenzen), dann kann man sich sehr sicher sein, dass die zugrundeliegende Theorie wohl in der Tat wahr ist. Und genau dies passierte für die UT in den letzten Jahrzehnten, und insbesondere in den letzten paar Jahren. Inzwischen haben die Kosmologen ein "Standardmodell" für das Universum entwickelt.
Dieses Modell des Universums, das derzeit in der Kosmologie benutzt wird, wird allgemein das "Lambda CDM"-Modell genannt (Lambda ist ein griechischer Buchstabe, der in etwa wie ein auf dem Kopf stehendes V aussieht). Das Lambda steht hierbei für die Kosmologische Konstante, während "CDM" für "Cold Dark Matter", also kalte Dunkle Materie steht. Der Name des Modells enthält also die beiden Komponenten, die unseres Wissens in unserem Universum dominieren: Dunkle Energie und Dunkle Materie. Die relativen Häufigkeiten dieser beiden und der dritten wichtigen Komponente ("normale" Materie) sind hier in einem Tortendiagramm dargestellt (freundlicherweise zur Verfügung gestellt vom NASA/WMAP Team):
Dieses Diagramm wurde aus den Ergebnissen des WMAP-Satelliten gewonnen, über den weiter unten noch mehr zu hören sein wird.
Aber wenn man das Universum auf wirklich großen Skalen untersucht, das heißt Bereiche mit Größen von mehreren hunderten von Millionen Lichtjahren betrachtet, so stellt sich heraus, dass es in der Tat doch ziemlich homogen ist. Siehe dazu beispielsweise das Bild unten (freundlicherweise zur Verfügung gestellt von Ned Wright), welches aus Daten des sogenannten Las Campanas Redshift Survey erstellt wurde, bei dem die Rotverschiebungen von mehr als 20,000 Galaxien gemessen wurden. Jeder Punkt stellt in diesem Bild eine Galaxis dar. Beachten Sie, dass auf "kleineren" Skalen (bis zu einigen 100 Millionen Lichtjahren) immer noch eine gewisse Struktur sichtbar ist ("Große Mauern" und "Große Leeren"), aber auf größeren Skalen die Verteilung ziemlich gleichmäßig aussieht: Es gibt keine "Supermauern" oder "Superleeren".
Neben dieser homogenen Galaxienverteilung auf sehr großen Skalen gibt es noch einen anderen Beleg für die (großräumige) Homogenität des Universums: die Kosmische Mikrowellen-Hintergrundstrahlung (siehe unten im Abschnitt 2d). Das Grundpostulat der UT scheint also in der Tat gerechtfertigt zu sein. Also schauen wir uns nun im Folgenden an, welche Vorhersagen die Theorie macht, und ob die Beobachtungen mit diesen Vorhersagen übereinstimmen.
Eine weitere Quelle für Verwirrung ist oft, dass der Doppler-Effekt (vor allem für den Schall bekannt, aber auch beim Licht auftretend!) ganz ähnliche Auswirkungen hat: Wenn sich die Lichtquelle vom Beobachter wegbewegt, ist die Wellenlänge des vom Beobachter gesehenen Lichts länger als die Wellenlänge des von der Quelle ausgesandten Lichts (in ihrem Bezugssystem gemessen). Da sich durch die Ausdehnung des Universums alle Galaxien von uns weg zu bewegen scheinen (eine bessere Sichtweise ist hier, dass sich der Abstand zwischen ihnen und uns vergrößert, weil sich der Raum selbst ausdehnt), könnte man die kosmologische Rotverschiebung also auch so interpretieren, dass sie einfach durch den Doppler-Effekt entsteht. Aber dies ist irreführend - und ergibt (zumindest für hohe Rotverschiebungen) auch in der Tat falsche Ergebnisse (falls die Analyse nicht sehr sorgfältig durchgeführt wird - siehe Ned Wrights Seite zur Doppler-Verschiebung).
Es ergibt viel mehr Sinn, für die Rotverschiebung einfach die Ausdehnung des Universums verantwortlich zu machen: jetzt, wo das Licht beobachtet wird, ist das Universum "größer" als zu der Zeit, als es ausgesandt wurde - und die Wellenlänge des Lichts ist einfach mitgewachsen. Dies kann man auch in Lehrbüchern zur Kosmologie sehen: die Formel, um die Rotverschiebung eines Objekts zu berechnen, ist
In den zwanziger Jahren nahm man allgemein an, dass das Universum statisch ist (sich nicht verändert) und schon immer existiert hat. Auch Einstein nahm dies an - und erfand deshalb die Kosmologische Konstante, um das Universum statisch zu halten, als seine Anwendung der ART auf das Universum als Ganzes zeigte, dass dieses sich eigentlich entweder zusammenziehen oder ausdehnen sollte (siehe auch 1c). Aber nur wenige Jahre später, im Jahre 1929, machte E. P. Hubble eine überraschende Entdeckung: Er untersuchte das Licht, das von einigen weiter entfernten Galaxien ausgesandt wurde, und stellte fest, dass es eine Rotverschiebung aufwies. Außerdem fand er heraus, dass diese Rotverschiebung proportional zum Abstand war - eine Beziehung, die heutzutage als Hubble-Gesetz bekannt ist. Hubble interpretierte diese Rotverschiebung als Doppler-Verschiebung (wie es auch heutzutage noch in den meisten populärwissenschaftlichen Quellen getan wird - was strenggenommen nicht falsch, aber sehr irreführend ist; siehe oben): je weiter entfernt sich eine Galaxis befindet, desto schneller entfernt sie sich von uns. Offensichtlich ist das Universum also nicht statisch, sondern dehnt sich aus! Dies war die Geburtsstunde der UT.
Schreibt man die Rotverschiebung dem Doppler-Effekt zu, so folgt aus der Proportionalität zwischen Rotverschiebung und Abstand eine Proportionalität zwischen der Geschwindigkeit, mit der sich eine Galaxis anscheinend von uns wegbewegt, und dem Abstand (vorausgesetzt, diese Geschwindigkeit ist klein gegen die Lichtgeschwindigkeit). Die in dieser Beziehung auftauchende Proportionalitätskonstante heißt die Hubble-Konstante. Diese wurde im Abschnitt 1d bereits erwähnt; dort wurde gesagt, dass sie der heutige Wert des sogenannten Hubble-Parameters ist, welcher die (relative) Änderung der "Größe" des Universums misst. Obwohl dies auf den ersten Blick nicht offensichtlich ist, kann man mathematisch leicht zeigen, dass diese beiden Definitionen der Hubble-Konstante äquivalent sind. Hier wird aber nun klar, warum man von der Hubble-Konstanten spricht: das Verhältnis zwischen der (scheinbaren) Geschwindigkeit einer Galaxis und ihrer Entfernung zu uns ist für alle Galaxien gleich. Es scheint auch, dass man diesen Parameter der UT leicht messen kann: man muss "einfach" sowohl die Entfernung und die (scheinbaren) Geschwindigkeiten bzw. Rotverschiebungen von möglichst vielen Galaxien messen und daraus dieses Verhältnis berechnen, das ja für alle diese Galaxien denselben Wert haben sollte.
Leider ist das nicht so einfach, wie es klingt. Erstens ist es nicht gerade unkompliziert, die Entfernungen von Galaxien zu messen - man muss eine Vielzahl von verschiedenen, ineinandergreifenden Methoden verwenden, und die meisten davon hängen zumindest ein wenig von einigen unsicheren Annahmen und unbekannten Parametern ab. Dies wird beispielsweise im FAQ über das Messen von astronomischen Entfernungen näher ausgeführt. Zweitens bewegen sich Galaxien nicht nur aufgrund der kosmologischen Ausdehnun von uns weg - sie haben außerdem auch noch von sich aus einige zusätzliche Geschwindigkeitskomponenten ("Eigengeschwindigkeit", im Englischen "peculiar velocity")! Dies liegt letztlich daran, dass die fundamentale Annahme der UT, das kosmologische Prinzip, auf "kleinen" Skalen eben nicht stimmt: das Universum ist nicht völlig homogen, sondern es gibt sehr viele lokale Inhomogenitäten, das heißt Stellen, an denen die Dichte um sehr viel größer (oder kleiner) ist als im Mittel. Daraus folgen lokale Anziehungskräfte zwischen Galaxien und Galaxienhaufen, die einen viel größeren Effekt als die allgemeine Auseinanderbewegung durch die kosmische Ausdehnung haben können.
Ein (wörtlich) naheliegendes Beispiel hier ist die Andromeda-Galaxis, welche "nur" etwa zwei Millionen Lichtjahre von uns, das heißt der Milchstraße, entfernt ist. Sie entfernt sich nicht von uns, wie von der UT vorhergesagt, sondern bewegt sich statt dessen auf uns zu - und zeigt dementsprechend eine Blau- statt eine Rotverschiebung. Ein Abstand von zwei Millionen Lichtjahren ist immer noch klein genug, dass die Schwereanziehung zwischen diesen beiden "lokalen Inhomogenitäten" (den zwei Galaxien) die kosmische Ausdehnung überwiegen kann. Nur für noch größere Abstände (größenordnungsmäßig 30 Millionen Lichtjahre) ist die (scheinbare) Geschwindigkeit aufgrund der kosmischen Ausdehnung größer als die lokalen Eigengeschwindigkeiten. Um also die Hubble-Konstante zu bestimmen, muss man sehr weit entfernte Galaxien beobachten (was offensichtlich schwieriger ist, als nahe Galaxien zu untersuchen) - und selbst dort muss man den statistischen Mittelwert nehmen, um den Einfluss der Eigengeschwindigkeiten loszuwerden.
Diese beiden Schwierigkeiten (Messen der Abstände und der Störeinfluss der Eigengeschwindigkeiten) erklären, warum die Astronomen mehrere Jahrzehnte benötigt haben, um sich auf einen Wert für die Hubble-Konstante zu einigen. Der allgemein akzeptierte Wert liegt heute bei etwa 22 Kilometer pro Sekunde und Millionen Lichtjahre, mit einer Unsicherheit von etwa fünf Prozent (würde die Ausdehnungsgeschwindigkeit gleich bleiben, so würde dies bedeuten, dass sich das Universum pro Milliarde Jahre etwa um sieben Prozent vergrößert). Trotz der Schwierigkeiten, sich auf einen genauen Wert für die Hubble-Konstante zu einigen, zeigen die Daten zumindest das Hubble-Gesetz selbst (die Proportionalität) eindeutig; siehe das Diagramm unten, welches aus Daten von Riess (1996) zusammengestellt wurde (freundlicherweise zur Verfügung gestellt von Ned Wright).
Die Standard-Urknall-Theorie, welche mehrere Jahrzehnte lang benutzt wurde, nahm an, dass die Kosmologische Konstante gleich null ist (also keine Dunkle Energie existiert), und dass die Ausdehnung des Universums von der Materie (einschließlich Dunkler Materie) bestimmt wird. Die Gleichungen sagten dann voraus, dass die Ausdehnungsgeschwindigkeit mit der Zeit abnehmen sollte - eine kosmische Verzögerung. Aber dann, im Jahre 1998, als die Astronomen endlich in der Lage waren, sehr weit entfernte Supernovae näher zu studieren, wurde entdeckt, dass dies nicht stimmt (die Supernovae sind lichtschwächer, als man aufgrund der verzögerten Ausdehnung erwartet hätte)! Statt dessen zeigten die Messungen, dass die Ausdehnungsgeschwindigkeit des Universums noch vor einigen Milliarden Jahren langsamer war als heutzutage (die erste Ableitung des Skalenfaktors war kleiner - der Hubble-Parameter, der ja die relative Änderung der Größe misst, war dagegen größer als heutzutage) - mit anderen Worte, die Ausdehnung des Universums beschleunigt sich, statt langsamer zu werden (siehe Riess 1998; neuere Messungen: z. B. Wang 2003, Tonry 2003).
Solch eine beschleunigte Ausdehnung kann erklärt werden, wenn es im Universum irgend etwas mit negativem Druck gibt - wie beispielsweise Dunkle Energie (siehe die Abschnitte (compare sections 1c und 2n). Benutzt man das einfachste Modell für Dunkle Energie, eine Kosmologische Konstante, dann sagen die Gleichungen voraus, dass zu einer noch früheren Zeit der Einfluss der Materie größer gewesen sein sollte als der der Dunklen Energie. Es folgt, dass sich zu diesen früheren Zeiten die Ausdehnung tatsächlich verlangsamt haben musste, und die beschleunigte Ausdehnung erst einige Milliarden Jahre nach dem Urknall begann (ein sogenannter "kosmischer Ruck", Englisch "cosmic jerk"). Daraus folgt, dass Supernovae, die noch weiter entfernt sind als jene, aus denen das Ergebnis der beschleunigten Ausdehnung erhalten wurde, heller sein sollten, als die beschleunigte Ausdehnung erwarten lässt. Neuere Messungen zeigten, dass dies in der Tat erfüllt ist - noch vor etwa acht Milliarden Jahren (bei einer Rotverschiebung von etwa 0,5) wurde die Ausdehnung des Universums noch gebremst (Riess 2004).
Beachten Sie, dass man die "lichtschwächeren" Supernovae (die zu der Schlussfolgerung einer beschleunigten Ausdehnung führten) auch anders hätte erklären können, beispielsweise damit, dass das Licht auf dem Weg zu uns von dichten Gas- und Staubwolken teilweise geschluckt wurde (was allerdings im Allgemeinen für verschiedene Farben verschieden stark geschieht und damit nachweisbar sein sollte), oder dass die fernen explodierenden Sterne einen anderen Aufbau (beispielsweise eine andere chemische Zusammensetzung) hatten als die nahen (auch dies sollte allerdings durch genaue Analyse des Lichts nachweisbar sein). Die beschleunigte Ausdehnung wurde dementsprechend nicht gleich von allen Astronomen widerspruchslos akzeptiert. Aber für die neuen Ergebnisse, wonach noch weiter entfernte Supernovae wiederum heller sind als erwartet, gibt es keine solche naheliegende alternative Erklärung - wohingegen dieser Befund von der UT mit einer Kosmologischen Konstante direkt vorhergesagt wurde! Also kann man diese Beobachtungsergebnisse als einen starken Beleg für die Richtigkeit der Theorie werten.
In der kurzen für Kernreaktionen zur Verfügung stehenden Zeit konnten nur relativ wenige, leichte Atomkerne entstehen, neben Wasserstoff (für dessen Entstehung keine Kernreaktionen nötig waren, da dessen Atomkern nur aus einem Proton besteht) vor allem Helium-Kerne (He-3 und He-4), aber auch Spuren von Deuterium und Lithium. Auf Ned Wrights Seite Big Bang Nucleosynthesis findet man eine ausführliche Diskussion dieses Themas, einschließlich der relevanten Reaktionen, Diagramme, Daten und Literaturverweisen.
Schwerere Atomkerne entstanden und entstehen immer noch in Sternen: während ihres normalen Lebens werden Elemente von Helium bis zu Eisen in den Kernen der Sterne geformt, noch schwerere Elemente durch die gewaltigen Supernova-Explosionen, welche das Leben der schwereren Sterne beenden. Weitere Informationen hierzu gibt es auf den Wikipedia-Seiten zur Nukleosynthese, und weiter unten im Abschnitt 2g.
Die UT kann quantitative Vorhersagen darüber machen, in welchen Häufigkeiten die Elemente in der primordialen Nukleosynthese produziert wurden. Dies kann man dann mit den im Universum beobachteten Häufigkeiten vergleichen, um die Theorie zu überprüfen. Aber hier taucht gleich ein Problem auf: wie unterscheidet man die Elemente, die während der primordialen Nukleosynthese erzeugt wurden, von denen, die erst später in Sternen entstanden?
Zwei naheliegende Möglichkeiten, diese Unterscheidung zu treffen, sind: There are at least two possibilities to make this distinction:
Wie bereits oben erwähnt, hängt die Häufigkeit der in der primordialen Nukleosynthese erzeugten Elemente von mehreren Parametern der UT ab. Wichtig sind hier vor allem der Hubble-Parameter (da die Ausdehnungsgeschwindigkeit festlegt, wie schnell das Universum abkühlte, und damit die Zeit, die für die Nukleosynthese zur Verfügung stand) und die Dichte der baryonischen Materie (da die Zahl der Reaktionen, die statt finden konnten, offensichtlich davon abhing, wie nahe die Reaktionspartner aneinander waren). Glücklicherweise kann die Abhängigkeit von beiden Parametern als eine Abhängigkeit von einem einzigen, kombinierten Parameter dargestellt werden, der im Allgemeinen mit Omega_B h^2 bezeichnet wird; diesen Parameter findet man üblicherweise auf der x-Achse von Diagrammen, in denen die Vorhersagen über Elementhäufigkeiten dargestellt sind - wie das hier zu sehende Diagramm (freundlicherweise zur Verfügung gestellt von Ned Wright):
Man hat nun zwei Möglichkeiten, die UT zu testen: einerseits kann man aus der Beobachtung verschiedener Elementhäufigkeiten jeweils Omega_B h^2 berechnen, wobei sich jedesmal derselbe Wert ergeben sollte. Andererseits kann man den Wert dieses Parameters aus anderen Messungen (beispielsweise den WMAP-Daten, siehe Abschnitt 2d) gewinnen, damit dann die Elementhäufigkeiten vorhersagen und mit den Beobachtungen vergleichen. Beide Vorgehensweisen wurden in der Vergangenheit benutzt; bevor die genauen Ergebnisse von WMAP für die Baryonendichte verfügbar waren, allerdings meist eher die erstere. Eine ausführliche Zusammenfassung über den Wissensstand im Jahre 1997 findet man im Artikel Big Bang Nucleosynthesis Enters the Precision Era.
Schließlich (nach knapp 400 000 Jahren) kühlte das Universum aber weit genug ab, dass sich aus den Atomkernen und den Elektronen Atome formen konnten. Atome sind elektrisch neutral - also wurden die Photonen, nachdem sich aus dem Plasma genügend Atome geformt hatten, weit weniger gestreut und konnten sich endlich frei geradeaus bewegen: das Universum wurde durchsichtig. Dieses Ereignis wird in der Kosmologie als Entkopplung bezeichnet.
Zusätzlich zu den Photonen, die zu diesem Zeitpunkt bereits vorhanden waren, entstanden durch die Bildung der Atome weitere Photonen. Die Strahlung aus dieser Zeit, die sich nun geradlinig weiter ausbreiten konnte, sollte heutzutage immer noch sichtbar sein. Aber da dies zu einem Zeitpunkt geschah, als das Universum noch sehr jung war, und sich das Universum seitdem sehr stark ausgedehnt hat, muss auch die Wellenlänge dieser Strahlung inzwischen sehr stark zugenommen haben (vergleiche Abschnitt 2b).
Die UT macht zwei sehr wichtige qualitative Vorhersagen für die Natur dieser Strahlung: Sie sollte
Gamow, Alpher und Herman sagten ursprünglich vorher, dass die Temperatur der KMHS irgendwo zwischen 1 und 5 K(elvin) liegen sollte, unter Verwendung verschiedener Modell für das Universum (siehe Alpher 1949; in einem späteren Buch gab Gamow sogar einen Wert von 50 K an). Heutzutage wissen wir dagegen aus genauen Messungen (Mather 1999), dass sie bei etwa 2.725 K liegt. Zu dieser großen Unsicherheit in den Vorhersagen kam es, da die relevanten kosmologischen Parameter (beispielsweise ist das Alter des Universums in dieser Rechnung wesentlich) zu jener Zeit noch nicht sehr gut bekannt waren; beispielsweise war der von Hubble zunächst gemessene Wert für die Hubble-Konstante (siehe Abschnitt 2b etwa sieben Mal so groß wie der heute akzeptierte tatsächliche Wert! Weitere Informationen über die frühe Geschichte der Erforschung der KMHS findet man auf Ned Wrights Seite Cosmic Microwave Background.
Nach diesen theoretischen Vorhersagen gab es damals verschiedene Versuche, die "Temperatur des Raumes" zu messen - aber die wahre Entdeckung der KMHS fand erst 1965 statt, als Penzias and Wilson eigentlich mehr zufällig diese Strahlung fanden. Eigentlich versuchten sie nur, die Rauschquellen im Signal ihrer neu entwickelten Horn-Antenne loszuwerden, und stellten fest, dass eine der Rauschquellen Tag und Nacht, für jede Ausrichtung der Antenne, immer gleich groß war. Die Geschichte ihrer Entdeckung, für die sie 1978 den Nobelpreis erhielten, wird auf der Webseite Discovery of the Cosmic Microwave Background Radiation ausführlicher erzählt.
Seit damals hat die Genauigkeit der Messungen stark zugenommen, teilweise deswegen, weil heutzutage meist Satelliten oder Ballon-Experiment verwendet werden, um die KMHS auszumessen. Mikrowellen-Strahlung wird nämlich von Wasserdampf in der Erdatmosphäre relativ stark absorbiert, also muss man die Messungen in möglichst großer Höhe durchführen. Der berühmteste Satellit zur Messung der Temperatur der KMHS war COBE (COsmic Background Explorer), welcher die Erde umkreiste und 1989-93 Daten aufnahm.
COBE trug mehrere Instrumente, unter anderem das sogenannte FIRAS-Experiment. Dieses vermaß die Temperatur der KMHS und ihr genaues Spektrum. Wie oben erwähnt, sagt die UT voraus, dass dieses Spektrum ein perfektes Schwarzkörper-Spektrum sein sollte - und diese Vorhersage wurde von FIRAS mit außerordentlicher Genauigkeit bestätigt. Das Diagramm unten zeigt die Daten von FIRAS und daran angepasst ein Schwarzkörper-Spektrum. Beachten Sie, dass die gezeigten Fehlerbalken 400 Standardabweichungen entsprechen!
Manchmal hört man die Behauptung, die KMHS sei nicht wirklich eine Vorhersage der UT, sondern mehr eine Art "Rückprojektion": die ursprüngliche von Gamow vorhergesagte Temperatur stimmte nicht besonders gut, und angeblich konnte der richtige Wert nur erhalten werden, indem man so lange an den Parametern der Theorie herumdrehte, bis die Vorhersagen endlich mit den Beobachten übereinstimmten. Leute, die solche Behauptungen aufstellen, übersehen allerdings mindestens zwei wesentliche Punkte:
Außer den oben angeführten Argumenten, warum die KMHS nicht von (nahen) Sternen oder Gaswolken kommen kann, gibt es noch eine weitere Möglichkeit, ihren kosmologischen Ursprung zu überprüfen. Wie erwähnt, hat sich die Temperatur der KMHS mit der Zeit geändert; früher war sie weit heißer als heute. Man kann nun das Licht von weit entfernten Galaxien untersuchen, um festzustellen, ob es zu der Zeit, als das nun von uns gesehene Licht ausgesandt wurde, in jenen Galaxien eine Strahlung der von der UT vorhergesagten Temperatur gab. Für ein Beispiel einer solchen Studie siehe Srianand 2000; die bisher erhaltenen Daten sind im Diagramm unten zusammengefasst (freundlicherweise zur Verfügung gestellt von Ned Wright). Obwohl bisher nicht allzu viele Daten zur Verfügung stehen und die Ergebnisse noch nicht wirklich schlüssig sind, sieht man doch, dass sie recht gut mit den Vorhersagen der UT übereinstimmen.
Zunächst wäre hier zu beachten, dass ein komplett homogenes Gas letztlich gar nicht möglich ist; dies verbietet die Quantentheorie. Ein komplett homogenes Gas würde Heisenbergs Unschärferelation verletzen; laut der Quantenfeldtheorie gibt es daher immer sogenannte "Quantenfluktuationen". Damit bleiben zwei Fragenkomplexe übrig:
Der erste Versuch, die Schwankungen zu messen, wurde vom DMR-Instrument auf dem COBE-Satelliten durchgeführt. Es fand in der Tat Fluktuationen, aber diese waren weit kleiner als damals noch erwartet (die Erwartungen basierten auf dem inzwischen veralteten Modell eines Universums ohne Kosmologische Konstante). Da die Instrumente auch nur für diese erwartete Größe gebaut worden waren, waren die tatsächlichen Fluktuationen fast nicht messbar, gerade an der Empfindlichkeitsgrenze der Instrumente. Dies verleitete manche Leute zu der Behauptung, die aufgenommenen Daten wären letztlich nur statistisches Rauschen, nicht wirklich ein aussagekräftiges Signal.
Da die Ergebnisse aber dennoch einige der von der UT vorhergesagten Charakteristika hatten, nahmen die meisten Astronomen an, dass die UT grundsätzlich doch stimmt, aber einige der Parameter falsch gewählt waren (was sich ja dann schließlich auch als richtig herausstellte). Dies motivierte weitere Messungen, zunächst vor allem mit Ballonen durchgeführt. Eine Liste dieser sogenannten suborbitalen Experimenten findet sich auf der LAMDBA-Website, NASAs zentrale Datensammelstelle fürr die Erfoschung der KMHS. Eins der bekanntesten davon war das Boomerang-Experiment, welches erstmal 1998 gestartet wurde. Solche Ballon-Experimente sind im Vergleich zu Satelliten relativ billig, erreichen aber dennoch eine genügende Höhe, damit der absorbierende Wasserdampf in der Atmosphäre die Messungen nicht mehr allzu sehr stört. Trotz den im Vergleich zu Satellitenmissionen nur relativ kurzen Beobachtungszeiten gelang es diesen Ballon-gebundenen Experimenten zu zeigen, dass die Fluktuationen tatsächlich existieren, und es war auch ein erster Vergleich mit den Vorhersagen der UT möglich.
Im Jahre 2001 wurde dann der MAP-Satellit gestartet ("Microwave Anisotropy Probe", außerdem Englisch "map" = "Karte"), welcher später auf "WMAP" umgetauft wurde, im Gedenken an D. T. Wilkinson. Dieser Satellit hat nicht nur eine höhere Empfindlichkeit als COBE, sondern auch eine weit bessere Winkelauflösung. Dies kann sehr schön in den Bildern unten gesehen werden, in denen die kompletten Himmelskarten von COBE und WMAP direkt miteinander verglichen werden (Bild freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team).
Im Frühling 2003 wurden die ersten Ergebnisse veröffentlicht - und sie waren von einer atemberaubenden Genauigkeit. Beispielsweise konnte man all die Jahrzehnte vorher das Alter des Universums bestenfalls auf etwa zwei Milliarden Jahre genau bestimmen; mit den Daten von WMAP war es plötzlich möglich, das Alter mit einem Fehler von weniger als 0,2 Milliarden Jahren anzugeben! Zum Vergleich: das Alter der Erde ist nicht viel besser bekannt, der Fehler beträgt hier etwa 0,05 Milliarden Jahre - obwohl dieses Alter weit direkter gemessen werden kann als das des Universums. Neben dieser offensichtlichen Verbesserung war es auch für einige andere kosmologische Parameter möglich, sie mit weit größerer Genauigkeit als zuvor zu bestimmen. Außerdem gewann man neue Belege dafür, dass das Universum zum größten Teil aus Dunkler Energie besteht, und dass die Materie im Universe zum größten Teil dunkel ist. Auf der Website des WMAP-Satelliten findet man sowohl die Ergebnisse der Mission für Laien erklärt als auch eine Liste der wissenschaftlichen Veröffentlichungen.
Nun war es möglich, einige der Vorhersagen für die genaue Struktur der Fluktuationen im Detail zu testen. Im Allgemeinen werden die Daten in etwa folgendermaßen weiterverarbeitet (stark vereinfacht dargestellt!): man betrachtet zwei Punkte am Himmel mit gegebenem Winkelabstand und berechnet die Differenz der Temperaturen der KMHS an diesen beiden Punkten. Dies wird für alle solche Punktepaare mit demselben Winkelabstand wiederholt. Schließlich berechnet man den Durchschnittswert dieser Unterscheide. Diese durchschnittlichen Unterschiede werden dann über der Winkelabstand aufgetragen. Das Ergebnis heißt das (Winkel-)Leistungsspektrum (Englisch: (angular) power spectrum) der KMHS. Allerdings wird auf der x-Achse solcher Diagramme meist nicht wirklich der Winkelabstand aufgetragen, sondern man sieht dort den Buchstaben "l". Dieses "l" nennt man die "Multipol-Ordnung", und es hängt mit dem Winkelabstand alpha grob über die Beziehung alpha = 180°/l zusammen. Wer sich genauer dafür interessiert, sollte unter dem Stichwort "Multipol-Entwicklung" nachlesen; einige Details finden sich beispielsweise in diesen Vortragsnotizen zum Thema Are CMB fluctuations really adiabatic?.
Die UT macht sehr spezifische Vorhersagen über die Form der Leistungsspektrums: es muss für kleine l langsam ansteigen, dann folgt eine Spitze bei etwa l = 200, und dann muss die Kurve wieder abfallen, mit mehreren zusätzlichen Spitzen danach. Die erste Spitze rührt von Schwankungen her, die heutzutage am Himmel einen Winkelabstand von etwa einem Grad haben. Schwankungen dieser Größe rühren letztlich von Schallwellen mit sehr langen Wellenlängen her, die sich im Plasma, von dem die KMHS stammt, ausbreiteten. Deshalb nennt man diese Spitze oft die "(erste) akustische Spitze" (Englisch: (first) acoustic peak). Die Existenz dieser Spitze im Spektrum allein, und erst recht der gesamte Verlauf der Kurve, ist ein starker Beleg, dass die UT die Quelle der KMHS richtig beschreibt. Unten ist ein Diagramm gezeigt, das neben den Ergebnissen und zwei anderen Experimenten auch eine an die Daten angepasste theoretische Kurve (rot) zeigt (freundlicherweise zur Verfügung gestellt vom NASA/WMAP-Team). Weitere Details sind in der Veröffentlichung Angular Power Spectrum des WMAP-Teams zu finden.
Die genaue Form der Kurve, vor allem die genauen Positionen der Spitzen, hängen von mehreren kosmologischen Parametern ab. Indem man die Kurve aus den Beobachtungsdaten ermittelt, kann man diese Parameter bestimmen. Die Messungen von WMAP waren bisher die genauesten - und sie stimmen sehr schön mit früheren Messungen derselben Parametern überein; sowohl mit Messungen, die mit ähnlichen, als auch mit solchen, die mit völlig verschiedenen Methoden durchgeführt wurden. Dies wird in der Veröffentlichung Determination of Cosmological Parameters des WMAP-Teams im Detail ausgeführt
Ein relativ einfacher erster Test, ob diese Struktur wirklich aus den Fluktuationen entstand, die wir in der KMHS beobachten können, besteht darin, dass man sich anschaut, was aus dem deutlichsten (statistischen) Merkmal der Fluktuationen geworden ist: der (ersten) "akustischen Spitze". Diese Spitze im Leistungsspektrum sagt uns, dass im Mittel die Temperaturschwankungen für einen Winkelabstand von etwa einem Grad am größten sind; für andere Winkelabstände erhält man im Mittel nur kleinere Schwankungen. Es folgt, dass es im frühen Universum einen bestimmten Abstand gab, in dem die Dichteunterschiede am größten waren; dieser Abstand entspricht im Wesentlichen der halben Wellenlänge der Dichte- bzw. Schallwellen im Plasma, die damals die größte Amplitude hatten. Diese Wellenlänge wird im Wesentlichen durch die Zeit bestimmt, die die Dichteschwankungen hatten, um sich auszubreiten; man erhält eine Länge von der Größenordnung 500 000 Lichtjahre (da das Universum zu diesem Zeitpunkt einige hunderttausend Jahre alt war). Da sich das Weltall seitdem ausgedehnt hat, wuchs diese Länge inzwischen auf etwa 500 Millionen Lichtjahre an. Schaut man sich also die heutige Verteilung der Galaxien(haufen) an, so erwartet man, in Abständen von etwa 500 Millionen Lichtjahren jeweils ein besonders starkes "Zusammenklumpen". Und genau dies wurde in der Tat im Jahre 2005 von zwei Studien beobachtet.
Statt sich solche speziellen Einzelheiten anzuschauen, die relativ einfach rechnerisch behandelt werden können, kann man auch versuchen, das komplette bekannten Wissen über die Dichtefluktuationen als Eingabe für Computersimulationen des Wachstums der Strukturen verwenden. Im Wesentlichen benutzt man dafür ein drei-dimensionales Gitternetz mit möglichst vielen Zellen, in die möglichst viele Teilchen (wobei jedes "Teilchen" im Allgemeinen einem kompletten Galaxienhaufen entspricht!) so verteilt werden, dass sich die beobachtete Dichteverteilung zur Zeit der Emission der KMHS ergibt. Der Computer berechnet dann die gegenseitige Schwereanziehung zwischen all diesen Zellen, und wie die Schwankungen sich dementsprechend zeitlich ändern. Solche Computersimulationen werden schon seit mehreren Jahrzehnten durchgeführt, wobei die verwendeten Computer natürlich immer besser wurden und damit auch eine immer bessere Auflösung (mehr Zellen und mehr Teilchen) ermöglichten.
White (1997) ist ein guter Artikel, in dem die Strukturbildung, ihre Simulation mittels Computern und auch einige vergleichende Beobachtungsergebnisse besprochen werden. Gezeigt werden Ergebnisse für vier verschiedene Modelle, darunter das zu jener Zeit noch übliche CDM-Modell, aber auch ein Modell mit einer Kosmologischen Konstante. Dies zeigt, dass auch zu einer Zeit, als es üblich war, ohne eine Kosmologische Konstante zu rechnen, diese Möglichkeit nicht völlig außer acht gelassen wurde - entgegen der manchmal gelesenen Behauptung, dass die Kosmologische Konstante jahrzehntelang in der astronomischen Literatur komplett ignoriert wurde.
Eine andere zu dieser Zeit durchgeführte Studie ist Colombi (1996). In diesem Artikel wurden verschiedene Modelle mit unterschiedlichen Anteilen an heißer und kalter Dunkler Materie untersucht, und es wurden auch einige Versuche gemacht, "warme" Dunkle Materie miteinzubeziehen (also Dunkle Materie, die sich verglichen mit der Lichtgeschwindigkeit weder besonders langsam noch besonders schnell bewegt). Abbildung 7 des Artikels zeigt einen schönen bildlichen Vergleich zwischen beobachteten Galaxienverteilungen und den Ergebnissen der Simulationen.
Offensichtlich ist es aber nicht ausreichend, die Ergebnisse der Simulationen nur "per Auge" mit den Beobachtungen zu vergleichen. Man benötigt quantitative statistische Analysen; auch diese wurden in den oben erwähnten Studien durchgeführt. Passende statistische Analysemethoden werden beispielsweise ausführlich im Artikel Clustering statistics in cosmology diskutiert, welcher zusätzlich auch viele nützliche Verweise auf sowohl Beobachtungsdaten als auch theoretische Rechnungen und Simulationen enthält.
Seit den ersten Untersuchungen (die ernsthaft etwa in den frühen 80er Jahren begannen) sind die Simulationen um vieles besser geworden. Eine der bekanntesten Arbeitsgruppen, die solche Simulationen durchführt, ist das Virgo Consortium, eine internationale Vereinigung von mehreren astrophysikalischer Arbeitsgruppen und Gruppen von Computerfachleuten. Auf seiner Webseite ist eine große Anzahl von Veröffentlichungen zu finden, sowohl über Simulationen der kosmologischen Strukturbildung als auch anderer Strukturbildungs-Prozesse (wie beispielsweise von Galaxien). Vor relativ kurzer Zeit veröffentlichte außerdem das Max-Planck-Institut für Astrophysik die sogenannte "Millennium-Simulation"; Details und eine große Anzahl an Bildern sind auf Simulating the joint evolution of quasars, galaxies and their large-scale distribution zu finden.
Es zeigt sich, dass die Simulationen (die heutzutage das gängige Lambda CDM-Modell verwenden) die beobachtete Galaxienverteilung recht gut wiedergeben - zumindest auf großen Skalen. Auf kleineren Skalen gibt es immer noch einige Probleme - beispielsweise sagen die Simulationen voraus, dass sich rund um die Milchstraße etwa 50 kleinere sogenannte "Satellitengalaxien" hätten formen sollen. Gefunden hat man dagegen bisher nur etwa 15. Dieses Problem wird im Abschnitt 4g weiter diskutiert werden.
Die bisher besprochenen Studien beschäftigten sich im Wesentlichen nur mit der Verteilung der Galaxien. Seit langem ist es allerdings bekannt, dass ein großer Teil der Materie im Universum in Form von großen interstellaren und auch intergalaktischen Gaswolken vorliegt. Diese Wolken sollten offensichtlich dieselbe Verteilung wie die Galaxien (oder, genauer gesagt, wie die Dunkle Materie) zeigen, da sie durch dieselben Gravitationskräfte beeinflusst werden.
Die Verteilung solcher Gaswolken ist aber viel schwieriger zu untersuchen als die der Galaxien, da die meisten von ihnen von sich aus kein Licht (oder andere nachweisbare Strahlung) abgeben. Eine häufig benutzte Methode, sie dennoch zu finden, ist, nach der Absorption des Lichtes von Hintergrundobjekten zu suchen. Hier bieten sich Quasare als Hintergrundobjekte an, da diese sowohl sehr hell sind als auch sehr weit entfernt liegen. Im Jahre 2004 wurde solch eine Studie durchgeführt - mit dem Ergebnis, dass die Verteilung der Gaswolken auf großen Skalen in der Tat den Vorhersagen der UT für die großräumige Struktur entspricht. Dies wird beispielsweise im Artikel Universal Truths: Distant quasars reveal content, age of universe ausführlich besprochen.
Man muss hier allerdings auch beachten, dass es verschiedene sogenannte Populationen (Generationen) von Sternen gibt. Man unterscheidet Sterne der Population I, die relativ viele schwere Elemente enthalten, und solchen der Population II, die davon sehr wenig enthalten. In der Astronomie werden alle Elemente schwerer als Helium als "Metalle" bezeichnet; deswegen heißt der Gehalt an schweren Elementen auch die Metallizität eines Sterns. Die Erklärung der UT hierfür ist, dass die Sterne der Population II vor denen der Population I entstanden, zu einer Zeit, als es im Universum noch sehr wenige schwere Elemente gab - die primordiale Nukleosynthese (siehe Abschnitt 2c) erzeugte ja fast nur Helium. Allerdings erhebt sich die Frage, warum es denn heutzutage keine Sterne mehr gibt, die überhaupt keine schweren Elemente enthalten - solche Sterne ordnet man in eine (bisher hypothetische) Population III ein.
Um dies zu verstehen, muss man ein wenig über die Entstehung und Entwicklung von Sternen wissen. Zunächst hat die Anwesenheit von schweren Elementen einen großen Einfluss auf die Größe der entstehenden Sterne: als es noch keine schweren Elemente gab, konnten auch praktisch keine (komplexeren) Moleküle vorhanden sein, da die meisten komplexeren Moleküle Kohlenstoff enthalten. Das Fehlen von solch Molekülen führte wiederum dazu, dass die in sich zusammenfallenden Gaswolken, aus denen schließlich Sterne entstehen sollten, kaum ihre dabei entstehende Hitze durch Strahlung nach außen abgeben konnten. Waren die Gaswolken zu klein, so wirkte diese Hitze der Schwerkraft effizient entgegen, und die Wolken konnten nicht weiter in sich zusammenfallen. Also entstanden nur aus großen Gaswolken Sterne. Doch große Sterne "verbrennen" den in ihnen enthaltenen Wasserstoff sehr schnell und "leben" nur einige zehn Millionen Jahre! Es folgt also, dass die ersten Sterne, die praktisch nur aus Wasserstoff und dem Helium aus der primordialen Nukleosynthese bestanden, sehr groß und auch sehr kurzlebig gewesen sein müssen. All dies wird auch in diesem Vortrag über Reionization, und in den Artikeln The First Stars und New light on early stars ausführlich besprochen.
Es folgt, dass keiner der Sterne der Population III bis heute überlebt haben kann; alle beendeten ihre Existenz schon "kurz" nachdem sie begonnen hatte. Wie oben bereits erwähnt, entstanden diese Sterne etwa 200 Millionen Jahre nach dem Urknall. Um sie zu sehen, müssen wir also in Gegenden des Universums schauen, die sehr weit von uns entfernt sind - und dementsprechend sind diese Sterne für uns sehr lichtschwach. Außerdem hat sich das Universum seit dieser Zeit um etwa einen Faktor 20 ausgedehnt, und dementsprechend kann das Licht, das von diesen Sternen ausgesandt wurde, heutzutage praktisch nur noch als Infrarotstrahlung beobachtet werden (aufgrund der Rotverschiebung). Aufgrund dieser beiden Probleme sind unsere bisherigen Telekope nicht fähig, diese Sterne direkt zu beobachten. In einigen Jahren wird sich dies hoffentlich ändern, wenn das James-Webb-Weltraumteleskop gestartet wird. Es gibt allerdings auch bereits jetzt schon einige vielversprechende Ergebnisse , aufgenommen vom Spitzer-Weltraumteleskop.
Sterne der Population II und I enthalten dagegen schon weit mehr schwere Elemente und können daher länger leben. Unsere eigene Sonne gehört zur Population I; sie enthält etwa zwei Prozent an schweren Elementen. Sterne der Population II, die ja im Schnitt älter sein müssen als die der Population I, findet man dagegen vor allem in Kugelsternhaufen und in den zentralen Ausbauchungen (Englisch: bulges) und den Halos von Galaxien. Einige zusätzliche Informationen zu den verschiedenen Sternpopulationen findet man auch auf der entsprechenden Wikipedia-Seite.
Will man das Alter der ältesten Sterne wissen, so muss man also Sterne der Population II untersuchen. Das Alter von Sternen (bzw. eigentlich von Sterngruppen wie beispielsweise Kugelsternhaufen) kann mit Hilfe eines sogenannten Hertzsprung-Russell-Diagramms bestimmt werden. Dies wird beispielsweise im FAQ über astronomische Entfernungsbestimmungen oder auf dieser Seite über Hertzsprung Russell Diagram and Stellar Evolution näher erklärt. Doch dies ist nur eine von mehreren möglichen Methoden, wenn auch die am weitesten verbreitete.
Verschiedene Studien ergaben für das Alter einiger Kugelsternhaufen der Milchstraße zwischen 12 und 13 Milliarden Jahre (z. B. erhielt Krauss 2003 ein Alter von 12,2 Milliarden Jahren, mit Unsicherheiten von -1,2 bzw. +2,2 Milliarden Jahren). Hansen 2004 fand 12,1 +- 1,3 Milliarden Jahre, indem er das Abkühlen von Weißen Zwerge untersuchte. Der Beryllium-Gehalt der Sterne des Kugelsternhaufens NGC 6397 deutete auf ein Alter von 13,4 +- 0,8 Milliarden Jahre hin ( Pasquini 2004; siehe auch Estimating the Age of the Milky Way). Die relativ großen Unsicherheiten in diesen Ergebnissen rühren daher, dass alle diese Methoden wesentlich von unseren Theorien der Sternentwicklung abhängen, welche wiederum auf unserem Wissen über die in Sternen vorgehenden Kernreaktionen basieren. Aber diese sind bisher nicht in allen benötigten Details bekannt.
Vor kurzer Zeit wurden neue Ergebnisse über die Geschwindigkeit einer Kette von Kernreaktion erhalten, die in Sternen sehr wichtig ist, den sogenannten CNO-Zyklus. Diese Studie (Imbriani 2004) zeigte, dass die Geschwindigkeit weit langsamer ist als bisher vermutet - und hieraus folgt, dass die Sterne älter sind als bisher vermutet, um etwa 0,7 bis 1 Milliarde Jahre. Mit den oben erwähnten Daten von Pasquini ergibt sich, dass die ältesten Sterne der Milchstrasse 14,1 bis 14,4 Milliarden Jahre alt sein sollten. Dies ist älter als das aus anderen Messergebnissen erhaltene Alter des Universums (siehe beispielsweise die WMAP-Daten, Abschnitt 2d). Aber man muss hier auch die immer noch sehr großen Unsicherheiten dieser Altersbestimmungen beachten; und damit sind diese Sternalter immer noch mit dem auf andere Weise erhaltenen Alter des Universums konsistent.
Andererseits ist es auch möglich, das Alter der Milchstraße zu bestimmen, ohne sich auf Annahmen über Details der in den Sternen stattfindenden Kernreaktionen verlassen zu müssen, wie Dauphas (2005) zeigte. Er benutzte Beobachtungsergebnisse zur Häufigkeit von Uran (U-238) und Thorium (Th-232) sowohl in unserem Sonnensystem als auch in Halo-Sternen mit kleiner Metallizität, um das Alter unserer Galaxis zu ermitteln. Sein Ergebnis war 14,5 Milliarden Jahre, mit Unsicherheiten von -2,2 und +2,8 Milliarden Jahren. Berücksichtigt man diese Fehlergrenzen, so stimmt dies wieder gut mit dem von WMAP bestimmten Alter des Universums überein.
Ein weiteres interessantes Argument ist, dass man auch das Alter der Sterne in weit entfernten Galaxien ermitteln kann. Um dies zu erreichen, errechnet man zunächst theoretische Modelle dazu, wie das Spektrum einer Galaxis aussieht, wenn sie ein bestimmtes Alter hat (siehe z. B. Jimenez 2004), und vergleicht die Vorhersagen dieser Modelle dann mit beobachteten Galaxienspektren. Natürlich ist dies eine ziemlich komplizierte Methode, bei der die möglichen Fehler sogar noch größer sind als bei den oben diskutierten Methoden für die Bestimmung des Alters der Sterne in unserer "Nachbarschaft". Aber nichtsdestotrotz stimmen die bisherigen Ergebnisse gut mit dem überein, was man in einem Universum endlichen Alters erwartet: in Galaxien, die weit von uns entfernt sind (und die wir dementsprechend zu einer Zeit sehen, als sie noch sehr jung gewesen sein müssen), findet man tatsächlich nur junge Sterne. Beispielsweise fand Nolan (2003) für zwei Galaxien mit Rotverschiebungen von etwa 1.5, dass die Sterne dort nur Alter bis etwa maximal 3-4 Milliarden Jahre hatten. Mit Hilfe dieser Methode wurde außerdem bereits eine detaillierte Studie zur Sternentstehungs-Geschichte unsere Universums durchgeführt, indem man Beobachtungsergebnisse über das Alter von Sternen in fernen Galaxien benutzte. Es ergab sich, dass vor etwa 5 Milliarden Jahren die Sternentstehungsrate am höchsten war (Heavens 2004).
Betrachtet man also sehr weit entfernte Gegenden des Universums (das heißt Objekte mit sehr hoher Rotverschiebung), so sollte man also nur kleine, irreguläre Galaxien sein. Das stimmt gut damit überein, was im Allgemeinen tatsächlich gesehen wird (betreffend der Ausnahmen und Probleme siehe weiter unten), beispielsweise im Hubble Deep Field, im Hubble Deep Field South", und im Hubble Ultra Deep Field, drei Bilder, die das Hubble-Weltraumteleskops mit sehr langer Belichtungszeit aufgenommen hat. Beachten Sie, dass die großen, regelmäßig aussehenden Galaxien in diesen Bildern sich im Vordergrund befinden, bei kleinen Rotverschiebungen (also relativ nahe Objekte sind). Die wirklich weit entfernten Galaxien sind in diesen Bildern nur als kleine Flecken im Hintergrund zu sehen; um sie genauer zu untersuchen, muss man die Bilder mit hoher Auflösung betrachten.
Eine andere wichtige Beobachtung, die zeigt, dass sich die Galaxien mit der Zeit verändert haben, ist die Tatsache, dass sich Quasare in einem bestimmten Bereich von Rotverschiebungen konzentrieren - das heißt, sie existierten vor allem nur in einer bestimmten Zeitepoche. Für statische Modelle des Universums ist dies nur schwer zu erklären. Die UT verweist dagegen darauf, dass es im frühen Universum noch sehr viel mehr freies Gas und Staub gab, und Zusammenstöße zwischen Galaxien häufiger statt fanden. Dies ermöglichte es den Schwarzen Löchern, die in den Zentren vieler Galaxien sitzen, viel mehr Materie zu schlucken, als es ihnen heutzutage möglich ist - und diese gewaltige Aktivität jener Schwarzen Löcher sehen wir heutzutage als Quasar-Aktivität der jeweiligen Galaxien.
Man muss hier allerdings auch zugeben, dass die Entstehung und Entwicklung der Galaxien eines der Gebiete ist, auf dem die UT bisher noch die meisten Probleme hat: im Gegensatz zu der Vorhersage, dass alle Galaxien mit hoher Rotverschiebung klein und unregelmäßig sein sollten, wurden in den letzten Jahren mehrmals große, "ausgereifte" Galaxien und Galaxienhaufen gefunden (siehe z. B. Cimatti 2004). Von Gegnern der UT wird dies gerne als überzeugende Widerlegung der Theorie zitiert - aber sie vergessen dabei (oder ignorieren), dass das Problem nicht bei der UT liegen muss, sondern genausogut in unseren Ideen zur Entstehung und Entwicklung von (kleineren) Strukturen begründet sein kann. Mehr dazu unten im Abschnitt 3g.
Die UT sagt damit also voraus, dass Ereignisse, die sich in weiter Entfernung abgespielt haben, heute in einer Art "Zeitlupe" gesehen werden sollten. Da die Quelle dieses Effekts dieselbe ist wie für die normale Rotverschiebung, sagt die UT voraus, dass der Faktor, um die die Zeit langsamer abzulaufen scheint, gleich dem Rotverschiebungsfaktor sein sollte (welcher sich aus eins plus z berechnet, wobei z in der Kosmologie die Rotverschiebung eines Objekts bezeichnet. Eine alternative, allerdings irreführende Betrachtungsweise wäre hier, dass es sich einfach um die Zeitdilatation der Speziellen Relativitätstheorie handelt, da sich diese weit entfernten Objekte ja (scheinbar) mit hoher Geschwindigkeit von uns wegbewegen. Allerdings treten bei dieser Interpretation ähnliche Probleme auf wie schon bei der Interpretation der Rotverschiebung als Doppler-Verschiebung (siehe Abschnitt 2b).
Eine einfache Möglichkeit, diese Vorhersagen zu testen, bieten Supernovae. Es ist eine wohlbekannte Tatsache, dass die Helligkeit einer Supernova vom Typ Ia zunächst stark ansteigt und dann über einen Zeitraum von mehreren Wochenlangsam wieder abklingt. Die Abklingzeit ist für alle Supernovae dieses Zeit mit ziemlich guter Genauigkeit gleich; sie hängt ein wenig von der genauen chemischen Zusammensetzung des Sterns zusammen, aber man glaubt, dass man diese Effekte im Griff behalten kann, indem man die Beobachtungsdaten sorgfältig analysiert.
Inzwischen gibt es schon eine ganze Menge wissenschaftliche Veröffentlichungen über solche Supernova-Studien; siehe beispielsweise Leibundgut 1996, Riess 1997, Goldhaber 2001, oder Knop 2003. Aus den Daten ist es offensichtlich, dass die Vorhersage der UT in der Tat sehr gut erfüllt ist - trotz der teilweise recht großen Unsicherheiten in den Daten. Eine statistische Analyse einer dieser Datensammlungen zeigte, dass die Alternative "keine Zeitdilatation" um mehr als 18 Standardabweichungen ausgeschlossen ist! Das Diagramm unten zeigt die von Goldhaber erhaltenen Daten (freundlicherweise zur Verfügung gestellt von Ned Wright):
Dass die Oberflächenhelligkeit eines Objekts mit dem Faktor (1+z)^4 abnehmen muss, wurde bereits 1930 von Tolman gezeigt. Da die Existenz der KMHS noch nicht bekannt war, schlug er damals vor, sogenannte "Standardkerzen" (das heißt Objekte bekannter, möglichst konstanter absoluter Helligkeit) für den Test dieses Effekts zu benutzen. Hubble und Tolman wiesen beiden darauf hin, dass solch ein Test die Idee eines sich ausdehnenden Universums überprüft. Auch Peebles diskutiert dies kurz in seinem Buch, im Abschnitt über nicht-kosmologische Rotverschiebungen.
Seit Tolmans Vorschlage wurden viele Versuche unternommen, einen solchen Test durchzuführen; meist indem man Galaxien als "Standardkerzen" verwendet. Allerdings stößt man dabei auf das Problem, dass Galaxien nicht wirklich eine konstante absolute Helligkeit haben: sogenannte "Star bursts" (Perioden starker Sternentstehung), chemische Veränderungen des innergalaktischen Gases durch Anreicherung durch Supernovae, Verschmelzungen mit anderen Galaxien usw. führen dazu, dass sich die Helligkeit einer Galaxis im Allgemeinen zeitlich stark ändert. Man kann allerdings versuchen, diese "intrinsischen" Helligkeitsänderungen zu berücksichtigen, indem man Modelle und Simulationen zur zeitlichen Entwicklung von Galaxien studiert.
Eine moderne Version des Tolman-Tests wird in einer Reihe von Veröffentlichungen von Lubin et al. (2001) beschrieben. Ihre Ergebnisse waren innerhalb der Fehlergrenzen konsistent mit der Vorhersage der UT, wohingegen andere Modelle für die Rotverschiebung (wie "müdes Licht", siehe Abschnitt 4c) eindeutig ausgeschlossen sind. Genauer: die Autoren fanden, dass gemessen in einem Filterbereich (R-Filter) die Oberflächenhelligkeit mit (1+z)^2,6 abnahm, in einem anderen (I-Filter) mit (1+z)^3,4. Der vorhersagte Faktor 4 ergibt sich also, wenn durch die innere Entwicklung der Galaxien ihre Helligkeit um einen Faktor (1+z)^1,4 beziehungsweise (1+z)^0,6 abnimmt - und dies stimmt mit Modellen galaktischer Entwicklung überein.
Die UT sagt damit also voraus, dass die aus der Richtung großer Galaxienhaufen kommenden Photonen der KMHS eine höhere Energie haben sollten als die aus Richtungen, in denen weniger Galaxien zu sehen sind. Diesen Effekt nennt man den (thermischen) Sunyaev-Zel'dovich-Effekt. Mehr Details sowohl zu diesem Effekt als auch zu anderen Arten können auf dieser Website zum The Sunyaev-Zel'dovich effect gefunden werden. Sie bietet außerdem auch eine Vielzahl an Beobachtungsdaten.
Wie die Daten klar zeigen, tritt der Effekt tatsächlich wie vorhergesagt auf. Dies ist zunächst ein weiterer guter Beleg dafür, dass die KMHS tatsächlich eine kosmologische Quelle hat (wenn sie von Galaxienhaufen bei relativ hohen Rotverschiebungen gestört wegen kann, so folgt, dass ihre Quelle dahinter liegen muss, sie also keinen "lokalen" Ursprung haben kann). Zweitens kann man eine quantitative Analyse der Beobachtungsdaten aber auch dafür benutzen, kosmologische Parameter wie beispielsweise den Hubble-Parameter zu bestimnmen. Dies wird beispielsweise auf der Seite The Sunyaev-Zel'dovich effect interpreted in cosmological terms näher diskutiert. Der auf diese Weise erhaltene Wert für den Hubble-Parameter ist mit großen Unsicherheiten behaftet, stimmt aber dennoch recht gut mit den mittels anderen Messmethoden gewonnenen Werten überein.
Falls der Potentialtopf zu dem Zeitpunkt, wenn das Photon "hinein fällt", dieselbe Tiefe hat wie zu dem Zeitpunkt, wenn es wieder "heraus klettert", so ergibt sich netto keine Energieänderung: die Energiezunahme beim Hineinfallen wird durch die Energieabnahme beim Herausklettern genau ausgeglichen. Aber aufgrund der Ausdehnung des Universums ändert sich Massenverteilungen zeitlich, und damit auch die Form und Tiefe von Potentialtöpfen. Dies führt dazu, dass die Energiezunahme und -abnahme sich nicht mehr gegenseitig gerade ausgleichen. Also können wir heutzutage einen Nettoeffekt auf die Photonen der KMHS beobachten - und dies nennt man den Integrierten Sachs-Wolfe effect.
Von Scranton (2003), Afshordi (2004), Boughn (2004) und Nolta (2004) durchgeführte Studien lieferten starke Belege dafür, dass dieser Effekt in der Tat auftritt. Die genaue Analyse der Daten zeigte außerdem, dass die Beobachtungen durch das Lambda CDM-Modell (also ein flaches Universum, das von Dunkler Energie dominiert ist) am besten erklärt werden.
Dies sieht man bereits daran, dass die Existenz von Dunkler Materie bereits 1933 von Zwicky und unabhängig davon 1940 von Oort postuliert wurde - lange bevor irgendwelche Beobachtungen Probleme mit der UT gezeigt hätten. Oort untersuchte die Rotation von Galaxien und bestimmte daraus deren Massen (siehe weiter unten für Details). Er fand, dass die Galaxienmassen sehr viel größer sein müssen als die sichtbaren Massen. Dies wird beispielsweise auch auf dieser Seite über Dark Matter näher ausgeführt. Zwickys Entdeckung war dagegen, dass die Geschwindigkeiten von Galaxien in Galaxienhaufen sehr viel größer sind, als die Stabilität der Galaxienhaufen eigentlich erlauben würde (siehe wiederum weiter unten). Eine genauere Betrachtung der frühen Geschichte der Dunkle Materie findet sich in van den Bergh 1999.
Die hauptsächlichen Belege, die wir heutzutage für die Existenz der Dunklen Materie haben, sind:
Zu beachten ist hier insbesondere, dass die beobachteten Rotationskurven auch auf eine andere Massenverteilung schliessen lassen, als die sichtbare Materie tatsächlich hat. Andererseits stimmen die aus Rotationskurven bestimmten Massenverteilungen recht gut mit Ergebnissen von kosmologischen Simulationen überein. Diese sagen aus, dass Galaxien von Halos aus Dunkler Materie eingeschlossen sein sollten, deren Dichte mit der dritten Potenz des Abstands vom Zentrum abnimmt. Und zu solch einer Massenverteilung passende Rotationskurven wurden in der Tat für mehrere Galaxien beobachtet! (Prada 2003)
Es stellen sich nun einige offensichtliche Fragen: Was ist denn nun diese Dunkle Materie eigentlich? Warum gibt sie denn kein Licht (oder andere Strahlung) ab? Wenn sie nicht baryonisch ist, aus welchen Teilchen besteht sie dann? Und vor allem: warum haben wir diese Teilchen bisher nicht in unseren Laborexperimenten direkt gesehen?
Wahrscheinlich wird sich die Situation in einigen Jahren dramatisch ändern, wenn der Large Hadron Collider in Betrieb geht. Die meisten Teilchenphysiker vermuten, dass er supersymmetrische Partner-Teilchen finden wird (was natürlich die Möglichkeit, dass Dunkle Materie aus solchen Teilchen besteht, sehr deutlich unterstützen würde) - oder etwas vollkommen neues und unerwartetes (das aber dennoch hoffentlich ein neues Licht auf die offenen Fragen werfen würde).
Zusätzlich zu den Beobachtungen gibt es auch theoretische Gründe dafür, die Existenz von Dunkler Energie zu erwarten. Die Quantenfeldtheorie sagt, dass es sogar in einem totalen Vakuum immer noch Energie geben sollte: sogenannte "Nullpunktsfluktuationen". Dies passt sehr schön zur Dunklen Energie: eine gleichmäßig verteilte Energieform, die unabhängig von irgendwelcher vorhandenen Materie überall existiert (siehe auch Abschnitt 1c).
Leider ist es bisher nicht möglich, die genaue Größe dieser "Vakuumenergie" aus der Quantenfeldtheorie vorherzusagen - da diese nicht nur von der Anzahl und Eigenschaften aller existierenden Teilchen abhängt (welche bisher nicht alle bekannt sind), sondern auch von der Frage, ob der Raum quantisiert ist oder nicht (das heißt, ob es eine kleinste mögliche Länge gibt oder nicht). Diese Frage wird wahrscheinlich erst dann beantwortbar sein, wenn eine schlüssige Quantentheorie der Gravitation gefunden worden ist.
Nichtsdestotrotz kann man versuchen, die Vakuumenergiedichte abzuschätzen - basierend auf unserem bisherigen Wissen über Elementarteilchen und ihre Eigenschaften. Allerdings führen solche Versuche zu Ergebnisse, die etwa 120 Größenordnungen als der tatsächlich beobachtete Wert sind! Dies wurde (zu Recht!) die "schlechteste Vorhersage, die je von der theoretischen Physik gemacht wurde" genannt.
Spekulationen, die über das bisher in der Teilchenphysik Bekannte hinausgehen, führen zum einfachst möglichen Ansatz, dass sich irgendwie all die Beiträge der verschiedenen Teilchen, bekannte und unbekannte, gegenseitig herauskürzen, und die gesamte Vakuumenergiedichte gleich Null sein sollte. Dies war mehrere Jahrzehnte lang die allgemein benutzte Annahme in der Teilchenphysik (und der Kosmologie); im Licht der experimentellen Belege für die Existenz der Dunklen Energie muss man diesen Ansatz nun neu überdenken. All diese Ansätze werden im Artikel What's the Energy Density of the Vacuum? ein wenig ausführlicher diskutiert.
Ein weiterer theoretischer Ansatz zur Erklärung der Dunklen Energie ist die sogenannte Quintessenz. Dies ist ein (bisher völlig hypothetisches) Feld (bzw. Teilchen; diese beiden Konzepte sind in der Quantenfeldtheorie eng verknüpft), welches auf natürliche Weise in seinem Grundzustand eine negative Energiedichte besitzt. Im Gegensatz zur normalen Vakuumenergie bleibt die Energiedichte dieses Feldes zeitlich nicht konstant. Dies kann benutzt werden, um die verblüffende Tatsache (das "Kosmologische-Konstante-Problem") zu erklären, dass die Dichten der Dunklen Energie und der Materie, die wir heute beobachten, fast gleich groß sind (70% bzw. 30% der kritischen Dichte), obwohl sie eigentlich beliebige, auch sehr stark unterschiedliche, Werte haben könnten. Bisherige Beobachtungen scheinen aber eher darauf hinzudeuten, dass die Dichte der Dunklen Energie konstant bleibt. Dies schränkt Quintessenz-Modelle ein, schließt sie aber bisher nicht endgültig aus.
In diesem Zusammenhang sollte man auch erwähnen, dass die sogenannte Inflationshypothese ein flaches Universum, das heißt eines mit genau der kritischen Dichte, voraussagt. Nimmt man diese Hypothese als wahr an (was von den meisten Kosmologen getan wird, da mehrere Beobachtungsergebnisse dafür sprechen und die Hypothese sehr elegant einige Probleme erklärt; mehr dazu im Abschnitt 3e), und kombiniert dies mit den Beobachtungsergebnissen, wonach die Materie maximal etwa 30% zur kritischen Dichte beiträgt, so hat man ein weiteres (theoretisches) Argument für die Existenz der Dunklen Energie. Dies wird im Artikel Dark Energy: Just What Theorists Ordered näher ausgeführt.
ZUsammenfassend: Im Gegensatz zur Dunklen Materie, wo es mehrere vielversprechende Kandidaten gibt und eine direkte Entdeckung der zugehörigen Teilchen in der nahen Zukunft zu erwarten ist, bleibt die Dunklen Energie bisher ein großes Rätsel. Es gibt einige Erklärungsvorschläge für sie, aber keiner davon ist wirklich zufriedenstellend und überzeugend, und außerdem ist es sehr schwierig, diese Ideen auch zu überprüfen. Hier kann man nur hoffen, dass Fortschritte in der theoretischen Physik (Quantengravitation etc.) ein wenig Licht auf diese Probleme werfen wird, was dann wiederum zu einigen überprüfbaren Vorhersagen führen sollte.
Schaut man genauer hin, so stellt man allerdings fest, dass all diese verschiedenen Methoden ein Netzwek aus ineinandergreifenden, sich selbst und einander korrigierenden Methoden darstellt - und alle davon kommen zu denselben Schlussfolgerungen (innerhalb der Fehlergrenzen). Die Annahmen und freien Parameter, die im Modell und den Messungen verwendet werden, sind dadurch gerechtfertigt, dass man konsistente Ergebnisse erhält, wenn man sie benutzt.
Ein schönes Beispiel für diese Konsistenz zwischen den Ergebnissen verschiedener Methoden findet sich in einer der Veröffentlichungen des WMAP-Teams: Determination of Cosmological Parameters. In diesem wird Konsistenz gezeigt zwischen: dem aus den WMAP-Messungen erhaltene Alter des Universums und den beobachteten Altern der Sterne; dem von WMAP ermittelten Baryon-Photon-Verhältnis und dem beobachteten Deuterium-Helium-Verhältnis aus der primordialen Nukleosynthese; und dem aus den WMAP-Ergebnissen folgenden Wert für die Hubble-Konstante und direkten Messungen, die von einer Vielzahl von Beobachtungsmethoden stammen (Supernovae, die Tully-Fisher-Beziehung, Oberflächenhelligkeiten von Galaxien). Letztere liefern ebenfalls alle untereinander konsistente Werte. Außerdem stimmt die beobachtete großräumige Struktur des Universums mit den Ergebnissen der Computersimulation überein, die das Lambda CDM-Modell verwenden, welches aus den WMAP-Daten gewonnen wurde. Und schließlich hat man auch noch Übereinstimmung zwischen der WMAP-Beobachtung, dass Dunkle Energie existieren muss, und den Supernova-Studien, welche eine beschleunigte Ausdehnung des Universums zeigen.
Das Entscheidende an diesen Effekten ist, dass sie keines der bekannten Erhaltungsgesetze der Physik verletzen (wie die Erhaltung der Energie, des Impulses und der Ladung). Solange diese Erhaltungsgesetze es zulassen, kann also tatsächlich etwas aus dem Nichts entstehen. Allerdings behaupten viele Leute, die UT würde den Erhaltungssatz der Energie (welcher im Wesentlichen identisch zum Ersten Hauptsatz der Thermodynamik ist) verletzen.
Dagegen gibt es aber mehrere gute Gegenargumente: zuallererstmal ist die UT gar nicht über den Ursprung des Universums, sondern nur über seine zeitliche Entwicklung. Also hat jede Aussage, dass das Universum doch nicht aus dem Nichts entstehen zu könnte, letztlich gar nichts mit dem Thema zu tun, das die UT eigentlich behandelt. Gleichermaßen kann man auch argumentieren, dass die Hauptsätze der Thermodynamik, wie alle bekannten Naturgesetze, für das heutige, bereits bestehende Universum gelten; wir wissen einfach nicht, ob sie auch (schon) galten, als das Universum gerade erst entstand. Drittens ist es nicht einmal klar, ob es überhaupt Sinn macht, über eine Zeit "vor dem Urknall" zu reden - also ist nicht klar, wie man denn die Energie vor und nach dem Urknall vergleichen und daraus folgern könnte, ob die Energie erhalten wurde oder nicht.
Das Auftauchen des Universums "aus dem Nichts" würde schließlich nur dann den ersten Hauptsatz der Thermodynamik verletzen, wenn sich die Energie vorher (falls man diese irgendwie sinnvoll definieren kann) von der Energie danach unterscheidet. Wahrscheinlich wird jeder zustimmen, dass "das Nichts" eine Energie von Null haben sollte; also ist der Hauptsatz nur verletzt, wenn die Gesamtenergie des Universums ungleich Null ist. Aber es gibt gute Argumente dafür, dass die Energie des Universums exakt gleich Null sein sollte!
Auf den ersten Blick wirkt diese Aussage natürlich mehr als überraschend, da offensichtlich all die Materie und Strahlung, die wir um Universum sehen können, eine große Menge Energie enthält. Aber man muss auch berücksichtigen, dass die potentielle Energie der Schwerkraft negativ ist. Ein Standardbeispiel, um dies zu begründen, ist eine Rakete, die die Erde verlässt; mit einer Geschwindigkeit, die so groß ist, dass die Rakete das Schwerefeld der Erde gerade "verlassen" könnte. Das bedeutet, dass die Geschwindigkeit der Rakete immer kleiner und kleiner wird, während sie sich (ohne weiteren Antrieb) weiter und weiter von der Erde wegbewegt, bis die Geschwindigkeit schließlich in "unendlich weiter" Entfernung genau Null ist (streng genommen muss man hier die mathematischen Grenzwerte betrachten). Also hat die Rakete in dieser "unendlich weiten" Entfernung keine (Bewegungs-)Energie mehr. Mit Anwendung des Energieerhaltungssatzes folgt, dass die Gesamtenergie der Rakete auch schon Null war, als sie die Erde gerade verliess. Aber zu jenem Zeitpunkt hatte sie eine hohe Geschwindigkeit, also eine hohe Bewegungsenergie. Es folgt, dass ihre potentielle Energie im Schwerefeld der Erde negativ gewesen sein muss. Für eine andere Erklärung hierfür, siehe beispielsweise diesen Forumsbeitrag zu Negative gravitational energy.
In einem Artikel in der Zeitschrift Nature im Jahre 1973 skizzierte E. Tryon ein Argument, das zeigte, dass die gesamte negative potentielle Energie der Schwerkraft dieselbe Größenordnung wie die positive Gesamtenergie der Materie und Strahlung des Universums haben sollte, woraus folgt, dass die Gesamtenergie des Universums in der Tat gleich Null ist. (Genauer gesagt zeigte sein Argument eigentlich nur, dass sie nahe Null sein sollte).
Tryons Argument benutzte allerdings im Wesentlichen die Newtonsche Physik; in der ART kann die physikalische Größe "potentielle Energie der Schwerkraft" eigentlich gar nicht sinnvoll definiert werden. Also muss man sich nach anderen Argumenten umschauen. Ein Problem hierbei ist, dass in der ART bereits die Größe "Gesamtenergie des Universums" eigentlich nicht sinnvoll definiert werden kann. Dies wird beispielsweise von Misner, Thorne und Wheeler ausführlich in Kapitel 20 ihres Buches diskutiert.
Andererseits berechnet Wald in seinem Buch über die ART die sogenannte "Hamiltonfunktion" der ART. In der klassischen Physik kann diese Funktion im Allgemeinen als die Gesamtenergie eines Systems interpretiert werden (allerdings gibt es auch in der klassischen Physik bereits einige Beispiele, bei denen dies schiefgeht). Wald zeigt anschließend, dass die Hamiltonfunktion für ein abgeschlossenes (positiv gekrümmtes) Universum exakt Null ist. Seine Argumente können auch auf ein flaches Universum übertragen werden, und es ergibt sich wieder, dass die Hamiltonfunktion, also die Gesamtenergie, exakt gleich Null ist. Für ein offenes (negativ gekrümmtes) Universum wäre die Hamiltonfunktion allerdings dagegen wieder nicht wohldefiniert.
Ein weiteres Problem mit der Erhaltung der Energie in der ART ergibt sich gerade aus der Nicht-Existenz des Konzepts einer "potentiellen Energie der Schwerkraft" in dieser Theorie. Einstein versuchte, dieses Konzept auch in der ART beizubehalten, musste dafür allerdings sogenannte "Pseudo-Tensoren" einführen. Heutzutage wird dieser Standpunkt nicht mehr als sinnvoll angesehen: physikalische Gesetze sollten nur unter Verwendung von Tensoren formuliert werden (siehe wiederum Misner, Thorne und Wheeler, Kapitel 20). Aber wenn es gar keine "potentielle Energie der Schwerkraft" gibt, dann kann die Erhaltung der Energie offensichtlich nicht mehr unter allen Umständen gelten (beispielsweise nicht im obigen Beispiel der Rakete). Dies wird ausführlicher auf dieser FAQ-Seite zur Energieerhaltung in der ART diskutiert.
Zusammenfassend: vom Standpunkt der ART aus muss die Gesamtenergie des Universums nicht erhalten sein, und ist eigentlich noch nicht einmal wohldefiniert. Damit wird jedes Argument gegen die UT, das auf dem Ersten Hauptsatz der Thermodynamik basier, irrelevant.
Aber offensichtlich ist das Universum als Ganzes gesehen ein abgeschlossenes System - also ist dies hier kein gültiges Gegenargument. Aber trotzdem ist der Zweite Hauptsatz kein Argument gegen die UT:
Die UT wird nicht nur von den meisten großen christlichen (und anderen) Glaubensgemeinschaften akzeptiert, sondern sogar von einigen Gruppen von Kreationisten wie beispielsweise dem Astronomen Hugh Ross. Einige christliche Philosophen versuchen die UT gar als Beleg für die Existenz eines Schöpfers zu benutzen - sie weisen beispielsweise darauf hin, dass diese wissenschaftliche Theorie mit der Bible darin übereinstimmt, dass das Universum einen Anfang hatte, dass zuerst Licht da war (obwohl dies eine reichlich grobe Falschdarstellung der eigentlichen Aussagen der UT ist) usw. Artikel, die solche Argumente diskutieren, finden sich beispielsweise auf der Webseite Physics and Religion.
Letztlich sollte auch darauf hingewiesen werden, dass Lemaitre, einer der Begründer der UT (die wichtigsten Gleichungen der UT werden bis heute die "Friedmann-Lemaitre-Gleichungen" genannt), Jesuitebpriester war!
Mitte der 90er-Jahre war die Beschleunigung der Ausdehung des Universum noch nicht entdeckt worden. Messungen der Hubble-Konstanten ergaben zu dieser Zeit meist Werte um 27 Kilometer pro Sekunde und Millionen Lichtjahre - nicht sehr verschieden vom heutzutage allgemein akzeptierten Wert von etwa 22 Kilometer pro Sekunde und Millionen Lichtjahre. Da man damals aber noch ein Universum annahm, dessen Ausdehnung immer langsamer wird, ergab sich daraus ein Alter des Universums von nur etwa 10 Milliarden Jahren (statt den 13,7 Milliarden Jahren, die man erhält, wenn man den modernen Wert der Hubble-Konstanten und die Beschleunigung berücksichtigt).
Zur selben Zeit ergaben Abschätzung des Alters der ältesten Sterne Werte zwischen 13 und 18 Milliarden Jahren. Dies lag teilweise daran, dass die Entfernungen der Sterne damals noch nicht so gut bestimmt werden konnten (der Satellit Hipparcos machte hier große Fortschritte möglich), und teilweise auch an Unsicherheiten bezüglich der in den Sternen ablaufenden Kernreaktionen, die das "Altern" eines Sterns beeinflussen.
Zusammengenommen sah es also zu jener Zeit so aus, als ob es Sterne geben würde, die älter als das Universum selbst sind! Dies war damals ein recht großes Problem für die UT - aber heutzutage ist die Lösung klar: Das Universum ist älter, als damals angenommen wurde, und die Sterne jünger. Die modernen Altersbestimmungen für die ältesten Sterne stimmen gut mit dem Alter des Universums überein - siehe Abschnitt 2g.
Ein sehr kleiner Unterschied am Anfang hätte so zu einem sehr großen Unterschied heutzutage geführt - und mit einer um so viel kleineren Dichte hätte sich das Universum sehr viel schneller ausgedehnt, und keine Galaxien, Sterne und Planeten hätten sich formen können. Dies sah für viele Kosmologen nach einer fantastischen Feineinstellung (Englisch: "fine-tuning") aus. Da das Verhältnis der tatsächlichen zur kritischen Dichte die Krümmung des Universums bestimmt, und aus der Übereinstimmung beider Werte folgen würde, dass das Universum flach ist, wurde dies als das "Flachheits-Problem" in der Kosmologie bekannt.
Ein anderes Problem der Kosmologie zu jener Zeit, auf den ersten Blick nicht damit zusammenhängend, war das sogenannte "Horizont-Problem" In der Kosmologie versteht man unter dem Horizont den Abstand, den Objekte voneinander haben müssen, damit sie sich gegenseitig gerade nicht mehr kausal beeinflussen können (die Ausdehnungsgeschwindigkeit zwischen ihnen ist gerade groß genug, dass etwas, das sich mit Lichtgeschwindigkeit bewegt, nicht mehr vom einen zum anderen gelangen kann). Teile unseres Universums, die jenseits des (damaligen) Horizonts waren, als die KMHS abgestrahlt wurde, konnten deswegen nicht im thermischen Gleichgewicht mit näheren Teilen sein. Aber Beobachtungen der KMHS zeigten, dass statt dessen sehr große Bereiche des Universums, weit größer als der Horizont zu jenen Zeit, in der Tat im thermischen Gleichgewicht waren!
1981 schlug Guth eine mögliche Lösung für beide Probleme (und andere) vor - eine Hypothese, die heutzutage als Inflation bekannt ist und einen anerkannten Teil der Standard-UT bildet (Guth 1981). Im Wesentlichen sagt sie, dass die Ausdehnung des Universums zu einer sehr frühen Zeit (und nur für eine sehr kurze Zeitspanne) bereits schon einmal beschleunigt verlief - und zwar exponentiell! Auf diese Weise konnten Gebiete, die sehr viel kleiner waren als der Horizont (und folglich im thermischen Gleichgewicht) sehr schnell auf sehr große Bereiche anwachsen, wobei sie ihr thermisches Gleichgewicht beibehielten. Außerdem führte diese sehr schnelle Ausdehnung dazu, dass sich die Dichte des Universums sehr nahe an die kritische Dichte annäherte - das heißt, das Universum wurde (fast) flach.
Weitere Details hierzu finden sich beispielsweise im Wikipedia-Artikel zum Inflationären Universum . Die Inflation wird außerdem in Kapitel 5 nochmals angesprochen. Allerdings sollte man auch hier schon betonen, dass die Inflationshypothese nicht nur eine wilde Idee ist, die sich jemand ausgedacht hat, um die UT vor der Widerlegung zu retten, sondern dass sie auch quantitative Vorhersagen macht, die durch Beobachtungen überprüft werden können (und teilweise bereits wurden).
Allerdings tut sich hier ein großes Problem auf: falls all diese Prozesse in einem thermischen Gleichgewicht abliefen, so hätten laut der Quantenfeldtheorie nach genügender Abkühlung praktisch gleich viele Materie- und Antimaterie-Teilchen überleben sollen. Statt dessen beobachten wir heutzutage im Universum praktisch nur Materie und keine Antimaterie! Dieses Problem wird in der Kosmologie als die "Materie-Antimaterie-Asymmetrie" bezeichnet.
Sakharov zeigte bereits 1967 auf, welche Bedingungen erfüllt gewesen sein müssen, damit diese Asymmetrie zustande gekommen sein konnte: die Reaktionen mussten (zumindest teilweise) außerhalb des thermischen Gleichgewichts statt gefunden haben; die sogenannte "CP-Symmetrie" der Teilchenphysik musste verletzt gewesen sein (mit anderen Worten: Teilchen und Anti-Teilchen müssen sich verschieden verhalten, im Gegensatz dazu, was die Teilchenphysiker damals annahmen); und die sogenannte "Baryonen-Zahl" konnte nicht erhalten gewesen sein ( Sakharov 1967).
Damit war klar, welche Bedingungen zu jener Zeit im Universum geherrscht haben mussten. Unklar waren (und sind teilweise immer noch) die Details dazu, wie dies erfüllt gewesen sein konnte. Moderne Lösungen des Problems benutzen die sogenannte "elektroschwache Symmetriebrechung": im sehr frühen Universum waren die elektromagnetische und die schwache Kernkraft noch miteinander vereinigt. Erst als das Universum weit genug herabgekühlt war (bei einer Temperatur von etwa 10^15 Grad und zu einer Zeit von etwa 10^(-10) Sekunden) wurden sie unterscheidbar. Dieser "Phasenübergang" führte, zumindest lokal und kurzzeitig, zu einer Störung des thermischen Gleichgewichts. Bei einer solch hohen Temperatur erlaubt das Standardmodell der Elementarteilchenphysik auch die Nichterhaltung der Baryonen-Zahl; und die Verletzung der CP-Symmetrie ist bereits von vornherein ein natürlicher Bestandteil der elektroschwachen Theorie.
Alle benötigten Bedingungen konnten also erfüllt sein. Wie bereits erwähnt, sind zwar noch nicht alle Details zum genauen Mechanismus geklärt (beispielsweise ist es noch nicht klar, ob die beobachtete Asymmetrie auch quantitativ erklärt werden kann), aber die meisten Teilchenphysiker und Kosmologen sind zuversichtlich, dass man auf der richtigen Spur ist, und höchstwahrscheinlich wird das Problem der Materie-Antimaterie-Asymmetrie relativ bald zufriedenstellend geklärt sein.
Man sollte hierbei allerdings beachten, dass diese Galaxien zwar einerseits bezüglich einiger Merkmale alt aussehen - aber andererseits enthalten sie nur junge Sterne! Das Alter der Sterne in diesen Galaxien, zusammengenommen mit der Zeit, die ihr Licht benötigte, um uns zu erreichen, ist immer noch konsistent mit dem Alter das Universums, das aus den WMAP-Daten und anderen bestimmt wurde. Nichtsdestotrotz widerspricht die Existenz solch massereicher, gut entwickelter Galaxien bei solch hohen Rotverschiebungen den derzeitigen Modellen zur Strukturbildung im Universum. Die wahrscheinlichste Erklärung ist bisher, dass das Problem nicht bei der UT liegt, sondern bei diesen Strukturbildungs-Modellen, besonders bei denen zur Galaxienbildung.
Die Entstehung und Entwicklung von Galaxien ist in der Astronomie immer noch ein sehr schwieriges Thema. Um nachzuvollziehen, wie diese statt findet, werden Computersimulationen durchgeführt, ganz ähnlich den Simulationen zur Entstehung der großräumigen Strukturen im Universum (siehe Abschnitt 2f). Aber diese Simulationen müssen diverse Annahmen und Vereinfachungen verwenden, bei denen nicht klar ist, inwieweit sie wirklich gültig sind. Ein weiteres Problem ist die stark beschränkte Auflösung der Simulationen - mit der derzeitigen Computerleistung kann man nur Systeme bestehend aus einigen hunderttausend, bestenfalls Millionen von Teilchen simulieren, wohingegen eine reale Galaxis aus einigen hundert Milliarden Sterne und Gas- und Staubwolken mit nochmals etwa derselben Masse besteht. Also muss jedes einzelne Teilchen eine ganze Gruppe von Gaswolken, Tausenden von Sternen usw. darstellen. Offensichtlich können dabei Effekte wie Sternentwicklung, Sternwinde usw., die starken Einfluss auf die Entwicklung einer Galaxis haben, nicht direkt berücksichtigt werden, und können nur sehr grob und ad hoc mit einbezogen werden.
Außerdem scheinen die allgemeinen Ergebnisse der Beobachtungen des Hubble-Teleskops eher das Gegenteil zu zeigen: zu einer Zeit von etwa einer Milliarde Jahren nach dem Urknall war das Universum demnach mit kleinen Galaxien gefüllt, die gerade nicht voll ausgeformt waren. Siehe dazu beispielsweise die Pressemitteilung Hubble Approaches the Final Frontier: The Dawn of Galaxies. Eine mögliche Erklärung wäre also vielleicht, dass Galaxien zu jener Zeit im Allgemeinen in der Tat klein und wenig ausgeformt waren, und Cimatti (und andere) schlicht und einfache einige "statische Ausreißer" gesehen haben. In Anbetracht der wachsenden Anzahl an Beispielen erscheint dies aber zunehmend unwahrscheinlich.
Die Beobachtung von Galaxien stellt die UT außerdem noch vor ein weiteres Problem. Praktisch alle großen Galaxien sind von kleineren Galaxien umgeben, die um sie kreisen, sogenannten "Satellitengalaxien". Bei der Milchstraße sind dies beispielsweise die Magellansche Wolken und andere, kleinere und wenig bekanntere Galaxien (wie beispielsweise der sogennante "Sagittarius-Zwerg"). Computersimulationen zur Strukturbildung im Universum sagen die Existenz solcher Satelliten auch voraus - aber das Problem ist, dass sie eine sehr viel größere Anzahl vorhersagen, als beobachtet wird! (für die Milchstraße etwa 50, wohingegen bisher nur etwa 15 gefunden wurden) Genaugenommen wird von diesen Simulationen allerdings nur die Anzahl und Verteilunge sogenannter "Dunkle-Materie-Halos" vorhergesagt, also großer Wolken aus Dunkler Materie, innerhalb derer sich im Allgemeinen Galaxien bilden. Einige weitere Informationen und Erklärungsansätze für dieses Problem finden sich im Artikel Dark Influence, besonders im zweiten Teil, "Missing halos".
Zusammenfassend: obwohl die UT auf großen Skalen (Galaxienhaufen, großräumige Strukturen, das Universum als Ganzes) sehr gut funktioniert, hat sie anscheinend Probleme damit, die Bildung von Strukturen auf kleineren Skalen zufriedenstellend zu erklären. Bisher ist nicht klar, ob diese Probleme verschwinden werden, wenn die Computersimulationen zur Strukturbildung verbessert werden können, oder ob die Modelle dazu selbst falsch sind - oder ob dies gar auf einen grundlegenden Fehler der UT hindeutet. Die meisten Kosmologen vermuten allerdings stark, dass die Lösung bei ersterem oder zweiterem liegt.
Arp weist darauf hin, dass Bilder von vielen Galaxienpaaren, oder Gruppierungen einer Galaxie mit einem Quasar, darauf hinzudeuten scheinen, dass die beiden miteinander verbunden sind - selbst wenn sie stark verschiedene Rotverschiebungen aufweisen und dementsprechend eigentlich riesige Entfernungen voneinander haben müssten. Beispielsweise kann es so aussehen, als ob ein Spiralarm einer Galaxis sich bis zu einem Quasar erstreckt oder gar von diesem angezogen wird, und es ist sogar ein Beispiel bekannt, wo ein Quasar innerhalb einer Galaxis zu liegen scheint (siehe Discovery By UCSD Astronomers Poses A Cosmic Puzzle: Can A 'Distant' Quasar Lie Within A Nearby Galaxy?). Arp hat sogar einen ganzen "Katalog diskordanter Rotverschiebungs-Gruppierungen" veröffentlich.
Er wird in seinen Ideen auch von einigen anderen Astronomen unterstützt, beispielsweise Gregory und Margaret Burbidge. Aber die meisten Astronomen lehnen seine Behauptungen ab und weisen darauf hin, dass all seine Beobachtungen auch durch reinen Zufall erklärbar sind: wenn man nur genügend Galaxien und Quasare untersucht, wird man offensichtlich zumindest einige finden, die nahe beieinander zu liegen scheinen. Arp kontert, dass seine Ergebnisse nicht rein zufällig sein können, sondern statistisch signifikant sind - aber die Richtigkeit seiner statistischen Berechnungen wird von den meisten Astronomen bezweifelt.
Vor kurzem wurde außerdem eine Studie zur Verteilung von Quasaren veröffentlicht, die relevant für diese Frage ist (Scranton 2005). Unter Verwendung von Daten aus dem Sloan Digital Sky Survey wurden die Positionen von 200 000 Quasaren mit denen von 13 Millionen Galaxien verglichen. Hätte Arp recht, sollte man erwarten, dass die Verteilung der Quasare stark mit der der Galaxien korreliert ist (das heißt, dass man Quasare oft sehr nahe an normalen Galaxien finden müsste). Wenn Quasare dagegen im Allgemeinen "hinter" normalen, nahen Galaxien liegen, also bei höheren Rotverschiebungen, so sollte nur eine sehr schwache Korrelation auftreten. Außerdem sollte bei den Quasaren, die (scheinbar) dicht bei einer nahen Galaxis liegen (in Wirklichkeit aber weit dahinter), eine Verstärkung ihres Lichtes durch einen Gravitationslinsen-Effekt auftreten. Die Studie zeigte, dass die zweite Möglichkeit in der Tat erfüllt ist, widerspricht also Arps Behauptungen. Siehe dazu auch den Artikel 200,000 Quasars Confirm Einstein's Prediction.
Tifft hat viele Anhänger, die meisten davon allerdings keine professionellen Astronomen, darunter auch einige Kreationisten. Beispielsweise finden sich im Artikel The vacuum, light speed, and the redshift im Abschnitt "The redshift goes in jumps" eine ausführliche Beschreibung der Beobachtungen Tiffts und einige Literaturverweise.
Aber bereits diese Beschreibung wirft Zweifel über Tiffts Ergebnisse auf. Es wird berichtet, dass Tifft ursprünglich eine Quantisierung der Geschwindigkeiten mit einem Wert von 72,46 Kilometern pro Sekunde gefunden hat. Weitere Beobachtungen reduzierten diesen Wert auf 36,2 Kilometer pro Sekunde, dann 8,05, und schließlich 2,68. Beachten Sie, dass eine Quantisierung der Geschwindigkeiten dieser Größenordnung einer Quantisierung der Rotverschiebung mit einer Größenordnung von 1 zu 10000 entspricht! (das heißt, Rotverschiebungen sollten nur in "Sprüngen" der Größe 0,00001 auftreten) Sowohl die Tatsache, dass dies eine sehr kleine Zahl ist (verglichen mit der Empfindlichkeiten tatsächlicher Rotverschiebungs-Messungen, als auch dass die Zahl mit fortgesetzten Beobachtungen immer kleiner geworden ist, weisen stark darauf hin, dass dies nicht ein wirklicher physikalischer Effekt ist, sondern letztlich nur auf ungenügenden Genauigkeiten der Messungen beruht. Außerdem sollte man beachten, dass nur eine relativ kleine Datensammlung benutzt wurde, was zu statistischen "Auswahlfehlern" führen kann.
Ein weiteres Gegenargument besteht darin, dass man eine gewisse "Quantisierung" sogar erwarten sollte, wenn man die großräumige Struktur des Universums berücksichtigt. Das Universum enthält "Große Mauern" aus Galaxien, Galaxiensuperhaufen, die an den Grenzen "Großer Leeren" liegen, die Durchmesser von mehreren hundert Millionen Lichtjahren haben können. Wenn man in irgendeine Richtung schaut, wird man also bei bestimmten Entfernungen Anhäufungen von Galaxien beobachten, bei anderen Entfernungen praktisch gar keine. Offensichtlich ergibt sich so eine gewisse Periodizität bzw. "Quantisierung" der beobachteten Rotverschiebungen.
Eine von anderen Astronomen durchgeführte Studie, welche große Datenmengen aus dem 2dF galaxy survey benutzte, fand keinerlei Belege für Periodizitäten der Rotverschiebung in der von Tifft behaupteten Größenordnung (Hawkins 2002). Anhänger von Tifft wandten ein, dass diese Studie nur Quasare untersuchte statt (nahe) Galaxien, aber dieser Einwand wirkt ein wenig seltsam - wenn Rotverschiebungen quantisiert sind, sollte man schließlich erwarten, dass sie dies überall sind, nicht nur in unserer "Nachbarschaft".
Dieses Kapitel bespricht zwei (bzw. drei) alternative Modelle, die von ernstzunehmenden Astronomen vorgeschlagen wurden, und geht anschließend auch noch auf zwei weitere weitverbreitete Alternativen ein, die allerdings von professionellen Astronomen nicht ernst genommen werden. Die englische Version dieses FAQs enthält außerdem zwei von Kreationisten aufgestellte Modelle; da sie im deutschsprachigen Raum kaum relevant sind, wurden diese beiden hier allerdings ausgelassen.
Es wird nicht versucht, auf jeden der Vorschläge detaillierte Gegenargumente zu bringen; die Modelle werden nur kurz beschrieben, einige Argumente gegen sie werden erwähnt, und es werden Literaturverweise auf Dokumente gegeben, welche sie tiefergehend untersuchen.
Im Jahre 1948, erfanden H. Bondi, T. Gold, und F. Hoyle das "Steady state"-Modell, welches davon ausging, dass das kosmologische Prinzip nicht nur räumlich, sondern auch zeitlich gilt. Mit anderen Worten: Das Universum sah immer so aus und wird immer so aussehen, wie es heutzutage aussieht. Da sich das Universum aber ausdehnt (Bondi, Gold und Hoyle akzeptierten die dafür sprechenden Beobachtungen), folgt, dass ständig irgendwie neue Materie entstehen muss (anderenfalls würde ja die Dichte zeitlich abnehmen, und das Universum könnte nicht zu jeder Zeit gleich aussehen). Weitere Schlussfolgerungen des Modells waren, dass die Ausdehnung des Universums exponentiell verläuft, und dass die Dichte genau den kritischen Wert haben muss.
Zu der Zeit, als das Modell erfunden wurde, schien es gut mit den Beobachtungen übereinzustimmen, wohingegen die konventionelle UT damals Probleme hatte. Weitere Beobachtungen zeigten aber mehr und mehr Ungereimheiten mit den Vorhersagen des "Steady state"-Modells, stimmten dagegen mit der konventionellen UT überein. Zunächst waren dies die Vorhersagen über die Häufigkeiten der leichten Elemente ; der Todesstoß kam dann mit der Entdeckung der KMHS).
Nichtsdestotrotz gab Hoyle das "Steady state"-Modell nicht komplett auf, sondern entwickelte (zusammen mit G. Burbidge and J. V. Narlikar) eine Erweiterung, das sogenannte "Quasi-Steady state"-Modell (Hoyle 1993). In diesem hatte das Universum schon immer existiert, macht aber Pulsationen durch, wechselt also zwischen in sich zusammen fallen und sich ausdehnen ab. Der "Rückprall" ab Ende jedes Zusammenfalls wird durch ein hypothetisches Feld mit negativer Energiedichte verursacht, ähnlich der Dunklen Energie in der Standard-Kosmologie. Dieses neue Modell erklärt tatsächlich viele Beobachtungen, bei denen das alte, komplett statische Modell versagte. Aber dennoch gibt es immer noch viele Beobachtungen, die ihm widersprechen, beispielsweise die Daten, die auf eine beschleunigte Ausdehnung hindeuten.
Weitere Details zu beiden Modellen finden sich auf Ned Wrights Seite Errors in the Steady State and Quasi-SS Models.
Im Jahre 1983 von Milgrom vorgeschlagen (Milgrom 1983), sagt MOND im Wesentlichen, dass Newtons Gravitationsgesetz für große Entfernungen (kleine Kräfte bzw. Beschleunigungen) nicht mehr exakt gültig ist, sondern abgeändert werden muss. Mit diesem Ansatz ist es in der Tat möglich, die Rotationskurven von Galaxien quantitativ zu erklären - eine Beobachtung, die normalerweise als eine der Hauptargument für die Existenz Dunkler Materie angesehen wird (siehe Abschnitt 2m).
Allerdings gibt es mehrere Einwände gegen diesen Vorschlag: zunächst scheint es ziemlich ad hoc, ein gut abgesichtertes Naturgesetz einfach so abzuändern. Es scheint naheliegender und "natürlicher" zu sein, zu postulieren, dass es Arten von Materie gibt, die wir nicht beobachten können (Dunkle Materie) - besonders da die Teilchenphysik ja eigentlich sogar vorhersagt, dass solche Materie wahrscheinlich existiert. Außerdem ist es nicht klar, ob es möglich ist, eine relativistische Version von MOND aufzustellen - in Analogie zur ART, die ja die relativistische Version von Newtons Gravitationsgesetz ist. Diese beiden Einwände mögen philosophisch oder metaphysisch erscheinen - aber es gibt auch direkte physikalische Gründe, an MOND zu zweifeln.
Ein Hauptargument ist, dass ja die Rotationskurven von Galaxien bei weitem nicht der einzige Belege für die Existenz der Dunklen Materie sind. Außerdem gibt es noch Bewegungen in Galaxienhaufen, Gravitationslinsen-Effkete, die Ergebnisse von WMAP usw. (siehe Abschnitt 2m), und all diese liefern (in etwa) miteinander konsistente Abschätzungen dazu, wieviel Dunkle Materie es geben sollte. Zur Zeit sieht es nicht so aus, als könne MOND all diese Beobachtungen ebenfalls konsistent erklären (siehe beispielsweise Aguirre 2001 und Sanders 2002).
Im Jahre 2002 fand der Chandra-Satellit sogar einen recht direkten Beleg gegen MOND: Das heiße Gas um die Galaxis NGC 720, welches durch seine Aussendung von Röntgenstrahlung beobachtet werden kann, hat die Form einer ellipsoiden Wolke - woraus folgt, dass das Gravitationspotential dieser Galaxis ebenfalls ellipsoid sein muss. Da die sichtbare Galaxis aber kugelförmig ist, würde MOND für sie ein ebenfalls kugelförmiges Gravitationspotential vorhersagen - wohingegen eine ellipsoide Wolke aus Dunkler Materie um die Galaxis die beobachtete Form der Gaswolke leicht erklären könnte. Ein ähnliches Argument ist, dass man beobachten kann, dass Gravitationskräfte manchmal in Richtungen zeigen, in der keine normale Materie sichtbar ist. Solche Ergebnisse erhält man beispielsweise aus der Untersuchung von Gravitationslinsen; siehe beispielsweise diese Dunkle Materie-Karte, in welcher zu sehen ist, dass die Dunkle Materie weit gleichförmiger verteilt ist als die leuchtende.
Vor kurzem schlug Bekenstein eine neue Theorie vor (im Wesentlichen eine Erweiterung der ART), die einige der Probleme von Milgroms MOND-Modell ausräumen könnte (Bekenstein 2004). Bisher ist allerdings noch nicht klar, inwieweit sie die vorhandenen Beobachtungsdaten erklären kann. Siehe dazu beispielsweise die kurze Diskussion im Beitrag Was Einstein wrong? im Preposterous Universe-Blog.
Im Gegensatz zum "(Quasi-)Steady state"-Modell und MOND geniessen Modelle mit "Müdem Licht" praktisch keinerlei Unterstützung von professionalen Astronomen. Dies liegt vor allem daran, dass es so viele Belege dafür gibt, dass sich das Universum in der Tat ausdehnt, und zwar genau so, wie die UT vorhersagt - und deshalb macht eine alternative Erklärung der Rotverschiebung offensichtlich wenig Sinn und wird schlicht und einfach nicht benötigt. Peebles spricht einige dieser Belege, die "Tired light"-Modelle direkt widerlegen, kurz in seinem Buch zur Kosmologie an, beispielsweise den Tolman-Test). Andere Belege sind die Zeitdilation in den Helligkeitskurven von Supernovae, die abnehmende Temperatur der KMHS usw.
Mehr dazu auch auf Ned Wrights Seite Errors in Tired Light Cosmology .
Lerners Argumente gegen die UT sind allers andere als überzeugend. Er behauptet beispielsweise, dass derzeitige Ideen zur Strukturbildung (durch die Schwerkraft-Wechselwirkungen zwischen ursprünglich kleinen Dichteschwankungen) die beobachteten großräumigen Strukturen im Universum nicht erklären können, und ignoriert dabei praktischerweise alle die Computersimulationen, die das Gegenteil zeigen (siehe 2f). Er leugnet die Existenz von Dunkler Materie und Dunkler Energie, trotz all den klaren Belegen für sie (siehe 2m und 2n), gibt vor, Dunkle Materie wäre nur erfunden worden, um die UT zu retten (was einfach nicht stimmt, siehe 2m), und behauptet, die Zahlenwerte für die Menge an Dunkler Materie würden sich mit jeder Messung neu ändern (was ebenfalls nicht stimmt - die Abschätzungen sind nun bereits für eine längere Zeit konstant - und konsistent - geblieben; außerdem ignoriert dies die Fehlergrenzen solcher Abschätzungen). Im Speziellen weist er darauf hin, dass bisher kein Experiment auf der Erde direkte Hinweise auf Dunkle Materie gefunden hat, und scheint zu denken, dass dies ein Beleg gegen ihre Existenz ist - wobei er praktischerweise ignoriert, dass die Teilchenbeschleuniger bisher schlicht und einfach noch nicht genügend Energie verfügbar haben, um die wahrscheinlichsten Kandidaten für Dunkle Materie-Teilchen zu erzeugen. Diese Liste könnte man beliebig weiterführen.
Gleichzeitig sind auch Lerners Behauptungen zur Fähigkeit der "Plasma-Kosmologie", die kosmologischen Beobachtungen richtig zu erklären, falsch. Ned Wright hat für viele von Lerners Argumenten Widerlegungen geschrieben; diese können auf der Seite Errors in the "The Big Bang Never Happened" gefunden werden. Teilweise gehen seine Argumente zwar etwas an Lerners Behauptungen vorbei, aber dennoch erhält man genug Informationen, um deutlich zu machen, dass Lerners Argumente schlicht und einfach unbegründet sind. Lerner hat Wrights Kritik zwar beantwortet, aber seine Argumente wurden dabei nicht besser - und er hat einige von Wrights Argumenten dabei ganz einfach ignoriert.
Lerner hat leider auch die schlechte Angewohnheit, wissenschaftliche Veröffentlichungen selbst dann als Beleg für seine Behauptungen anzuführen, wenn sie diesen eigentlich widersprechen - indem er die eigentlichen Aussagen der Artikel so lange verdreht, bis sie zu seinen Behauptungen passen. Ein schönes Beispiel ist der Artikel von Scranton et al. (Scranton (2003)), in welchem durch eine Untersuchung des integrierten Sachs-Wolfe-Effekts (siehe 2l) ein klarer Beleg für die Existenz der Dunklen Energie gefunden wird. Lerner ignoriert dieses (klar herausgestelltes!) Ergebnis des Artikels und behauptet statt dessen, der Artikel würde der UT widersprechen. Das Problem mit dieser Behauptung ist, dass sie eine Halbwahrheit darstellt - der Artikel widerspricht in der Tat der UT, aber nur der alten Version, ohne Dunkle Energie! Dagegen ist er voll und ganz mit dem aktuellen Lambda CDM-Modell konsistent, und liefert sogar einen weiteren Beleg zu dessen Unterstützung. Lerner benutzt diese Taktik, eine Vorhersage der alten UT (ohne Dunkle Energie) mit Beobachtungen zu vergleichen und dann herauszustreichen, dass sie nicht passen (während er ignoriert, dass sie sehr gut zum neuen Modell passen), auch noch an anderen Stellen. Beispielsweise benutzt er für die Berechnung der Größen der großräumigen Leerräume im Universum eine Formel aus einem Artikel, der lange vor der Entdeckung der Dunklen Energie veröffentlicht wurde, und weist dann darauf hin, dass die Vorhersagen dieser Formel nicht mit den Beobachtungen übereinstimmen. Die Frage, ob Lerner dies absichtlich macht oder ganz einfach nicht in der Lage ist, die Veröffentlichungen, die er zitiert, richtig zu verstehen, bleibt offen...
E stimmt zwar, dass es bisher noch keine allgemein akzeptierte wissenschaftliche Theorie für den Ursprung des Universums gibt - aber dennoch gibt es schon einige vielversprechende Vorschläge, und einige davon können wahrscheinlich bereits in naher Zukunft überprüft werden. Alle beinhalten die Grundidee, dass der Urknall nicht wirklich der Beginn der Zeit war, sondern dass bereits vorher etwas existierte. Diese Ideen sind bisher zwar alle ziemlich spekulativ, aber dennoch verdienen sie der Vollständigkeit halber eine Erwähnung in diesem FAQ.
Dieses Modell gibt eine interessante Antwort auf die Frage "Was war vor dem Urknall?". Die Antwort ist hier ganz einfach: ein anderes Universum existierte, in dem der Urknall statt fand. Dies kann offensichtlich beliebig weit in die Vergangenheit zurückverfolgt werden - es muss niemals einen wirklichen Beginn gegeben haben!
Steinhardts Modell wurde von anderen Kosmologen teilweise scharf kritisiert; in seiner Antwort wies er darauf hin, dass viele der behaupteten Probleme zwar auf Missverständnissen beruhen, gab aber auch zu, dass noch viele Einzelheiten des Modells der näheren Klärung bedürftig sind.
Außer Untersuchungen der KMHS gibt es allerdings auch noch andere Möglichkeiten, diese drei Modelle zu überprüfen: beispielsweise durch Untersuchungen von Gravitationswellen (deren Existenz allerdings leider bisher auch noch rein hypothetisch ist), und Magnetfeldern auf sehr großen Skalen. In den nächsten Jahren wird es vielleicht möglich sein, einige dieser Tests durchzuführen - also wissen wir hoffentlich bald mehr über den tatsächlichen Ursprung unseres Universums.
N. Afshordi, Niayesh, Y.-S. Loh, and M. A. Strauss, Cross-correlation of the cosmic microwave background with the 2MASS galaxy survey: Signatures of dark energy, hot gas, and point sources, Phys. Rev. D 69 (2004) 083524 (astro-ph/0308260)
A. Aguirre, J. Schaye, and E. Quataert, Problems for Modified Newtonian Dynamics in Clusters and the Ly-alpha Forest?, Astrophys. J. 561 (2001) 550 (astro-ph/0105184)
R. A. Alpher and R. Herman, Remarks on the Evolution of an Expanding Universe, Phys. Rev. 75 (1949) 1089
H. C. Arp, Catalogue of discordant redshift associations (Apeiron, 2003)
J. D. Bekenstein, Relativistic gravitation theory for the MOND paradigm, Phys. Rev. D70 (2004) 083509 (astro-ph/0403694)
S. van den Bergh, The Early History of Dark Matter, Publ. Astron. Soc. Pac. 111 (1999) 657 (astro-ph/9904251)
H. Bondi and T. Gold, The Steady-State Theory of the Expanding Universe, Mon. Not. Roy. Astron. Soc. 108 (1948) 252
S. Boughn and R. Crittenden, A correlation between the cosmic microwave background and large-scale structure in the Universe, Nature 427 (2004) 45
A. Cimatti et al., Old Galaxies in the Young Universe, Nature 430 (2004) 184 (astro-ph/0407131)
P. Coles, Cosmology: A Very Short Introduction (Oxford University Press, 2001)
S. Colombi, S. Dodelson, and L. M. Widrow, Large-Scale Structure tests of Warm Dark Matter, Astrophys. J. 458 (1996) 1 (astro-ph/9505029)
W. L. Craig and Q. Smith, Theism, Atheism, and Big Bang Cosmology (Oxford University Press, 1995)
N. Dauphas, The U/Th production ratio and the age of the Milky Way from meteorites and Galactic halo stars, Nature 435 (2005) 1203
S. M. Faber and J. S. Gallagher, Masses and mass-to-light ratios of galaxies, Ann. Rev. Astron. Astrophys. 17 (1979) 135
A. C. Fabian, P. A. Thomas, R. E. White III, and S. M. Fall, A lower limit to the binding mass of early-type galaxies, Mon. Not. Roy. Astron. Soc. 221 (1986) 1049
P. G. Ferreira, The cosmic microwave background, Physics World (April 2003) 27
D. J. Fixsen et al., The Cosmic Microwave Background Spectrum from the Full COBE FIRAS Data Set, Astrophys. J. 473 (1996) 576 (astro-ph/9605054)
H. Fritzsch: The Creation of Matter: The Universe from Beginning to End (Basic Books, 1984)
G. Goldhaber et al., Timescale Stretch Parameterization of Type Ia Supernova B-band Light Curves, Astrophys. J. 558 (2001) 359 (astro-ph/0104382)
A. H. Guth, Inflationary universe: A possible solution to the horizon and flatness problems, Phys. Rev. D 23 (1981) 347
B. Hansen et al., Hubble Space Telescope observations of the white dwarf cooling sequence of M4, Astrophys. J. Suppl. Ser. 155 (2004) 551 (astro-ph/0401443)
E. Harrison, Cosmology : The Science of the Universe (Cambridge University Press, 2000)
E. Hawkins, S. J. Maddox, and M. R. Merrifield, No Periodicities in 2dF Redshift Survey Data, Mon. Not. Roy. Astron. Soc. 336 (2002) L13 (astro-ph/0208117)
A. Heavens, B. Panter, R. Jimenez, and J. Dunlop, The star-formation history of the Universe from the stellar populations of nearby galaxies, Nature 428 (2004) 625 (astro-ph/0403293)
F. Hoyle, A New Model for the Expanding Universe, Mon. Not. Roy. Astron. Soc. 108 (1948) 372
F. Hoyle, G. Burbidge, and J. V. Narlikar, A quasi-steady state cosmological model with creation of matter, Astrophys. J. 410 (1993) 437
G. Imbriani et al., The bottleneck of the CNO burning and the age of the Globular Clusters, Astr. and Astrophysics 420 (2004) 625 (astro-ph/0403071)
Y. Izotov, T. X. Thuan, and V. A. Lipovetsky, The Primordial Helium Abundance: Systematic Effects and a New Determination, Astrophys. J. Suppl. 108 (1997) 1
A. Jenkins et al., The Virgo consortium: simulations of dark matter and galaxy clustering, in: Dark and Visible Matter in Galaxies. ASP Conference Series 11 (1997) 348 (ed. Massimo Persic and Paolo Salucci)
R. Jimenez, J. MacDonald, J. S. Dunlop, P. Padoan, and J. A. Peacock, Synthetic stellar populations: single stellar populations, stellar interior models and primordial protogalaxies, Mon. Not. Roy. Astron. Soc. 349 (2004) 240 (astro-ph/0402271)
R. Kippenhahn: Kosmologie für die Westentasche (Piper, 2003)
R. P. Kirshner: The Extravagant Universe: Exploding Stars, Dark Energy, and the Accelerating Cosmos (Princeton University Press, 2002)
R. A. Knop et al., New Constraints on Omega_M, Omega_Lambda, and w from an Independent Set of Eleven High-Redshift Supernovae Observed with HST, Astrophys.J. 598 (2003) 102 (astro-ph/0309368)
E. W. Kolb and M. S. Turner: The early universe (Perseus Books Group, 1993)
L. M. Krauss and B. Chaboyer, Age estimates of globular clusters in the Milky Way: constraints on cosmology, Science 299 (2003) 65
B. Leibundgut et al., Time Dilation in the Light Curve of the Distant Type Ia Supernova SN 1995K, Astrophys. J. 466 (1996) L21 (astro-ph/9605134)
E. Lerner, The Big Bang Never Happened (Random House, 1991)
A. D. Linde, Chaotic inflation, Phys. Lett. B 129 (1983) 177
M. Livio: The Accelerating Universe: Infinite Expansion, the Cosmological Constant, and the Beauty of the Cosmos (Wiley, 2000)
L. M. Lubin and A. Sandage, The Tolman Surface Brightness Test for the Reality of the Expansion; part I: Astron. J. 121 (2001) 227 (astro-ph/0102213); part II: Astron. J. 121 (2001) 2289 (astro-ph/0102214); part III: Astron. J. 122 (2001) 1071 (astro-ph/0106563); part IV: Astron. J. 122 (2001) 1084 (astro-ph/0106566)
V. Luridiana, A. Peimbert, M. Peimbert, and M. Cervino, The effect of collisional enhancement of Balmer lines on the determination of the primordial helium abundance, Astrophys. J. 592 (2003) 846 (astro-ph/0304152)
J. C. Mather et al., A preliminary measurement of the cosmic microwave background spectrum by the Cosmic Background Explorer (COBE) satellite, Astrophys. J. 354 (1990) L37
J. C. Mather, D. J. Fixsen, R. A. Shafer, C. Mosier, and D. T. Wilkinson, Calibrator Design for the COBE Far-Infrared Absolute Spectrophotometer, Astrophys. J. 512 (1999) 511 (astro-ph/9810373)
G. J. Mathews, T. Kajino, and T. Shima, Big Bang Nucleosynthesis with a New Neutron Lifetime, Phys. Rev. D71 (2005) 021302 (astro-ph/0408523)
M. Milgrom, A modification of the Newtonian dynamics as a possible alternative to the hidden mass hypothesis, Astrophys. J. 270 (1983) 365; A modification of the Newtonian dynamics - Implications for galaxies, ibid. 371; A Modification of the Newtonian Dynamics - Implications for Galaxy Systems, ibid. 384
C. W. Misner, K. S. Thorne, and J. A. Wheeler: Gravitation (W. H. Freeman, 1973)
L. Nolan, J. S. Dunlop, R. Jimenez, A. F. Heavens, F stars, metallicity, and the ages of red galaxies at z > 1, Mon. Not. Roy. Astron. Soc. 341 (2003) 464 (astro-ph/0103450)
M. R. Nolta, E. L. Wright et al., First Year Wilkinson Microwave Anisotropy Probe Observations: Dark Energy Induced Correlation with Radio Sources, Astrophys. Journal 608 (2004) 10 (astro-ph/0305097)
K. A. Olive and G. Steigman, On the abundance of primordial helium, Astrophys. J. Suppl. 97 (1995) 49 (astro-ph/9405022)
J. H. Oort, Astrophys. J. 91 (1940) 273
L. Pasquini, P. Bonifacio, S. Randich, D. Galli, and R.G. Gratton, Beryllium in turnoff stars of NGC6397: early Galaxy spallation, cosmochronology and cluster formation, Astr. and Astrophysics 426 (2004) 651 (astro-ph/0407524)
J. A. Peacock: Cosmological Physics (Cambridge University Press, 1999)
P. J. E. Peebles: Principles of Physical Cosmology (Princeton University Press, 1993)
S. Perlmutter et al., Measurements of Omega and Lambda from 42 High-Redshift Supernovae, Astrophys. J. 517 (1999) 565 (astro-ph/9812133)
F. Prada et al., Observing the dark matter density profile of isolated galaxies, Astrophys. J. 598 (2003) 260 (astro-ph/0301360)
A. G. Riess, W. Press, and R. Kirshner, A Precise Distance Indicator: Type Ia Supernova Multicolor Light Curve Shapes, Astrophys. J. 473 (1996) 88 (astro-ph/9604143)
A. G. Riess et al., Time Dilation from Spectral Feature Age Measurements of Type Ia Supernovae, Astron. J. 114 (1997) 722 (astro-ph/9707260)
A. G. Riess et al., Observational Evidence from Supernovae for an Accelerating Universe and a Cosmological Constant, Astron. J. 116 (1998) 1009-1038 (astro-ph/9805201)
A. G. Riess et al., Type Ia Supernova Discoveries at z>1 From the Hubble Space Telescope: Evidence for Past Deceleration and Constraints on Dark Energy Evolution, Astrophys. J. 607 (2004) 665 (astro-ph/0402512)
A. D. Sakharov. Pis'ma Z. Eksp. Teor. Fiz. 5 (1967) 32; English Translation: JETP Lett. 5 (1967) 24
R. H. Sanders, Clusters of galaxies with modified Newtonian dynamics, Mon. Not. Roy. Astron. Soc. 342 (2003) 901 (astro-ph/0212293)
R. Scranton et al., Physical Evidence for Dark Energy (astro-ph/0307335)
R. Scranton et al., Detection of Cosmic Magnification with the Sloan Digital Sky Survey, to be published in the Astrophys. J. (astro-ph/0504510)
R. Srianand, P. Petitjean, and C. Ledoux, The cosmic microwave background radiation temperature at a redshift of 2.34, Nature 408 (2000) 931 (astro-ph/0012222)
W. G. Tifft, Redshift Quantization in the Cosmic Background Rest Frame,
J. Astrophys. Astr. 18 (1997) 415
R. C. Tolman, Proc. N. A. S. 16 (1930) 511
R. C. Tolman, Relativity, Thermodynamics, and Cosmology (Clarendon Press,
1934)
J. L. Tonry et al., Cosmological Results from High-z Supernovae,
Astrophys. J. 594 (2003) 1
(astro-ph/0305008)
E. P. Tryon, Is the Universe a Vacuum Fluctuation?, Nature 246 (1973) 396
S. Turck-Chieze et al., Surprising Sun, Phys. Rev. Lett. 93 (2004) 211102
(astro-ph/0407176)
R. M. Wald: General Relativity
(University Of Chicago Press, 1984)
L. Wang, G. Goldhaber, G. Aldering, and S. Perlmutter,
Multicolor Light Curves of Type Ia Supernovae on the Color-Magnitude
Diagram: a Novel Step Toward More Precise Distance and Extinction Estimates,
Astrophys. J. 590 (2003) 944-970
(astro-ph/0302341)
S. Weinberg: The First Three
Minutes: A Modern View of the Origin of the Universe (2nd edition, Basic Books, 1993)
S. D. M. White, Large-Scale Structure at High Redshift, in The early
Universe with the VLT (ed. J. Bergeron), Springer (1997) 219
E. L. Wright et al., Interpretation of the cosmic microwave background radiation
anisotropy detected by the COBE Differential Microwave Radiometer, Astrophys. J. 396
(1992) L13
F. Zwicky, Helv. Phys. Acta 6 (1933) 110
Danksagung
Ich danke Ned Wright, Ulf Torkelsson, Stuart A. Weinstein,
Martin Hutton, Edward Cooper, Jon Fleming und Mark Isaak für wertvolle
Kritik und Vorschläge. Besonderer Dank gilt auch Ryan Scranton, der mir beim Entwurf
der englischen Version> eine große Hilfe war.