Auf die Frage, woraus unsere physikalische Welt besteht, würden die meisten wohl antworten: aus Materie und Energie. Doch die modernen Errungenschaften in Technik, Biologie und Physik zeigen uns, dass Information ein genauso wichtiger Bestandteil der Welt ist. Der Roboter in der Autofabrik kann auf Vorräte aus Metall und Kunststoff zugreifen – aber er vermag damit nichts anzufangen, wenn ihm nicht ausführliche Anweisungen sagen, welche Teile er in welcher Weise zusammenfügen soll. Ein Ribosom in einer menschlichen Körperzelle verfügt über Aminosäuren als Baumaterial und wird durch die Umwandlung des Energiespeichermoleküls ATP in ADP mit Energie versorgt – aber ohne die Information, die in der DNA des Zellkerns gespeichert ist, vermag es keine Proteine zu synthetisieren. Und auch in der Physik hat uns die Entwicklung der letzten hundert Jahre gezeigt, dass Information in physikalischen Systemen und Prozessen eine entscheidende Rolle spielt. Es gibt sogar eine Interpretation der Quantentheorie, initiiert durch John A. Wheeler von der Universität Princeton, wonach die physikalische Welt eigentlich aus Information besteht, während Energie und Materie nur Oberflächenphänomene sind.Diese Sicht der Dinge lädt dazu ein, einen neuen Blick auf alte Fragen zu werfen. Die Speicherkapazität von Festplatten und anderen elektronischen Geräten wächst sprunghaft – wann und wo wird dieser Fortschritt enden? Wie hoch ist die ultimative Speicherkapazität eines Geräts, das weniger als ein Gramm wiegt und nicht größer ist als ein Kubikzentimeter – das heißt, etwa so groß wie ein Computerchip? Wie viel Information benötigen wir, um das gesamte Universum zu beschreiben? Könnte diese Beschreibung in den Speicher eines Computers passen? Könnten wir also, wie der englische Dichter William Blake einst schrieb, "die Welt in einem Sandkorn erkennen" – oder ist diese Idee nur eine Ausgeburt dichterischer Freiheit?Erstaunlicherweise beantworten jüngste Entwicklungen im Bereich der theoretischen Physik tatsächlich einige dieser Fragen – und die Antworten liefern uns vielleicht wichtige Hinweise auf eine umfassende Theorie der Realität. Aus den geheimnisvollen Eigenschaften von Schwarzen Löchern haben Physiker eine absolute Obergrenze für die Information hergeleitet, die in einem Raumgebiet oder in einer bestimmten Materie- und Energiemenge enthalten sein kann. Damit wiederum hängt die Hypothese zusammen, unser Universum, das wir in drei Raumdimensionen wahrnehmen, sei in Wirklichkeit auf eine zweidimensionale Oberfläche "geschrieben" – wie ein Hologramm. Unser alltägliches Erleben einer dreidimensionalen Welt wäre dann entweder eine tiefe Illusion oder nur eine von zwei Alternativen, die Realität zu betrachten. Wenn ein rundes Sandkorn unsere Welt nicht zu umfassen vermag, dann vielleicht ein flacher Bildschirm.Die formale Informationstheorie entstand 1948 mit zwei grundlegenden Veröffentlichungen des amerikanischen Technikers und Mathematikers Claude E. Shannon. Er führte das heute gebräuchlichste Maß für den Informationsgehalt ein: die Entropie. Entropie war seit langem ein zentraler Begriff der Thermodynamik, des Zweiges der Physik, der sich mit Wärme beschäftigt. Anschaulich ausgedrückt ist die thermodynamische Entropie ein Maß für die Unordnung in einem physikalischen System. Präziser definierte der österreichische Physiker Ludwig Boltzmann 1877 Entropie durch die Anzahl der unterschiedlichen mikroskopischen Zustände, welche die Teilchen eines Stücks Materie einnehmen können, ohne dass sich dessen makroskopische Eigenschaften verändern. Angewandt auf die Luft in einem Zimmer müsste man – bei vorgegebenen Werten für Druck und Temperatur – alle möglichen Konfigurationen zusammenzählen, welche die einzelnen Gasmoleküle in diesem Zimmer bezüglich Ort und Geschwindigkeit einnehmen können.Auf der Suche nach einem Maß für den Informationsgehalt einer Nachricht kam Shannon auf eine Formel von der gleichen Gestalt wie Boltzmanns Definition der Entropie. Die Shannon’sche Entropie einer Nachricht ist gleich der Anzahl der binären Ziffern oder Bits, die zu ihrer Kodierung erforderlich sind. Shannons Entropie sagt uns nichts über den Wert einer Information, der ohnehin stark vom Kontext abhängig ist. Doch als objektives Maß für die Menge an Information ist seine Definition in Wissenschaft und Technik ungemein nützlich. Zum Beispiel spielt die Shannon-Entropie für die Entwicklung moderner Kommunikationsgeräte – ob Handys, Modems oder CD-Player – eine wichtige Rolle.Thermodynamische und Shannon’sche Entropie sind begrifflich eng verwandt: Der in der Boltzmann-Entropie gesammelten Anzahl möglicher Anordnungen entspricht die Menge an Shannon-Information, die man benötigen würde, um eine spezielle Anordnung zu verwirklichen. Allerdings gibt es zwischen den beiden Entropien deutliche Unterschiede. Erstens drücken Chemiker oder Kühltechniker die thermodynamische Entropie in Einheiten von Energie geteilt durch Temperatur aus, während Informatiker die Shannon-Entropie in dimensionslosen Bits angeben. Dieser Unterschied ist mehr oder weniger eine Frage der Definition.Doch sogar nach Umformung in gemeinsame Einheiten weichen die typischen Größenordnungen der beiden Entropien enorm voneinander ab. Ein Mikrochip, der ein Gigabyte (10Bytes) an Daten enthält, hat eine Shannon-Entropie von rund 10Bits, denn ein Byte entspricht acht Bits. Das ist verschwindend wenig gegenüber der thermodynamischen Entropie des Chips, die bei Raumtemperatur etwa 10Bits beträgt. Der gigantische Unterschied ergibt sich, weil die beiden Entropien für unterschiedliche Freiheitsgrade berechnet werden. Ein Freiheitsgrad ist jede variable Größe im betrachteten System, also zum Beispiel eine der drei Ortskoordinaten oder eine der drei Geschwindigkeitskomponenten jedes Teilchens.Die Shannon-Entropie des Chips berücksichtigt nur den Gesamtzustand jedes winzigen Transistors, der in den Siliziumkristall geätzt wurde. Der Transistor ist "an" oder "aus", im Zustand Null oder Eins: Er hat einen einzigen binären Freiheitsgrad. Die thermodynamische Entropie hingegen hängt von den Zuständen all der Milliarden Atome und freien Elektronen ab, aus denen jeder Transistor sich zusammensetzt. Mit jedem Miniaturisierungsschritt rückt allerdings der Tag ein wenig näher, an dem jedes Atom für uns ein Bit Information zu speichern vermag – und zugleich nähert sich die nutzbare Shannon-Entropie des jeweils modernsten Mikrochips allmählich der thermodynamischen Entropie des Materials. Wenn beide Entropien für dieselben Freiheitsgrade berechnet werden, sind sie gleich groß.Was aber sind die ultimativen Freiheitsgrade? Atome sind aus Elektronen und Kernen aufgebaut, Kerne aus Protonen und Neutronen, und diese wiederum aus Quarks. Viele Physiker glauben heute, dass Elektronen und Quarks Anregungszustände so genannter Superstrings sind, und vermuten, dies seien die fundamentalsten Bausteine der Natur. Doch die Wechselfälle eines Jahrhunderts physikalischer Entdeckungen sollten uns vor Dogmatismus warnen: Es könnte im Universum mehr Strukturebenen geben, als unsere physikalische Schulweisheit sich träumen lässt.Die ultimative Informationskapazität eines Stücks Materie – mit anderen Worten, seine wahre thermodynamische Entropie – kann nicht berechnet werden, solange das Wesen der ultimativen Bestandteile der Materie oder der tiefsten Strukturebene nicht bekannt ist. Diese Unkenntnis verursacht in der praktischen Thermodynamik keine Probleme. Für die Analyse eines Automotors spielen die Eigenschaften der Quarks keine Rolle, denn unter den relativ friedlichen Bedingungen eines Verbrennungsmotors verändern sie ihren Zustand nicht. Doch angesichts des atemberaubenden Fortschritts der Miniaturisierung kann man sich rein theoretisch den Tag ausmalen, an dem die Quarks als Informationsspeicher dienen werden – vielleicht ein Bit pro Quark. Wie viel Information würde dann in einen Kubikzentimeter passen? Und wie viel erst, wenn wir Superstrings oder noch tiefere, bislang nicht einmal hypothetisch angedachte Ebenen nutzen könnten? Überraschenderweise hat die Entwicklung der Gravitationsphysik in den letzten drei Jahrzehnten auf diese scheinbar verstiegenen Fragen eine Reihe von klaren Antworten geliefert.Eine zentrale Rolle in dieser Entwicklung spielen die Schwarzen Löcher. Ihre Existenz folgt aus der Allgemeinen Relativitätstheorie, der von Albert Einstein 1915 formulierten geometrischen Beschreibung der Gravitation. In dieser Theorie ist die Schwerkraft letztlich nichts anderes als eine Krümmung der Raumzeit, wodurch Objekte sich so bewegen, als wirke eine Kraft auf sie. Diese Krümmung wird ihrerseits durch die Anwesenheit von Materie und Energie verursacht. Gemäß Einsteins Gleichungen krümmt eine ausreichend dichte Ansammlung von Materie oder Energie die Raumzeit so stark, dass sie förmlich zerreißt und ein Schwarzes Loch bildet. Die Gesetze der Relativitätstheorie verbieten, dass irgendetwas, das in ein Schwarzes Loch gefallen ist, jemals wieder herauskommt – zumindest im Rahmen der klassischen Physik, das heißt ohne Berücksichtigung von Quanteneffekten. Die kritische Grenze des Bereichs, aus dem es kein Entkommen gibt, heißt Ereignishorizont. Im einfachsten Fall ist er eine Kugelfläche, deren Radius desto größer ist, je mehr Masse das Schwarze Loch besitzt.Es ist unmöglich herauszufinden, was innerhalb eines Schwarzen Lochs vorgeht. Keinerlei Information kann den Ereignishorizont verlassen und in die Außenwelt entkommen. Doch wenn ein Stück Materie für immer in einem Schwarzen Loch verschwindet, hinterlässt es gewisse Spuren. Seine Energie – jede Masse entspricht gemäß Einsteins Formeleiner Energie und umgekehrt – macht sich dauerhaft als Massenzunahme des Schwarzen Lochs bemerkbar. Wird Materie eingefangen, während sie das Schwarze Loch umkreist, so kommt ihr Drehimpuls zu dem des Schwarzen Lochs hinzu. Sowohl Masse als auch Drehimpuls eines Schwarzen Lochs lassen sich anhand der Wirkung auf die umgebende Raumzeit messen.Auf diese Weise sind auch Schwarze Löcher den Gesetzen der Energie- und Drehimpulserhaltung unterworfen. Aber ein anderes fundamentales Gesetz, der Zweite Hauptsatz der Thermodynamik, scheint verletzt zu werden.Der Zweite Hauptsatz drückt die alltägliche Beobachtung aus, dass die meisten Naturvorgänge irreversibel sind: Eine Teetasse fällt vom Tisch und zerbricht, aber niemand hat jemals Scherben gesehen, die von selbst in die Höhe springen und sich zu einer Teetasse zusammensetzen. Der Zweite Hauptsatz der Thermodynamik verbietet solche Umkehrprozesse. Er besagt, dass die Entropie eines abgeschlossenen physikalischen Systems niemals abnehmen kann; sie kann bestenfalls konstant bleiben, doch meistens nimmt sie zu. Diese Aussage ist nicht nur grundlegend für die physikalische Chemie und die Ingenieurwissenschaften, sondern vielleicht das physikalische Gesetz mit der größten Bedeutung außerhalb der Physik.Wie Wheeler als Erster betonte, verschwindet mit der Materie auch ihre Entropie auf Nimmerwiedersehen im Schwarzen Loch und der Zweite Hauptsatz scheint außer Kraft gesetzt zu sein. Den Schlüssel zur Lösung dieses Rätsels lieferten 1970 unabhängig voneinander Demetrious Christodoulou, damals Student bei Wheeler in Princeton, und Stephen W. Hawking von der Universität Cambridge (England). Sie bewiesen, dass bei verschiedenen Prozessen, etwa bei der Verschmelzung Schwarzer Löcher, die Gesamtfläche der Ereignishorizonte niemals abnimmt. Die Analogie zur Tendenz der Entropie, mit der Zeit anzuwachsen, brachte mich 1972 auf die Idee, dass ein Schwarzes Loch eine Entropie besitzt, die proportional zur Fläche seines Ereignishorizonts ist.Wie ich mutmaßte, wird beim Sturz von Materie in ein Schwarzes Loch ihre "verlorene" Entropie stets durch die Zunahme der Entropie des Schwarzen Lochs kompensiert oder gar überkompensiert. Allgemeiner formuliert: Die Summe der Entropien Schwarzer Löcher plus der gewöhnlichen Entropie außerhalb der Schwarzen Löcher kann nicht abnehmen. Dies ist der Verallgemeinerte Zweite Hauptsatz. Er hat eine Reihe strenger Tests – wenngleich rein theoretischer Natur – bestanden.Wenn ein Stern zu einem Schwarzen Loch kollabiert, übertrifft dessen Entropie jene des Sterns bei weitem. 1974 zeigte Hawking, dass Schwarze Löcher auf Grund von Quanteneffekten spon-tan thermische Strahlung aussenden, die so genannte Hawking-Strahlung. Das Christodoulou-Hawking-Theorem versagt angesichts dieses Phänomens, denn die Masse des Schwarzen Lochs nimmt durch das Abstrahlen von Energie ab, und damit schrumpft auch sein Ereignishorizont. Der Verallgemeinerte Zweite Hauptsatz hat hingegen kein Problem mit der Hawking-Strahlung: Durch die Entropie der frei werdenden Strahlung wird die Abnahme der Entropie des Schwarzen Lochs mehr als kompensiert.Im Jahre 1986 betrachtete Rafael D. Sorkin von der Universität Syracuse (US-Bundesstaat New York) die Eigenschaft des Ereignishorizonts, jede Information im Inneren eines Schwarzen Lochs daran zu hindern, die Ereignisse außerhalb zu beeinflussen. Er folgerte daraus, dass der Verallgemeinerte Zweite Hauptsatz – oder ein sehr ähnliches Gesetz – für je-den denkbaren Prozess gelten muss, den Schwarze Löcher durchlaufen können. Sorkins tiefgründige Überlegung macht klar, dass die Entropie, die in den Verallgemeinerten Zweiten Hauptsatz eingeht, tatsächlich alle möglichen Konfigurationen bis zur fundamentalsten Ebene der Materiestruktur umfasst – ganz unabhängig davon, wie diese Ebene letztlich aussehen mag.Aus der Hawking-Strahlung lässt sich die Proportionalitätskonstante zwischen der Entropie Schwarzer Löcher und der Fläche ihres Ereignishorizonts bestimmen: Die Entropie eines Schwarzen Lochs ist exakt gleich einem Viertel seiner Horizontfläche, gemessen in Planck-Flächen. Die Planck-Länge ist die fundamentale Längeneinheit für Gravitation und Quantenmechanik; sie beträgt 10Zentimeter. Die Planck-Fläche ist das Quadrat der Planck-Länge, also 10Quadratzentimeter. Selbst nach den Maßstäben der Thermodynamik ergeben sich daraus immense Entropiewerte. Die Entropie eines Schwarzen Lochs von nur einem Zentimeter Durchmesser würde 10Bits betragen – das entspricht der thermodynamischen Entropie eines Wasserwürfels mit zehn Milliarden Kilometern Kantenlänge.Der Verallgemeinerte Zweite Hauptsatz erlaubt uns, für die Informationskapazität jedes abgeschlossenen physikalischen Systems Obergrenzen zu bestimmen, die für die gesamte Information auf allen Strukturebenen – selbst auf den bislang unentdeckten – gelten. 1980 begann ich die erste derartige Grenze zu untersuchen, die so genannte universelle Entropie-Grenze. Sie gibt an, wie viel Entropie in einer gegebenen Masse von gegebener Ausdehnung maximal enthalten sein kann.Leonard Susskind von der Universität Stanford hatte 1995 eine ähnliche Idee, die so genannte holografische Grenze. Sie bezeichnet die maximale Entropiemenge in einem gegebenen Volumen, das Materie und Energie enthält.In seiner Arbeit zur holografischen Grenze betrachtete Susskind eine beliebige annähernd kugelförmige isolierte Masse, die selbst kein Schwarzes Loch ist und in eine geschlossene Fläche der Größehineinpasst. Wenn die Masse zu einem Schwarzen Loch kollabieren kann, ist dessen Horizontfläche kleiner alsund die Entropie des Schwarzen Lochs folglich kleiner als/4. Da nach dem Verallgemeinerten Zweiten Hauptsatz die Entropie des Systems nicht abnehmen darf, kann die ursprüngliche Entropie der Masse nicht größer als/4 gewesen sein. Daraus ergibt sich, dass die Entropie eines abgeschlossenen Systems mit Grenzflächekleiner als/4 sein muss.Was aber, wenn die Masse nicht spontan kollabiert? Wie ich 2000 zeigte, kann ein winziges Schwarzes Loch verwendet werden, um das System in ein Schwarzes Loch zu verwandeln, das sich kaum von demjenigen in Susskinds Überlegung unterscheidet. Die Grenze ist somit unabhängig von der Zusammensetzung des Systems oder dem Wesen der fundamentalsten Naturbausteine. Sie hängt ausschließlich vom Verallgemeinerten Zweiten Hauptsatz ab.Damit können wir nun einige der kniffligen Fragen über die ultimativen Grenzen der Informationskapazität beantworten: Ein Gerät mit einem Zentimeter Durchmesser kann im Prinzip bis zu 10Bits speichern – eine unvorstellbare Menge. Das sichtbare Universum enthält mindestens 10Bits Entropie, die sich also im Prinzip in einer Kugel von einem zehntel Lichtjahr Durchmesser unterbringen ließen. Doch da es schwierig ist, die Entropie des Universums zu schätzen, sind viel größere Werte durchaus plausibel; sie könnten eine Kugel erfordern, die fast so groß ist wie das Universum selbst.Ein Aspekt der holografischen Grenze ist besonders erstaunlich: Die maximal mögliche Entropie hängt von der Grenzfläche ab statt vom Volumen. Angenommen, wir türmen Speicherchips zu einem großen Haufen. Die Anzahl der Transistoren – die gesamte Speicherkapazität – wächst mit dem Volumen des Haufens.Dasselbe gilt für die gesamte thermodynamische Entropie aller Chips. Doch erstaunlicherweise wächst die theoretische ultimative Informationskapazität des Volumens, das der Haufen erfüllt, nur mit der Größe der Oberfläche. Da das Volumen schneller wächst als die Oberfläche, muss die Gesamtentropie der Chips irgendwann die holografische Grenze überschreiten. Wie es scheint, versagt dann entweder der Verallgemeinerte Zweite Hauptsatz oder unsere Vorstellungen von Entropie und Informationskapazität brechen zusammen. Tatsächlich aber ist es der Haufen selbst, der zusammenbricht: Er kollabiert vor Erreichen der kritischen Größe unter seiner eigenen Schwerkraft zu einem Schwarzen Loch. Danach vergrößert jeder weitere Speicherchip die Masse und die Horizontfläche des Schwarzen Lochs, wie es sich nach dem Verallgemeinerten Zweiten Hauptsatz gehört.Der überraschende Befund, dass die Informationskapazität von der Größe der Oberfläche abhängt, findet seine natürliche Erklärung im "holografischen Prinzip", das der Nobelpreisträger Gerard ’t Hooft von der Universität Utrecht (Niederlande) 1993 aufstellte und das Susskind weiterentwickelte. In unserer Alltagswelt ist ein Hologramm eine spezielle Art von Fotografie, die ein dreidimensionales Bild erzeugt, wenn man sie in der richtigen Weise beleuchtet. Die gesamte zur Beschreibung der dreidimensionalen Szene nötige Information ist als Muster heller und dunkler Gebiete auf dem zweidimensionalen Film kodiert. Das holografische Prinzip besagt, dass etwas Analoges für die komplette physikalische Beschreibung eines beliebigen Systems gilt, das in einem dreidimensionalen Gebiet liegt. Es gibt demnach eine andere, nur auf der zweidimensionalen Grenzfläche des Gebiets definierte physikalische Theorie, welche die dreidimensionale Physik vollständig beschreibt. Wenn sich ein dreidimensionales System vollständig durch eine physikalische Theorie ausdrücken lässt, die nur auf dessen zweidimensionaler Grenze operiert, dann sollte der Informationsgehalt des Systems nicht größer sein als derjenige der Beschreibung auf der Grenzfläche.Können wir das holografische Prinzip auf das Universum als Ganzes anwenden? Das wirkliche Universum ist ein vierdimensionales System: Es hat ein räumliches Volumen und erstreckt sich in der Zeit. Wenn die Physik des Universums holografisch ist, dann muss eine alternative, auf einer dreidimensionalen Grenze der Raumzeit gültige Menge physikalischer Gesetze existieren, die zu der uns bekannten vierdimensionalen Physik äquivalent ist. Noch kennen wir keine dreidimensionale Theorie, die so etwas leistet. Und was sollte uns als Grenze des Universums dienen? Ein erster Schritt zur Prüfung dieser Ideen ist das Studium von vereinfachten Modellen des Universums.Ein Beispiel für solche Modelle sind die so genannten Anti-de-Sitter-Raumzeiten. Der holländische Astronom Willem de Sitter entwickelte 1917 das ursprüngliche De-Sitter-Modell als Lösung der Einstein’schen Gleichungen mit einer zusätzlichen abstoßenden Kraft, der "kosmologischen Konstanten". Die De-Sitter- Raumzeit ist leer, hochgradig symmetrisch und dehnt sich beschleunigt aus. 1997 schlossen Astronomen aus der Untersuchung ferner Supernova-Explosionen, dass sich die Expansion unseres Universums beschleunigt (Spektrum der Wissenschaft 3/2001, S. 30). Wahrscheinlich wird unser Kosmos darum künftig immer mehr einem De-Sitter-Modell ähneln. Ersetzt man nun in den Einstein’schen Gleichungen die Abstoßung durch eine Anziehung, so erhält man die ebenso symmetrische Anti-de-Sitter-Raumzeit. Wichtig für das holografische Prinzip ist, dass diese Raumzeit eine Begrenzung hat, die "im Unendlichen" liegt und große Ähnlichkeit mit unserer gewöhnlichen Raumzeit aufweist.Mit Hilfe der Anti-de-Sitter-Raumzeit haben Theoretiker ein konkretes Beispiel für die Wirkung des holografischen Prinzips entwickelt: Ein mittels Superstring-Theorie beschriebenes Universum mit Anti-de-Sitter-Raumzeit ist völlig äquivalent zu einer Quantenfeldtheorie, die auf der Begrenzung dieser Raumzeit operiert. Somit wird die komplette Superstring-Theorie in einem Anti-de-Sitter-Universum vollständig auf die Begrenzung dieser Raumzeit abgebildet. 1997 vermutete Juan Maldacena, der damals an der Harvard-Universität in Cambridge (Massachusetts) tätig war, erstmals eine solche Beziehung für den Fall eines fünfdimensionalen Anti-de-Sitter-Modells. Später bestätigten Edward Witten vom Institute for Advanced Study in Princeton sowie Steven S. Gubser, Igor R. Klebanov und Alexander M. Polyakov von der Universität Princeton diese Vermutung und fanden weitere Beispiele für das holografische Prinzip bei Raumzeiten unterschiedlichster Dimensionen.Das bedeutet, dass zwei scheinbar völlig verschiedene Theorien – die nicht einmal in Räumen derselben Dimensionszahl gelten – äquivalent sind. Intelligente Bewohner eines dieser Universen könnten nicht unterscheiden, ob sie in einem fünfdimensionalen, von einer Stringtheorie beschriebenen Kosmos leben oder in einer vierdimensionalen Welt, auf die eine Quantenfeldtheorie mit punktförmigen Teilchen zutrifft. Natürlich könnte ihnen die Struktur ihres Gehirns ein massives Vorurteil zugunsten einer dieser Beschreibungen aufdrängen – so wie unser angeborener "gesunder Menschenverstand" die Wahrnehmung konstruiert, dass unser Universum drei räumliche Dimensionen besitzt.Die holografische Äquivalenz lässt sich im Prinzip nutzen, um ein kompliziertes Problem – etwa das Verhalten von Quarks und Gluonen – zu vereinfachen, indem es von der vierdimensionalen Grenz-Raumzeit in die hochgradig symmetrische fünfdimensionale Anti-de-Sitter-Raumzeit verlegt wird. Das funktioniert auch umgekehrt. So konnte Witten zeigen, dass ein Schwarzes Loch in einer Anti-de-Sitter-Raumzeit sich in heiße Strahlung verwandelt, wenn man zur alternativen Physik auf der Grenz-Raumzeit übergeht. Die Entropie des Schwarzen Lochs – immer noch ein zutiefst mysteriöser Begriff – geht dabei in die wohl bekannte Entropie der Strahlung über.Hochsymmetrisch, leer und fünfdimensional – das Anti-de-Sitter-Universum ähnelt kaum unserem vierdimensionalen Kosmos, der höchst ungleichmäßig von Materie und Strahlung erfüllt ist. Selbst wenn wir unser Universum durch ein Modell mit homogener Verteilung von Materie und Strahlung approximieren, erhalten wir kein Anti-de-Sitter-, sondern ein Friedmann-Robertson-Walker-Universum: Dieses Universum ist unendlich, hat keine Begrenzung und wird ewig weiterexpandieren.Entspricht ein solches Universum dem holografischen Prinzip oder der holografischen Grenze? Susskinds Überlegung, die auf dem Kollaps eines Schwarzen Lochs beruht, hilft uns da nicht weiter. Die von Schwarzen Löchern abgeleitete holografische Grenze muss in einem homogenen, expandierenden Universum zusammenbrechen. Die Entropie eines gleichmäßig von Materie und Strahlung erfüllten Gebiets ist proportional zu seinem Volumen. Ein genügend großes Gebiet wird darum die holografische Grenze verletzen.1999 schlug Raphael Bousso, der damals an der Stanford-Universität forschte, eine modifizierte holografische Grenze vor, die – wie sich inzwischen gezeigt hat – auch in Situationen funktioniert, in denen die zuvor definierten Grenzen versagen.Boussos Überlegung beginnt mit irgendeiner geeigneten zweidimensionalen Fläche; sie kann kugelförmig geschlossen sein oder offen wie ein Blatt Papier. Von einer Seite dieser Fläche geht nun – von allen Punkten gleichzeitig und senkrecht zu der Fläche – ein kurzer Lichtpuls aus. Verlangt wird nur, dass die Lichtstrahlen zunächst konvergieren. Beispielsweise erfüllt von der Innenfläche einer Kugel abgestrahltes Licht diese Bedingung. Nun betrachtet man die Entropie der Energie und Materie, die von den imaginären Lichtstrahlen durchquert werden – aber nur bis sie beginnen, sich zu überschneiden. Bousso vermutete, dass diese Entropie nicht größer sein kann als die Entropie der ursprünglichen Fläche – also ein Viertel dieser Fläche in Planck-Einheiten. Dies ist eine andere Methode, die Entropie zu bestimmen, als die ursprüngliche holografische Grenze. Boussos Grenze bezieht sich nicht auf die Entropie einer ganzen Region zu einem bestimmten Zeitpunkt, sondern auf die Summe lokaler Entropien zu verschiedenen Zeiten: Gezählt werden alle Teilregionen, die vom Lichtblitz der Oberfläche "beleuchtet" werden.Boussos Grenze enthält andere Entropie-Limits als Spezialfälle, vermeidet aber deren Nachteile. Sowohl die universelle Entropie-Grenze als auch die holografische Grenze nach ’t Hooft und Susskind können für isolierte Systeme, die sich nicht schnell verändern und keine starken Gravitationsfelder enthalten, aus der Bousso-Grenze abgeleitet werden. Wenn diese einschränkenden Bedingungen verletzt werden – etwa im Fall einer kollabierenden Materiekugel, die sich bereits innerhalb eines Schwarzen Lochs befindet –, dann versagen diese Grenzen, während Boussos Grenze weiterhin gilt. Außerdem hat Bousso gezeigt, dass sich mit seiner Strategie die zweidimensionalen Flächen ausfindig machen lassen, auf denen Hologramme der Welt untergebracht werden können.Forscher haben noch viele andere Entropie-Limits vorgeschlagen. Gerade die Vielfalt an Variationen über das holografische Thema zeigt, dass es noch längst nicht den Status eines physikalischen Gesetzes erreicht hat. Doch obwohl wir die holografische Denkweise noch nicht ganz verstehen, scheint sie durchaus Zukunft zu haben. Wenn das so ist, muss der seit fünfzig Jahren herrschende Glaube, die Feldtheorie sei die ultimative Sprache der Physik, neuen Ideen weichen.Ein Feld wie das elektromagnetische variiert kontinuierlich von Punkt zu Punkt und enthält darum unendlich viele Freiheitsgrade. Auch in Superstring-Theorien ist die Zahl der Freiheitsgrade unendlich. Doch die Holografie beschränkt die Freiheitsgrade innerhalb einer Grenzfläche auf eine endliche Anzahl; folglich kann die Feldtheorie mit ihren Unendlichkeiten nicht das letzte Wort sein. Und selbst wenn diese Unendlichkeiten zu zähmen sind, muss künftig die rätselhafte Abhängigkeit der Information von der Oberflächengröße berücksichtigt werden.Vielleicht weist uns die Holografie den Weg zu einer fundamentalen Theorie. Wie könnte sie aussehen? Einige Forscher, insbesondere Lee Smolin vom Perimeter Institute for Theoretical Physics in Waterloo (Kanada), schließen aus dem holografischen Ansatz, dass eine endgültige Theorie sich weder mit Feldern befassen wird noch mit Objekten in der Raumzeit, sondern mit dem Informationsaustausch zwischen physikalischen Prozessen. Dies wäre der endgültige Triumph der Idee, dass die Welt aus Information besteht.Das Universum in der Nussschale. Von Stephen W. Hawking und Markus Pössel. Deutscher Taschenbuch Verlag, 2003.Warum gibt es die Welt? Die Evolution des Kosmos. Von Lee Smolin. Deutscher Taschenbuch Verlag, München 2002.Das Informationsparadoxon bei Schwarzen Löchern. Von Leonard Susskind in: Spektrum der Wissenschaft 6/1997, S. 58.- Das holografische Prinzip besagt, dass das Universum einem Hologramm gleicht – einem dreidimensionalen Bild, das auf einem flachen Film gespeichert ist. Ebenso könnte unser dreidimensionaler Kosmos vollständig äquivalent zu alternativen Quantenfeldern und physikalischen Gesetzen sein, die auf einer weit entfernten riesigen Fläche ihr Spiel treiben.- Schwarze Löcher – unvorstellbar dichte Materieansammlungen – liefern einen Hinweis, dass dieses Prinzip tatsächlich gelten könnte. Aus der Theorie Schwarzer Löcher folgt, dass der maximale Entropie- oder Informationsgehalt eines beliebigen Raumgebiets nicht vom Volumen, sondern von der Oberfläche des Gebiets abhängt.- Physiker hoffen, dass dieses überraschende Resultat ein Schlüssel zur ultimativen Theorie der Realität ist.Der Informationsgehalt einer immer größeren Anhäufung von Computerchips wächst offensichtlich mit der Anzahl der Chips – und zugleich mit dem Volumen, das der Haufen einnimmt. Diese simple Regel muss aber für eine genügend große Chip-Ansammlung versagen. Andernfalls würde die Information schließlich über die holografische Grenze hinaus wachsen – denn diese Grenze hängt nicht vom Volumen ab, sondern von der Oberfläche. Tatsächlich stößt die Volumen-Regel an ihre Grenze, wenn der Chiphaufen so riesig wird, dass er unter seiner eigenen Masse zusammenbricht. Er bildet dann ein Schwarzes Loch – und für Schwarze Löcher gilt, dass ihr Informationsgehalt von der Oberfläche abhängt.Das holografische Prinzip stellt völlige Äquivalenz zwischen zwei Universen her, die unterschiedliche Dimensionen haben und unterschiedlichen physikalischen Gesetzen gehorchen. Theoretiker haben dieses Prinzip mathematisch für einen speziellen Typ fünfdimensionaler Raumzeit ("Anti-de-Sitter") und ihre vierdimensionale Grenze bewiesen. Das fünfdimensionale Universum wird praktisch wie ein Hologramm auf seiner vierdimensionalen Grenzfläche abgebildet. In der fünfdimensionalen Raumzeit herrscht die Superstringtheorie, aber auf dem vierdimensionalen Hologramm gilt eine so genannte konforme Feldtheorie mit Punktteilchen.Ein Schwarzes Loch in der fünfdimensionalen Raumzeit ist äquivalent zu heißer Strahlung auf dem Hologramm. Insbesondere haben das Loch und die Strahlung dieselbe Entropie, obwohl der physikalische Ursprung der Entropie in beiden Fällen völlig verschieden ist. Zwar scheinen diese beiden Beschreibungen des Universums nicht das Geringste gemeinsam zu haben, aber dennoch vermag prinzipiell kein Experiment zwischen ihnen zu unterscheiden.Unsere angeborene Wahrnehmung teilt uns mit, dass wir in einer dreidimensionalen Welt leben. Doch wenn wir das holografische Prinzip beim Wort nehmen, handelt es sich dabei um eine hartnäckige Einbildung: In Wahrheit leben wir in einem flächigen Universum.Aus: Spektrum der Wissenschaft 11 / 2003, Seite 34© Spektrum der Wissenschaft Verlagsgesellschaft mbH