// Intellektuelle Ehrlichkeit

Simulationstheorie widerlegt?

Diese Seite schont die Simulationstheorie nicht. Wir stellen alle ernstzunehmenden Gegenargumente vor — fair, vollständig und mit Quellenangaben. Und erklären danach, warum „widerlegt" trotzdem zu kurz greift.

Wenn man im Internet nach „Simulationstheorie widerlegt" sucht, findet man drei Sorten Treffer: Clickbait-Artikel, die behaupten, eine neue Studie habe alles beendet; philosophische Fachdiskussionen, die niemand versteht; und frustrierte Physiker, die fragen, warum das überhaupt diskutiert wird. Diese Seite versucht, fair mit allen Kritiken umzugehen — und dann ehrlich zu sein über das, was wir wirklich wissen.

1. Gödels Unvollständigkeit — Das formale K.O.?

Kein formales System kann sich selbst vollständig beschreiben
Gödel 1931 / Anwendung auf Simulation: 2025 Study, arXiv

Kurt Gödels Unvollständigkeitssätze (1931) sind einer der tiefsten Befunde der Mathematik: Jedes hinreichend mächtige formale System enthält Aussagen, die es weder beweisen noch widerlegen kann. Ein 2025 veröffentlichtes Paper eines internationalen Mathematiker-Teams wendet diesen Befund direkt auf die Simulationstheorie an.

Das Argument: Ein simulierender Computer ist ein formales System. Ein formales System kann keinen vollständigen und widerspruchsfreien Überblick über seine eigene Struktur geben. Daher kann es auch keine vollständig konsistente Physik simulieren, die ihrerseits vollständig und konsistent ist. Die Simulation würde an internen Inkonsistenzen scheitern, die nicht behoben werden können — oder sie wäre von Anfang an fundamental unvollständig.

Die stärkste Formulierung: Die Physik, die in unserem Universum gilt, ist möglicherweise nicht formal axiomatisierbar. Wenn das stimmt, kann sie auch nicht simuliert werden — denn Simulation bedeutet Ausführung eines formalen Regelsystems.

Stärke: Hoch — wenn Prämissen stimmen

Die Gegenseite: Kritiker dieses Arguments weisen darauf hin, dass Gödels Theoreme für formale Systeme ab einer bestimmten Ausdrucksstärke gelten — aber nicht notwendig für alle denkbaren Simulationen. Vielleicht ist Physik gar nicht vollständig axiomatisierbar, und eine Simulation muss das auch gar nicht sein. Vielleicht ist eine „Simulation" mit eingebauten Unvollständigkeiten immer noch eine Simulation.

2. Computational Limits — Das Universum ist zu groß

Mehr Teilchen als Bits im Universum
Seth Lloyd, MIT — Computational Capacity of the Universe (2002)

Das Universum enthält schätzungsweise 10⁸⁰ Teilchen. Jedes Teilchen hat diverse Quantenzustände. Eine vollständige Simulation würde pro Planckzeit (10⁻⁴³ Sekunden) die Zustände aller Teilchen berechnen müssen. Seth Lloyd berechnete, dass das gesamte Universum als Computer seit dem Urknall maximal 10¹²⁰ Bit-Operationen durchgeführt hat. Das reicht nicht annähernd für eine vollständige Simulation seiner selbst.

Das ist keine philosophische Spekulation — es ist grundlegende Physik. Ein Universum kann nicht innerhalb seiner selbst vollständig simuliert werden, ohne fundamentale Gesetze zu verletzen.

Stärke: Sehr hoch — physikalisch fundiert

Die Gegenseite: Die Simulationstheorie braucht keine vollständige Simulation. Vielleicht wird nur das berechnet, was beobachtet wird (Lazy Evaluation). Die Quantenmechanik liefert mit der Wellenfunktion sogar einen Hinweis: Zustände existieren erst bei Messung. Eine „On-Demand"-Simulation wäre wesentlich sparsamer. Das ist keine Antwort auf alle Computational-Limits-Kritiken, aber es schwächt das Argument ab.

3. Das Regressus-Problem — Simulationen über Simulationen

Wer simuliert den Simulator?
Klassisches philosophisches Argument, u.a. Chalmers 2022

Wenn wir in einer Simulation leben, existiert eine Basisrealität darüber. Diese Basisrealität unterliegt ihren eigenen Naturgesetzen. Woher kommen diese? Entweder gibt es eine nicht-simulierte Basisrealität — dann ist die Simulationstheorie kein echtes Erklärungsmodell, sie verschiebt die Frage nur — oder es gibt unendlich viele Simulationsebenen, was zu einem unendlichen Regress führt, der ebenfalls nichts erklärt.

David Chalmers hat dieses Problem in „Reality+" (2022) diskutiert: Er nimmt den Regress an, argumentiert aber, dass simulierte Welten echte Welten sind. Das löst das ontologische Problem — löst aber nicht die Frage nach dem Ursprung.

Stärke: Mittel — gilt für jede Ursprungstheorie

4. Das Bostrom-Trilemma — und warum er Recht haben könnte mit (A)

Das Argument funktioniert auch gegen Simulation
Bostrom 2003, kritisch analysiert von Hanson, Ord, Tegmark

Nick Bostroms Argument sagt: Mindestens eine der drei Optionen ist wahr — (A) fast alle Zivilisationen sterben aus, (B) keine will Simulationen bauen, (C) wir leben in einer Simulation. Bostrom selbst tendiert zu (C). Aber die meisten Physiker und Evolutionsbiologen, die das Trilemma kennen, wählen (A): Der „Große Filter" liegt vor uns.

Robin Hanson, der den Großen Filter beschrieben hat, und Toby Ord argumentieren, dass (A) empirisch wahrscheinlicher ist als (C). Die technologische Singularität, Klimakollaps, Bioterrorismus, unkontrollierte KI — die Chancen, dass eine Zivilisation das posthumane Stadium erreicht, mögen gering sein. Wenn (A) wahr ist, ist (C) irrelevant.

Stärke: Mittel — hängt an empirisch nicht lösbaren Fragen

5. Empirische Unfalsifizierbarkeit — Kein Poppers Test

Keine unterscheidende Vorhersage, kein Experiment
Karl Popper, Falsifikationismus — angewandt auf Simulation

Nach Karl Poppers Falsifikationsprinzip ist eine Aussage nur dann wissenschaftlich, wenn es ein mögliches Experiment gibt, das sie widerlegen könnte. Die Simulationstheorie macht keine einzige Vorhersage, die sich von einer nicht-simulierten Realität unterscheidet. Was immer wir beobachten — Quantenphänomene, Naturkonstanten, kosmische Strahlung — ist mit beiden Hypothesen kompatibel.

Silas Beane und Kollegen versuchten 2012, eine Simulation durch Gittersimulations-Artefakte in kosmischer Strahlung nachzuweisen. Das Ergebnis war negativ. Das beweist zwar nicht, dass keine Simulation existiert — ein kluger Simulator würde solche Artefakte verbergen — aber es zeigt, wie schwierig ein Test ist.

Stärke: Hoch als wissenschaftliche Kritik

6. Das harte Problem des Bewusstseins

Subjektivität lässt sich nicht aus Berechnung ableiten
David Chalmers — The Conscious Mind (1996)

Bostroms Simulationsargument setzt voraus, dass Bewusstsein durch ausreichend komplexe Informationsverarbeitung entsteht. Das ist nicht bewiesen — es ist ein philosophisches Postulat. David Chalmers, der den Begriff „hartes Problem des Bewusstseins" geprägt hat, weist darauf hin: Selbst wenn wir jeden Aspekt eines Gehirns vollständig simulieren, bleibt offen, ob das simulierte Wesen etwas erlebt.

Wenn Bewusstsein nicht aus Berechnung folgt, kann keine Simulation bewusste Wesen erzeugen. Dann ist Bostroms Prämisse falsch — und das gesamte Argument bricht zusammen. Das ist keine Widerlegung der Simulationstheorie; es ist eine Infragestellung ihrer wichtigsten Grundannahme.

Stärke: Fundamental — trifft den Kern

Warum „widerlegt" zu kurz greift

Die intellektuell ehrliche Position

Die Simulationstheorie kann nicht widerlegt werden — aus demselben Grund, aus dem sie nicht bewiesen werden kann. Sie ist empirisch unfalsifizierbar. Eine unfalsifizierbare These lässt sich nicht widerlegen. Man kann ihr zeigen, dass sie schwache Prämissen hat. Man kann zeigen, dass sie mehr Fragen aufwirft als sie beantwortet. Man kann zeigen, dass sie keinen wissenschaftlichen Mehrwert hat.

Aber „widerlegt" erfordert ein Experiment, das ein Ergebnis zeigt, das die Theorie ausschließt. Dieses Experiment gibt es nicht. Und kann es prinzipiell nicht geben — weil ein hinreichend cleverer Simulator alle Spuren verbergen könnte.

Das macht die Theorie nicht wahr. Es macht sie zu einer Metaphysik, nicht zu einer Physik.

Die ehrliche Antwort auf „Leben wir in einer Simulation?" lautet: Wir wissen es nicht. Wir können es nicht wissen. Und das ist vollkommen in Ordnung.

Philosophische Fragen, die keine empirische Antwort haben, sind nicht wertlos. Sie sind wertvoll als Gedankenexperiment, als Motivator für bessere Physik, als Spiegel für unsere Metaphysik-Annahmen. Die Simulationstheorie hat die Diskussion über Bewusstsein, Realität und die Grenzen des Wissens befeuert. Das ist ihr größter Wert — unabhängig davon, ob sie stimmt.

Die Verdichtungstheorie — ein anderer Ansatz

Interessanterweise umgeht die Verdichtungstheorie einige der schwersten Kritikpunkte an der Simulationstheorie:

Kein Computer nötig

Die Computational-Limits-Kritik entfällt. Verdichtung braucht keinen Prozessor — sie ist ein Strukturprinzip des Seins selbst, kein technologischer Prozess.

Kein Programmierer

Das Regressus-Problem entschärft sich. Verdichtung beginnt mit reinem Sein, das sich selbst differenziert — kein externes Bewusstsein, das den Prozess startet.

Bewusstsein zuerst

Das harte Problem entfällt. Bewusstsein ist nicht das Ergebnis von Berechnung — es ist die Grundstruktur, aus der alles andere sich verdichtet.

Das bedeutet nicht, dass die Verdichtungstheorie bewiesen ist. Sie ist ebenfalls Metaphysik — ebenfalls unfalsifizierbar. Aber sie ist eine Metaphysik, die besser integriert: Bewusstsein, Physik, mystische Tradition und die Befunde der Psychedelika-Forschung sprechen alle eine Sprache mit ihr. Das ist kein Beweis. Aber es ist ein Zeichen, dass es sich lohnt, tiefer zu schauen.