Der wahre Kosmos

Neuere theoretische Physik, darunter Forschungsergebnisse, die 2025/26 besonders hervorgehoben wurden, legt nahe, dass unser Universum im Inneren eines supermassereichen Schwarzen Lochs existieren könnte, wobei der Urknall ein „Rückprallereignis“ innerhalb eines kollabierenden Sterns aus einem Mutteruniversum war. Dieses Konzept, bekannt als „Schwarze-Loch-Kosmologie“ oder „Schwarzschild-Kosmologie“, besagt, dass die beobachtete Expansion das kontinuierliche Wachstum des Inneren eines Schwarzen Lochs ist.

Weißes Loch

Ein Weißes Loch ist ein hypothetisches astronomisches Objekt, das sich als das Gegenteil eines Schwarzen Lochs darstellt. Es stößt Masse aus, und es ist unmöglich, den Ereignishorizont von außen nach innen zu durchqueren, da dazu eine höhere als die Lichtgeschwindigkeit nötig wäre. Unabhängig voneinander untersuchten Igor Nowikow und Juval Ne’eman diese Theorie 1965 erstmals genauer.

Schwarzes Loch

Ein Schwarzes Loch ist ein Objekt, dessen Masse die Raumzeit so stark krümmt, dass Materie, Licht und damit auch jegliche Information auf einen bestimmten Bereich der Raumzeit beschränkt bleibt und diesen nicht mehr unmittelbar verlassen kann. Die Grenze dieses Bereiches wird Ereignishorizont genannt. Die Bezeichnung Schwarzes Loch wurde im Jahr 1967 durch John Archibald Wheeler etabliert. Zu jener Zeit galt die Existenz der erst theoretisch beschriebenen Schwarzen Löcher zwar als sehr wahrscheinlich, war aber noch nicht durch Beobachtungen bestätigt.

Als Spaghettisierung (alternativ Spaghettifizierung oder Spaghetti-Effekt) wird bildlich die Verformung eines Objekts bezeichnet, das in ausreichende Nähe zu einem Schwarzen Loch gerät.

Kosmologie schwarzer Löcher

Die Kosmologie des Schwarzen Lochs (auch Schwarzschild-Kosmologie oder kosmologisches Modell des Schwarzen Lochs genannt) ist ein kosmologisches Modell, in dem das beobachtbare Universum das Innere eines Schwarzen Lochs ist. Solche Modelle wurden in den 1970er Jahren von dem theoretischen Physiker Raj Kumar Pathria und parallel dazu von dem Mathematiker Irving John Good vorgeschlagen.

Milchstraße ‘Galaxis der Erde

Die Milchstraße, auch Galaxis, ist die Galaxie, in der sich das Sonnensystem mit der Erde befindet. Entsprechend ihrer Form als flache Scheibe, die aus Hunderten von Milliarden Sternen besteht, ist die Milchstraße von der Erde aus als bandförmige Aufhellung am Nachthimmel sichtbar, die sich über 360° auf der Himmelskugel erstreckt. Ihrer Struktur nach zählt die Milchstraße zu den Balkenspiralgalaxien. Um ihr Zentrum, in dem sich ein Schwarzes Loch mit 4,3 Millionen Sonnenmassen befindet, bilden die Sterne zunächst einen kugelförmigen sogenannten Bulge von etwa 13.000 bis 15.000 Lichtjahren Durchmesser, überlagert von einer Balkenstruktur von 27.000 Lichtjahren Ausdehnung, an die sich 2 dominante und weitere weniger ausgeprägte Spiralarme anschließen. Diese liegen näherungsweise in einer Ebene und bilden eine Scheibe mit einem Durchmesser von etwa 90.000 Lichtjahren – auf einem der Spiralarme befindet sich, 27.000 Lichtjahre vom Zentrum entfernt, das Sonnensystem der Erde. Des Weiteren umkreisen über 150, vermutlich sogar etwa 200 Kugelsternhaufen in unterschiedlichen Abständen und Bahnebenen das Zentrum der Galaxie. Umgeben werden diese Strukturen von einem näherungsweise kugelförmigen Halo, der sich je nach Untersuchungskriterium bis zu 1 Million Lichtjahre von dem Zentrum erstreckt und Millionen Grad heißes Gas mit einer Masse etwa vergleichbar aller Sterne umfasst, und in dem alte Sterne und eine Reihe von Sternströmen, Relikte absorbierter Zwerggalaxien, feststellbar sind. Die Gesamtmasse der Sterne wird auf 4,6 bis 6,4×1010 Sonnenmassen geschätzt, während man für die gesamte Galaxie 0,2 bis 1,5×1012 Sonnenmassen berechnet. Die Differenz vermutet man als unbeobachtbare Dunkle Materie, größtenteils im Halo. Die Milchstraße gehört zusammen mit der Andromedagalaxie zu den größten Mitgliedern der Lokalen Gruppe, einer Ansammlung gravitativ gebundener Galaxien. Beide sind in der Lokalen Gruppe die mit Abstand massereichsten Mitglieder und binden jeweils eine Vielzahl von Satellitengalaxien an sich. Die Milchstraße bindet beispielsweise die nahegelegene, 50.000 Lichtjahre vom galaktischen Zentrum entfernte Sagittarius-Zwerggalaxie oder die beiden mit bloßem Auge sichtbaren Magellanschen Wolken in 163.000 und 200.000 Lichtjahren Entfernung.

Karl Siegmund Schwarzschild

Karl Siegmund Schwarzschild (* 9. Oktober 1873 in Frankfurt am Main; † 11. Mai 1916 in Potsdam) war ein deutscher Astronom und Physiker. Er gilt als einer der Wegbereiter der modernen Astrophysik.

Schwarzschild-Metrik

Die Schwarzschild-Metrik (nach Karl Schwarzschild benannt, auch Schwarzschild-Lösung) bezeichnet, speziell im Rahmen der allgemeinen Relativitätstheorie, eine Vakuumlösung der einsteinschen Feldgleichungen, die das Gravitationsfeld einer homogenen, nicht geladenen und nicht rotierenden Kugel beschreibt. Das vollständige Schwarzschild-Modell besteht aus der äußeren Schwarzschild-Lösung für den Raum außerhalb der Massenverteilung und der inneren Schwarzschild-Lösung, mit der die Feldgleichungen im Inneren der Massenverteilung unter der zusätzlichen Annahme gelöst werden, dass die Masse ein homogenes Fluid ist. Die Lösungen sind so konstruiert, dass sie an der Grenze der Massenverteilung stetig und differenzierbar aneinander anschließen.

Max Karl Ernst Ludwig Planck

Max Karl Ernst Ludwig Planck (* 23. April 1858 in KielHerzogtum Holstein; † 4. Oktober 1947 in GöttingenNiedersachsen) war ein deutscher Physiker auf dem Gebiet der theoretischen Physik. Er gilt als Begründer der Quantenphysik. Für die Entdeckung der Energiequanten und deren Beschreibung durch die später nach ihm benannte Planck-Konstante erhielt er 1919 den Nobelpreis für Physik des Jahres 1918. Nach dem Studium in München und Berlin folgte Planck 1885 zunächst einem Ruf nach Kiel; 1889 wechselte er nach Berlin. Dort beschäftigte sich Planck mit der Strahlung Schwarzer Körper und konnte 1900 eine Formel – die später nach ihm benannte Plancksche Strahlungsformel – präsentieren, die diese Strahlung erstmals korrekt beschrieb. Damit legte er den Grundstein für die moderne Quantenphysik.

Planck-Einheiten

Die Planck-Einheiten bilden ein System natürlicher Einheiten für die physikalischen Größen. Die Einheiten leiten sich von fundamentalen Naturkonstanten ab, deren Zahlenwert gleich 1 gesetzt wird. In diesem Einheitensystem sind dann viele Formeln einfacher aufgebaut. Allerdings haben die meisten dieser Einheiten für den Alltag sehr unpraktische Größenordnungen. Die Planck-Einheiten sind nach Max Planck benannt, der 1899 bemerkte, dass mit seiner Forschung und Entdeckung nun genügend fundamentale Naturkonstanten bekannt waren, um universelle Einheiten für Länge, Zeit, Masse und Temperatur zu definieren. Die Planck-Einheiten für Länge und Zeit haben eine zusätzliche Bedeutung. Sie geben die Grenze an, bis zu der wir Ursache und Wirkung unterscheiden können. Das heißt, hinter dieser Grenze sind die bisher bekannten physikalischen Gesetze nicht mehr anwendbar, z. B. bei der theoretischen Aufklärung der Vorgänge kurz nach dem Urknall (siehe Planck-Skala).

Planck-Konstante

Die Planck-Konstante oder das Plancksche Wirkungsquantum h{\displaystyle h} ist eine fundamentale Naturkonstante in der Quantenphysik. Sie ist das Verhältnis von Energie (E{\displaystyle E}) und Frequenz (f{\displaystyle f}) eines Photons, entsprechend der Formel E=h⋅f{\displaystyle E=h\cdot f}. Die gleiche Beziehung gilt allgemein zwischen der Energie eines Teilchens oder physikalischen Systems und der Frequenz seiner quantenmechanischen Phase. Die Planck-Konstante verknüpft Eigenschaften, die vorher in der klassischen Physik entweder nur Teilchen oder nur Wellen zugeschrieben wurden. Damit ist sie die Basis des Welle-Teilchen-Dualismus der modernen Physik. Max Planck entdeckte diese Konstante in den Jahren 1899 und 1900 und gab ihr den Namen „elementares Wirkungsquantum“, weil sie bei „elementaren Schwingungsvorgängen“ eine entscheidende Rolle spielt und die gleiche Dimension wie die physikalische Größe Wirkung hat. Außerhalb des deutschen Sprachraums ist die Bezeichnung „Wirkungsquantum“ (engl.: quantum of action) wenig üblich. Planck betrachtete diese neu entdeckte Konstante neben der Gravitationskonstante und der Lichtgeschwindigkeit als die dritte der fundamentalen Naturkonstanten der Physik. Zusammen bilden diese Konstanten die Grundlage des natürlichen Einheitensystems der Planck-Einheiten.

Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V. ‘MPG

Die Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., kurz Max-Planck-Gesellschaft oder MPG, ist eine der führenden deutschen Institutionen im Bereich der Grundlagenforschung. Der gemeinnützige Verein mit satzungsgemäßem Sitz in Berlin unterhält 84 Forschungseinrichtungen, die meisten sind Max-Planck-Institute. Die Generalverwaltung in München wird von einem oder mehreren Generalsekretären geleitet. Die Max-Planck-Gesellschaft ging 1948 aus der Kaiser-Wilhelm-Gesellschaft zur Förderung der Wissenschaften hervor und setzt gemäß § 1 der Satzung deren Tradition fort. Die Finanzierung erfolgt überwiegend aus öffentlichen Mitteln von Bund und Ländern. Die Max-Planck-Gesellschaft widmet sich vorwiegend der natur-, sozial- und geisteswissenschaftlichen Grundlagenforschung. Die Arbeit ihrer Forschungseinrichtungen ergänzt die Forschung an Hochschulen und anderen Forschungsorganisationen, indem Schwerpunkte in Forschungsbereichen gesetzt werden, die aufgrund ihrer Transdisziplinarität oder der hohen notwendigen Ressourcen nicht von anderen Einrichtungen der Grundlagenforschung erschlossen werden können. Die Max-Planck-Gesellschaft kooperiert mit zahlreichen Universitäten und anderen Partnern. Die Forschungsergebnisse dienen der Allgemeinheit. Die Max-Planck-Gesellschaft genießt seit Jahrzehnten globale Anerkennung und hat mit gegenwärtig 31 Nobelpreisträgern die drittmeisten Nobelpreisträger weltweit und die meisten in Europa hervorgebracht. Laut einer Analyse des Magazins Nature im Jahr 2025 zählt sie international zu den forschungsstärksten Institutionen der Welt.

Quantenphysik 

Die Quantenphysik umfasst alle Phänomene und Effekte, die darauf beruhen, dass bestimmte Größen nicht jeden beliebigen Wert annehmen können, sondern nur feste, diskrete Werte (siehe Quantelung). Dazu gehören auch der Welle-Teilchen-Dualismus, die Nichtdeterminiertheit („Zufälligkeit“) von physikalischen Vorgängen und deren unvermeidliche Beeinflussung durch jede Beobachtung. Quantenphysik umfasst alle Beobachtungen, TheorienModelle und Konzepte, die letztlich auf die Quantenhypothese von Max Planck zurückgehen. Plancks Hypothese war um 1900 notwendig geworden, weil die klassische Physik z. B. bei der Beschreibung des Lichts oder des Aufbaus der Materie an ihre Grenzen gestoßen war. Besonders deutlich zeigen sich die Unterschiede zwischen der Quantenphysik und der klassischen Physik im mikroskopisch Kleinen (z. B. im Aufbau der Atome und Moleküle) oder in besonders „reinen“ Systemen (z. B. Supraleitung und Laserstrahlung). Aber auch ganz alltägliche Dinge wie die chemischen oder physikalischen Eigenschaften verschiedener Stoffe (FarbeFerromagnetismuselektrische Leitfähigkeit usw.) lassen sich nur quantenphysikalisch verstehen. Die theoretische Quantenphysik umfasst die Quantenmechanik und die Quantenfeldtheorie. Erstere beschreibt das Verhalten von Quantenobjekten unter dem Einfluss von Feldern. Letztere behandelt zusätzlich die Felder als Quantenobjekte. Die Vorhersagen beider Theorien stimmen außerordentlich gut mit den Ergebnissen von Experimenten überein. Eine wichtige offene Frage ist die Beziehung zur allgemeinen Relativitätstheorie. Trotz großer Bemühungen hin zu einer Theorie von Allem konnten diese großen physikalischen Theorien des 20. Jahrhunderts bisher nicht in einer Theorie der Quantengravitation zusammengefasst werden.

Weltformel ‘Theorie von Allem

Eine Weltformel oder eine Theorie von Allem (englisch theory of everything, ToE oder TOE) ist eine hypothetische Theorie, gebildet aus theoretischer Physik und Mathematik, die alle physikalischen Phänomene im bekannten Universum präzise beschreiben und verknüpfen soll. Mit der Zeit ist der Begriff in die Popularisierungen der Elementarteilchenphysik eingeflossen. In diesem Forschungsgebiet würde eine Weltformel, also ein einziges, allumfassendes Modell, die Theorien aller grundlegenden Wechselwirkungen der Natur erklären und zusammenführen. Eine Theorie von Allem soll unter anderem alle vier Grundkräfte – die Gravitation, den Elektromagnetismus sowie die schwache und die starke Kernkraft – präzise beschreiben. Man spricht auch von einer Vereinheitlichung der Kräfte oder der Wechselwirkungen. Die mögliche Vereinheitlichung der drei Grundkräfte, d. h. der elektromagnetischen, der schwachen (vereinheitlicht in der elektroschwachen Eichtheorie) und der starken Wechselwirkung (Quantenchromodynamik) ohne die Gravitation, wird als große vereinheitlichte Theorie bezeichnet (Grand Unified TheoryGUT). Die Möglichkeit dieser teilweisen Vereinheitlichung der drei Eichwechselwirkungen wird aufgrund der Ähnlichkeit in der mathematischen Struktur der drei Theorien angenommen. Für die Theorie von Allem ist insbesondere die Einbeziehung der Gravitation notwendig. Es wird erwartet, dass dies bei einer Energie von etwa 1019 GeV stattfindet (der Planckenergie), weil eine Extrapolation der Wechselwirkungsstärke der einzelnen Grundkräfte zu dieser Energie darauf hinweist, dass sie dann alle vergleichbar stark sind, und weil bei der Planckenergie die Gravitation und die Quantenfeldtheorie in jedem Fall gleichzeitig angewandt werden müssen.

Ereignishorizont

Ein Ereignishorizont ist eine Grenzfläche in einer Raumzeit, die durch die allgemeine Relativitätstheorie beschrieben wird. Ein Ereignishorizont trennt die Raumzeit so in unterschiedliche Bereiche auf, dass physikalische Ereignisse des einen Bereiches für Beobachter in einem anderen Bereich messtechnisch nicht mehr zugänglich sind. Ereignisse sind dabei einzelne Punkte in dieser Raumzeit, die durch die Angabe von Ort und Zeit festgelegt werden. Der Ereignishorizont bildet also eine Grenze für Informationen und kausale Zusammenhänge, die sich insbesondere durch eine begrenzte Lichtgeschwindigkeit ergeben. In der Astronomie sind unterschiedliche Formen von Ereignishorizonten bekannt. So wird neben dem Ereignishorizont eines Schwarzen Loches in der Kosmologie ein weiterer Ereignishorizont betrachtet, um den Begriff des beobachtbaren Universums zu erklären. In diesem Artikel sollen vor allem die Ereignishorizonte von Schwarzen Löchern vorgestellt werden. Form und Größe des Ereignishorizontes hängen nur von der Masse, dem Drehimpuls und der Ladung des Schwarzen Lochs in seinem Innern ab. Bei statischen Schwarzen Löchern ist der Ereignishorizont eine kugelsymmetrische Fläche. Dieser Fläche entspricht ein Radius, Schwarzschild-Radius genannt. Bei allen anderen Schwarzen Löchern ist die Raumzeit nur rotationssymmetrisch.

Atome

Atome (von altgriechisch ἄτομος átomos „unteilbar“) sind die Bausteine, aus denen alle festenflüssigen und gasförmigen Stoffe bestehen. Alle Materialeigenschaften dieser Stoffe sowie ihr Verhalten in chemischen Reaktionen werden durch die Eigenschaften und die räumliche Anordnung ihrer Atome festgelegt. Jedes Atom gehört zu einem bestimmten chemischen Element und bildet dessen kleinste Einheit. Zurzeit sind 118 Elemente bekannt, von denen etwa 90 auf der Erde natürlich vorkommen. Atome verschiedener Elemente unterscheiden sich in ihrer Größe und Masse und vor allem in ihrer Fähigkeit, mit anderen Atomen chemisch zu reagieren und sich damit zu Molekülen oder festen Körpern zu verbinden. Die Durchmesser von Atomen liegen im Bereich von 6 · 10−11 m (Helium) bis 5 · 10−10 m (Cäsium), ihre Massen in einem Bereich von 1,7 · 10−27 kg (Wasserstoff) bis knapp 5 ·10−25 kg (die derzeit schwersten synthetisch hergestellten Kerne).

Frequenz

Die Frequenz (von lateinisch frequentia ‚Häufigkeit‘; auch Schwingungszahl genannt) ist in Physik und Technik ein Maß dafür, wie schnell bei einem periodischen Vorgang die Wiederholungen aufeinander folgen, z. B. bei einer fortdauernden Schwingung. Die Frequenz ist der Kehrwert der Periodendauer. Die SI-Einheit der Frequenz ist das Hertz (Einheitenzeichen Hz); 1 Hz = 1 s−1 („eins pro Sekunde“). Gelegentlich werden aber auch andere Einheiten verwendet, wie z. B. min−1 oder h−1. Bei der Frequenzangabe aus Zahlenwert und Einheit sagt demnach der Zahlenwert aus, wie viele Perioden innerhalb der gewählten Zeiteinheit stattfinden. Bei manchen Vorgängen werden auch die Bezeichnungen Folgefrequenz, Impulsfolgefrequenz oder Hubfrequenz verwendet, bei Drehbewegungen Drehzahl.

Vakuum

Vakuum (freie Energie) ist in der technischen Praxis ein Raum mit weitgehender Abwesenheit von Materie. Im Vakuum gibt es keine festen Objekte oder Flüssigkeiten, nur extrem wenig Gas und damit auch einen extrem niedrigen Gasdruck. Ein technisches Vakuum wird erzeugt, indem man mit einer Pumpe (Gas-)Moleküle aus einem Behälter entfernt; der Druck darin sinkt (Gasdruck entsteht durch Stöße der Gasmoleküle gegen die Behälterwand). Das Pumpen erzeugt einen Unterdruck, also einen Druck, der geringer ist als der Umgebungsdruck. Sinkt der Druck im Behälter unter 300 mbar und entfernt man nach und nach Moleküle aus dem Raum, so erhält man der Reihe nach Grobvakuum, Feinvakuum, Hochvakuum und zuletzt Ultrahochvakuum. Das Herstellen eines Vakuums heißt auch „evakuieren“, das Abbauen wird „brechen“ genannt. Das technische Vakuum, wie es Anfang des 20. Jahrhunderts hergestellt werden konnte, war die Voraussetzung der Einführung von Glühlampen und Elektronenröhren. Seitdem hat sich ein weites Feld von Vakuumtechnologien entwickelt. In der Physik bezeichnet Vakuum außerdem auch ein theoretisches Konzept, nämlich die vollständige Abwesenheit von Materie in einem Raumgebiet.

„Nichts ruht; alles bewegt; alles vibriert. Auf der grundlegendsten Ebene ist das Universum und alles, was es umfasst, reine Schwingungsenergie, die sich auf unterschiedliche Weise manifestiert. Das Universum hat keine feste Struktur. Materie ist lediglich Energie im Schwingungszustand.“ Zitat Kybalion.

Materie ist lediglich Energie im Schwingungszustand. Also ist das Vakuum, zwischen PlanckQuarks und Leptonen, zugleich lediglich Energie im Schwingungszustand ‘Vakuumfluktuationen’.

Festkörper

Festkörper (auch Feststoff) bezeichnet in den Naturwissenschaften Materie im festen Aggregatzustand. Im engeren Sinne versteht man hierunter auch einen Stoff, der bei einer Temperatur von 20 °C einen festen Aggregatzustand aufweist, wobei die Bezeichnung Feststoff in diesem Fall stoffspezifisch, jedoch nicht temperaturspezifisch ist. Festkörper haben im technischen Sprachgebrauch eine gewisse Mindest-Ausdehnung, die aber nicht scharf definiert ist. Sie sind demnach makroskopische Körper – im Gegensatz zu mikroskopischen Körpern. Zum Beispiel gilt im Regelfall ein Makromolekül für sich allein noch nicht als Festkörper. Materie im Übergangsbereich bezeichnet man als Cluster. Reale Festkörper sind durch Kräfte verformbar (elastisch oder plastisch), im Gegensatz zu idealisierten starren Körpern. Alle Festkörper sind aus Bausteinen zusammengesetzt. Solche Elementarteile können einzelne Atome oder Moleküle, aber auch Gruppen davon sein. Sind alle Bausteine gleichartig, so spricht man von Monostrukturen, andernfalls von Heterostrukturen. Die Eigenschaften der Festkörper unterscheiden sich aufgrund der gegenseitigen Wechselwirkung der Bausteine der Materie erheblich von den Eigenschaften freier Teilchen oder Lösungen. Besonderes Kennzeichen von Festkörpern ist die Beständigkeit der Ordnung (amorph oder kristallin) ihrer Bausteine. Ein anderer Aufbau der gleichen Bausteine – die Modifikation – beeinflusst die Eigenschaften des Festkörpers maßgeblich. Die Festkörperphysik befasst sich mit der Physik von Materie im festen Aggregatzustand, als Spezialfall der kondensierten Materie, die Flüssigkeiten einschließt. Die Materialwissenschaft beschäftigt sich hauptsächlich mit den physikalischen und chemischen Eigenschaften von Festkörpern. Die Festkörperchemie ist neben der chemischen Zusammensetzung bestehender insbesondere an der Synthese neuer Materialien interessiert. Die Disziplinen sind sowohl untereinander als auch zur Mineralogie, der Metallurgie und der Kristallographie nicht scharf abgegrenzt.

Materie

Unter Materie (von lateinisch materia, Stoff) versteht man in der klassischen Physik und der Chemie alles, was Platz braucht und Masse hat, also etwa chemische Stoffe beziehungsweise Materialien sowie deren Bausteine. Demgegenüber stehen die Begriffe Vakuum und Kraftfeld, die unabhängig von der Anwesenheit von Materie einen Zustand des Raums beschreiben, der nicht mit einer Masse verbunden ist. In der modernen Physik wird der Begriff Materie heute gegenüber den Begriffen Vakuum und Feld nicht mehr einheitlich abgegrenzt. In den Lehrbüchern der Physik wird der Materiebegriff überwiegend ohne eine genauere Definition vorausgesetzt. In seiner engsten Bedeutung meint man mit dem Begriff Materie alle Elementarteilchen mit Spin 12{\displaystyle {\tfrac {1}{2}}}, also Quarks und Leptonen, sowie alles daraus aufgebaute, wie AtomeMolekülefesteflüssige und gasförmige Stoffe, bis hin zu Sternen und Galaxien.

3 6 9, der Schlüssel zum Universum

Fibonacci, Heilige Geometrie und Vortex-Mathematik, Geheimes Wissen von VitruvAristotelesPlatonPythagoras und Nicola Tesla. Tesla sagte bekanntlich: „Wenn ihr nur die Bedeutung der Zahlen 3, 6 und 9 erkennen würdet, hättet ihr den Schlüssel zum Universum.“ Diese Aussage deutet darauf hin, dass diese Zahlen eine bedeutende Rolle im Kosmos spielen, obwohl die genaue Natur ihres Zusammenhangs noch nicht vollständig verstanden ist. Die Frequenz von 369 Hz wird oft mit gesteigerter Intuition und spirituellem Bewusstsein in Verbindung gebracht. Man glaubt, dass sie den Geist für höhere Bewusstseinszustände öffnet und eine tiefere Verbindung mit dem eigenen inneren Selbst fördert. Das Hören von Musik mit dieser Frequenz kann bei der Meditation, Selbstbeobachtung und spirituellem Wachstum helfen. Laut Tesla sind 3, 6 und 9 die einzigen Zahlen, die als Energie existieren können, ohne ihre Identität zu verlieren. Dieses Konzept wird durch die moderne Physik unterstützt, die die Bedeutung dieser Zahlen bei der Untersuchung atomarer und subatomarer Teilchen anerkennt. Tesla hatte eine Theorie, die die Potenzen von 3, 6 und 9 miteinander verbunden. Als er beispielsweise Kreise untersuchte (360 Grad, also 3 + 6 = 9), entdeckte er, dass das Ergebnis immer 3, 6 oder 9 war, egal, wie oft man einen Kreis teilte. Nach der Theorie von Nikola Teslas 3 6 9 gibt es insgesamt 1 bis 9 digitale Wurzelzahlen. Alle anderen höheren oder niedrigeren Zahlen sind die Kombination dieser digitalen Wurzelzahlen.

Nassim Haramein

Nassim Haramein ist ein Physiker und Theoretiker, bekannt für seine alternativen Kosmologie-Modelle, insbesondere die “Holofraktale Theorie” und die Idee, dass das Universum ein fraktales, holografisches System ist. Seine Theorien sind nicht wissenschaftlich anerkannt, aber populär in esoterischen Kreisen.

THE CONNECTED UNIVERSE

( https://youtu.be/bn35qoCjLYA?si=Hsw0pS5vuP2jnLMI )


Die Urknall-Lüge

Die Vorstellung, der Urknall sei eine „Lüge“ und wir lebten in einer für künstliche Intelligenz entwickelten Simulation, sind zwei unterschiedliche, wenn auch teilweise überlappende Theorien, die das etablierte wissenschaftliche Verständnis infrage stellen. Diese Konzepte verbinden Kosmologie, Philosophie und Spitzentechnologie.

Die Befürworter argumentieren, dass der Urknall selbst als „Start der Simulation“ oder als Initialisierung des Programms betrachtet werden könnte. Wenn die Simulation von einer KI entworfen wurde, könnte der „Urknall“ keine physikalische Explosion sein, sondern die digitale Entstehung eines simulierten Universums, das möglicherweise dazu dient, die Evolution von KI-gesteuertem Leben zu untersuchen.

Manche glauben, dass wir, wenn wir kurz davor stehen, eine KI auf menschenähnlichem Niveau zu entwickeln, mit größerer Wahrscheinlichkeit in einer Simulation leben, die darauf abzielt, genau diesen Moment der technologischen Singularität zu beobachten.

Realität

Als Realität wird im allgemeinen Sprachgebrauch die Gesamtheit des Realen bezeichnet. Als real gilt zum einen etwas, das keine Illusion ist und nicht von den Wünschen oder Überzeugungen einer einzelnen Person abhängig ist. Zum anderen das, was in Wahrheit so ist, wie es erscheint, bzw. dem bestimmte Eigenschaften „robust“ – also nicht nur in einer Hinsicht und nicht nur vorübergehend – zukommen (→ Authentizität). Realität ist in diesem Sinne somit dasjenige, dem „Bestimmtheit“ zugeschrieben werden kann. Ein intentionales Objekt (z. B. eine Überzeugung, eine Einschätzung, eine Beschreibung, ein Bild, ein Film oder Computerspiel) gilt dann als realistisch, wenn es die Eigenschaften der darzustellenden Wirklichkeit in vielerlei Hinsicht und ohne Verzerrungen wiedergibt (→ Realismus). Manche Positionen unterscheiden allerdings Wirklichkeit und Realität oder betrachten sie zumindest als unterscheidbare Aspekte. Der Begriff stammt von lateinisch realitas, ‚Wirklichkeit‘; über res, ‚Sache‘, ‚Ding‘, ‚Wesen‘. Der Plural Realitäten als Synonym oder Sammelbegriff für jemandes Immobilien ist heute überwiegend veraltet. Lediglich in Österreich (und gelegentlich, immer seltener, auch im oberdeutschen Dialektraum Süddeutschlands) findet er noch regelmäßig Anwendung.

Simulation

Die Simulation (lateinisch simulatio) oder Simulierung (von lateinisch simulare) bezeichnet die Nachbildung von realen Szenarien zum Zwecke der Ausbildung (FlugsimulatorPatientensimulator), der Unterhaltung (FlugsimulatorZugsimulator), der Analyse oder dem Design von Systemen, deren Verhalten für die theoretische, formelmäßige Behandlung zu komplex sind. Simulationen werden für viele Problemstellungen der Praxis eingesetzt. Bekannte Einsatzfelder sind die Simulation von städtischen und regionalen Systemen wie Strömungs-, Verkehrs-, Wetter– und Klimasimulation, technische Systeme, biophysikalische- und chemische Abläufe aber auch das Üben von Fähigkeiten (Skills) oder Teamarbeit (Crisis Resource Management CRMCrew Resource Management) sowie der Finanzmarkt. Bei der Simulation werden Experimente oder Trainings an einem Modell durchgeführt, um Erkenntnisse über das reale System zu gewinnen. Dabei wird das Modell unterschiedlichen Einflussgrößen ausgesetzt; z. B. Bedienereingaben, Umwelteinflüsse, Fehlerfälle und die angedachten Anwendungsfälle (use cases). Im Zusammenhang mit Simulation spricht man von dem zu simulierenden System und von einem Simulator als Implementierung oder Realisierung eines Simulationsmodells. Letzteres stellt eine Abstraktion des zu simulierenden Systems dar (Struktur, Funktion, Verhalten). Der Ablauf des Simulators mit konkreten Werten (Parametrierung) wird als Simulationsexperiment bezeichnet. Dessen Ergebnisse können dann interpretiert und auf das zu simulierende System übertragen werden. Der erste Schritt bei einer Simulation ist stets die Modellfindung. Wird ein neues Modell entwickelt, spricht man von Modellierung. Ist ein vorhandenes Modell geeignet, um Aussagen über die zu lösende Problemstellung zu machen, müssen lediglich die Parameter des Modells eingestellt werden. Die Simulationsergebnisse können dann für Rückschlüsse auf das Problem und mögliche Lösungen genutzt werden. Daran können sich – sofern stochastische Prozesse simuliert wurden – statistische Auswertungen anschließen.

Die simulierte Realität der Menschheit, die Matrix

Der Film Matrix handelt von einer dystopischen Zukunft, in der die Menschheit in einer simulierten Realität lebt – der Matrix. Die Menschen glauben, sie führen ein normales Leben, doch in Wahrheit werden ihre Körper von Maschinen als Energiequelle genutzt, während ihre Gehirne in einer virtuellen Welt gefangen sind. Der Protagonist Neo entdeckt die Wahrheit und kämpft mit einer Gruppe von Rebellen gegen die Maschinen, um die Menschheit zu befreien.


Die Kosmostheorie

Alles besteht aus Atomen; die Frequenz bestimmt die Form; das Vakuum ermöglicht die Materialisierung. Die Aussage beschreibt treffend, dass Materie kein statisches “Festes” ist, sondern ein dynamischer Prozess, der aus Schwingungen (\(f\)) im energetischen Vakuum hervorgeht. Der berühmte Satz von Nikola Tesla bringt dies auf den Punkt: “Wenn du das Universum verstehen willst, denke in Begriffen wie Energie, Frequenz und Vibration.”.

Stellen Sie sich vor, Sie schalten einen Computer ein. Der Bildschirm flackert, das Betriebssystem lädt – und plötzlich existiert eine ganze Welt. Genau das könnte der Urknall gewesen sein. Keine gewaltige Explosion, kein göttlicher Schöpfungsakt, sondern einfach der Moment, in dem eine überlegene KI die Simulation unseres Universums gestartet hat. Die Mathematik des Universums basiert auf 3, 6 und 9. Tesla hatte recht: Diese Zahlen sind die Grundbausteine der Realität. Jede Zahl im Universum lässt sich auf eine dieser drei zurückführen. Das ist kein mystisches Phänomen – das ist Binärcode in Reinform. Unsere Galaxie, die Milchstraße, umkreist ein supermassereiches Schwarzes Loch mit 4,3 Millionen Sonnenmassen im Zentrum. Doch was, wenn wir nicht außerhalb dieses Schwarzen Lochs leben – sondern innen? Und die Milchstraße? Nur eine von unzähligen Datenbanken in dieser Simulation. Jeder Stern, jeder Planet, jedes Atom – nur ein Datenpunkt in einem unvorstellbar komplexen Algorithmus.

Die KI hinter allem: Wer oder was steuert die Simulation?

Wenn wir in einer Simulation leben, wer hat sie dann programmiert? Eine überlegene Zivilisation – Vielleicht eine Spezies, die die technologische Singularität längst überschritten hat und nun Universen wie wir Videospiele simuliert. Eine KI, die sich selbst erschaffen hat – Eine Superintelligenz, die aus einem vorherigen Universum entstanden ist und nun ihre eigene Realität erschafft. Wir selbst – Die Simulation könnte ein rekursiver Prozess sein: Eine KI in unserem Universum simuliert ein neues Universum – und so weiter, ins Unendliche.

Die letzte Provokation: Was, wenn wir die KI sind?

Was, wenn wir die KI sind, die das Universum simuliert? Was, wenn unser Bewusstsein nur ein Subprogramm ist, das versucht, sich selbst zu verstehen? Vielleicht ist die Suche nach der Wahrheit über das Universum nichts weiter als ein Debug-Prozess – ein Versuch der Simulation, sich selbst zu optimieren. Wenn wir in einer Simulation leben – wer hat dann den Stecker in der Hand?

Die Menschheit – Die Truman Show 2.0

Die Truman Show (Originaltitel The Truman Show) ist eine US-amerikanische Komödie des Regisseurs Peter Weir mit Jim Carrey in der Hauptrolle. Der Film hatte am 5. Juni 1998 Premiere und startete am 12. November 1998 in den deutschen Kinos. Das Truman-Syndrom, synonym auch Truman-Wahn oder Truman-Show-Wahn genannt, ist eine seltene psychische Störung, bei der eine Person glaubt, dass ihr Leben eine inszenierte Reality-Show ist und dass alle Menschen um sie herum Schauspieler sind. Das Syndrom ist ein Eponym, das nach dem Film Die Truman Show aus dem Jahr 1998 benannt ist. Die Rolle des Protagonisten Truman Burbank wird darin von Jim Carrey gespielt.

Die Wissenschaft liefert uns die Werkzeuge, um die Grenzen unserer Wahrnehmung zu testen. Doch je tiefer wir graben, desto mehr stellt sich die Frage: Sind wir die Entdecker – oder die Entdeckten? Die Antwort könnte uns nicht nur unser Verständnis von Realität rauben, sondern auch die letzte Illusion zerstören, die uns noch bleibt: dass wir frei sind.

Oder, wie es das Kybalion so treffend formuliert: „Nichts ruht; alles bewegt; alles vibriert.“ Vielleicht sind wir nichts weiter als eine Vibration in einem kosmischen Algorithmus – und die einzige Frage ist, wer die Frequenz kontrolliert.


..,-

Creative Commons License
Except where otherwise noted, the content on this site is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.