Eine neue Theorie über den Ursprung des Universums wurde vorgeschlagen. Eine neue Theorie der Evolution des Universums wird vorgeschlagen Eine neue Theorie der Umgebung des Universums

Neue Elementarteilchen können nicht mehr nachgewiesen werden. Außerdem ermöglicht ein alternatives Szenario die Lösung des Problems der Massenhierarchie. Die Studie ist auf arXiv.org veröffentlicht.


© Diomedia

Die Theorie heißt Nnaturalness. Sie ist auf Energieskalen in der Größenordnung der elektroschwachen Wechselwirkung definiert, nach Trennung der elektromagnetischen und der schwachen Wechselwirkung. Das war etwa zehn Uhr minus zweiunddreißig – zehn Uhr minus zwölf Sekunden nach dem Urknall. Dann, so die Autoren des neuen Konzepts, existierte im Universum ein hypothetisches Elementarteilchen - ein Rechiton (oder Reheaton, vom englischen Reheaton), dessen Zerfall zur Bildung der heute beobachteten Physik führte.

Als das Universum kälter (die Temperatur von Materie und Strahlung nahm ab) und flacher wurde (die Geometrie des Raums näherte sich der Euklidischen), zerfiel das Rechiton in viele andere Teilchen. Sie bildeten Gruppen von Teilchen, die fast nicht miteinander wechselwirkten, fast identisch in Bezug auf die Art, aber unterschiedlich in der Masse des Higgs-Bosons und damit in ihrer eigenen Masse.

Die Zahl solcher Teilchengruppen, die laut Wissenschaftlern im modernen Universum existieren, erreicht mehrere tausend Billionen. Eine dieser Familien umfasst sowohl die durch das Standardmodell (SM) beschriebene Physik als auch die in Experimenten am LHC beobachteten Teilchen und Wechselwirkungen. Die neue Theorie ermöglicht den Verzicht auf die noch erfolglos angestrebte Supersymmetrie und löst das Problem der Teilchenhierarchie.

Insbesondere wenn die Masse des durch den Zerfall des Rechitons gebildeten Higgs-Bosons klein ist, ist die Masse der verbleibenden Teilchen groß und umgekehrt. Dies löst das Problem der elektroschwachen Hierarchie, die mit einer großen Lücke zwischen den experimentell beobachteten Massen von Elementarteilchen und den Energieskalen des frühen Universums verbunden ist. Die Frage zum Beispiel, warum ein Elektron mit einer Masse von 0,5 Megaelektronenvolt fast 200-mal leichter ist als ein Myon mit denselben Quantenzahlen, verschwindet von selbst – es gibt im Universum genau die gleichen Teilchengruppen, bei denen dieser Unterschied nicht so stark ist .

Nach der neuen Theorie ist das in Experimenten am LHC beobachtete Higgs-Boson das leichteste Teilchen dieser Art, das durch den Zerfall eines Rechitons entstanden ist. Andere Gruppen noch unentdeckter Teilchen sind mit schwereren Bosonen assoziiert – Analoga der derzeit entdeckten und gut untersuchten Leptonen (die nicht an der starken Wechselwirkung teilnehmen) und Hadronen (die an der starken Wechselwirkung teilnehmen).



© EP-Abteilung / CERN

Die neue Theorie hebt die Einführung der Supersymmetrie nicht auf, macht sie aber nicht so notwendig, was eine Verdoppelung (mindestens) der Anzahl bekannter Elementarteilchen aufgrund der Anwesenheit von Superpartnern impliziert. Zum Beispiel für ein Photon - Photino, Quark - Squark, Higgs - Higgsino und so weiter. Der Spin der Superpartner muss sich um eine halbe ganze Zahl vom Spin des ursprünglichen Teilchens unterscheiden.

Mathematisch werden ein Teilchen und ein Superteilchen zu einem System (Supermultiplet) kombiniert; alle Quantenparameter und Massen von Teilchen und ihren Partnern in exakter Supersymmetrie stimmen überein. Es wird angenommen, dass die Supersymmetrie in der Natur gebrochen ist und daher die Masse der Superpartner die Masse ihrer Teilchen erheblich übersteigt. Um supersymmetrische Teilchen nachzuweisen, wurden leistungsstarke Beschleuniger wie der LHC benötigt.

Wenn Supersymmetrie oder neue Teilchen oder Wechselwirkungen existieren, glauben die Autoren der neuen Studie, dass sie in Größenordnungen von zehn Teraelektronenvolt entdeckt werden könnten. Dies ist fast an der Grenze der Möglichkeiten des LHC, und wenn die vorgeschlagene Theorie richtig ist, ist die Entdeckung neuer Teilchen dort äußerst unwahrscheinlich.



© arXiv.org

Ein Signal nahe 750 Gigaelektronenvolt, das den Zerfall eines schweren Teilchens in zwei Gammaphotonen anzeigen könnte, wie Wissenschaftler der Kollaborationen CMS (Compact Muon Solenoid) und ATLAS (A Toroidal LHC ApparatuS), die am LHC arbeiten, im Dezember 2015 und März 2016 berichteten , wird als statistisches Rauschen erkannt. Seit 2012, als die Entdeckung des Higgs-Bosons am CERN bekannt wurde, wurden keine neuen, durch SM-Erweiterungen vorhergesagten Elementarteilchen identifiziert.

Der kanadisch-amerikanische Wissenschaftler iranischer Herkunft Nima Arkani-Hamed, der eine neue Theorie vorschlug, erhielt 2012 den Fundamental Physics Prize. Der Preis wurde im selben Jahr vom russischen Geschäftsmann Yuri Milner ins Leben gerufen.

Daher wird das Aufkommen von Theorien erwartet, in denen die Notwendigkeit der Supersymmetrie verschwindet. „Es gibt viele Theoretiker, mich eingeschlossen, die glauben, dass dies eine völlig einzigartige Zeit ist, in der wir wichtige und systemische Fragen lösen und nicht über die Details eines nächsten Elementarteilchens“, sagte der Hauptautor der neuen Studie, ein Physiker von der Princeton University (USA).

Nicht alle teilen seinen Optimismus. Der Physiker Matt Strassler von der Harvard University hält die mathematische Begründung der neuen Theorie daher für weit hergeholt. Paddy Fox vom Enrico Fermi National Accelerator Laboratory in Batavia (USA) glaubt derweil, dass die neue Theorie in den nächsten zehn Jahren getestet wird. Seiner Meinung nach sollten Teilchen, die in einer Gruppe mit einem beliebigen schweren Higgs-Boson gebildet werden, ihre Spuren auf dem CMB hinterlassen – der alten Mikrowellenstrahlung, die von der Urknalltheorie vorhergesagt wurde.

Wenn man ein Kunstwerk, eine schöne Landschaft oder ein Kind betrachtet, spürt man immer die Harmonie des Seins.

In wissenschaftlicher Hinsicht wird dieses Gefühl, das uns sagt, dass alles im Universum harmonisch und miteinander verbunden ist, als nicht-lokale Kohärenz bezeichnet. Laut Erwin Laszlo müssen wir, um das Vorhandensein einer beträchtlichen Anzahl von Teilchen im Universum und die kontinuierliche, aber keineswegs einheitliche und lineare Entwicklung von allem, was existiert, zu erklären, das Vorhandensein eines Faktors erkennen, der weder Materie noch ist Energie.

Die Bedeutung dieses Faktors wird mittlerweile nicht nur in den Sozial- und Geisteswissenschaften, sondern auch in der Physik und den Naturwissenschaften anerkannt. Das ist Information – Information als realer und effektiver Faktor, der die Parameter des Universums bei seiner Geburt bestimmt und anschließend die Entwicklung seiner Grundelemente steuert, die sich in komplexe Systeme verwandeln.

Und jetzt, gestützt auf die Daten der neuen Kosmologie, sind wir endlich dem Traum eines jeden Wissenschaftlers nahe gekommen – der Schaffung einer ganzheitlichen Theorie von allem.

Erstellen einer ganzheitlichen Theorie von allem

Im ersten Kapitel werden wir das Problem diskutieren, eine Theorie von allem zu erstellen. Eine Theorie, die diesen Namen verdient, muss wirklich eine Theorie von allem sein – eine ganzheitliche Theorie von allem, was wir beobachten, erfahren und begegnen, seien es physische Objekte, Lebewesen, soziale und ökologische Phänomene oder Schöpfungen des Geistes und des Bewusstseins. Es ist möglich, eine solche ganzheitliche Theorie von allem zu erstellen – und dies wird in diesem und den folgenden Kapiteln gezeigt.

Es gibt viele Möglichkeiten, die Welt zu verstehen: durch eigene Ideen, mystische Intuition, Kunst und Poesie sowie durch die Glaubenssysteme der Weltreligionen. Unter den vielen Methoden, die uns zur Verfügung stehen, verdient eine besondere Aufmerksamkeit, da sie auf reproduzierbaren Erfahrungen basiert, sich strikt an die Methodik hält und offen für Kritik und Neubewertung ist. Das ist der Weg der Wissenschaft.

Wissenschaft zählt. Es ist nicht nur wichtig, weil es eine Quelle neuer Technologien ist, die unser Leben und die Welt um uns herum verändern, sondern auch, weil es uns eine zuverlässige Sicht auf die Welt und uns in dieser Welt gibt.

Aber die Sicht auf die Welt durch das Prisma der modernen Wissenschaft ist zweideutig. Bis vor kurzem zeichnete die Wissenschaft ein fragmentiertes Weltbild, das sich aus scheinbar unabhängigen Disziplinen zusammensetzte. Für Wissenschaftler ist es schwer zu sagen, was das physische Universum und die belebte Welt, die belebte Welt und die Welt der Gesellschaft, die Welt der Gesellschaft mit den Sphären des Geistes und des Bewusstseins verbindet. Jetzt ändert sich die Situation; An der Spitze der Wissenschaft streben immer mehr Forscher danach, ein ganzheitlicheres, einheitlicheres Bild der Welt zu erhalten. Dies betrifft zunächst Physiker, die an der Erstellung einheitlicher Theorien und großer einheitlicher Theorien arbeiten. Diese Theorien verbinden die grundlegenden Felder und Kräfte der Natur in einem kohärenten theoretischen Rahmen, was darauf hindeutet, dass sie einen gemeinsamen Ursprung haben.

In den letzten Jahren hat sich in der Quantenphysik ein besonders vielversprechender Trend herauskristallisiert: der Versuch, eine Theorie von allem zu schaffen. Dieses Projekt basiert auf String- und Superstring-Theorien (so genannt, weil diese Theorien Elementarteilchen als vibrierende Filamente oder Saiten behandeln). Entwickelte Theorien von allem verwenden komplexe mathematische und multidimensionale Räume, um eine Hauptgleichung zu erstellen, die alle Gesetze des Universums erklären könnte.

Physikalische Theorien von allem

Die Theorien von allem, die derzeit von theoretischen Physikern entwickelt werden, zielen darauf ab, das zu erreichen, was Einstein einmal als "Lesen der Gedanken Gottes" bezeichnet hat. Er sagte, wenn wir alle Gesetze der physikalischen Natur kombinieren und ein kohärentes Gleichungssystem schaffen könnten, könnten wir alle Eigenschaften des Universums auf der Grundlage dieser Gleichungen erklären, was gleichbedeutend wäre mit dem Lesen der Gedanken Gottes .

Einstein hat einen solchen Versuch in Form einer einheitlichen Feldtheorie unternommen. Obwohl er seine Bemühungen bis zu seinem Tod im Jahr 1955 fortsetzte, entdeckte er keine einfache und leistungsstarke Gleichung, die alle physikalischen Phänomene auf logische und zusammenhängende Weise erklären könnte.

Einstein ging an sein Ziel, indem er alle physikalischen Phänomene als Ergebnis der Wechselwirkung von Feldern betrachtete. Wir wissen heute, dass er versagt hat, weil er die Felder und Kräfte, die auf der mikrophysikalischen Ebene der Realität wirken, nicht berücksichtigt hat. Diese Felder (schwache und starke Kernkräfte) nehmen in der Quantenmechanik eine zentrale Stellung ein, nicht aber in der Relativitätstheorie.

Heute verfolgen die meisten theoretischen Physiker einen anderen Ansatz: Sie betrachten das Quant, einen diskreten Aspekt der physikalischen Realität, als die elementare Einheit. Aber die physikalische Natur von Quanten wurde überarbeitet: Sie werden nicht als separate Materie-Energie-Teilchen betrachtet, sondern als vibrierende eindimensionale Fäden - Strings und Superstrings. Physiker versuchen, alle Gesetze der Physik als Schwingung von Superstrings in einem mehrdimensionalen Raum darzustellen. Sie sehen jedes Partikel als eine Saite, die zusammen mit allen anderen Partikeln ihre eigene „Musik“ erzeugt. Auf kosmischer Ebene schwingen ganze Sterne und Galaxien sowie ganze Universen zusammen. Die Aufgabe der Physiker besteht darin, eine Gleichung zu erstellen, die zeigt, wie eine Schwingung mit einer anderen zusammenhängt, damit sie alle in einer Supergleichung ausgedrückt werden können. Diese Gleichung würde die Musik entschlüsseln, die die grenzenloseste und grundlegendste Harmonie des Kosmos verkörpert.

Zum Zeitpunkt des Schreibens dieses Artikels sind auf der Stringtheorie basierende Theorien von allem noch ehrgeizige Ideen: Niemand hat jemals eine Supergleichung geschaffen, die die Harmonie des physikalischen Universums in einer so einfachen Formel wie Einsteins E = mc2 ausdrückt. Tatsächlich gibt es auf diesem Gebiet so viele Probleme, dass immer mehr Physiker vorschlagen, dass ein neues Konzept erforderlich sein wird, um Fortschritte zu erzielen. Gleichungen der Stringtheorie erfordern mehrere Dimensionen, eine vierdimensionale Raumzeit reicht nicht aus.

Die Theorie erforderte ursprünglich 12 Dimensionen, um alle Schwingungen in einer einzigen Theorie zu verknüpfen, aber jetzt glaubt man, dass „nur“ 10 oder 11 Dimensionen ausreichen, vorausgesetzt, die Schwingungen treten in einem mehrdimensionalen „Hyperraum“ auf. Außerdem setzt die Stringtheorie für ihre Strings die Existenz von Raum und Zeit voraus, kann aber nicht zeigen, wie Zeit und Raum entstanden sein könnten. Und schließlich ist es verwirrend, dass diese Theorie so viele mögliche Lösungen hat - ungefähr 10.500 -, dass es völlig unverständlich wird, warum unser Universum so ist, wie es ist (obwohl jede Lösung zu einem anderen Universum führt).

Physiker, die versuchen, die Stringtheorie zu retten, stellen verschiedene Hypothesen auf. Zum Beispiel koexistieren alle möglichen Universen, obwohl wir nur in einem davon leben. Oder vielleicht hat unser Universum viele Facetten, aber wir nehmen nur eine uns vertraute wahr. Hier sind einige Hypothesen von theoretischen Physikern, die zeigen wollen, dass Stringtheorien ein gewisses Maß an Realismus haben. Aber keiner von ihnen ist zufriedenstellend, und einige Kritiker, darunter Peter Voight und Lee Smolin, sind bereit, die Stringtheorie zu begraben.

Smolin ist einer der Begründer der Theorie der Loop-Quantengravitation, wonach der Raum ein Netzwerk von Zellen ist, das alle Punkte verbindet. Die Theorie erklärt, wie Raum und Zeit entstanden sind, und sie erklärt auch die „Fernwirkung“, das heißt die seltsame „Beziehung“, die dem Phänomen zugrunde liegt, das als Nichtlokalität bekannt ist. Wir werden dieses Phänomen in Kapitel 3 genauer untersuchen.

Es ist nicht bekannt, ob Physiker in der Lage sein werden, eine funktionierende Theorie von allem zu erstellen. Es ist jedoch klar, dass selbst wenn die unternommenen Anstrengungen erfolgreich sind, die Schaffung einer wirklichen Theorie von allem noch keinen Erfolg bedeuten wird. Bestenfalls werden Physiker eine physikalische Theorie von allem schaffen – eine Theorie, die keine Theorie von allem sein wird, sondern nur eine Theorie aller physikalischen Objekte. Eine wahre Theorie von allem umfasst mehr als nur die mathematischen Formeln, die die Phänomene ausdrücken, die von diesem Bereich der Quantenphysik untersucht werden. Es gibt nicht nur vibrierende Saiten und damit verbundene Quantenereignisse im Universum. Leben, Geist, Kultur und Bewusstsein sind Teil der Realität der Welt, und eine wahre Theorie von allem wird sie ebenfalls berücksichtigen.

Ken Wilber, Autor von The Theory of Everything, stimmt zu. Er spricht von einer „ganzheitlichen Vision“, die in einer wahren Theorie von allem verkörpert ist. Er bietet jedoch keine solche Theorie an, sondern diskutiert hauptsächlich, was es sein könnte, und beschreibt sie in Bezug auf die Evolution von Kultur und Bewusstsein in Bezug auf ihre eigenen Theorien. Eine ganzheitliche Theorie von allem, was wissenschaftliche Grundlagen hat, muss erst noch geschaffen werden.

Annäherungen an eine wahre Theorie von allem

Eine wahre Theorie von allem kann erstellt werden. Obwohl es über String- und Superstringtheorien hinausgeht, in denen Physiker versuchen, ihre eigene Supertheorie zu entwickeln, passt es gut in den Rahmen der Wissenschaft selbst. Tatsächlich ist die Aufgabe, eine echte ganzheitliche Theorie von allem zu erstellen, einfacher als die Aufgabe, eine physikalische Theorie von allem zu erstellen. Wie wir sehen können, neigen die physikalischen Theorien von allem dazu, die Gesetze der Physik auf eine einzige Formel zu reduzieren – all jene Gesetze, die die Wechselwirkung von Teilchen und Atomen, Sternen und Galaxien regeln; viele komplexe Einheiten mit komplexen Wechselwirkungen. Es ist einfacher und vernünftiger, nach den grundlegenden Gesetzen und Prozessen zu suchen, die diese Entitäten und ihre Wechselwirkungen hervorbringen.

Die Computermodellierung komplexer Strukturen zeigt, dass der Komplex durch grundlegende und relativ einfache Anfangsbedingungen erstellt und erklärt werden kann. Wie John von Neumanns Theorie der zellulären Automaten gezeigt hat, reicht es aus, die Hauptkomponenten des Systems zu definieren und die Regeln – Algorithmen – festzulegen, die ihr Verhalten steuern (das ist die Grundlage aller Computermodelle: Die Entwickler sagen dem Computer, was er tun soll in jeder Phase des Modellierungsprozesses, und der Computer erledigt den Rest). Ein begrenzter und unerwartet einfacher Satz grundlegender Elemente, die von einer kleinen Anzahl von Algorithmen gesteuert werden, kann eine scheinbar unverständliche Komplexität erzeugen, wenn der Prozess sich im Laufe der Zeit entfalten kann. Das Regelwerk, das Informationen für die Elemente trägt, startet einen Prozess, der die Elemente ordnet und organisiert, die dadurch in der Lage sind, immer komplexere Strukturen und Beziehungen herzustellen.

Bei dem Versuch, eine echte ganzheitliche Theorie von allem zu erstellen, können wir einem ähnlichen Weg folgen. Wir können mit elementaren Dingen beginnen – Dingen, die andere Dinge hervorbringen, ohne von ihnen erzeugt zu werden. Dann müssen wir ein einfaches Regelwerk definieren, das etwas Komplexeres schafft. Im Grunde sollten wir dann erklären können, wie jedes „Ding“ auf der Welt entstanden ist.

Neben String- und Superstring-Theorien gibt es in der neuen Physik Theorien und Konzepte, dank denen diese grandiose Idee verwirklicht werden kann. Mithilfe von Entdeckungen in den hochmodernen Bereichen der Teilchen- und Feldtheorie können wir die Basis identifizieren, die alles erzeugt, ohne selbst von etwas erzeugt zu werden. Diese Basis ist, wie wir sehen werden, ein Meer aus virtueller Energie, das als Quantenvakuum bekannt ist. Wir können uns auch auf das Regelwerk (Naturgesetze) beziehen, das uns sagt, wie die Grundelemente der Realität - Teilchen, die als Quanten bekannt sind - im Zusammenspiel mit ihrer kosmischen Basis zu komplexen Dingen werden.

Wir müssen jedoch ein neues Element hinzufügen, um eine echte ganzheitliche Theorie von allem zu erhalten. Die derzeit bekannten Gesetze, nach denen die existierenden Objekte der Welt aus dem Quantenvakuum entstehen, sind die Wechselwirkungsgesetze, die auf der Übertragung und Umwandlung von Energie beruhen. Diese Gesetze erwiesen sich als ausreichend, um zu erklären, wie reale Objekte – in Form von Teilchen-Antiteilchen-Paaren – im Quantenvakuum entstehen und daraus hervorgehen. Aber sie liefern keine Erklärung dafür, warum beim Urknall mehr Teilchen als Antiteilchen entstanden sind; und auch, wie sich die überlebenden Teilchen über Milliarden von Jahren zu immer komplexeren Strukturen zusammengefügt haben: zu Galaxien und Sternen, Atomen und Molekülen und (auf geeigneten Planeten) zu Makromolekülen, Zellen, Organismen, Gesellschaften, ökologischen Nischen und dem Ganzen Biosphären.

Um das Vorhandensein einer beträchtlichen Anzahl von Teilchen im Universum („Materie“ im Gegensatz zu „Antimaterie“) und die kontinuierliche, aber keineswegs einheitliche und lineare Entwicklung von allem, was existiert, zu erklären, müssen wir das Vorhandensein eines Faktors anerkennen, der ist weder Materie noch Energie. Die Bedeutung dieses Faktors wird mittlerweile nicht nur in den Sozial- und Geisteswissenschaften, sondern auch in der Physik und den Naturwissenschaften anerkannt. Das ist Information – Information als realer und effektiver Faktor, der die Parameter des Universums bei seiner Geburt bestimmt und anschließend die Entwicklung seiner Grundelemente steuert, die sich in komplexe Systeme verwandeln.

Die meisten von uns verstehen Informationen als Daten oder das, was einer Person bekannt ist. Die Natur- und Naturwissenschaften entdecken, dass Informationen weit über die Grenzen des Bewusstseins einer einzelnen Person und sogar aller Menschen zusammen hinausgehen.

Information ist ein integraler Aspekt sowohl der physikalischen als auch der biologischen Natur. Der große Physiker David Bohm nannte Information einen Prozess, der auf den Empfänger einwirkt, ihn „formt“. Wir werden dieses Konzept akzeptieren.

Informieren ist kein menschliches Produkt, nichts, was wir erschaffen, wenn wir schreiben, zählen, sprechen und kommunizieren. Die Weisen der Antike wissen seit langem, und moderne Wissenschaftler werden es wieder lernen, dass Informationen in der Welt vorhanden sind, unabhängig vom menschlichen Willen und Handeln, und ein bestimmender Faktor in der Evolution von allem sind, was die reale Welt erfüllt. Die Grundlage für die Erstellung einer wahren Theorie von allem ist die Erkenntnis, dass Informationen ein grundlegender Faktor in der Natur sind.

Über Rätsel und Mythen

Treibende Kräfte für den kommenden Paradigmenwechsel in der Wissenschaft

Wir werden unsere Suche nach einer wahren ganzheitlichen Theorie von allem beginnen, indem wir uns die Faktoren ansehen, die die Wissenschaft einem Paradigmenwechsel näher bringen. Die Schlüsselfaktoren sind die Mysterien, die im Laufe der wissenschaftlichen Forschung auftauchen und sich anhäufen: Anomalien, die das gegenwärtige Paradigma nicht erklären kann. Dies treibt die wissenschaftliche Gemeinschaft dazu, nach neuen Ansätzen für anomale Phänomene zu suchen. Solche Forschungsbemühungen (wir nennen sie „wissenschaftliche Mythen“) enthalten viele Ideen. Einige dieser Ideen können Schlüsselkonzepte enthalten, die Wissenschaftler zu einem neuen Paradigma führen werden – einem Paradigma, das Geheimnisse und Anomalien aufklären und als Grundlage für eine echte ganzheitliche Theorie von allem dienen kann.

Führende Wissenschaftler versuchen, ihr Verständnis des untersuchten Teils der Realität zu erweitern und zu vertiefen. Sie verstehen immer mehr über den relevanten Teil oder Aspekt der Realität, aber sie können diesen Teil oder Aspekt nicht direkt studieren – sie können ihn nur durch Konzepte begreifen, die in Hypothesen und Theorien umgewandelt wurden. Konzepte, Hypothesen und Theorien sind nicht stark genug, sie können falsch sein. Tatsächlich ist das Markenzeichen einer wirklich wissenschaftlichen Theorie (gemäß dem Wissenschaftsphilosophen Sir Karl Popper) die Widerlegung. Theorien werden falsifiziert, wenn die daraus gemachten Vorhersagen nicht durch Beobachtungen bestätigt werden. In diesem Fall sind die Beobachtungen anomal und die betrachtete Theorie wird entweder als fehlerhaft angesehen und verworfen oder muss überarbeitet werden.

Die Widerlegung von Theorien ist der Motor echten wissenschaftlichen Fortschritts. Wenn alles funktioniert, mag es einen Fortschritt geben, aber er ist unvollständig (Verfeinerung einer bestehenden Theorie, um sie an neue Beobachtungen anzupassen). Wirklicher Fortschritt entsteht, wenn das nicht möglich ist. Früher oder später kommt der Moment, an dem Wissenschaftler, anstatt zu versuchen, bestehende Theorien zu revidieren, lieber nach einer einfacheren und besser erklärenden Theorie suchen. Der Weg ist frei für eine grundlegende Erneuerung der Theorie: einen Paradigmenwechsel.

Ein Paradigmenwechsel wird durch die Häufung von Beobachtungen ausgelöst, die nicht in akzeptierte Theorien passen und nach einer einfachen Verfeinerung solcher Theorien nicht in sie passen können. Das Stadium der Entstehung eines neuen und akzeptableren wissenschaftlichen Paradigmas steht bevor. Die Herausforderung besteht darin, grundlegende neue Konzepte zu finden, die die Grundlage für ein neues Paradigma bilden.

Es gibt strenge Anforderungen an das wissenschaftliche Paradigma. Eine darauf basierende Theorie sollte es Wissenschaftlern ermöglichen, alle Entdeckungen zu erklären, die die vorherige Theorie erklären könnte, sowie anomale Beobachtungen. Es soll alle relevanten Fakten zu einem einfacheren und zugleich vollständigeren Konzept vereinen. Genau das tat Einstein um die Wende zum 20. Jahrhundert, als er aufhörte, im Rahmen der Newtonschen Physik nach den Ursachen für das seltsame Verhalten des Lichts zu suchen, und stattdessen ein neues Konzept der physikalischen Realität schuf – die Relativitätstheorie. Wie er selbst sagte, kann man ein Problem nicht auf der gleichen Ebene lösen, auf der es entstanden ist. In unerwartet kurzer Zeit verließ die Physik-Community die von Newton begründete klassische Physik, und Einsteins revolutionäres Konzept trat an ihre Stelle.

Im ersten Jahrzehnt des 20. Jahrhunderts erlebte die Wissenschaft einen Paradigmenwechsel. Jetzt, im ersten Jahrzehnt des 21. Jahrhunderts, häufen sich erneut Mysterien und Anomalien, und die wissenschaftliche Gemeinschaft steht vor dem nächsten Paradigmenwechsel, der so grundlegend und revolutionär ist wie der Übergang von Newtons mechanistischer Welt zu Einsteins relativem Universum.

In der Spitzenwissenschaft bahnt sich seit einiger Zeit ein moderner Paradigmenwechsel an. Wissenschaftliche Revolutionen sind keine augenblicklichen Prozesse, bei denen sofort eine neue Theorie an ihre Stelle tritt. Sie können schnell sein, wie im Fall von Einsteins Theorie, oder länger dauern, wie der Übergang von der klassischen Darwinschen Theorie zu den umfassenderen biologischen Konzepten des Post-Darwinismus.

Bevor die beginnenden Revolutionen zum Endergebnis führen, durchlaufen die Wissenschaften, in denen es Anomalien gibt, eine Zeit der Instabilität. Mainstream-Wissenschaftler verteidigen bestehende Theorien, während freidenkende Wissenschaftler in hochmodernen Bereichen Alternativen erforschen. Letztere brachten neue Ideen ein, die einen anderen Blick auf die Phänomene bieten, die traditionellen Wissenschaftlern vertraut sind. Alternativkonzepte, die zunächst in Form von Arbeitshypothesen existieren, wirken seit einiger Zeit zwar nicht phantastisch, aber doch befremdlich.

Sie ähneln manchmal Mythen, die von phantasievollen Entdeckern erfunden wurden. Sie sind es jedoch nicht. Die "Mythen" ernsthafter Forscher basieren auf sorgfältig kalibrierter Logik; sie kombinieren das bereits Bekannte über den Teil der Welt, den eine bestimmte Disziplin erforscht, mit dem, was noch rätselhaft ist. Dies sind keine gewöhnlichen Mythen, sie sind "wissenschaftliche Mythen" - ausgeklügelte Hypothesen, die offen für Tests sind und daher durch Beobachtung und Experiment bestätigt oder widerlegt werden können.

Das Studium der Anomalien, die in Beobachtungen und Experimenten gefunden werden, und das Aushecken überprüfbarer Mythen, die sie erklären können, sind wichtige Bestandteile der wissenschaftlichen Grundlagenforschung. Wenn Anomalien trotz aller Bemühungen von Wissenschaftlern, die am alten Paradigma festhalten, weiterhin bestehen und dieser oder jener wissenschaftliche Mythos, der von freidenkenden Wissenschaftlern aufgestellt wird, eine einfachere und logischere Erklärung bietet, hört eine kritische Masse von Wissenschaftlern (meist junge) auf am alten Paradigma festhalten. So beginnt der Paradigmenwechsel. Das Konzept, das bisher ein Mythos war, wird allmählich als zuverlässige wissenschaftliche Theorie angesehen.

In der Wissenschaftsgeschichte gibt es unzählige Beispiele sowohl erfolgreicher als auch gescheiterter Mythen. Bestätigte Mythen – die als zuverlässige, wenn auch nicht ganz wahre wissenschaftliche Theorien gelten – umfassen Charles Darwins Vermutung, dass alle lebenden Arten von einem gemeinsamen Vorfahren abstammen, und die Hypothese von Alan Guth und Andrew Linde, dass das Universum in der darauf folgenden superschnellen „Expansion“ entstand Geburt während des Urknalls. Zu den gescheiterten Mythen (diejenigen, die weniger als genaue oder bessere Erklärungen für die relevanten Phänomene lieferten) gehören Hans Drieschs Idee, dass die Evolution des Lebens einem vorbestimmten Plan in einem zielgerichteten Prozess namens Entelechie folgt, und Einsteins Hypothese, dass eine zusätzliche physikalische Kraft, genannt a kosmologische Konstante, lässt das Universum nicht aufgrund der Schwerkraft untergehen. (Interessanterweise werden, wie wir erfahren werden, einige dieser Behauptungen jetzt in Frage gestellt: Es ist möglich, dass die Expansionstheorie von Guth und Linde durch ein umfassenderes Konzept eines zyklischen Universums ersetzt wird, und Einsteins kosmologische Konstante war immer noch nicht falsch ... )

Beispiele für moderne wissenschaftliche Mythen

Hier sind drei Arbeitshypothesen – „wissenschaftliche Mythen“ – aufgestellt von hoch angesehenen Wissenschaftlern. Alle drei scheinen zwar unglaublich zu sein, haben aber ernsthafte Aufmerksamkeit von der wissenschaftlichen Gemeinschaft erhalten.

10100 Universen

1955 lieferte der Physiker Hugh Everett eine verblüffende Erklärung für die Quantenwelt (die später die Grundlage für einen der beliebtesten Romane von Michael Crichton, Time's Arrow, wurde). Everetts Paralleluniversum-Hypothese hängt mit einer mysteriösen Entdeckung in der Quantenphysik zusammen: Bis ein Teilchen beobachtet, gemessen oder auf irgendeine Weise manipuliert wird, befindet es sich in einem seltsamen Zustand, der eine Überlagerung aller möglichen Zustände ist. Wenn das Teilchen jedoch beobachtet, gemessen oder bearbeitet wird, verschwindet dieser Überlagerungszustand: Das Teilchen befindet sich in einem einzigen Zustand, wie jedes "gewöhnliche" Objekt. Da der Superpositionszustand als eine komplexe Wellenfunktion beschrieben wird, die mit dem Namen von Erwin Schrödinger verbunden ist, sagt man, dass die Schrödinger-Wellenfunktion kollabiert, wenn der Superpositionszustand verschwindet.

Das Problem ist, dass es unmöglich ist, vorherzusagen, welchen der vielen möglichen virtuellen Zustände ein Teilchen annehmen wird. Die Wahl des Teilchens scheint unvorhersehbar – völlig unabhängig von den Bedingungen, die den Kollaps der Wellenfunktion auslösen. Nach Everetts Hypothese spiegelt die Unbestimmtheit des Zusammenbruchs der Wellenfunktion nicht die in der Welt herrschenden Bedingungen wider. Hier gibt es keine Ungewissheit: Jeder vom Teilchen gewählte virtuelle Zustand ist sicher – er ist einfach von selbst in der Welt vorhanden!

So passiert der Kollaps: Wenn ein Quant gemessen wird, gibt es eine Reihe von Möglichkeiten, die jeweils mit einem Beobachter oder Messgerät verbunden sind. In einem scheinbar zufälligen Auswahlprozess nehmen wir nur eine der Möglichkeiten wahr. Aber laut Everett ist die Wahl nicht zufällig, da diese Wahl nicht vorkommt: Alle möglichen Zustände eines Quants werden jedes Mal realisiert, wenn es gemessen oder beobachtet wird; sie einfach
werden nicht in einer Welt verwirklicht. Viele mögliche Quantenzustände werden in der gleichen Anzahl von Universen realisiert.
Angenommen, wenn ein Quant wie ein Elektron gemessen wird, besteht eine fünfzigprozentige Wahrscheinlichkeit, dass es nach oben geht, und eine gleiche Wahrscheinlichkeit, dass es nach unten geht. Dann haben wir nicht ein Universum, in dem ein Quant mit einer Wahrscheinlichkeit von 50 zu 50 steigen oder fallen kann, sondern zwei parallele. In einem der Universen bewegt sich das Elektron tatsächlich nach oben und im anderen nach unten. In jedem dieser Universen gibt es auch einen Beobachter oder ein Messinstrument. Zwei Ergebnisse existieren gleichzeitig in zwei Universen, genau wie Beobachter oder Messinstrumente.

Wenn die mehreren Überlagerungszustände eines Teilchens zu einem konvergieren, gibt es natürlich nicht nur zwei, sondern mehr mögliche virtuelle Zustände, die das Teilchen annehmen kann. Es muss also viele Universen geben, vielleicht etwa 10100, in denen es Beobachter und Messinstrumente gibt.

Vom Beobachter geschaffenes Universum

Wenn es 10100 oder sogar 10500 Universen gibt (trotz der Tatsache, dass in den meisten von ihnen niemals Leben hätte entstehen können), wie kommt es dann, dass wir in einem solchen Universum leben, in dem es komplexe Lebensformen gibt? Könnte dies ein reiner Zufall sein? Viele wissenschaftliche Mythen widmen sich diesem Thema, einschließlich des anthropischen kosmologischen Prinzips, das behauptet, dass unsere Beobachtung dieses Universums mit einem solchen glücklichen Zufall zusammenhängt. Kürzlich haben Stephen Hawking aus Cambridge und Thomas Hertog vom CERN (Europäische Organisation für Kernforschung) eine mathematische Antwort gefunden. Gemäß ihrer vom Beobachter geschaffenen Theorie des Universums verzweigen sich nicht getrennte Universen in der Zeit und existieren für sich selbst (wie die Stringtheorie nahelegt), sondern alle möglichen Universen existieren gleichzeitig in einem Zustand der Überlagerung. Unsere Existenz in diesem Universum wählt den Weg, der zu einem solchen Universum führt, unter allen anderen Wegen, die zu allen anderen Universen führen; alle anderen Pfade sind ausgeschlossen. In dieser Theorie wird also die Kausalkette der Ereignisse umgekehrt: Die Gegenwart bestimmt die Vergangenheit. Dies wäre nicht möglich, wenn das Universum einen bestimmten Anfangszustand hätte, denn aus einem bestimmten Zustand würde eine bestimmte Geschichte geboren werden. Aber, argumentieren Hawking und Hertog, das Universum hat keinen bestimmten Anfangszustand, keinen Bezugspunkt – eine solche Grenze existiert einfach nicht.

Holographisches Universum

Dieser wissenschaftliche Mythos behauptet, dass das Universum ein Hologramm ist (oder zumindest als solches betrachtet werden kann). (In einem Hologramm, auf das wir später noch näher eingehen werden, erzeugt ein zweidimensionales Modell ein dreidimensionales Bild.) Es wird angenommen, dass sich alle Informationen, aus denen das Universum besteht, an seiner Peripherie befinden, die a ist zweidimensionale Oberfläche. Diese zweidimensionale Information entsteht innerhalb des Universums in drei Dimensionen. Wir betrachten das Universum als dreidimensional, obwohl etwas, das es zu dem macht, was es ist, ein zweidimensionales Informationsfeld ist. Warum ist diese scheinbar absurde Idee zu einem Gegenstand von Kontroversen und Forschungen geworden?

Das Problem, das die Theorie des holographischen Universums beseitigt, gehört zum Gebiet der Thermodynamik. Gemäß ihrem fest etablierten zweiten Gesetz kann das Chaos in einem geschlossenen System niemals abnehmen. Das bedeutet, dass der Chaosgrad im Universum als Ganzes niemals abnehmen kann, denn wenn wir den Kosmos in seiner Gesamtheit betrachten, ist er ein geschlossenes System (es gibt kein Außen und daher kann nichts offen werden). Dass der Grad an Chaos nicht abnehmen kann, bedeutet, dass die als Information darstellbare Ordnung nicht zunehmen kann. Nach der Quantentheorie muss die Information, die Ordnung schafft oder aufrechterhält, konstant sein, sie kann nicht mehr oder weniger werden.

Aber was passiert mit Informationen, wenn Materie in Schwarzen Löchern verschwindet? Es mag den Anschein haben, dass Schwarze Löcher die in der Materie enthaltenen Informationen zerstören. Dies widerspricht jedoch der Quantentheorie. Um dieses Rätsel zu lösen, folgerte Stephen Hawking zusammen mit Jacob Bekenstein, damals an der Princeton University, dass das Chaos in einem Schwarzen Loch proportional zu seiner Oberfläche ist. In einem Schwarzen Loch ist viel mehr Platz für Ordnung und Information als an der Oberfläche. In einem Kubikzentimeter ist beispielsweise Platz für 1099 Planck-Volumen und nur 1066 Informationsbits auf der Oberfläche (ein Planck-Volumen ist ein fast unfassbar kleiner Raum, der von 10-35 Metern Seitenlänge begrenzt wird). Leonard Susskind von Stanford und Gerard 't Hooft von der Universität Utrech haben vorgeschlagen, dass Informationen in einem Schwarzen Loch nicht verloren gehen, sondern holographisch auf seiner Oberfläche gespeichert werden.

Die Mathematik fand 1998 eine unerwartete Verwendung für Hologramme, als Juan Maldacena, damals an der Harvard University, versuchte, mit der Stringtheorie in der Quantengravitation zu arbeiten. Maldacena stellte fest, dass es in 5D einfacher ist, mit Strings zu arbeiten als in 4D. (Wir nehmen den Raum in drei Dimensionen wahr: zwei Ebenen entlang der Oberfläche und eine vertikal. Die vierte Dimension wäre senkrecht zu diesen drei, aber sie kann nicht wahrgenommen werden. Mathematiker können eine beliebige Anzahl von Dimensionen hinzufügen und sich immer weiter von der wahrgenommenen Welt entfernen .) Die Lösung schien offensichtlich: Angenommen, der fünfdimensionale Raum in einem Schwarzen Loch ist tatsächlich ein Hologramm des vierdimensionalen Raums auf seiner Oberfläche. Dann ist es möglich, relativ einfache Berechnungen in fünf Dimensionen durchzuführen und mit einem vierdimensionalen Raum zu arbeiten.

Ist die Methode der Dimensionsreduktion für das Universum als Ganzes geeignet? Wie wir gesehen haben, kämpfen Stringtheoretiker mit vielen zusätzlichen Dimensionen und stellen fest, dass der dreidimensionale Raum nicht ausreicht, um ihre Aufgabe zu erfüllen: die Schwingungen der verschiedenen Saiten im Universum in einer einzigen Gleichung zu verknüpfen. Das holografische Prinzip könnte helfen, da man sich das Universum als mehrdimensionales Hologramm vorstellen könnte, das an seiner Peripherie in weniger Dimensionen gespeichert ist.

Das holografische Prinzip könnte die Stringtheorie leichter berechenbar machen, aber es enthält fantastische Annahmen über die Natur der Welt. Selbst Gerard ’t Hooft, einer der Begründer dieses Prinzips, hält es nicht mehr für unbestreitbar. Holographie sei in diesem Zusammenhang kein Prinzip, sondern ein Problem. Vielleicht, schlug er vor, könnte die Quantengravitation von einem grundlegenderen Prinzip abgeleitet werden, das nicht den Gesetzen der Quantenmechanik gehorcht.

In Zeiten der wissenschaftlichen Revolution, wenn das bestehende Paradigma unter Druck steht, werden neue wissenschaftliche Mythen aufgestellt, aber nicht alle bestätigt. Theoretiker haben sich in dem Glauben verwurzelt, dass, wie Galileo sagte, „das Buch der Natur in der Sprache der Mathematik geschrieben ist“, und vergessen, dass nicht alles in der Sprache der Mathematik im Buch der Natur existiert. Infolgedessen bleiben viele mathematisch konstruierte Mythen nur Mythen. Andere jedoch tragen die Saat für bedeutenden wissenschaftlichen Fortschritt in sich. Welche der Samen keimen und Früchte tragen werden, weiß zunächst niemand genau. Das Feld brodelt und befindet sich in einem Zustand des kreativen Chaos.

Dies ist heute in vielen wissenschaftlichen Disziplinen der Stand der Dinge. Anomale Phänomene vermehren sich in der physikalischen Kosmologie, Quantenphysik, Evolutions- und Quantenbiologie und dem neuen Feld der Bewusstseinsforschung. Sie schaffen immer mehr Unsicherheit und zwingen offene Wissenschaftler, die Grenzen akzeptierter Theorien zu erweitern. Während konservative Forscher darauf beharren, dass nur Ideen, die in renommierten wissenschaftlichen Zeitschriften veröffentlicht und in Lehrbüchern wiedergegeben werden, als wissenschaftlich angesehen werden können, suchen Spitzenforscher nach grundlegend neuen Konzepten, einschließlich solcher, die noch vor wenigen Jahren als außerhalb des Rahmens ihrer Disziplinen betrachtet wurden .

Immer mehr wissenschaftliche Disziplinen beschreiben die Welt auf immer unglaublichere Weise. Die Kosmologie hat ihr dunkle Materie, dunkle Energie und mehrdimensionale Räume hinzugefügt; Quantenphysik - Teilchen, die in der Raumzeit auf tieferen Ebenen der Realität sofort verbunden sind; Biologie - lebende Materie, die die Integrität von Quanten demonstriert; und Bewusstseinsstudien sind transpersonale Verbindungen unabhängig von Raum und Zeit. Dies sind nur einige der bereits bestätigten wissenschaftlichen Theorien, die heute als vollwertig gelten.

Für das richtige Konzept der Natur unserer Vakuumumgebung, das Konzept des Ursprungs der Substanz der Vakuumumgebung der Matrix und der Natur der Schwerkraft in der Vakuumumgebung ist es notwendig, sich im Detail zu vertiefen, natürlich relativ, auf die Entwicklung unseres Universums. Was in diesem Kapitel beschrieben wird, wurde teilweise in wissenschaftlichen und populärwissenschaftlichen Zeitschriften veröffentlicht. Dieses Material aus wissenschaftlichen Zeitschriften wurde systematisiert. Und was der Wissenschaft bisher nicht bekannt ist, wird aus Sicht dieser Theorie ergänzt. Unser Universum befindet sich derzeit in einer Expansionsphase. In dieser Theorie wird nur das expandierende und kontrahierende Universum akzeptiert, d.h. nicht stationär. Ein Universum, das immer nur expandiert oder stationär ist, wird in dieser Theorie abgelehnt. Denn diese Art von Universen schließt jegliche Entwicklung aus, führt zu Stagnation, d.h. zum einzigen Universum.

Natürlich kann eine Frage aufkommen. Warum diese Beschreibung der Evolution des Einstein-Friedmann-Universums in dieser Theorie? Dies beschreibt ein wahrscheinliches Modell eines Partikels von Medien der ersten Art von verschiedenen Ebenen. Wo eine logische Interpretation über die Prozesse ihres Auftretens, ihren Existenzzyklus in Raum und Zeit, über die Muster ihrer Volumina und Massen für jede Umgebung der entsprechenden Ebene gegeben wird. Partikel von Medien der ersten Art haben variable Volumina, d.h. durchlaufen im Laufe der Zeit einen Zyklus von Expansion und Kontraktion. Aber die Medien selbst der ersten Art sind ewig in der Zeit und unendlich im Volumen, passen ineinander und schaffen die Struktur der Struktur der sich ewig bewegenden Materie, ewig in der Zeit und unendlich im Volumen. In diesem Fall ist es notwendig, die Entwicklung unseres Universums vom sogenannten "Urknall" bis zur Gegenwart zu beschreiben. Bei der Beschreibung der Entwicklung des Universums verwenden wir das, was derzeit in der wissenschaftlichen Welt bekannt ist, und setzen seine Entwicklung in Raum und Zeit hypothetisch fort, bis es vollständig komprimiert ist, d.h. vor dem nächsten großen Knall.

Diese Theorie geht davon aus, dass unser Universum nicht das einzige in der Natur ist, sondern ein Teilchen des Mediums einer anderen Ebene, d.h. Umgebung der ersten Art, die auch ewig in der Zeit und unendlich im Volumen ist. Nach den neuesten Daten der Astrophysik hat unser Universum das Stadium seiner Entwicklung in fünfzehn Milliarden Jahren überschritten. Es gibt immer noch viele Wissenschaftler aus der wissenschaftlichen Welt, die bezweifeln, dass sich das Universum ausdehnt oder nicht ausdehnt, andere glauben, dass sich das Universum nicht ausdehnt und dass es keinen „Urknall“ gab. Wieder andere glauben, dass sich das Universum nicht ausdehnt oder zusammenzieht, es war schon immer konstant und einzigartig in der Natur. Daher ist es notwendig, in dieser Theorie indirekt zu beweisen, dass der "Urknall" aller Wahrscheinlichkeit nach war. Und dass sich das Universum derzeit ausdehnt und dann zusammenzieht, und dass es nicht das einzige in der Natur ist. Jetzt dehnt sich das Universum mit Beschleunigung weiter aus. Nach dem „Urknall“ erlangte die entstehende Elementarmaterie des Matrix-Vakuummediums eine anfängliche Expansionsgeschwindigkeit vergleichbar mit der Lichtgeschwindigkeit, d.h. gleich 1/9 der Lichtgeschwindigkeit, 33.333 km/s.

Reis. 9.1. Das Universum befindet sich in der Phase der Quasarbildung: 1 – Matrixvakuummedium; 2 - Medium aus Elementarteilchen der Materie; 3 - singulärer Punkt; 4 - Quasare; 5 - die Richtung der Streuung der Materie des Universums

Derzeit ist es Wissenschaftlern mit Radioteleskopen gelungen, 15 Milliarden Lichtjahre weit in die Tiefen des Universums vorzudringen. Und was interessant ist: Je tiefer wir in den Abgrund des Universums vordringen, desto schneller wird die zurückweichende Materie. Wissenschaftler haben Objekte von gigantischer Größe gesehen, die eine Fluchtgeschwindigkeit hatten, die mit der Lichtgeschwindigkeit vergleichbar war. Was ist dieses Phänomen? Wie ist dieses Phänomen zu verstehen? Aller Wahrscheinlichkeit nach sahen Wissenschaftler das Gestern des Universums, dh den Tag des jungen Universums. Und diese riesigen Objekte, die sogenannten Quasare, waren junge Galaxien im Anfangsstadium ihrer Entwicklung (Abb. 9.1). Wissenschaftler haben die Zeit gesehen, als das Universum die Substanz des Matrixvakuums in Form von elementaren Materieteilchen hervorbrachte. All dies deutet darauf hin, dass es aller Wahrscheinlichkeit nach zum sogenannten „Urknall“ kam.

Um eine weitere Beschreibung der Entwicklung unseres Universums hypothetisch fortzusetzen, müssen wir uns ansehen, was uns derzeit umgibt. Unsere Sonne mit ihren Planeten ist ein gewöhnlicher Stern. Dieser Stern befindet sich in einem der Spiralarme der Galaxie am Rande. Es gibt viele Galaxien wie die unsere im Universum. Es spricht nicht von einer unendlichen Menge, da unser Universum ein Teilchen des Mediums einer anderen Ebene ist. Formen und Arten von Galaxien, die unser Universum füllen, sind sehr vielfältig. Diese Vielfalt hängt von vielen Ursachen zum Zeitpunkt ihres Auftretens in einem frühen Stadium ihrer Entwicklung ab. Die Hauptgründe sind die anfänglichen Massen und Drehmomente, die von diesen Objekten erworben werden. Mit dem Auftreten der elementaren Substanz des Matrix-Vakuummediums und seiner ungleichmäßigen Dichte in dem von ihm eingenommenen Volumen entstehen im beanspruchten Vakuummedium zahlreiche Schwerpunkte. Zu diesen Schwerpunkten zieht die Vakuumumgebung elementare Materie. Ursprüngliche Riesenobjekte, die sogenannten Quasare, beginnen sich zu bilden.

Somit ist die Entstehung von Quasaren ein natürliches Phänomen in der Natur. Wie also hat das Universum in 15 Milliarden Jahren seiner Entwicklung von den ursprünglichen Quasaren bis heute eine solche Vielfalt an Formen und Bewegungen angenommen. Ursprüngliche Quasare, die auf natürliche Weise als Ergebnis der Inkonsistenz des Matrix-Vakuummediums entstanden, begannen allmählich durch dieses Medium komprimiert zu werden. Und als die Komprimierung begannen ihre Volumina abzunehmen. Mit abnehmendem Volumen nimmt auch die Dichte eines elementaren Stoffes zu und die Temperatur steigt. Es ergeben sich Bedingungen für die Bildung komplexerer Teilchen aus Teilchen elementarer Materie. Dabei entstehen Teilchen mit der Masse eines Elektrons und aus diesen Massen Neutronen. Die Massenvolumina von Elektronen und Neutronen werden durch die Elastizität des Matrix-Vakuummediums bestimmt. Die neu gebildeten Neutronen nahmen eine sehr starke Struktur an. Während dieser Zeit befinden sich die Neutronen in einer oszillierenden Bewegung.

Unter dem immer größer werdenden Ansturm der Vakuumumgebung kondensiert und erwärmt sich die Neutronensubstanz des Quasars allmählich. Auch die Radien von Quasaren nehmen allmählich ab. Infolgedessen nimmt die Rotationsgeschwindigkeit um die imaginären Achsen von Quasaren zu. Aber trotz der Strahlung von Quasaren, die der Kompression teilweise entgegenwirkt, nimmt der Kompressionsprozess dieser Objekte unaufhaltsam zu. Das Medium eines Quasars bewegt sich schnell auf seinen Gravitationsradius zu. Nach der Gravitationstheorie ist der Gravitationsradius der Radius der Kugel, auf dem die Gravitationskraft der in dieser Kugel liegenden Masse der Materie gegen unendlich strebt. Und diese Schwerkraft kann nicht nur von Teilchen, sondern auch von Photonen nicht überwunden werden. Solche Objekte werden oft Schwarzschildkugeln oder gleichbedeutend sogenannte „Schwarze Löcher“ genannt.

1916 löste der deutsche Astronom Karl Schwarzschild eine von Albert Einsteins Gleichungen exakt. Und als Ergebnis dieser Entscheidung wurde der Gravitationsradius gleich 2 bestimmt MG/mit 2, wo M ist die Masse der Substanz, G ist die Gravitationskonstante, c ist die Lichtgeschwindigkeit. Daher erschien die Schwarzschild-Sphäre in der wissenschaftlichen Welt. Nach dieser Theorie besteht diese Schwarzschild-Kugel oder dasselbe "Schwarze Loch" aus einem Medium aus Neutronenmaterie höchster Dichte. Innerhalb dieser Kugel herrschen eine unendlich große Schwerkraft, eine extrem hohe Dichte und hohe Temperatur. Derzeit herrscht in gewissen Kreisen der Wissenschaftswelt noch die Meinung vor, dass es in der Natur neben dem Raum auch einen Anti-Raum gibt. Und dass die sogenannten „Schwarzen Löcher“, in denen die Materie massiver Körper des Universums durch die Schwerkraft zusammengezogen wird, mit Antispace in Verbindung gebracht werden.

Dies ist ein falscher idealistischer Trend in der Wissenschaft. In der Natur gibt es einen Raum, unendlich im Volumen, ewig in der Zeit, dicht gefüllt mit sich ewig bewegender Materie. Es ist nun notwendig, sich an den Moment der Entstehung von Quasaren und die wichtigsten von ihnen erworbenen Eigenschaften zu erinnern, d.h. Anfangsmassen und Drehmomente. Die Massen dieser Objekte haben ihre Aufgabe erfüllt, die Neutronenmaterie des Quasars in die Schwarzschild-Sphäre getrieben. Quasare, die aus irgendeinem Grund keine Drehmomente oder unzureichende Drehmomente erhielten, stoppten nach dem Eintritt in die Schwarzschild-Sphäre vorübergehend ihre Entwicklung. Sie verwandelten sich in die verborgene Substanz des Universums, d.h. in Schwarzen Löchern. Sie sind mit herkömmlichen Instrumenten nicht nachweisbar. Aber diejenigen Objekte, die es geschafft haben, ausreichende Drehmomente zu erlangen, werden ihre Entwicklung in Raum und Zeit fortsetzen.

Während sie sich im Laufe der Zeit entwickeln, werden Quasare durch die Vakuumumgebung komprimiert. Durch diese Komprimierung nehmen die Volumina dieser Objekte ab. Die Drehmomente dieser Objekte werden jedoch nicht reduziert. Dadurch erhöht sich die Rotationsgeschwindigkeit um seine imaginären Achsen in Gas- und Staubnebeln mit unvorstellbar großem Volumen. Es entstanden zahlreiche Schwerpunkte, sowie für Teilchen der elementaren Materie des Matrixvakuummediums. Im Verlauf der räumlichen und zeitlichen Entwicklung entstanden aus der zusammengezogenen Materie zu den Gravitationszentren Sternbilder, Einzelsterne, Planetensysteme und andere Objekte der Galaxis. Bei den entstehenden Sternen und anderen Objekten der Galaxie, die sich in Masse und chemischer Zusammensetzung sehr unterscheiden, setzt sich die Kompression unaufhörlich fort, die Umfangsgeschwindigkeit dieser Objekte nimmt ebenfalls progressiv zu. Es kommt ein kritischer Moment, unter der Wirkung einer unvorstellbar großen Zentrifugalkraft explodiert der Quasar. Aus der Sphäre dieses Quasars wird es Emissionen von Neutronenmaterie in Form von Jets geben, die sich später in die Spiralarme der Galaxie verwandeln werden. Das sehen wir derzeit in den meisten Galaxien, die wir sehen (Abb. 9.2).

Reis. 9.2. Expandierendes Universum: 1 – unendliches Medium des Matrixvakuums; 2 - Quasare; 3 - galaktische Formationen

Bis heute sind im Entwicklungsprozess der aus dem Kern der Galaxie ausgestoßenen Neutronenmaterie Sternhaufen, Einzelsterne, Planetensysteme, Nebel und andere Materiearten entstanden. Im Universum befindet sich die meiste Materie in den sogenannten „Schwarzen Löchern“ Diese Objekte werden mit Hilfe herkömmlicher Instrumente nicht erfasst und sind für uns unsichtbar. Aber Wissenschaftler erkennen sie indirekt. Die durch die Zentrifugalkraft aus dem Kern der Galaxis ausgestoßene Neutronenmaterie ist nicht in der Lage, die Schwerkraft dieses Kerns der Galaxis zu überwinden und wird ihr Satellit bleiben, der in zahlreichen Umlaufbahnen verstreut ist und sich weiter entwickelt und sich um den Kern der Galaxis dreht. So erschienen neue Formationen - Galaxien. Bildlich gesprochen können sie die Atome des Universums genannt werden, die Planetensystemen und Materieatomen mit chemischen Eigenschaften ähneln.

Nun werden wir gedanklich, hypothetisch, den Entwicklungsgang der Neutronenmaterie verfolgen, die durch die Zentrifugalkraft in Form von Jets aus dem Kern der Galaxis ausgestoßen wurde. Dieses ausgestoßene Neutronenmaterial war sehr dicht und sehr heiß. Mit Hilfe eines Ausstoßes aus dem Kern der Galaxie wurde diese Substanz von dem ungeheuren inneren Druck und der Unterdrückung der unendlich starken Schwerkraft befreit, begann sich schnell auszudehnen und abzukühlen. Beim Ausstoß von Neutronenmaterie aus dem Kern der Galaxie in Form von Jets erlangten die meisten Neutronen zusätzlich zu ihrer Fluchtbewegung auch Rotationsbewegungen um ihre imaginären Achsen, d.h. zurück. Natürlich begann diese neue Form der Bewegung, die durch das Neutron erworben wurde, eine neue Form der Materie hervorzubringen, d.h. eine Substanz mit chemischen Eigenschaften in Form von Atomen, von Wasserstoff bis zu den schwersten Elementen der D.I. Mendelejew.

Nach den Ausdehnungs- und Abkühlungsprozessen bildeten sich riesige Gas- und Staubmengen, stark verdünnte und kalte Nebel. Der umgekehrte Prozess hat begonnen, d.h. die Kontraktion einer Substanz mit chemischen Eigenschaften auf zahlreiche Schwerpunkte. Im Moment des Endes des Durchgehens von Materie mit chemischen Eigenschaften stellte sich heraus, dass es sich um hochverdünnte und kalte Gas- und Staubnebel von unvorstellbar großen Volumina handelte. Es entstanden zahlreiche Schwerpunkte, auch für die Teilchen der elementaren Materie des Mediums des Matrix-Vakuums. Im Verlauf der räumlichen und zeitlichen Entwicklung entstanden aus der zusammengezogenen Materie zu den Gravitationszentren Sternbilder, Einzelsterne, Planetensysteme und andere Objekte der Galaxis. Die entstehenden Sterne und andere Objekte der Galaxis unterscheiden sich stark in Masse, chemischer Zusammensetzung und Temperatur. Sterne, die große Massen absorbierten, entwickelten sich schnell. Sterne wie unsere Sonne haben längere Entwicklungszeiten.

Andere Objekte der Galaxie, die nicht die entsprechende Menge an Materie gewinnen, entwickeln sich sogar noch langsamer. Und solche Objekte der Galaxie, wie unsere Erde, konnten sich auch, ohne die entsprechende Menge an Masse zu gewinnen, in ihrer Entwicklung nur erwärmen und schmelzen, wobei die Wärme nur im Inneren des Planeten gehalten wurde. Aber dafür schufen diese Objekte optimale Bedingungen für die Entstehung und Entwicklung einer neuen Form von Materie, lebender Materie. Andere Objekte sind wie unsere ewigen Begleiter. Der Mond hat in seiner Entwicklung noch nicht einmal das Stadium der Erwärmung erreicht. Nach den ungefähren Definitionen von Astronomen und Physikern entstand unsere Sonne vor etwa vier Milliarden Jahren. Folglich erfolgte der Ausstoß von Neutronenmaterie aus dem Kern der Galaxie viel früher. In dieser Zeit fanden in den Spiralarmen der Galaxie Prozesse statt, die die Galaxie zu ihrer heutigen Form brachten.

Bei Sternen, die Dutzende oder mehr Sonnenmassen absorbiert haben, schreitet der Entwicklungsprozess sehr schnell voran. In solchen Objekten treten aufgrund ihrer großen Massen und aufgrund der hohen Schwerkraft viel früher Bedingungen für das Einsetzen thermonuklearer Reaktionen ein. Die resultierenden thermonuklearen Reaktionen laufen in diesen Objekten intensiv ab. Aber wenn der leichte Wasserstoff im Stern abnimmt, der durch eine thermonukleare Reaktion in Helium umgewandelt wird, nimmt die Intensität der thermonuklearen Reaktion ab. Und mit dem Verschwinden von Wasserstoff hört es vollständig auf. Infolgedessen fällt auch die Strahlung des Sterns stark ab und gleicht die Gravitationskräfte nicht mehr aus, die diesen großen Stern zusammendrücken.

Danach komprimieren Gravitationskräfte diesen Stern zu einem Weißen Zwerg mit sehr hoher Temperatur und hoher Materiedichte. In seiner weiteren Entwicklung, nachdem er die Energie des Zerfalls schwerer Elemente verbraucht hat, tritt der Weiße Zwerg unter dem Ansturm immer größer werdender Gravitationskräfte in die Schwarzschild-Sphäre ein. So wird aus einem Stoff mit chemischen Eigenschaften ein Neutronenstoff, d.h. in die verborgene Materie des Universums. Und seine Weiterentwicklung wird vorübergehend gestoppt. Es wird seine Entwicklung gegen Ende der Expansion des Universums fortsetzen. Die Prozesse, die im Inneren von Sternen wie unserer Sonne stattfinden sollten, beginnen mit einer allmählichen Komprimierung des Matrixvakuums durch die Umgebung, ein kaltes, stark verdünntes Medium aus Gas und Staub. Dadurch steigen Druck und Temperatur im Inneren des Objekts. Da der Verdichtungsprozess kontinuierlich und mit zunehmender Kraft abläuft, entstehen im Inneren dieses Objekts allmählich die Bedingungen für das Auftreten thermonuklearer Reaktionen. Die bei dieser Reaktion freigesetzte Energie beginnt, die Schwerkraft auszugleichen, und die Kompression des Objekts hört auf. Diese Reaktion setzt enorm viel Energie frei.

Es sollte jedoch beachtet werden, dass nicht nur die Energie, die im Objekt durch eine thermonukleare Reaktion freigesetzt wird, in die Strahlung in den Weltraum übergeht. Ein erheblicher Teil davon entfällt auf die Gewichtung leichter Elemente, angefangen bei Eisenatomen bis hin zu den schwersten Elementen. Denn der Vorgang des Wiegens erfordert viel Energie. Nach der Vakuumumgebung, d.h. Die Schwerkraft wird schnell zu einem weißen oder roten Zwergstern komprimiert. Danach beginnen Kernreaktionen innerhalb des Sterns stattzufinden, d.h. Zerfallsreaktionen schwerer Elemente auf Eisenatome. Und wenn es im Stern keine Energiequelle gibt, wird er zu einem Eisenstern. Der Stern wird allmählich abkühlen, seine Leuchtkraft verlieren und in Zukunft ein dunkler und kalter Stern sein. Seine räumliche und zeitliche Entwicklung in der Zukunft wird vollständig von der räumlichen und zeitlichen Entwicklung des Universums abhängen. Aufgrund der fehlenden Masse dafür wird ein Eisenstern nicht in die Schwarzschild-Sphäre eindringen. Jene Veränderungen in der expandierenden Materie des Universums, die nach dem sogenannten "Urknall" aufgetreten sind, werden in dieser Theorie bis heute beschrieben. Aber die Substanz des Universums zerstreut sich weiter.

Die Geschwindigkeit der austretenden Materie nimmt mit jeder Sekunde zu, und die Veränderungen in der Materie gehen weiter. Aus Sicht des dialektischen Materialismus werden Materie und ihre Bewegung nicht erschaffen und können nicht zerstört werden. Daher hat Materie in Mikro- und Megawelten eine absolute Geschwindigkeit, die gleich der Lichtgeschwindigkeit ist. Aus diesem Grund kann sich in unserer Vakuumumgebung kein materieller Körper über diese Geschwindigkeit hinaus bewegen. Da aber jeder materielle Körper nicht nur eine Bewegungsform hat, sondern auch eine Reihe anderer Bewegungsformen haben kann, zum Beispiel Translationsbewegung, Rotationsbewegung, Oszillationsbewegung, inneratomare Bewegung und eine Reihe anderer Formen. Daher hat der materielle Körper eine Gesamtgeschwindigkeit. Diese Gesamtgeschwindigkeit sollte auch die absolute Geschwindigkeit nicht überschreiten.

Daraus können wir Vermutungen über die Veränderungen anstellen, die in der sich ausdehnenden Materie des Universums auftreten sollten. Wenn die Geschwindigkeit der austretenden Materie des Universums mit jeder Sekunde zunimmt, dann nimmt die intraatomare Bewegungsgeschwindigkeit direkt proportional zu, d.h. die Geschwindigkeit des Elektrons um den Atomkern herum nimmt zu. Auch die Spins von Proton und Elektron nehmen zu. Die Rotationsgeschwindigkeit der materiellen Objekte, die Drehmomente haben, wird ebenfalls zunehmen, d.h. Kerne von Galaxien, Sternen, Planeten, „Schwarzen Löchern“ aus Neutronenmaterie und anderen Objekten des Universums. Beschreiben wir vom Standpunkt dieser Theorie aus den Zerfall eines Stoffes mit chemischen Eigenschaften. Der Zersetzungsprozess einer Substanz mit chemischen Eigenschaften verläuft also schrittweise. Wenn sich die Geschwindigkeit der expandierenden Materie des Universums ändert, nehmen die Umfangsgeschwindigkeiten von Objekten, die Drehmomente hatten, zu. Der Boden der erhöhten Zentrifugalkraft zerlegt Sterne, Planeten und andere Objekte des Universums in Atome.

Das Volumen des Universums ist mit einer Art Gas gefüllt, das aus verschiedenen Atomen besteht, die sich zufällig im Volumen bewegen. Die Prozesse des Zerfalls von Materie mit chemischen Eigenschaften gehen weiter. Die Spins von Protonen und Elektronen nehmen zu. Aus diesem Grund nehmen die abstoßenden Momente zwischen Protonen und Elektronen zu. Die Vakuumumgebung hört auf, diese abstoßenden Momente auszugleichen, und die Atome zerfallen, d.h. Elektronen verlassen Atome. Es entsteht aus einem Stoff mit den chemischen Eigenschaften eines Plasmas, d.h. Protonen und Elektronen werden sich zufällig getrennt im Volumen des Universums vermischen. Nach dem Zerfall von Materie mit chemischen Eigenschaften beginnen sie aufgrund der Zunahme der Geschwindigkeit der expandierenden Materie des Universums zu zerfallen oder vielmehr in Partikel der elementaren Materie der Vakuumumgebung, der Kerne von Galaxien, zu zerfallen. Schwarze Löcher", Neutronen, Protonen und Elektronen. Das Volumen des Universums ist noch vor dem Ende der Expansion mit einer Art Gas aus den Elementarteilchen der Substanz des Vakuummediums gefüllt. Diese Teilchen bewegen sich zufällig im Volumen des Universums, und die Geschwindigkeit dieser Teilchen nimmt jede Sekunde zu. Somit wird es auch vor dem Ende der Expansion nichts im Universum geben, außer einer Art Gas (Abb. 9.3).

Reis. 9.3. Maximal erweitertes Universum: 1 – Matrix-Vakuumumgebung; 2 - die Sphäre des maximal erweiterten Universums; 3 - der einzigartige Punkt des Universums - dies ist der Moment der Geburt des jungen Universums; 4 - gasförmiges Medium aus Elementarteilchen der Substanz des Mediums des Matrixvakuums

Schließlich ist die Substanz des Universums, d.h. Das eigentümliche Gas hält für einen Moment an, dann nimmt es unter dem Druck der Reaktionsreaktion des Matrix-Vakuummediums schnell Fahrt auf, jedoch in die entgegengesetzte Richtung, zum Schwerpunkt des Universums (Abb. 9.4).

Reis. 9.4. Universum in der Anfangsphase der Kontraktion: 1 – Matrix Vakuummedium; 2 – Materie aus Elementarteilchen, die zum Zentrum hin fallen; 3 – Einfluss der Umgebung des Matrixvakuums des Universums; 4 - Fallrichtungen von elementaren Materieteilchen; 5 - Erweitern des einzelnen Volumens

Der Prozess der Kompression des Universums und der Prozess des Zerfalls seiner Substanz werden in dieser Theorie zu einem Konzept zusammengefasst - dem Konzept des Gravitationskollaps des Universums. Gravitationskollaps ist eine katastrophal schnelle Kompression massiver Körper unter dem Einfluss von Gravitationskräften. Lassen Sie uns den Prozess des Gravitationskollaps des Universums genauer beschreiben.

Gravitationskollaps des Universums

Die moderne Wissenschaft definiert den Gravitationskollaps als eine katastrophal schnelle Kompression massiver Körper unter dem Einfluss von Gravitationskräften. Eine Frage kann aufkommen. Warum ist es notwendig, diesen Prozess des Universums in dieser Theorie zu beschreiben? Die gleiche Frage stellte sich zu Beginn der Beschreibung der Evolution des Einstein-Friedmann-Universums, d.h. nichtstationäres Universum. Wenn in der ersten Beschreibung ein wahrscheinliches Modell eines Medienpartikels der ersten Art von verschiedenen Ebenen vorgeschlagen wurde. Gemäß dieser Theorie wurde unser Universum als Teilchen des Mediums der ersten Ebene definiert und ist ein sehr massiver Körper. Diese zweite Beschreibung, d.h. Der Mechanismus des Gravitationskollaps des Universums ist auch für die korrekte Vorstellung vom Ende des Zyklus der Existenz des Universums in Raum und Zeit notwendig.

Wenn wir kurz das Wesentliche des Zusammenbruchs des Universums darlegen, dann ist dies die Reaktion des Matrix-Vakuummediums auf sein maximal ausgedehntes Volumen. Der Prozess der Kompression des Universums durch die Vakuumumgebung ist der Prozess der Wiederherstellung seiner vollen Energie. Darüber hinaus ist der gravitative Kollaps des Universums der umgekehrte Prozess des Prozesses der Entstehung von Materie im Matrix-Vakuummedium, d.h. Angelegenheit des neuen jungen Universums. Früher wurde über die Veränderungen in der Materie des Universums durch die Zunahme der Geschwindigkeit seiner sich zurückziehenden Materie gesprochen. Durch diese Geschwindigkeitssteigerung zerfällt die Materie des Universums in Elementarteilchen des Vakuummediums. Dieser Zerfall der Materie, die in verschiedenen Formen und Zuständen vorlag, fand lange vor Beginn der Verdichtung des Universums statt. Zu einer Zeit, als sich das Universum noch ausdehnte, befand sich in seinem Volumen eine Art Gas, das dieses gesamte expandierende Volumen gleichmäßig ausfüllte. Dieses Gas bestand aus Elementarteilchen der Substanz des Matrix-Vakuummediums, die sich zufällig in diesem Volumen bewegten, d.h. in alle Richtungen. Die Geschwindigkeit dieser Teilchen nahm jede Sekunde zu. Die Resultierende all dieser chaotischen Verschiebungen wird an die Peripherie des sich ausdehnenden Universums gelenkt.

In dem Moment, in dem die Geschwindigkeit der chaotischen Bewegung von Teilchen einer Art Gas auf Nullgeschwindigkeit fällt, wird die gesamte Substanz des Universums in ihrem gesamten Volumen für einen Moment anhalten, und von Nullgeschwindigkeit in ihrem gesamten Volumen es beginnt schnell an Geschwindigkeit zuzunehmen, aber in die entgegengesetzte Richtung, d.h. zum Schwerpunkt des Universums. Im Moment des Beginns seiner Kompression findet der Fallprozess der Materie entlang des Radius statt. Nach 1,5 ... 2 Sekunden nach dem Moment des Beginns findet der Zerfallsprozess von Partikeln elementarer Materie statt, d.h. Materie des alten Universums. Bei diesem Fallvorgang der Materie des alten Universums im gesamten Volumen sind Kollisionen von Teilchen aus diametral entgegengesetzten Richtungen unvermeidlich, die nach dieser Theorie Teilchen des Matrix-Vakuummediums in ihrer Struktur enthalten. Sie bewegen sich im Vakuummedium mit Lichtgeschwindigkeit, d.h. tragen Sie die maximale Menge an Bewegung. Bei der Kollision erzeugen diese Teilchen das anfängliche Medium mit singulärem Volumen im Zentrum des sich zusammenziehenden Universums, d.h. am singulären Punkt. Was ist diesen Mittwoch? Dieses Medium wird aus zusätzlichen Partikeln des Matrixvakuums und gewöhnlichen Vakuumpartikeln gebildet. Überschüssige Teilchen bewegen sich in diesem Volumen mit Lichtgeschwindigkeit relativ zu den Teilchen dieses Volumens. Das Medium des singulären Volumens selbst dehnt sich mit Lichtgeschwindigkeit aus, und diese Ausdehnung ist auf die Peripherie des schrumpfenden Universums gerichtet.

Der Zerfallsprozess der Materie des alten Universums umfasst also zwei Prozesse. Der erste Vorgang ist der Fall der Substanz des alten Universums mit Lichtgeschwindigkeit zum Schwerpunkt. Der zweite Prozess ist die Expansion des singulären Volumens, ebenfalls mit Lichtgeschwindigkeit, in Richtung der fallenden Materie des alten Universums. Diese Prozesse laufen fast gleichzeitig ab.

Reis. 9.5. Ein sich neu entwickelndes Universum im Raum eines erweiterten singulären Volumens: 1 – Matrixvakuummedium; 2 – Materiereste von Elementarteilchen, die zum Zentrum fallen; 3 - Gammastrahlung; 4 – maximale Masse Einzelvolumen; 5 ist der Radius des maximal ausgedehnten Universums

Das Ende des Prozesses des Fallens der Materie des alten Universums in das Medium des singulären Volumens führt zum Beginn des Prozesses des Entstehens der Materie des neuen jungen Universums (Abb. 5.9). Die austretenden Elementarteilchen des Mediums des Matrixvakuums der Oberfläche des singulären Volumens streuen chaotisch mit einer Anfangsgeschwindigkeit von 1/9 der Lichtgeschwindigkeit.

Der Vorgang des Fallens der Materie des alten Universums und die Ausdehnung des singulären Volumens sind mit Lichtgeschwindigkeit aufeinander gerichtet, und die Bahnen ihrer Bewegung müssen gleich sein. Anhand dieser Phänomene lässt sich auch der Gesamtradius des maximal ausgedehnten Universums bestimmen. Sie entspricht dem doppelten Weg der sich zurückziehenden neu entstandenen Substanz mit einer anfänglichen Rückzugsgeschwindigkeit von 1/9 der Lichtgeschwindigkeit. Hier wird die Antwort auf die Frage liegen, warum die Beschreibung des Gravitationskollaps des Universums notwendig ist.

Nachdem in dieser Theorie der Entstehungs- und Entwicklungsprozess unseres Universums in Raum und Zeit dargestellt wurde, ist es auch notwendig, seine Parameter zu beschreiben. Zu diesen Hauptparametern gehören:

  1. Bestimmen Sie die Beschleunigung der zurückweichenden Materie des Universums in einer Sekunde.
  2. Bestimmen Sie den Radius des Universums zum Zeitpunkt seiner Ausdehnung der Materie.
  3. Bestimmen Sie die Zeit in Sekunden des Expansionsprozesses des Universums vom Beginn bis zum Ende der Expansion.
  4. Bestimmen Sie die Fläche der Kugel der ausgedehnten Masse der Materie des Universums in Quadratmetern. km.
  5. Bestimmen Sie die Anzahl der Teilchen des Matrix-Vakuummediums, die auf die Fläche der maximal ausgedehnten Materiemasse im Universum passen, und ihre Energie.
  6. Bestimmen Sie die Masse des Universums in Tonnen.
  7. Bestimmen Sie die Zeit bis zum Ende der Expansion des Universums.

Wir bestimmen die Beschleunigung der zurückweichenden Materie des Universums, die Zunahme der Rückzugsgeschwindigkeit in einer Sekunde. Um dieses Problem zu lösen, werden wir die Ergebnisse verwenden, die zuvor von der Wissenschaft entdeckt wurden, wie Albert Einstein in der allgemeinen Relativitätstheorie feststellte, dass das Universum endlich ist. Und Friedman sagte, dass sich das Universum derzeit ausdehnt und dann zusammenzieht. Die Wissenschaft ist mit Hilfe von Radioteleskopen fünfzehn Milliarden Lichtjahre in den Abgrund des Universums vorgedrungen. Anhand dieser Daten können die gestellten Fragen beantwortet werden.

Aus der Kinematik ist bekannt:

S = v 0 – beim 2 /2,

wo v 0 ist die anfängliche Startgeschwindigkeit der Materie des Universums und entspricht nach dieser Theorie einem Neuntel der Lichtgeschwindigkeit, d.h. 33.333 km/s.

S = Vtbeim 2 /2,

wo v 0 – Anfangsgeschwindigkeit; S- Die Entfernung des Pfades, der dem Lichtpfad für fünfzehn Milliarden Jahre in Kilometern entspricht, beträgt 141912 10 18 km (dieser Pfad entspricht der Entfernung der sich zurückziehenden Materie des Universums zum gegenwärtigen Zeitpunkt). ; t– Zeit gleich 15·10 9 Jahre, in Sekunden – 47304·10 13 .

Bestimmen Sie die Beschleunigung:

a = 2 (Sv 0 · t) 2 / t= 2 / 5637296423700 km/s.

Berechnen Sie die Zeit, die für die vollständige Expansion des Universums benötigt wird:

S = v 0 · t + beim 2 /2.

Beim S = 0:

v 0 · t + beim 2 /2 = 0.

t= 29792813202 Jahre

Bis zum Ende der Verlängerung übrig:

t- 15 10 9 \u003d 14792913202 Jahre.

Wir bestimmen den Wert des Weges der expandierenden Materie des Universums vom Beginn der Expansion bis zum Ende der Expansion.

In der Gleichung:

S = v 0 · t + beim 2 /2

Materialaustrittsgeschwindigkeit v 0 = 0, dann

S = v 0 2 / 2a= 15669313319741 10 9 km.

Wie bereits früher erwähnt, fällt der Moment des Aufhörens der Massenzunahme des singulären Volumens mit dem Moment des Endes der Kompression des alten Universums zusammen. Das heißt, die Existenz eines singulären Volumens fällt fast mit der Zeit der Zerstreuung der Materie zusammen:

S = v 0 · t.

Aus Sicht des dialektischen Materialismus folgt daraus, dass wenn ein Ende für ein Naturphänomen kommt, dies der Beginn eines anderen Naturphänomens ist. Es stellt sich natürlich die Frage, wie beginnt die Streuung der neu entstandenen Materie des neuen jungen Universums?

In dieser Theorie ist Beschleunigung definiert, d.h. Zunahme der Geschwindigkeit der expandierenden Materie des Universums. Auch der Zeitpunkt der maximalen, vollständigen Expansion des Universums wird bestimmt, d.h. auf Geschwindigkeit Null. Der Veränderungsprozess in der expandierenden Materie des Universums wird beschrieben. Ferner wurde der physikalische Prozess des Zerfalls der Materie des Universums vorgeschlagen.

Nach der Berechnung in dieser Theorie besteht der wahre Radius des maximal ausgedehnten Universums aus zwei Bahnen, d.h. der Radius des singulären Volumens und der Weg der expandierenden Materie des Universums (Abb. 5.9).

Nach dieser Theorie wird die Substanz des Matrixvakuummediums aus Partikeln des Vakuummediums gebildet. Für die Bildung dieser Substanz wurde Energie aufgewendet. Die Masse eines Elektrons ist eine der Materieformen im Vakuummedium. Um die Parameter des Universums zu bestimmen, ist es notwendig, die kleinste Masse zu bestimmen, d.h. die Masse eines Partikels des Mediums des Matrixvakuums.

Die Masse eines Elektrons ist:

M e \u003d 9,1 10 -31 kg.

In dieser Theorie besteht ein Elektron aus Elementarteilchen der Substanz des Matrixvakuummediums, d.h. elementare Wirkungsquanten:

M E-Mail = h · n.

Daraus lässt sich die Anzahl der zusätzlichen Teilchen des Matrix-Vakuummediums bestimmen, die in der Struktur der Elektronenmasse enthalten sind:

9,1 10 -31 kg = 6,626 10 -34 J s n,

wo n ist die Anzahl der überschüssigen Teilchen des Matrix-Vakuummediums, die in der Struktur der Elektronenmasse enthalten sind.

Lassen Sie uns im linken und rechten Teil der Gleichung J s und kg reduzieren, weil Die elementare Masse eines Stoffes stellt die Bewegungsmenge dar:

N= 9,1 10 -31 / 6,626 10 -34 = 1373.

Bestimmen wir die Anzahl der Teilchen des Matrix-Vakuummediums in einem Gramm Masse.

M el / 1373 = 1 gr / k,

wo k- die Anzahl der Partikel des Vakuummediums in einem Gramm.

k = 1373 / M el \u003d 1,5 10 30

Die Anzahl der Teilchen des Vakuummediums in der Masse einer Tonne Materie:

m = k 10 6 \u003d 1,5 10 36.

Diese Masse beinhaltet 1/9 der Impulse des Vakuummediums. Dies ist die Anzahl der Elementarimpulse in der Masse einer Tonne Materie:

N = m/ 9 \u003d 1,7 10 35.

v e = 4π r 3/3 \u003d 91,0 · 10 -39 cm 3,

wo r ist der klassische Elektronenradius.

Bestimmen wir das Volumen eines Teilchens des Matrix-Vakuummediums:

v mv = v e / 9π \u003d 7,4 · 10 -42 cm.

Wo finden wir den Radius und die Querschnittsfläche eines Partikels des Matrix-Vakuummediums:

R mv = (3 v mv / 4π) 1/3 \u003d 1,2 · 10 -14 cm.

S mv = π R mv \u003d 4,5 10 -38 km 2.

Um die Energiemenge zu bestimmen, die in dem unwiderstehlich großen Volumen des Empfängers enthalten ist, muss daher die Oberfläche dieses Empfängers berechnet werden, d. H. Bereich des maximal expandierten Universums

S sq. = 4π R 2 \u003d 123206365 10 38 km 2.

Bestimmen wir die Anzahl der Teilchen des Matrix-Vakuummediums, die auf der Fläche der Kugel der maximal ausgedehnten Masse der Materie des Universums untergebracht werden können. Dazu wird der Wert benötigt S sq. Fläche geteilt durch die Querschnittsfläche eines Partikels des Matrix-Vakuummediums:

Z im = S sq. / S c \u003d 2,7 10 83.

Nach dieser Theorie erfordert die Bildung eines Elementarteilchens des Matrix-Vakuummediums die Energie von zwei Elementarimpulsen. Die Energie eines Elementarimpulses wird für die Bildung eines Teilchens der Elementarsubstanz des Matrix-Vakuummediums aufgewendet, und die Energie eines anderen Elementarimpulses verleiht diesem Substanzteilchen die Bewegungsgeschwindigkeit im Vakuummedium, die einem Neuntel entspricht die Lichtgeschwindigkeit, d.h. 33.333 km/s.

Daher erfordert die Bildung der gesamten Materiemasse im Universum die Hälfte der Anzahl von Teilchen des Matrix-Vakuummediums, die in einer Schicht seine maximal ausgedehnte Materiemasse ausfüllen:

K = Z c / 2 \u003d 1,35 10 83.

Um einen der Hauptparameter des Universums zu bestimmen, d.h. Masse in Tonnen oder der Substanz des Vakuummediums ist es notwendig, die Hälfte ihrer Anzahl von Elementarimpulsen durch die Anzahl von Elementarimpulsen zu dividieren, die in einer Tonne der Substanz des Vakuummediums enthalten sind

M = K / N= 0,8 10 48 Tonnen

Die Anzahl der Partikel des Vakuummediums, die den Bereich der Kugel mit der maximal ausgedehnten Masse der Materie des Universums in einer Schicht füllen. Und nach dem Prinzip des Empfängers, das in dieser Theorie akzeptiert wird. Diese Teilchenzahl ist die Zahl der elementaren Impulse, die die Masse der Materie bilden und in der Struktur des Universums enthalten sind. Diese Anzahl elementarer Impulse ist die Energie des Universums, die von der gesamten Masse der Materie geschaffen wird. Diese Energie entspricht der Anzahl der elementaren Impulse des Mediums multipliziert mit der Lichtgeschwindigkeit.

W = Z in s \u003d 2,4 10 60 kg m / s

Nach dem oben Gesagten kann eine Frage aufkommen. Was ist die Natur der Expansion und Kontraktion unseres Universums?

Nach der Bestimmung der Grundparameter des Universums: Radius, Masse, Expansionszeit und seine Energie. Es ist zu beachten, dass das maximal expandierte Universum die Arbeit mit seiner sich zurückziehenden Materie verrichtet hat, d.h. mit seiner Energie, in der Vakuumumgebung durch die Kraftausdehnung der Partikel der Matrix-Vakuumumgebung, die Kompression dieser Partikel um ein Volumen, das gleich dem Volumen der gesamten Substanz des Universums ist. Und folglich wurde diese von der Natur bestimmte Energie für diese Arbeit aufgewendet. Gemäß dem in dieser Theorie angenommenen Big-Receiver-Prinzip und der natürlichen Elastizität des Vakuummediums kann der Expansionsprozess des Universums wie folgt formuliert werden.

Am Ende der Expansion erhalten die Teilchen der erweiterten Sphäre des Universums gleiche Abstoßungsmomente wie die Teilchen des Vakuummediums, die diese Sphäre umgeben. Dies ist die Ursache für das Ende der Expansion des Universums. Aber die umschließende Hülle des Vakuummediums hat ein größeres Volumen als die äußere Hülle der Sphäre des Universums. Dieses Axiom erfordert keinen Beweis. In dieser Theorie haben die Teilchen des Matrix-Vakuummediums eine innere Energie von 6,626·10 –27 erg·s. Oder die gleiche Menge an Bewegung. Aus der Ungleichheit der Volumina ergibt sich auch die Ungleichheit der Bewegungsmengen, d.h. zwischen der Sphäre des Universums und der Vakuumumgebung Die Gleichheit der Abstoßungsmomente zwischen den Teilchen, der maximal ausgedehnten Sphäre des Universums und den Teilchen des Matrixvakuummediums, die diese Sphäre umschließen, stoppte die Expansion des Universums. Diese Gleichheit dauert einen Augenblick. Dann beginnt diese Substanz des Universums schnell, die Bewegungsgeschwindigkeit zu erhöhen, aber in die entgegengesetzte Richtung, d.h. zum Schwerpunkt des Universums. Die Kompression von Materie ist die Antwort des Vakuummediums. Gemäß dieser Theorie ist die Reaktion des Matrix-Vakuummediums gleich der absoluten Lichtgeschwindigkeit.


Wir präsentieren Ihnen eine völlig neue Sicht auf die Entstehung des Universums, entwickelt von einer Gruppe theoretischer Physiker der University of Indiana und präsentiert von Nikodim Poplavsky, einem Mitarbeiter dieser Universität.
Jedes Schwarze Loch enthält ein neues Universum, unseres ist keine Ausnahme, es existiert auch in einem Schwarzen Loch. Eine solche Aussage mag seltsam erscheinen, aber diese Annahme erklärt am besten die Geburt des Universums und den Verlauf aller Prozesse, die wir heute beobachten.
Die Standardtheorie des Urknalls beantwortet viele Fragen nicht. Es deutet darauf hin, dass das Universum als „Singularität“ eines unendlich kleinen Punktes begann, der eine unendlich hohe Konzentration von Materie enthielt, die seine Größe auf den Zustand ausdehnt, den wir heute beobachten. Die Theorie der Inflation, der superschnellen Ausdehnung des Weltraums, beantwortet natürlich viele Fragen, etwa warum nicht große Stücke konzentrierter Materie in der frühen Entwicklungsphase des Universums sich zu großen Himmelskörpern zusammenschlossen: Galaxien und Haufen von Galaxien. Doch viele Fragen bleiben unbeantwortet. Zum Beispiel: Was begann nach dem Urknall? Was hat den Urknall verursacht? Was ist die Quelle der mysteriösen dunklen Energie, die von jenseits der Grenzen des Universums kommt?
Die Theorie, dass sich unser Universum vollständig in einem Schwarzen Loch befindet, gibt Antworten auf diese und viele andere Fragen. Es schließt die Vorstellung von physikalisch unmöglichen Merkmalen unseres Universums aus. Und es stützt sich auf zwei zentrale Theorien der Physik.
Erstens ist es die allgemeine Relativitätstheorie, die moderne Gravitationstheorie. Es beschreibt das Universum in großem Maßstab. Jedes Ereignis im Universum wird als Punkt im Raum, in der Zeit und in der Raumzeit betrachtet. Massive Objekte wie die Sonne verzerren oder erzeugen "Kurven" der Raumzeit, vergleichbar mit einer Bowlingkugel, die auf einer schwebenden Leinwand ruht. Eine Gravitationsdelle von der Sonne verändert die Bewegung der Erde und anderer Planeten, die sie umkreisen. Die Anziehung der Planeten durch die Sonne erscheint uns als Schwerkraft.
Der zweite Hauptsatz der Quantenmechanik, auf dem die neue Theorie basiert, beschreibt das Universum auf den kleinsten Skalen, etwa einem Atom und anderen Elementarteilchen.
Derzeit streben Physiker danach, Quantenmechanik und Allgemeine Relativitätstheorie zu einer einzigen Theorie der „Quantengravitation“ zu vereinen, um die wichtigsten Naturphänomene angemessen zu beschreiben, darunter auch das Verhalten subatomarer Teilchen in Schwarzen Löchern.
In den 1960er Jahren wurde eine Anpassung der Allgemeinen Relativitätstheorie zur Berücksichtigung der Auswirkungen der Quantenmechanik als Einstein-Carton-Sciama-Kibble-Schwerkrafttheorie bezeichnet. Es bietet nicht nur einen neuen Schritt zum Verständnis der Quantengravitation, sondern schafft auch ein alternatives Bild der Welt. Diese Variation der Allgemeinen Relativitätstheorie beinhaltet eine wichtige Quanteneigenschaft der Mutter, die als SPINOM bekannt ist.
Die kleinsten Teilchen, wie Atome und Elektronen, haben SPINOM oder inneren Drehimpuls, ähnlich der Drehung eines Schlittschuhläufers auf Eis. In diesem Bild interagiert der SPIN von Teilchen mit der Raumzeit und verleiht ihr eine Eigenschaft namens "Torsion". Um diese Verdrehung zu verstehen, stellen Sie sich den Raum nicht als zweidimensionale Leinwand vor, sondern als flexiblen eindimensionalen Stab. Die Biegung des Stabes entspricht einer raumzeitlichen Verdrehung. Wenn die Stange dünn ist, können Sie sie verdrehen, aber es ist schwer zu sehen, ob sie verdreht ist oder nicht.
Die Verdrehung des Weltraums sollte in einem frühen Stadium der Entstehung des Universums oder in einem Schwarzen Loch bemerkbar oder vielmehr sehr signifikant sein. Unter diesen extremen Bedingungen sollte sich die Verdrehung der Raumzeit als Abstoßungskraft oder Schwerkraft für die nächsten Objekte aus der Krümmung der Raumzeit manifestieren.
Wie bei der Standardversion der Allgemeinen Relativitätstheorie fallen sehr massereiche Sterne am Ende in Schwarze Löcher: Bereiche des Weltraums, aus denen nichts, nicht einmal Licht, entkommen kann.
Welche Rolle kann der Verdrehungsprozess im Anfangsmoment der Geburt des Universums spielen:
Zunächst wird die Anziehungskraft des gekrümmten Raums es ermöglichen, die Verdrehung in eine abstoßende Kraft umzuwandeln, was zum Verschwinden der Materie in kleineren Regionen des Raums führt. Aber dann wird der Verdrehungsprozess sehr stark, verwandelt sich in einen Punkt unendlicher Dichte und erreicht einen Zustand extrem großer, aber endlicher Dichte. Da Energie in Masse umgewandelt werden kann, kann die sehr hohe Gravitationsenergie in diesem extrem dichten Zustand eine intensive Partikelerzeugung verursachen, die die Masse im Inneren des Schwarzen Lochs stark erhöht.
Eine zunehmende Anzahl von Teilchen mit SPIN wird zu einem höheren Grad an raumzeitlicher Verdrehung führen. Das abstoßende Moment der Verdrehung kann den Kollaps der Materie stoppen und zuvor den Effekt eines „großen Aufpralls“ erzeugen, der einem aus dem Wasser fliegenden Ball ähnelt, was zu dem Prozess eines expandierenden Universums führen wird. Als Ergebnis beobachten wir die Prozesse der Massenverteilung, Form und Geometrie des Universums, die diesem Phänomen entsprechen.
Der Torsionsmechanismus wiederum bietet ein erstaunliches Szenario, nach dem jedes Schwarze Loch in der Lage ist, ein neues, junges Universum in sich zu produzieren.
Somit kann sich unser eigenes Universum in einem Schwarzen Loch befinden, das sich in einem anderen Universum befindet.
So wie wir nicht sehen können, was in einem Schwarzen Loch passiert, können Beobachter im Mutteruniversum nicht sehen, was in unserer Welt passiert.
Die Bewegung von Materie durch die Grenze eines Schwarzen Lochs wird als "Ereignishorizont" bezeichnet und erfolgt nur in einer Richtung, die die Richtung des Zeitvektors angibt, die wir als Vorwärtsbewegung wahrnehmen.
Den Zeitpfeil in unserem Universum haben wir vom Elternuniversum durch den Prozess des Verdrehens geerbt.
Die Verdrehung kann auch das beobachtete Ungleichgewicht zwischen Materie und Antimaterie im Universum erklären. Schließlich könnte der Verdrehungsprozess die Quelle dunkler Energie sein, einer mysteriösen Energieform, die unseren gesamten Raum durchdringt und die Expansionsrate des Universums erhöht. Die verdrehte Geometrie erzeugt eine "kosmologische Konstante", die sich auf äußere Kräfte erstreckt und die einfachste Art ist, die Existenz dunkler Energie zu erklären. Daher könnte die beobachtete beschleunigte Expansion des Universums der stärkste Beweis für einen Verdrehungsprozess sein.
Twisting liefert daher die theoretische Grundlage für ein Szenario, in dem in jedem Schwarzen Loch ein neues Universum existiert. Dieses Szenario dient auch als Mittel zur Lösung mehrerer wichtiger Probleme in der modernen Gravitationstheorie und Kosmologie, obwohl die Physiker noch die Quantenmechanik von Einstein-Carton-Sciama-Kibble mit der Quantentheorie der Gravitation kombinieren müssen.
Inzwischen wirft das neue Verständnis kosmischer Prozesse andere wichtige Fragen auf. Was wissen wir zum Beispiel über das Mutteruniversum und das Schwarze Loch, das unser eigenes Universum enthält? Wie viele Schichten des Mutteruniversums haben wir? Wie können wir überprüfen, ob sich unser Universum in einem Schwarzen Loch befindet?
Möglicherweise können letztere Fragen untersucht werden, da sich alle Sterne und Schwarzen Löcher drehen, unser Universum sollte die Rotationsachse des Mutteruniversums als "bevorzugte Richtung" geerbt haben.
Eine kürzlich durchgeführte Untersuchung von 15.000 Galaxien in einer Hemisphäre des Universums ergab, dass sie "links" sind, dh im Uhrzeigersinn rotieren, während sich die Galaxien auf der anderen Hemisphäre "rechts" oder gegen den Uhrzeigersinn drehen. Aber diese Entdeckung bedarf noch der Reflexion. Jedenfalls ist jetzt klar, dass der Prozess des Verdrehens in der Geometrie der Raumzeit der richtige Schritt zu einer erfolgreichen Theorie der Kosmologie ist.

Die Kosmologie lässt sich bedingt in drei Bereiche einteilen. 1. Stationäres Universum mit einem einheitlichen Ansatz über die Alterung der Strahlung proportional zu ~ t ½ , Variationen dieses Modells ermöglichen die Lösung fast aller kosmologischen Probleme, außer einem - das ist Reliktstrahlung. Ein Relikt, wie Strahlung, altert auch, dann war seine Energie in ferner Vergangenheit viel höher, bis hin zum Plasmazustand aller Materie, d.h. Das Universum muss sich im Laufe der Zeit verändern, was der Essenz des Begriffs Stationarität widerspricht. 2. Vielseitiges Universum - Nullstartvariante der Gesamtenergie. Im Hyperraum kann sich eine unzählige Menge von Universen bilden, und jedes hat seine eigene Physik, seine eigenen Gesetze, dies sind einmalig ausgewogene Modelle. Dunkle Energie hat die Machbarkeit dieser Richtung in Frage gestellt: Die Null-Start-Variante der Gesamtenergie wird verletzt, was automatisch zu einem Ungleichgewicht führt, das Universum beginnt sich schnell auszudehnen. 3. Das zyklische Universum galt bis in die 80er Jahre als die vielversprechendste Richtung, daher weist es eine große Vielfalt an physikalischen Konstruktionen auf. Aber im Moment passt es überhaupt nicht zur kosmologischen Beschleunigung, es gibt keine Übergangsphase von Expansion zu Kontraktion. Sie sind eingeladen, einen wissenschaftlichen Artikel zu betrachten, in dem Sie auf der Grundlage eines neuen Ansatzes zur physikalischen Essenz des Gleichgewichts der Dynamik der Entwicklung des Universums die Natur des Ursprungs der dunklen Materie und der dunklen Energie, die Anomalie von erklären können die Pioniere, die physikalische Bedeutung des Verhältnisses großer Zahlen und teilweise ein neuer Blick auf das anthropische Prinzip.

Abkürzungen

BV --- Urknall

VYA --- Vakuumzelle

GK --- Gravitationskollaps

GZ --- Gravitationsladung

Rnrnrn rnrnrn rnrnrn

GP --- Gravitationspotential

EC --- Elementarteilchen

FV --- physikalisches Vakuum

SRT --- Spezielle Relativitätstheorie

GR --- Allgemeine Relativitätstheorie

QED --- Quantenelektrodynamik

ZSE --- Energieerhaltungssatz

Theorie eines einheitlichen physikalischen Universums (TEPV)

Die verwendete Matte/das verwendete Gerät ist nur ein Hinweis.

Bevor wir uns mit der Essenz des TEPW befassen, ist es notwendig, moderne theoretische und experimentelle Entwicklungen in der Entstehung und Entwicklung des Universums zu betrachten, dann wird es für uns einfacher sein, das Auftauchen von Fragen zu sehen, die noch nicht beantwortet wurden. Beginnen wir mit dem ursprünglichen Grundmaterial, der BV-Theorie mit einer Version des inflationären Anfangs.

Rnrnrn rnrnrn rnrnrn

Inflationäres Universum (entworfen von A. Gut A. Linde)

Jede Wirkung braucht eine Ursache. Inflation ist eine Folge, die Ursache fehlt eindeutig. Betrachten wir die Frage der Wechselwirkungen rein philosophisch. Alle Theorien über das Universum stimmen darin überein, dass zu Beginn von BV alle Kräfte vereint waren, es gab eine einzige Supermacht (Theory of Supergravity oder Superstrings). Als sich das Universum ausdehnte, trennten sich die Kräfte und erlangten ihre Individualität in Form von fundamentalen Konstanten. In der Zukunft durchlief das Universum eine ganze Phase von Transformationen, um das Ausgangsmaterial in Form von EC und Quanten zu erhalten. Es stellt sich die Frage: Wenn dieses Prinzip einmalig ist (ein offenes Modell des Universums), wie kann das geborene Universum dann von der Existenz aller Kräfte wissen, wenn es vorher nichts als PV gab. Die Natur kann sich nicht selbst erfinden und Vielfalt schaffen, was bedeutet, dass diese Kräfte geschlossen, irgendwo in der PV enthalten waren. Jedes Naturgesetz wird in der Realität gebildet und wirkt, mit anderen Worten, um eine Wechselwirkung zu schließen, müssen Sie zuerst wirklich existieren (handeln). Und das bedeutet: Vor dem BV muss das Universum existiert haben, das sich geschlossen und den Mechanismus des BV in Gang gesetzt hat, d.h. Das Universum ist zyklisch (geschlossenes Modell des Universums). Dann, welche Art von Kraft oder Kräften den Zyklus des Universums regieren, spielt zweifellos die Schlüsselrolle in diesem Prozess das Gleichgewicht der Dynamik der Entwicklung des Universums.

Was ist die Essenz des Gleichgewichts?

Laut Friedman kann das Universum offen oder geschlossen sein. Balance ist nur die Linie zwischen offen und geschlossen, d.h. "Inflation" schuf die Bedingungen für die Gleichheit der Explosionskraft in der zukünftigen Trägheit mit der Schwerkraft des Weltraums. Um zu verstehen, was die Essenz dieser Gleichheit ist, lassen Sie uns das ideale Universum in Übereinstimmung mit der strengen Lösung des BV-Szenarios modellieren, indem wir vergängliche theoretische EPs einführen. Wir betrachten die anfänglichen Startbedingungen der BV als die Planck-Ära, den Anfangszustand nach der Inflation, dann ist die EP-Masse gleich der Planck-Masse M-Planke=10 -8 kg Abstand zwischen ihnen LPlanke\u003d 10 -35 m, die Startgeschwindigkeit der Expansion ist gleich der Lichtgeschwindigkeit. Die Expansion des Universums gehorchte den folgenden Gesetzen (aus der BV-Theorie). Lassen n- die Anzahl der Teilchen, die entlang der Linie des Durchmessers des Universums passen, dann die Expansionsrate, während der Zeit des Signaldurchgangs zwischen benachbarten Teilchen (Schichten), ausgehend von Mit fällt wie vext.=C/n, (wo n= 1,2. usw.), d. h. Zum Zeitpunkt der BV waren alle Partikel kausal unabhängig, bzw. die Abstände zwischen benachbarten Schichten wachsen mit Lext=LPlanke*n, in der gleichen Reihenfolge nimmt laut QED die SP-Masse ab \u003d M Planke / p.(Wir gehen davon aus, dass die Ruhemasse des eingeführten SP immer gleich ist M ext). Der Umfang des Universums entspricht dem Zeitpfeil Ralles L=C*Dt, das ist leicht zu beweisen Ralles L = LPlanke* n 2 , a LextMIT*Dtalles L* LPlanke. Das Universum begann sich vor ungefähr 13,7 Milliarden Jahren auszudehnen, damals in der Neuzeit Lext= 10 -4,5 m, d.h. 10 1,5 mal weniger als LRelikt, die Größe des Universums Ralles L=C*Dt=10 26 m, dann die Anzahl der Schichten n= Ö Ralles L/ LPlanke=10 30,5 . Also, die Größe des Universums ausgehend von LPlanke* n stieg auf = LPlanke* n 2 , Streckschritt, ausgehend von LPlanke stieg auf LPlanke* n. Energie, jeweils ausgehend von EPlanke=10 8 j, verringert auf E-ext\u003d 10 -22,5 j. Balance bedeutet Gleichheit der Schwerkraft g*M 2 Nebenstelle /Lext mit Expansionsträgheit M ext *v 2 ext, verallgemeinern wir diese Bedingung auf den gesamten Zeitpfeil M ext \u003d M Planke / p, vext.=C/n, Lext=LPlanke*n, dann g*M 2 Planke /LPlanke* n 3 = M-Diele mit 2 /n 3 , d.h. Die BV-Theorie in ihrer idealen Version hält streng, aber lokal ein Gleichgewicht aufrecht. Beachten Sie, dass beim Erstellen eines Modells des Universums aufgrund von Ralles L = LPlanke* n 2 =C*Dtalles L es wird nur ein beobachtbarer Parameter verwendet Dtalles L= 13,7 Milliarden, alles andere sind QED-Konstanten, dann wird die Masse des Universums durch eine einfache Beziehung bestimmt:

M-Universum \u003d M-Planke *Dtalles L/tPlanke\u003d 10 -8 * 10 18 / 10 - 43 \u003d 10 53 kg, also:

g *M-Universum/ Ralles L= g *M Planke/ LPlanke\u003d C2

Und das bedeutet, dass das Gleichgewicht der Dynamik der Entwicklung des Universums, basierend auf der Homogenität und Isotropie des Raums, die Invarianz des Gravitationspotentials (GP) an allen Punkten im Raum und über den Zeitpfeil hinweg erfordert, ist die Annahme umstritten und bedarf weiterer Argumentation. Betrachten wir auf der Grundlage der folgenden Überlegungen, wie die HP in der Phase der Expansion des Universums gebildet wird. Den Hauptbeitrag zur Bildung der HP leisten seither ferne Massen ihre Zahl nimmt proportional mit der Entfernung zu n 2 Abgesehen davon gehorcht die Gravitationswirkung entfernter Massen dem Gesetz der kosmologischen Expansion, sodass die Masse vergänglicher EPs mit akzeptabler Genauigkeit als gleich angesehen werden kann M ext an jedem Punkt im Raum. Dann ist das Ergebnis der Integration von Massenschichten über das gesamte Volumen GP gleich:

F(t) =g* M sat (t)/ Ralles L(t) = g* M-ext* n 3 / LPlanke*n 2 = g *M Planke/ LPlanke\u003d C2

Jene. Wir haben bewiesen, dass, wenn die eingeführten ephemeren EPs QED gehorchen, der HP im ausgeglichenen Universum eine Konstante und gleich ist Ab 2 zumindest in der Ausbauphase. Achten wir auf die Konsequenz der Gleichheit von GP mit der Konstanten Ab 2 Es gibt einen konstanten Skalierungsfaktor Ralles L(t) ~ t 1/2 Über den gesamten Zeitpfeil hinweg muss ein solches Modell des Universums flach sein. Und was das reale Universum uns gibt, betrachten wir, wie sich die HP in Bezug auf die Masse aller ECs in der Neuzeit verhält.

F(t) = g* M sat (t)/ Ralles L(t) = g*Mnuk* n 3 / MIT*Dtalles L(wobei p=10 26.5) =10 15 jene. kleiner als C2.

Für die Analyse wählen wir einen weiteren Zeitraum, die Ära der Rekombination: Dt int = 10 13 sec, F(10 13 Sek.) =g*Mnuk* n 3 / MIT*Dtalles L(wobei n =10 24)=10 13

Wir sehen, dass auch ohne Berücksichtigung der Änderung des Skalenfaktors die Masse des Universums praktisch keine Rolle in der Bilanz spielt. Betrachten wir den GP für kosmische Mikrowellen-Hintergrundstrahlung in der Rekombinationsepoche:

F(10 13 Sek.) = g*Mrel * n 3 / MIT*Dtalles L = 10 17 Wo Mrel \u003d 10 -35 kg. n = 10 27

Das Potential ist stabil und nahezu gleich Ab 2, in der gegenwärtigen Phase aufgrund einer Änderung des Skalierungsfaktors aus Ralles L(t) ~ t 1/2 zu ~ t 2/3 , das Relikt in der Waage spielt praktisch keine Rolle, wozu das führt. Die Theorie der Entwicklung des Universums basiert auf der Idee des strengsten Gleichgewichts, aber die moderne Gravitationstheorie bietet keinen Mechanismus für ihre Beobachtung, wir erhalten mit unterschiedlichen Verhältnissen von Materie und Strahlung ein anderes Szenario für die Entwicklung des Universums, und das ist bereits alarmierend. Wir müssen noch herausfinden, welche Art von idealen vergänglichen ECs einem idealen ausgewogenen Universum entsprechen, ob sie tatsächlich existieren. Das allgemeine Bild der Entwicklung des Universums sagt eines aus, alles ist miteinander verbunden, während auf unverständliche Weise aus irgendeinem Grund die Gravitation global und lokal absolut genau immer und überall gleich der Expansionsträgheit ist. Darüber hinaus liefern Berechnungen der Massen von Galaxienhaufen, Gravitationslinsen, eine eindeutige Schlussfolgerung: Die Masse des realen Universums muss 4-5 mal schwerer sein, sie ist vorhanden, aber wir sehen sie nicht. Dies ist allgemein anerkannte echte dunkle Materie, tot für alle Wechselwirkungen außer der Schwerkraft. Und interessanterweise stimmten unter Berücksichtigung dieser Angelegenheit die theoretischen und experimentellen Berechnungen der durchschnittlichen Materiedichte im Universum vollständig überein und entsprachen dem Gleichgewicht (kritisch). RKreta= 10 -29 g/cm³. Lassen Sie uns diese Variante der Entstehung des Universums analysieren und auch die wichtigsten Voraussetzungen nennen, d.h. Grundlage für die Entstehung von TEFV.

Argumente und Fakten

Die Inflation löste das Gleichgewichtsproblem, zog aber eine Reihe neuer Probleme mit sich. Tatsächlich haben wir die Entstehung des Universums aus dem Nichts, und um das Gesetz der Energieerhaltung nicht zu verletzen, wird das Konzept der Gesamtenergie des Universums gleich Null eingeführt, die negative Energie wächst, dann die positive Energie in der gleichen Reihenfolge wachsen müssen, bei der Inflation sind diese beiden Prozesse zeitlich getrennt, ob es richtig ist. Außerdem sollten in der Zeit der Inflation die für die Bildung von Galaxien erforderlichen Inhomogenitäten gelegt werden, was durch das "Einfrieren" von Vakuumschwankungen erfolgt. Im PV können sich unzählige Vakuumblasen bilden, und jede hat ihr eigenes Universum mit ihrer eigenen Physik. Macht es Sinn, die Vielfalt der Universen mit ihren eigenen Gesetzmäßigkeiten zu betrachten, die sich gegenseitig nicht beeinflussen. Das Endergebnis der Inflation sollte entweder die Theorie der Superstrings oder die Theorie der Supergravitation sein, d.h. Naturkonstanten müssen irgendwie miteinander verbunden sein, aus etwas fließen, dieses Problem bei der Inflation ist offen geblieben.

Lassen Sie uns näher auf das Problem der Kausalität eingehen. Die Entstehung einer kausal bedingten Vakuumblase, ein spontaner Vorgang, der schließlich, absolut kausal, in sich zusammenbricht 10 91.5 ursächlich nicht zusammenhängenden Bereichen, liegt hier ein Konflikt vor. Kann dieser Konflikt wie folgt gelöst werden? Die Inflation ermöglicht das Erscheinen und den sofortigen Zusammenbruch unreifer Vakuumblasen, aber es ist auch ein komplett umgekehrter Prozess möglich, zum Beispiel der Zusammenbruch unseres Universums, dann die umgekehrte Inflation und als Folge der Zusammenbruch einer Vakuumblase, so die Idee , es ist nicht verboten. Kann dieses Ereignis als Ursache der Inflation angesehen werden, d.h. Wir schleifen den Prozess gewissermaßen. Inflation ist eine elegante Theorie, aber eine solche Annahme macht sie reiner und vollständiger. Endlich haben wir ein geschlossenes Kreissystem, das sich nach genau den Gesetzen unserer Physik selbst reproduziert. Aber hier stehen wir vor einem bedeutenden kosmologischen Problem, das nicht mit der Version der zyklischen Natur des Universums vereinbar ist. Es stellt sich heraus, dass das Universum, das näher an der Neuzeit liegt, sich nicht so verlangsamt, wie es das Hubble-Gesetz vorschreibt. Um dieses Verhalten zu erklären, wurde das Konzept der Dunklen Energie eingeführt, deren negativer Druck unverändert bleibt, wenn sich das Universum ausdehnt. Vor ungefähr 7 Milliarden Jahren wurde der Unterdruck gleich der Schwerkraft des Weltraums und dominiert in der Neuzeit, das Universum begann sich auszudehnen, während es beschleunigte. Dunkle Energie hat keine physikalische Erklärung, stört das Gleichgewicht, macht praktisch der Reinheit der Inflationstheorie ein Ende, die Natur hat uns noch keine Entdeckung präsentiert, die in ihrer Schädlichkeit lächerlicher ist. Das Universum entwickelt sich irgendwie seltsam, zuerst musste dunkle Materie eingeführt werden, dann dunkle Energie, und in der gegenwärtigen Phase, in der sie ihr Maximum erreicht hat, manifestiert sich dunkle Energie überhaupt nicht auf kleinen Skalen. Die Natur forderte die Einführung zweier völlig gegensätzlicher Konzepte, aber zeitlich getrennt, hier stimmt etwas nicht. Die beste Lösung für das entstandene Problem besteht nicht darin, Theorien über die Natur des Ursprungs dunkler Materie und Energie aufzustellen, sondern sie einfach loszuwerden. Die Inkonsistenz der Strahlungsintensität von Supernovae mit dem Spektrum von Galaxien, das Fehlen großer Galaxienhaufen in der Neuzeit, vielleicht ist dies eine Verkleidung von „etwas unter etwas“, die überhaupt keine beschleunigte Expansion des Universums erfordert. Der unten vorgeschlagene Mechanismus zur Steuerung des Zyklus des Universums ergibt eine interessante Konsequenz, die direkt mit den Effekten unter der Interpretation von dunkler Materie und Energie zusammenhängt. Um zu verstehen, was hier das Wesentliche ist, ist es notwendig, die Phasennatur der vorgestellten Theorie zu beachten, sodass die Version des zyklischen Universums mit einem inflationären Beginn als Ausgangsposition für die Konstruktion des TEFV genommen wird.

Schwere

Die fehlende Kausalität bei der Entstehung des Universums und Vorgängen in der Physik der Mikrowelt haben aus philosophischer Sicht eine Gemeinsamkeit. Die Genauigkeit der angewandten Gesetze ist absolut, ihre Ausprägung jedoch probabilistischer Natur, was zu einer Streuung der gemessenen Parameter führt (Unsicherheitsprinzip). Dies kann sehr vorsichtig angegeben werden, und je genauer wir versuchen, die Genauigkeit eines Gesetzes (Parameter) zu messen, desto größer wird die Streuung eines anderen Gesetzes (Parameter), die wir in philosophische Sprache übersetzen, wir stellen fest: der Grund für die Genauigkeit des Gesetzes zu einem bestimmten Zeitpunkt, in einem bestimmten Bereich gibt es eine Ungenauigkeit in der Anwendung eines anderen Gesetzes. Eine Art "Prinzip der Inkonsistenz", das Prinzip der Unsicherheit wird hier nicht geleugnet - dies ist die Grundlage von QED, die Sache ist anders, wir erhalten eine echte kausale Beziehung aus Ketten ursachenloser Ereignisse, vielleicht ist die Essenz hier völlig anders. Nehmen wir an, dass in all diesen Spreads ein nicht messbarer Prozess steckt, d.h. Es gibt einen Grund, aber es ist unmöglich, ihn zu erkennen (zu messen). Solche nicht messbaren Effekte werden uns von Einsteins Theorie unerwartet präsentiert. Betrachten wir die wichtigsten Konsequenzen von Einsteins SRT und GR.

Rnrnrn rnrnrn rnrnrn

Die Allgemeine Relativitätstheorie von Einstein besagt, dass die Schwerkraft keine Kraft ist, sondern eine Krümmung des Raums, der Körper wählt sozusagen automatisch den kürzesten Bewegungsweg (das Prinzip der Faulheit), d.h. Die Quelle der Schwerkraft (Masse) verändert die Geometrie des Raums. Die Schwerkraft hat keine Schirme, sie hat einen kumulativen Charakter, sie wirkt sich gleichermaßen auf Masse und Strahlung aus. Betrachten wir die Behauptung der Äquivalenz des Gravitationsfeldes und der beschleunigten mechanischen Bewegung genauer, zum Beispiel werden wir in einem sich schnell bewegenden geschlossenen System die Schwerkraft spüren und es ist unmöglich, durch irgendwelche Experimente zu beweisen, dass sie künstlich erzeugt wurde. In diesem Nicht-Trägheitssystem erhalten wir alle Anzeichen der Schwerkraft, d.h. beschleunigte Bewegung erzeugt ein Gravitationsfeld. Und umgekehrt entfernt die Gravitation, nachdem sie eine beschleunigte Bewegung eines Objekts erzeugt hat, alle Trägheitsmerkmale des Objekts. Es ergibt sich folgendes Bild: Der Körper bewegt sich schnell in einem Medium, dann ist die Reaktion des Mediums auf diesen Vorgang die Schaffung eines Gravitationsfeldes und umgekehrt, das Medium hebt alle Anzeichen von Trägheit auf, während es Bewegung erzeugt das Gravitationsfeld. Fazit, die Wirkung des Gravitationsfeldes und der Trägheit auf den Raum ist identisch und hat einen lokalen Charakter. Und welchen Platz SRT in der Schwerkraft einnimmt, sagt das Relativitätsprinzip: Es ist unmöglich, die Absolutheit der Bewegung zu bestimmen, während es unmöglich ist, die Auswirkungen der SRT beispielsweise im Laufe der Zeit zu behandeln, wenn es unmöglich ist, zu bestimmen, was ist ziehen um. Und hier ist der Richter in diesem Streit die Beschleunigung, die beschleunigt (verlangsamt) und SRT handelt darauf ein. Aber beschleunigte Bewegung erzeugt ein Gravitationsfeld. Nachdem wir aufgehört hatten zu beschleunigen, bewegten wir uns mit unserem GP einfach entsprechend der erreichten Geschwindigkeit in ein einheitliches Gravitationsfeld. Tatsächlich ist SRT die Theorie eines homogenen Gravitationsfeldes, dann sind die Auswirkungen von SRT und Gravitation nicht zu unterscheiden. Hier geht es nicht um das Äquivalent, sondern um die Einheitlichkeit des Auftretens von Wirkungen, d.h. Reaktion der Umgebung. Und was physikalisch die primäre Quelle aller Effekte ist, zum Beispiel Zeitdilatation, GPU oder Geschwindigkeit. Betrachten wir ein einfaches Beispiel. Lassen Sie den Körper natürlich unter dem Einfluss der Schwerkraft auf der Erde sein, seine eigene Zeit hat sich verlangsamt (es gibt keine Bewegung). Stellen wir den Körper in den Mittelpunkt der Erde. Achten wir auf einen wichtigen Punkt, es gibt Schwerkraft, aber keine Gravitation. Berechnungen zeigen, dass der GP um das Zweifache abgenommen hat bzw. die Zeitdilatation abgenommen hat (es gibt keine Bewegung). Lassen Sie nun den Körper mit der 1. kosmischen Geschwindigkeit über die Erdoberfläche gleiten. Es gibt keine Schwerkraft, die Berechnungen ergeben eine Zunahme der Verzögerung im Vergleich zur Zeit des Körpers auf der Erde, d.h. auf dem GP der Erde wird der gebildete GP durch Bewegung überlagert. Wir sehen, dass die Verlangsamung der Zeit nicht mit der Bewegung als solcher zusammenhängt, sondern mit dem Entstehungsprozess der HP, d.h. Der Raum (PV) reagiert auf eine Bewegungsänderung, indem er seinen eigenen GP ändert. Fassen wir zusammen.

1. Nach Einsteins GR ist die Schwerkraft eine Krümmung des Raums. Da es einen Effekt (Schwerkraft) und eine Reaktion auf diesen Effekt (Krümmung) gibt, muss der Raum (PV) eine bestimmte Struktur mit bestimmten Parametern haben, einschließlich Masse, Absurdität, aber die Wirkung und die Reaktion sind explizit, es ist keine Abstraktion.

2. Jede beschleunigte Bewegung ist identisch mit dem Gravitationsfeld, dann ist die Reaktion des Mediums (Raum) auf jede Bewegung des Objekts (Trägheit) sein Koppler, obwohl keine Gravitationsquellen in Sicht sind. Die Wirkung von Gravitation und Trägheit auf den Raum ist identisch und hat lokalen Charakter.

3. Eine gleichförmige Bewegung muss einem gleichförmigen Gravitationsfeld entsprechen.

4. Gravitation, als homogenes Gravitationsfeld betrachtet, kann unter keinen Umständen nachgewiesen (gemessen) werden, der absolute GP-Wert ist nicht messbar.

5. Die Gravitation in ihrer reinen Form kann nicht nachgewiesen (gemessen) werden, die Wirkung ihrer Manifestation tritt nur im Gegensatz zu anderen Arten von Kräften auf. Zum Beispiel: Die Schwerkraft auf der Erde entsteht im Gegensatz zu den Kräften des e / m-Ursprungs.

6. Die Schwerkraft, die auf den Körper in seiner reinen Form wirkt, beseitigt alle Trägheitsmerkmale des Objekts. Wenn Sie sich beispielsweise ein variables Gravitationsfeld vorstellen, einen Durchgangstunnel durch den Erdmittelpunkt graben und ein Vakuum erzeugen, wird dessen Wirkung den Körper dazu bringen, mit einer Amplitude zu schwingen, die dem Durchmesser der Erde entspricht, und zwar bei völliger Abwesenheit der Trägheit (Reaktion), d.h. der Körper wird diese Vibrationen überhaupt nicht spüren.

7. Die Diskussion über die fundamentale Natur von Erhaltungssätzen im Rahmen von Einsteins Theorie kann nur in geschlossenen Systemen geführt werden.

Warum der Schwerkraft ein so besonderer Platz eingeräumt wird. Einer der Schlüsselpunkte der Inflationstheorie ist der Nullzustand, die potentielle Energie des Universums ist genau gleich der Gesamtenergie aller Materie, g* M 2 Universum */Ralles L + M-Universum*Ab 2=0, was im Grunde stimmt, dann müssen wir einfach irgendwie die gesamte Trägheitsenergie eines beliebigen Körpers mit der kosmischen Gravitation verbinden. Und die Schlüssel zu dieser Verbindung sind nicht offensichtlich, sondern werden in den Konsequenzen von SRT und GR in Bezug auf das Mach-Prinzip gesehen.

Mach argumentierte auf der Grundlage der Idee der vollständigen Ähnlichkeit von Trägheits- und Gravitationskräften, dass die Natur der Trägheit im Einfluss der gesamten Masse des Universums auf einen bestimmten Körper liegt. Das bedeutet nichts anderes, wenn wir alle Materie des Universums bis auf einen Körper entfernen, dann hätte dieser Körper keine Trägheit. Die Annahme ist sehr umstritten, im Moment wird sie von der modernen Wissenschaft nicht anerkannt, aber andererseits wäre es sehr verlockend, die Schwerkraft des unendlich Großen (des Universums) mit der Trägheit des unendlich Kleinen zu verknüpfen, z Beispiel EG. Wie könnte die Gravitation des Kosmos die Trägheit von Körpern erzeugen, die Schwierigkeit besteht darin, dass laut SRT die Ausbreitungsgeschwindigkeit der Gravitation die Lichtgeschwindigkeit nicht überschreiten kann, das Universum jedoch riesig ist und die Auswirkungen, d.h. Trägheit entsteht sofort, die quantitative Seite wird überhaupt nicht gelöst. Und wir stellen fest, dass Einsteins Theorie, die das Mach-Prinzip anerkennt, nicht in der Lage ist, den Mechanismus dieses Einflusses zu beschreiben. Achten wir auf folgende Tatsachen: 1. Der dem Gleichgewicht entsprechende GP des Universums ist immer und überall gleich Ab 2, eine erstaunliche Übereinstimmung mit der Formel für die Gesamtenergie eines beliebigen Trägheitskörpers. 2. Das Gleichgewicht der Dynamik der Entwicklung des Universums bedeutet immer und überall die Gleichheit der BV-Kraft (im Folgenden Trägheit) mit der kosmischen Gravitation. 3. Die Wirkung von Schwerkraft und Trägheit auf den Raum ist identisch. 4. Schwerkraft in ihrer reinen Form beseitigt alle Trägheitsmerkmale des Objekts. Alle vier angegebenen Tatsachen sind eine andere Form der Interpretation des Wesens des Machschen Prinzips, d.h. Schwerkraft ohne Trägheit existiert nicht und umgekehrt. Vielleicht ist dies der Schlüssel zur Enträtselung der Natur der Trägheit. Wenn wir herausfinden, wie das Mach-Prinzip implementiert wird, werden wir dadurch einen einzigen Mechanismus schaffen, der den Zyklus des Universums steuert, um das unendlich Große (das Universum) zu verstehen. , müssen Sie sich mit dem unendlich kleinen (Physical Vacuum) befassen.

Physikalisches Vakuum

PV ist ein Träger aller Arten von Wechselwirkungen und diese Prozesse sind Austauschnatur (Quantisierungsprinzip), aber es gibt Nuancen. Folgende Probleme sind mit PV verbunden: In der QED ist völlig unklar, woraus ECs entstehen und was sie werden, wohin unteilbare elektrische Ladungen gehen. In der BV-Theorie - was genau explodierte, wird Raum angenommen, aber für eine physikalische Beschreibung dieses Phänomens ist es notwendig, der Leere zumindest eine gewisse Struktur mit bestimmten Parametern zu verleihen. Daraus ergibt sich die Frage, was der wahre Mechanismus der Raumkrümmung unter dem Einfluss der Schwerkraft ist. Es gibt nur einen Weg, das ist die Materialisierung des Raums, und einer der Schlüssel zum Umgang mit PV ist der folgende. Was ist Vernichtung? Wir verstehen, dass dieses Paar (Teilchen-Antiteilchen) nirgendwo hingeht und nicht zerfällt, sie gehen einfach in einen speziellen gebundenen Zustand über, d.h. in die PV-Struktur mit der niedrigsten Hintergrundenergie, werden wir versuchen, diese gekoppelte Struktur physikalisch zu modellieren. Lassen Sie uns zunächst das Konzept der Gravitationsladung (GC) einführen, alle modernen Theorien arbeiten nur mit Ladungen und tauschen Quanten aus, und wir haben keinen Grund, die Gravitation von diesem Grundprinzip zu trennen, was ist es dann gleich. Wir kehren zum BV zurück, in der Planck-Ära hatten alle ECs die Planck-Masse, also nehmen wir an, dass alle ECs eine GZ gleich der Planck-Masse haben und diese Ladung unteilbar ist, ähnlich einer elektrischen. Aber in der Natur gibt es keine solchen Gebühren wie hier zu sein. In der Planck-Ära die Gesamtenergie der EG M-Diele *S 2 gleich der Gravitationsenergie war g*M 2 Planke /LPlanke zwischen ihnen, aber dies sind die gleichen Bedingungen für die Bildung eines klassischen Gravitationskollaps (GC). Wir nehmen also an, dass der Beginn der BV durch den GC jedes Trios von Leptoquarks markiert wurde, dies kann als Trennung der Gravitation (alle Gravitonen) von der Materie (der ersten Stufe in der Theorie der Supergravitation) und dann in interpretiert werden Teilchen-Antiteilchen-Paare (Reliktstrahlung). Die GB muss nach einem linearen Gesetz geschlossen werden, diese Forderung ergibt sich aus dem Übereinstimmungsprinzip zwischen der Quantenelektrodynamik und dem Expansionsgesetz des Universums, in Kenntnis des physikalischen Wesens der Planckschen Konstante leiten wir die GC-Formel auf rein logische Weise ab Mja=M Planke *LPlanke/ Lext. Dann ist die PV ein spezielles Medium kollabierter Zustände, nennen wir sie Vakuumzellen (VC), die VC-Masse entspricht der Formel Mja=M Planke *LPlanke/ Lext, Dies sind nur die idealen EPs, die für die Aufrechterhaltung des Gleichgewichts des Universums verantwortlich sind und dem PV Masse verleihen. Dies ist die positive Hintergrundenergie, d. H. Wir materialisierten PV. Was ist dann die Masse eines Teilchens? Dies ist ein Restphänomen der Asymmetrie des HA, d.h. Ungleichgewicht der Arbeit der Gravitationskräfte mit anderen Arten der Wechselwirkung, und es ist auch nach einem linearen Gesetz geschlossen. Was ist dann mit der klassischen Realität? Tatsache ist, dass in einer (nackten) Form ein EP nicht betrachtet werden kann, es ist immer von einer Wolke umgeben, alles mit einer expandierenden räumlichen Stufe des WY, und da das WL Masse hat, erhalten wir einen klassischen Übergang zur Newtonschen Theorie der Schwerkraft (wird weiter unten betrachtet). Die Einführung des Zivilgesetzbuches ist eine notwendige Maßnahme, wir werden versuchen, sie zu rechtfertigen.

1. Die Kosmologie ist im gegenwärtigen Stadium unerwartet auf das Problem der Dunklen Materie gestoßen, weil Die VC haben Masse und sind, wie oben herausgefunden wurde, für das Gleichgewicht des Universums insgesamt verantwortlich, dann ist die Rolle der PV als dunkle Materie gut sichtbar.

2. Alles ist wahr ES sind laut QED Punktobjekte, dann erscheinen Unendlichkeiten in den Berechnungen ihrer Parameter. In der QED wird dieses Problem mit Hilfe eines künstlichen mathematischen Tricks, der Renormierung, gelöst. Vielleicht gibt es keine wahre Elementarität (es gibt nichts zu kollabieren, das GK deckt genau drei Leptoquarks ab, warum nur drei ist ein separates Thema), dann sollte jedes EP drei Gesichter haben, zum Beispiel ein Elektron - ein Myon - ein Tau- Lepton, auch für Quarks (b ,d,s), ist es möglich, dass EC eine räumliche Quantenrotation in Bewegungsrichtung ist, also Asymmetrie in drei Richtungen eines zusammengesetzten Objekts. Ein GC mit einem stabilen internen Gleichgewicht (das später besprochen wird) entfernt Unendlichkeiten, d.h. Im Unendlichen gibt es eine Grenze, die auf dem Gleichgewicht der Gravitationskräfte mit anderen Arten von Wechselwirkungen basiert.

Indem wir jede EC mit einem kollabierten Zustand ausstatten und die PV materialisieren, öffnen wir somit leicht den Weg zum Verständnis des Mechanismus der QED-Wirkung, es gibt etwas, in das und aus dem man sich verwandeln kann.

Dunkle Materie und Energie

Vor der Ära der Rekombination war das Universum ein streng ausgeglichenes System, die Energie der Reliquie mit Materie war genau gleich der Energie der PV, d.h. Es gibt ein VY pro Relikt. Wenn in dieses ausgewogene System auch dunkle Materie eingeführt wird, in der Form, wie sie von der modernen Wissenschaft präsentiert wird und 23% der Gesamtenergie ausmacht, dann werden wir katastrophale Folgen haben, das Universum hätte sogar dann zusammenbrechen müssen, etwas stimmt nicht hier. Alle Probleme begannen in der Ära der Trennung von Strahlung und Materie, d.h. Skalierungsfaktoränderung von Ralles L(t) ~ t 1/2 auf der Ralles L(t) ~ t 2/3 , und dies führt zu einem immer größer werdenden Ungleichgewicht und als Folge zu einer immer stärker werdenden Manifestation dunkler Energie. Wir folgerten, dass das materialisierte PV global für das Gleichgewicht der Dynamik der Entwicklung des Universums verantwortlich ist, was der Stabilität von HP = entspricht Ab 2 durch den Zeitpfeil. Die ganze Materie des Universums ist im Gleichgewicht, spielt praktisch keine Rolle, die gesamte Expansionsfunktion wird von der PV übernommen, und das ändert das Bild radikal, die PV ist eine zum Teil praktisch unerforschte Sonderform der Materie ist ein Gravitonplasma mit HP = Ab 2. Dann haben wir ein echtes Argument, den Skalierungsfaktor während der Rekombinationsperiode nicht zu ändern, mit Ralles L(t) ~ t 1/2 auf der Ralles L(t) ~ t 2/3 und unverändert lassen. Bei dieser einfachen Lösung des Problems ist das Relikt der größte Stolperstein, Tatsache ist, dass die beobachtete Energie des Relikts = 3 0 K ist und dem Szenario entspricht t 1/2 , sollte 7-8 Mal höher sein, dies ist eine starke Tatsache zugunsten des allgemein akzeptierten Modells des Universums. Die Energie des Relikts kann auf 3 0 K reduziert werden, indem man annimmt, dass sich das Universum weiter ausdehnt bis zu Lext= 10 -3 m je nach Szenario t 1/2 , dann sollte sein Alter etwa 200 Milliarden betragen. Jahren, was völlig inakzeptabel ist. Alles schien vorbei zu sein, Versuche, dunkle Energie zu zähmen, waren ein komplettes Fiasko, und doch gibt es einen Hinweis. Die von der Reliquie getrennte Substanz ist das Friedmann-Modell des staubigen expandierenden Universums, nach dem sich der Raum mit einem Skalierungsfaktor ausdehnt RRelikt(t) ~ t 2/3 und hier kommt der Konflikt. Das frei gewordene Relikt und die Materie begannen, das Gesetz der Expansion des Universums zu kontrollieren, d.h. Raum Schwerkraft. Das PV ist ein streng ausbalanciertes materielles Medium mit lokalen Schwingungen des VY. Wäre es nicht besser zu bedenken: Die Reliquie dehnt sich nach den Gesetzen der Thermodynamik aus, das Universum nach dem Gleichgewichtsgesetz. Aber es stellt sich die Frage: wohin geht die Energie einer kühleren Reliquie und wohin dehnt sich die Reliquie aus, wenn es keinen „freien Raum“ gibt, in den sich die Reliquie ausdehnt LRelikt= 10 -3,3 m, Raum bis zu Lext= 10 -4,5 m. Versuchen wir, dieses Problem von innen anzugehen, d.h. örtlich. Für jedes EP bedeutet das lokale Gleichgewicht die Konzentration von HE um das EP herum auszugleichen (Gleichheit), sowohl in Bezug auf GB als auch in Bezug auf Energien. Ganz bildlich: Die Gesamtenergie der Kette vom VY, verschwommen im Hintergrund, ist immer gleich der Energie des EP, gleiches gilt für den GB. Im Zeitalter der Trennung der Reliquie entsprach aufgrund der Gleichheit der Energien ein Quant einem VN oder die Wellenlänge der Reliquie entsprach dem Dehnungsschritt zwischen VN. Wozu führt das, damit sich die Reliquie ausdehnt, brauchen wir die Asymmetrie der VN und Strahlung im Verhältnis von 10 3,3 VN pro Quant, dann würde die Abkühlung der Reliquie diese Lücken gerade füllen. Zurück zu BV, wir haben einen weißen Fleck, das ist die Stufe in Längeneinheiten: LPlanke- die Funktionsweise der Theorie der Supergravitation, LPlanke*Ö 137 - die Aktion des TVO (Gleichstellung LPlanke*Ö 137 folgt aus der Bedingung g*M 2 Planke *L 2 Planke/ L 3 ext=e 2/Lext). In diesem Stadium gibt es eine Trennung der Schwerkraft von HWO, die globale Verlangsamung beginnt, VY werden gebildet, dies ist ein Nicht-Quantenprozess. Ferner beginnt derselbe Prozess mit einer ständig zunehmenden Geschwindigkeit von HWO zu stören und auf einem Segment, auf einer Längenskala, gleich zu sein LPlanke*Ö 137 die Geschwindigkeiten sind ausgerichtet, aber dieser Prozess führt eher zur Bildung von Higgs-Teilchen als zu VY. Das Material war erschöpft, das gesamte HE und die gesamte Primärmaterie wurden gebildet, wir bekamen eine akzeptable Asymmetrie, die gleichzeitig das Problem mit dunkler Materie und Energie löste, alles passte zusammen. Wenn sich das Universum gemäß dem Szenario mit dem Parameter entwickelt t 1/2 , und alle freie Strahlung (Relikt, Leuchtkraft, Rotverschiebung des Spektrums) dehnt sich nach den Gesetzen der Thermodynamik mit dem Parameter aus t 2/3 , dann haben wir natürlich Ungereimtheiten, deren Ausgleich das Einbringen von dunkler Energie und Materie erfordert. Während der Zeit der vollständigen Rekombination begannen sich zunehmende Verzerrungen zu manifestieren, das Alter des Universums betrug damals ungefähr 0,5 Milliarden Jahre. Jahre. Andererseits betrachten wir das Universum wie durch ein Vergrößerungsglas, d.h. Die Verzerrungen wachsen proportional zur Entfernung. Wenn wir diese beiden Komponenten zusammenfassen, erhalten wir ein Maximum an Verzerrungen von 3-4 Mal bei einer Entfernung von 7-8 Milliarden km. Jahre, was mit den Beobachtungen übereinstimmt.

Pioneer-Anomalie

Hier ist es angebracht, die Version der Lösung für die Anomalie der Pioniere zu betrachten, was ihr Wesen ist. Nachdem sie das Sonnensystem überschritten hatten, begannen beide Satelliten eine Verzögerung von 10 -10 m / s 2 zu erfahren, die Natur dieses Phänomens ist unbekannt und interessanterweise gibt uns dieselbe Verzögerung das Gesetz der Expansion des Universums Mit*H Hubble\u003d 10 8 * 10 -18 \u003d 10 -10 m / s 2. Was genau passiert ist, zwei Satelliten haben gerade das Sonnensystem verlassen, physikalisch bedeutet dies, dass die Wirkung der Schwerkraft des gesamten Sonnensystems praktisch Null ist, d.h. es ist kein verbundenes System mehr. In der angegebenen Theorie wird bewiesen, dass im expandierenden (kontrahierenden) Universum die Konsequenz der Aufrechterhaltung des Gleichgewichts die Invarianz des Dehnungsschritts (Krawatte) zwischen benachbarten VCs ist, die immer und überall gleich sind LPlanke. Wenn wir das berücksichtigen LPlanke die minimale Grundlänge ist, dann nimmt der Vorgang des Dehnens (Streckens) auf der Mikroebene Quantencharakter an. Berechnen wir diese Beschleunigung ausgehend von den folgenden Überlegungen: Gemäß QED muss jedes VH eine Energie gleich haben Eja =hc/ Lext,= Mjaseit 2, dann sollte die VL an Ort und Stelle mit der Beschleunigung oszillieren Ab 2/Lext, für eine Zykluszeit gleich Mit/Lext Schritt ändert sich zu Lext-LPlanke, dann Dein Vja=Ab 2/Lext-Ab 2/Lext-LPlanke= C2*LPlanke/L 2 ext\u003d 10 16 * 10 -35 /10 -9 \u003d 10 -10 m / und dieser Wert ist basierend auf dem Vorstehenden diskret. Drei Zufälle sind etwas Globales, es bedeutet nichts anderes, das Universum begann im gegenwärtigen Stadium zu schrumpfen. Warum dann nicht davon ausgehen, dass die Pioniere den Effekt kosmologischer Bremsung erfahren, wir betonen, dass ein solcher Effekt nur für ungebundene Systeme gilt. Der Wert von 10 -10 m / s 2 ist zwar sehr groß, er ist 10 30,5 Größenordnungen größer als der klassische, hier funktioniert die moderne Gravitationstheorie nicht, dieser Wert kann wie folgt interpretiert werden: Dies ist der lokaler Wert eines bestimmten VY und diese Diskretion kann sich sowohl zu einer größeren als auch zu einer kleineren Seite ändern Lext-/+LPlanke, dann kann die verallgemeinerte durchschnittliche statistische Beschleunigung beliebige Minimalwerte annehmen, aber höchstwahrscheinlich breitet sich die negative Diskretion in der Neuzeit aus. Es ist möglich, dass die Kompression zuerst in massiven Objekten wie einer Galaxie auftritt und der intergalaktische Raum noch nicht von diesem Prozess erfasst wird, auf jeden Fall widerspricht diese Version der Physik nicht. Aber die Betrachtung dieser Version hat einen ganz anderen Zweck, alles ist auf dunkle Energie gerichtet. Dunkle Energie begann sich vor etwa 7-8 Milliarden Jahren zu manifestieren und dominiert im gegenwärtigen Stadium, wie Oberflächenberechnungen zeigen: Aufgrund der beschleunigten Expansion sehen wir nur 1/7-1/8 des Universums, und gemäß der Theorie 1/ 2 erhalten wir über den Abstands- und Zeitanteil die kosmologische Beschleunigung im Abstand der Pioniere im Bereich von 10 -16 m/s 2 , was durchaus messbar ist. Dann sollen die Pioniere dagegen beschleunigen, was nicht stimmt, die Schlussfolgerung lautet: Dunkle Energie existiert nicht.

Betrachten Sie ein weiteres interessantes Problem, dies ist das Zusammentreffen großer Zahlen. Wir schreiben zuerst die Formeln auf: M-Universum/M Kern=10 80 ; Ralles L/LKern=10 41 ;

hc/ g* M 2-Kern \u003d 10 39 ; Ungenauigkeiten in den Ungleichheiten sind mit der Diskrepanz zwischen der gesamten Baryonenmasse und der Ausgleichsmasse innerhalb von 1/20 verbunden, sodass ein Grund zum Austausch besteht M Kern ausbalancieren M Vya.

M-Universum/M Vya=10 53 /10 -38 =10 91 ; Ralles L/Lext=10 26 /10 -4.5 =10 30.5 ;

hc/ g* M 2 Vya = 10 -26 /10 -11 *10 -76 = 10 61 ; oder (M-Universum/M Vya) 2/3 =(Ralles L/Lext) 2 = hc/ g* M 2 ja, werden wir diese Gleichheiten anhand der Folgen des Gleichgewichts des Universums beweisen:

(M Vya* n 3 /M Vya) 2/3 =(Lext* n/Lext) 2 = g*M 2 Planke *n 2 / g*M 2 Planke

n 2 = n 2 = n 2

Um die physikalische Bedeutung dieser Gleichheiten zu verstehen, betrachten wir sie paarweise.

M-Universum/M vya =(Ralles L/Lext) 3 ; g*M-Universum/ R 2 alles L= g*M vya*Ralles L/L 3 ext ; g*M-Universum/ R 2 alles L = g*M Planke/L 2 ext; 10 -11 *10 53 /10 52 = 10 -11 *10 -8 /10 -9 ; 10 -10 \u003d 10 -10 m / s 2.

Betrachten Sie das zweite Paar: (M-Universum/M Vya) 2/3 = g*M 2 Planke /g* M 2 ja; M Universum \u003d M 3 Planke/M 2 ja;g*M-Universum/R 2 alles L=M Brett*L 2 ext/R 2 alles L* L 2 Planke;

g*M-Universum/R 2 alles L= C2/Ralles L; 10 -11 * 10 53 / 10 52 \u003d 10 16 / 10 26; 10 -10 \u003d 10 -10 m / s 2.

Und wieder bekommen wir von zwei unabhängigen Gleichheiten die gleiche berüchtigte Beschleunigung in der gleichen Größenordnung. Was bedeutet das, diese Formeln zeigen den Zustand des Universums in der Neuzeit und ihre Gleichheit sagt eines aus, das Universum befindet sich am Übergang von der Expansion zur Kontraktion, entsprechend dem Zeitpfeil in die Vergangenheit und Zukunft, Beziehungen in Gleichheiten nehmen ab und werden in der Planck-Ära gleich. Wir sehen (gravitativ) genau die Hälfte des Universums. Die Dynamik der Entwicklung des Universums wird durch die verallgemeinerte Formel dargestellt Ab 2/R(t) alle L. =g*M(t) alle L/R(t) 2 Universum, daraus folgt, R(t) alle L dies ist einer Vergrößerung (Abdeckung) von ursächlich zusammenhängenden Raumbereichen zu verdanken Ab 2=g*M(t) alle L/R(t) alle L GP muss einen konstanten absoluten Wert annehmen und es ist nicht messbar, dann ist der GP der Erde, der Sonne an jedem Punkt auch gleich Ab 2. Im Prinzip ist GP als Skalar eine bequeme Matte / Werkzeug, unter Schwerkraft sollten wir eine Spannungsänderung (Beschleunigung) verstehen, d.h. eine Änderung der Schwerkraft ist Schwerkraft. Die Natur hat uns am Beispiel der Pioniere unerwartet einen Hinweis auf eine völlig neue Art der Quantisierung durch ein Längenmaß gegeben, in Bezug auf die Gravitation ist dies ein Graviton, aber mit einem ernsthaften Problem: Eine solche Gravitation sollte 10 30,5 Ordnungen betragen Größe größer als die klassische, aber es gibt ein Plus in diesem Problem, dieser Wert ist völlig unmessbar. Aber warum es nicht messbar ist, weil wir davon ausgehen, dass es sich um eine Quantengröße handelt, ist naheliegend. Aber gibt es hier einen Zusammenhang Trägheit + Schwerkraft = Null, d.h. Nullversion der Gesamtenergie in der Theorie der Inflation, aber auf der Mikroebene, zeitlich getrennt durch Quantenunsicherheit, ist es tatsächlich eine quantenmeßbare "starke" Schwerkraft mit einer QED-Matte/einem QED-Apparat. Wenn diese Bedingung in Bezug auf das gesamte Universum erfüllt ist, muss sie logischerweise auch lokal erfüllt sein. Beginnen wir diese Zerlegung mit dem klassischen Prinzip der Quantisierung.

Eindimensionalität im dreidimensionalen Raum

Vielleicht verstehen wir die physikalische Essenz des Prinzips der Quantisierung nicht vollständig, weil es keine Analoga gibt, mit denen wir nichts vergleichen können, um Quantenphänomene darzustellen. Wie kann man sich zum Beispiel die Absorption eines volumetrischen dreidimensionalen e/m-Quants vorstellen, während es absolut vollständig durch ein Punktobjekt, sei es ein Elektron, sein kann, warum ein Quant beliebiger Länge nicht streut, hat keine physikalische Erklärung QED und wird als Postulat akzeptiert. Die Frage liegt viel tiefer, denn alle Energie und Materie sind quantisiert, mit der Terminologie - Quantengravitation, wir sind verpflichtet, sowohl Raum als auch Zeit zu quantisieren. Zunächst einmal müssen wir klar verstehen, was der Austauschprozess (Interaktion) bedeutet. EC kann nicht ständig Quanten emittieren (absorbieren), um zu strahlen, muss es erst absorbieren und umgekehrt. Dann stellt sich heraus, dass das EC nur mit einem Objekt austauschen kann, der Prozess der Interaktion in dieser Richtung und mit diesem Objekt für einen bestimmten Zeitraum stattfindet, in diesem Moment gibt es keine Interaktion mit anderen Objekten, das EC "nicht siehe“ sie. All dies in Summe bedeutet im Moment mathematisch, dass die Dimension gleich eins ist. Im Prinzip ist das ein mathematisches Spiel, physikalisch auf Quantenebene ist das von grundlegender Bedeutung. Die Quantisierung bringt uns zu der scheinbar absurden Idee eines eindimensionalen Aufpralls, wie eine Saite (Superstring-Theorie). In der Physik fehlt die Streuung nur bei eindimensionalen Prozessen vollständig, der gesamte Prozess verläuft wie auf einer Linie, indem wir jedem Quantenaustauschprozess Eindimensionalität zuschreiben, belegen wir damit mathematisch die Integrität jeglichen Quantenverhaltens. Dann ist jedes EP ein Punkt, die Parameter der Fundwahrscheinlichkeit werden durch QED bestimmt, ein Quant ist auch ein Punkt, aber mit einem zeitlichen Einflussparameter, d.h. Linie. Und was sehr wichtig ist, die Linien (Quanten) in einem geschlossenen dreidimensionalen Raum, die dem volumetrischen Schritt in der Verteilung gehorchen, schneiden sich nirgendwo, daher kollidieren die Quanten nicht und streuen nicht. Eindimensionalität ist beispielsweise die Grundlage für die Aufrechterhaltung der Ordnung im Chaos der PV: Ein massiver Körper bewegt sich mit einer Geschwindigkeit von nahezu Mit, und wir stellen fest, dass laut SRT alle Prozesse mit genau der gleichen Synchronität verlangsamen. Wenn dem nicht so wäre, dann hätten wir einen Mechanismus zur Messung der absoluten Geschwindigkeit. Es scheint, dass es absurd ist, sich in diesem Chaos (PV) zu bewegen und eine unglaubliche Synchronität zu beobachten. Bedeutet dies nicht, dass PV eine absolute Ordnung ist. Aus der Welt des Quantenchaos erhalten wir absolute Ordnung (Fernsehen, Mobilfunk usw.). Der dreidimensionale Raum ist die einzige Möglichkeit, die grundlegenden Naturgesetze zu bilden, die aus einfacheren eindimensionalen Austauschprozessen integriert werden.

Hier entsteht ein weiteres Problem, das philosophisch am verwirrendsten ist, weil es keine begründeten physikalischen Erklärungen gibt. Seine Essenz ist wie folgt: Was ist ein geschlossener Raum (gravitativ) - das ist, wenn Gravitationsaustauschteilchen (Gravitonen) einen bestimmten Punkt in alle Richtungen in einer bestimmten zeitlichen Abfolge verlassen und in derselben Abfolge an denselben Punkt zurückgekehrt sind alle Richtungen, die. Raum wird endlich. Einsteins SRT und GR zeigten die Wechselbeziehungen von Raum - Zeit - Materie, dieses einzelne Ganze (das Universum) existiert nicht ohne das andere. Die Schwerkraft beschäftigt sich mit Weltraumestrich und ist kumulativ, dann erhalten wir im geschlossenen Modell des Universums die Wirkung des Einflusses der Schwerkraftquelle auf sich selbst, d.h. Das Eintreffen der in alle Richtungen ausgestrahlten Gravitation, die das gesamte Universum umgeht, ist eine physikalische Absurdität, in einem geschlossenen Universum kann dies als Verletzung von Ursache-Wirkungs-Beziehungen bezeichnet werden. Dieses Problem begrenzt bereits die Ausbreitungsgeschwindigkeit der Schwerkraft, nicht mehr als die Lichtgeschwindigkeit, daher müssen wir bei der Simulation eines geschlossenen Universums einfach dieses Problem berücksichtigen. Beachten wir, dass es im geschlossenen zyklischen Universum aus unendlichen mathematischen Konstruktionen eine einzigartige Variante der Entscheidung gibt, die nicht überholt oder zurückbleibt, nämlich das Zusammenfallen des Grundes mit einer Folge. Dann ist es theoretisch möglich, unter Berücksichtigung der SRT ein solches Universum zu modellieren, in dem der Beginn des Universums (BV) und sein Zusammenbruch, d.h. Ein vollständiger Zyklus entspricht zeitlich dem Durchgang eines Gravitons (Quants) mit Lichtgeschwindigkeit von einem bestimmten Punkt zum selben Punkt. Dies ist eine physikalisch begründete kausal zusammenhängende geschlossene Unendlichkeit. Und interessanterweise muss es nicht modelliert werden, dies ist eine der Lösungen der BV-Theorie für den Fall eines idealen Gleichgewichts der Dynamik der Entwicklung des Universums in der Expansionsphase. Wir haben es bereits gelöst, dann sollte das Gesetz der Expansion des Universums nach dem Szenario mit einem Skalierungsfaktor ablaufen R sat (t)~ t 1/2, d.h. alle Punkte begannen sich untereinander mit Lichtgeschwindigkeit auszudehnen, und als die Schichten bedeckt wurden, fiel die Expansionsrate proportional zu dieser Bedeckung, wie C/n. Simulieren wir für denselben Zeitraum den umgekehrten Prozess der Kompressionsstufe, dann erhalten wir einen vollständig geschlossenen Kreislauf des Universums. BV teilte die Gleichzeitigkeit von Ereignissen nach SRT durch die Zeit des vollständigen Zyklus des Universums. Ein solches Modell des Universums gibt dem philosophischen Problem von Ursache und Wirkung eine unerwartete Interpretation. Das Ereignis, das gerade stattfindet, und die Informationen über dieses Ereignis, das den gesamten Zyklus des Universums (den vorherigen Zyklus) durchlaufen hat, sollten theoretisch einander entsprechen. Und wenn wir beweisen, dass die absolute Ordnung in Bezug auf Gravitonen immer und überall erhalten bleibt, dann gilt diese Tatsache des Zusammentreffens des aktuellen Ereignisses mit dem Ereignis des vorherigen Zyklus für jeden Punkt des Universums, für jeden Zeitpunkt. Wir synchronisieren sozusagen die Ursache aus dem vorangegangenen Zyklus mit der Wirkung eines realen Ereignisses der Gegenwart. Die ganze Zeit müssen wir BV der nächsten N-ten Schicht „gravitativ sehen“. Zum Beispiel haben uns in diesem Moment die Gravitonen von 10 30,5 -1 der BV-Schicht erreicht, und im Moment des Zusammenbruchs werden die Gravitonen der letzten Schicht kommen, d.h. verließ denselben Punkt vor 2*13,7 Milliarden Jahren, was BV (den nächsten Zyklus des Universums) erzeugen wird. Dann ist die Ursache der BV der Zusammenbruch des Universums aus dem vorherigen Zyklus, der die BV hervorbringen wird. Das Universum im Kreislauf wiederholt sich übrigens genauso. Dies ist gewissermaßen ein anthropisches Prinzip, d.h. Die Steuerung des Verlaufs der Geschichte sind Informationen aus dem vorherigen Zyklus, es sieht aus wie Superfiktion, aber mathematisch ist das Problem lösbar. In einem abgeschlossenen Universum funktionieren die fundamentalen Erhaltungssätze absolut, Energie ist Materie, sowie "Information" geht nirgendwohin, der Lauf der Geschichte kann nicht geändert werden. Die Natur scheint sich selbst poliert zu haben. Hier sind die Ausgangsdaten für die Konstruktion eines zyklischen Universums.

Aufbau eines zyklischen Universums

Eine Analyse des aktuellen Zustands des Universums und alle theoretischen Berechnungen sprechen von einer Sache, das Universum befindet sich an der Grenze zwischen Expansion und Kontraktion, deren Kriterium die HP ist. Die Intensität der gravitativen Wechselwirkung ist nach den Klassikern ungewöhnlich gering, aber durch die Überlagerung der Potentiale aller Gravitationsquellen (Massen) erhalten wir die Summe GP = Ab 2 durch den Raum und durch den Zeitpfeil. Wir betrachten Gravitation als die Wechselwirkung von Gravitonen mit EF PV, d.h. wir müssen ein homogenes Gravitationsfeld mit HP = quantisieren Ab 2. Zur Zeit der BV haben wir zwei Startparameter des Gravitationsfeldes, die als Gravitonparameter betrachtet werden können, das sind GP = Ab 2=g*M Landhausdiele /LPlanke während des gesamten Zeit- und Beschleunigungspfeils stabil bleiben Ab 2 /LPlanke=g*M Landhausdiele /L 2 Planke, das Graviton als Austauschteilchen muss allen Gesetzen der Entwicklung des Universums gehorchen, insbesondere dem Gesetz der kosmologischen Ausdehnung, das Graviton, das beispielsweise aus der n-ten Schicht zu uns heruntergekommen ist, hat dann eine n-mal geringere Wirkung in der Neuzeit ist die Wirkung des Gravitons Ab 2/Lext =g*M Landhausdiele /LPlanke* Lext= 10 21 m/s 2 ! Nach den Klassikern hat diese Formel die Form g*M ext /L 2 ext\u003d 10 -40 m / s 2, was überhaupt nicht zum GP des Universums passt Ab 2. Und wir kommen zu einem bemerkenswerten Ergebnis, die ungemessene Hintergrundenergie des Gravitons ist vergleichbar mit e/m-Quanten durch Wechselwirkungen. Wir verwandeln das Graviton sozusagen aus einem gesichtslosen Zustand in ein unermessliches Monster. Nun wird deutlich, welche Kraft laut QED den VC mit Beschleunigung zum Schwingen bringt Ab 2/Lext- dies ein Graviton ist, dann stellt sich die Frage, ob die Gravitation als ein Strom von Gravitonen unterschiedlicher Energie die primäre Quelle aller Quantenphänomene (Virtualität, Fluktuationen) ist, d.h. Grund. Und was am wichtigsten ist, wir haben ein echtes Werkzeug für die physikalische Beschreibung der Folgen von SRT, GR und dem Mach-Prinzip. Wie man diesen unglaublich großen Wert mit der tatsächlich beobachteten Schwerkraft kombiniert, wie man mit den Klassikern umgeht, werden wir in Zukunft sehen, wie das Korrespondenzprinzip entsteht, aber zuerst werden wir überlegen, wo der eigentliche Mechanismus der Zyklizität des Universums liegt.

Stellen wir uns diese Frage, was bedeutet das Gleichgewicht der Dynamik der Entwicklung des Universums auf der Mikroebene, das ist die Gleichheit der Gravitationsparameter des Gravitons mit den Trägheitseigenschaften des VC, und kombinieren wir nun diese Aktionen - Gegenmaßnahmen in einem einzigen Prozess. Was wir erhalten, ist eine Oszillation auf der Ebene von VY, aber eine besondere, aufgrund der Erweiterung mit unterschiedlichen Schultern. Lassen Sie uns diese Differenz berechnen, wir haben diese Operation bereits durchgeführt, aber von anderen Positionen aus:

vext= C/ n=10 -23 m/c, text= Lext/ C\u003d 10 -12 s, dann Lasim= text* vext\u003d 10 -35 m \u003d \u003dLext/ n= LPlanke ist eine Konstante, die in voller Übereinstimmung mit dem Gesetz von Hubble steht vext / Lext=10 –23 /10 –4,5 =10 –18,5 Sek. –1 =H Hubble

Fasim =g*M ext /Lext\u003d 10 -45 m 2 / s 2, was entspricht v 2 ext

Dann verändert das Graviton, das durch jedes VH geht, die Raumstruktur, d.h. eine Asymmetrie entsteht in den Schwingarmen, immer und überall gleich LPlanke, was einerseits der Dynamik der Expansion und andererseits dem gravitativen Gleichgewicht zwischen den WL entspricht. Mit anderen Worten, das Graviton verlangsamt die Expansionsdynamik, komprimiert den Raum eindimensional. Man kann so sagen, das Graviton unterstützt sich selbst (vergrößert), indem es die Expansionsrate des Raums verringert. Es findet ein Übergang der kinetischen Energie der Expansion in die potentielle Energie des Gravitons statt. Was dann die Phase eines fließenden Übergangs bewirkte. Der Prozess der ständigen Verlangsamung der Gleichgewichtsausweitung wäre unendlich, wenn nicht die Masse aller ECs wäre. Damit der Countdown funktioniert, muss das Graviton, das aufgrund der Massen zugenommen hat, während der Expansionsphase von 13,7 Milliarden Jahren die Schwingungsdifferenz von positiv nach negativ ändern, und zwar nur um LPlanke= 10 -35 m. Früher leisteten die Relikte und Neutrinos den Hauptbeitrag, näher an der Neuzeit kamen alle anderen EPs hinzu, d.h. EC-Massen spielen in der Übergangsphase die Rolle eines „weichen Dämpfers“. Dann ist die Masse aller EPs für das Gleichgewicht der Dynamik der Entwicklung des Universums verantwortlich, und die Masse aller EPs ist für das Zeitintervall des Zyklus verantwortlich. Für den gesamten Zyklus des Universums dehnt jedes Graviton, das 10 30,5-mal wechselwirkt, zunächst die VC-Schwingung in der angegebenen Richtung bis zu aus L 0 = 10 -4,5 m (Ausbaustufe) und verdichtet sich dann zu LPlanke=10 -35 m (Druckstufe). Und da es mindestens 10 30,5 davon im Ring gibt, beträgt die Ausdehnung und Kontraktion des gesamten Rings für den gesamten Zyklus 10 26 m bzw. 10 -4,5 m. Es ist interessant, wie das Gesetz der universellen Gravitation lautet aus diesen Positionen aufgebaut. Nach der Theorie ist jeder EC während des Zyklus gleich Mit/Lext\u003d 10 -12 Sek. macht den Raumkoppler proportional zu seiner Masse, für das Nukleon erhalten wir:

M Kern/M Vya=10 11.5 ; vKern=LPlanke*M Kern/M vya *tKreislauf= 10 -35 *10 11,5 /10 -12 =10 -11,5 m/s dann:

und Kern =v 2 Kern/LKern\u003d 10 -23 / 10 -15 \u003d 10 -8 m / s 2, was den Klassikern entspricht:

g*M Kern/L 2 Kern\u003d 10 -11 * 10 -27 / 10 -30 \u003d 10 -8 m / s 2:

In Bezug auf unseren Planeten passen 10 17 Stück in den Durchmesser der Erde. Nukleonen, dann erzeugt ihre Gesamtwirkung eine Beschleunigung gleich:

eine Erde1 = eine Null *NKern\u003d 10 -8 * 10 17 \u003d 10 9 m / s 2, diese Beschleunigung entspricht der Neutronenerde (die Abstände zwischen Nukleonen sind LKern\u003d 10 -15 m), dann schieben wir die Nukleonen auf die Größe der mittleren Dichte auseinander LMittwochs=10 -11 m, d.h. durch vier Befehle. In diesem Fall ändert sich die Stärke der Gravitonen nicht, nur die Intensität ändert sich proportional zum Quadrat der Trennung, dann:

eine Erde2 = eine Erde1 *N 2 Sektion\u003d 10 9 * 10 8 \u003d 10 1 m / s 2, was mit den Klassikern übereinstimmt.

Rnrnrn rnrnrn rnrnrn

An dieser Konstruktion ist nur eine Konstante beteiligt LPlanke, es werden keine Feldkräfte angewendet, wir haben nur eindimensionale Operationen durchgeführt. Während hier eines klar ist, hängt die Gravitationskraft (die Kraft eines einzelnen Gravitons) nicht von der Entfernung ab und ist kumulativ, nur die Intensität ändert sich. Halten wir gleich fest, dass sich die Bedeutung von Gravitation und Gravitation hier grundlegend ändert, Tatsache ist, dass Gravitation und Gravitation, die einen einzigen Ursprung haben, immer noch verschiedene Dinge sind Ab 2, ist es nicht möglich, die Parameter von Gravitonen (Gesamtgravitation) zu messen, tatsächlich ist dies eine Theorie der nicht gemessenen Größen. Was ist der grundlegende Unterschied zwischen der klassischen und der vorgeschlagenen Version der Schwerkraft? Der Klassiker unter der Schwerkraft bedeutet die Einwirkung (Auferlegung) aller Gravitationsquellen gleichzeitig auf jeden Punkt im Raum. Nach der Theorie ist es so, als würden Gravitonen jeden Punkt im Raum abtasten, wobei die verstärkten Gravitonen den Massen der Quellen entsprechen und die Intensität den Entfernungen zu den Quellen entspricht. In Summe ist das dasselbe, aber die physikalische Bedeutung ist eine völlig andere. Es ist dieser Mechanismus der Wechselwirkung des Gravitons mit VY, EP, der die Bedeutung der Geometrisierung der Gravitation erklärt. Gravitation ist die Integration aller eindimensionalen Ebenen des Raums durch Gravitonen im gesamten Volumen. Die Umsetzung der vorgeschlagenen Variante der Zyklizität des Universums erfordert eine neue Herangehensweise an die Physik der Trägheit, da eine absolute Gleichheit der Trägheitseigenschaften aller VH, SP mit der Gravitation sowohl lokal als auch global, sonst verliert dieses gesamte System an Stabilität. Wir müssen wirklich die Stabilität eines solchen Verhaltens der PV beweisen, und ein solcher Mechanismus wurde gefunden, das ist die Symmetrie in der Schwerkraft und das Quantenprinzip der Bewegung.

Symmetrie in der Schwerkraft

Nachdem der Raum materialisiert wurde, wird klar, was genau explodiert ist, aber es bleibt ein Rätsel, was das BW, das Entstehen und die weitere Aufrechterhaltung des Gleichgewichts verursacht hat. Wir müssen eine neue vergängliche Art von Kraft mit unglaublichen Parametern einführen, diese Kraft, die BV realisiert hat, hält sich weiterhin streng an die Gravitation des Raums, sowohl auf lokaler Ebene als auch auf der Skala des gesamten Universums, d.h. passt sich irgendwie der Expansionsdynamik an. Hier hilft uns der Mechanismus zur Lösung des Mach-Prinzips. Die Wirkung von Schwerkraft und Trägheit auf den Raum ist identisch, selbst die Gleichheit legt die Idee nahe, ob die Trägheitskraft ein integraler Bestandteil der Schwerkraft ist, wie sie aussieht. Aktion-Reaktion, Schwerkraft-Trägheit und insgesamt die Gleichheit von schwerer und träger Masse, d.h. Schwerkraft und Trägheit sind integrale Bestandteile der Gravitationswechselwirkung, dann ist die Schwerkraft symmetrisch. Hier sind vier weitere Argumente für Symmetrie. 1. Gravitation in dieser Form erfüllt eindeutig die Nullbedingungen der Gesamtenergie, sowohl lokal als auch global. Ohne ein Graviton als Trägheits- und Gravitationsträger bleibt VY, EP grob gesagt nichts übrig. 2. Die Schwerkraft ist nicht messbar, weil sie symmetrisch ist, dann sollte die Hauptquelle der Planckschen Konstante als Träger der Trägheit die Schwerkraft sein. 3. Wenn wir das Bild der Expansion des Universums aufnehmen und sozusagen bis zu BV zurückscrollen, erhalten wir den reinsten Mechanismus für die Bildung der Kompressionsphase des Universums und seines Zusammenbruchs, d.h. BV und Kollaps sind symmetrisch. Dann können wir die Frage beantworten, ohne eine neue Kraft einzuführen. Wer lokales BV implementiert hat - Graviton, wer lokalen Zusammenbruch implementiert hat - Graviton, es gibt 10 91,5 solcher Gebiete, die gleiche Anzahl von Gravitonen, insgesamt ist es das ganze Universum. 4.VN ist eine stabile Struktur und gleichzeitig ist VN die Quelle der Geburt aller Formen von EP, d.h. der GC wird irgendwie überwunden, was der physikalischen Essenz des Zusammenbruchs selbst widerspricht. Hier hilft uns die Symmetrie in der Schwerkraft, die es uns ermöglicht, den GC in zwei Teile zu teilen. In der wissenschaftlichen Literatur wird bewiesen, dass nur dreidimensionaler Raum wirklich existieren kann (also offene Dimensionen), und wie viele geschlossene bereits Variationen von Theorien sind. Drei Generationen fundamentaler Fermionen (drei Paare Quark + Lepton) - drei Raumdimensionen, gibt es hier einen Zusammenhang. Die Geometrie der Bewegung von Gravitonen kann als Ring von Ketten von VL mit den Dimensionen des Universums dargestellt werden, in dem sich mindestens 10 30,5 Einheiten bewegen. Gravitonen. Im Universum als Ganzes gibt es mindestens eine strenge Anzahl von Gravitationsringen n 2 =10 61 , diese Ringe sind gleichmäßig im Volumen des Universums verteilt mit einem bestimmten Volumenschritt von 10 -4,5 m. Die Ringe sollten sich nicht schneiden, diese Anforderung ist notwendig, um die Ordnung der PV-Struktur zusammen mit Gravitonen einzuhalten. Die Konstruktion der einfachsten Figur (mathematisch), bei der sich diese Ringe nicht schneiden, ist eine dreidimensionale Kugel. Im vierdimensionalen Raum dieser Ringe sollte es n 3 geben, wenn wir davon ausgehen, dass drei Arten von fundamentalen Fermionen drei Dimensionen entsprechen sollten (zur Erinnerung, jedes EP hat drei Flächen), dann sollte das VY ein dreidimensionales Objekt sein. Die vierte Dimension erfordert ein viertes Fermionenpaar, aber da Das Universum ist in dieser Situation funktionsunfähig, es kann kein viertes Paar geben. Es bleibt uns, die VL für einen dreidimensionalen Raum als Hauptbaustein bei der Konstruktion der PV zu modellieren. Dann stellt die EL, bestehend aus zwei Bausteinen mit jeweils drei Elementen, eine Struktur des Typs dar:

Lassen Sie uns diese Struktur genauer analysieren.

Wir haben zuvor angenommen, dass der VR nach dem einfachen Gesetz ein geschlossener Zustand des GB ist Mvya=M-Planke *LPlanke/ Lext. Nun stellt sich die Frage nach der Stabilität dieses Zustandes. Wir haben wirklich drei Richtungen, in jeder Richtung gibt es Elemente des VY (Leptoquarks) mit GBs insgesamt gleich M-Planke und eine elektrische Gesamtladung gleich e , und es gibt sechs von ihnen. Das Gleichgewicht dieses Systems führt zu den folgenden theoretischen Schlussfolgerungen: Es sollte zwei Arten von GBs „+“ und „-“ geben, aber im Gegensatz zu elektrischen ziehen sich ähnliche an, im Gegensatz zu anderen stoßen sie ab. Zum Beispiel: Alle EPs sind mit GP "+" ausgestattet und dementsprechend haben alle Anti-EPs GP "-". Drei Leptoquarks befinden sich im GK aufgrund gleicher GBs, und das Ausgleichsgleichgewicht wird aufgrund der elektromagnetischen Abstoßung gleicher Ladungen gebildet und tritt auf Lext= LPlanke/ Ö 137, (Laut TVO werden bei diesen Abständen die elektroschwachen und starken Wechselwirkungen kombiniert). Die anderen drei Anti-Leptoquarks sind aus dem gleichen Grund im Gleichgewicht. Unter Berücksichtigung der Schließung des GB und der Symmetrie der Schwerkraft wird dann der Mechanismus der Vernichtung und der Entstehung von EPs deutlich. Symmetrie in der Schwerkraft erklärt deutlich die Bedeutung von Trägheit und liefert einen Rückstellmechanismus in Schwingung. Das Graviton ist der Träger sowohl der Trägheit als auch der Schwerkraft und begründet physikalisch den gesamten Prozess der Zyklizität des Universums. Wir brauchen vielleicht kein inflationäres Stadium mehr in der Entwicklung des Universums. Tatsache ist, dass sich beim Kollaps des Universums die Geschwindigkeiten zwischen benachbarten Schichten der Lichtgeschwindigkeit nähern, was sozusagen zur Verschmelzung des Gravitons mit dem VH und dementsprechend zu einer Verringerung des Einflusses der Gravitationskräfte führt zwischen VH. Die Schwerkraft, die einen Kollaps erzeugt hatte, begrub sich selbst, das BV-Szenario begann, und dies ist dem Phasenübergang eines falschen Vakuums in ein echtes Vakuum sehr ähnlich. Darüber hinaus werden die für die Bildung von Galaxien notwendigen Inhomogenitäten automatisch durch das kollabierende Universum selbst festgelegt. Hier wird die Lösung eines anderen Problems stark vereinfacht. In den Theorien der Vereinigung aller Wechselwirkungen und Materie, insbesondere der Supergravitation, um positive Unendlichkeiten zu kompensieren, die während der Renormierung aus Gravitonschleifen entstehen, werden acht neue EPs mit Spin 3/2 wie Gravitino, Photino, Gluino usw. eingeführt. Erstellen von negativen Unendlichkeiten. An der Spitze dieser Acht steht ein Graviton mit Spin = 2, Symmetrie in der Schwerkraft erzeugt automatisch einen Kompensationsmechanismus, und die Diener dieser exotischen Teilchen können aufgegeben werden.

Quantenprinzip der Bewegung

PV ist die Grundlage für den Aufbau des gesamten QED und ist gleichzeitig für die Erstellung von SRT nicht akzeptabel. Wie lassen sich diese widersprüchlichen Positionen in der PV-Frage vereinbaren? Die Auswirkungen von SRT GR, Quanteneffekte, das Problem des Äthers zwingen uns, die Konzepte von Raum, Zeit und das Wesen der Bewegung zu überdenken. Tatsache ist, dass der Äther eine unbestreitbare Realität ist (die Befürworter des Äthers haben Recht), aber alle Experimente im Rahmen der SRT zeigen das Gegenteil, es gibt keinen Äther (die Gegner haben Recht). Was gemeinsam gelöst wird, ist das Prinzip der Bewegung in der Umgebung und ohne die Umgebung. Und was ist, wenn wir die Quelle des Streits ablehnen, nicht der Äther ist eine Folge, sondern die Essenz der Bewegung selbst und damit sowohl die Befürworter als auch die Gegner des Äthers zufrieden stellen. Angenommen, es gibt keine Bewegung als solche in PV, es gibt nur eine Zustandsübertragung, wie man sich das vorstellen kann. Lassen Sie uns eine der Eigenschaften von PV verwenden - Virtualität. Nehmen wir an, EC ist eine Vakanz für PV, d.h. ein unvollständiges VY, das immer dazu tendiert, mit PV-Elementen gefüllt zu werden (virtuelle Vernichtung), während eine ähnliche Leerstelle entsteht, aber an einer anderen Stelle ein Bewegungseffekt entsteht, irgendwo gibt es eine Analogie zu Halbleiterlöchern. Tatsächlich erfinden wir hier nichts Neues, dieses Bewegungsprinzip ist nicht explizit, aber in der QED sichtbar. Die Bewegung des EP ist identisch mit seinem Aufenthalt in einem gleichförmigen Gravitationsfeld, was dem Austauschvorgang zwischen den EP-VY direkt Gravitonen mit Energie entsprechend der erreichten Geschwindigkeit entspricht. Dann entstehen Dimension und Zeit nur bei Austauschprozessen, egal ob real oder virtuell, wie z. B. Interaktion in eine bestimmte Richtung, es gibt auch einen Mechanismus zur Messung von Dimension (Orientierung) und Zeit. Diese Anforderungen folgen aus dem Übereinstimmungsprinzip zwischen SRT und dem Konzept des physikalischen Wesens der Zeit. Bei Lichtgeschwindigkeit hat das EC nur mit einem Graviton „Verbindung“, mit dem es sich bewegt, aber da sich die Gravitonen nicht schneiden, sind alle Austauschprozesse und die Zeit gemäß SRT ausgesetzt, und damit das EC geht in die absolute Ordnung der PV über. EC wird zu einem toten Objekt, sein Zustand entspricht immer der letzten Interaktion, indirekt manifestiert sich diese Tatsache in Aspekts Experiment. Zwei EC befinden sich danach in einem gebundenen Zustand und fliegen mit einer Geschwindigkeit in verschiedene Richtungen auseinander Mit behalten die Erinnerung an den gebundenen Staat, bis sie legalisiert sind, d.h. Die über den ES durchgeführten Messungen hängen nicht von der Länge ihres Hochlaufs ab, dann wird die dem Beginn des Hochlaufs entsprechende Korrelation auf den Zeitpunkt der Messungen übertragen. Das Graviton ist der Träger der Gravitation und Trägheit, kombiniert man diese Innovation mit dem Quantenprinzip der Bewegung, können wir vernünftiger sagen: Die wahre Ursache von allem ohne kausale Ereignisse ist das Graviton, das ist ein reiner Quanteneffekt.

Gravitationslaser

Das oben dargestellte Material kann Anlass zu verschiedenen Beurteilungen geben. Ohne ein Experiment (Bestätigung) kann jede Theorie generiert werden und die Idee, ein Experiment aufzustellen, wurde gefunden, man kann es wie einen Gravitationslaser nennen. Wir nehmen einen extra langen und ultradünnen massiven Stab und platzieren entlang seiner Richtung einen EC mit einer speziellen Messausrüstung. So schaffen wir einen lokalen Bereich von Einflüssen, die aus dem verstärkten Gravitonstab auf den EP kommen, spezielle Ausrüstung behebt die EP-Schwankungen. Lassen Sie uns im Stab einen mechanischen Wellenprozess anregen, d.h. Wir ändern die lokale Region der verstärkten Gravitonen im Takt der Welle in der Stange, die durch die Ausrüstung fixiert wird. Wenn die Theorie stimmt, haben wir zum ersten Mal einen echten Mechanismus zur Messung der Ausbreitungsgeschwindigkeit der Schwerkraft.

Literatur

1. P. Davis Supermacht. Ed. Frieden 1989.

2. V.L. Yanchilin Geheimnisse der Schwerkraft M. New Center 2004.

3. n. Chr. Chernin-Kosmologie: Der Urknall. Ed. Vek-2 2005.

4. Magazin: Erde und Universum 2002 №5 Seltsame Beschleunigung der Pioniere.

5. V.A. Rubakov-Vortrag: Dunkle Materie ist dunkle Energie im Universum.

Ich biete die Zusammenarbeit bei der Erstellung eines einzelnen Projekts im Rahmen des physischen Realismus an.