Elemente der Darstellungstheorie Quantentheorie. Quantentheorie

Dieser offensichtlich messinduzierte Zusammenbruch der Wellenfunktion war die Quelle vieler konzeptioneller Schwierigkeiten in der Quantenmechanik. Vor dem Kollaps kann man nicht sicher sagen, wo das Photon landen wird; es kann überall mit einer Wahrscheinlichkeit ungleich Null sein. Es gibt keine Möglichkeit, den Weg eines Photons von der Quelle zum Detektor zu verfolgen. Das Photon ist unwirklich in dem Sinne, dass ein Flugzeug, das von San Francisco nach New York fliegt, real ist.

Unter anderem Werner Heisenberg interpretierte diese Mathematik so, dass die Realität erst existiert, wenn man sie beobachtet. „Die Vorstellung einer objektiven realen Welt, deren kleinste Teilchen objektiv im gleichen Sinne existieren wie Steine ​​oder Bäume, ob wir sie beobachten oder nicht, ist unmöglich“, schrieb er. John Wheeler verwendete auch eine Variante des Doppelspaltexperiments, um zu erklären, dass "kein elementares Quantenphänomen ein Phänomen ist, bis es ein aufgezeichnetes ("beobachtbares", "sicher aufgezeichnetes") Phänomen ist.

Aber die Quantentheorie gibt absolut keinen Hinweis darauf, was als "Messung" gilt. Es postuliert einfach, dass das Messgerät klassisch sein muss, ohne anzugeben, wo diese Grenze zwischen Klassik und Quanten liegt, und lässt die Tür für diejenigen offen, die glauben, dass der Zusammenbruch das menschliche Bewusstsein verursacht. Im vergangenen Mai erklärten Henry Stapp und seine Kollegen, dass das Doppelspaltexperiment und seine aktuellen Varianten darauf hindeuten, dass „ein bewusster Beobachter notwendig sein könnte“, um das Quantenreich zu verstehen, und dass die materielle Welt auf einem transpersonalen Geist basiert.

Aber diese Experimente sind kein empirischer Beweis für solche Behauptungen. Im Doppelspaltexperiment mit einzelnen Photonen kann man nur die Wahrscheinlichkeitsvorhersagen der Mathematik testen. Wenn Wahrscheinlichkeiten auftauchen, wenn Zehntausende identischer Photonen durch den Doppelspalt geschickt werden, sagt die Theorie, dass die Wellenfunktion jedes Photons zusammengebrochen ist - dank eines vage definierten Prozesses namens Messung. Das ist alles.

Darüber hinaus gibt es weitere Interpretationen des Doppelspaltexperiments. Nehmen wir zum Beispiel die Theorie von de Broglie-Bohm, die besagt, dass die Realität sowohl eine Welle als auch ein Teilchen ist. Ein Photon geht zu jedem Zeitpunkt zu einem Doppelspalt mit einer bestimmten Position und passiert den einen oder anderen Spalt; daher hat jedes Photon eine Flugbahn. Es passiert die Pilotwelle, die durch beide Schlitze eintritt, interferiert und lenkt dann das Photon zum Ort der konstruktiven Interferenz.

1979 modellierten Chris Dewdney und Kollegen am Brickbeck College London die Vorhersage dieser Theorie der Pfade von Partikeln, die durch den Doppelspalt gehen würden. In den letzten zehn Jahren haben Experimentatoren bestätigt, dass solche Trajektorien existieren, wenn auch unter Verwendung der umstrittenen Technik der sogenannten schwachen Messungen. Obwohl umstritten, haben Experimente gezeigt, dass die de Broglie-Bohm-Theorie immer noch in der Lage ist, das Verhalten der Quantenwelt zu erklären.

Noch wichtiger ist, dass diese Theorie keine Beobachter oder Messungen oder immaterielles Bewusstsein benötigt.

Ebensowenig die sogenannten Kollapstheorien, aus denen folgt, dass die Wellenfunktionen zufällig kollabieren: Je größer die Zahl der Teilchen in einem Quantensystem, desto wahrscheinlicher ist der Kollaps. Beobachter notieren einfach das Ergebnis. Das Team von Markus Arndt an der Universität Wien in Österreich testete diese Theorien, indem es immer größere Moleküle durch den Doppelspalt schickte. Kollapstheorien sagen voraus, dass Materieteilchen, wenn sie massiver als eine bestimmte Schwelle werden, nicht länger in einer Quantenüberlagerung bleiben können und beide Spalte gleichzeitig passieren, was das Interferenzmuster zerstört. Arndts Team schickte ein 800-Atom-Molekül durch einen Doppelspalt und sah trotzdem die Interferenz. Die Schwellensuche wird fortgesetzt.

Roger Penrose hatte seine eigene Version der Kollapstheorie, in der je höher die Masse eines Objekts in Überlagerung ist, desto schneller kollabiert es aufgrund von Gravitationsinstabilitäten in den einen oder anderen Zustand. Auch diese Theorie erfordert keinen Beobachter oder irgendein Bewusstsein. Dirk Boumeester von der University of California in Santa Barbara testet Penroses Idee mit einer Version des Doppelspaltexperiments.

Konzeptionell besteht die Idee nicht nur darin, ein Photon in eine Überlagerung zu bringen, indem es zwei Schlitze gleichzeitig passiert, sondern auch einen der Schlitze in eine Überlagerung zu bringen und ihn gleichzeitig an zwei Orten zu machen. Laut Penrose bleibt die ersetzte Lücke entweder in Überlagerung oder kollabiert mit dem Photon im Flug, was zu unterschiedlichen Interferenzmustern führt. Dieser Zusammenbruch hängt von der Masse der Schlitze ab. Bowmeister arbeitet seit zehn Jahren an diesem Experiment und könnte die Behauptungen von Penrose bald bestätigen oder widerlegen.

Jedenfalls zeigen diese Experimente, dass wir noch keine Aussagen über die Natur der Realität machen können, auch wenn diese Aussagen mathematisch oder philosophisch gut untermauert sind. Und angesichts der Tatsache, dass sich Neurowissenschaftler und Denkphilosophen nicht auf die Natur des Bewusstseins einigen können, ist die Behauptung, dass es zum Kollaps der Wellenfunktion führt, bestenfalls verfrüht und schlimmstenfalls irreführend.

Und was ist Ihre Meinung? erzählen in unserem

Die Physik ist die geheimnisvollste aller Wissenschaften. Die Physik gibt uns ein Verständnis für die Welt um uns herum. Die Gesetze der Physik sind absolut und gelten ausnahmslos für alle, unabhängig von Person und sozialem Status.

Dieser Artikel ist für Personen über 18 Jahre bestimmt.

Bist du schon über 18?

Grundlegende Entdeckungen in der Quantenphysik

Isaac Newton, Nikola Tesla, Albert Einstein und viele andere sind die großen Führer der Menschheit in der wunderbaren Welt der Physik, die wie Propheten der Menschheit die größten Geheimnisse des Universums und die Fähigkeit, physikalische Phänomene zu kontrollieren, offenbarten. Ihre hellen Köpfe durchschnitten die Dunkelheit der Unwissenheit der unvernünftigen Mehrheit und zeigten wie ein Leitstern der Menschheit in der Dunkelheit der Nacht den Weg. Einer dieser Dirigenten in der Welt der Physik war Max Planck, der Vater der Quantenphysik.

Max Planck ist nicht nur der Begründer der Quantenphysik, sondern auch der Autor der weltberühmten Quantentheorie. Die Quantentheorie ist der wichtigste Bestandteil der Quantenphysik. Vereinfacht ausgedrückt beschreibt diese Theorie die Bewegung, das Verhalten und die Interaktion von Mikropartikeln. Der Begründer der Quantenphysik brachte uns auch viele andere wissenschaftliche Arbeiten, die zu Eckpfeilern der modernen Physik geworden sind:

  • Theorie der Wärmestrahlung;
  • spezielle Relativitätstheorie;
  • Forschung auf dem Gebiet der Thermodynamik;
  • Forschung auf dem Gebiet der Optik.

Die Theorie der Quantenphysik über das Verhalten und die Wechselwirkung von Mikropartikeln wurde zur Grundlage der Physik der kondensierten Materie, der Elementarteilchenphysik und der Hochenergiephysik. Die Quantentheorie erklärt uns die Essenz vieler Phänomene unserer Welt – von der Funktionsweise elektronischer Computer bis zum Aufbau und Verhalten von Himmelskörpern. Max Planck, der Schöpfer dieser Theorie, hat es uns dank seiner Entdeckung ermöglicht, die wahre Essenz vieler Dinge auf der Ebene der Elementarteilchen zu verstehen. Aber die Schaffung dieser Theorie ist bei weitem nicht das einzige Verdienst des Wissenschaftlers. Er war der Erste, der das fundamentale Gesetz des Universums entdeckte – das Energieerhaltungsgesetz. Der Beitrag von Max Planck zur Wissenschaft ist schwer zu überschätzen. Kurz gesagt, seine Entdeckungen sind für Physik, Chemie, Geschichte, Methodik und Philosophie von unschätzbarem Wert.

Quantenfeldtheorie

Kurz gesagt, die Quantenfeldtheorie ist eine Theorie zur Beschreibung von Mikropartikeln sowie deren Verhalten im Raum, Wechselwirkungen untereinander und gegenseitige Transformationen. Diese Theorie untersucht das Verhalten von Quantensystemen innerhalb der sogenannten Freiheitsgrade. Dieser schöne und romantische Name sagt vielen von uns nichts. Für Dummies sind Freiheitsgrade die Anzahl unabhängiger Koordinaten, die benötigt werden, um die Bewegung eines mechanischen Systems anzuzeigen. Freiheitsgrade sind, vereinfacht ausgedrückt, Eigenschaften von Bewegung. Interessante Entdeckungen auf dem Gebiet der Wechselwirkung von Elementarteilchen wurden von Steven Weinberg gemacht. Er entdeckte den sogenannten Neutralstrom – das Prinzip der Wechselwirkung zwischen Quarks und Leptonen, für das er 1979 den Nobelpreis erhielt.

Die Quantentheorie von Max Planck

In den neunziger Jahren des 18. Jahrhunderts nahm der deutsche Physiker Max Planck das Studium der Wärmestrahlung auf und erhielt schließlich eine Formel für die Energieverteilung. Die Quantenhypothese, die im Laufe dieser Studien geboren wurde, markierte den Beginn der Quantenphysik sowie der im Jahr 1900 entdeckten Quantenfeldtheorie. Die Quantentheorie von Planck besagt, dass bei Wärmestrahlung die erzeugte Energie nicht ständig, sondern episodisch, quantenweise emittiert und absorbiert wird. Das Jahr 1900 wurde dank dieser Entdeckung von Max Planck zum Geburtsjahr der Quantenmechanik. Erwähnenswert ist auch die Plancksche Formel. Kurz gesagt, sein Wesen ist wie folgt: Es basiert auf dem Verhältnis von Körpertemperatur und seiner Strahlung.

Quantenmechanische Theorie des Atombaus

Die quantenmechanische Theorie des Atomaufbaus ist eine der grundlegenden Begriffstheorien der Quantenphysik, ja der Physik im Allgemeinen. Diese Theorie erlaubt es uns, die Struktur von allem Materiellen zu verstehen und öffnet den Schleier der Geheimhaltung darüber, woraus Dinge tatsächlich bestehen. Und die auf dieser Theorie basierenden Schlussfolgerungen sind sehr unerwartet. Betrachten Sie kurz den Aufbau des Atoms. Woraus besteht also ein Atom wirklich? Ein Atom besteht aus einem Atomkern und einer Elektronenwolke. Die Basis des Atoms, sein Kern, enthält fast die gesamte Masse des Atoms selbst - mehr als 99 Prozent. Der Kern hat immer eine positive Ladung und bestimmt das chemische Element, von dem das Atom ein Teil ist. Das Interessanteste am Atomkern ist, dass er fast die gesamte Masse des Atoms enthält, aber gleichzeitig nur ein Zehntausendstel seines Volumens einnimmt. Was folgt daraus? Und der Schluss ist sehr unerwartet. Das bedeutet, dass die dichte Materie im Atom nur ein Zehntausendstel beträgt. Und was ist mit allem anderen? Alles andere im Atom ist eine Elektronenwolke.

Die Elektronenwolke ist keine dauerhafte und sogar keine materielle Substanz. Eine Elektronenwolke ist nur die Wahrscheinlichkeit, dass Elektronen in einem Atom erscheinen. Das heißt, der Kern nimmt im Atom nur ein Zehntausendstel ein, und alles andere ist Leere. Und wenn wir berücksichtigen, dass alle Objekte um uns herum, von Staubpartikeln bis hin zu Himmelskörpern, Planeten und Sternen, aus Atomen bestehen, stellt sich heraus, dass alles Materielle eigentlich zu mehr als 99 Prozent aus Leere besteht. Diese Theorie scheint völlig unglaubwürdig, und ihr Autor zumindest ein verblendeter Mensch, denn die Dinge, die es gibt, haben eine feste Konsistenz, haben Gewicht und können gefühlt werden. Wie kann es aus Leerheit bestehen? Hat sich in diese Theorie der Struktur der Materie ein Fehler eingeschlichen? Aber hier liegt kein Fehler vor.

Alle materiellen Dinge erscheinen nur aufgrund der Wechselwirkung zwischen Atomen dicht. Dinge haben nur aufgrund von Anziehung oder Abstoßung zwischen Atomen eine feste und dichte Konsistenz. Dies sorgt für die Dichte und Härte des Kristallgitters von Chemikalien, aus denen alles Materielle besteht. Aber ein interessanter Punkt, wenn sich beispielsweise die Temperaturbedingungen der Umgebung ändern, können die Bindungen zwischen Atomen, dh ihre Anziehung und Abstoßung, schwächer werden, was zu einer Schwächung des Kristallgitters und sogar zu seiner Zerstörung führt. Dies erklärt die Veränderung der physikalischen Eigenschaften von Stoffen beim Erhitzen. Wenn beispielsweise Eisen erhitzt wird, wird es flüssig und kann in jede beliebige Form gebracht werden. Und wenn Eis schmilzt, führt die Zerstörung des Kristallgitters zu einer Zustandsänderung der Materie, und sie wird von fest zu flüssig. Dies sind klare Beispiele für die Schwächung von Bindungen zwischen Atomen und als Folge die Schwächung oder Zerstörung des Kristallgitters und lassen die Substanz amorph werden. Und der Grund für solche mysteriösen Metamorphosen ist eben, dass Substanzen nur zu einem Zehntausendstel aus dichter Materie bestehen und alles andere Leere ist.

Und Substanzen scheinen nur wegen der starken Bindungen zwischen Atomen fest zu sein, mit deren Schwächung sich die Substanz verändert. Die Quantentheorie des Atomaufbaus erlaubt uns also einen ganz anderen Blick auf die Welt um uns herum.

Der Begründer der Atomtheorie, Niels Bohr, stellte ein interessantes Konzept vor, wonach die Elektronen im Atom nicht ständig Energie ausstrahlen, sondern nur im Moment des Übergangs zwischen den Trajektorien ihrer Bewegung. Bohrs Theorie half bei der Erklärung vieler intraatomarer Prozesse und brachte auch einen Durchbruch in der Wissenschaft der Chemie, indem sie die von Mendelejew geschaffenen Grenzen der Tabelle erklärte. Demnach hat das letzte Element, das in Zeit und Raum existieren kann, die Seriennummer einhundertsiebenunddreißig, und Elemente ab einhundertachtunddreißig können nicht existieren, da ihre Existenz der Relativitätstheorie widerspricht. Außerdem erklärte Bohrs Theorie die Natur eines solchen physikalischen Phänomens wie Atomspektren.

Dies sind die Wechselwirkungsspektren freier Atome, die entstehen, wenn zwischen ihnen Energie abgegeben wird. Solche Phänomene sind typisch für gasförmige, dampfförmige Stoffe und Stoffe im Plasmazustand. So hat die Quantentheorie die Welt der Physik revolutioniert und es den Wissenschaftlern ermöglicht, nicht nur auf dem Gebiet dieser Wissenschaft, sondern auch auf dem Gebiet vieler verwandter Wissenschaften voranzukommen: Chemie, Thermodynamik, Optik und Philosophie. Und erlaubte der Menschheit auch, in die Geheimnisse der Natur der Dinge einzudringen.

Es gibt noch viel von der Menschheit in ihrem Bewusstsein zu tun, um die Natur der Atome zu erkennen, um die Prinzipien ihres Verhaltens und ihrer Interaktion zu verstehen. Wenn wir dies verstanden haben, werden wir in der Lage sein, die Natur der Welt um uns herum zu verstehen, denn alles, was uns umgibt, angefangen bei Staubpartikeln bis hin zur Sonne selbst, und wir selbst - alles besteht aus Atomen, deren Natur mysteriös ist und erstaunlich und voller Geheimnisse.

QUANTENTHEORIE

QUANTENTHEORIE

Theorie, deren Grundlagen 1900 vom Physiker Max Planck gelegt wurden. Nach dieser Theorie senden oder empfangen Atome Strahlenenergie immer nur portionsweise diskontinuierlich, nämlich bestimmte Quanten (Energiequanten), deren Energiewert gleich der Schwingungsfrequenz (Lichtgeschwindigkeit geteilt durch die Wellenlänge) der entsprechenden Art ist der Strahlung, multipliziert mit der Planck-Wirkung (siehe . Konstante, Mikrophysik . und auch Quantenmechanik). Quanten wurden der Quantentheorie des Lichts (Korpuskulartheorie des Lichts) zugrunde gelegt (Ch. O. Einstein), wonach Licht auch aus sich mit Lichtgeschwindigkeit bewegenden Quanten (Lichtquanten, Photonen) besteht.

Philosophisches Enzyklopädisches Wörterbuch. 2010 .


Sehen Sie in anderen Wörterbüchern, was "Quantentheorie" ist:

    Es hat die folgenden Unterabschnitte (die Liste ist unvollständig): Quantenmechanik Algebraische Quantentheorie Quantenfeldtheorie Quantenelektrodynamik Quantenchromodynamik Quantenthermodynamik Quantengravitation Superstringtheorie Siehe auch ... ... Wikipedia

    QUANTENTHEORIE, eine Theorie, die in Kombination mit der Relativitätstheorie die Grundlage für die Entwicklung der Physik im gesamten 20. Jahrhundert bildete. Es beschreibt die Beziehung zwischen STOFF und ENERGIE auf der Ebene der ELEMENTAR- oder subatomaren TEILCHEN, sowie ... ... Wissenschaftliches und technisches Lexikon

    Quantentheorie- Eine andere Art der Forschung ist die Untersuchung der Wechselwirkung von Materie und Strahlung. Der Begriff "Quanten" ist mit dem Namen M. Planck (1858 1947) verbunden. Dies ist das „Schwarzkörper“-Problem (ein abstraktes mathematisches Konzept für ein Objekt, das alle Energie ansammelt ... Westliche Philosophie von ihren Anfängen bis zur Gegenwart

    Kombiniert Quantenmechanik, Quantenstatistik und Quantenfeldtheorie... Großes enzyklopädisches Wörterbuch

    Kombiniert Quantenmechanik, Quantenstatistik und Quantenfeldtheorie. * * * Quantentheorie Die Quantentheorie kombiniert Quantenmechanik (siehe Quantenmechanik), Quantenstatistik (siehe Quantenstatistik) und Quantenfeldtheorie ... ... Enzyklopädisches Wörterbuch

    Quantentheorie- kvantinė teorija statusas T sritis fizika atitikmenys: angel. Quantentheorie {f} Quantentheorie, f rus. Quantentheorie, fpranc. Theorie des Quanten, f; theorie quantique, f … Fizikos terminų žodynas

    Phys. eine Theorie, die Quantenmechanik, Quantenstatistik und Quantenfeldtheorie kombiniert. Dem liegt die Idee einer diskreten (diskontinuierlichen) Strahlungsstruktur zugrunde. Nach K. t. kann jedes Atomsystem in bestimmten, ... ... Naturwissenschaft. Enzyklopädisches Wörterbuch

    Die Quantenfeldtheorie ist die Quantentheorie von Systemen mit unendlich vielen Freiheitsgraden (physikalische Felder). Quantenmechanik, die als Verallgemeinerung der Quantenmechanik (Siehe Quantenmechanik) im Zusammenhang mit dem Beschreibungsproblem entstand ... ... Große sowjetische Enzyklopädie

    - (KFT), relativistische Quanten. Theorie der Physik. Systeme mit unendlich vielen Freiheitsgraden. Ein Beispiel für ein solches E-Mail-System. magn. Bereich, für eine jederzeit vollständige Beschreibung des Horns ist die Zuordnung von elektrischen Stärken erforderlich. und magn. Felder an jedem Punkt ... Physikalische Enzyklopädie

    Quantenfeldtheorie. Inhalt:1. Quantenfelder .................. 3002. Freie Felder und Welle-Teilchen-Dualität .................. 3013. Wechselwirkung Felder.........3024. Störungstheorie .................. 3035. Divergenzen und ... ... Physikalische Enzyklopädie

Bücher

  • Quantentheorie
  • Quantum Theory, Bohm D. Das Buch stellt die nicht-relativistische Quantenmechanik systematisch vor. Der Autor analysiert detailliert den physikalischen Inhalt und untersucht detailliert den mathematischen Apparat eines der wichtigsten ...
  • Quantenfeldtheorie Entstehung und Entwicklung Bekanntschaft mit einer der mathematischsten und abstraktesten physikalischen Theorien Ausgabe 124 , Grigoriev V.. Die Quantentheorie ist die allgemeinste und tiefste der modernen physikalischen Theorien. Darüber, wie sich die physikalischen Vorstellungen von Materie veränderten, wie die Quantenmechanik entstand, und dann die Quantenmechanik ...

a) Hintergrund der Quantentheorie

Ende des 19. Jahrhunderts zeigte sich das Scheitern von Versuchen, eine auf den Gesetzen der klassischen Physik basierende Theorie der Schwarzkörperstrahlung zu erstellen. Aus den Gesetzen der klassischen Physik folgte, dass ein Stoff bei jeder Temperatur elektromagnetische Wellen aussenden, Energie verlieren und die Temperatur auf den absoluten Nullpunkt absenken muss. Mit anderen Worten. thermisches Gleichgewicht zwischen Materie und Strahlung war unmöglich. Dies widersprach jedoch der alltäglichen Erfahrung.

Dies kann wie folgt näher erläutert werden. Es gibt das Konzept eines vollständig schwarzen Körpers – eines Körpers, der elektromagnetische Strahlung jeder Wellenlänge absorbiert. Sein Emissionsspektrum wird durch seine Temperatur bestimmt. In der Natur gibt es keine absolut schwarzen Körper. Ein vollständig schwarzer Körper entspricht am genauesten einem geschlossenen undurchsichtigen Hohlkörper mit einem Loch. Jedes Stück Materie leuchtet, wenn es erhitzt wird, und bei weiterer Temperaturerhöhung wird es zuerst rot und dann weiß. Die Farbe der Substanz hängt fast nicht ab, für einen vollständig schwarzen Körper wird sie ausschließlich von ihrer Temperatur bestimmt. Stellen Sie sich einen solchen geschlossenen Hohlraum vor, der auf einer konstanten Temperatur gehalten wird und der materielle Körper enthält, die Strahlung emittieren und absorbieren können. Unterscheidet sich die Temperatur dieser Körper im Anfangsmoment von der Temperatur des Hohlraums, so strebt das System (Hohlraum plus Körper) im Laufe der Zeit einem thermodynamischen Gleichgewicht zu, das durch ein Gleichgewicht zwischen der pro Zeiteinheit absorbierten und gemessenen Energie gekennzeichnet ist. G. Kirchhoff stellte fest, dass dieser Gleichgewichtszustand durch eine bestimmte spektrale Verteilung der Energiedichte der in der Kavität enthaltenen Strahlung gekennzeichnet ist und dass die Funktion, die die spektrale Verteilung bestimmt (Kirchhoff-Funktion), von der Temperatur der Kavität abhängt und hängt weder von der Größe des Hohlraums oder seiner Form noch von den Eigenschaften der darin platzierten materiellen Körper ab. Da die Kirchhoff-Funktion universell ist, d.h. für jeden schwarzen Körper gleich ist, entstand die Annahme, dass seine Form durch einige Bestimmungen der Thermodynamik und Elektrodynamik bestimmt wird. Versuche dieser Art erwiesen sich jedoch als unhaltbar. Aus dem Gesetz von D. Rayleigh folgte, dass die spektrale Dichte der Strahlungsenergie mit zunehmender Frequenz monoton zunehmen sollte, aber das Experiment bezeugte etwas anderes: Zuerst nahm die spektrale Dichte mit zunehmender Frequenz zu und fiel dann. Die Lösung des Problems der Schwarzkörperstrahlung erforderte einen grundlegend neuen Ansatz. Es wurde von M.Planck gefunden.

Planck formulierte 1900 ein Postulat, wonach ein Stoff Strahlungsenergie nur in endlichen Anteilen proportional zur Frequenz dieser Strahlung abgeben kann (siehe Abschnitt „Die Entstehung der Atom- und Kernphysik“). Dieses Konzept hat zu einer Veränderung der traditionellen Bestimmungen geführt, die der klassischen Physik zugrunde liegen. Die Existenz einer diskreten Aktion zeigte die Beziehung zwischen der Lokalisierung eines Objekts in Raum und Zeit und seinem dynamischen Zustand. L. de Broglie betonte, dass „dieser Zusammenhang aus Sicht der klassischen Physik völlig unerklärlich und in seinen Konsequenzen viel unverständlicher erscheint als der von der Relativitätstheorie hergestellte Zusammenhang zwischen Raumvariablen und Zeit ." Das Quantenkonzept sollte in der Entwicklung der Physik eine große Rolle spielen.

Der nächste Schritt in der Entwicklung des Quantenkonzepts war die Erweiterung der Planckschen Hypothese durch A. Einstein, die es ihm ermöglichte, die Gesetze des photoelektrischen Effekts zu erklären, die nicht in den Rahmen der klassischen Theorie passten. Das Wesen des photoelektrischen Effekts ist die Emission schneller Elektronen durch eine Substanz unter dem Einfluss elektromagnetischer Strahlung. Die Energie der emittierten Elektronen hängt nicht von der Intensität der absorbierten Strahlung ab und wird durch ihre Frequenz und die Eigenschaften der gegebenen Substanz bestimmt, aber die Anzahl der emittierten Elektronen hängt von der Intensität der Strahlung ab. Eine Erklärung des Mechanismus der freigesetzten Elektronen konnte nicht gegeben werden, da nach der Wellentheorie eine auf ein Elektron einfallende Lichtwelle kontinuierlich Energie auf dieses überträgt und deren Menge pro Zeiteinheit proportional sein sollte die Intensität der darauf einfallenden Welle. Einstein schlug 1905 vor, dass der photoelektrische Effekt die diskrete Struktur des Lichts bezeugt, d.h. dass sich die abgestrahlte elektromagnetische Energie wie ein Teilchen (später Photon genannt) ausbreitet und absorbiert wird. Die Intensität des einfallenden Lichts wird dann durch die Anzahl der Lichtquanten bestimmt, die pro Sekunde auf einen Quadratzentimeter der beleuchteten Ebene fallen. Daraus ergibt sich die Anzahl der Photonen, die von einer Einheitsfläche pro Zeiteinheit emittiert werden. sollte proportional zur Lichtintensität sein. Wiederholte Experimente haben diese Erklärung Einsteins bestätigt, nicht nur mit Licht, sondern auch mit Röntgen- und Gammastrahlen. Der 1923 entdeckte A. Compton-Effekt lieferte neue Beweise für die Existenz von Photonen - es wurde eine elastische Streuung elektromagnetischer Strahlung kleiner Wellenlängen (Röntgen- und Gammastrahlung) an freien Elektronen entdeckt, die mit einer Zunahme der Wellenlänge einhergeht. Nach der klassischen Theorie sollte sich die Wellenlänge bei einer solchen Streuung nicht ändern. Der Compton-Effekt bestätigte die Richtigkeit der Quantenvorstellungen über elektromagnetische Strahlung als Strom von Photonen - er kann als elastische Kollision eines Photons und eines Elektrons betrachtet werden, bei der das Photon einen Teil seiner Energie und damit seiner Frequenz auf das Elektron überträgt abnimmt und die Wellenlänge zunimmt.

Es gab andere Bestätigungen des Photonenkonzepts. Als besonders fruchtbar erwies sich die Atomtheorie von N. Bohr (1913), die den Zusammenhang zwischen dem Aufbau der Materie und der Existenz von Quanten aufzeigte und feststellte, dass sich auch die Energie inneratomarer Bewegungen nur abrupt ändern kann. Damit erfolgte die Erkenntnis der diskreten Natur des Lichts. Aber im Wesentlichen war es eine Wiederbelebung des zuvor abgelehnten korpuskulären Lichtbegriffs. Daher ergaben sich ganz natürlich Probleme: wie man die Diskretheit der Lichtstruktur mit der Wellentheorie verbindet (zumal die Wellentheorie des Lichts durch eine Reihe von Experimenten bestätigt wurde), wie man die Existenz eines Lichtquants mit dem Phänomen verbindet der Interferenz, wie lassen sich Interferenzphänomene vom Standpunkt des Quantenbegriffs aus erklären? Daher entstand ein Bedarf an einem Konzept, das die korpuskularen und Wellenaspekte der Strahlung verknüpft.

b) Das Konformitätsprinzip

Um die Schwierigkeiten zu beseitigen, die bei der Verwendung der klassischen Physik zur Rechtfertigung der Stabilität von Atomen auftraten (denken Sie daran, dass der Energieverlust eines Elektrons zu seinem Sturz in den Kern führt), nahm Bohr an, dass ein Atom in einem stationären Zustand nicht strahlt (siehe die Vorherige Sektion). Daher war die elektromagnetische Strahlungstheorie nicht geeignet, Elektronen zu beschreiben, die sich auf stabilen Bahnen bewegen. Aber der Quantenbegriff des Atoms, der den elektromagnetischen Begriff aufgegeben hatte, konnte die Eigenschaften der Strahlung nicht erklären. Es stellte sich die Aufgabe, zu versuchen, eine gewisse Übereinstimmung zwischen Quantenphänomenen und den Gleichungen der Elektrodynamik herzustellen, um zu verstehen, warum die klassische elektromagnetische Theorie eine korrekte Beschreibung von großräumigen Phänomenen gibt. In der klassischen Theorie sendet ein Elektron, das sich in einem Atom bewegt, kontinuierlich und gleichzeitig Licht unterschiedlicher Frequenzen aus. Im Gegensatz dazu strahlt in der Quantentheorie ein Elektron, das sich in einem Atom auf einer stationären Umlaufbahn befindet, nicht - die Strahlung eines Quants tritt nur im Moment des Übergangs von einer Umlaufbahn in eine andere auf, d.h. die Emission von Spektrallinien eines bestimmten Elements ist ein diskreter Prozess. Es gibt also zwei völlig unterschiedliche Ansichten. Können sie harmonisiert werden und wenn ja, in welcher Form?

Es ist offensichtlich, dass eine Übereinstimmung mit dem klassischen Bild nur möglich ist, wenn alle Spektrallinien gleichzeitig emittiert werden. Gleichzeitig ist es offensichtlich, dass aus Quantensicht die Emission jedes Quants ein individueller Akt ist und daher, um die gleichzeitige Emission aller Spektrallinien zu erhalten, es notwendig ist, ein ganzes großes Ensemble zu betrachten von Atomen gleicher Art, bei denen verschiedene einzelne Übergänge auftreten, die zur Emission verschiedener Spektrallinien eines bestimmten Elements führen. . In diesem Fall muss das Konzept der Intensität der verschiedenen Linien des Spektrums statistisch dargestellt werden. Um die Intensität der Einzelstrahlung eines Quants zu bestimmen, muss ein Ensemble aus einer großen Anzahl identischer Atome betrachtet werden. Die elektromagnetische Theorie ermöglicht die Beschreibung makroskopischer Phänomene, die Quantentheorie jene Phänomene, bei denen viele Quanten eine wichtige Rolle spielen. Daher ist es sehr wahrscheinlich, dass die Ergebnisse der Quantentheorie im Bereich vieler Quanten eher klassisch sein werden. Auf diesem Gebiet ist die Übereinstimmung zwischen klassischer und Quantentheorie zu suchen. Um die klassische und die Quantenfrequenz zu berechnen, muss man herausfinden, ob diese Frequenzen für stationäre Zustände, die großen Quantenzahlen entsprechen, zusammenfallen. Bohr schlug vor, dass man für eine ungefähre Berechnung der tatsächlichen Intensität und Polarisation die klassischen Schätzungen von Intensitäten und Polarisationen verwenden kann, indem man die für große Quantenzahlen festgestellte Entsprechung auf den Bereich kleiner Quantenzahlen extrapoliert. Dieses Korrespondenzprinzip hat sich bestätigt: Die physikalischen Ergebnisse der Quantentheorie bei großen Quantenzahlen sollten mit den Ergebnissen der klassischen Mechanik übereinstimmen, und die relativistische Mechanik geht bei niedrigen Geschwindigkeiten in die klassische Mechanik über. Eine verallgemeinernde Formulierung des Korrespondenzprinzips lässt sich so ausdrücken, dass eine neue Theorie, die den Anspruch erhebt, einen breiteren Anwendungsbereich zu haben als die alte, letztere als Sonderfall einbeziehen sollte. Die Nutzung des Korrespondenzprinzips und seine Präzisierung trugen zur Entstehung der Quanten- und Wellenmechanik bei.

Gegen Ende der ersten Hälfte des 20. Jahrhunderts tauchten in der Erforschung der Natur des Lichts zwei Konzepte auf - Welle und Korpuskular, die die Kluft, die sie trennte, nicht überwinden konnten. Es war dringend notwendig, ein neues Konzept zu schaffen, bei dem Quantenideen die Grundlage bilden und nicht als eine Art "Anhängsel" fungieren sollten. Die Verwirklichung dieses Bedarfs erfolgte durch die Schaffung der Wellenmechanik und der Quantenmechanik, die im Wesentlichen eine einzige neue Quantentheorie darstellten – der Unterschied lag in den verwendeten mathematischen Sprachen. Die Quantentheorie als nicht-relativistische Theorie der Bewegung von Mikroteilchen war das tiefste und breiteste physikalische Konzept, das die Eigenschaften makroskopischer Körper erklärt. Es basierte auf der Idee der Planck-Einstein-Bohr-Quantisierung und der Hypothese von de Broglie über Materiewellen.

c) Wellenmechanik

Seine Hauptideen tauchten 1923-1924 auf, als L. de Broglie die Idee äußerte, dass das Elektron auch Welleneigenschaften haben muss, inspiriert von der Analogie mit Licht. Zu diesem Zeitpunkt waren die Vorstellungen über die diskrete Natur der Strahlung und die Existenz von Photonen bereits stark genug geworden, daher war es zur vollständigen Beschreibung der Eigenschaften der Strahlung notwendig, sie abwechselnd entweder als Teilchen oder als Welle darzustellen . Und da bereits Einstein gezeigt hatte, dass der Dualismus der Strahlung mit der Existenz von Quanten verbunden ist, lag es nahe, die Frage nach der Möglichkeit aufzuwerfen, einen solchen Dualismus im Verhalten eines Elektrons (und allgemein materieller Teilchen) nachzuweisen. De Broglies Hypothese über Materiewellen wurde durch das 1927 entdeckte Phänomen der Elektronenbeugung bestätigt: Es stellte sich heraus, dass ein Elektronenstrahl ein Beugungsmuster ergibt. (Später wird Beugung auch in Molekülen zu finden sein.)

Ausgehend von de Broglies Idee der Materiewellen leitete E. Schrödinger 1926 die Grundgleichung der Mechanik (die er Wellengleichung nannte) her, die es ermöglicht, die möglichen Zustände eines Quantensystems und ihre zeitliche Änderung zu bestimmen. Die Gleichung enthielt die sogenannte Wellenfunktion y (psi-Funktion), die die Welle (im abstrakten Konfigurationsraum) beschreibt. Schrödinger gab eine allgemeine Regel für die Umwandlung dieser klassischen Gleichungen in Wellengleichungen an, die sich auf einen mehrdimensionalen Konfigurationsraum und nicht auf einen echten dreidimensionalen beziehen. Die Psi-Funktion bestimmt die Wahrscheinlichkeitsdichte, ein Teilchen an einem bestimmten Punkt zu finden. Im Rahmen der Wellenmechanik könnte man sich ein Atom als Kern vorstellen, der von einer eigentümlichen Wahrscheinlichkeitswolke umgeben ist. Mit Hilfe der Psi-Funktion wird die Wahrscheinlichkeit der Anwesenheit eines Elektrons in einem bestimmten Raumbereich bestimmt.

d) Quanten-(Matrix-)Mechanik.

Unschärferelation

1926 entwickelt W. Heisenberg ausgehend vom Korrespondenzprinzip seine Version der Quantentheorie in Form der Matrizenmechanik. Angesichts der Tatsache, dass es beim Übergang vom klassischen Standpunkt zum Quantenatom notwendig ist, alle physikalischen Größen zu zerlegen und sie auf eine Menge einzelner Elemente zu reduzieren, die verschiedenen möglichen Übergängen eines Quantenatoms entsprechen, wurde er zu deren Vertreter physikalische Eigenschaft eines Quantensystems mit einer Zahlentafel (Matrix) . Dabei ließ er sich bewusst von dem Ziel leiten, einen phänomenologischen Begriff zu konstruieren, um daraus alles auszuschließen, was nicht direkt beobachtbar ist. In diesem Fall besteht keine Notwendigkeit, die Position, Geschwindigkeit oder Flugbahn der Elektronen im Atom in die Theorie einzuführen, da wir diese Eigenschaften weder messen noch beobachten können. In die Berechnungen sollten nur solche Größen eingehen, die tatsächlich beobachteten stationären Zuständen, Übergängen zwischen ihnen und der sie begleitenden Strahlung zugeordnet sind. In den Matrizen waren die Elemente in Zeilen und Spalten angeordnet und hatten jeweils zwei Indizes, von denen einer der Spaltennummer und der andere der Zeilennummer entsprach. Diagonale Elemente (d. h. Elemente, deren Indizes übereinstimmen) beschreiben einen stationären Zustand, und nicht-diagonale Elemente (Elemente mit unterschiedlichen Indizes) beschreiben Übergänge von einem stationären Zustand zu einem anderen. Der Wert dieser Elemente wird den Werten zugeordnet, die die Strahlung während dieser Übergänge charakterisieren, die nach dem Korrespondenzprinzip erhalten werden. Auf diese Weise baute Heisenberg eine Matrizentheorie auf, deren gesamte Größen nur die beobachteten Phänomene beschreiben sollten. Und obwohl das Vorhandensein seiner Theorie von Matrizen, die die Koordinaten und Impulse von Elektronen in Atomen darstellen, im Apparat Zweifel am vollständigen Ausschluss unbeobachtbarer Größen aufkommen lässt, gelang es Heeisenbert, ein neues Quantenkonzept zu schaffen, das einen neuen Schritt in der Entwicklung der Quanten darstellte Theorie, deren Kern darin besteht, die in der Atomtheorie vorkommenden physikalischen Größen zu ersetzen, Matrizen - Zahlentabellen. Die mit den Methoden der Wellen- und Matrizenmechanik erzielten Ergebnisse stellten sich als gleich heraus, sodass beide Konzepte als gleichwertig in die einheitliche Quantentheorie aufgenommen wurden. Die Methoden der Matrizenmechanik führen aufgrund ihrer größeren Kompaktheit oft schneller zu den gewünschten Ergebnissen. Die Methoden der Wellenmechanik gelten als besser mit der Denkweise der Physiker und ihrer Intuition übereinstimmend. Die meisten Physiker verwenden in ihren Berechnungen die Wellenmethode und verwenden Wellenfunktionen.

Heisenberg formulierte die Unschärferelation, wonach Koordinaten und Impuls nicht gleichzeitig exakte Werte annehmen können. Um die Position und Geschwindigkeit eines Teilchens vorhersagen zu können, ist es wichtig, seine Position und Geschwindigkeit genau messen zu können. Je genauer dabei die Position des Teilchens (seine Koordinaten) gemessen wird, desto ungenauer fallen die Geschwindigkeitsmessungen aus.

Obwohl Lichtstrahlung aus Wellen besteht, verhält sich Licht gemäß der Planckschen Idee wie ein Teilchen, weil seine Strahlung und Absorption in Form von Quanten erfolgt. Das Unbestimmtheitsprinzip besagt jedoch, dass sich Teilchen wie Wellen verhalten können – sie sind sozusagen im Raum „verschmiert“, sodass wir nicht über ihre genauen Koordinaten sprechen können, sondern nur über die Wahrscheinlichkeit ihres Nachweises in einem bestimmten Raum. So fixiert die Quantenmechanik den Korpuskular-Wellen-Dualismus – in einigen Fällen ist es bequemer, Teilchen als Wellen zu betrachten, in anderen dagegen Wellen als Teilchen. Zwischen zwei Teilchenwellen kann eine Interferenz beobachtet werden. Fallen die Kämme und Täler einer Welle mit den Tälern einer anderen Welle zusammen, dann heben sie sich gegenseitig auf, und fallen die Kämme und Täler einer Welle mit den Kämmen und Tälern einer anderen Welle zusammen, dann verstärken sie sich gegenseitig.

e) Interpretationen der Quantentheorie.

Komplementaritätsprinzip

Die Entstehung und Entwicklung der Quantentheorie führte zu einer Veränderung der klassischen Vorstellungen über die Struktur von Materie, Bewegung, Kausalität, Raum, Zeit, die Natur der Erkenntnis usw., was zu einer radikalen Transformation des Weltbildes beitrug. Das klassische Verständnis eines materiellen Teilchens war gekennzeichnet durch seine scharfe Abgrenzung von der Umgebung, den Besitz einer eigenen Bewegung und Verortung im Raum. In der Quantentheorie wurde ein Teilchen als funktionaler Teil des Systems dargestellt, in dem es enthalten ist, das nicht sowohl Koordinaten als auch Impuls hat. In der klassischen Theorie wurde Bewegung als Bewegung eines Teilchens, das mit sich selbst identisch bleibt, entlang einer bestimmten Bahn betrachtet. Die Doppelnatur der Bewegung des Teilchens erforderte die Ablehnung einer solchen Darstellung der Bewegung. Der klassische (dynamische) Determinismus ist dem probabilistischen (statistischen) Determinismus gewichen. Verstand man früher das Ganze als die Summe seiner Bestandteile, so offenbarte die Quantentheorie die Abhängigkeit der Eigenschaften eines Teilchens von dem System, in dem es enthalten ist. Das klassische Verständnis des Erkenntnisprozesses war mit der Erkenntnis eines materiellen Objekts als an sich existierend verbunden. Die Quantentheorie hat die Abhängigkeit des Wissens über ein Objekt von Forschungsverfahren aufgezeigt. Wenn die klassische Theorie behauptete, vollständig zu sein, dann entwickelte sich die Quantentheorie von Anfang an als unvollständig, basierend auf einer Reihe von Hypothesen, deren Bedeutung zunächst alles andere als klar war, und daher erhielten ihre Hauptbestimmungen unterschiedliche Interpretationen, unterschiedliche Interpretationen .

Meinungsverschiedenheiten entstanden vor allem über die physikalische Bedeutung der Dualität von Mikropartikeln. De Broglie stellte zuerst das Konzept einer Pilotwelle vor, wonach eine Welle und ein Teilchen koexistieren, die Welle führt das Teilchen. Ein reales Materialgebilde, das seine Stabilität behält, ist ein Teilchen, da es gerade Energie und Impuls hat. Die Welle, die das Teilchen trägt, steuert die Art der Bewegung des Teilchens. Die Amplitude der Welle an jedem Punkt im Raum bestimmt die Wahrscheinlichkeit der Partikellokalisierung in der Nähe dieses Punktes. Schrödinger löst das Problem der Dualität eines Teilchens im Wesentlichen, indem er es entfernt. Für ihn wirkt das Teilchen als reines Wellengebilde. Mit anderen Worten, das Teilchen ist der Ort der Welle, an dem sich die größte Energie der Welle konzentriert. Die Interpretationen von de Broglie und Schrödinger waren im Wesentlichen Versuche, visuelle Modelle im Geiste der klassischen Physik zu schaffen. Dies stellte sich jedoch als unmöglich heraus.

Heisenberg schlug eine Interpretation der Quantentheorie vor, die (wie zuvor gezeigt) davon ausging, dass die Physik nur Begriffe und Größen verwenden sollte, die auf Messungen beruhen. Heisenberg gab daher die visuelle Darstellung der Bewegung eines Elektrons in einem Atom auf. Makrogeräte können aufgrund der grundsätzlich unvollständigen Kontrollierbarkeit der Wechselwirkung des Gerätes mit dem Teilchen keine Beschreibung der Bewegung eines Teilchens bei gleichzeitiger Fixierung von Impuls und Koordinaten (also im klassischen Sinne) geben – aufgrund der Unschärferelation, der die Messung des Impulses erlaubt keine Bestimmung der Koordinaten und umgekehrt. Mit anderen Worten, aufgrund der grundsätzlichen Ungenauigkeit der Messungen können die Vorhersagen der Theorie nur probabilistischer Natur sein, und die Wahrscheinlichkeit ist eine Folge der grundsätzlichen Unvollständigkeit der Information über die Bewegung eines Teilchens. Dieser Umstand führte zu dem Schluss auf den Zusammenbruch des Kausalitätsprinzips im klassischen Sinne, das die Vorhersage exakter Impuls- und Ortswerte voraussetzte. Im Rahmen der Quantentheorie sprechen wir also nicht von Beobachtungs- oder Experimentfehlern, sondern von einer grundsätzlichen Unkenntnis, die sich in einer Wahrscheinlichkeitsfunktion ausdrückt.

Heisenbergs Interpretation der Quantentheorie wurde von Bohr entwickelt und als Kopenhagener Interpretation bezeichnet. Im Rahmen dieser Interpretation ist die Hauptbestimmung der Quantentheorie das Prinzip der Komplementarität, was die Forderung bedeutet, sich gegenseitig ausschließende Klassen von Begriffen, Geräten und Forschungsverfahren zu verwenden, die unter ihren spezifischen Bedingungen verwendet werden und sich gegenseitig ergänzen, um zu erhalten ein ganzheitliches Bild des untersuchten Objekts im Erkenntnisprozess. Dieses Prinzip erinnert an die Heisenbergsche Unschärferelation. Wenn wir über die Definition von Momentum und Koordination als sich gegenseitig ausschließende und komplementäre Forschungsverfahren sprechen, dann gibt es Gründe, diese Prinzipien zu identifizieren. Die Bedeutung des Komplementaritätsprinzips geht jedoch weiter als die Unsicherheitsrelationen. Um die Stabilität des Atoms zu erklären, kombinierte Bohr klassische und Quantenvorstellungen über die Bewegung eines Elektrons in einem Modell. Das Prinzip der Komplementarität erlaubte es also, klassische Darstellungen durch Quantenrepräsentationen zu ergänzen. Nachdem Bohr das Gegenteil der Wellen- und Korpuskulareigenschaften des Lichts aufgedeckt und ihre Einheit nicht gefunden hatte, neigte er zu der Idee von zwei einander gleichwertigen Beschreibungsmethoden - Welle und Korpuskular - mit ihrer anschließenden Kombination. Es ist also genauer zu sagen, dass das Prinzip der Komplementarität die Entwicklung der Unschärferelation ist, die die Beziehung von Koordinate und Impuls ausdrückt.

Eine Reihe von Wissenschaftlern haben die Verletzung des Prinzips des klassischen Determinismus im Rahmen der Quantentheorie zugunsten des Indeternismus interpretiert. Tatsächlich änderte hier das Prinzip des Determinismus seine Form. Wenn zum Anfangszeitpunkt die Positionen und der Bewegungszustand der Elemente des Systems bekannt sind, ist es im Rahmen der klassischen Physik möglich, seine Position zu jedem zukünftigen Zeitpunkt vollständig vorherzusagen. Alle makroskopischen Systeme unterlagen diesem Prinzip. Auch dort, wo es notwendig war, Wahrscheinlichkeiten einzuführen, wurde immer davon ausgegangen, dass alle elementaren Prozesse streng deterministisch sind und nur ihre große Zahl und ihr ungeordnetes Verhalten einen Rückgriff auf statistische Methoden veranlassen. In der Quantentheorie ist die Situation grundlegend anders. Zur Umsetzung der Deternisierungsprinzipien ist hier die Kenntnis der Koordinaten und Impulse erforderlich, was durch die Unschärferelation verhindert wird. Der Gebrauch von Wahrscheinlichkeit hat hier eine andere Bedeutung als in der statistischen Mechanik: Wurden in der statistischen Mechanik Wahrscheinlichkeiten verwendet, um großräumige Phänomene zu beschreiben, dann werden in der Quantentheorie Wahrscheinlichkeiten dagegen eingeführt, um die elementaren Prozesse selbst zu beschreiben. All dies bedeutet, dass in der Welt der großen Körper das dynamische Prinzip der Kausalität wirkt und im Mikrokosmos das probabilistische Prinzip der Kausalität.

Die Kopenhagener Deutung setzt einerseits die Beschreibung von Experimenten mit Begriffen der klassischen Physik voraus, andererseits die Anerkennung dieser Begriffe als ungenau den tatsächlichen Verhältnissen entsprechend. Es ist diese Inkonsistenz, die die Wahrscheinlichkeit der Quantentheorie bestimmt. Die Konzepte der klassischen Physik bilden einen wichtigen Bestandteil der natürlichen Sprache. Wenn wir diese Konzepte nicht verwenden, um unsere Experimente zu beschreiben, werden wir einander nicht verstehen können.

Das Ideal der klassischen Physik ist die vollständige Objektivität des Wissens. Aber in der Erkenntnis verwenden wir Instrumente, und so wird, wie Heinzerberg sagt, ein subjektives Element in die Beschreibung atomarer Prozesse eingeführt, da das Instrument vom Beobachter geschaffen wird. „Wir müssen uns daran erinnern, dass das, was wir beobachten, nicht die Natur selbst ist, sondern die Natur, die so erscheint, wie sie sich durch unsere Art, Fragen zu stellen, offenbart. Wissenschaftliche Arbeit in der Physik besteht darin, Fragen über die Natur in der Sprache zu stellen, die wir verwenden, und zu versuchen, eine Antwort zu finden ein Experiment, das mit den uns zur Verfügung stehenden Mitteln durchgeführt wird.Das erinnert an Bohrs Worte über die Quantentheorie: Wenn wir Harmonie im Leben suchen, dürfen wir nie vergessen, dass wir im Spiel des Lebens sowohl Zuschauer als auch Teilnehmer sind ist klar, dass in unserer wissenschaftlichen Einstellung zur Natur die eigene Tätigkeit dort wichtig wird, wo wir uns mit Naturbereichen auseinandersetzen müssen, die nur mit den wichtigsten technischen Mitteln zu durchdringen sind.

Auch die klassischen Darstellungen von Raum und Zeit erwiesen sich als unbrauchbar, um atomare Phänomene zu beschreiben. Hier ist, was ein anderer Schöpfer der Quantentheorie darüber schrieb: „Die Existenz eines Aktionsquants offenbarte eine völlig unvorhergesehene Verbindung zwischen Geometrie und Dynamik: Es stellt sich heraus, dass die Möglichkeit, physikalische Prozesse im geometrischen Raum zu lokalisieren, von ihrem dynamischen Zustand abhängt Die Relativitätstheorie hat uns bereits gelehrt, die lokalen Eigenschaften der Raumzeit in Abhängigkeit von der Verteilung der Materie im Universum zu betrachten. Die Existenz von Quanten erfordert jedoch eine viel tiefere Transformation und erlaubt es uns nicht mehr, die Bewegung eines physischen Objekts darzustellen entlang einer bestimmten Linie in der Raumzeit (der Weltlinie). Jetzt ist es unmöglich, den Bewegungszustand zu bestimmen, basierend auf der Kurve, die aufeinanderfolgende Positionen eines Objekts im Raum über die Zeit darstellt. Jetzt müssen wir den dynamischen Zustand nicht als betrachten als Folge der raumzeitlichen Lokalisierung, sondern als eigenständiger und zusätzlicher Aspekt der physikalischen Realität"

Diskussionen über das Problem der Interpretation der Quantentheorie haben die Frage nach dem eigentlichen Status der Quantentheorie aufgedeckt – ob sie eine vollständige Theorie der Bewegung eines Mikroteilchens ist. Die Frage wurde erstmals so von Einstein formuliert. Seine Position drückte sich im Konzept der verborgenen Parameter aus. Einstein ging von dem Verständnis der Quantentheorie als einer statistischen Theorie aus, die die Verhaltensmuster nicht eines einzelnen Teilchens, sondern ihres Ensembles beschreibt. Jedes Teilchen ist immer streng lokalisiert und hat gleichzeitig bestimmte Impuls- und Positionswerte. Die Unschärferelation spiegelt nicht die wirkliche Struktur der Realität auf der Ebene von Mikroprozessen wider, sondern die Unvollständigkeit der Quantentheorie - nur können wir auf ihrer Ebene Impuls und Koordinate nicht gleichzeitig messen, obwohl sie tatsächlich existieren, sondern als verborgene Parameter ( verborgen im Rahmen der Quantentheorie). Einstein hielt die Beschreibung des Zustands eines Teilchens mit Hilfe der Wellenfunktion für unvollständig und stellte daher die Quantentheorie als unvollständige Theorie der Bewegung eines Mikroteilchens dar.

Bohr vertrat in dieser Diskussion die gegenteilige Position, ausgehend von der Anerkennung der objektiven Unschärfe der dynamischen Parameter eines Mikroteilchens als Grund für die statistische Natur der Quantentheorie. Seiner Meinung nach lässt Einsteins Leugnung der Existenz objektiv ungewisser Größen die einem Mikropartikel innewohnenden Wellenmerkmale unerklärt. Bohr hielt es für unmöglich, zu den klassischen Konzepten der Bewegung eines Mikropartikels zurückzukehren.

In den 50er Jahren. Im 20. Jahrhundert kehrte D. Bohm zu de Broglies Konzept eines Wellenpiloten zurück und präsentierte eine Psi-Welle als ein reales Feld, das mit einem Teilchen verbunden ist. Befürworter der Kopenhagener Interpretation der Quantentheorie und sogar einige ihrer Gegner unterstützten Bohms Position nicht, trugen jedoch zu einer tieferen Untersuchung von de Broglies Konzept bei: Das Teilchen wurde allmählich als eine spezielle Formation betrachtet, die entsteht und sich bewegt im Psi-Feld, behält aber seine Individualität. Die Arbeiten von P.Vigier, L.Yanoshi, die dieses Konzept entwickelt haben, wurden von vielen Physikern als zu "klassisch" bewertet.

In der russischen philosophischen Literatur der Sowjetzeit wurde die Kopenhagener Interpretation der Quantentheorie wegen "Festhalten an positivistischen Einstellungen" bei der Interpretation des Erkenntnisprozesses kritisiert. Eine Reihe von Autoren verteidigten jedoch die Gültigkeit der Kopenhagener Interpretation der Quantentheorie. Die Ablösung des klassischen Ideals wissenschaftlicher Erkenntnis durch ein nichtklassisches ging mit der Einsicht einher, dass der Betrachter, der versucht, sich ein Bild von einem Objekt zu machen, nicht vom Messvorgang abgelenkt werden darf, d.h. der Forscher ist nicht in der Lage, die Parameter des Untersuchungsobjekts so zu messen, wie sie vor dem Messverfahren waren. W. Heisenberg, E. Schrödinger und P. Dirac legten der Quantentheorie das Prinzip der Unbestimmtheit zugrunde, in der Teilchen keine eindeutigen und voneinander unabhängigen Impulse und Koordinaten mehr hatten. Die Quantentheorie führte somit ein Element der Unvorhersehbarkeit und Zufälligkeit in die Wissenschaft ein. Und obwohl Einstein dem nicht zustimmen konnte, war die Quantenmechanik mit dem Experiment vereinbar und wurde daher zur Grundlage vieler Wissensgebiete.

f) Quantenstatistik

Gleichzeitig mit der Entwicklung der Wellen- und Quantenmechanik entwickelte sich eine weitere Komponente der Quantentheorie - die Quantenstatistik oder statistische Physik von Quantensystemen, die aus einer großen Anzahl von Teilchen bestehen. Auf der Grundlage der klassischen Bewegungsgesetze einzelner Teilchen wurde eine Theorie des Verhaltens ihres Aggregats erstellt – die klassische Statistik. In ähnlicher Weise wurde auf der Grundlage der Quantengesetze der Teilchenbewegung eine Quantenstatistik erstellt, die das Verhalten von Makroobjekten in Fällen beschreibt, in denen die Gesetze der klassischen Mechanik nicht anwendbar sind, um die Bewegung ihrer konstituierenden Mikroteilchen zu beschreiben – in diesem Fall erscheinen Quanteneigenschaften in der Eigenschaften von Makroobjekten. Es ist wichtig zu bedenken, dass das System in diesem Fall nur als Teilchen verstanden wird, die miteinander wechselwirken. Gleichzeitig kann ein Quantensystem nicht als eine Ansammlung von Teilchen betrachtet werden, die ihre Individualität behalten. Mit anderen Worten, die Quantenstatistik erfordert die Ablehnung der Darstellung der Unterscheidbarkeit von Teilchen – das nennt man Identitätsprinzip. In der Atomphysik wurden zwei Teilchen gleicher Natur als identisch angesehen. Diese Identität wurde jedoch nicht als absolut anerkannt. So konnten zwei Teilchen gleicher Natur zumindest gedanklich unterschieden werden.

In der Quantenstatistik fehlt die Fähigkeit, zwischen zwei gleichartigen Teilchen zu unterscheiden, vollständig. Die Quantenstatistik geht davon aus, dass zwei Zustände eines Systems, die sich nur durch eine Permutation zweier gleichartiger Teilchen voneinander unterscheiden, identisch und ununterscheidbar sind. Somit ist die Hauptposition der Quantenstatistik das Prinzip der Identität identischer Teilchen, die in einem Quantensystem enthalten sind. Darin unterscheiden sich Quantensysteme von klassischen Systemen.

Bei der Wechselwirkung eines Mikropartikels spielt der Spin eine wichtige Rolle - das Eigenimpulsmoment des Mikropartikels. (1925 entdeckten D. Uhlenbeck und S. Goudsmit erstmals die Existenz eines Elektronenspins). Der Spin von Elektronen, Protonen, Neutronen, Neutrinos und anderen Teilchen wird als halber ganzzahliger Wert ausgedrückt, für Photonen und Pi-Mesonen als ganzzahliger Wert (1 oder 0). Je nach Spin gehorcht das Mikropartikel einer von zwei unterschiedlichen Statistikarten. Systeme identischer Teilchen mit ganzzahligem Spin (Bosonen) gehorchen der Bose-Einstein-Quantenstatistik, deren charakteristisches Merkmal darin besteht, dass sich in jedem Quantenzustand beliebig viele Teilchen befinden können. Diese Art von Statistik wurde 1924 von S. Bose vorgeschlagen und dann von Einstein verbessert). 1925 schlugen E. Fermi und P. Dirac (unabhängig voneinander) für Teilchen mit halbzahligem Spin (Fermionen) eine andere Art der Quantenstatik vor, die Fermi-Dirac genannt wurde. Charakteristisch für diese Art der Statik ist, dass sich in jedem Quantenzustand beliebig viele Teilchen befinden können. Diese Anforderung wird als W. Pauli-Ausschlussprinzip bezeichnet, das 1925 entdeckt wurde. Die Statistik des ersten Typs wird durch die Untersuchung von Objekten wie einem absolut schwarzen Körper bestätigt, der zweite Typ - Elektronengas in Metallen, Nukleonen in Atomkernen , etc.

Das Pauli-Prinzip ermöglichte es, die Gesetzmäßigkeiten bei der Befüllung von Schalen mit Elektronen in Mehrelektronenatomen zu erklären, um das Periodensystem der Elemente von Mendelejew zu begründen. Dieses Prinzip drückt eine spezifische Eigenschaft der Teilchen aus, die ihm gehorchen. Und nun ist es schwer zu verstehen, warum sich zwei identische Teilchen gegenseitig verbieten, denselben Zustand einzunehmen. Diese Art der Wechselwirkung existiert in der klassischen Mechanik nicht. Was ist seine physikalische Natur, was sind die physikalischen Quellen des Verbots – ein Problem, das darauf wartet, gelöst zu werden. Eines ist heute klar: Eine physikalische Interpretation des Ausschlussprinzips im Rahmen der klassischen Physik ist unmöglich.

Eine wichtige Schlussfolgerung der Quantenstatistik ist die Aussage, dass ein Teilchen, das in ein beliebiges System eintritt, nicht mit demselben Teilchen identisch ist, sondern in ein System eines anderen Typs oder frei eintritt. Daraus ergibt sich die Bedeutung der Aufgabe, die Besonderheiten des Materialträgers einer bestimmten Eigenschaft von Systemen zu identifizieren.

g) Quantenfeldtheorie

Die Quantenfeldtheorie ist eine Erweiterung der Quantenprinzipien zur Beschreibung physikalischer Felder in ihren Wechselwirkungen und gegenseitigen Transformationen. Die Quantenmechanik befasst sich mit der Beschreibung relativ niederenergetischer Wechselwirkungen, bei denen die Zahl der wechselwirkenden Teilchen erhalten bleibt. Bei hohen Wechselwirkungsenergien der einfachsten Teilchen (Elektronen, Protonen usw.) findet ihre gegenseitige Umwandlung statt, d.h. einige Teilchen verschwinden, andere werden geboren und ihre Anzahl ändert sich. Die meisten Elementarteilchen sind instabil, zerfallen spontan, bis stabile Teilchen entstehen – Protonen, Elektronen, Photonen und Neutronen. Bei Kollisionen von Elementarteilchen kommt es, wenn die Energie der wechselwirkenden Teilchen groß genug ist, zu einer mehrfachen Erzeugung von Teilchen unterschiedlicher Spektren. Da die Quantenfeldtheorie Prozesse bei hohen Energien beschreiben soll, muss sie daher den Anforderungen der Relativitätstheorie genügen.

Die moderne Quantenfeldtheorie umfasst drei Arten der Wechselwirkung von Elementarteilchen: schwache Wechselwirkungen, die hauptsächlich den Zerfall instabiler Teilchen bestimmen, starke und elektromagnetische, die für die Umwandlung von Teilchen während ihrer Kollision verantwortlich sind.

Die Quantenfeldtheorie, die die Transformation von Elementarteilchen beschreibt, ist im Gegensatz zur Quantenmechanik, die ihre Bewegung beschreibt, nicht konsistent und vollständig, sie steckt voller Schwierigkeiten und Widersprüche. Als radikalster Weg, sie zu überwinden, wird die Schaffung einer einheitlichen Feldtheorie angesehen, die auf einem einzigen Wechselwirkungsgesetz der Primärmaterie basieren sollte - dem Spektrum der Massen und Spins aller Elementarteilchen sowie den Werten von Teilchenladungen, sollte aus der allgemeinen Gleichung abgeleitet werden. Man kann also sagen, dass sich die Quantenfeldtheorie die Aufgabe stellt, ein tieferes Verständnis des Elementarteilchens zu entwickeln, das durch das Feld eines Systems anderer Elementarteilchen entsteht.

Die Wechselwirkung eines elektromagnetischen Feldes mit geladenen Teilchen (hauptsächlich Elektronen, Positronen, Myonen) wird von der Quantenelektrodynamik untersucht, die auf dem Konzept der Diskretion elektromagnetischer Strahlung basiert. Das elektromagnetische Feld besteht aus Photonen mit Korpuskularwelleneigenschaften. Die Wechselwirkung elektromagnetischer Strahlung mit geladenen Teilchen wird von der Quantenelektrodynamik als Absorption und Emission von Photonen durch Teilchen betrachtet. Ein Teilchen kann Photonen aussenden und diese dann absorbieren.

Die Abkehr der Quantenphysik von der klassischen Physik besteht also darin, sich der Beschreibung einzelner Ereignisse in Raum und Zeit zu verweigern und die statistische Methode mit ihren Wahrscheinlichkeitswellen zu verwenden. Das Ziel der klassischen Physik ist es, Objekte in Raum und Zeit zu beschreiben und die Gesetze zu bilden, die bestimmen, wie sich diese Objekte im Laufe der Zeit verändern. Die Quantenphysik, die sich mit radioaktivem Zerfall, Beugung, Emission von Spektrallinien und dergleichen beschäftigt, kann mit dem klassischen Ansatz nicht zufrieden sein. Ein für die klassische Mechanik charakteristisches Urteil wie „ein solches und ein solches Objekt hat eine solche und eine solche Eigenschaft“ wird in der Quantenphysik durch ein Urteil wie „ein solches und ein solches Objekt hat eine solche und eine solche Eigenschaft mit einem solchen und einem solchen“ ersetzt Grad der Wahrscheinlichkeit." So gibt es in der Quantenphysik Gesetze, die zeitliche Veränderungen der Wahrscheinlichkeit regeln, während wir es in der klassischen Physik mit Gesetzen zu tun haben, die zeitliche Veränderungen eines einzelnen Objekts regeln. Unterschiedliche Realitäten gehorchen unterschiedlichen Gesetzen.

Die Quantenphysik nimmt einen besonderen Platz in der Entwicklung physikalischer Vorstellungen und des Denkens im Allgemeinen ein. Zu den größten Schöpfungen des menschlichen Geistes gehört zweifellos die Relativitätstheorie – speziell und allgemein, die ein neues Ideensystem ist, das Mechanik, Elektrodynamik und Gravitationstheorie vereint und ein neues Verständnis von Raum und Zeit vermittelt. Aber es war eine Theorie, die in gewissem Sinne die Vollendung und Synthese der Physik des 19. Jahrhunderts war, d.h. es bedeutete keinen vollständigen Bruch mit klassischen Theorien. Die Quantentheorie hingegen brach mit klassischen Traditionen, sie schuf eine neue Sprache und einen neuen Denkstil, der es erlaubt, in den Mikrokosmos mit seinen diskreten Energiezuständen einzudringen und ihn durch die Einführung von Merkmalen zu beschreiben, die in der klassischen Physik fehlten, die es schließlich ermöglichten, das Wesen atomarer Prozesse zu verstehen. Aber gleichzeitig führte die Quantentheorie ein Element der Unvorhersehbarkeit und Zufälligkeit in die Wissenschaft ein, wodurch sie sich von der klassischen Wissenschaft unterschied.

Quantenfeldtheorie.

1. Quantenfelder....................... 300

2. Freie Felder und Welle-Teilchen-Dualität .................................. 301

3. Interaktion von Feldern.........302

4. Theorie der Störungen................. 303

5. Divergenzen und Renormalisierungen ......... 304

6. UV-Asymptotik und die Renormierungsgruppe .......... 304

7. Kalibrierfelder ...................................... 305

8. Das große Ganze .......... 307

9. Perspektiven und Probleme.................. 307

Quantenfeldtheorie(QFT) - Quantentheorie relativistischer Systeme mit unendlich vielen Freiheitsgraden (relativistische Felder), die theoretisch ist. die Grundlage für die Beschreibung von Mikropartikeln, ihren Wechselwirkungen und Umwandlungen.

1. Quantenfelder Das Quantenfeld (ansonsten - quantisiert) ist eine Art Synthese der klassischen Konzepte. elektromagnetische Felder und das Wahrscheinlichkeitsfeld der Quantenmechanik. Nach modernen Laut Vorstellung ist das Quantenfeld die grundlegendste und universellste Form der Materie, die all ihren konkreten Manifestationen zugrunde liegt. Die Idee eines Klassikers Feld entstand in den Tiefen der Theorie des Elektromagnetismus Faraday - Maxwell und kristallisierte sich schließlich im Prozess der Schaffung eines besonderen heraus. Relativitätstheorie, die die Aufgabe von erforderte Äther als Materialträger von e-magn. Prozesse. Gleichzeitig war das Feld nicht als Bewegungsform für ein -l anzusehen. Umwelt, aber spezifisch. eine Form von Materie mit sehr ungewöhnlichen Eigenschaften. Im Gegensatz zu Partikeln ist die klassische Das Feld wird ständig erzeugt und zerstört (wird von Ladungen emittiert und absorbiert), hat unendlich viele Freiheitsgrade und ist nicht in einem bestimmten Bereich lokalisiert. Punkte der Raumzeit, sondern können sich darin ausbreiten und ein Signal (Wechselwirkung) von einem Teilchen zum anderen mit einer endlichen Geschwindigkeit übertragen, die nicht überschritten wird Mit. Das Aufkommen von Quantenideen führte zu einer Überarbeitung der Klassik. Vorstellungen über die Kontinuität des Mechanismus der Emission n und zu dem Schluss, dass diese Prozesse diskret ablaufen - durch Emission und Absorption von Quanten e-magn. Felder - Photonen. Entstand widersprüchlich aus Sicht der Klassik. Physikbild wenn mit e-magn. Photonen wurden mit dem Feld verglichen und einige Phänomene konnten nur in Bezug auf Wellen interpretiert werden, während andere - nur mit Hilfe des Begriffs Quanten genannt - wurden Welle-Teilchen-Dualität. Dieser Widerspruch wurde im Folgenden aufgelöst. Anwendung der Ideen der Quantenmechanik auf das Feld. Dynamisch variabel el-magn. Felder - Potenziale ABER , j und Spannungsfestigkeit. und magn. Felder E , H - sind zu Quantenoperatoren geworden, vorbehaltlich def. Permutationsbeziehungen und auf die Wellenfunktion einwirken (Amplitude, bzw Zustandsvektor) Systeme. Also ein neues Physisches Objekt - ein Quantenfeld, das die Gleichungen der klassischen erfüllt. , aber mit eigenen quantenmechanischen Werten. Betreiber. Die zweite Quelle des allgemeinen Begriffs eines Quantenfelds war die Wellenfunktion eines Teilchens y ( x, t), die keine unabhängige physikalische ist. Größe und die Amplitude des Zustands des Teilchens: die Wahrscheinlichkeit eines physikalischen Teilchens. Größen werden in Form von Ausdrücken ausgedrückt, die in y bilinear sind. So stellte sich heraus, dass in der Quantenmechanik jedem materiellen Teilchen ein neues Feld zugeordnet ist, das Feld der Wahrscheinlichkeitsamplituden. Die relativistische Verallgemeinerung der y-Funktion führte P. A. M. Dirac (R. A. M. Dirac) zu einer vierkomponentigen Wellenfunktion des Elektrons y a (a=1, 2, 3, 4), die entsprechend der Spinordarstellung transformiert wird Lorenz-Gruppe. Es wurde schnell klar, dass im Allgemeinen jede Abteilung. Ein relativistisches Mikroteilchen sollte einem lokalen Feld zugeordnet werden, das eine bestimmte Darstellung der Lorentz-Gruppe implementiert und eine physikalische hat. die Bedeutung der Wahrscheinlichkeitsamplitude. Verallgemeinerung für den Fall vieler Teilchen zeigten, dass, wenn sie das Prinzip der Ununterscheidbarkeit ( Identitätsprinzip), dann genügt zur Beschreibung aller Teilchen ein Feld in der vierdimensionalen Raumzeit, was ein Operator im Sinne von ist. Dies wird durch den Übergang zu einer neuen Quantenmechanik erreicht. Darstellung - Darstellung der Füllnummern (oder Darstellung der sekundären Quantisierung). Das so eingeführte Operatorfeld erweist sich als völlig analog zum quantisierten el-magn. Bereich, der sich davon nur in der Wahl der Darstellung der Lorentzgruppe und möglicherweise in der Methode der Quantisierung unterscheidet. Wie E-Mag. Feld entspricht ein solches Feld dem gesamten Satz identischer Teilchen eines bestimmten Typs, beispielsweise einem Operator Dirac-Feld beschreibt alle Elektronen (und Positronen!) des Universums. So entsteht ein universelles Bild der einheitlichen Struktur aller Materie. Um die Felder und Teilchen des Klassikers zu ersetzen. Physiker kommen unified nat. Objekte sind Quantenfelder in der vierdimensionalen Raumzeit, eines für jede Art von Teilchen oder (klassischen) Feldern. Ein elementarer Akt jeder Interaktion wird zur Interaktion mehrerer. Felder an einem Punkt in der Raumzeit oder - in Korpuskularsprache - lokale und sofortige Umwandlung einiger Teilchen in andere. Klassisch die Wechselwirkung in Form von zwischen Teilchen wirkenden Kräften stellt sich als Sekundäreffekt heraus, der aus dem Austausch von Quanten des Feldes resultiert, das die Wechselwirkung überträgt.
2. Freie Felder und Welle-Teilchen-Dualität In Übereinstimmung mit dem oben beschriebenen allgemeinen physikalischen. Bild in einer Systematik Die Darstellung der QFT kann sowohl aus Feld- als auch aus Korpuskulardarstellungen gestartet werden. Beim Feldansatz muss man zunächst eine Theorie des entsprechenden Klassikers konstruieren Feld, unterziehen Sie es dann einer Quantisierung [ähnlich der Quantisierung von E-Mag. Felder von W. Heisenberg und W. Pauli] und schließlich eine korpuskuläre Interpretation für das resultierende quantisierte Feld entwickeln. Das anfängliche Hauptkonzept wird hier das Feld sein und ein(X) (Index a zählt die Komponenten des Feldes auf), die an jedem Raumzeitpunkt definiert sind x=(ct,x) und die Durchführung von to-l. eine ziemlich einfache Darstellung der Lorentz-Gruppe. Die weitere Theorie wird am einfachsten mit Hilfe von aufgebaut Lagrangescher Formalismus; wähle ein lokales [d.h. h. nur von den Feldkomponenten abhängig und ein(X) und ihre ersten Ableitungen d m und ein(X)=du ein /dx m = und ein m ( X) (m=0, 1, 2, 3) an einem Punkt X] quadratische Poincaré-Invariante (vgl Poincaré-Gruppe) Lagrange-Funktion L(x) = L(u a , q m u b) und von Prinzip der kleinsten Wirkung erhalten Sie die Bewegungsgleichungen. Für einen quadratischen Lagrange sind sie linear – freie Felder erfüllen das Superpositionsprinzip. Aufgrund Satz von Noether aus der Invarianz der Aktion S in Bezug auf jeden Einparameter. Gruppe folgt der Bewahrung (Zeitunabhängigkeit) einer, ausdrücklich durch das Theorem angegebenen, Integralfunktion von und ein und d m u b. Da die Poincare-Gruppe selbst 10-parametrisch ist, behält QFT notwendigerweise 10 Größen bei, die manchmal als Fundams bezeichnet werden. dynamisch Größen: Aus der Invarianz unter vier Verschiebungen in der vierdimensionalen Raumzeit folgt die Erhaltung der vier Komponenten des Energie-Impuls-Vektors R m Mi = 1/2 E ijk M jk und drei sog. steigert Ni = c - l M 0ich(ich, j, k= 1, 2, 3, e ijk- einzelner vollständig antisymmetrischer Tensor; doppelt auftretende Indizes implizieren Summation). Mit Mutter. Sicht zehn Pfund. Werte - R m , M ich, N ich- Essenz Gruppengeneratoren Poincare. Wenn die Aktion auch dann invariant bleibt, wenn einige andere kontinuierliche Transformationen, die nicht in der Poincaré-Gruppe enthalten sind, auf dem betrachteten Feld durchgeführt werden - Transformationen der ext. Symmetrie, - aus dem Noether-Theorem dann die Existenz neuer konservierter Dynamiken. Mengen. Daher wird oft angenommen, dass die Feldfunktionen komplex sind, und der Lagrangefunktion die Bedingung auferlegt wird, hermitesch zu sein (vgl. Hermitescher Operator) und verlangen die Invarianz der Wirkung gegenüber dem Globalen Messgerät-Transformation(Phase a hängt nicht von ab X) und ein(X)""e ich a und ein(X), du* ein(X)""e - ich a du* ein(X). Dann stellt sich heraus (als Folge des Satzes von Noether), dass die Ladung erhalten bleibt

Daher komplexe Funktionen und ein kann verwendet werden, um die Ladung zu beschreiben. Felder. Dasselbe Ziel kann erreicht werden, indem der von den Indizes durchlaufene Wertebereich erweitert wird a, sodass sie auch die Richtung im Isotop angeben. Raum und erfordern, dass die Aktion unter Drehungen darin unveränderlich ist. Beachten Sie, dass die Ladung Q nicht unbedingt elektrisch ist. Ladung, es kann jede konservierte Eigenschaft des Feldes sein, die nicht mit der Poincaré-Gruppe verwandt ist, zum Beispiel Leptonenzahl, Strangeness, Baryonenzahl usw. Kanonische Quantisierung, nach den allgemeinen Prinzipien der Quantenmechanik, dass die verallgemeinerten Koordinaten [d.h. d.h. (unendliche) Menge von Werten aller Feldkomponenten u 1 , . . ., u N an allen Punkten x Raum zu einem bestimmten Zeitpunkt t(in einer anspruchsvolleren Darstellung - an allen Punkten einer raumartigen Hyperfläche s] und verallgemeinerte Impulse p b(x, t)=dl/du b(x, t) werden als Operatoren deklariert, die auf die Amplitude des Zustands (Zustandsvektor) des Systems wirken, und ihnen werden Kommutierungsbeziehungen auferlegt:

außerdem entsprechen die Zeichen "+" oder "-" der Fermi-Dirac- oder Bose-Einstein-Quantisierung (siehe unten). Hier d ab - Kronecker-Symbol,d( x-y) - Delta-Funktion Dirac. Aufgrund der herausragenden Rolle der Zeit und des unvermeidlichen Rückgriffs auf einen bestimmten Bezugsrahmen verletzen die Permutationsrelationen (1) die explizite Symmetrie von Raum und Zeit, und die Wahrung relativistischer Invarianz erfordert besonderes. Beweis für. Außerdem sagen die Beziehungen (1) nichts über die Kommutierung aus. Eigenschaften von Feldern in zeitlichen Paaren von Raum-Zeit-Punkten - die Werte der Felder an solchen Punkten sind kausal abhängig, und ihre Permutationen können nur durch Lösen der Bewegungsgleichungen zusammen mit (1) bestimmt werden. Für freie Felder, deren Bewegungsgleichungen linear sind, ist ein solches Problem in allgemeiner Form lösbar und erlaubt es, - und zwar in relativistisch symmetrischer Form - die Permutationsbeziehungen der Felder an zwei beliebigen Punkten aufzustellen X und bei.

Hier D t - Permutationsfunktion Pauli - Jordan Befriedigend Klein - Gordon-Gleichung P ab- ein Polynom, das die Erfüllung der rechten Seite (2) der Bewegungsgleichungen entlang gewährleistet X und von bei, - D-Alamber-Operator, t die Masse des Feldquants ist (im Folgenden das Einheitensystem h= Mit= 1). Beim korpuskulären Ansatz zur relativistischen Quantenbeschreibung freier Teilchen müssen die Teilchenzustandsvektoren eine irreduzible Darstellung der Poincaré-Gruppe bilden. Letzteres wird durch Festlegen der Werte der Casimir-Operatoren (Operatoren, die mit allen zehn Generatoren der Gruppe kommutieren) festgelegt R m M ich und N ich), von denen die Poincaré-Gruppe zwei hat. Der erste ist der Massenquadrat-Operator m 2 =R m R m . Bei m 2 Nr. 0 ist der zweite Casimir-Operator das Quadrat des gewöhnlichen (dreidimensionalen) Spins und bei Nullmasse der Helizitätsoperator (die Projektion des Spins auf die Bewegungsrichtung). Spektrum m 2 ist kontinuierlich - das Quadrat der Masse kann jeden nicht negativen Wert haben. Werte, m zwanzig; das Spinspektrum ist diskret, es kann ganzzahlige oder halbzahlige Werte haben: 0, 1 / 2 , 1, ... Außerdem muss auch das Verhalten des Zustandsvektors bei Spiegelung einer ungeraden Anzahl von Koordinatenachsen angegeben werden . Wenn keine anderen Eigenschaften erforderlich sind, wird gesagt, dass das Partikel keinen inneren Wert hat. Freiheitsgrade und genannt. echtes neutrales Teilchen. Andernfalls hat das Teilchen Ladungen der einen oder anderen Art. Um den Zustand eines Teilchens innerhalb einer Darstellung festzulegen, ist es in der Quantenmechanik notwendig, die Werte des vollständigen Satzes von Kommutierungsoperatoren einzustellen. Die Wahl eines solchen Satzes ist mehrdeutig; für ein freies Teilchen ist es bequem, drei Komponenten seines Impulses zu nehmen R und Projektion s zurück l s auf to-l. Richtung. Somit ist der Zustand eines freien wirklich neutralen Teilchens vollständig durch die angegebenen Zahlen charakterisiert t, l s , p x , p y , p z , s, von denen die ersten beiden die Ansicht und die nächsten vier den Zustand darin definieren. Zum Aufladen. Partikel werden hinzugefügt andere; bezeichnen wir sie mit dem Buchstaben t. Bei der Darstellung von Besetzungszahlen ist der Zustand einer Ansammlung identischer Teilchen festgelegt Füllzahlen n p,s, t aller Ein-Teilchen-Zustände (Indizes, die die Darstellung als Ganzes charakterisieren, sind nicht ausgeschrieben). Der Zustandsvektor | nein, t > wird als Ergebnis der Wirkung auf den Vakuumzustand |0> (d. h. der Zustand, in dem es überhaupt keine Teilchen gibt) der Erzeugungsoperatoren geschrieben a + (p, s, t):

Geburtsoperatoren a+ und seine hermitesch konjugierten Vernichtungsoperatoren a - die Permutationsrelationen erfüllen

wobei die Zeichen "+" und "-" jeweils der Fermi-Dirac- und Bose-Einstein-Quantisierung entsprechen und die Besetzungszahlen richtig sind. Werte von Operatoren für die Teilchenzahl T. o., den Zustandsvektor eines Systems mit je einem Teilchen mit Quantenzahlen p 1 , s 1 , t 1 ; p 2 , s 2, t2; . . ., wird geschrieben als

Um die lokalen Eigenschaften der Theorie zu berücksichtigen, müssen die Operatoren übersetzt werden ein b in eine Koordinatendarstellung. Als Transformationsfunktion ist es bequem, den Klassiker zu verwenden. Lösung von Bewegungsgleichungen eines geeigneten freien Feldes mit Tensor- (oder Spinor-) Indizes a und Index innere Symmetrie q. Dann sind die Operatoren der Erzeugung und Zerstörung in der Koordinatendarstellung:


Diese Operatoren sind jedoch immer noch ungeeignet, um eine lokale QFT zu konstruieren: Sowohl ihr Kommutator als auch ihr Antikommutator sind proportional zu den Nicht-Pauli-Jordan-Funktionen D t, und seine positiven und negativen Frequenzanteile D 6 m(x-y)[Dm = D + m + D - m], was für raumartige Punktpaare gilt X und bei verschwinden nicht. Um ein lokales Feld zu erhalten, ist es notwendig, eine Überlagerung der Erzeugungs- und Vernichtungsoperatoren (5) zu konstruieren. Für wirklich neutrale Teilchen kann dies direkt durchgeführt werden, indem das lokale Lorentz-kovariante Feld als definiert wird
du ein(x)=du ein(+ ) (X) + und a(-) (X). (6)
Aber zum Aufladen. Teilchen, das geht nicht: die Operatoren ein + t und a- t in (6) erhöht das eine und das andere verringert die Ladung, und ihre lineare Kombination hat in dieser Hinsicht keine eindeutige Bedeutung. Eigenschaften. Um ein lokales Feld zu bilden, muss man sich daher mit den Erstellungsoperatoren paaren ein + t sind die Vernichtungsoperatoren nicht derselben Teilchen, sondern neuer Teilchen (markiert mit einer Tilde oben), die dieselbe Darstellung der Poincaré-Gruppe implementieren, d.h. genau dieselbe Masse und denselben Spin haben, sich aber von den ursprünglichen um unterscheiden das Vorzeichen der Ladung (die Vorzeichen aller Ladungen t) und schreibe:

Aus Pauli-Sätze daraus folgt nun, dass für Felder mit ganzzahligem Spin, deren Feldfunktionen eine eindeutige Darstellung der Lorentzgruppe liefern, bei Quantisierung nach Bose-Einstein-Kommutatoren [ und(X), und(bei)]_ oder [ und(X), v*(bei)]_ proportional Funktionen Dm(x-y) und verschwinden außerhalb des Lichtkegels, während für zweiwertige Darstellungen von Feldern mit halbzahligem Spin dasselbe für Antikommutatoren erreicht wird [ und(X), und(bei)] + (oder [ v(x), v* (j)] +) in Fermi-Dirac-Quantisierung. Ausgedrückt durch f-lams (6) oder (7) erfüllt der Zusammenhang zwischen den Lorentz-kovarianten Funktionen des Feldes lineare Gleichungen und oder v, v* und Operatoren der Erzeugung und Vernichtung freier Teilchen in der stationären Quantenmechanik. Staaten ist eine genaue Matte. Beschreibung des Korpuskularwellen-Dualismus. Von Operatoren "geborene" neue Teilchen, ohne die es unmöglich war, lokale Felder (7) zu konstruieren, die - in Bezug auf das Original - Antiteilchen. Die Unausweichlichkeit der Existenz eines Antiteilchens für jede Ladung. Teilchen - eines von Ch. Schlussfolgerungen der Quantentheorie der freien Felder.
3. Interaktion der Felder Lösungen (6) und (7) Ur-tion des freien Feldes der Proportionen. Operatoren der Erzeugung und Vernichtung von Teilchen in stationären Zuständen, d. h. sie können nur solche Situationen beschreiben, in denen den Teilchen nichts passiert. Um auch Fälle zu berücksichtigen, in denen einige Teilchen die Bewegung anderer beeinflussen oder in andere übergehen, ist es notwendig, die Bewegungsgleichungen nichtlinear zu machen, d. h. in die Lagrange-Funktion neben quadratischen Termen in Körpern auch Terme mit höheren aufzunehmen Grad. Aus Sicht der bisher entwickelten Theorie sind solche Wechselwirkungen Lagrangianer L int könnten beliebige Funktionen von Feldern und ihren ersten Ableitungen sein, die nur eine Reihe einfacher Bedingungen erfüllen: 1) die Lokalität der Wechselwirkung, die dies erfordert L int(x) abhängig von Diff. Felder und ein(X) und ihre ersten Ableitungen nur an einem Punkt in der Raumzeit X; 2) relativistische Invarianz, um einen Schnitt zu erfüllen L int muss ein Skalar in Bezug auf Lorentz-Transformationen sein; 3) Invarianz unter Transformationen von internen Symmetriegruppen, falls vorhanden, für das betrachtete Modell. Für Theorien mit komplexen Feldern beinhaltet dies insbesondere die Anforderungen, dass die Lagrange-Funktion hermitesch ist und in solchen Theorien invariante Eichtransformationen zulässig sind. Darüber hinaus kann man verlangen, dass die Theorie unter bestimmten diskreten Transformationen invariant ist, wie z räumliche Umkehrung P, Zeitumkehrung T und Ladungskonjugation C(Teilchen durch Antiteilchen ersetzen). Bewährt ( CPT-Theorem), dass jede Wechselwirkung, die die Bedingungen 1)-3) erfüllt, notwendigerweise invariant in Bezug auf dieselbe Zeit sein muss. Durchführen dieser drei diskreten Transformationen. Die Vielfalt der Interaktions-Lagrange-Funktionen, die die Bedingungen 1)-3) erfüllen, ist so groß wie beispielsweise die Vielfalt der Lagrange-Funktionen in der klassischen Mechanik, und in bestimmten In der Entwicklungsphase von QFT schien die Theorie die Frage nicht zu beantworten, warum einige von ihnen und andere nicht in der Natur realisiert werden. Allerdings nach der Idee Renormierungen UV-Divergenzen (siehe Abschnitt 5 unten) und seine brillante Umsetzung in Quantenelektrodynamik(QED) wurde eine vorherrschende Klasse von Wechselwirkungen – renormierbar – herausgegriffen. Bedingung 4) – Renormierbarkeit erweist sich als sehr restriktiv, und ihre Hinzufügung zu den Bedingungen 1)–3) lässt nur Wechselwirkungen mit L int die Form von Polynomen niedrigen Grades in den betrachteten Feldern, und Felder beliebiger hoher Spins werden im Allgemeinen von der Betrachtung ausgeschlossen. Somit ist eine Interaktion in einer renormierbaren QFT nicht möglich – im krassen Gegensatz zur klassischen. und Quantenmechanik - keine willkürlichen Funktionen: Sobald eine bestimmte Menge von Feldern ausgewählt wird, tritt die Willkür ein L int auf eine feste Anzahl beschränkt Wechselwirkungskonstanten(Kopplungskonstanten). Das vollständige Gleichungssystem der QFT mit Wechselwirkung (in Heisenberg-Vertretung) bilden die Bewegungsgleichungen, die aus dem vollständigen Lagrange (einem zusammenhängenden System von Differentialgleichungen in partiellen Ableitungen mit nichtlinearen Termen der Wechselwirkung und Selbstwirkung) und kanonischen erhalten werden. Permutationsbeziehungen (1). Die genaue Lösung eines solchen Problems kann nur in einer kleinen Anzahl von physikalisch niedrigen Inhalten gefunden werden. Fällen (z. B. für bestimmte Modelle in zweidimensionaler Raumzeit). Andererseits kanonisch Permutationsrelationen verletzen, wie bereits erwähnt, die explizite relativistische Symmetrie, die gefährlich wird, wenn man sich statt mit einer exakten Lösung mit einer ungefähren begnügt. Daher das Praktische der Wert der Quantisierung in der Form (1) ist klein. Naib. eine Methode, die auf dem Übergang zu basiert Interaktionsansicht, in dem das Feld und a(x) erfüllen lineare Bewegungsgleichungen für freie Felder, und der gesamte Einfluss der Wechselwirkung und Selbstaktion wird auf die zeitliche Entwicklung der Amplitude des Zustands Ф übertragen, die jetzt nicht konstant ist, sondern sich gemäß einer Gleichung wie der Schrödinger ändert Gleichung:

und Hamiltonian Interaktionen Hinweis(t) in dieser Darstellung hängt von der Zeit durch die Felder ab und a(x), freien Gleichungen und relativistisch-kovarianten Permutationsbeziehungen gehorchend (2); Daher erweist es sich als unnötig, das Kanonische explizit zu verwenden Kommutatoren (1) für wechselwirkende Felder. Zum Vergleich mit dem Experiment muss die Theorie das Problem der Teilchenstreuung lösen, bei deren Formulierung davon ausgegangen wird, dass asymptotisch, wie t""-:(+:) das System war in einem stationären Zustand (wird in einen stationären Zustand kommen) Ф_ : (Ф + :), und Ф b: sind derart, dass die Teilchen in ihnen aufgrund großer gegenseitiger Abstände nicht interagieren (siehe auch Adiabatische Hypothese), so dass alle gegenseitige Beeinflussung der Teilchen nur zu endlichen Zeiten in der Nähe von t=0 auftritt und Ä_ : in Ä + : = überführt S F_ : . Operator S genannt Streumatrix(oder S-Matrix); durch die Quadrate seiner Matrixelemente

die Wahrscheinlichkeiten der Übergänge vom gegebenen Anfang werden ausgedrückt. Zustand F ich in einem Endzustand Ф f, also eff. Abschnitt diff. Prozesse. Dass., S-Matrix ermöglicht es Ihnen, die Wahrscheinlichkeiten von physikalischen zu finden. Prozesse, ohne sich mit den Details der zeitlichen Entwicklung zu befassen, die durch die Amplitude Ф( t). Dennoch S-Matrix wird normalerweise auf der Grundlage von Gleichung (8) aufgebaut, die eine formale Lösung in kompakter Form zulässt:
.

mit dem Operator T chronologisch eine Reihenfolge, die alle Feldoperatoren in absteigender zeitlicher Reihenfolge anordnet t=x 0 (vgl Chronologische Arbeit Ausdruck (10) ist jedoch eher symbolisch. Verfahrensprotokoll folgen. Integrationsgleichung (8) von -: bis +: über infinitesimale Zeitintervalle ( t, t+D t) eher als eine brauchbare Lösung. Dies ist zumindest daran zu erkennen, dass es für die reibungslose Berechnung der Matrixelemente (9) erforderlich ist, die Streumatrix nicht chronologisch, sondern in Form darzustellen normales Produkt, bei der alle Erzeugungsoperatoren links von den Vernichtungsoperatoren stehen. Die Aufgabe, ein Werk in ein anderes zu überführen, ist die eigentliche Schwierigkeit und kann nicht pauschal gelöst werden.
4. Störungstheorie Aus diesem Grund muss man für eine konstruktive Lösung des Problems auf die Annahme zurückgreifen, dass die Wechselwirkung schwach ist, also die Kleinheit der Wechselwirkung Lagrange L int. Dann können Sie chronologisch zerlegen. Exponent in Ausdruck (10) in Reihe Störungstheorie, und die Matrixelemente (9) werden in jeder Reihenfolge der Störungstheorie in Bezug auf die Matrixelemente nicht chronologisch ausgedrückt. Exponenten und einfach chronologisch. Produkte der entsprechenden Anzahl von Interaktions-Lagrange:

(P ist die Ordnung der Störungstheorie), d.h. es müssen nicht Exponentiale, sondern einfache Polynome eines bestimmten Typs in die Normalform transformiert werden. Diese Aufgabe wird praktisch mit Hilfe von Technologie durchgeführt Feynman-Diagramme und Feynman-Regeln. Bei der Feynman-Technik jedes Feld und a(x) ist durch seine kausale Green-Funktion ( Verbreiter oder Spreizfunktion) DC aa"(x-y), dargestellt in den Diagrammen durch eine Linie, und jede Wechselwirkung - durch eine Kopplungskonstante und einen Matrixfaktor aus dem entsprechenden Term in L int auf dem Diagramm dargestellt Gipfel. Die Popularität der Feynman-Diagrammtechnik ist neben der einfachen Handhabung auf ihre Klarheit zurückzuführen. Die Diagramme ermöglichen es, die Ausbreitungsvorgänge (Linien) und Umwandlungen (Eckpunkte) von Teilchen sozusagen mit eigenen Augen darzustellen - zunächst real. und Endzustände und virtuell in der Zwischenstufe (auf internen Leitungen). Besonders einfache Ausdrücke erhält man für die Matrixelemente beliebiger Prozesse in der niedrigsten Ordnung der Störungstheorie, die den sog Baumdiagramme, die keine geschlossenen Schleifen haben - nach dem Übergang zur Impulsdarstellung sind in ihnen überhaupt keine Integrationen mehr vorhanden. Für die Hauptsache QED-Prozesse, solche Ausdrücke für Matrixelemente wurden zu Beginn der QFT in con erhalten. 20er und erwies sich als in angemessener Übereinstimmung mit dem Experiment (Entsprechungsniveau 10 – 2 – 10 – 3 , d. h. in der Größenordnung der Feinstrukturkonstante a). Allerdings versucht zu berechnen strahlende Korrekturen(d.h. Korrekturen im Zusammenhang mit der Berücksichtigung höherer Annäherungen) zu diesen Ausdrücken, zum Beispiel zu Klein - Nishina - Tamm f-le (siehe. Klein - Nishina-Formel) für die Compton-Streuung, stieß auf Spezifisches. Schwierigkeiten. Diagramme mit geschlossenen Linienschleifen entsprechen solchen Korrekturen virtuelle Teilchen, deren Impulse nicht durch Erhaltungssätze festgelegt sind, und die Gesamtkorrektur gleich der Summe der Beiträge aller möglichen Impulse ist. Es zeigte sich, dass in den meisten Fällen die aus der Summierung dieser Beiträge entstehenden Integrale über die Impulse virtueller Teilchen im UV-Bereich divergieren, d.h. die Korrekturen selbst sich nicht nur als nicht klein, sondern als unendlich erweisen. Nach der Unschärferelation entsprechen kleine Distanzen großen Impulsen. Daher kann man denken, dass das Physische Die Ursprünge der Divergenzen liegen in der Vorstellung von der Lokalität der Wechselwirkung. In dieser Hinsicht können wir von einer Analogie mit der unendlichen Energie des El-Magn sprechen. Feld einer Punktladung in der Klassik. Elektrodynamik.
5. Divergenzen und Renormalisierungen Formal, mathematisch, ist das Auftreten von Divergenzen darauf zurückzuführen, dass die Propagatoren Dc (x) sind singuläre (genauer verallgemeinerte) Funktionen, die in der Nähe des Lichtkegels an liegen x 2 ~0 X 2. Daher sind ihre Produkte, die in Matrixelementen entstehen, die geschlossenen Schleifen in Diagrammen entsprechen, mit Math schlecht definiert. Standpunkte. Impuls-Fourier-Bilder solcher Produkte existieren möglicherweise nicht, sondern können - formal - in Form von divergierenden Impulsintegralen ausgedrückt werden. Zum Beispiel das Feynman-Integral
(wo R- extern 4-Impuls, k- Integrationsimpuls), entsprechend dem einfachsten Einschleifendiagramm mit zwei internen. Skalarlinien (Abb.), existiert nicht.

Er ist verhältnismäßig. Fourier-Transformation des Propagatorquadrats Dc (x)Skalarfeld und divergiert logarithmisch an der oberen Grenze (d.h. im UV-Bereich der virtuellen Impulse | k|"":, so dass beispielsweise das Integral an der oberen Grenze bei | abgeschnitten wird k|=L, dann

wo ich mit ( R) ist der letzte Ausdruck.
Das Problem der UV-Divergenzen wurde in der 2. Hälfte gelöst (zumindest im Hinblick auf endliche Ausdrücke für die meisten physikalisch interessanten Größen). 40er basierend auf der Idee der Renormierungen (Renormalisierungen). Das Wesen des letzteren besteht darin, dass die unendlichen Wirkungen von Quantenfluktuationen, die geschlossenen Schleifen von Diagrammen entsprechen, in Faktoren zerlegt werden können, die den Charakter von Korrekturen der anfänglichen Eigenschaften des Systems haben. Daraus resultieren die Massen und Kopplungskonstanten gändern sich aufgrund der Interaktion, d.h. sie werden renormiert. In diesem Fall fallen die Renormierungsadditionen aufgrund der UV-Divergenzen unendlich groß aus. Daher die Renormierungsbeziehungen

m 0 ""m=m 0 + D m=m 0 Zm (. . .),

g 0 ""g = g 0+D g = g 0 Zg(. . .)

(wo Zm, Zg- Renormierungsfaktoren), Verknüpfung des Originals, sog. Samenmassen m 0 und Seedladungen (d. h. Kopplungskonstanten) g 0 mit körperlichen t, g, erweisen sich als Singular. Um es nicht mit sinnlosen Unendlichkeitsausdrücken zu tun, wird das ein oder andere Hilfsverb eingeführt. Regularisierung von Abweichungen(ähnlich dem in (13) verwendeten Cutoff bei | k|=L. In den Argumenten (in den rechten Teilen von (14) durch Punkte angedeutet) strahlt. Änderungen d m, D g, sowie die Renormierungsfaktoren Z ich, Außerdem t 0 und g 0 , enthält singuläre Abhängigkeiten von Hilfsparametern. Regulierung. Die Abweichungen werden eliminiert, indem die renormierten Massen und Ladungen identifiziert werden m und g mit ihrer körperlichen Werte. In der Praxis wird zur Eliminierung von Divergenzen auch oft die Methode der Einführung in die ursprüngliche Lagrange verwendet Gegenmitglieder und ausdrücken t 0 und g 0 im Lagrange in Bezug auf das Physische m und g formale Beziehungen umgekehrt zu (14). Erweitern (14) in Serien in physischer Form. Interaktionsparameter:

t 0 = t + gM 1 + g 2 M 2 + ..., g 0 = g + g 2 G 1 + g 3 G 2 + ...,

Wählen Sie singuläre Koeffizienten Ml, G l damit die Divergenzen, die in den Feynman-Integralen entstehen, genau zu kompensieren. Die Klasse der QFT-Modelle, für die ein solches Programm sequentiell in allen Ordnungen der Störungstheorie durchgeführt werden kann und bei der daher ausnahmslos alle UV-Divergenzen in Renormierungsfaktoren von Massen und Kopplungskonstanten "entfernt" werden können, heißt Klasse renormierbarer Theorien. In den Theorien dieser Klasse werden daher alle Matrixelemente und Greenschen Funktionen physikalisch nicht-singulär ausgedrückt. Massen, Ladungen und Kinematik. Variablen. In renormierbaren Modellen kann man also, wenn gewünscht, vollständig von den getrennt betrachteten nackten Parametern und UV-Divergenzen abstrahieren und die Ergebnisse der Theorie vollständig charakterisieren. Berechnungen durch Festlegen einer endlichen Anzahl von physikalischen. Werte von Massen und Ladungen. Matte. Grundlage dieser Behauptung ist Bogolyubov - Satz von Parasyuküber Renormierbarkeit. Daraus folgt ein ziemlich einfaches Rezept, um endliche einwertige Ausdrücke für Matrixelemente zu erhalten, formalisiert in Form der sogenannten. R-Operationen Bogoljubow. Gleichzeitig ist es in nicht renormierbaren Modellen, ein Beispiel dafür ist die inzwischen veraltete Formulierung in Form eines lokalen Fermi-Lagrange-Operators mit vier Fermionen, nicht möglich, alle Divergenzen zu „Aggregaten“ zu „assemblieren“, die Massen renormieren und Gebühren. Renormierbare QFT-Modelle sind in der Regel durch dimensionslose Kopplungskonstanten, logarithmisch divergierende Beiträge zur Renormierung von Kopplungskonstanten und Fermionmassen und quadratisch divergierende Radien gekennzeichnet. Korrekturen der Massen von Skalarteilchen (falls vorhanden). Für solche Modelle erhalten wir als Ergebnis der Renormierungsprozedur renormierte Störungstheorie, zum Himmel und dient als Grundlage für praktische. Berechnungen. In renormierbaren QFT-Modellen spielen die renormierten Green-Funktionen (dressed propagators) und eine wichtige Rolle Oberteile, einschließlich Interaktionseffekten. Sie können durch unendliche Summen von Termen dargestellt werden, was immer komplexer werdenden Feynman-Diagrammen mit einer festen Anzahl und Art von Ext. entspricht. Linien. Für solche Größen kann man formale Definitionen entweder durch geben Vakuummedium chronologisch Produkte von Feldoperatoren in der Wechselwirkungsdarstellung und der S-Matrix (die Vakuummittelwerten von T-Produkten vollständiger, dh Heisenberg-Operatoren entspricht), oder durch funktionale Ableitungen von Funktion Z(J) erzeugen, ausgedrückt durch die sog. erweiterte Streumatrix S( J), funktional abhängig von der Hilfsfunktion. klassisch Quellen Ja (x) Felder und a(x). Der Formalismus der Generierung von Funktionalen in der QFT ist analog zum entsprechenden statistischen Formalismus. Physik. Es ermöglicht Ihnen, für die vollständigen Green-Funktionen und Scheitelpunktfunktionen Ur-tionen in funktionalen Ableitungen zu erhalten - Schwinger-Gleichungen, aus denen man wiederum eine unendliche Kette von Integro-Differentialen erhalten kann. ur-ny - -Dyson-Gleichungen. Letztere sind wie eine Kette von Ur-tionen für Korrelationen. f-tsy-Statistik. Physik.
6. UV-Asymptotik und die Renormierungsgruppe UV-Divergenzen in QFT sind eng mit Hochenergie verbunden. Asymptotik renormierter Ausdrücke. Zum Beispiel Logarithmus. Divergenz (12) des einfachsten Feynman-Integrals ich (S) antwortet logarithmisch. Asymptotik

finales regularisiertes Integral (13) sowie der entsprechende renormierte Ausdruck. Denn bei renormierbaren Modellen mit dimensionslosen Kopplungskonstanten sind die Abweichungen hauptsächlich logarithmisch. Charakter, UV-Asymptotik l-Schleifenintegrale, in der Regel (eine Ausnahme ist der Fall doppelt logarithmische Asymptotik), haben hier die typische Struktur ( gL)l, wo L=ln(- R 2/m2), p ist ein "großer" Impuls, und m ist ein Parameter der Massendimension, der im Prozess der Renormierung entsteht. Für ausreichend große | R 2 | das Wachstum des Logarithmus kompensiert die Kleinheit der Kopplungskonstante g und es entsteht das Problem, einen willkürlichen Term einer Reihe der Form zu bestimmen

und Summieren einer solchen Reihe ( ein Film- numerische Koeffizienten). Die Lösung dieser Probleme wird durch die Verwendung des Verfahrens erleichtert Renormalisierungsgruppe, die auf dem Gruppencharakter endlicher Transformationen analog zu den singulären Renormierungsfunktionen (14) und den sie begleitenden Greenschen Transformationen beruht. Auf diese Weise ist es möglich, bestimmte unendliche Beitragssätze aus Feynman-Diagrammen effektiv zu summieren und insbesondere Doppelentwicklungen (15) als Einfachentwicklungen darzustellen:

wo funktioniert f l haben ein charakteristisches geom. Progressionen oder Kombinationen einer Progression mit ihrem Logarithmus und Exponenten. Als sehr bedeutsam erweist sich hier, dass die Bedingung für die Anwendbarkeit von f-l vom Typ (15) ist, der die Form hat g<<1, gL<< 1 wird durch eine viel schwächere ersetzt: - sog. unveränderliche Ladung, die in der einfachsten (Einschleifen-)Näherung die Form einer Summe von geom hat. Argumentationsfortschritte GL: (b 1 - numerischer Koeffizient). Beispielsweise ist bei der QED die invariante Ladung proportional zum transversalen Teil des Photonenpropagators d, in der Ein-Schleifen-Näherung erweist sich als gleich

außerdem bei k 2 /m 2 > 0 L=ln( k 2/m2)+ ich p( k- 4-Impuls eines virtuellen Photons). Dieser Ausdruck, der die Summe von Ch ist. Logarithmen der Form a(a L)n, hat einen sog. Geisterpol bei k 2 =-m 2 e 3 p/a spektrale Darstellung für einen Photonenpropagator). Das Vorhandensein dieses Pols steht in engem Zusammenhang mit dem Problem der sogenannten. kostenlos,t. e) Drehen der renormalisierten Ladung auf Null bei einem endlichen Wert der "Seed"-Ladung. Die Schwierigkeit, die mit dem Erscheinen eines gespenstischen Pols verbunden ist, wurde manchmal sogar als Beweis für ext interpretiert. Inkonsistenz der QED und die Übertragung dieses Ergebnisses auf das Traditionelle. renormierbare Modelle der starken Wechselwirkung von Hadronen - als Hinweis auf die Inkonsistenz der gesamten lokalen QFT als Ganzes. Solche Kardinalschlussfolgerungen, die auf der Grundlage von fl Ch. gemacht wurden. Logarithmus. Annäherungen erwiesen sich als vorschnell. Bereits unter Berücksichtigung der „Following the Main“-Beiträge ~a 2 (a L)m, die zur Zwei-Schleifen-Näherung führt, zeigt, dass sich die Position des Pols merklich verschiebt. Eine allgemeinere Analyse im Rahmen der Renormierungsmethode. Gruppe führt zu dem Schluss, dass f-ly (16) nur in der Region anwendbar ist d.h. über die Unmöglichkeit, die Existenz eines "polaren Widerspruchs" anhand der einen oder anderen Wiederaufnahme der Reihe zu beweisen oder zu widerlegen (15). So erweist sich das Paradoxon des Phänomens des Geisterpols (bzw. der Renormierung der Ladung auf Null) als gespenstisch – zu entscheiden, ob diese Schwierigkeit wirklich theoretisch auftritt, wäre nur möglich, wenn wir in der Lage wären, eindeutige Ergebnisse zu erhalten Im Bereich der starken Kopplung bleibt vorerst nur der Schluss, dass die Störungstheorie, angewandt auf die Spinor-QED, trotz der unbedingten Kleinheit des Entwicklungsparameters a keine logisch geschlossene Theorie ist. Für die QED könnte dieses Problem jedoch als rein akademisch angesehen werden, da nach (16) auch bei Riesenenergien ~(10 15 -10 16) GeV, in der Moderne betrachtet werden. Modelle zum Kombinieren von Interaktionen, wird die Bedingung nicht verletzt. Viel ernster sah die Situation in der Quantenmesodynamik aus, der Theorie der Wechselwirkung von pseudoskalaren Mesonfeldern mit Nukleonen-Fermionfeldern. 60er Einheit Kandidat für die Rolle eines renormierbaren Modells der starken Wechselwirkung. Darin war die effektive Kopplungskonstante bei gewöhnlichen Energien groß, und die - eindeutig unzulässige - Betrachtung durch die Störungstheorie führte zu den gleichen Schwierigkeiten der Nullladung. Als Ergebnis aller beschriebenen Studien ist eine etwas pessimistische Sichtweise entstanden. Sicht auf die Zukunftsaussichten der renormierbaren QFT. Von einer rein theoretischen Sicht schien es, dass Qualitäten. Die Vielfalt solcher Theorien ist vernachlässigbar: Für jedes renormierbare Modell waren alle Wechselwirkungseffekte - für kleine Kopplungskonstanten und moderate Energien - auf eine nicht beobachtbare Änderung der Eigenschaften freier Teilchen und die Tatsache beschränkt, dass bei solchen Teilchen Quantenübergänge zwischen Zuständen auftraten. zu den Wahrscheinlichkeiten der niedrigsten Annäherung, zu denen nun (kleine) Korrekturen höherer berechnet werden konnten. Für große Kopplungskonstanten oder asymptotisch große Energien war die verfügbare Theorie – wiederum unabhängig vom spezifischen Modell – nicht anwendbar. QED blieb die einzige (wirklich brillante) Anwendung in der realen Welt, die diese Einschränkungen erfüllt. Diese Situation trug zur Entwicklung nicht-hamiltonischer Methoden bei (wie z axiomatische Quantenfeldtheorie, algebraischer Ansatz im KTP, konstruktive Quantenfeldtheorie). Große Hoffnungen wurden gesetzt Dispersionsrelationsverfahren und Forschungsanalytik. Eigenschaften der S-Matrix. Mn. Die Forscher begannen, nach einem Ausweg aus den Schwierigkeiten bei der Überarbeitung der Hauptsache zu suchen. Bestimmungen der lokalen Renormierung von QFT mit Hilfe der Entwicklung von nicht-kanonischen. Richtungen: im Wesentlichen nichtlinear (d.h. nichtpolynomial), nichtlokal, nichtdefinit (vgl Nichtpolynomiale Quantenfeldtheorien, Nichtlokale Quantenfeldtheorie, Unbestimmte Metrik) usw. Die Quelle neuer Ansichten über die allgemeine Situation in der QFT war die Entdeckung neuer Theorien. Fakten zu nicht-abelsch Kalibrierfelder. 7. Kalibrierungsfelder Eichfelder (einschließlich nicht-Abelsche Yanga - Mühlfelder) beziehen sich auf die Invarianz in Bezug auf eine Gruppe G lokale Spurtransformationen. Das einfachste Beispiel für ein Eichfeld ist el-magn. aufstellen EIN m in QED einer abelschen Gruppe zugeordnet U(l). Im allgemeinen Fall ungebrochener Symmetrie haben die Yang-Mills-Felder wie das Photon die Ruhemasse Null. Sie werden von der angeschlossenen Gruppenvertretung umgesetzt G, tragen die entsprechenden Indizes B ab m ( x) und gehorchen nichtlinearen Bewegungsgleichungen (die nur für eine abelsche Gruppe linearisiert sind). Ihre Wechselwirkung mit Materiefeldern wird eichinvariant, wenn sie durch Verlängerung von Ableitungen erreicht wird (siehe Abb. kovariante Ableitung): im freien Lagrange des Feldes und mit derselben dimensionslosen Konstante g, die in die Lagrangedichte des Feldes eintritt BEI. Wie E-Mag. Feld sind Yang-Mills-Felder beschränkte Systeme. Dies, sowie das offensichtliche Fehlen masseloser Vektorteilchen (außer Photonen) in der Natur, begrenztes Interesse an solchen Feldern, und für mehr als 10 Jahre wurden sie eher als elegantes Modell betrachtet, das nichts mit der realen Welt zu tun hat. Die Situation änderte sich im 2. Stock. 60er Jahren, als sie durch die Methode der funktionalen Integration quantisiert werden konnten (vgl. Funktionale integrale Methode) und finde heraus, dass sowohl das reine masselose Yang-Mills-Feld als auch das mit Fermionen wechselwirkende Feld renormierbar sind. Anschließend wurde ein Verfahren zum „sanften“ Einbringen von Massen in diese Felder unter Ausnutzung des Effekts vorgeschlagen spontane Symmetriebrechung. Basierend darauf Higgs-Mechanismus ermöglicht es uns, die Masse den Quanten der Yang-Mills-Felder mitzuteilen, ohne die Renormierbarkeit des Modells zu verletzen. Auf dieser Grundlage, in con. 60er wurde eine einheitliche renormierbare Theorie der Schwachen und El-Magn aufgebaut. Wechselwirkungen (vgl Elektroschwache Wechselwirkung), in der die Träger der schwachen Wechselwirkung schwere (mit Massen ~ 80–90 GeV) Quanten von Vektoreichfeldern der elektroschwachen Symmetriegruppe ( Zwischenvektorbosonen W 6 und Z 0 1983 experimentell beobachtet). Endlich am Anfang 70er Hinweis gefunden. Eigenschaft der nicht-Abelschen QFT - Asymptotische Freiheit.Es stellte sich heraus, dass im Gegensatz zu allen bisher untersuchten renormierbaren QFTs für das Yang-Mills-Feld sowohl rein als auch in Wechselwirkung mit a beschränkt sind die Anzahl der Fermionen, Kap. Logarithmus. Beiträge zur invarianten Ladung haben ein Gesamtvorzeichen, das dem Vorzeichen solcher Beiträge zur QED entgegengesetzt ist:

Daher in der Grenze | k 2 |"": eine unveränderliche Ladung und es gibt keine Schwierigkeiten, die UV-Grenze zu erreichen. Dieses Phänomen der Selbstabschaltung der Wechselwirkung bei kleinen Abständen (asymptotische Freiheit) ermöglichte es, in der Eichtheorie der starken Wechselwirkung auf natürliche Weise zu erklären - Quantenchromodynamik(QCD) Partonstruktur von Hadronen (vgl Partons), die sich bis dahin in Experimenten zur tiefinelastischen Streuung von Elektronen an Nukleonen manifestiert hatte (vgl Tief inelastische Prozesse). Die Symmetriebasis der QCD ist die Gruppe SO(3) s, handeln im Raum der sogenannten. Farbvariablen. Farbquantenzahlen ungleich Null werden zugeschrieben Quarks und Gluonen. Die Besonderheit von Farbzuständen ist ihre Nichtbeobachtbarkeit bei asymptotisch großen räumlichen Entfernungen. Gleichzeitig sind die im Experiment deutlich erkennbaren Baryonen und Mesonen Singuletts der Farbgruppe, d.h. ihre Zustandsvektoren ändern sich bei Transformationen im Farbraum nicht. Beim Umkehren des Vorzeichens b [vgl. (17) mit (16)] geht die Schwierigkeit des Geisterpols von hohen Energien zu kleinen über. Es ist noch nicht bekannt, was QCD für gewöhnliche Energien (in der Größenordnung von Hadronenmassen) angibt, - es gibt eine Hypothese, dass mit zunehmender Entfernung (d.h. mit abnehmender Energie) die Wechselwirkung zwischen farbigen Teilchen so stark anwächst, dass es genau dies ist die es Quarks und Gluonen nicht erlaubt, sich in einem Abstand von /10 - 13 cm zu zerstreuen (die Hypothese des Nichtfliegens oder Einschlusses; vgl. Farbbeständigkeit). Dem Studium dieses Problems wird große Aufmerksamkeit geschenkt. So hat die Untersuchung von Quantenfeldmodellen, die Yang-Mills-Felder enthalten, gezeigt, dass renormierbare Theorien einen unerwarteten Reichtum an Inhalten haben können. Insbesondere der naive Glaube, dass das Spektrum eines wechselwirkenden Systems dem Spektrum eines freien Systems qualitativ ähnlich ist und sich von diesem nur durch eine Verschiebung der Ebenen und möglicherweise durch das Auftreten weniger gebundener Zustände unterscheidet . Es stellte sich heraus, dass das Spektrum eines Systems mit Wechselwirkung (Hadronen) möglicherweise nichts mit dem Spektrum freier Teilchen (Quarks und Gluonen) zu tun hat und daher möglicherweise nicht einmal einen Hinweis darauf gibt. Felder, deren Sorten in die elementare Mikroskopie aufgenommen werden sollten. Lagrange. Aufbau dieser wesentlichen Qualitäten. Merkmale und halten die überwiegende Mehrheit der Mengen. Berechnungen in QCD basieren auf einer Kombination von störungstheoretischen Berechnungen mit der Anforderung der Renormalisierungsgruppeninvarianz. Mit anderen Worten, die Renormalisierungsgruppenmethode ist zusammen mit der renormalisierten Störungstheorie zu einem der wichtigsten Computerwerkzeuge der Moderne geworden. KTP. DR. QFT-Methode, die empfangen bedeutet. Entwicklung seit den 70er Jahren, insbesondere in der Theorie der nicht-Abelschen Eichfelder, ist, wie bereits erwähnt, eine Methode, die die Methode des funktionalen Integrals verwendet und eine Verallgemeinerung zur QFT-Quantenmechanik darstellt. Wegintegrale Methode. In der QFT können solche Integrale als Mittelungsf-ly der entsprechenden klassischen betrachtet werden. Ausdrücke (z. B. die klassischen Green-Funktionen für ein Teilchen, das sich in einem gegebenen externen Feld bewegt) in Form von Quantenfeldfluktuationen. Die Idee, das Funktionalintegralverfahren auf die QFT zu übertragen, war zunächst mit der Hoffnung verbunden, kompakte geschlossene Ausdrücke für die Basis zu erhalten. Quantenfeldgrößen, die für konstruktive Berechnungen geeignet sind. Es stellte sich jedoch heraus, dass aufgrund der Schwierigkeiten in Math. Charakter, eine strenge Definition kann nur für Integrale vom Gaußschen Typ gegeben werden, die die einzigen sind, die sich für eine exakte Berechnung eignen. Daher galt die funktionale Integraldarstellung lange Zeit als kompakte formale Darstellung der Quantenfeldstörungstheorie. Später (um vom mathematischen Rechtfertigungsproblem abzulenken) begannen sie, diese Darstellung in decomp zu verwenden. allgemeine Aufgaben. So spielte die Darstellung des funktionalen Integrals eine wichtige Rolle bei den Arbeiten zur Quantisierung von Yang-Mills-Feldern und dem Nachweis ihrer Renormierbarkeit. Interessante Ergebnisse wurden mit dem etwas früher für Probleme der Quantenstatistik entwickelten Verfahren zur Berechnung des Funktionalintegrals des Funktionals erzielt Pass-Methode, ähnlich dem Sattelpunktverfahren in der Theorie der Funktionen einer komplexen Variablen. Für eine Reihe ziemlich einfacher Modelle wurde unter Verwendung dieser Methode festgestellt, dass die Quantenfeldgrößen als Funktionen der Kopplungskonstante betrachtet werden g, haben in der Nähe des Punktes g=0 Singularität vom Merkmalstyp exp(- 1 /g) und dass (in voller Übereinstimmung damit) die Koeffizienten f n Leistungserweiterungen S f n g n Störungstheorien wachsen auf breiter Basis P Fakultät: f n~n!. Damit wurde die eingangs gemachte Aussage konstruktiv bestätigt. 50er die Hypothese der Nichtanalytik der Theorie in Bezug auf Ladung. Die Analytik spielt bei dieser Methode eine wichtige Rolle. Lösungen der nichtlinearen Klassik Ur-tionen, die einen lokalisierten Charakter haben ( Solitonen und - in der euklidischen Version - Instantonen) und liefert ein Minimum an das Aktionsfunktional. Im 2. Stock. 70er im rahmen der methode der funktionalen integration entstand eine richtung zur untersuchung nicht-abelscher eichfelder mit hilfe der sog. Kontur , in k-poii als Argumente anstelle von 4D-Punkten X geschlossene Konturen à in der Raumzeit betrachtet. Auf diese Weise ist es möglich, die Dimension der Menge der unabhängigen Variablen um eins zu reduzieren und in einigen Fällen die Formulierung des Quantenfeldproblems erheblich zu vereinfachen (siehe Abschn. Konturansatz). Mit Hilfe einer numerischen Berechnung von Funktionsintegralen, näherungsweise dargestellt in Form von iterierten Integralen hoher Multiplizität, wurden erfolgreiche Untersuchungen mit Hilfe einer numerischen Berechnung auf einem Computer durchgeführt. Für eine solche Darstellung wird ein diskreter Verband in den Anfangsraum der Konfigurations- oder Impulsvariablen eingeführt. Ähnliche, wie sie genannt werden, „Gitterrechnungen“ für realistisch. Modelle erfordern den Einsatz von Computern mit besonders hoher Leistung, wodurch sie erst am Anfang stehen. Hier wurde insbesondere eine ermutigende Berechnung der Massen und anomalen Magnete mit der Monte-Carlo-Methode durchgeführt. Momente von Hadronen auf der Grundlage der Quantenchromodynamik. Darstellungen (vgl Gittermethode).
8. Großes Bild Die Entwicklung neuer Vorstellungen über die Welt der Teilchen und ihrer Wechselwirkungen offenbart zunehmend zwei Grundlagen. Tendenzen. Dies ist erstens ein allmählicher Übergang zu immer indirekteren Begriffen und immer weniger visuellen Bildern: lokale Eichsymmetrie, der Renormierbarkeits-Imperativ, das Konzept der gebrochenen Symmetrien sowie spontane Symmetriebrechung und Gluonen statt tatsächlich beobachteter Hadronen, die nicht beobachtbare Quantenzahl der Farbe usw. Zweitens gibt es neben der Komplikation des Arsenals der verwendeten Methoden und Konzepte eine unzweifelhafte Manifestation der Merkmale der Einheit der Prinzipien, die den Phänomenen zugrunde liegen, die sehr weit voneinander entfernt zu sein scheinen , und als Ergebnis davon bedeutet es. Vereinfachung des Gesamtbildes. Drei grundlegende Wechselwirkungen, die mit QFT-Methoden untersucht wurden, erhielten eine parallele Formulierung basierend auf dem Prinzip der lokalen Eichinvarianz. Eine verwandte Eigenschaft der Renormierbarkeit gibt die Möglichkeit von Mengen. Berechnung der Effekte von e-magn., schwacher und starker Wechselwirkung nach der Methode der Störungstheorie. (Da die Gravitationswechselwirkung auch auf der Grundlage dieses Prinzips formuliert werden kann, ist sie wahrscheinlich universell.) Mit praktisch. aus störungstheoretischer Sicht haben sich in der QED längst etabliert (zum Beispiel der Grad der Übereinstimmung zwischen Theorie und Experiment für Anomales magnetisches Moment Elektron Dm ist Dm/m 0 ~10 - 10 , wobei m 0 das Bohr-Magneton ist). Auch in der Theorie der elektroschwachen Wechselwirkung erwiesen sich solche Rechnungen als bemerkenswert prädiktiv. Kraft (z. B. wurden die Massen richtig vorhergesagt W 6 - und Z 0 -Bosonen). Schließlich wird in der QCD im Bereich ausreichend hoher Energien und 4-Impulsübertragungen Q (|Q| 2 / 100 GeV 2) auf Basis einer renormierbaren Störungstheorie verstärkt durch die Renormierungsmethode. Gruppe ist es möglich, eine Vielzahl von Phänomenen der Hadronenphysik quantitativ zu beschreiben. Aufgrund der unzureichenden Kleinheit des Expansionsparameters: Die Genauigkeit der Berechnungen ist hier nicht sehr hoch. Im Allgemeinen können wir das sagen, entgegen dem Pessimismus von con. In den 50er Jahren erwies sich die Methode der renormierten Störungstheorie zumindest für drei der vier Fundams als fruchtbar. Interaktionen. Gleichzeitig sollte darauf hingewiesen werden, dass die meisten Bedeutende Fortschritte, die hauptsächlich in den 1960er bis 1980er Jahren erzielt wurden, beziehen sich genau auf das Verständnis des Mechanismus der Wechselwirkung von Feldern (und Teilchen). Erfolge bei der Beobachtung der Eigenschaften von Teilchen und Resonanzzuständen haben reichlich Material geliefert, das zur Entdeckung neuer Quantenzahlen (Fremdheit, Charme usw.) und zur Konstruktion entsprechender sogenannter Zahlen geführt hat. gebrochene Symmetrien und die entsprechende Systematik der Teilchen. Dies wiederum gab der Suche nach zahlreichen Unterbauten Impulse. Hadronen und letztlich die Entstehung von QCD. Infolgedessen hörten solche "50er" wie Nukleonen und Pionen auf, elementar zu sein, und es wurde möglich, ihre Eigenschaften (Massenwerte, anomale magnetische Momente usw.) durch die Eigenschaften von Quarks und die Parameter der Quark-Gluon-Wechselwirkung zu bestimmen. Ein Beispiel dafür ist zum Beispiel der Grad der Störung des Isotops. Symmetrie, die sich in der Massendifferenz D manifestiert M aufladen und neutrale Mesonen und Baryonen in einem Isotop. Multiplett (zum Beispiel p und n; anstelle des Originals, aus heutiger Sicht naiv, Vorstellung, dass dieser Unterschied (aufgrund des Zahlenverhältnisses D M/M~ a) hat ein E-Mag. Ursprungs kam der Glaube, dass dies auf den Massenunterschied zurückzuführen ist und- und d-Quarks. Allerdings, auch wenn die Mengen erfolgreich sind. Durch die Umsetzung dieser Idee ist die Frage nicht vollständig gelöst - sie wird nur tiefer von der Ebene der Hadronen auf die Ebene der Quarks verschoben. In ähnlicher Weise wird die Formulierung des alten Myon-Rätsels umgeformt: "Wozu braucht man das Myon und warum ist es, ähnlich wie das Elektron, zweihundertmal schwerer als es?". Diese auf die Quark-Lepton-Ebene übertragene Frage hat eine größere Allgemeingültigkeit erlangt und bezieht sich nicht mehr auf ein Paar, sondern auf drei Generationen von Fermionen, änderte aber nichts an seinem Wesen. 9. Perspektiven und Probleme Große Hoffnungen wurden auf das Programm der sog. große Vereinigung Wechselwirkungen – Kombinieren der starken QCD-Wechselwirkung mit der elektroschwachen Wechselwirkung bei Energien in der Größenordnung von 10 15 GeV und höher. Ausgangspunkt ist hier die (theoretische) Beobachtung, dass die Extrapolation in den Bereich superhoher Energien von f-ly (17) asymptotisch ist. Freiheit für Chromodynamik. Kopplungskonstanten und f-ly-Typ (16) für die invariante Ladung QED führt dazu, dass diese Werte bei Energien in der Größenordnung von |Q| = MX~10 15 b 1 GeV miteinander verglichen. Die entsprechenden Werte (wie auch der Wert der zweiten Ladung der Theorie der elektroschwachen Wechselwirkung) fallen gleich aus Fundament. körperlich Die Hypothese ist, dass diese Koinzidenz nicht zufällig ist: im Bereich der Energien größer als M X, gibt es eine höhere Symmetrie, die von der Gruppe beschrieben wird G, die sich bei niedrigeren Energien aufgrund von Massentermen in beobachtbare Symmetrien aufspaltet, und die Massen, die die Symmetrien brechen, sind von der Größenordnung M X. Über die Struktur der Vereinigungsgruppe G und die Natur der symmetriebrechenden Elemente kann dec gemacht werden. Annahmen Die einfache Antwort ist G=SU(5 )], aber mit Qualitäten. Standpunkt Ein wichtiges Merkmal des Vereins ist, dass die Mittel. Ansicht (Ansicht - Spalte) Gruppe G kombiniert Quarks und Leptonen aus fundam. Gruppenvertretungen SO(3 )c und SO(2), wodurch bei höheren Energien als M X Quarks und Leptonen werden "gleich". Der Mechanismus der lokalen Eichwechselwirkung zwischen ihnen enthält Vektorfelder in der adjungierten Darstellung (Darstellung - Matrix) der Gruppe G, deren Quanten neben Gluonen und schweren Zwischenbosonen der elektroschwachen Wechselwirkung neue Vektorpartikel enthalten, die Leptonen und Quarks miteinander verbinden. Die Möglichkeit der Umwandlung von Quarks in Leptonen führt zur Nichterhaltung der Baryonenzahl. Insbesondere erweist sich der Zerfall des Protons beispielsweise nach dem Schema p""e + +p 0 als erlaubt. Es sei darauf hingewiesen, dass das große Vereinigungsprogramm mit einer Reihe von Schwierigkeiten konfrontiert war. Einer davon ist rein theoretisch. Charakter (das sogenannte Hierarchieproblem - die Unmöglichkeit, Theorien über Störungen inkommensurabler Energieskalen in höheren Ordnungen aufrechtzuerhalten M X~10 15 GeV und MW~10 2 GeV). DR. die Schwierigkeit hängt mit der Fehlanpassung der Experimente zusammen. Daten über den Zerfall des Protons mit theoretischen. Vorhersagen. Eine sehr vielversprechende Richtung für die Entwicklung der Moderne. QTP ist verbunden mit Supersymmetrie, d.h. mit Symmetrie bezüglich Transformationen, die die bosonischen Felder j ( X) (ganzzahliger Spin) mit Fermionfeldern y( x) (halbzahliger Spin). Diese Transformationen bilden eine Gruppe, die eine Erweiterung der Poincare-Gruppe ist. Die entsprechende Algebra der Gruppengeneratoren enthält neben den üblichen Generatoren der Poincaré-Gruppe Spinorgeneratoren sowie Antikommutatoren dieser Generatoren. Supersymmetrie kann als nicht-triviale Vereinigung der Poincaré-Gruppe mit ext angesehen werden. Symmetrien, eine Vereinigung, die durch die Einbeziehung von Antikommutierungsgeneratoren in die Algebra ermöglicht wird. Die Darstellungen der Supersymmetriegruppe – des Superfeldes Ф – werden weiter gegeben Superräume, einschließlich zusätzlich zu den üblichen Koordinaten X spezielle algebraische. Objekte (die sogenannten Generatoren Grassmann-Algebra mit Involution) sind genau antikommutierende Elemente, die Spinoren in Bezug auf die Poincaré-Gruppe sind. Aufgrund der exakten Antikommutativität verschwinden alle Potenzen ihrer Komponenten ab der zweiten (die entsprechende Grassmann-Algebra heißt nilpotent), und daher werden die Entwicklungen von Oberkörpern zu Reihen wiederum zu Polynomen. Zum Beispiel im einfachsten Fall eines chiralen (oder analytischen) Superfelds, das in def. basierend nur auf q,

(s ist die Pauli-Matrix) lautet:

Chancen ABER(X), ja ( X), F(x ) sind bereits gewöhnliche Quantenfelder - Skalar, Spinor usw. Sie werden genannt. Komponenten- oder Konstituentenfelder. Aus Sicht der Komponentenfelder ist ein Superfeld einfach per Definition zusammengesetzt. regelt eine Menge einer endlichen Anzahl verschiedener Bose- und Fermi-Felder mit den üblichen Quantisierungsregeln. Bei der Konstruktion supersymmetrischer Modelle ist es erforderlich, dass Wechselwirkungen auch unter Supersymmetrietransformationen invariant sind, dh sie repräsentieren superinvariante Produkte von Superfeldern als Ganzes. Aus üblicher Sicht bedeutet dies die Einführung einer ganzen Reihe von Wechselwirkungen von Komponentenfeldern, Wechselwirkungen, deren Konstanten nicht beliebig sind, sondern fest miteinander verbunden sind. Dies lässt auf eine exakte Kompensation aller oder zumindest einiger UV-Divergenzen hoffen, die von unterschiedlichen Termen der Wechselwirkung herrühren. Wir betonen, dass ein Versuch, eine solche Kompensation einfach für eine Reihe von Feldern und Interaktionen zu implementieren, die nicht durch Gruppenanforderungen begrenzt sind, vergeblich wäre, da die einmal etablierte Kompensation während Renormalisierungen zerstört würde. Von besonderem Interesse sind supersymmetrische Modelle, die nicht-Abelsche Eichvektorfelder als Komponenten enthalten. Solche Modelle, die sowohl Eichsymmetrie als auch Supersymmetrie haben, werden aufgerufen. Superkalibrierung. In Superkalibrierungsmodellen wird ein merklicher Unterschied beobachtet. die Tatsache der Reduzierung von UV-Divergenzen. Es werden Modelle gefunden, in denen die Lagrange-Funktion der Wechselwirkung, ausgedrückt in Form von Komponentenfeldern, durch die Summe von Ausdrücken dargestellt wird, von denen jeder einzeln renormierbar ist und eine Störungstheorie mit einem Logarithmus erzeugt. Divergenzen, jedoch entsprechen die Divergenzen der Summe der Feynman-Diagramme mit den Beiträgen von diff. Mitglieder des virtuellen Superfelds kompensieren sich gegenseitig. Diese Eigenschaft der vollständigen Verringerung der Divergenz kann der bekannten Tatsache der Abnahme des UV-Divergenzgrades der Eigenwerte gegenübergestellt werden. Elektronenmasse in der QED im Übergang von den ursprünglichen nicht-kovarianten Berechnungen der späten 20er Jahre. zu einer praktisch kovarianten Störungstheorie, die Positronen in Zwischenzuständen berücksichtigt. Die Analogie wird durch die Möglichkeit verstärkt, die supersymmetrischen Regeln von Feynman zu verwenden, wenn solche Divergenzen überhaupt nicht auftreten. Die vollständige Aufhebung von UV-Divergenzen in willkürlichen Ordnungen der Störungstheorie, die für eine Reihe von Supergauge-Modellen etabliert wurde, ließ auf eine Theorie hoffen. die Möglichkeit einer fundamentalen Supervereinigung. Wechselwirkungen, also eine solche unter Berücksichtigung der Supersymmetrie gebaute Vereinigung aller vier Wechselwirkungen, einschließlich der gravitativen, für die nicht nur die nicht renormierbaren Effekte der "gewöhnlichen" Quantengravitation verschwinden, sondern die vollständig einheitliche Wechselwirkung sich als frei herausstellt von UV-Divergenzen. Phys. Die Arena der Supervereinigungen sind Skalen in der Größenordnung der Planck-Skalen (Energien ~10 19 GeV, Entfernungen in der Größenordnung der Planck-Länge). R Pl ~10 - 33 cm). Zur Umsetzung dieser Idee werden Supergauge-Modelle betrachtet, die auf Superfeldern basieren, die so angeordnet sind, dass max. der Spin ihrer konstituierenden gewöhnlichen Felder ist gleich zwei. Das entsprechende Feld wird mit dem Gravitationsfeld identifiziert. Ähnliche Modelle werden aufgerufen Supergravitation (vgl. Supergravitation). Versuche, endliche Supergravitationen zu konstruieren, verwenden Ideen über Minkowski-Räume mit mehr als vier Dimensionen sowie über Strings und Superstrings. Mit anderen Worten, die "übliche" lokale QFT bei Entfernungen kleiner als die von Planck verwandelt sich in eine Quantentheorie eindimensionaler ausgedehnter Objekte, die in Räume mit einer höheren Anzahl von Dimensionen eingebettet sind. Für den Fall, dass eine solche Supervereinigung auf Supergravitation beruht. Wenn ein Modell auftritt, für das die Abwesenheit von UV-Divergenzen bewiesen ist, wird eine einheitliche Theorie aller vier Grundlagen konstruiert. Wechselwirkungen, frei von Unendlichkeiten. Somit stellt sich heraus, dass UV-Divergenzen überhaupt nicht auftreten werden, und die gesamte Vorrichtung zum Eliminieren von Divergenzen durch das Renormierungsverfahren erweist sich als unnötig. Was die Natur der Teilchen selbst betrifft, ist es möglich, dass sich die Theorie einer neuen Qualität nähert. ein Meilenstein, der mit der Entstehung von Ideen über die Ebene der Elementarität verbunden ist, die höher als die Quark-Lepton-Ebene ist. Wir sprechen über die Gruppierung von Quarks und Leptonen in Generationen von Fermionen und die ersten Versuche, die Frage nach unterschiedlichen Massenskalen verschiedener Generationen zu stellen, basierend auf der Vorhersage der Existenz von Teilchen, die elementarer als Quarks und Leptonen sind. Zündete.: Akhiezer A. I., Berestetsky V. B., Quantum electrodynamics, 4. Aufl., M., 1981; Bogolyubov N. N., III und rk über in D. V., Einführung in die Theorie quantisierter Felder, 4. Aufl., M., 1984; ihre, Quantum Fields, Moskau, 1980; Berestetsky V. B., Lifshitz E. M., Pitaevsky L. P., Quantum electrodynamics, 2. Aufl., M., 1980; Weisskopf, VF, Wie wir mit der Feldtheorie aufgewachsen sind, übers. aus dem Englischen, UFN, 1982, v. 138, p. 455; Und Tsikson K., 3 yuber J-B., Quantenfeldtheorie, übersetzt. aus dem Englischen, Bd. 1-2, M., 1984; N. N. Bogolyubov, A. A. Logunov, A. I. Oksak, I. T. Todorov, Allgemeine Prinzipien der Quantenfeldtheorie, Moskau, 1987. B. V. Medvedev, D. V. Shirkov.