Die Heisenbergsche Unschärferelation legt den Zusammenhang zwischen fest. Heisenbergsche Unschärferelation in der Quantenmechanik

Die Konzepte der Wahrscheinlichkeit haben sich als sehr nützlich erwiesen, um das Verhalten eines Gases zu beschreiben, das aus einer großen Anzahl von Molekülen besteht. Es ist undenkbar, tatsächlich zu versuchen, die Position und Geschwindigkeit jedes der 1022 Moleküle zu bestimmen! Als die Wahrscheinlichkeitstheorie zum ersten Mal auf solche Phänomene angewendet wurde, wurde sie einfach als eine bequeme Möglichkeit angesehen, in einem so komplexen Umfeld zu arbeiten. Heute glauben wir jedoch, dass die Wahrscheinlichkeit für die Beschreibung verschiedener atomarer Prozesse von wesentlicher Bedeutung ist. Gemäß der Quantenmechanik, der mathematischen Theorie kleiner Teilchen, besteht immer eine gewisse Unsicherheit bei der Bestimmung der Position eines Teilchens und seiner Geschwindigkeit.

Bestenfalls können wir nur sagen, dass eine gewisse Wahrscheinlichkeit besteht, dass sich das Teilchen in der Nähe von Punkt x befindet.
Um den Ort eines Teilchens zu beschreiben, können wir Wahrscheinlichkeitsdichten p 1 (x) einführen, sodass p 1 (x)∆x die Wahrscheinlichkeit ist, dass sich das Teilchen irgendwo zwischen x und x + ∆x befindet. Wenn die Position des Teilchens gut genug bestimmt ist, kann eine ungefähre Form der Funktion p 1 (x) durch den in Abb. gezeigten Graphen dargestellt werden. 6.10, a. Genauso verhält es sich mit der Teilchengeschwindigkeit: Auch sie ist uns genau unbekannt. Mit einer gewissen Wahrscheinlichkeit p 2 (υ)∆υ kann sich das Teilchen mit einer Geschwindigkeit im Intervall zwischen υ und υ + ∆υ bewegen.
Eines der Hauptergebnisse der Quantenmechanik ist, dass diese beiden Dichten p 1 (x) und p 2 (υ) nicht unabhängig voneinander gewählt werden können, in dem Sinne, dass sie beide nicht beliebig eng sein können. Wenn wir die „Halbwertsbreiten“ der Kurven p 1 (x) und p 2 (υ) nehmen und sie mit [∆x] bzw. [∆υ] bezeichnen (siehe Abb. 6.10), dann verlangt die Natur, dass das Produkt von Diese beiden Halbwertsbreiten müssen nicht kleiner als h/m sein, wobei m die Masse des Teilchens und h eine grundlegende physikalische Konstante namens Plancksches Wirkungsquantum ist. Diese Beziehung wird wie folgt geschrieben:

und wird als Heisenbergsche Unschärferelation bezeichnet.
Damit diese Beziehung Bestand hat, muss sich das Teilchen auf eine sehr seltsame Weise verhalten. Sie sehen, dass die rechte Seite der Beziehung (6.22) konstant ist, was bedeutet, dass, wenn wir versuchen, ein Teilchen an einer bestimmten Stelle „festzunageln“, dieser Versuch damit endet, dass wir nicht erraten können, wo es sich befindet fliegen und mit welcher Geschwindigkeit. Wenn wir versuchen, ein Teilchen sehr langsam oder mit einer bestimmten Geschwindigkeit zu bewegen, wird es „unscharf“ und wir können nicht genau bestimmen, wo es sich befindet.
Das Unschärfeprinzip drückt die Mehrdeutigkeit aus, die bei jedem Versuch, die Natur zu beschreiben, bestehen muss. Die genaueste und vollständigste Beschreibung der Natur sollte nur probabilistisch sein. Einige Physiker mögen diese Beschreibungsmethode jedoch nicht. Es scheint ihnen, dass wir nur dann über das tatsächliche Verhalten eines Teilchens sprechen können, wenn Impulse und Koordinaten gleichzeitig gegeben sind. Einst, zu Beginn der Entwicklung der Quantenmechanik, beunruhigte dieses Problem Einstein sehr. Er schüttelte oft den Kopf und sagte: „Aber Gott errät nicht „Kopf oder Zahl“, um zu entscheiden, wohin sich das Elektron bewegen soll!“ Diese Frage beschäftigte ihn sehr lange und bis zum Ende seiner Tage konnte er sich offenbar nicht mit der Tatsache abfinden, dass eine probabilistische Beschreibung der Natur das Höchste ist, wozu wir noch fähig sind. Es gibt Physiker, die intuitiv spüren, dass unsere Welt irgendwie anders beschrieben werden kann, dass diese Unsicherheiten im Verhalten von Teilchen beseitigt werden können. Sie arbeiten weiterhin an diesem Problem, aber bisher hat keiner von ihnen nennenswerte Ergebnisse erzielt.
Diese der Welt innewohnende Unsicherheit bei der Bestimmung der Position eines Teilchens ist das wichtigste Merkmal der Beschreibung der Struktur von Atomen. Im Wasserstoffatom zum Beispiel, das aus einem einzelnen Proton besteht, das den Kern bildet, und einem Elektron, das sich irgendwo außerhalb befindet, ist die Unsicherheit über den Ort des Elektrons dieselbe wie die Größe des Atoms selbst! Wir können daher nicht mit Sicherheit sagen, wo, in welchem ​​Teil des Atoms sich unser Elektron befindet, und von „Bahnen“ kann natürlich keine Rede sein. Mit Sicherheit können wir nur über die Wahrscheinlichkeit p(r)∆V sprechen, ein Elektron in einem Element des Volumens ∆V im Abstand r vom Proton zu entdecken. Die Quantenmechanik erlaubt in diesem Fall die Berechnung der Wahrscheinlichkeitsdichte p(r), die für ein ungestörtes Wasserstoffatom gleich Ae -r2/a2 ist. Dabei handelt es sich um eine glockenförmige Funktion, wie sie in Abb. 1 dargestellt ist. 6.8, und die Zahl a stellt den charakteristischen Wert des Radius dar, nach dem die Funktion sehr schnell abnimmt. Obwohl die Wahrscheinlichkeit (wenn auch gering) besteht, ein Elektron in einer Entfernung von mehr als a vom Kern zu finden, nennen wir diese Größe den „Atomradius“. Sie beträgt ca. 10-10 m.

Wenn Sie sich irgendwie ein Wasserstoffatom vorstellen möchten, dann stellen Sie sich eine Art „Wolke“ vor, deren Dichte proportional zur Wahrscheinlichkeitsdichte ist. Ein Beispiel für eine solche Wolke ist in Abb. 6.11. Dieses visuelle Bild kommt der Wahrheit vielleicht am nächsten, obwohl wir uns sofort daran erinnern müssen, dass es sich hier nicht um eine echte „Elektronenwolke“ handelt, sondern nur um eine „Wahrscheinlichkeitswolke“. Irgendwo darin befindet sich ein Elektron, aber die Natur lässt uns nur vermuten, wo genau es sich befindet.
In ihrem Bestreben, so viel wie möglich über die Natur der Dinge zu erfahren, hat die moderne Physik herausgefunden, dass es Dinge gibt, die sie nie mit Sicherheit wissen kann. Ein Großteil unseres Wissens wird für immer ungewiss bleiben. Es ist uns gegeben, nur Wahrscheinlichkeiten zu kennen.

Heisenbergs Unschärfeprinzipien sind eines der Probleme der Quantenmechanik, aber zunächst wenden wir uns der Entwicklung der Physik als Ganzes zu. Ende des 17. Jahrhunderts legte Isaac Newton den Grundstein für die moderne klassische Mechanik. Er hat seine Grundgesetze formuliert und beschrieben, mit deren Hilfe man das Verhalten der Körper um uns herum vorhersagen kann. Bis zum Ende des 19. Jahrhunderts schienen diese Bestimmungen unantastbar und auf alle Naturgesetze anwendbar. Die Probleme der Physik als Wissenschaft schienen gelöst.

Verletzung der Newtonschen Gesetze und Geburt der Quantenmechanik

Doch wie sich herausstellte, wusste man damals viel weniger über die Eigenschaften des Universums, als es den Anschein hatte. Der erste Stein, der die Harmonie der klassischen Mechanik störte, war ihr Ungehorsam gegenüber den Gesetzen der Ausbreitung von Lichtwellen. Dadurch war die damals noch sehr junge Wissenschaft der Elektrodynamik gezwungen, ein völlig anderes Regelwerk zu entwickeln. Für theoretische Physiker stellte sich jedoch ein Problem: Wie bringt man zwei Systeme auf einen gemeinsamen Nenner? Die Wissenschaft arbeitet übrigens immer noch an einer Lösung für dieses Problem.

Der Mythos der allumfassenden Newtonschen Mechanik wurde schließlich durch eine tiefergehende Untersuchung der Struktur von Atomen zerstört. Der Brite Ernest Rutherford entdeckte, dass das Atom kein unteilbares Teilchen ist, wie bisher angenommen, sondern selbst Neutronen, Protonen und Elektronen enthält. Darüber hinaus widersprach ihr Verhalten auch völlig den Postulaten der klassischen Mechanik. Wenn in der Makrowelt die Schwerkraft die Natur der Dinge weitgehend bestimmt, dann ist sie in der Welt der Quantenteilchen eine äußerst kleine Wechselwirkungskraft. Damit wurden die Grundlagen der Quantenmechanik gelegt, die auch ihre eigenen Axiome hatte. Einer der wesentlichen Unterschiede zwischen diesen kleinsten Systemen und der Welt, die wir gewohnt sind, ist die Heisenbergsche Unschärferelation. Er zeigte deutlich die Notwendigkeit einer anderen Herangehensweise an diese Systeme auf.

Heisenberg-Unsicherheitsprinzip

Im ersten Viertel des 20. Jahrhunderts machte die Quantenmechanik ihre ersten Schritte und Physiker auf der ganzen Welt erkannten erst, was sich aus ihren Bestimmungen für uns ergibt und welche Perspektiven sie eröffnet. Der deutsche theoretische Physiker Werner Heisenberg formulierte 1927 seine berühmten Prinzipien. Heisenbergs Prinzipien bestehen darin, dass es unmöglich ist, gleichzeitig die räumliche Position und die Geschwindigkeit eines Quantenobjekts zu berechnen. Der Hauptgrund hierfür liegt darin, dass wir beim Messen bereits Einfluss auf das zu messende System nehmen und es dadurch stören. Wenn wir im Makrokosmos, den wir kennen, einen Gegenstand bewerten, dann sehen wir, selbst wenn wir ihn betrachten, die Lichtreflexion von ihm.

Die Heisenbergsche Unschärferelation besagt jedoch, dass Licht im Makrokosmos zwar keinen Einfluss auf das gemessene Objekt hat, im Fall von Quantenteilchen jedoch Photonen (oder andere abgeleitete Messungen) einen erheblichen Einfluss auf das Teilchen haben. Gleichzeitig ist es interessant festzustellen, dass die Quantenphysik durchaus in der Lage ist, die Geschwindigkeit oder Position eines Körpers im Raum separat zu messen. Doch je genauer unsere Geschwindigkeitsmessungen sind, desto weniger wissen wir über unsere räumliche Position. Umgekehrt. Das heißt, die Heisenbergsche Unschärferelation führt zu gewissen Schwierigkeiten bei der Vorhersage des Verhaltens von Quantenteilchen. Im wahrsten Sinne des Wortes sieht es so aus: Sie ändern ihr Verhalten, wenn wir versuchen, sie zu beobachten.

Das Prinzip der Unsicherheit liegt auf der Ebene der Quantenmechanik, aber um es vollständig zu analysieren, wenden wir uns der Entwicklung der Physik als Ganzes zu. und vielleicht Albert Einstein in der Geschichte der Menschheit. Der erste formulierte Ende des 17. Jahrhunderts die Gesetze der klassischen Mechanik, denen alle uns umgebenden Körper, die Planeten, Trägheit und Schwerkraft unterliegen. Die Entwicklung der Gesetze der klassischen Mechanik führte die wissenschaftliche Welt Ende des 19. Jahrhunderts zu der Ansicht, dass alle Grundgesetze der Natur bereits entdeckt seien und der Mensch jedes Phänomen im Universum erklären könne.

Einsteins Relativitätstheorie

Wie sich herausstellte, war damals nur die Spitze des Eisbergs entdeckt; weitere Forschungen lieferten den Wissenschaftlern neue, völlig unglaubliche Fakten. So wurde zu Beginn des 20. Jahrhunderts entdeckt, dass die Ausbreitung von Licht (das eine Endgeschwindigkeit von 300.000 km/s hat) nicht den Gesetzen der Newtonschen Mechanik gehorcht. Nach den Formeln von Isaac Newton entspricht die Geschwindigkeit eines Körpers oder einer Welle, die von einer sich bewegenden Quelle emittiert wird, der Summe der Geschwindigkeit der Quelle und ihrer eigenen. Die Welleneigenschaften der Teilchen waren jedoch anderer Natur. Zahlreiche Experimente mit ihnen zeigten, dass in der Elektrodynamik, einer damals jungen Wissenschaft, ein völlig anderes Regelwerk gilt. Schon damals stellte Albert Einstein zusammen mit dem deutschen theoretischen Physiker Max Planck seine berühmte Relativitätstheorie vor, die das Verhalten von Photonen beschreibt. Was für uns jetzt jedoch wichtig ist, ist nicht so sehr ihr Wesen, sondern die Tatsache, dass in diesem Moment die grundsätzliche Unvereinbarkeit zweier Bereiche der Physik offenbart wurde, sich zu verbinden

was Wissenschaftler übrigens bis heute versuchen.

Die Geburt der Quantenmechanik

Der Mythos der umfassenden klassischen Mechanik wurde durch das Studium der Struktur der Atome endgültig zerstört. Experimente im Jahr 1911 zeigten, dass das Atom noch kleinere Teilchen (sogenannte Protonen, Neutronen und Elektronen) enthält. Darüber hinaus verweigerten sie auch die Interaktion. Die Untersuchung dieser kleinsten Teilchen führte zu neuen Postulaten der Quantenmechanik für die wissenschaftliche Welt. Daher liegt das ultimative Verständnis des Universums vielleicht nicht nur und nicht so sehr in der Erforschung der Sterne, sondern vielmehr in der Erforschung der kleinsten Teilchen, die ein interessantes Bild der Welt auf Mikroebene liefern.

Heisenberg-Unsicherheitsprinzip

In den 1920er Jahren machte sie ihre ersten Schritte, und zwar ausschließlich als Wissenschaftlerin

erkannte, was daraus für uns folgt. Im Jahr 1927 formulierte der deutsche Physiker Werner Heisenberg seine berühmte Unschärferelation und demonstrierte damit einen der Hauptunterschiede zwischen der Mikrowelt und unserer gewohnten Umgebung. Es besteht darin, dass es unmöglich ist, Geschwindigkeit und räumliche Position eines Quantenobjekts gleichzeitig zu messen, einfach weil wir es während der Messung beeinflussen, weil die Messung selbst auch mit Hilfe von Quanten durchgeführt wird. Ganz vereinfacht gesagt: Bei der Beurteilung eines Objekts im Makrokosmos sehen wir das von ihm reflektierte Licht und ziehen daraus Rückschlüsse darauf. Aber bereits der Einfluss von Lichtphotonen (oder anderen Messableitungen) wirkt sich auf das Objekt aus. Daher hat das Unschärfeprinzip verständliche Schwierigkeiten bei der Untersuchung und Vorhersage des Verhaltens von Quantenteilchen verursacht. Interessant ist in diesem Fall, dass man die Geschwindigkeit separat oder die Position des Körpers separat messen kann. Wenn wir jedoch gleichzeitig messen, wissen wir umso weniger über die tatsächliche Position, je höher unsere Geschwindigkeitsdaten sind, und umgekehrt.

Es ist unmöglich, die Koordinaten und die Geschwindigkeit eines Quantenteilchens gleichzeitig genau zu bestimmen.

Im Alltag sind wir von materiellen Objekten umgeben, deren Größe mit uns vergleichbar ist: Autos, Häuser, Sandkörner usw. Unsere intuitiven Vorstellungen über die Struktur der Welt entstehen durch die alltägliche Beobachtung des Verhaltens solcher Objekte . Da wir alle ein gelebtes Leben hinter uns haben, sagen uns die im Laufe der Jahre gesammelten Erfahrungen, dass sich materielle Objekte im gesamten Universum und auf allen Skalen auf eine bestimmte Weise verhalten sollten, da sich alles, was wir beobachten, immer wieder auf eine bestimmte Weise verhält ähnliche Weise. Und wenn sich herausstellt, dass irgendwo etwas nicht den üblichen Regeln gehorcht und unseren intuitiven Vorstellungen von der Welt widerspricht, überrascht uns das nicht nur, sondern schockiert uns.

Genau das war die Reaktion der Physiker im ersten Viertel des 20. Jahrhunderts, als sie begannen, das Verhalten der Materie auf atomarer und subatomarer Ebene zu untersuchen. Die Entstehung und rasante Entwicklung der Quantenmechanik hat uns eine ganze Welt eröffnet, deren Systemstruktur einfach nicht in den Rahmen des gesunden Menschenverstandes passt und unseren intuitiven Vorstellungen völlig widerspricht. Aber wir müssen uns daran erinnern, dass unsere Intuition auf der Erfahrung des Verhaltens gewöhnlicher Objekte in einer Größenordnung basiert, die unserer entspricht, und dass die Quantenmechanik Dinge beschreibt, die auf mikroskopischer und für uns unsichtbarer Ebene passieren – noch nie ist ein einziger Mensch ihnen direkt begegnet . Wenn wir dies vergessen, werden wir unweigerlich in einen Zustand völliger Verwirrung und Verwirrung geraten. Für mich selbst habe ich folgenden Ansatz zu quantenmechanischen Effekten formuliert: Sobald die „innere Stimme“ anfängt zu wiederholen: „Das kann nicht sein!“, müssen Sie sich fragen: „Warum nicht?“ Woher weiß ich, wie alles im Inneren eines Atoms wirklich funktioniert? Habe ich selbst dort nachgeschaut?“ Wenn Sie sich auf diese Weise einrichten, können Sie die Artikel in diesem Buch, die der Quantenmechanik gewidmet sind, leichter verstehen.

Das Heisenberg-Prinzip spielt in der Quantenmechanik generell eine Schlüsselrolle, schon allein deshalb, weil es ganz klar erklärt, wie und warum sich die Mikrowelt von der uns bekannten materiellen Welt unterscheidet. Um dieses Prinzip zu verstehen, denken Sie zunächst darüber nach, was es bedeutet, eine beliebige Größe zu „messen“. Um zum Beispiel dieses Buch zu finden, schaut man sich, wenn man einen Raum betritt, darin um, bis es darauf stehen bleibt. In der Sprache der Physik bedeutet dies, dass Sie eine visuelle Messung durchgeführt haben (Sie haben ein Buch durch Hinsehen gefunden) und das Ergebnis erhalten haben – Sie haben seine räumlichen Koordinaten aufgezeichnet (Sie haben die Position des Buches im Raum bestimmt). Tatsächlich ist der Messvorgang viel komplizierter: Eine Lichtquelle (z. B. die Sonne oder eine Lampe) sendet Strahlen aus, die, nachdem sie einen bestimmten Weg im Raum zurückgelegt haben, mit dem Buch interagieren, von seiner Oberfläche reflektiert werden und anschließend Einige davon erreichen Ihre Augen, passieren die Linse, fokussieren sich und treffen auf die Netzhaut – und Sie sehen das Bild des Buches und bestimmen seine Position im Raum. Der Schlüssel zur Messung liegt hier in der Wechselwirkung zwischen Licht und Buch. Stellen Sie sich also vor, dass bei jeder Messung das Messwerkzeug (in diesem Fall Licht) mit dem Messobjekt (in diesem Fall ein Buch) interagiert.

In der klassischen Physik, die auf Newtonschen Prinzipien aufbaut und auf Objekte in unserer gewöhnlichen Welt angewendet wird, sind wir es gewohnt, die Tatsache zu ignorieren, dass ein Messgerät, wenn es mit einem Messobjekt interagiert, dieses beeinflusst und seine Eigenschaften verändert, darunter auch die gemessene Mengen. Wenn man im Raum das Licht einschaltet, um ein Buch zu finden, denkt man gar nicht daran, dass sich das Buch unter dem Einfluss des entstehenden Drucks der Lichtstrahlen von seinem Platz bewegen kann, und man erkennt seine räumlichen Koordinaten, unter dem Einfluss des von Ihnen eingeschalteten Lichts verzerrt. Die Intuition sagt uns (und in diesem Fall völlig richtig), dass der Messvorgang keinen Einfluss auf die gemessenen Eigenschaften des Messobjekts hat. Denken Sie nun über die Prozesse nach, die auf der subatomaren Ebene ablaufen. Nehmen wir an, ich muss den räumlichen Standort eines Elektrons festlegen. Ich brauche noch ein Messgerät, das mit dem Elektron interagiert und ein Signal mit Informationen über seinen Standort an meine Detektoren zurücksendet. Und hier entsteht eine Schwierigkeit: Ich habe keine anderen Werkzeuge, um mit einem Elektron zu interagieren, um seine Position im Raum zu bestimmen, außer anderen Elementarteilchen. Und wenn man davon ausgeht, dass Licht, das mit einem Buch interagiert, seine räumlichen Koordinaten nicht beeinflusst, kann das Gleiche nicht über die Interaktion des gemessenen Elektrons mit einem anderen Elektron oder Photonen gesagt werden.

In den frühen 1920er Jahren, während der Explosion des kreativen Denkens, die zur Entwicklung der Quantenmechanik führte, erkannte der junge deutsche theoretische Physiker Werner Heisenberg als erster dieses Problem. Ausgehend von komplexen mathematischen Formeln, die die Welt auf subatomarer Ebene beschreiben, gelangte er nach und nach zu einer Formel von erstaunlicher Einfachheit, die eine allgemeine Beschreibung der Wirkung des Einflusses von Messinstrumenten auf die gemessenen Objekte der Mikrowelt lieferte, über die wir gerade gesprochen haben. Daraufhin formulierte er die heute nach ihm benannte Unschärferelation:

Unsicherheit des Koordinatenwerts, Unsicherheit der Geschwindigkeit,


deren mathematischer Ausdruck Heisenberg-Unschärferelation genannt wird:

Wo ist die Unsicherheit (Messfehler) der räumlichen Koordinate eines Mikroteilchens, ist die Unsicherheit der Geschwindigkeit des Teilchens, ist die Masse des Teilchens und ist die Plancksche Konstante, benannt nach dem deutschen Physiker Max Planck, einem weiteren Begründer der Quantentheorie? Mechanik. Die Plancksche Konstante beträgt ungefähr 6,626 x 10 –34 J s, das heißt, sie enthält 33 Nullen vor der ersten signifikanten Dezimalstelle.

Der Begriff „räumliche Koordinatenunsicherheit“ bedeutet genau, dass wir den genauen Ort des Teilchens nicht kennen. Wenn Sie beispielsweise das globale GPS-Aufklärungssystem verwenden, um den Standort dieses Buches zu bestimmen, berechnet das System ihn auf 2–3 Meter genau. (GPS, Global Positioning System, ist ein Navigationssystem, das 24 künstliche Erdsatelliten nutzt. Wenn Sie beispielsweise einen GPS-Empfänger in Ihrem Auto installiert haben, dann ermittelt das System durch den Empfang von Signalen dieser Satelliten und den Vergleich ihrer Verzögerungszeit Ihre geografische Position (Die Koordinaten auf der Erde sind auf die nächste Bogensekunde genau.) Aus der Sicht einer Messung mit einem GPS-Instrument könnte sich das Buch jedoch mit einiger Wahrscheinlichkeit irgendwo innerhalb der vom System angegebenen wenigen Quadratmeter befinden. In diesem Fall sprechen wir von der Unsicherheit der räumlichen Koordinaten eines Objekts (in diesem Beispiel eines Buches). Die Situation kann verbessert werden, wenn wir statt eines GPS ein Maßband nehmen – in diesem Fall können wir sagen, dass das Buch beispielsweise 4 m 11 cm von einer Wand und 1 m 44 cm von der anderen entfernt ist. Aber auch hier sind wir in der Messgenauigkeit durch die minimale Teilung der Maßbandskala (auch wenn es sich um einen Millimeter handelt) und durch die Messfehler des Gerätes selbst begrenzt – und können diese im besten Fall ermitteln die räumliche Position des Objekts auf die kleinste Teilung des Maßstabs genau. Je genauer das von uns verwendete Instrument ist, desto genauer sind die Ergebnisse, die wir erhalten, desto geringer ist der Messfehler und desto geringer ist die Unsicherheit. Grundsätzlich ist es in unserer Alltagswelt möglich, die Unsicherheit auf Null zu reduzieren und die genauen Koordinaten des Buches zu bestimmen.

Und hier kommen wir zum grundlegendsten Unterschied zwischen der Mikrowelt und unserer alltäglichen physischen Welt. In der gewöhnlichen Welt haben wir bei der Messung der Position und Geschwindigkeit eines Körpers im Raum praktisch keinen Einfluss darauf. Somit können wir im Idealfall gleichzeitig sowohl die Geschwindigkeit als auch die Koordinaten eines Objekts mit absoluter Präzision (mit anderen Worten, ohne Unsicherheit) messen.

In der Welt der Quantenphänomene wirkt sich jedoch jede Messung auf das System aus. Allein die Tatsache, dass wir beispielsweise den Ort eines Teilchens messen, führt zu einer Änderung seiner Geschwindigkeit, die unvorhersehbar ist (und umgekehrt). Deshalb ist die rechte Seite der Heisenberg-Relation nicht Null, sondern positiv. Je geringer die Unsicherheit in Bezug auf eine Variable (z. B. ), desto unsicherer wird die andere Variable (), da das Produkt zweier Fehler auf der linken Seite der Beziehung nicht kleiner sein kann als die Konstante auf der rechten Seite. Wenn es uns tatsächlich gelingt, eine der gemessenen Größen fehlerfrei (absolut genau) zu bestimmen, ist die Unsicherheit der anderen Größe gleich unendlich und wir werden überhaupt nichts darüber wissen. Mit anderen Worten: Wenn wir die Koordinaten eines Quantenteilchens absolut genau bestimmen könnten, hätten wir nicht die geringste Ahnung von seiner Geschwindigkeit; Wenn wir die Geschwindigkeit eines Teilchens genau erfassen könnten, hätten wir keine Ahnung, wo es sich befindet. In der Praxis müssen Experimentalphysiker natürlich immer einen Kompromiss zwischen diesen beiden Extremen suchen und Messmethoden auswählen, die es ihnen ermöglichen, sowohl die Geschwindigkeit als auch die räumliche Position von Teilchen mit einem vertretbaren Fehler zu beurteilen.

Tatsächlich verbindet das Unschärfeprinzip nicht nur Raumkoordinaten und Geschwindigkeit – in diesem Beispiel kommt es einfach am deutlichsten zum Ausdruck; Unsicherheit bindet gleichermaßen andere Paare miteinander in Beziehung stehender Eigenschaften von Mikropartikeln. Durch ähnliche Überlegungen kommen wir zu dem Schluss, dass es unmöglich ist, die Energie eines Quantensystems genau zu messen und den Zeitpunkt zu bestimmen, zu dem es diese Energie besitzt. Das heißt, wenn wir den Zustand eines Quantensystems messen, um seine Energie zu bestimmen, wird diese Messung eine bestimmte Zeitspanne dauern – nennen wir es . Während dieser Zeit verändert sich die Energie des Systems zufällig – es treten Schwankungen auf – und wir können sie nicht erkennen. Bezeichnen wir den Energiemessfehler. Durch ähnliche Überlegungen wie oben kommen wir zu einer ähnlichen Beziehung und der Ungewissheit des Zeitpunkts, zu dem ein Quantenteilchen diese Energie besaß:

Zum Unsicherheitsprinzip sind noch zwei weitere wichtige Punkte zu beachten:

  1. Dies bedeutet nicht, dass keine der beiden Eigenschaften eines Teilchens – räumliche Lage oder Geschwindigkeit – mit irgendeiner Präzision gemessen werden kann;
  2. Das Unsicherheitsprinzip funktioniert objektiv und hängt nicht von der Anwesenheit eines intelligenten Subjekts ab, das die Messungen durchführt.
Manchmal stößt man auf Behauptungen, dass das Unschärfeprinzip impliziert, dass Quantenteilchen bestimmte räumliche Koordinaten und Geschwindigkeiten fehlen oder dass diese Größen völlig unbekannt sind. Lassen Sie sich nicht täuschen: Wie wir gerade gesehen haben, hindert uns das Unschärfeprinzip nicht daran, jede dieser Größen mit der gewünschten Genauigkeit zu messen. Er stellt lediglich fest, dass wir nicht in der Lage sind, beides gleichzeitig zuverlässig zu wissen. Und wie bei vielen Dingen sind wir gezwungen, Kompromisse einzugehen. Wiederum argumentieren anthroposophische Autoren unter den Befürwortern des Konzepts des „New Age“ manchmal, dass das menschliche Bewusstsein angeblich auf einer grundlegenden Ebene mit dem universellen Geist verbunden ist, da Messungen die Anwesenheit eines intelligenten Beobachters implizieren Es ist dieser Zusammenhang, der das Prinzip der Unsicherheit bestimmt. Wiederholen wir diesen Punkt noch einmal: Der Schlüssel zur Heisenberg-Relation ist die Wechselwirkung zwischen dem zu messenden Teilchen-Objekt und dem Messgerät, die dessen Ergebnisse beeinflusst. Und die Tatsache, dass es in der Person eines Wissenschaftlers einen vernünftigen Beobachter gibt, ist für die Sache nicht relevant; Das Messgerät beeinflusst in jedem Fall seine Ergebnisse, unabhängig davon, ob ein intelligentes Wesen anwesend ist oder nicht.

Enzyklopädie von James Trefil „Die Natur der Wissenschaft. 200 Gesetze des Universums.“

James Trefil ist Professor für Physik an der George Mason University (USA) und einer der berühmtesten westlichen Autoren populärwissenschaftlicher Bücher.

Material aus der freien russischen Enzyklopädie „Tradition“


In der Quantenmechanik Heisenbergsche Unschärferelation (oder Heisenberg ) legt fest, dass es eine Grenze ungleich Null für das Produkt der Dispersionen konjugierter Paare physikalischer Größen gibt, die den Zustand des Systems charakterisieren. Das Unschärfeprinzip findet sich auch in der klassischen Theorie der Messung physikalischer Größen.

Typischerweise wird das Unsicherheitsprinzip wie folgt dargestellt. Betrachten wir ein Ensemble nichtwechselwirkender äquivalenter Teilchen, die in einem bestimmten Zustand hergestellt wurden und für jedes davon entweder die Koordinate gemessen wird Q oder Impuls P . In diesem Fall handelt es sich bei den Messergebnissen um Zufallsvariablen, deren Standardabweichungen von den Durchschnittswerten die Unsicherheitsrelation erfüllen, wobei – . Da jede Messung den Zustand jedes Teilchens ändert, kann eine Messung nicht gleichzeitig die Werte beider Koordinaten und des Impulses messen. Bei einem Teilchenensemble führt eine Abnahme der Dispersion bei der Messung einer physikalischen Größe zu einer Zunahme der Dispersion der konjugierten physikalischen Größe. Es wird angenommen, dass das Unschärfeprinzip nicht nur mit den Fähigkeiten der experimentellen Technologie zusammenhängt, sondern auch eine grundlegende Eigenschaft der Natur darstellt.

Inhalt

  • 1 Kurze Review
  • 2 Geschichte
  • 3 Das Unschärfeprinzip und der Beobachtereffekt
    • 3.1 Heisenberg-Mikroskop
  • 4 Kritik
    • 4.1 Lücke im Bildschirm
    • 4.2 Einstein-Box
    • 4.3 Einstein-Podolsky-Rosen-Paradoxon
    • 4.4 Kritik an Popper
  • 5 Das Unschärfeprinzip der Informationsentropie
  • 6 Derivate
    • 6.1 Physikalische Interpretation
    • 6.2 Matrixmechanik
    • 6.3 Wellenmechanik
    • 6.4 Symplektisch Geometrie
  • 7 Robertson-Schrödinger-Beziehung
    • 7.1 Andere Prinzipien der Unsicherheit
  • 8 Energie-Zeit im Unschärfeprinzip
  • 9 Unsicherheitssätze in der harmonischen Analysis
    • 9.1 Satz von Benedick
    • 9.2 Hardys Unsicherheitsprinzip
  • 10 Unendliche Verschachtelung der Materie
  • 11 Ausdruck der endlichen verfügbaren Menge an Fisher-Informationen
  • 12 Wissenschaftlicher Humor
  • 13 Das Unsicherheitsprinzip in der Populärkultur
  • 14 Links
  • 15 Literatur
  • 16 Externe Links

Kurze Review

In der Quantenmechanik entsteht eine Unsicherheitsrelation zwischen allen durch definierten Zustandsvariablen nicht pendelnd Betreiber. Darüber hinaus wird angenommen, dass der Welle-Teilchen-Dualismus zumindest teilweise für Teilchen gilt. In dieser Näherung wird die Position des Teilchens durch den Konzentrationsort der dem Teilchen entsprechenden Welle bestimmt, der Impuls des Teilchens ist mit der Wellenlänge verknüpft und es entsteht eine klare Analogie zwischen den Unsicherheitsrelationen und den Eigenschaften von Wellen bzw. Wellen Signale. Die Position ist in dem Maße unsicher, in dem die Welle im Raum verteilt ist, und die Unsicherheit des Impulses ergibt sich aus der Unsicherheit der Wellenlänge, wenn diese zu verschiedenen Zeiten gemessen wird. Wenn die Welle da ist punktförmig In diesem Bereich wird seine Position mit guter Genauigkeit bestimmt, aber eine solche Welle in Form eines kurzen Wellenzugs weist nicht die bestimmte Wellenlänge auf, die für eine unendliche monochromatische Welle charakteristisch ist.

Die Wellenfunktion kann als die dem Teilchen entsprechende Welle angesehen werden. In der Viele-Welten-Interpretation der Quantenmechanik wird davon ausgegangen, dass Dekohärenz immer dann auftritt, wenn die Position eines Teilchens gemessen wird. Im Gegensatz dazu besagt die Kopenhagener Interpretation der Quantenmechanik, dass bei jeder Messung der Position eines Teilchens die Wellenfunktion bis in den kleinen Bereich, in dem sich das Teilchen befindet, zusammenzubrechen scheint und jenseits dieses Bereichs die Wellenfunktion nahe Null liegt ( Diese Beschreibung wird als mögliche Technik angesehen, um das Verhalten der Wellenfunktion als Eigenschaft eines Teilchens in Einklang zu bringen, da die Wellenfunktion nur indirekt mit realen physikalischen Größen zusammenhängt. Diese Interpretation folgt aus der Tatsache, dass das Quadrat der Wellenfunktion die Wahrscheinlichkeit angibt, ein Teilchen im Raum zu finden. Für einen kleinen Bereich kann der Impuls des Teilchens in jeder Dimension aufgrund des Impulsmessverfahrens selbst nicht genau gemessen werden. Bei der Positionsmessung wird das Teilchen häufiger dort erkannt, wo ein Maximum der Wellenfunktion vorliegt, und in einer Reihe identischer Messungen wird die wahrscheinlichste Position angezeigt und die Standardabweichung davon bestimmt:

Auf die gleiche Weise wird in einer Reihe identischer Messungen eine Wahrscheinlichkeitsverteilung durchgeführt, die statistische Streuung und die Standardabweichung vom mittleren Teilchenimpuls bestimmt:

Das Produkt dieser Größen hängt durch die Unsicherheitsrelation zusammen:

Wo ist die Dirac-Konstante?

In manchen Fällen wird die „Unsicherheit“ einer Variablen als die kleinste Breite des Bereichs definiert, der 50 % der Werte enthält, was im Fall einer normalverteilten Variablen zu einer größeren Untergrenze für das Produkt der Unsicherheiten führt gleich . Gemäß der Unschärferelation kann der Zustand so sein X kann mit hoher Genauigkeit gemessen werden, aber dann P wird nur ungefähr bekannt sein oder umgekehrt P genau bestimmt werden kann, während X - Nein. In allen anderen Staaten und X Und P kann mit „angemessener“, aber nicht beliebig hoher Präzision gemessen werden.

Unsicherheitsrelationen erlegen Beschränkungen für die theoretische Genauigkeitsgrenze jeglicher Messungen auf. Sie gelten für sogenannte ideale Messungen, manchmal auch John-von-Neumann-Messungen genannt. Sie gelten umso mehr für nichtideale Messungen oder Messungen nach L.D. Landauer. Im Alltag beobachten wir Unsicherheit meist nicht, da der Wert äußerst gering ist.

In der Regel kann kein Teilchen (im allgemeinen Sinne, das beispielsweise eine diskrete elektrische Ladung trägt) sowohl als „klassisches Punktteilchen“ als auch als Welle beschrieben werden. Das ursprünglich von Heisenberg vorgeschlagene Unschärfeprinzip ist gültig, wenn keiner Diese beiden Beschreibungen sind nicht vollständig und ausschließlich zutreffend. Ein Beispiel ist ein Teilchen mit einem bestimmten Energiewert, das sich in einer Box befindet. Ein solches Teilchen ist ein System, das nicht charakterisiert ist weder eine bestimmte „Position“ (ein bestimmter Wert des Abstands von der potentiellen Wand), weder ein bestimmter Wert des Impulses (einschließlich seiner Richtung).

Das Unsicherheitsprinzip wird nicht nur in Experimenten für viele Teilchen in den gleichen Anfangszuständen erfüllt, wenn quadratische Mittelwertabweichungen von den Durchschnittswerten für ein Paar getrennt voneinander gemessener konjugierter physikalischer Größen berücksichtigt werden, sondern auch Bei jeder einzelnen Messung ist es möglich, die Werte und Streuungen beider physikalischer Größen gleichzeitig abzuschätzen Obwohl das Unsicherheitsprinzip damit verbunden ist Beobachtereffekt , es ist nicht darauf beschränkt, da es auch mit den Eigenschaften beobachtbarer Quantenobjekte und ihren Wechselwirkungen untereinander und mit Geräten verbunden ist.

Geschichte

Hauptartikel: Einführung in die Quantenmechanik

Werner Heisenberg formulierte die Unschärferelation am Niels-Bohr-Institut in Kopenhagen, während er an den mathematischen Grundlagen der Quantenmechanik arbeitete.

Im Jahr 1925 entwickelte Heisenberg im Anschluss an die Arbeit von Hendrik Kramers die Matrixmechanik und ersetzte damit die frühere Version der Quantenmechanik, die auf Bohrs Postulaten basierte. Er schlug vor, dass sich die Quantenbewegung von der klassischen Bewegung unterscheidet, sodass Elektronen in einem Atom keine genau definierten Bahnen haben. Folglich kann man für ein Elektron nicht mehr genau sagen, wo es sich zu einem bestimmten Zeitpunkt befindet und wie schnell es sich bewegt. Eine Eigenschaft der Heisenberg-Matrizen für Ort und Impuls ist, dass sie nicht miteinander vertauschen:

Im März 1926 fand Heisenberg das heraus Nichtkommutativität führt zum Unschärfeprinzip, das zur Grundlage dessen wurde, was später als Kopenhagener Interpretation der Quantenmechanik bezeichnet wurde. Heisenberg zeigte den Zusammenhang zwischen dem Kommutator der Größenoperatoren und dem Bohrschen Komplementaritätsprinzip. Zwei beliebige Variablen, die nicht kommutieren, können nicht gleichzeitig genau gemessen werden, da mit zunehmender Messgenauigkeit einer Variablen die Messgenauigkeit der anderen Variablen abnimmt.

Als Beispiel können wir die Beugung eines Teilchens betrachten, das durch einen schmalen Schlitz in einem Schirm hindurchgeht und nach Durchlaufen eines bestimmten Winkels abgelenkt wird. Je kleiner die Lücke, desto größer ist die Unsicherheit in der Richtung des Impulses des durchgelassenen Teilchens. Nach dem Beugungsgesetz die mögliche Winkelabweichung Δθ ungefähr gleich λ / D , Wo D ist die Spaltbreite und λ ist die dem Teilchen entsprechende Wellenlänge. Wenn wir die Formel für in der Form λ = verwenden H / P , und benennen DΔθ = Δ X , dann erhält man die Heisenberg-Beziehung:

In seiner Arbeit von 1927 stellte Heisenberg diese Beziehung als die minimal notwendige Störung der Größe des Teilchenimpulses dar, die sich aus der Messung der Teilchenposition ergibt, gab jedoch keine genaue Definition der Größen Δx und Δp. Stattdessen hat er deren Einschätzungen mehrfach vorgenommen. In seinem Vortrag in Chicago erläuterte er sein Prinzip wie folgt:

(1)

In ihrer modernen Form wurde die Unschärferelation 1927 von E. H. Kennard niedergeschrieben:

(2)

wo und σ x , σ p sind die quadratischen Mittelwertabweichungen (Standardabweichungen) von Position und Impuls. Heisenberg selbst hat die Beziehung (2) nur für den Spezialfall der Gaußschen Zustände bewiesen. .

Das Unschärfeprinzip und der Beobachtereffekt

Eine Variante des Unschärfeprinzips lässt sich wie folgt formulieren:

Durch die Messung der Koordinaten eines Teilchens ändert sich zwangsläufig dessen Impuls und umgekehrt .

Dies macht das Unschärfeprinzip zu einer besonderen Quantenversion Beobachtereffekt , und ein automatisiertes Messsystem kann auch als Beobachter fungieren und dabei sowohl das Prinzip der direkten Partikelfixierung als auch die Ausschlussmethode nutzen (Partikel, die nicht in den Detektor gelangten, wurden über einen anderen zugänglichen Weg geleitet).

Diese Erklärung kann akzeptiert werden und wurde von Heisenberg und Bohr verwendet, die auf der philosophischen Grundlage des logischen Positivismus standen. Nach der Logik des Positivismus wird für den Forscher die wahre Natur des beobachteten physikalischen Systems durch die Ergebnisse der genauesten Experimente bestimmt, die im Prinzip erreichbar und nur durch die Natur selbst begrenzt sind. In diesem Fall ist das Auftreten unvermeidlicher Ungenauigkeiten bei Messungen nicht nur eine Folge der Eigenschaften der tatsächlich verwendeten Instrumente, sondern auch des physikalischen Systems selbst als Ganzes, einschließlich des Objekts und des Messsystems.

Derzeit ist der logische Positivismus kein allgemein akzeptiertes Konzept, sodass die Erklärung des auf dem Beobachtereffekt basierenden Unsicherheitsprinzips für diejenigen, die einem anderen philosophischen Ansatz folgen, unvollständig wird. Einige glauben, dass die signifikante Änderung seines Impulses, die bei der Messung der Koordinaten eines Teilchens auftritt, eine notwendige Eigenschaft nicht des Teilchens, sondern nur des Messvorgangs ist. Tatsächlich hat das Teilchen, dem Beobachter verborgen, zu jedem Zeitpunkt einen bestimmten Ort und Impuls, aber ihre Werte werden aufgrund der Verwendung zu grober Werkzeuge (Theorie der verborgenen Parameter) nicht genau bestimmt. Zur Veranschaulichung hier ein Beispiel: Sie müssen mithilfe einer anderen Billardkugel die Position und den Impuls einer sich bewegenden Billardkugel ermitteln. In einer Reihe von Experimenten, bei denen beide Kugeln ungefähr gleich gerichtet sind und kollidieren, ist es möglich, die Streuwinkel der Kugeln und ihre Impulse zu ermitteln und dann die Punkte ihres Treffens zu bestimmen. Aufgrund der anfänglichen Ungenauigkeiten ist jede Kollision einzigartig, es gibt eine Streuung in Ort und Geschwindigkeit der Kugeln, was für eine Reihe von Kollisionen zu einer entsprechenden Unsicherheitsrelation führt. Gleichzeitig wissen wir jedoch mit Sicherheit, dass sich die Kugeln in jeder einzelnen Dimension bewegen und zu jedem Zeitpunkt einen ganz bestimmten Impuls besitzen. Diese Erkenntnis wiederum ergibt sich aus der Tatsache, dass die Kugeln mithilfe von reflektiertem Licht überwacht werden können, das praktisch keinen Einfluss auf die Bewegung der massiven Kugeln hat.

Die beschriebene Situation verdeutlicht die Entstehung des Unschärfeprinzips und die Abhängigkeit von Messergebnissen vom Messverfahren und den Eigenschaften der Messgeräte. In realen Experimenten wurde jedoch noch keine Möglichkeit gefunden, die Parameter von Elementarteilchen mit externen Instrumenten gleichzeitig zu messen, ohne ihren Ausgangszustand wesentlich zu stören. Daher ist die Vorstellung von Teilchenparametern, die dem Beobachter in der Standardquantenmechanik verborgen bleiben, nicht populär und besagt normalerweise einfach, dass es keine Zustände gibt, in denen die Koordinate und der Impuls eines Teilchens gleichzeitig gemessen werden können.

Es gibt jedoch Situationen, in denen möglicherweise verborgene Parameter von Partikeln bestimmt werden können. Wir sprechen von zwei (oder mehr) verbundenen Teilchen im sogenannten verbundenen Zustand. Wenn diese Teilchen einen ausreichend großen Abstand voneinander haben und sich nicht gegenseitig beeinflussen können, liefert die Messung der Parameter eines Teilchens nützliche Informationen über den Zustand des anderen Teilchens.

Nehmen wir an, dass beim Zerfall von Positronium zwei Photonen in entgegengesetzte Richtungen emittiert werden. Platzieren wir zwei Detektoren so, dass der erste die Position eines Photons und der zweite Detektor den Impuls des anderen Photons messen kann. Durch gleichzeitige Messungen ist es mithilfe des Impulserhaltungssatzes möglich, sowohl den Impuls und die Richtung des ersten Photons als auch seinen Ort beim Auftreffen auf den ersten Detektor ziemlich genau zu bestimmen. Durch die Änderung des Messverfahrens entfällt in diesem Fall die zwingende Anwendung des Unsicherheitsprinzips als begrenzendes Mittel bei der Berechnung von Messfehlern. Die beschriebene Situation hebt das Unschärfeprinzip als solches nicht auf, da Koordinate und Impuls gleichzeitig nicht für ein Teilchen lokal, sondern für zwei voneinander entfernte Teilchen gemessen werden.

Heisenberg-Mikroskop

Als Beispiel für die Veranschaulichung des Unschärfeprinzips nannte Heisenberg ein imaginäres Mikroskop als Messgerät. Mit seiner Hilfe misst der Experimentator die Position und den Impuls des Elektrons, das ein darauf einfallendes Photon streut und so seine Anwesenheit verrät.

Hat das Photon eine kurze Wellenlänge und damit einen großen Impuls, lässt sich die Position des Elektrons prinzipiell recht genau messen. Aber in diesem Fall wird das Photon zufällig gestreut und überträgt einen ziemlich großen und unbestimmten Bruchteil seines Impulses auf das Elektron. Wenn das Photon eine lange Wellenlänge und einen kleinen Impuls hat, ändert es den Impuls des Elektrons kaum, aber durch Streuung wird die Position des Elektrons sehr ungenau bestimmt. Infolgedessen bleibt das Produkt der Unsicherheiten in der Koordinate und im Impuls bis zu einem numerischen Faktor in der Größenordnung von Eins nicht kleiner als das Plancksche Wirkungsquantum. Heisenberg formulierte keinen exakten mathematischen Ausdruck für das Unschärfeprinzip, sondern nutzte das Prinzip als heuristische quantitative Beziehung.

Kritik

Kopenhagener Interpretation der Quantenmechanik und -prinzipien Unsicherheit Heisenbergs Ideen erwiesen sich als doppeltes Ziel für diejenigen, die an Realismus und Determinismus glaubten. Die Kopenhagener Interpretation der Quantenmechanik enthält keine grundlegende Realität, die den Quantenzustand beschreibt und vorschreibt, wie experimentelle Ergebnisse berechnet werden sollten. Es ist nicht im Voraus bekannt, dass sich das System in einem Grundzustand befindet, sodass Messungen ein genau spezifiziertes Ergebnis liefern. Das physische Universum existiert nicht deterministisch Form, sondern als eine Reihe von Wahrscheinlichkeiten oder Möglichkeiten. Beispielsweise kann das Muster (Wahrscheinlichkeitsverteilung), das durch die Beugung von Millionen von Photonen durch einen Spalt erzeugt wird, mithilfe der Quantenmechanik berechnet werden, der genaue Weg jedes Photons kann jedoch mit keiner bekannten Methode vorhergesagt werden. Die Copenhagen Interpretation geht davon aus, dass dies überhaupt nicht vorhersehbar ist NEIN Methode.

Es war diese Interpretation, die Einstein in Frage stellte, als er an Max Born schrieb: „Ich bin sicher, dass Gott nicht würfelt“ ( sterben Theorie liefert viel. Aber ich bin überzeugt, dass der Alte nicht würfelt ). Niels Bohr, einer der Autoren der Kopenhagener Interpretation, antwortete: „Einstein, sag Gott nicht, was er tun soll.“

Albert Einstein glaubte, dass Zufälligkeit ein Ausdruck unserer Unkenntnis der grundlegenden Eigenschaften der Realität sei, während Bohr glaubte, dass die Wahrscheinlichkeitsverteilung je nach Art der Messung grundlegend und einzigartig sei. Die Debatte zwischen Einstein und Bohr über das Unschärfeprinzip dauerte viele Jahre.

Lücke im Bildschirm

Einsteins erstes Gedankenexperiment zur Prüfung des Unschärfeprinzips war:

Stellen Sie sich ein Teilchen vor, das durch einen Spalt in einem Schirm mit der Breite d geht. Der Spalt führt zu einer Unsicherheit des Teilchenimpulses in der Größenordnung von h/d, wenn das Teilchen den Schirm passiert. Der Impuls eines Teilchens lässt sich aber aus dem Rückstoß des Schirms mithilfe des Impulserhaltungssatzes hinreichend genau bestimmen.

Bohrs Antwort war: Da der Bildschirm den Gesetzen der Quantenmechanik gehorcht, muss der Rückstoß mit einer Genauigkeit von Δ gemessen werden P Der Impuls des Schirms muss bis zum Durchgang des Teilchens mit dieser Genauigkeit bekannt sein. Dies führt zu einer Unsicherheit in der Position des Schirms und des Spalts gleich H / Δ P , und wenn der Schirmimpuls genau genug bekannt ist, um den Rückstoß zu messen, stellt sich heraus, dass die Position des Schlitzes mit einer Genauigkeit bestimmt wird, die keine genaue Messung der Position des Teilchens ermöglicht.

Eine ähnliche Analyse mit Partikeln, die an mehreren Spalten gebeugt werden, ist von R. Feynman verfügbar.

Einstein-Box

Ein weiteres Gedankenexperiment Einsteins diente dazu, das Unschärfeprinzip in Bezug auf gekoppelte Variablen wie Zeit und Energie zu testen. Bewegten sich im Experiment mit einem Schlitz im Schirm die Teilchen in einem bestimmten Raum, so bewegen sie sich im zweiten Fall für eine bestimmte Zeit.

Stellen Sie sich eine Kiste vor, die mit Lichtstrahlung aus radioaktivem Zerfall gefüllt ist. Die Box verfügt über einen Verschluss, der sie für eine genau bekannte kurze Zeit öffnet, während der ein Teil der Strahlung die Box verlässt. Um die mit der Strahlung transportierte Energie zu messen, kann man die Kiste nach der Bestrahlung wiegen, mit dem Ausgangsgewicht vergleichen und das Prinzip anwenden. Wenn die Box auf der Waage installiert ist, sollten die Messungen sofort die Ungenauigkeit des Unsicherheitsprinzips zeigen.

Nach einem Tag des Nachdenkens kam Bohr zu dem Schluss, dass, wenn die Energie der Box selbst im Anfangsmoment genau bekannt ist, der Zeitpunkt, zu dem sich der Verschluss öffnet, nicht genau bekannt sein kann. Darüber hinaus können die Waage und die Box aufgrund von Gewichtsänderungen während der Bestrahlung ihre Position im Gravitationsfeld verändern. Dies führt zu einer Änderung der Zeitgeschwindigkeit aufgrund der Bewegung der Uhr und aufgrund des Einflusses der Schwerkraft auf die Uhr und zu einer zusätzlichen Ungenauigkeit bei der Zeiteinstellung des Verschlusses.

Einstein-Podolsky-Rosen-Paradoxon

Das dritte Mal, dass Bohrs Interpretation des Unschärfeprinzips in Frage gestellt wurde, war 1935, als Albert Einstein, Boris Podolsky und Nathan Rosen (siehe Einstein-Podolsky-Rosen-Paradoxon) ihre Analyse der Zustände ineinandergreifender Teilchen veröffentlichten, die über große Entfernungen voneinander getrennt waren. Laut Einstein sollte die Messung der physikalischen Größe eines Teilchens in der Quantenmechanik zu einer Änderung der Verteilungswahrscheinlichkeit eines anderen Teilchens führen, und zwar mit einer Geschwindigkeit, die sogar die Lichtgeschwindigkeit überschreiten kann. Als Bohr darüber nachdachte, kam er zu dem Schluss, dass die Unsicherheit im Unschärfeprinzip nicht aus einer solchen direkten Messung resultiert.

Einstein selbst glaubte, dass eine vollständige Beschreibung der Realität die Vorhersage der Ergebnisse von Experimenten auf der Grundlage „lokal variierender deterministischer Größen“ beinhalten muss, was zu einem Informationszuwachs im Vergleich zu dem führt, der durch das Unschärfeprinzip begrenzt ist.

Im Jahr 1964 zeigte John Bell, dass Einsteins Annahme versteckter Parameter überprüft werden konnte, da sie in verschiedenen Experimenten zu bestimmten Ungleichheiten zwischen den Wahrscheinlichkeiten führte. Bislang gibt es keine verlässliche Bestätigung für die Existenz versteckter Parameter, die auf den Bell’schen Ungleichungen basieren.

Es gibt auch die Ansicht, dass die Ergebnisse von Experimenten beeinflusst werden können nicht-lokale versteckte Parameter Daran hielt insbesondere D. Böhm fest. Hier kann die Quantentheorie in engen Kontakt mit anderen physikalischen Konzepten treten. Beispielsweise kann man sich nichtlokale versteckte Parameter als einen zufälligen Datensatz vorstellen, der in Experimenten erscheint. Wenn wir davon ausgehen, dass die Größe des sichtbaren Universums diese Menge und die Verbindungen zwischen ihnen begrenzt, dann wird ein Quantencomputer laut G. Hooft wahrscheinlich Fehler machen, wenn er mit Zahlen über 10.000 Einheiten arbeitet.

Kritik an Popper

K.R. Popper kritisierte das von Heisenberg aufgestellte Unschärfeprinzip, wonach die Messung des Ortes eines Teilchens immer das Ergebnis der Impulsmessung beeinflusst, was darauf hindeutet, dass es eine bestimmte Amplitude gibt, wenn ein Teilchen mit einem bestimmten Impuls durch eine schmale Lücke in der reflektierten Welle geht die Wahrscheinlichkeit der Existenz eines Impulses, der dem Impuls vor der Streuung entspricht. Dies bedeutet, dass das Teilchen in einigen Fällen die Lücke passiert, ohne seinen Impuls zu ändern. In diesem Fall sollte die Unschärferelation nicht für einzelne Ereignisse oder Experimente angewendet werden, sondern für Experimente mit vielen identischen Teilchen mit denselben Anfangsbedingungen, also für Quantenensembles. Diese Art von Kritik gilt für alle probabilistischen Theorien, nicht nur für die Quantenmechanik, da probabilistische Aussagen viele Messungen zur Überprüfung erfordern.

Aus der Sicht der Kopenhagener Interpretation der Quantenmechanik ist die Zuschreibung eines bestimmten Impulses an ein Teilchen vor der Messung gleichbedeutend mit der Existenz eines verborgenen Parameters. Das Teilchen sollte nicht durch diesen Impuls beschrieben werden, sondern durch eine Wellenfunktion, die sich beim Durchgang durch den Spalt ändert. Daraus ergibt sich die Unsicherheit des Impulses, entsprechend dem Unschärfeprinzip.

Das Unschärfeprinzip der Informationsentropie

Als Hugh Everett 1957 die Viele-Welten-Interpretation der Quantenmechanik formulierte, gelangte er zu einer strengeren Form des Unschärfeprinzips. . Wenn Quantenzustände eine Wellenfunktion der Form haben:

dann wird ihre Standardabweichung in den Koordinaten aufgrund der Überlagerung einer bestimmten Anzahl von Wechselwirkungen erhöht. Auch die Unsicherheit hinsichtlich der Dynamik wird zunehmen. Um die Ungleichheit in der Unsicherheitsrelation zu verdeutlichen, werden Shannon-Informationen für die Größenverteilung verwendet, gemessen an der Anzahl der Bits, die zur Beschreibung der Zufallsvariablen unter einer bestimmten Wahrscheinlichkeitsverteilung erforderlich sind:

Der Wert I wird als die Anzahl der Informationsbits interpretiert, die der Beobachter in dem Moment empfängt, in dem der Wert x eine Genauigkeit von ε erreicht Ix + log 2 (ε) . Der zweite Teil ist die Anzahl der Bits nach dem Dezimalpunkt und der erste gibt den logarithmischen Wert der Verteilung an. Für gleichmäßige Breitenverteilung Δ X Der Informationsgehalt beträgt log 2 Δ X . Dieser Wert kann negativ sein, was bedeutet, dass die Verteilung enger als eins ist und die kleinen Bits nach dem Dezimalpunkt aufgrund der Unsicherheit keine Informationen liefern.

Nehmen wir den Logarithmus des Unsicherheitsverhältnisses in sogenannten natürlichen Einheiten:

dann ist in dieser Form die Untergrenze gleich Null.

Everett und Hirschman schlug für alle Quantenzustände Folgendes vor:

Dies wurde 1975 von Beckner bewiesen.

Derivate

Wenn die linearen Operatoren A und B auf die Funktion ψ( X) , sie pendeln nicht immer. Sei beispielsweise Operator B eine Multiplikation mit x und Operator A eine Ableitung nach x. Dann gilt die Gleichheit:

was in der Operatorsprache bedeutet:

Dieser Ausdruck kommt dem kanonischen Kommutator der Quantenmechanik sehr nahe, bei dem der Positionsoperator die Multiplikation der Wellenfunktion mit x ist und der Impulsoperator die Ableitung und Multiplikation mit umfasst. Das gibt:

Dieser von Null verschiedene Kommutator führt zur Unschärferelation.

Für zwei beliebige Aussagen A und B:

was entspricht Cauchy-Bunyakovsky-Ungleichung für das innere Produkt zweier Vektoren und . Der Erwartungswert des Produkts AB übersteigt die Amplitude des Imaginärteils:

Für hermitesche Operatoren ergibt sich daraus Robertson-Schrödinger-Beziehung :

und das Unschärfeprinzip als Sonderfall.

Physikalische Interpretation

Beim Übergang von Mengenoperatoren zu Unsicherheiten können wir schreiben:

Wo

ist der Mittelwert der Variablen X im Zustand ψ,

ist die Standardabweichung der Variablen X im Zustand ψ.

Nach dem Austausch für A und für B In der allgemeinen Operatorungleichung nimmt der Kommutator die Form an:

Die Normen und sind in der Quantenmechanik die Standardabweichungen für A und B. Für die Koordinate und den Impuls ist die Kommutatornorm gleich .

Matrixmechanik

In der Matrizenmechanik ist der Kommutator der Matrizen X und P nicht gleich Null, sondern dem mit der Identitätsmatrix multiplizierten Wert.

Der Kommutator zweier Matrizen ändert sich nicht, wenn sich beide Matrizen aufgrund einer Verschiebung zu konstanten Matrizen ändern X Und P:

Für jeden Quantenzustand ψ kann man die Zahl bestimmen X

als erwarteter Koordinatenwert und

als Erwartungswert des Impulses. Die Größen und werden in dem Maße ungleich Null sein, in dem Position und Impuls ungewiss sind, sodass X und P von den Durchschnittswerten abweichen. Erwarteter Schalterwert

kann ungleich Null sein, wenn die Abweichung in X im Zustand multipliziert mit der Abweichung in P, ziemlich groß.

Der Quadratwert eines typischen Matrixelements als quadratische Abweichung kann durch Summieren der Quadrate der Energiezustände geschätzt werden:

Daher wird die kanonische Kommutierungsbeziehung durch Multiplikation der Abweichungen in jedem Zustand erhalten, was einen Ordnungswert ergibt:

Diese heuristische Bewertung kann mithilfe der Cauchy-Bunyakovsky-Ungleichung verfeinert werden (siehe oben). Das innere Produkt zweier Vektoren in Klammern:

begrenzt durch das Produkt der Vektorlängen:

Daher wird es für jeden Staat Folgendes geben:

der Realteil der Matrix M ist, also ist der Realteil des Produkts zweier hermitescher Matrizen gleich:

Für den Imaginärteil gilt:

Die Amplitude ist größer als die Amplitude ihres Imaginärteils:

Das Produkt der Unsicherheiten wird im Folgenden durch den Erwartungswert begrenzt Antikommutator, wobei der Unsicherheitsrelation der entsprechende Term gegeben wird. Dieser Term ist für die Positions- und Impulsunsicherheit nicht wichtig, da er für ein Gaußsches Wellenpaket, wie im Grundzustand eines harmonischen Oszillators, den erwarteten Wert Null hat. Gleichzeitig ist das Mitglied aus Antikommutator nützlich, um die Unsicherheiten von Spinoperatoren zu begrenzen.

Wellenmechanik

In Schrödingers Gleichung Quantenmechanik Die Wellenfunktion enthält Informationen über die Position und den Impuls des Teilchens. Die wahrscheinlichste Position des Teilchens ist dort, wo die Wellenkonzentration am größten ist, und die Hauptwellenlänge bestimmt den Impuls des Teilchens.

Die Wellenlänge der lokalisierten Welle wird nicht genau bestimmt. Wenn sich die Welle in einem Volumen der Größe L befindet und die Wellenlänge ungefähr gleich λ ist, liegt die Anzahl der Wellenzyklen in diesem Bereich in der Größenordnung L / λ . Die Tatsache, dass die Anzahl der Zyklen auf einen Zyklus genau bekannt ist, kann wie folgt geschrieben werden:

Dies entspricht einem bekannten Ergebnis in der Signalverarbeitung: Je kürzer die Zeitspanne, desto ungenauer wird die Frequenz bestimmt. Ebenso gilt bei der Fourier-Transformation: Je schmaler der Peak einer Funktion, desto breiter ist ihr Fourier-Bild.

Wenn wir die Gleichheit mit multiplizieren H , und setze Δ P = HΔ (1/λ), Δ X = L , dann wird es sein:

Das Unsicherheitsprinzip kann als Satz in Fourier-Transformationen dargestellt werden: Das Produkt aus der Standardabweichung des Quadrats des Absolutwerts einer Funktion und der Standardabweichung des Quadrats des Absolutwerts ihres Fourier-Bildes beträgt nicht weniger als 1/ (16π 2).

Ein typisches Beispiel ist die (nicht normalisierte) Gaußsche Wellenfunktion:

Der erwartete Wert von X ist aufgrund der Symmetrie Null, daher wird die Variation durch Mittelung ermittelt X 2 über alle Positionen mit Gewicht ψ( X) 2 und unter Berücksichtigung der Normalisierung:

Mit der Fourier-Transformation können wir von ψ( X) zur Wellenfunktion in k Raum wo k ist die Wellenzahl und hängt durch die De-Broglie-Beziehung mit dem Impuls zusammen:

Das letzte Integral hängt nicht von p ab, da sich hier die Variablen kontinuierlich ändern , was eine solche Abhängigkeit ausschließt und der Weg der Integration in der komplexen Ebene nicht durch die Singularität verläuft. Daher ist die Wellenfunktion bis zur Normalisierung wieder Gaußförmig:

Verteilungsbreite k ermittelt durch Mittelung durch Integration, wie oben gezeigt:

Dann in diesem Beispiel

Symplektisch Geometrie

Mathematisch ausgedrückt sind konjugierte Variablen Teil von symplektisch Basis, und das Unschärfeprinzip entspricht symplektisch sich bilden symplektisch Raum.

Robertson-Schrödinger-Beziehung

Nehmen wir zwei beliebige selbstadjungierte hermitesche Operatoren A Und B, und das System befindet sich im Zustand ψ. Beim Messen von Mengen A Und B Es erscheint eine Wahrscheinlichkeitsverteilung mit Standardabweichungen Δ ψ A und Δψ B . Dann gilt die Ungleichung:

Wo [ A,B] = AB - B.A. es gibt einen Schalter A Und B, {A,B} = AB+B.A. Es gibt einen Antikommutator und einen Erwartungswert. Diese Ungleichung wird Robertson-Schrödinger-Beziehung genannt, die als Sonderfall das Unschärfeprinzip einschließt. Die Ungleichung mit einem Kommutator wurde 1930 von Howard Percy Robertson abgeleitet, und wenig später fügte Erwin Schrödinger den Begriff mit hinzu Antikommutator.

Es ist auch möglich, dass es zwei sind nicht pendelnd selbstadjungierte Operatoren A Und B , die den gleichen Eigenvektor ψ haben. In diesem Fall stellt ψ einen reinen Zustand dar, der gleichzeitig messbar ist A Und B .

Andere Prinzipien der Unsicherheit

Die Robertson-Schrödinger-Beziehung führt zu Unsicherheitsrelationen für zwei beliebige Variablen, die nicht miteinander kommutieren:

  • Die Unsicherheitsbeziehung zwischen der Koordinate und dem Impuls eines Teilchens:

  • zwischen Energie und Ort des Teilchens im eindimensionalen Potential V(x):

  • zwischen Winkelkoordinate und Drehimpuls eines Teilchens mit kleiner Winkelunsicherheit:

  • zwischen den orthogonalen Komponenten des Gesamtdrehimpulses des Teilchens:

Wo ich, J, k anders und J i bedeutet Drehimpuls entlang der Achse x i .

  • zwischen der Anzahl der Elektronen in einem Supraleiter und der Phase ihrer Ordnung in der Ginzburg-Landau-Theorie:

Außerdem besteht eine Unsicherheitsbeziehung zwischen der Feldstärke und der Anzahl der Teilchen, was zum Phänomen der virtuellen Teilchen führt.

Energie-Zeit im Unschärfeprinzip

Energie und Zeit sind in der Unschärferelation enthalten, die sich nicht direkt aus der Robertson-Schrödinger-Relation ergibt.

Das Produkt aus Energie und Zeit hat die gleiche Dimension wie das Produkt aus Impuls und Koordinate, Drehimpuls und Wirkungsfunktion. Daher kannte Bohr bereits den folgenden Zusammenhang:

Hier Δt ist die Lebensdauer des Quantenzustands und die Zeit bestimmt ebenso wie die Raumkoordinate die Entwicklung des Teilchens im Raum-Zeit-Koordinatensystem.

Aus der Beziehung folgt, dass ein Zustand mit kurzer Lebensdauer keinen bestimmten Energiewert haben kann – während dieser Zeit muss sich die Energie ändern, und zwar umso stärker, je kürzer die Zeit. Wenn die Energie eines Zustands proportional zur Schwingungsfrequenz ist, ist es für eine hohe Genauigkeit der Energiemessung notwendig, die Frequenz über einen Zeitraum zu messen, der ziemlich viele Wellenzyklen umfasst.

In der Spektroskopie beispielsweise haben angeregte Zustände eine begrenzte Lebensdauer. Die durchschnittliche Energie der emittierten Photonen liegt in der Nähe des theoretischen Energiewerts des Zustands, die Energieverteilung weist jedoch eine bestimmte Breite auf, die sogenannte natürliche Strichstärke . Je schneller ein Zustand zerfällt, desto breiter ist seine entsprechende Linienbreite, was es schwierig macht, die Energie genau zu messen. . Ebenso gibt es Schwierigkeiten bei der Bestimmung der Ruhemasse schnell abklingender Resonanzen in der Teilchenphysik. Je schneller ein Teilchen zerfällt, desto ungenauer ist seine Massenenergie bekannt.

Eine ungenaue Formulierung des Unschärfeprinzips besagt, dass die Energie eines Quantensystems mit einer Genauigkeit von Δ gemessen werden soll E es braucht Zeit Δ T > H / Δ E . Seine Ungenauigkeit wurde 1961 von Yakir Aharonov und D. Bohm gezeigt. Tatsächlich Zeit Δ T Es gibt einen Zeitpunkt, in dem das System ohne äußere Störungen existiert, und nicht den Zeitpunkt der Messung oder des Einflusses von Messgeräten.

Im Jahr 1936 schlug Paul Dirac eine genaue Definition und Ableitung der Energie-Zeit-Unschärferelation in der relativistischen Quantentheorie der „Ereignisse“ vor. In dieser Formulierung bewegen sich Teilchen in der Raumzeit und haben auf jeder Flugbahn ihre eigene innere Zeit. Die mehrzeitige Formulierung der Quantenmechanik entspricht mathematisch der Standardformulierung, eignet sich jedoch besser für die relativistische Verallgemeinerung. Auf dieser Grundlage entwickelte Shinichiro Tomonaga eine kovariante Störungstheorie für die Quantenelektrodynamik.

Eine bekanntere und gebräuchlichere Formulierung der Energie-Zeit-Unsicherheitsbeziehung wurde 1945 von L. I. Mandelstam und I. gegeben. E. Tamm. Für ein Quantensystem in einem instationären Zustand die beobachtbare Größe B wird durch einen selbstkonsistenten Operator dargestellt und die Formel ist gültig:

Wo Δ ψ E ist die Standardabweichung des Energiebetreibers im Staat, Δ ψ B ist die Standardabweichung des Operators und der erwartete Wert in diesem Zustand. Der zweite Faktor auf der linken Seite hat die Dimension der Zeit und unterscheidet sich von der in der Schrödinger-Gleichung enthaltenen Zeit. Dieser Faktor ist die Lebensdauer des Zustands relativ zum beobachteten B , danach ändert sich der Erwartungswert merklich.

Unsicherheitssätze in der harmonischen Analysis

Bei der harmonischen Analyse impliziert das Unschärfeprinzip, dass man nicht die genauen Werte einer Funktion und ihrer Fourier-Karte erhalten kann; in diesem Fall gilt folgende Ungleichung:

Es gibt andere Beziehungen zwischen der Funktion ƒ und seine Fourier-Karte.

Satz von Benedick

Dieser Satz besagt, dass die Menge der Punkte, bei denen ƒ nicht Null ist, und die Menge der Punkte, bei denen ƒ nicht Null ist, nicht beide zu klein sein können. Insbesondere, ƒ V L 2 (R) und seine Fourier-Karte können auf Überdeckungen mit begrenztem Lebesgue-Maß nicht gleichzeitig unterstützt werden (haben dieselbe Funktionsunterstützung). In der Signalverarbeitung ist dieses Ergebnis bekannt: Eine Funktion kann nicht gleichzeitig im Zeit- und Frequenzbereich begrenzt werden.

Hardys Unsicherheitsprinzip

Der Mathematiker G. H. Hardy formulierte 1933 das folgende Prinzip: Es ist unmöglich, dass die Funktionen ƒ und beide „sehr schnell wachsen“. Also, wenn ƒ definiert in L 2 (R), Das:

außer für den Fall F = 0 . Hier ist die Fourier-Karte ist gleich , und wenn im Integral, ersetzen wir für jeden durch A < 2π , dann ist das entsprechende Integral für eine Funktion ungleich Null beschränkt F 0 .

Unendliche Verschachtelung der Materie

Theoretisch erhält das Unschärfeprinzip eine besondere Interpretation. Nach dieser Theorie kann die gesamte Menge der im Universum existierenden Objekte in Ebenen angeordnet werden, innerhalb derer sich die Größe und Masse der zu ihnen gehörenden Objekte nicht so stark unterscheiden wie zwischen verschiedenen Ebenen. In diesem Fall entsteht es. Dies drückt sich beispielsweise darin aus, dass die Massen und Größen von Körpern beim Übergang von Ebene zu Ebene exponentiell zunehmen und anhand der entsprechenden Ähnlichkeitskoeffizienten ermittelt werden können. Es gibt grundlegende und mittlere Ebenen der Materie. Wenn wir solche Grundebenen der Materie wie die Ebene der Elementarteilchen und die Ebene der Sterne nehmen, dann kann man in ihnen einander ähnliche Objekte finden – Nukleonen und Neutronensterne. Das Elektron hat auch sein Gegenstück auf stellarer Ebene – in Form von Scheiben, die in der Nähe von Röntgenpulsaren entdeckt wurden, die die Hauptkandidaten für Magnetare sind. . Basierend auf den bekannten Eigenschaften von Elementarteilchen (Masse, Radius, Ladung, Spin usw.) ist es mithilfe von Ähnlichkeitskoeffizienten möglich, die entsprechenden Eigenschaften ähnlicher Objekte auf Sternebene zu bestimmen.

Darüber hinaus ändern sie aufgrund physikalischer Gesetze ihre Form auf verschiedenen Ebenen der Materie nicht. Dies bedeutet, dass neben der Ähnlichkeit von Objekten und ihren Eigenschaften auch eine Ähnlichkeit entsprechender Phänomene besteht. Dadurch kann jede Materieebene als ihr eigenes Unsicherheitsprinzip betrachtet werden. Der charakteristische Wert des Wirkungsquantums und des Drehimpulses auf der Ebene der Elementarteilchen ist der Wert, das heißt. Es geht direkt in die Unschärferelation ein. Für Neutronensterne beträgt der charakteristische Wert des Wirkungsquantums ħ' s = ħ ∙ Ф' ∙ S' ∙ Р' = 5,5∙10 41 J∙s, wobei Ф', S', Р' Termähnlichkeitskoeffizienten sind von Massen- und Prozessgeschwindigkeiten und -größen entsprechend. Wenn man also den Ort, den Impuls oder andere Größen einzelner Neutronensterne mit stellaren oder noch massereicheren Objekten misst, kommt es bei deren Wechselwirkung zu einem Impuls- und Drehimpulsaustausch mit einem charakteristischen Wert des stellaren Wirkungsquantums von die Reihenfolge von ħ's. In diesem Fall beeinflusst die Koordinatenmessung die Genauigkeit der Impulsmessung und umgekehrt, was zum Unschärfeprinzip führt.

Daraus folgt, dass sich der Kern des Unsicherheitsprinzips aus dem Messverfahren selbst ergibt. Daher können Elementarteilchen nur mit Hilfe der Elementarteilchen selbst oder ihrer zusammengesetzten Zustände (in Form von Kernen, Atomen, Molekülen usw.) untersucht werden, die zwangsläufig die Ergebnisse von Messungen beeinflussen. Die Wechselwirkung von Teilchen untereinander oder mit Geräten führt in diesem Fall dazu, dass statistische Methoden in die Quantenmechanik eingeführt werden müssen und nur probabilistische Vorhersagen der Ergebnisse etwaiger Experimente erforderlich sind. Da durch das Messverfahren ein Teil der Informationen gelöscht wird, die die Teilchen vor der Messung hatten, funktioniert die in der Theorie der versteckten Parameter vorausgesetzte direkte Bestimmung von Ereignissen aus etwaigen verborgenen Parametern nicht. Wenn Sie beispielsweise ein Teilchen in einer genau festgelegten Richtung auf ein anderes richten, sollten Sie eine ganz bestimmte Streuung der Teilchen aneinander erhalten. Aber hier entsteht das Problem, dass man zunächst eine andere Möglichkeit braucht, um das Teilchen genau in diese vorgegebene Richtung zu lenken. Wie man sieht, wird die Bestimmung von Ereignissen nicht nur durch das Messverfahren, sondern auch durch das Verfahren zur Ermittlung der genauen Anfangszustände der untersuchten Teilchen erschwert.

Ausdruck der endlichen verfügbaren Menge an Fisher-Informationen

Das Unschärfeprinzip wird alternativ abgeleitet als Cramer-Rao-Ungleichungen in der klassischen Messtheorie. Wenn die Position eines Teilchens gemessen wird, geht der quadratische Mittelimpuls des Teilchens als in die Ungleichung ein Fisher-Informationen . siehe auch vollständige physikalische Informationen .

Wissenschaftlicher Humor

Die ungewöhnliche Natur des Heisenbergschen Unschärfeprinzips und sein einprägsamer Name haben es zur Quelle mehrerer Witze gemacht. Es wird gesagt, dass eine beliebte Inschrift an den Wänden der Physikabteilungen auf dem Universitätsgelände lautet: „Heisenberg war möglicherweise hier.“

Eines Tages wird Werner Heisenberg auf der Autobahn von einem Polizisten angehalten und fragt: „Wissen Sie, wie schnell Sie gefahren sind, Herr?“ Darauf antwortet der Physiker: „Nein, aber ich weiß genau, wo ich bin!“

Das Unsicherheitsprinzip in der Populärkultur

Das Unsicherheitsprinzip wird in der populären Presse oft missverstanden oder falsch dargestellt. Eine häufige falsche Aussage ist, dass die Beobachtung eines Ereignisses das Ereignis selbst verändert. Im Allgemeinen hat dies nichts mit dem Unschärfeprinzip zu tun. Fast jeder lineare Operator ändert den Vektor, auf den er einwirkt (d. h. fast jede Beobachtung ändert den Zustand), aber für kommutative Operatoren gibt es keine Einschränkungen hinsichtlich der möglichen Streuung der Werte. Zum Beispiel Projektionen des Impulses auf die Achse C Und j können zusammen so genau wie gewünscht gemessen werden, obwohl jede Messung den Zustand des Systems ändert. Darüber hinaus befasst sich die Unschärferelation mit der parallelen Messung von Größen für mehrere Systeme im gleichen Zustand und nicht mit sequentiellen Wechselwirkungen mit demselben System.

Andere (ebenfalls irreführende) Analogien zu makroskopischen Effekten wurden vorgeschlagen, um das Unsicherheitsprinzip zu erklären: Bei einer davon handelt es sich darum, einen Wassermelonenkern mit dem Finger zu zerdrücken. Der Effekt ist bekannt – es lässt sich nicht vorhersagen, wie schnell und wo der Samen verschwinden wird. Dieses Zufallsergebnis basiert vollständig auf Zufälligkeit, die mit einfachen klassischen Begriffen erklärt werden kann.