Fundamentos da mecânica quântica. Fundamentos da teoria quântica

PRINCÍPIOS BÁSICOS DE MECÂNICA QUÂNTICA.

Nome do parâmetro Significado
Assunto do artigo: PRINCÍPIOS BÁSICOS DE MECÂNICA QUÂNTICA.
Rubrica (categoria temática) Mecânica

Em 1900 ᴦ. O físico alemão Max Planck sugeriu que a emissão e absorção da luz pela matéria ocorre em porções finitas - quanta, e a energia de cada quantum é proporcional à frequência da radiação emitida:

onde é a frequência da radiação emitida (ou absorvida) e h é uma constante universal chamada constante de Planck. De acordo com dados modernos

h \u003d (6,62618 0,00004) ∙ 10 -34 J ∙ s.

A hipótese de Planck foi o ponto de partida para o surgimento de conceitos quânticos, que formaram a base de uma física fundamentalmente nova - a física do micromundo, chamada física quântica. As ideias profundas do físico dinamarquês Niels Bohr e sua escola desempenharam um grande papel em sua formação. Na raiz da mecânica quântica está uma síntese consistente das propriedades corpusculares e ondulatórias da matéria. Uma onda é um processo muito extenso no espaço (lembre-se de ondas na água), e uma partícula é um objeto muito mais local do que uma onda. A luz sob certas condições se comporta não como uma onda, mas como um fluxo de partículas. Ao mesmo tempo, as partículas elementares às vezes exibem propriedades ondulatórias. Dentro da estrutura da teoria clássica, é impossível combinar propriedades ondulatórias e corpusculares. Por esta razão, a criação de uma nova teoria que descreve os padrões do microcosmo levou à rejeição de ideias convencionais que são válidas para objetos macroscópicos.

Do ponto de vista quântico, tanto a luz quanto as partículas são objetos complexos que exibem propriedades tanto de onda quanto de partícula (a chamada dualidade onda-partícula). A criação da física quântica foi estimulada por tentativas de compreender a estrutura do átomo e as regularidades dos espectros de emissão dos átomos.

No final do século 19, descobriu-se que quando a luz incide na superfície de um metal, os elétrons são emitidos deste último. Esse fenômeno tem sido chamado efeito fotoelétrico.

Em 1905 ᴦ. Einstein explicou o efeito fotoelétrico com base na teoria quântica. Ele introduziu a suposição de que a energia em um feixe de luz monocromática consiste em porções, cujo tamanho é igual a h. A dimensão física de h é tempo∙energia=comprimento∙momentum= momento do momento. Essa dimensão é possuída por uma quantidade chamada ação e, em conexão com isso, h é chamado de quantum elementar de ação. De acordo com Einstein, um elétron em um metal, tendo absorvido tal porção de energia, realiza o trabalho de saída do metal e adquire energia cinética

E k \u003d h − A out.

Esta é a equação de Einstein para o efeito fotoelétrico.

Porções discretas de luz foram mais tarde (em 1927 ᴦ.) fótons.

Na ciência, ao determinar o aparato matemático, deve-se sempre partir da natureza dos fenômenos experimentais observados. O físico alemão Schrödinger alcançou feitos grandiosos ao tentar uma estratégia diferente de pesquisa científica: primeiro a matemática, depois a compreensão de seu significado físico e, como resultado, a interpretação da natureza dos fenômenos quânticos.

Ficou claro que as equações da mecânica quântica devem ser ondulatórias (afinal, objetos quânticos têm propriedades ondulatórias). Essas equações devem ter soluções discretas (elementos de discrição são inerentes aos fenômenos quânticos). Equações desse tipo eram conhecidas em matemática. Focando neles, Schrödinger sugeriu usar o conceito da função de onda ʼʼψʼʼ. Para uma partícula movendo-se livremente ao longo do eixo X, a função de onda ψ=e - i|h(Et-px) , onde p é o momento, x é a coordenada, E-energia, constante de h-Planck. A função ʼʼψʼʼ é geralmente chamada de função de onda porque uma função exponencial é usada para descrevê-la.

O estado de uma partícula na mecânica quântica é descrito por uma função de onda, que permite determinar apenas a probabilidade de encontrar uma partícula em um determinado ponto do espaço. A função de onda não descreve o objeto em si ou mesmo suas potencialidades. As operações com a função de onda permitem calcular as probabilidades de eventos da mecânica quântica.

Os princípios fundamentais da física quântica são princípios de superposição, incerteza, complementaridade e identidade.

Princípio superposições na física clássica permite obter o efeito resultante da sobreposição (superposição) de várias influências independentes como a soma dos efeitos causados ​​por cada influência separadamente. É válido para sistemas ou campos descritos por equações lineares. Este princípio é muito importante na mecânica, na teoria das oscilações e na teoria ondulatória dos campos físicos. Na mecânica quântica, o princípio da superposição refere-se às funções de onda: se um sistema físico pode estar em estados descritos por duas ou mais funções de onda ψ 1, ψ 2 ,…ψ ń, então ele pode estar em um estado descrito por qualquer combinação linear dessas funções:

Ψ=c 1 ψ 1 +c 2 ψ 2 +….+с n ψ n ,

onde с 1 , с 2 ,…с n são números complexos arbitrários.

O princípio da superposição é um refinamento dos conceitos correspondentes da física clássica. De acordo com este último, em um meio que não altera suas propriedades sob a influência de perturbações, as ondas se propagam independentemente umas das outras. Consequentemente, a perturbação resultante em qualquer ponto do meio quando várias ondas se propagam nele é igual à soma das perturbações correspondentes a cada uma dessas ondas:

S \u003d S 1 + S 2 + .... + S n,

onde S 1 , S 2,….. S n são perturbações causadas pela onda. No caso de uma onda não harmônica, ela pode ser representada como uma soma de ondas harmônicas.

Princípio incertezasé que é impossível determinar simultaneamente duas características de uma micropartícula, por exemplo, velocidade e coordenadas. Reflete a natureza de onda corpuscular dupla das partículas elementares. Erros, imprecisões, erros na determinação simultânea de quantidades adicionais no experimento são relacionados pela razão de incerteza estabelecida em 1925ᴦ. Werner Heisenberg. A relação de incerteza reside no fato de que o produto das imprecisões de qualquer par de quantidades adicionais (por exemplo, a coordenada e a projeção do momento, energia e tempo) é determinado pela constante de Planck h. As relações de incerteza indicam que quanto mais específico for o valor de um dos parâmetros incluídos na relação, mais incerto será o valor do outro parâmetro e vice-versa. Isso significa que os parâmetros são medidos simultaneamente.

A física clássica ensinou que todos os parâmetros dos objetos e os processos que ocorrem com eles podem ser medidos simultaneamente com qualquer precisão. Esta posição é refutada pela mecânica quântica.

O físico dinamarquês Niels Bohr chegou à conclusão de que os objetos quânticos são relativos aos meios de observação. Os parâmetros dos fenômenos quânticos podem ser julgados somente após sua interação com os meios de observação, ᴛ.ᴇ. com aparelhos. O comportamento de objetos atômicos não pode ser claramente distinguido de sua interação com instrumentos de medição que fixam as condições sob as quais esses fenômenos ocorrem. Ao mesmo tempo, é necessário levar em consideração que os instrumentos usados ​​para medir os parâmetros são de diferentes tipos. Os dados obtidos em diferentes condições do experimento devem ser considerados adicionais no sentido de que apenas uma combinação de diferentes medições pode fornecer uma imagem completa das propriedades do objeto. Este é o conteúdo do princípio da complementaridade.

Na física clássica, a medida era considerada não perturbadora do objeto de estudo. A medição deixa o objeto inalterado. De acordo com a mecânica quântica, cada medição individual destrói o micro-objeto. Para realizar uma nova medição, é necessário preparar novamente o micro-objeto. Isso complica o processo de síntese de medição. A este respeito, Bohr afirma a complementaridade das medições quânticas. Os dados das medições clássicas não são complementares, eles têm um significado independente um do outro. A complementação ocorre onde os objetos em estudo são indistinguíveis uns dos outros e interconectados.

Bohr relacionou o princípio da complementaridade não apenas às ciências físicas: 'a integridade dos organismos vivos e as características das pessoas com consciência, assim como as culturas humanas, representam características de integridade, cuja demonstração requer uma forma de descrição tipicamente complementar'. Segundo Bohr, as possibilidades dos seres vivos são tão diversas e tão intimamente interligadas que, ao estudá-las, é preciso recorrer novamente ao procedimento de complementação dos dados observacionais. Ao mesmo tempo, essa ideia de Bohr não recebeu o desenvolvimento adequado.

Características e especificidade das interações entre os componentes de micro e macrossistemas complexos. assim como as interações externas entre eles levam à sua enorme diversidade. A individualidade é característica de micro e macrossistemas, cada sistema é descrito por um conjunto de todas as propriedades possíveis inerentes apenas a ele. Você pode nomear as diferenças entre o núcleo de hidrogênio e urânio, embora ambos se refiram a microssistemas. Não há menos diferenças entre a Terra e Marte, embora esses planetas pertençam ao mesmo sistema solar.

Assim é possível falar em identidade de partículas elementares. Partículas idênticas têm as mesmas propriedades físicas: massa, carga elétrica e outras características internas. Por exemplo, todos os elétrons do Universo são considerados idênticos. Partículas idênticas obedecem ao princípio da identidade - o princípio fundamental da mecânica quântica, segundo o qual: os estados de um sistema de partículas obtidos umas das outras pelo rearranjo de partículas idênticas em locais não podem ser distinguidos em nenhum experimento.

Este princípio é a principal diferença entre a mecânica clássica e a quântica. Na mecânica quântica, partículas idênticas são desprovidas de individualidade.

ESTRUTURA DO ÁTOMO E DO NUCLEAR. PARTÍCULAS ELEMENTARES.

As primeiras ideias sobre a estrutura da matéria surgiram na Grécia Antiga nos séculos VI e IV. BC. Aristóteles considerava a matéria contínua, ᴛ.ᴇ. ele pode ser dividido em partes arbitrariamente pequenas, mas nunca atinge a menor partícula que não seria mais dividida. Demócrito acreditava que tudo no mundo consiste em átomos e vazio. Os átomos são as menores partículas da matéria, o que significa "indivisível", e na representação de Demócrito, os átomos são esferas com uma superfície irregular.

Tal visão de mundo existiu até o final do século XIX. Em 1897. Joseph John Thomson (1856-1940ᴦ.ᴦ.), filho de W. Thomson, duas vezes ganhador do Prêmio Nobel, descobriu uma partícula elementar, que foi chamada de elétron. Verificou-se que o elétron voa para fora dos átomos e tem uma carga elétrica negativa. A magnitude da carga do elétron e\u003d 1.6.10 -19 C (Coulomb), massa do elétron m\u003d 9.11.10 -31 mil.

Após a descoberta do elétron, Thomson em 1903 apresentou a hipótese de que o átomo é uma esfera na qual uma carga positiva é espalhada, e elétrons com cargas negativas são intercalados na forma de passas. A carga positiva é igual à negativa, em geral, o átomo é eletricamente neutro (a carga total é 0).

Em 1911, realizando um experimento, Ernst Rutherford descobriu que a carga positiva não está espalhada pelo volume do átomo, mas ocupa apenas uma pequena parte dele. Depois disso, ele apresentou um modelo do átomo, que mais tarde ficou conhecido como o planetário. De acordo com este modelo, um átomo é realmente uma esfera, no centro da qual há uma carga positiva, ocupando uma pequena parte dessa esfera - cerca de 10 -13 cm. A carga negativa está localizada na parte externa, chamada de elétron Concha.

Um modelo quântico mais perfeito do átomo foi proposto pelo físico dinamarquês N. Bohr em 1913, que trabalhou no laboratório de Rutherford. Ele tomou como base o modelo do átomo de Rutherford e o complementou com novas hipóteses que contradizem as ideias clássicas. Essas hipóteses são conhecidas como postulados de Bohr. Οʜᴎ são reduzidos ao seguinte.

1. Cada elétron em um átomo pode fazer um movimento orbital estável ao longo de uma determinada órbita, com um determinado valor de energia, sem emitir ou absorver radiação eletromagnética. Nesses estados, os sistemas atômicos têm energias que formam uma série discreta: E 1 , E 2 ,…E n . Qualquer mudança de energia como resultado da emissão ou absorção de radiação eletromagnética pode ocorrer em um salto de um estado para outro.

2. Quando um elétron se move de uma órbita estacionária para outra, a energia é emitida ou absorvida. Se durante a transição de um elétron de uma órbita para outra, a energia do átomo muda de E m para E n, então h v= E m - E n , onde vé a frequência de radiação.

Bohr usou esses postulados para calcular o átomo de hidrogênio mais simples,

A área na qual a carga positiva está concentrada é chamada de núcleo. Havia uma suposição de que o núcleo consiste em partículas elementares positivas. Essas partículas, chamadas prótons (em grego, próton significa primeiro), foram descobertas por Rutherford em 1919. Sua carga de módulo é igual à carga do elétron (mas positiva), a massa do próton é 1,6724,10 -27 kᴦ. A existência do próton foi confirmada por uma reação nuclear artificial que converte nitrogênio em oxigênio. Átomos de nitrogênio foram irradiados com núcleos de hélio. O resultado foi oxigênio e um próton. O próton é uma partícula estável.

Em 1932, James Chadwick descobriu uma partícula que não tinha carga elétrica e tinha uma massa quase igual à de um próton. Essa partícula foi chamada de nêutron. A massa do nêutron é 1,675,10 -27 kᴦ. O nêutron foi descoberto irradiando uma placa de berílio com partículas alfa. O nêutron é uma partícula instável. A falta de carga explica sua fácil capacidade de penetrar nos núcleos dos átomos.

A descoberta do próton e do nêutron levou à criação do modelo próton-nêutron do átomo. Foi proposto em 1932 pelos físicos soviéticos Ivanenko, Gapon e o físico alemão Heisenberg. De acordo com este modelo, o núcleo de um átomo consiste em prótons e nêutrons, com exceção do núcleo de hidrogênio, ĸᴏᴛᴏᴩᴏᴇ consiste em um próton.

A carga do núcleo é determinada pelo número de prótons nele e é denotada pelo símbolo Z . A massa total de um átomo está contida na massa de seu núcleo e é determinada pela massa dos prótons e nêutrons que entram nele, já que a massa do elétron é desprezível em comparação com as massas do próton e do nêutron. O número de série na tabela periódica de Mendel-Eev corresponde à carga do núcleo de um determinado elemento químico. Número de massa de um átomo MAS é igual à massa de nêutrons e prótons: A=Z+N, Onde Z é o número de prótons, N é o número de nêutrons. Convencionalmente, qualquer elemento é indicado pelo símbolo: A X .

Existem núcleos que contêm o mesmo número de prótons, mas diferentes números de nêutrons, ᴛ.ᴇ. diferentes números de massa. Esses núcleos são chamados de isótopos. Por exemplo, 1 H 1 - hidrogênio normal 2N1 - deutério, 3N1 - trítio. Os núcleos mais estáveis ​​são aqueles em que o número de prótons é igual ao número de nêutrons ou ambos ao mesmo tempo = 2, 8, 20, 28, 50, 82, 126 - números mágicos.

As dimensões do átomo são de aproximadamente 10 a 8 cm. O átomo consiste em um núcleo de 10 a 13 cm de tamanho. Entre o núcleo do átomo e o limite do átomo há um enorme espaço em termos de escala no micromundo. A densidade no núcleo de um átomo é enorme, aproximadamente 1,5·108 t/cm 3 . Elementos químicos com massa A<50 называются легкими, а с А>50 - pesado. Fica um pouco lotado nos núcleos de elementos pesados, ᴛ.ᴇ. é criado um pré-requisito energético para o seu decaimento radioativo.

A energia necessária para dividir um núcleo em seus núcleons constituintes é chamada de energia de ligação. (Nuclons é um nome generalizado para prótons e nêutrons, e traduzido para o russo significa 'partículas nucleares'):

E sv \u003d Δm∙s 2,

Onde ∆m é o defeito de massa nuclear (diferença entre as massas dos núcleons que formam o núcleo e a massa do núcleo).

Em 1928. O físico teórico Dirac propôs a teoria do elétron. As partículas elementares podem se comportar como uma onda - elas têm dualidade onda-partícula. A teoria de Dirac tornou possível determinar quando um elétron se comporta como uma onda e quando se comporta como uma partícula. Ele concluiu que deve haver uma partícula elementar que tenha as mesmas propriedades de um elétron, mas com uma carga positiva. Tal partícula foi descoberta mais tarde em 1932 e chamada de pósitron. O físico americano Andersen descobriu em uma fotografia de raios cósmicos um traço de uma partícula semelhante a um elétron, mas com carga positiva.

Decorreu da teoria de que um elétron e um pósitron, interagindo entre si (reação de aniquilação), formam um par de fótons, ᴛ.ᴇ. quanta de radiação eletromagnética. O processo inverso também é possível, quando um fóton, interagindo com o núcleo, se transforma em um par elétron-pósitron. Cada partícula está associada a uma função de onda, cujo quadrado da amplitude é igual à probabilidade de encontrar uma partícula em um determinado volume.

Na década de 1950, foi comprovada a existência do antipróton e do antinêutron.

Até 30 anos atrás, acreditava-se que nêutrons e prótons eram partículas elementares, mas experimentos sobre a interação de prótons e elétrons movendo-se em alta velocidade mostraram que os prótons consistem em partículas ainda menores. Essas partículas foram estudadas pela primeira vez por Gell Mann e as chamaram de quarks. Diversas variedades de quarks são conhecidas. Supõe-se que existem 6 sabores: U - quark (up), d-quark (down), quark estranho (estranho), quark charm (charm), b - quark (beauty), t-quark (truth) ..

Cada quark sabor tem uma das três cores: vermelho, verde, azul. Esta é apenas uma designação, porque Os quarks são muito menores do que o comprimento de onda da luz visível e, portanto, não têm cor.

Vamos considerar algumas características das partículas elementares. Na mecânica quântica, cada partícula recebe um momento mecânico especial próprio, que não está associado nem ao seu movimento no espaço nem à sua rotação. Este próprio momento mecânico é chamado. costas. Então, se você girar um elétron em 360º, você esperaria que ele retornasse ao seu estado original. Neste caso, o estado inicial será alcançado apenas com mais uma rotação de 360°. Ou seja, para retornar o elétron ao seu estado original, ele deve ser girado em 720 o, em comparação com o spin, percebemos o mundo apenas pela metade. Por exemplo, em um laço de fio duplo, o cordão retornará à sua posição original quando girado 720 graus. Tais partículas têm um spin semi-inteiro ½. O spin nos diz como a partícula se parece quando vista de diferentes ângulos. Por exemplo, uma partícula com spin ʼʼ'0ʼʼ se parece com um ponto: parece a mesma de todos os lados. Uma partícula com um spin de ʼʼ1ʼʼ pode ser comparada a uma flecha: ela parece diferente de diferentes lados e retorna à sua forma anterior quando girada em 360º. Uma partícula com um spin de ʼʼ2ʼʼ pode ser comparada com uma flecha afiada em ambos os lados: qualquer uma de suas posições é repetida a partir de meia volta (180 o). Partículas de spin mais alto retornam ao seu estado original quando giradas por uma fração ainda menor de uma revolução completa.

Partículas com spin semi-inteiro são chamadas de férmions, e partículas com spin inteiro são chamadas de bósons. Até recentemente, acreditava-se que bósons e férmions eram os únicos tipos possíveis de partículas indistinguíveis. Na verdade, existem várias possibilidades intermediárias, e férmions e bósons são apenas dois casos limites. Essa classe de partículas é chamada de ânions.

As partículas de matéria obedecem ao princípio de exclusão de Pauli, descoberto em 1923 pelo físico austríaco Wolfgang Pauli. O princípio de Pauli afirma que em um sistema de duas partículas idênticas com spins semi-inteiros, não mais do que uma partícula pode estar no mesmo estado quântico. Não há restrições para partículas com spin inteiro. Isso significa que duas partículas idênticas não podem ter coordenadas e velocidades iguais com a precisão especificada pelo princípio da incerteza. Se as partículas de matéria têm coordenadas muito próximas, então suas velocidades devem ser diferentes e, portanto, não podem permanecer em pontos com essas coordenadas por muito tempo.

Na mecânica quântica, assume-se que todas as forças e interações entre partículas são transportadas por partículas com spin inteiro igual a 0,1.2. Isso acontece da seguinte forma: por exemplo, uma partícula de matéria emite uma partícula que é a portadora da interação (por exemplo, um fóton). Como resultado do recuo, a velocidade da partícula muda. Em seguida, a partícula transportadora 'bate' em outra partícula da substância e é absorvida por ela. Essa colisão altera a velocidade da segunda partícula, como se houvesse uma força atuando entre essas duas partículas de matéria. As partículas transportadoras que são trocadas entre partículas de matéria são chamadas de virtuais, porque, ao contrário das reais, não podem ser registradas usando um detector de partículas. No entanto, eles existem porque criam um efeito que pode ser medido.

As partículas transportadoras podem ser classificadas em 4 tipos com base na quantidade de interação que carregam e em quais partículas interagem e com quais partículas interagem:

1) Força gravitacional. Qualquer partícula está sob a ação de uma força gravitacional, cuja magnitude depende da massa e da energia da partícula. Esta é uma força fraca. As forças gravitacionais atuam a grandes distâncias e são sempre forças atrativas. Assim, por exemplo, a interação gravitacional mantém os planetas em suas órbitas e nós na Terra.

Na abordagem da mecânica quântica ao campo gravitacional, acredita-se que a força que atua entre as partículas da matéria é transferida por uma partícula com um spin de '2'', que é comumente chamado de gráviton. O gráviton não tem massa própria e, em conexão com isso, a força transferida por ele é de longo alcance. A interação gravitacional entre o Sol e a Terra é explicada pelo fato de que as partículas que compõem o Sol e a Terra trocam grávitons. O efeito da troca dessas partículas virtuais é mensurável, pois esse efeito é a rotação da Terra em torno do Sol.

2) O próximo tipo de interação é criado forças eletromagnéticas que atuam entre partículas eletricamente carregadas. A força eletromagnética é muito mais forte que a força gravitacional: a força eletromagnética que atua entre dois elétrons é cerca de 1040 vezes maior que a força gravitacional. A interação eletromagnética determina a existência de átomos e moléculas estáveis ​​(interação entre elétrons e prótons). O portador da interação eletromagnética é um fóton.

3) Interação fraca. É responsável pela radioatividade e existe entre todas as partículas de matéria com spin ½. A interação fraca garante uma longa e uniforme queima do nosso Sol, que fornece energia para o fluxo de todos os processos biológicos na Terra. Os portadores da interação fraca são três partículas - W ± e Z 0 -bósons. Οʜᴎ foram descobertos apenas em 1983ᴦ. O raio da interação fraca é extremamente pequeno, em conexão com isso, seus portadores devem ter grandes massas. De acordo com o princípio da incerteza, o tempo de vida das partículas com uma massa tão grande deve ser extremamente curto - 10 -26 s.

4) Forte interaçãoé uma interação, ĸᴏᴛᴏᴩᴏᴇ mantém quarks dentro de prótons e nêutrons, e prótons e nêutrons dentro do núcleo atômico. O portador da interação forte é considerado uma partícula com um spin de ''1'', que é comumente chamado de glúon. Glúons interagem apenas com quarks e com outros glúons. Quarks, graças aos glúons, são conectados em pares ou trigêmeos. A força forte em altas energias enfraquece e quarks e glúons começam a se comportar como partículas livres. Essa propriedade é chamada de liberdade assintótica. Como resultado de experimentos em aceleradores poderosos, foram obtidas fotografias de rastros (traços) de quarks livres, nascidos como resultado de colisões de prótons e antiprótons de alta energia. A forte interação garante a relativa estabilidade e existência de núcleos atômicos. Interações fortes e fracas são características dos processos do microcosmo que levam às transformações mútuas das partículas.

As interações fortes e fracas tornaram-se conhecidas pelo homem apenas no primeiro terço do século 20 em conexão com o estudo da radioatividade e a compreensão dos resultados do bombardeio de átomos de vários elementos por partículas α. partículas alfa eliminam prótons e nêutrons. O propósito do raciocínio levou os físicos a acreditar que prótons e nêutrons ficam nos núcleos dos átomos, sendo fortemente ligados uns aos outros. Existem fortes interações. Por outro lado, as substâncias radioativas emitem raios α-, β- e γ. Quando em 1934 Fermi criou a primeira teoria suficientemente adequada aos dados experimentais, ele teve que supor a presença nos núcleos de átomos de intensidades de interações desprezíveis, que passaram a ser chamadas de fracas.

Agora estão sendo feitas tentativas de combinar as interações eletromagnética, fraca e forte, de modo que o resultado seja o chamado GRANDE TEORIA UNIFICADA. Esta teoria lança luz sobre nossa própria existência. É possível que nossa existência seja consequência da formação de prótons. Tal imagem do início do Universo parece ser a mais natural. A matéria terrestre consiste principalmente de prótons, mas nela não há antiprótons nem antinêutrons. Experimentos com raios cósmicos mostraram que o mesmo é verdade para toda a matéria em nossa galáxia.

As características das interações fortes, fracas, eletromagnéticas e gravitacionais são dadas na tabela.

A ordem de intensidade de cada interação, indicada na tabela, é determinada em relação à intensidade da interação forte, tomada como 1.

Vamos dar uma classificação das partículas elementares mais conhecidas na atualidade.

FÓTON. A massa de repouso e sua carga elétrica são iguais a 0. O fóton tem um spin inteiro e é um bóson.

LEPTONS. Esta classe de partículas não participa da interação forte, mas possui interações eletromagnéticas, fracas e gravitacionais. Os léptons têm spin semi-inteiro e são férmions. As partículas elementares incluídas neste grupo recebem uma certa característica chamada carga de lépton. A carga leptônica, diferentemente da elétrica, não é fonte de nenhuma interação, seu papel ainda não foi totalmente elucidado. O valor da carga de léptons para léptons é L=1, para antiléptons L= -1, para todas as outras partículas elementares L=0.

MESÕES. Estas são partículas instáveis, caracterizadas por uma forte interação. O nome ''mésons'' significa '''intermediário'' e se deve ao fato de que os mésons inicialmente descobertos tinham uma massa maior que a de um elétron, mas menor que a de um próton. Hoje são conhecidos mésons, cujas massas são maiores que a massa dos prótons. Todos os mésons têm spin inteiro e são, portanto, bósons.

BÁRIÕES. Esta classe inclui um grupo de partículas elementares pesadas com um spin semi-inteiro (férmions) e uma massa não inferior à de um próton. O único bárion estável é o próton, o nêutron é estável apenas dentro do núcleo. Os bárions são caracterizados por 4 tipos de interação. Em quaisquer reações e interações nucleares, seu número total permanece inalterado.

PRINCÍPIOS BÁSICOS DE MECÂNICA QUÂNTICA. - conceito e tipos. Classificação e características da categoria "PRINCÍPIOS BÁSICOS DE MECÂNICA QUÂNTICA". 2017, 2018.

A mecânica quântica é a mecânica do micromundo. Os fenômenos que estuda estão em sua maioria além de nossa percepção sensorial, portanto, não devemos nos surpreender com o aparente paradoxo das leis que regem esses fenômenos.

As leis básicas da mecânica quântica não podem ser formuladas como uma consequência lógica dos resultados de algum conjunto de experimentos físicos fundamentais. Em outras palavras, a formulação da mecânica quântica baseada em um sistema de axiomas verificados pela experiência ainda é desconhecida. Além disso, alguns dos princípios fundamentais da mecânica quântica não permitem, em princípio, verificação experimental. Nossa confiança na validade da mecânica quântica é baseada no fato de que todos os resultados físicos da teoria concordam com o experimento. Assim, apenas as consequências das disposições básicas da mecânica quântica, e não suas leis básicas, são testadas experimentalmente. Aparentemente, essas circunstâncias estão relacionadas com as principais dificuldades que surgem no estudo inicial da mecânica quântica.

Da mesma natureza, mas obviamente, dificuldades muito maiores enfrentaram os criadores da mecânica quântica. Os experimentos definitivamente indicavam a existência de regularidades quânticas especiais no microcosmo, mas de forma alguma sugeriam a forma da teoria quântica. Isso pode explicar a história verdadeiramente dramática da criação da mecânica quântica e, em particular, o fato de que as formulações originais da mecânica quântica eram de natureza puramente prescrita. Eles continham algumas regras que permitiam calcular quantidades medidas experimentalmente, e a interpretação física da teoria surgiu depois que seu formalismo matemático foi basicamente criado.

Ao construir a mecânica quântica neste curso, não seguiremos o caminho histórico. Descreveremos muito brevemente vários fenômenos físicos, tentativas de explicar que, com base nas leis da física clássica, levaram a dificuldades intransponíveis. A seguir, tentaremos descobrir quais características do esquema da mecânica clássica descrita nos parágrafos anteriores devem ser preservadas na mecânica do micromundo e o que pode e deve ser abandonado. Veremos que a rejeição de apenas uma afirmação da mecânica clássica, a saber, a afirmação de que os observáveis ​​são funções no espaço de fase, nos permitirá construir um esquema de mecânica que descreve sistemas com comportamento significativamente diferente do clássico. Finalmente, nas seções seguintes veremos que a teoria construída é mais geral que a mecânica clássica e contém esta última como um caso limite.

Historicamente, a primeira hipótese quântica foi apresentada por Planck em 1900 em conexão com a teoria da radiação de equilíbrio. Planck conseguiu obter uma fórmula consistente com a experiência para a distribuição espectral da energia da radiação térmica, apresentando a suposição de que a radiação eletromagnética é emitida e absorvida em porções discretas - quanta, cuja energia é proporcional à frequência da radiação

onde é a frequência de oscilações em uma onda de luz, é a constante de Planck.

A hipótese dos quanta de luz de Planck permitiu a Einstein dar uma explicação extremamente simples dos padrões do efeito fotoelétrico (1905). O fenômeno do efeito fotoelétrico consiste no fato de que, sob a ação de um fluxo de luz, os elétrons são expulsos do metal. A principal tarefa da teoria do efeito fotoelétrico é encontrar a dependência da energia dos elétrons ejetados nas características do fluxo de luz. Seja V o trabalho que precisa ser gasto para eliminar um elétron do metal (função trabalho). Então a lei da conservação da energia leva à relação

onde T é a energia cinética do elétron ejetado. Vemos que essa energia depende linearmente da frequência e não depende da intensidade do fluxo de luz. Além disso, em uma frequência (a borda vermelha do efeito fotoelétrico), o fenômeno do efeito fotoelétrico se torna impossível, pois . Essas conclusões, baseadas na hipótese dos quanta de luz, estão de acordo com o experimento. Ao mesmo tempo, de acordo com a teoria clássica, a energia dos elétrons ejetados deve depender da intensidade das ondas de luz, o que contraria os resultados experimentais.

Einstein complementou o conceito de quanta de luz introduzindo o momento de um quantum de luz de acordo com a fórmula

Aqui k é o chamado vetor de onda, que tem a direção de propagação das ondas de luz; o comprimento deste vetor k está relacionado ao comprimento de onda, frequência e velocidade da luz com as relações

Para quanta de luz, a fórmula é válida

que é um caso especial da fórmula da teoria da relatividade

para uma partícula com massa de repouso.

Observe que historicamente as primeiras hipóteses quânticas estavam relacionadas às leis da radiação e absorção das ondas de luz, ou seja, à eletrodinâmica, e não à mecânica. No entanto, logo ficou claro que não apenas para radiação eletromagnética, mas também para sistemas atômicos, valores discretos de várias quantidades físicas são característicos. Os experimentos de Frank e Hertz (1913) mostraram que em colisões de elétrons com átomos, a energia dos elétrons muda em porções discretas. Os resultados desses experimentos podem ser explicados pelo fato de que a energia dos átomos só pode ter certos valores discretos. Mais tarde, em 1922, os experimentos de Stern e Gerlach mostraram que a projeção do momento angular de sistemas atômicos em uma determinada direção tem uma propriedade semelhante. Atualmente, é bem conhecido que a discrição dos valores de vários observáveis, embora seja uma característica, mas não uma característica obrigatória dos sistemas do microcosmo. Por exemplo, a energia de um elétron em um átomo de hidrogênio tem valores discretos, enquanto a energia de um elétron em movimento livre pode ter qualquer valor positivo. O aparato matemático da mecânica quântica deve ser adaptado à descrição de observáveis ​​que assumem valores discretos e contínuos.

Em 1911, Rutherford descobriu o núcleo atômico e propôs um modelo planetário do átomo (os experimentos de Rutherford sobre a dispersão de partículas a em amostras de vários elementos mostraram que o átomo tem um núcleo carregado positivamente, cuja carga é - o número de o elemento na tabela periódica, e - a carga do elétron , as dimensões do núcleo não excedem os próprios átomos têm dimensões lineares da ordem de cm). O modelo planetário do átomo contradiz os princípios básicos da eletrodinâmica clássica. De fato, movendo-se ao redor do núcleo em órbitas clássicas, os elétrons, como qualquer carga em movimento rápido, devem irradiar ondas eletromagnéticas. Nesse caso, os elétrons devem perder sua energia e eventualmente cair no núcleo. Portanto, tal átomo não pode ser estável, o que, obviamente, não é verdade. Uma das principais tarefas da mecânica quântica é explicar a estabilidade e descrever a estrutura de átomos e moléculas como sistemas constituídos por núcleos e elétrons carregados positivamente.

Do ponto de vista da mecânica clássica, o fenômeno de difração de micropartículas é absolutamente surpreendente. Este fenômeno foi previsto por de Broglie em 1924, que sugeriu que uma partícula em movimento livre com momento p

e a energia Е em algum sentido corresponde a uma onda com vetor de onda k e frequência , e

isto é, as relações (1) e (2) são válidas não apenas para quanta de luz, mas também para partículas. A interpretação física das ondas de Broglie foi dada mais tarde por Born, e ainda não a discutiremos. Se uma partícula em movimento corresponde a uma onda, então não importa qual significado exato seja colocado nessas palavras, é natural esperar que isso se manifeste na existência de fenômenos de difração para partículas. A difração de elétrons foi observada pela primeira vez nos experimentos de Devisson e Germer em 1927. Posteriormente, fenômenos de difração também foram observados para outras partículas.

Vamos mostrar que os fenômenos de difração são incompatíveis com as idéias clássicas sobre o movimento de partículas ao longo de trajetórias. O raciocínio é mais convenientemente realizado no exemplo de um experimento mental sobre a difração de um feixe de elétrons por duas fendas, cujo esquema é mostrado na Fig. 1. Deixe os elétrons da fonte A se deslocarem para a tela B e, passando pelas fendas e nela, caiam na tela C.

Estamos interessados ​​na distribuição de elétrons ao longo da coordenada y caindo na tela B. Os fenômenos de difração por uma e duas fendas são bem estudados, e podemos afirmar que a distribuição de elétrons tem a forma a mostrada na Fig. 2, se apenas a primeira fenda estiver aberta, vista (Fig. 2), - se a segunda estiver aberta e vista c, - se ambas as fendas estiverem abertas. Se assumirmos que cada elétron se moveu ao longo de uma certa trajetória clássica, então todos os elétrons que atingem a tela B podem ser divididos em dois grupos, dependendo de qual fenda eles passaram. Para os elétrons do primeiro grupo, é completamente indiferente se a segunda lacuna está aberta e, portanto, sua

a distribuição na tela deve ser representada pela curva a; da mesma forma, os elétrons do segundo grupo devem ter uma distribuição. Portanto, no caso de ambas as fendas estarem abertas, deve aparecer na tela uma distribuição que é a soma das distribuições a e b. Tal soma de distribuições não tem nada a ver com o padrão de interferência c. Essa contradição mostra que a divisão dos elétrons em grupos de acordo com o critério por qual fenda eles passaram é impossível nas condições do experimento descrito, o que significa que somos forçados a abandonar o conceito de trajetória.

Surge imediatamente a questão de saber se é possível montar um experimento de modo a descobrir por qual fenda o elétron passou. Claro, tal configuração do experimento é possível, para isso basta colocar uma fonte de luz entre as telas e B e observar a dispersão dos quanta de luz pelos elétrons. Para obter resolução suficiente, devemos usar quanta com um comprimento de onda que não exceda a distância entre as fendas, ou seja, com energia e momento suficientemente grandes. Observando os quanta espalhados pelos elétrons, podemos determinar por qual fenda o elétron passou. No entanto, a interação dos quanta com os elétrons causará uma mudança descontrolada em seus momentos e, consequentemente, a distribuição dos elétrons que atingem a tela deve mudar. Assim, chegamos à conclusão de que é possível responder à pergunta por qual fenda o elétron passou apenas alterando as condições e o resultado final do experimento.

Neste exemplo, nos deparamos com a seguinte característica geral do comportamento dos sistemas quânticos. O experimentador não tem a oportunidade de acompanhar o andamento do experimento, pois isso leva a uma alteração no seu resultado final. Essa característica do comportamento quântico está intimamente relacionada às características das medições no micromundo. Qualquer medição só é possível quando o sistema interage com o instrumento de medição. Essa interação leva à perturbação do movimento do sistema. Na física clássica é sempre assumido que

esta perturbação pode ser arbitrariamente pequena, assim como a duração do processo de medição. Portanto, é sempre possível medir simultaneamente qualquer número de observáveis.

Uma análise detalhada do processo de medição de alguns observáveis ​​para microssistemas, que pode ser encontrada em muitos livros de mecânica quântica, mostra que com o aumento da precisão da medição de observáveis, o impacto no sistema aumenta e a medição introduz mudanças incontroláveis ​​no valores numéricos de alguns outros observáveis. Isso leva ao fato de que a medição precisa simultânea de alguns observáveis ​​se torna fundamentalmente impossível. Por exemplo, se o espalhamento de quanta de luz é usado para medir a coordenada de uma partícula, então o erro de tal medida é da ordem do comprimento de onda da luz. É possível aumentar a precisão da medição escolhendo quanta com um comprimento de onda mais curto e, portanto, com um grande momento. Nesse caso, uma mudança descontrolada na ordem do momento quântico é introduzida nos valores numéricos do momento da partícula. Portanto, os erros de medição da posição e do momento estão relacionados pela relação

Um raciocínio mais preciso mostra que essa relação conecta apenas a coordenada de mesmo nome e a projeção do momento. As relações que relacionam a precisão fundamentalmente possível da medição simultânea de dois observáveis ​​são chamadas de relações de incerteza de Heisenberg. Eles serão obtidos na formulação exata nas seções seguintes. Os observáveis, nos quais as relações de incerteza não impõem nenhuma restrição, são simultaneamente mensuráveis. Veremos mais adiante que as coordenadas cartesianas de uma partícula ou a projeção do momento angular são simultaneamente mensuráveis, e as coordenadas de mesmo nome e a projeção do momento ou duas projeções cartesianas do momento angular são simultaneamente imensuráveis. Ao construir a mecânica quântica, devemos ter em mente a possibilidade da existência de quantidades simultaneamente imensuráveis.

Agora, após uma breve introdução física, tentaremos responder à pergunta já feita: quais características da mecânica clássica devem ser preservadas e quais devem ser naturalmente abandonadas na construção da mecânica do micromundo. Os conceitos básicos da mecânica clássica eram os conceitos de observável e de estado. A tarefa da teoria física é prever os resultados dos experimentos, e um experimento é sempre uma medida de alguma característica de um sistema ou algo observável sob certas condições que determinam o estado do sistema. Portanto, os conceitos de observável e estado devem aparecer

em qualquer teoria física. Do ponto de vista do experimentador, definir um observável significa especificar um método para medi-lo. Os observáveis ​​serão denotados pelos símbolos a, b, c, ... e por enquanto não faremos nenhuma suposição sobre sua natureza matemática (lembre-se que na mecânica clássica os observáveis ​​são funções no espaço de fase). O conjunto de observáveis, como antes, denotaremos por .

É razoável supor que as condições experimentais determinam pelo menos as distribuições probabilísticas dos resultados de medição de todos os observáveis, por isso é razoável manter a definição de um estado dada no § 2. Como antes, denotaremos os estados pelo observável a correspondente, a medida de probabilidade no eixo real, pela função de distribuição do observável a no estado por e, finalmente, o valor médio do observável a no estado por .

A teoria deve conter a definição de uma função do observável. Para o experimentador, a afirmação de que o b observado é uma função do observado a significa que para medir b, basta medir a, e se a medição do observado a resulta em um número, então o valor numérico do observado b é. Para as medidas de probabilidade e a correspondentes, temos a igualdade

para quaisquer estados.

Observe que todas as funções possíveis de um observável a são mensuráveis ​​simultaneamente, pois para medir esses observáveis ​​é suficiente medir o observável a. Mais tarde veremos que na mecânica quântica este exemplo esgota os casos de mensurabilidade simultânea de observáveis, ou seja, se os observáveis ​​são simultaneamente mensuráveis, então existe um tal observável e tais funções que .

Entre o conjunto de funções do observável a, obviamente, estão definidas , onde é um número real. A existência da primeira dessas funções mostra que observáveis ​​podem ser multiplicados por números reais. A afirmação de que um observável é uma constante implica que seu valor numérico em qualquer estado coincide com essa constante.

Vamos agora tentar descobrir que significado pode ser atribuído à soma e ao produto dos observáveis. Essas operações seriam definidas se tivéssemos uma definição de uma função de dois observáveis, mas aqui existem dificuldades fundamentais associadas à possibilidade da existência de observáveis ​​simultaneamente não mensuráveis. Se a e b

são mensuráveis ​​ao mesmo tempo, então a definição é completamente análoga à definição de . Para medir o observável, basta medir os observáveis ​​a e b, e tal medida levará a um valor numérico , onde estão os valores numéricos dos observáveis ​​a e b, respectivamente. Para o caso de imensuráveis ​​observados simultaneamente a e b, não há uma definição razoável da função . Essa circunstância nos obriga a abandonar a suposição de que os observáveis ​​são funções no espaço de fase, pois temos fundamentos físicos para considerar q e p simultaneamente imensuráveis ​​e procurar observáveis ​​entre objetos matemáticos de natureza diferente.

Vemos que é possível determinar a soma e o produto usando o conceito de função de dois observáveis ​​somente se eles forem mensuráveis ​​simultaneamente. No entanto, outra abordagem é possível, permitindo introduzir a soma no caso geral. Sabemos que todas as informações sobre estados e observáveis ​​são obtidas como resultado de medições, portanto, é razoável supor que existem estados suficientes para que os observáveis ​​possam ser distinguidos deles e, da mesma forma, existem observáveis ​​suficientes para que os estados possam ser distinguidos deles. .

Mais precisamente, assumimos que a partir da igualdade

válido para qualquer estado a, segue-se que os observáveis ​​a e b coincidem e da igualdade

válido para qualquer a observável, segue-se que os ESTADOS e coincidem.

A primeira das suposições feitas permite definir a soma dos observáveis ​​como tal observável para o qual a igualdade

em qualquer condição A. Observamos imediatamente que essa igualdade é uma expressão do bem conhecido teorema da teoria da probabilidade sobre o valor médio da soma apenas no caso em que a e b observados têm uma função de distribuição comum. Tal função de distribuição geral pode existir (e de fato existe na mecânica quântica) apenas para quantidades simultaneamente mensuráveis. Neste caso, a definição da soma pela fórmula (5) coincide com a feita anteriormente. Uma definição semelhante do produto é impossível, uma vez que a média do produto

não é igual ao produto das médias mesmo para observáveis ​​simultaneamente mensuráveis.

A definição da soma (5) não contém qualquer indicação do método de medição do observável de acordo com os métodos conhecidos de medição dos observáveis ​​aeb, e nesse sentido está implícito.

Para dar uma ideia de como o conceito de soma de observáveis ​​pode diferir do conceito usual de soma de variáveis ​​aleatórias, daremos um exemplo de um observável, que será estudado detalhadamente mais adiante. Deixe ser

O H observado (a energia de um oscilador harmônico unidimensional) é a soma de dois observáveis ​​proporcionais aos quadrados do momento e da coordenada. Veremos que esses últimos observáveis ​​podem assumir quaisquer valores numéricos não negativos, enquanto os valores do observável H devem corresponder aos números onde , ou seja, o H observado com valores numéricos discretos é a soma dos observáveis ​​com valores contínuos .

De fato, todas as nossas suposições se resumem ao fato de que, ao construir a mecânica quântica, é razoável preservar a estrutura da álgebra de observáveis ​​da mecânica clássica, mas devemos abandonar a implementação dessa álgebra por funções no espaço de fase, já que admitimos a existência de imensuráveis ​​simultaneamente observáveis.

Nossa tarefa imediata é verificar se existe uma realização da álgebra dos observáveis ​​que é diferente da realização da mecânica clássica. Na próxima seção, damos um exemplo de tal implementação construindo um modelo de dimensão finita da mecânica quântica. Neste modelo, a álgebra dos observáveis ​​é a álgebra dos operadores auto-adjuntos no espaço complexo dimensional. Ao estudar este modelo simplificado, poderemos traçar as principais características da teoria quântica. Ao mesmo tempo, depois de dar uma interpretação física do modelo construído, veremos que é muito pobre para corresponder à realidade. Portanto, o modelo de dimensão finita não pode ser considerado como a versão final da mecânica quântica. No entanto, a melhoria deste modelo, substituindo-o por um complexo espaço de Hilbert, parecerá bastante natural.

Mecânica quântica
Δ x ⋅ Δ p x ⩾ ℏ 2 (\displaystyle \Delta x\cdot \Delta p_(x)\geqslant (\frac (\hbar )(2)))
Introdução
Fundamentos Matemáticos
Veja também: Portal: Física

Mecânica quânticaé um ramo da física teórica que descreve fenômenos físicos em que a ação é comparável em magnitude à constante de Planck. As previsões da mecânica quântica podem diferir significativamente daquelas da mecânica clássica. Como a constante de Planck é uma quantidade extremamente pequena em comparação com a ação de objetos em movimento macroscópico, os efeitos quânticos aparecem principalmente em escalas microscópicas. Se a ação física do sistema é muito maior que a constante de Planck, a mecânica quântica entra organicamente na mecânica clássica. Por sua vez, a mecânica quântica é uma aproximação não relativística (isto é, uma aproximação de pequenas energias comparadas com a energia de repouso das partículas massivas do sistema) da teoria quântica de campos.

A mecânica clássica, que descreve bem os sistemas macroscópicos, não é capaz de descrever todos os fenômenos no nível de moléculas, átomos, elétrons e fótons. A mecânica quântica descreve adequadamente as propriedades básicas e o comportamento de átomos, íons, moléculas, matéria condensada e outros sistemas com estrutura elétron-nuclear. A mecânica quântica também é capaz de descrever: o comportamento de elétrons, fótons e outras partículas elementares, no entanto, uma descrição relativisticamente invariante mais precisa das transformações de partículas elementares é construída dentro da estrutura da teoria quântica de campos. Experimentos confirmam os resultados obtidos com a ajuda da mecânica quântica.

Os conceitos básicos da cinemática quântica são os conceitos de observável e estado.

As equações básicas da dinâmica quântica são a equação de Schrödinger, a equação de von Neumann, a equação de Lindblad, a equação de Heisenberg e a equação de Pauli.

As equações da mecânica quântica estão intimamente relacionadas a muitos ramos da matemática, entre os quais: teoria dos operadores, teoria das probabilidades, análise funcional, álgebras dos operadores, teoria dos grupos.

História

Em uma reunião da Sociedade Alemã de Física, Max Planck leu seu artigo histórico "Sobre a teoria da distribuição de energia de radiação no espectro normal", no qual ele introduziu a constante universal h (\displaystyle h). É a data deste evento, 14 de dezembro de 1900, que é frequentemente considerada o aniversário da teoria quântica.

Para explicar a estrutura do átomo, Niels Bohr propôs em 1913 a existência de estados estacionários do elétron, nos quais a energia pode assumir apenas valores discretos. Esta abordagem, desenvolvida por Arnold Sommerfeld e outros físicos, é muitas vezes referida como a velha teoria quântica (1900-1924). Uma característica distintiva da antiga teoria quântica é a combinação da teoria clássica com suposições adicionais que a contradizem.

  • Os estados puros do sistema são descritos por vetores diferentes de zero do espaço de Hilbert separável complexo H (\displaystyle H), e os vetores | ψ 1 ⟩ (\displaystyle |\psi _(1)\rangle ) e | ψ 2 ⟩ (\displaystyle |\psi _(2)\rangle ) descrever o mesmo estado se e somente se | ψ 2 ⟩ = c | ψ 1 ⟩ (\displaystyle |\psi _(2)\rangle =c|\psi _(1)\rangle ), Onde c (\displaystyle c)é um número complexo arbitrário.
  • Cada observável pode ser associado exclusivamente a um operador linear auto-adjunto. Ao medir o observado A ^ (\displaystyle (\hat(A))), em um estado limpo do sistema | ψ ⟩ (\displaystyle |\psi \rangle ) em média, o valor é igual a
⟨A⟩ = ⟨ψ | A ^ ψ ⟩ ⟨ ψ | ψ ⟩ = ⟨ ψ A ^ | ψ ⟩ ⟨ ψ | ψ ⟩ (\displaystyle \langle A\rangle =(\frac (\langle \psi |(\hat (A))\psi \rangle )(\langle \psi |\psi \rangle))=(\frac (\ langle \psi (\hat (A))|\psi \rangle )(\langle \psi |\psi \rangle )))

por onde ⟨ψ | ϕ ⟩ (\displaystyle \langle \psi |\phi \rangle ) denotado pelo produto escalar de vetores | ψ ⟩ (\displaystyle |\psi \rangle ) e | ϕ ⟩ (\displaystyle |\phi \rangle ).

  • A evolução de um estado puro de um sistema hamiltoniano é determinada pela equação de Schrödinger
i ℏ ∂ ∂ t | ψ ⟩ = H^ | ψ ⟩ (\displaystyle i\hbar (\frac (\partial )(\partial t))|\psi \rangle =(\hat (H))|\psi \rangle )

Onde H ^ (\displaystyle (\hat(H)))é o hamiltoniano.

As principais consequências dessas disposições são:

  • Ao medir qualquer observável quântico, é possível obter apenas uma série de seus valores fixos, iguais aos autovalores de seu operador - o observável.
  • Os observáveis ​​são simultaneamente mensuráveis ​​(não afetam os resultados de medição uns dos outros) se e somente se os operadores auto-adjuntos correspondentes forem permutáveis.

Essas disposições tornam possível criar um aparato matemático adequado para descrever uma ampla gama de problemas em mecânica quântica de sistemas hamiltonianos em estados puros. Nem todos os estados dos sistemas mecânicos quânticos, no entanto, são puros. No caso geral, o estado do sistema é misto e é descrito pela matriz densidade , para a qual é válida a generalização da equação de Schrödinger - a equação de von Neumann (para sistemas hamiltonianos). Uma generalização adicional da mecânica quântica para a dinâmica de sistemas quânticos abertos, não-hamiltonianos e dissipativos leva à equação de Lindblad.

Equação de Schrödinger estacionária

Seja a amplitude da probabilidade de encontrar uma partícula em um ponto M. A equação estacionária de Schrödinger nos permite determiná-la.
Função ψ (r →) (\displaystyle \psi ((\vec (r))))) satisfaz a equação:

− ℏ 2 2 m ∇ 2 ψ + U (r →) ψ = E ψ (\displaystyle -((\hbar )^(2) \over 2m)(\nabla )^(\,2)\psi +U( (\vec (r)))\psi =E\psi)

Onde ∇ 2 (\displaystyle (\nabla )^(\,2))é o operador de Laplace, e U = U (r →) (\displaystyle U=U((\vec (r)))))é a energia potencial da partícula em função de .

A solução desta equação é o principal problema da mecânica quântica. Vale ressaltar que a solução exata da equação estacionária de Schrödinger pode ser obtida apenas para alguns sistemas relativamente simples. Entre tais sistemas pode-se destacar o oscilador harmônico quântico e o átomo de hidrogênio. Para a maioria dos sistemas reais, vários métodos aproximados, como a teoria da perturbação, podem ser usados ​​para obter soluções.

Solução da equação estacionária

Sejam E e U duas constantes independentes de r → (\displaystyle (\vec (r))).
Escrevendo a equação estacionária como:

∇ 2 ψ (r →) + 2 m ℏ 2 (E − U) ψ (r →) = 0 (\displaystyle (\nabla )^(\,2)\psi ((\vec (r)))+( 2m \over (\hbar )^(2))(E-U)\psi ((\vec (r)))=0)
  • Se um E - U > 0, então:
ψ (r →) = A e − i k → ⋅ r → + B e i k → ⋅ r → (\displaystyle \psi ((\vec (r)))=Ae^(-i(\vec (k))\cdot (\vec (r)))+Be^(i(\vec (k))\cdot (\vec (r)))) Onde: k = 2 m (E − U) ℏ (\displaystyle k=(\frac (\sqrt (2m(E-U)))(\hbar )))- módulo do vetor de onda; A e B são duas constantes determinadas por condições de contorno.
  • Se um EU< 0 , então:
ψ (r →) = C e − k → ⋅ r → + D e k → ⋅ r → (\displaystyle \psi ((\vec (r)))=Ce^(-(\vec (k))\cdot ( \vec (r)))+De^((\vec (k))\cdot (\vec (r)))) Onde: k = 2 m (U − E) ℏ (\displaystyle k=(\frac (\sqrt (2m(U-E)))(\hbar )))- módulo do vetor de onda; C e D são duas constantes, também determinadas por condições de contorno.

Princípio da incerteza de Heisenberg

A relação de incerteza surge entre quaisquer observáveis ​​quânticos definidos por operadores não comutantes.

Incerteza entre posição e momento

Seja o desvio padrão da coordenada da partícula M (\displaystyle M) movendo-se ao longo do eixo x (\displaystyle x), e - desvio padrão de seu momento . Quantidades ∆ x (\displaystyle \Delta x) e ∆ p (\displaystyle \Delta p) estão relacionados pela seguinte desigualdade:

Δ x Δ p ⩾ ℏ 2 (\displaystyle \Delta x\Delta p\geqslant (\frac (\hbar )(2)))

Onde h (\displaystyle h)é a constante de Planck e ℏ = h 2 π . (\displaystyle \hbar =(\frac (h)(2\pi)).)

De acordo com a relação de incerteza, é impossível determinar com absoluta precisão as coordenadas e o momento de uma partícula. À medida que a precisão da medição da posição aumenta, a precisão máxima da medição do momento diminui e vice-versa. Aqueles parâmetros para os quais tal afirmação é verdadeira são chamados canonicamente conjugados.

Este centramento na dimensão, vindo de N. Bohr, é muito popular. No entanto, a relação de incerteza é derivada teoricamente dos postulados de Schrõdinger e Born e diz respeito não à medição, mas aos estados do objeto: ela afirma que para qualquer estado possível, as relações de incerteza correspondentes são válidas. Naturalmente, também será realizado para medições. Aqueles. em vez de "com o aumento da precisão da medição da coordenada, a precisão máxima da medição do momento diminui" deve-se dizer: "em estados onde a incerteza da coordenada é menor, a incerteza do momento é maior".

Incerteza entre energia e tempo

Deixe ser ∆ E (\displaystyle \Delta E)é o desvio quadrático médio ao medir a energia de um certo estado de um sistema quântico, e Δt (\displaystyle \Delta t)é o tempo de vida deste estado. Então vale a seguinte desigualdade,

Δ E Δ t ⩾ ℏ 2 . (\displaystyle \Delta E\Delta t\geqslant (\frac (\hbar )(2)).)

Em outras palavras, um estado que vive por pouco tempo não pode ter uma energia bem definida.

Ao mesmo tempo, embora a forma dessas duas relações de incerteza seja semelhante, sua natureza (física) é completamente diferente.

PLANO

INTRODUÇÃO 2

1. HISTÓRICO DA CRIAÇÃO DA MECÂNICA QUÂNTICA 5

2. O LUGAR DA MECÂNICA QUÂNTICA ENTRE OUTRAS CIÊNCIAS DO MOVIMENTO. quatorze

CONCLUSÃO 17

LITERATURA 18

Introdução

A mecânica quântica é uma teoria que estabelece o método de descrição e as leis do movimento de micropartículas (partículas elementares, átomos, moléculas, núcleos atômicos) e seus sistemas (por exemplo, cristais), bem como a relação de quantidades que caracterizam partículas e sistemas com grandezas físicas medidas diretamente em experimentos macroscópicos. As leis da mecânica quântica (doravante denominada mecânica quântica) formam a base para o estudo da estrutura da matéria. Eles tornaram possível elucidar a estrutura dos átomos, estabelecer a natureza da ligação química, explicar o sistema periódico dos elementos, compreender a estrutura dos núcleos atômicos e estudar as propriedades das partículas elementares.

Uma vez que as propriedades dos corpos macroscópicos são determinadas pelo movimento e interação das partículas que os compõem, as leis da mecânica quântica fundamentam a compreensão da maioria dos fenômenos macroscópicos. A mecânica quântica tornou possível, por exemplo, explicar a dependência da temperatura e calcular a capacidade calorífica de gases e sólidos, determinar a estrutura e compreender muitas propriedades dos sólidos (metais, dielétricos e semicondutores). Somente com base na mecânica quântica foi possível explicar consistentemente fenômenos como ferromagnetismo, superfluidez e supercondutividade, entender a natureza de objetos astrofísicos como anãs brancas e estrelas de nêutrons e elucidar o mecanismo das reações termonucleares no Sol e nas estrelas. estrelas. Existem também fenômenos (por exemplo, o efeito Josephson) em que as leis da mecânica quântica se manifestam diretamente no comportamento de objetos macroscópicos.

Assim, as leis da mecânica quântica fundamentam o funcionamento dos reatores nucleares, determinam a possibilidade de realizar reações termonucleares em condições terrestres, manifestam-se em vários fenômenos em metais e semicondutores usados ​​​​na tecnologia mais recente e assim por diante. A base de um campo da física em rápido desenvolvimento como a eletrônica quântica é a teoria mecânica quântica da radiação. As leis da mecânica quântica são usadas na busca intencional e na criação de novos materiais (especialmente materiais magnéticos, semicondutores e supercondutores). A mecânica quântica está se tornando em grande parte uma ciência de "engenharia", cujo conhecimento é necessário não apenas para físicos pesquisadores, mas também para engenheiros.

1. A história da criação da mecânica quântica

No início do século 20 dois grupos (aparentemente não relacionados) de fenômenos foram descobertos, indicando a inaplicabilidade da teoria clássica usual do campo eletromagnético (eletrodinâmica clássica) aos processos de interação da luz com a matéria e aos processos que ocorrem no átomo. O primeiro grupo de fenômenos estava associado ao estabelecimento pela experiência da natureza dual da luz (dualismo da luz); a segunda - com a impossibilidade de explicar com base em conceitos clássicos a existência estável do átomo, bem como os padrões espectrais descobertos no estudo da emissão de luz pelos átomos. O estabelecimento de uma conexão entre esses grupos de fenômenos e as tentativas de explicá-los com base em uma nova teoria levaram à descoberta das leis da mecânica quântica.

Pela primeira vez, representações quânticas (incluindo a constante quântica h) foram introduzidos na física no trabalho de M. Planck (1900), dedicado à teoria da radiação térmica.

A teoria da radiação térmica que existia naquela época, construída com base na eletrodinâmica clássica e na física estatística, levou a um resultado sem sentido, que consistia no fato de que o equilíbrio térmico (termodinâmico) entre radiação e matéria não pode ser alcançado, porque toda a energia deve, mais cedo ou mais tarde, transformar-se em radiação. Planck resolveu esta contradição e obteve resultados em perfeita concordância com a experiência, com base em uma hipótese extremamente ousada. Em contraste com a teoria clássica da radiação, que considera a emissão de ondas eletromagnéticas como um processo contínuo, Planck sugeriu que a luz é emitida em determinadas porções de energia - quanta. O valor desse quantum de energia depende da frequência da luz n e é igual a E=h n. A partir desta obra de Planck, podem ser traçadas duas linhas de desenvolvimento inter-relacionadas, culminando na formulação final de K. m. em suas duas formas (1927).

A primeira começa com o trabalho de Einstein (1905), no qual se deu a teoria do efeito fotoelétrico - o fenômeno de puxar elétrons da matéria pela luz.

Ao desenvolver a ideia de Planck, Einstein sugeriu que a luz não é apenas emitida e absorvida em porções discretas - quanta de radiação, mas a propagação da luz ocorre em tais quanta, ou seja, que a discrição é inerente à própria luz - que a própria luz consiste em porções separadas - quanta de luz ( que mais tarde foram chamados de fótons). Energia de fótons E está relacionado com a frequência de oscilação n da onda pela relação de Planck E= hn.

Mais uma prova da natureza corpuscular da luz foi obtida em 1922 por A. Compton, que mostrou experimentalmente que a dispersão da luz por elétrons livres ocorre de acordo com as leis de colisão elástica de duas partículas - um fóton e um elétron. A cinemática de tal colisão é determinada pelas leis de conservação de energia e momento, e o fóton, juntamente com a energia E= hn momento deve ser atribuído p = h / l = h n / c, Onde eu- o comprimento da onda de luz.

A energia e o momento de um fóton estão relacionados por E = cp , válido em mecânica relativista para uma partícula com massa zero. Assim, provou-se experimentalmente que, juntamente com as propriedades ondulatórias conhecidas (manifestadas, por exemplo, na difração da luz), a luz também possui propriedades corpusculares: consiste, por assim dizer, em partículas - fótons. Isso manifesta o dualismo da luz, sua natureza complexa de onda corpuscular.

O dualismo já está contido na fórmula E= hn, o que não permite escolher nenhum dos dois conceitos: no lado esquerdo da igualdade, a energia E refere-se à partícula e, à direita, a frequência n é a característica da onda. Surgiu uma contradição lógica formal: para explicar alguns fenômenos, era necessário supor que a luz tem natureza ondulatória e explicar outros - corpusculares. Em essência, a resolução dessa contradição levou à criação dos fundamentos físicos da mecânica quântica.

Em 1924, L. de Broglie, tentando encontrar uma explicação para as condições de quantização das órbitas atômicas postuladas em 1913 por N. Bohr, apresentou uma hipótese sobre a universalidade da dualidade onda-partícula. Segundo de Broglie, cada partícula, independentemente de sua natureza, deve estar associada a uma onda cujo comprimento eu relacionado com o momento da partícula R Razão. De acordo com essa hipótese, não apenas os fótons, mas também todas as “partículas ordinárias” (elétrons, prótons etc.) possuem propriedades ondulatórias, que, em particular, deveriam se manifestar no fenômeno da difração.

Em 1927, K. Davisson e L. Germer observaram pela primeira vez a difração de elétrons. Mais tarde, as propriedades das ondas foram descobertas em outras partículas, e a validade da fórmula de Broglie foi confirmada experimentalmente.

Em 1926, E. Schrödinger propôs uma equação descrevendo o comportamento de tais "ondas" em campos de força externos. Assim nasceu a mecânica ondulatória. A equação de onda de Schrödinger é a equação básica da mecânica quântica não relativística.

Em 1928, P. Dirac formulou uma equação relativística descrevendo o movimento de um elétron em um campo de força externo; A equação de Dirac tornou-se uma das equações fundamentais da mecânica quântica relativística.

A segunda linha de desenvolvimento começa com o trabalho de Einstein (1907) sobre a teoria da capacidade calorífica dos sólidos (é também uma generalização da hipótese de Planck). A radiação eletromagnética, que é um conjunto de ondas eletromagnéticas de diferentes frequências, é dinamicamente equivalente a um determinado conjunto de osciladores (sistemas oscilatórios). A emissão ou absorção de ondas é equivalente à excitação ou amortecimento dos osciladores correspondentes. O fato de a emissão e absorção de radiação eletromagnética pela matéria ocorrerem em quanta de energia h n. Einstein generalizou essa ideia de quantizar a energia de um oscilador de campo eletromagnético para um oscilador de natureza arbitrária. Como o movimento térmico dos sólidos é reduzido às vibrações dos átomos, então um corpo sólido é dinamicamente equivalente a um conjunto de osciladores. A energia de tais osciladores também é quantizada, ou seja, a diferença entre os níveis de energia vizinhos (as energias que um oscilador pode ter) deve ser igual a h n, onde n é a frequência de vibrações dos átomos.

A teoria de Einstein, refinada por P. Debye, M. Born e T. Karman, desempenhou um papel destacado no desenvolvimento da teoria dos sólidos.

Em 1913, N. Bohr aplicou a ideia de quantização de energia à teoria da estrutura do átomo, cujo modelo planetário seguiu os resultados dos experimentos de E. Rutherford (1911). Segundo este modelo, no centro do átomo existe um núcleo carregado positivamente, no qual se concentra quase toda a massa do átomo; Elétrons carregados negativamente giram em torno do núcleo.

A consideração de tal movimento com base em conceitos clássicos levou a um resultado paradoxal - a impossibilidade de uma existência estável de átomos: de acordo com a eletrodinâmica clássica, um elétron não pode se mover de forma estável em órbita, pois uma carga elétrica rotativa deve irradiar ondas eletromagnéticas e, portanto, perder energia. O raio de sua órbita deve diminuir e em um tempo de cerca de 10-8 segundos o elétron deve cair sobre o núcleo. Isso significava que as leis da física clássica não são aplicáveis ​​ao movimento dos elétrons em um átomo, uma vez que átomos existem e são extremamente estáveis.

Para explicar a estabilidade dos átomos, Bohr sugeriu que de todas as órbitas permitidas pela mecânica newtoniana para o movimento de um elétron no campo elétrico de um núcleo atômico, apenas aquelas que satisfazem certas condições de quantização são realmente realizadas. Ou seja, existem níveis discretos de energia no átomo (como em um oscilador).

Esses níveis seguem um certo padrão, deduzido por Bohr com base em uma combinação das leis da mecânica newtoniana com condições de quantização que exigem que a magnitude da ação para a órbita clássica seja um múltiplo inteiro da constante de Planck.

Bohr postulou que, estando em um determinado nível de energia (ou seja, realizando o movimento orbital permitido pelas condições de quantização), o elétron não emite ondas de luz.

A radiação ocorre apenas quando um elétron se move de uma órbita para outra, ou seja, de um nível de energia E i , para outro com menos energia E k , neste caso, nasce um quantum de luz com uma energia igual à diferença das energias dos níveis entre os quais se realiza a transição:

h n= E eu- E k. (1)

É assim que surge o espectro de linhas - a principal característica dos espectros atômicos, Bohr recebeu a fórmula correta para as frequências das linhas espectrais do átomo de hidrogênio (e átomos semelhantes ao hidrogênio), abrangendo um conjunto de fórmulas empíricas previamente descobertas.

A existência de níveis de energia nos átomos foi diretamente confirmada por experimentos de Frank-Hertz (1913-14). Descobriu-se que os elétrons que bombardeiam um gás perdem apenas certas porções de energia quando colidem com os átomos, igual à diferença nos níveis de energia do átomo.

N. Bohr, usando a constante quântica h, refletindo o dualismo da luz, mostrou que essa quantidade também determina o movimento dos elétrons em um átomo (e que as leis desse movimento diferem significativamente das leis da mecânica clássica). Este fato foi posteriormente explicado com base na universalidade da dualidade onda-partícula contida na hipótese de Broglie. O sucesso da teoria de Bohr, como os sucessos anteriores da teoria quântica, foi alcançado pela violação da integridade lógica da teoria: por um lado, a mecânica newtoniana foi usada, por outro, estavam envolvidas regras de quantização artificial estranhas a ela, que , além disso, contradizia a eletrodinâmica clássica. Além disso, a teoria de Bohr foi incapaz de explicar o movimento dos elétrons em átomos complexos, o surgimento de ligações moleculares.

A teoria "semi-clássica" de Bohr também não poderia responder à questão de como um elétron se move durante a transição de um nível de energia para outro.

O desenvolvimento ainda mais intenso de questões da teoria do átomo levou à convicção de que, mantendo a imagem clássica do movimento de um elétron em órbita, é impossível construir uma teoria logicamente coerente.

A constatação do fato de que o movimento dos elétrons em um átomo não é descrito em termos (conceitos) da mecânica clássica (como movimento ao longo de uma certa trajetória), levou à ideia de que a questão do movimento de um elétron entre níveis é incompatível com a natureza das leis que determinam o comportamento dos elétrons em um átomo, e que é necessária uma nova teoria, que inclua apenas quantidades relacionadas aos estados estacionários inicial e final do átomo.

Em 1925, W. Heisenberg conseguiu construir tal esquema formal no qual, em vez das coordenadas e velocidades de um elétron, apareceram algumas grandezas algébricas abstratas - matrizes; a relação de matrizes com quantidades observáveis ​​(níveis de energia e intensidades de transições quânticas) foi dada por regras simples e consistentes. O trabalho de Heisenberg foi desenvolvido por M. Born e P. Jordan. Foi assim que surgiu a mecânica matricial. Logo após o surgimento da equação de Schrödinger, foi mostrada a equivalência matemática da onda (baseada na equação de Schrödinger) e da mecânica matricial. Em 1926, M. Born deu uma interpretação probabilística das ondas de Broglie (veja abaixo).

Um papel importante na criação da mecânica quântica foi desempenhado pelos trabalhos de Dirac que datam da mesma época. A formação final da mecânica quântica como uma teoria física consistente com fundamentos claros e um aparato matemático coerente ocorreu após o trabalho de Heisenberg (1927), no qual a relação de incerteza foi formulada - a relação mais importante que ilumina o significado físico das equações da mecânica quântica, sua conexão com a mecânica clássica e outras questões de princípio, bem como resultados qualitativos da mecânica quântica. Este trabalho foi continuado e resumido nos escritos de Bohr e Heisenberg.

Uma análise detalhada dos espectros de átomos levou à representação (introduzida pela primeira vez por J. Yu. Uhlenbeck e S. Goudsmit e desenvolvida por W. Pauli) que o elétron, além de carga e massa, deve ser atribuído a mais uma característica interna (número quântico) - rodar.

Um papel importante foi desempenhado pelo chamado princípio de exclusão descoberto por W. Pauli (1925), que é de fundamental importância na teoria do átomo, molécula, núcleo e estado sólido.

Em pouco tempo, a mecânica quântica foi aplicada com sucesso a uma ampla gama de fenômenos. Foram criadas teorias de espectros atômicos, a estrutura das moléculas, ligações químicas, o sistema periódico de D. I. Mendeleev, condutividade metálica e ferromagnetismo. Esses e muitos outros fenômenos tornaram-se (pelo menos qualitativamente) compreensíveis.

A formação da mecânica quântica como uma teoria consistente com fundamentos físicos específicos está amplamente associada ao trabalho de W. Heisenberg, no qual ele formulou relação de incerteza (princípio). Essa posição fundamental da mecânica quântica revela o significado físico de suas equações e também determina sua conexão com a mecânica clássica.

Princípio da incerteza postulados: um objeto do microcosmo não pode estar em estados em que as coordenadas de seu centro de inércia e momento assumem simultaneamente valores bem definidos e exatos.

Quantitativamente, este princípio é formulado da seguinte forma. Se um ∆x é a incerteza do valor da coordenada x , uma ∆p é a incerteza do momento, então o produto dessas incertezas não pode ser menor que a constante de Planck em ordem de grandeza:

x p h.

Segue-se do princípio da incerteza que quanto mais precisamente uma das quantidades incluídas na desigualdade for determinada, menos precisamente será determinado o valor da outra. Nenhum experimento pode medir simultaneamente com precisão essas variáveis ​​dinâmicas, e isso não se deve à influência dos instrumentos de medição ou suas imperfeições. A relação de incerteza reflete as propriedades objetivas do micromundo, decorrentes de seu dualismo corpuscular-onda.

O fato de o mesmo objeto se manifestar tanto como partícula quanto como onda destrói as ideias tradicionais, priva a descrição dos processos da visibilidade usual. O conceito de partícula implica um objeto encerrado em uma pequena região do espaço, enquanto uma onda se propaga em suas regiões estendidas. É impossível imaginar um objeto que possua essas qualidades ao mesmo tempo, e não se deve tentar. É impossível construir um modelo que seja ilustrativo para o pensamento humano e que seja adequado ao micromundo. As equações da mecânica quântica, no entanto, não estabelecem tal objetivo. Seu significado está em uma descrição matematicamente adequada das propriedades dos objetos do micromundo e dos processos que ocorrem com eles.

Se falamos sobre a conexão entre a mecânica quântica e a mecânica clássica, então a relação de incerteza é uma limitação quântica da aplicabilidade da mecânica clássica a objetos do micromundo. Estritamente falando, a relação de incerteza se aplica a qualquer sistema físico, no entanto, como a natureza ondulatória dos macroobjetos praticamente não se manifesta, as coordenadas e o momento de tais objetos podem ser medidos simultaneamente com uma precisão suficientemente alta. Isso significa que é bastante suficiente usar as leis da mecânica clássica para descrever seu movimento. Lembre-se de que a situação é semelhante na mecânica relativística (relatividade especial): em velocidades muito inferiores à velocidade da luz, as correções relativísticas tornam-se insignificantes e as transformações de Lorentz se transformam em transformações galileanas.

Assim, a relação de incerteza para coordenadas e momento reflete o dualismo corpuscular-onda do micromundo e não está relacionado com a influência de dispositivos de medição. Um significado um pouco diferente tem uma relação de incerteza semelhante para energiaE e Tempot :

E t h.

Segue-se disso que a energia do sistema pode ser medida apenas com uma precisão que não excede h /∆ t, Onde t – duração da medição. A razão para tal incerteza está no próprio processo de interação do sistema (microobjeto) comequipamento de medição. Para uma situação estacionária, a desigualdade acima significa que a energia de interação entre o dispositivo de medição e o sistema só pode ser considerada com uma precisão de h /∆t. No caso limite da medição instantânea, a troca de energia que ocorre acaba sendo completamente indeterminada.

Se sob E é entendida como a incerteza do valor da energia do estado não estacionário, então t é um tempo característico durante o qual os valores das quantidades físicas no sistema mudam significativamente. Disto, em particular, decorre uma importante conclusão sobre os estados excitados dos átomos e outros microssistemas: a energia de um nível excitado não pode ser estritamente determinada, o que indica a presença largura natural este nível.

As propriedades objetivas dos sistemas quânticos refletem outra posição fundamental da mecânica quântica - Princípio da complementaridade de Bohr, Através do qual A obtenção de informações sobre algumas grandezas físicas que descrevem um microobjeto por qualquer meio experimental está inevitavelmente associada à perda de informações sobre outras grandezas adicionais às primeiras..

Mutuamente complementares são, em particular, a coordenada da partícula e seu momento (veja acima - o princípio da incerteza), energia cinética e potencial, intensidade do campo elétrico e o número de fótons.

Os princípios fundamentais considerados da mecânica quântica indicam que, devido ao dualismo corpuscular-onda do micromundo por ela estudado, o determinismo da física clássica lhe é estranho. Um afastamento completo da modelagem visual de processos dá particular interesse à questão de qual é a natureza física das ondas de Broglie. Ao responder a essa pergunta, costuma-se "partir" do comportamento dos fótons. Sabe-se que quando um feixe de luz passa por uma placa translúcida S parte da luz passa por ele e parte é refletida (Fig. 4).

Arroz. 4

O que então acontece com os fótons individuais? Experimentos com feixes de luz de intensidade muito baixa usando tecnologia moderna ( MAS- um detector de fótons), que permite monitorar o comportamento de cada fóton (o chamado modo de contagem de fótons), mostram que não se pode falar em dividir um fóton individual (caso contrário, a luz mudaria sua frequência). Está estabelecido de forma confiável que alguns fótons passam pela placa e alguns são refletidos por ela. Significa que as mesmas partículasnas mesmas condições podem se comportar de forma diferente,ou seja, o comportamento de um fóton individual quando encontra a superfície da placa não pode ser previsto de forma inequívoca.

A reflexão de um fóton de uma placa ou a passagem por ela são eventos aleatórios. E os padrões quantitativos de tais eventos são descritos com a ajuda da teoria da probabilidade. Um fóton pode com probabilidade W 1 passar pela placa e com probabilidade W 2 refletir dela. A probabilidade de que um desses dois eventos alternativos aconteça com um fóton é igual à soma das probabilidades: W 1 +w 2 = 1.

Experimentos semelhantes com um feixe de elétrons ou outras micropartículas também mostram a natureza probabilística do comportamento de partículas individuais. Por isso, o problema da mecânica quântica pode ser formulado como uma previsãoprobabilidades de processos no micromundo, em contraste com o problema da mecânica clássica - prever a confiabilidade dos eventos no macrocosmo.

Sabe-se, no entanto, que a descrição probabilística também é usada na física estatística clássica. Então, qual é a diferença fundamental? Para responder a essa pergunta, vamos complicar o experimento sobre a reflexão da luz. Com um espelho S 2 vire o feixe refletido colocando o detector UMA, registrando fótons na zona de sua supressão com o feixe transmitido, ou seja, forneceremos as condições para o experimento de interferência (Fig. 5).

Arroz. 5

Como resultado da interferência, a intensidade da luz, dependendo da localização do espelho e do detector, mudará periodicamente ao longo da seção transversal da região de sobreposição do feixe em uma ampla faixa (incluindo o desaparecimento). Como os fótons individuais se comportam neste experimento? Acontece que neste caso os dois caminhos ópticos para o detector não são mais alternativos (mutuamente exclusivos) e, portanto, é impossível dizer por qual caminho o fóton passou da fonte para o detector. Temos que admitir que ele pode atingir o detector simultaneamente de duas maneiras, resultando em um padrão de interferência. A experiência com outras micropartículas dá um resultado semelhante: partículas que passam sucessivamente criam o mesmo padrão de um fluxo de fótons.

Essa já é uma diferença fundamental em relação às ideias clássicas: afinal, é impossível imaginar o movimento de uma partícula simultaneamente ao longo de dois caminhos diferentes. No entanto, a mecânica quântica não apresenta tal problema. Ele prevê o resultado de que as bandas brilhantes correspondem a uma alta probabilidade do aparecimento de um fóton.

A óptica ondulatória explica facilmente o resultado de um experimento de interferência com a ajuda do princípio da superposição, segundo o qual as ondas de luz são adicionadas levando em consideração a proporção de suas fases. Em outras palavras, as ondas são primeiro somadas em amplitude, levando em consideração a diferença de fase, forma-se uma distribuição periódica de amplitude e, em seguida, o detector registra a intensidade correspondente (que corresponde à operação matemática do módulo quadrado, ou seja, há um perda de informação sobre a distribuição de fases). Neste caso, a distribuição de intensidade é periódica:

eu = eu 1 + eu 2 + 2 UMA 1 UMA 2 porque (φ 1 – φ 2 ),

Onde MAS , φ , EU = | UMA | 2 amplitude,fase e intensidade ondas, respectivamente, e os índices 1, 2 indicam sua pertença à primeira ou segunda dessas ondas. É claro que ao MAS 1 = MAS 2 e porque(φ 1 φ 2 ) = – 1 valor de intensidade EU = 0 , que corresponde ao amortecimento mútuo das ondas de luz (com sua superposição e interação em amplitude).

Para interpretar os fenômenos ondulatórios do ponto de vista corpuscular, o princípio da superposição é transferido para a mecânica quântica, ou seja, o conceito é introduzido amplitudes de probabilidade – por analogia com ondas ópticas: Ψ = MAS exp ( ). Isso significa que a probabilidade é o quadrado desse valor (módulo), ou seja, C = |Ψ| 2 .A amplitude de probabilidade é chamada em mecânica quântica função de onda . Este conceito foi introduzido em 1926 pelo físico alemão M. Born, dando assim interpretação probabilística ondas de Broglie. Satisfazer o princípio da superposição significa que se Ψ 1 e Ψ 2 são as amplitudes de probabilidade para a passagem da partícula no primeiro e segundo caminhos, então a amplitude de probabilidade para a passagem de ambos os caminhos deve ser: Ψ = Ψ 1 + Ψ 2 . Então, formalmente, a afirmação de que “a partícula foi em dois sentidos” adquire um significado de onda, e a probabilidade C = |Ψ 1 + Ψ 2 | 2 exibe a propriedade distribuição de interferência.

Por isso, a quantidade que descreve o estado de um sistema físico na mecânica quântica é a função de onda do sistema sob a suposição de que o princípio da superposição é válido. Com relação à função de onda, escreve-se a equação básica da mecânica ondulatória - a equação de Schrödinger. Portanto, um dos principais problemas da mecânica quântica é encontrar a função de onda correspondente a um dado estado do sistema em estudo.

É essencial que a descrição do estado de uma partícula com o auxílio da função de onda seja de natureza probabilística, pois o quadrado do módulo da função de onda determina a probabilidade de encontrar uma partícula em um determinado momento em um determinado volume limitado. Nesta teoria quântica difere fundamentalmente da física clássica com seu determinismo.

Ao mesmo tempo, a mecânica clássica deveu sua marcha triunfante à alta precisão de prever o comportamento dos macroobjetos. Naturalmente, entre os cientistas por muito tempo havia uma opinião de que o progresso da física e da ciência em geral estaria inseparavelmente ligado a um aumento na precisão e confiabilidade de tais previsões. O princípio da incerteza e a natureza probabilística da descrição de microssistemas na mecânica quântica mudaram radicalmente esse ponto de vista.

Então outros extremos começaram a aparecer. Uma vez que decorre do princípio da incerteza impossibilidade de simultaneidadedeterminando a posição e o momento, podemos concluir que o estado do sistema no momento inicial não é exatamente determinado e, portanto, os estados subsequentes não podem ser previstos, ou seja, princípio da causalidade.

No entanto, tal afirmação só é possível com uma visão clássica da realidade não clássica. Na mecânica quântica, o estado de uma partícula é completamente determinado pela função de onda. Seu valor, definido para um determinado momento, determina seus valores subsequentes. Como a causalidade atua como uma das manifestações do determinismo, é conveniente no caso da mecânica quântica falar de determinismo probabilístico baseado em leis estatísticas, ou seja, quanto maior a precisão, mais eventos do mesmo tipo são registrados. Portanto, o conceito moderno de determinismo pressupõe uma combinação orgânica, uma unidade dialética necessidade e chance.

O desenvolvimento da mecânica quântica teve, assim, uma influência marcante no progresso do pensamento filosófico. Do ponto de vista epistemológico, de particular interesse é o já mencionado princípio de conformidade, formulado por N. Bohr em 1923, segundo o qual qualquer teoria nova, mais geral, que seja um desenvolvimento da clássica, não a rejeita completamente, mas inclui a teoria clássica, indicando os limites de sua aplicabilidade e passando a ela em certos casos limites.

É fácil ver que o princípio da correspondência ilustra perfeitamente a relação da mecânica clássica e da eletrodinâmica com a teoria da relatividade e a mecânica quântica.