Elementos da teoria da representação teoria quântica. Teoria quântica

Este aparente colapso induzido pela medição da função de onda tem sido a fonte de muitas dificuldades conceituais na mecânica quântica. Antes do colapso, não há como saber com certeza onde o fóton irá parar; pode estar em qualquer lugar com uma probabilidade diferente de zero. Não há como traçar o caminho de um fóton da fonte até o detector. O fóton é irreal no sentido de que um avião voando de São Francisco a Nova York é real.

Werner Heisenberg, entre outros, interpretou essa matemática como significando que a realidade não existe até que seja observada. “A ideia de um mundo real objetivo, cujas menores partículas existem objetivamente no mesmo sentido que pedras ou árvores existem, quer as observemos ou não, é impossível”, escreveu ele. John Wheeler também usou uma variante do experimento da dupla fenda para afirmar que "nenhum fenômeno quântico elementar é um fenômeno até que seja um fenômeno registrado ("observável", "certamente registrado").

Mas a teoria quântica não dá absolutamente nenhuma pista sobre o que conta como uma "medição". Simplesmente postula que o dispositivo de medição deve ser clássico, sem especificar onde está essa linha entre o clássico e o quântico, e deixando a porta aberta para aqueles que acreditam que o colapso causa a consciência humana. Em maio passado, Henry Stapp e seus colegas afirmaram que o experimento da fenda dupla e suas variantes atuais sugerem que "um observador consciente pode ser necessário" para entender o reino quântico e que o mundo material é baseado em uma mente transpessoal.

Mas esses experimentos não são uma prova empírica de tais afirmações. No experimento de dupla fenda realizado com fótons únicos, só se pode testar as previsões probabilísticas da matemática. Se as probabilidades surgirem no processo de enviar dezenas de milhares de fótons idênticos através da fenda dupla, a teoria diz que a função de onda de cada fóton entrou em colapso - graças a um processo vagamente definido chamado medição. Isso é tudo.

Além disso, existem outras interpretações do experimento da dupla fenda. Tomemos, por exemplo, a teoria de de Broglie-Bohm, que afirma que a realidade é tanto uma onda quanto uma partícula. Um fóton vai para uma fenda dupla com determinada posição a qualquer momento e passa por uma fenda ou outra; portanto, cada fóton tem uma trajetória. Ele passa pela onda piloto, que entra pelas duas fendas, interfere e depois direciona o fóton para o local da interferência construtiva.

Em 1979, Chris Dewdney e seus colegas do Brickbeck College, em Londres, modelaram a previsão dessa teoria das trajetórias das partículas que passariam pela fenda dupla. Ao longo da última década, os experimentadores confirmaram que tais trajetórias existem, embora usando a controversa técnica das chamadas medições fracas. Embora controversos, experimentos mostraram que a teoria de Broglie-Bohm ainda é capaz de explicar o comportamento do mundo quântico.

Mais importante ainda, esta teoria não precisa de observadores, medições ou consciência imaterial.

Nem as chamadas teorias do colapso, das quais se conclui que as funções de onda colapsam aleatoriamente: quanto maior o número de partículas em um sistema quântico, mais provável é o colapso. Os observadores simplesmente registram o resultado. A equipe de Markus Arndt da Universidade de Viena, na Áustria, testou essas teorias enviando moléculas cada vez maiores através da dupla fenda. As teorias do colapso preveem que, quando partículas de matéria se tornam mais massivas do que um certo limiar, elas não podem mais permanecer em uma superposição quântica e passar por ambas as fendas ao mesmo tempo, e isso destrói o padrão de interferência. A equipe de Arndt enviou uma molécula de 800 átomos através de uma fenda dupla e ainda viu a interferência. A pesquisa de limite continua.

Roger Penrose tinha sua própria versão da teoria do colapso, na qual quanto maior a massa de um objeto em superposição, mais rápido ele colapsa para um estado ou outro devido a instabilidades gravitacionais. Novamente, esta teoria não requer um observador ou qualquer consciência. Dirk Boumeester, da Universidade da Califórnia em Santa Bárbara, testa a ideia de Penrose com uma versão do experimento da fenda dupla.

Conceitualmente, a ideia não é apenas colocar um fóton em uma superposição de passar por duas fendas ao mesmo tempo, mas também colocar uma das fendas em uma superposição e fazê-la estar em dois lugares ao mesmo tempo. De acordo com Penrose, a lacuna substituída permanecerá em superposição ou entrará em colapso com o fóton em voo, resultando em diferentes padrões de interferência. Este colapso dependerá da massa das ranhuras. Bowmeister vem trabalhando neste experimento há dez anos e pode em breve confirmar ou refutar as alegações de Penrose.

De qualquer forma, esses experimentos mostram que ainda não podemos fazer declarações sobre a natureza da realidade, mesmo que essas declarações sejam bem fundamentadas matematicamente ou filosoficamente. E dado que neurocientistas e filósofos da mente não podem concordar sobre a natureza da consciência, a alegação de que ela leva ao colapso da função de onda é, na melhor das hipóteses, prematura e, na pior, enganosa.

E qual é a sua opinião? conte em nosso

A física é a mais misteriosa de todas as ciências. A física nos dá uma compreensão do mundo ao nosso redor. As leis da física são absolutas e se aplicam a todos, sem exceção, independentemente da pessoa e do status social.

Este artigo destina-se a maiores de 18 anos.

Você já tem mais de 18 anos?

Descobertas fundamentais em física quântica

Isaac Newton, Nikola Tesla, Albert Einstein e muitos outros são os grandes guias da humanidade no maravilhoso mundo da física, que, como profetas, revelaram à humanidade os maiores segredos do universo e a capacidade de controlar os fenômenos físicos. Suas cabeças brilhantes cortavam a escuridão da ignorância da maioria irracional e, como uma estrela guia, mostravam o caminho para a humanidade na escuridão da noite. Um desses condutores no mundo da física foi Max Planck, o pai da física quântica.

Max Planck não é apenas o fundador da física quântica, mas também o autor da mundialmente famosa teoria quântica. A teoria quântica é o componente mais importante da física quântica. Em termos simples, esta teoria descreve o movimento, comportamento e interação das micropartículas. O fundador da física quântica também nos trouxe muitos outros trabalhos científicos que se tornaram os pilares da física moderna:

  • teoria da radiação térmica;
  • teoria da relatividade especial;
  • investigação na área da termodinâmica;
  • pesquisa na área de óptica.

A teoria da física quântica sobre o comportamento e interação das micropartículas tornou-se a base para a física da matéria condensada, física de partículas elementares e física de alta energia. A teoria quântica nos explica a essência de muitos fenômenos do nosso mundo - desde o funcionamento dos computadores eletrônicos até a estrutura e o comportamento dos corpos celestes. Max Planck, o criador desta teoria, graças à sua descoberta permitiu-nos compreender a verdadeira essência de muitas coisas ao nível das partículas elementares. Mas a criação dessa teoria está longe de ser o único mérito do cientista. Ele foi o primeiro a descobrir a lei fundamental do universo - a lei da conservação da energia. A contribuição para a ciência de Max Planck é difícil de superestimar. Em suma, suas descobertas são inestimáveis ​​para física, química, história, metodologia e filosofia.

teoria quântica de campo

Em poucas palavras, a teoria quântica de campos é uma teoria da descrição de micropartículas, bem como seu comportamento no espaço, interação entre si e transformações mútuas. Essa teoria estuda o comportamento de sistemas quânticos dentro dos chamados graus de liberdade. Este nome bonito e romântico não diz nada para muitos de nós. Para dummies, graus de liberdade são o número de coordenadas independentes que são necessárias para indicar o movimento de um sistema mecânico. Em termos simples, os graus de liberdade são características do movimento. Descobertas interessantes no campo da interação de partículas elementares foram feitas por Steven Weinberg. Ele descobriu a chamada corrente neutra - o princípio da interação entre quarks e léptons, pelo qual recebeu o Prêmio Nobel em 1979.

A Teoria Quântica de Max Planck

Nos anos noventa do século XVIII, o físico alemão Max Planck iniciou o estudo da radiação térmica e acabou recebendo uma fórmula para a distribuição de energia. A hipótese quântica, que nasceu no decorrer desses estudos, marcou o início da física quântica, assim como a teoria quântica de campos, descoberta no ano 1900. A teoria quântica de Planck é que durante a radiação térmica, a energia produzida é emitida e absorvida não constantemente, mas episodicamente, quanticamente. O ano de 1900, graças a esta descoberta feita por Max Planck, tornou-se o ano do nascimento da mecânica quântica. Também vale a pena mencionar a fórmula de Planck. Em suma, sua essência é a seguinte - é baseada na proporção da temperatura corporal e sua radiação.

Teoria da mecânica quântica da estrutura do átomo

A teoria da mecânica quântica da estrutura do átomo é uma das teorias básicas dos conceitos da física quântica e, de fato, da física em geral. Essa teoria nos permite entender a estrutura de tudo o que é material e abre o véu do segredo sobre em que as coisas realmente consistem. E as conclusões baseadas nesta teoria são muito inesperadas. Considere brevemente a estrutura do átomo. Então, do que um átomo é realmente feito? Um átomo consiste em um núcleo e uma nuvem de elétrons. A base do átomo, seu núcleo, contém quase toda a massa do próprio átomo - mais de 99%. O núcleo sempre tem uma carga positiva e determina o elemento químico do qual o átomo faz parte. A coisa mais interessante sobre o núcleo de um átomo é que ele contém quase toda a massa do átomo, mas ao mesmo tempo ocupa apenas um décimo de milésimo de seu volume. O que se segue disso? E a conclusão é muito inesperada. Isso significa que a matéria densa no átomo é apenas um décimo de milésimo. E o que dizer de todo o resto? Tudo o mais no átomo é uma nuvem de elétrons.

A nuvem de elétrons não é uma substância permanente e nem mesmo material. Uma nuvem de elétrons é apenas a probabilidade de elétrons aparecerem em um átomo. Ou seja, o núcleo ocupa apenas um décimo de milésimo no átomo, e todo o resto é vazio. E se levarmos em conta que todos os objetos ao nosso redor, de partículas de poeira a corpos celestes, planetas e estrelas, consistem em átomos, verifica-se que todo material é na verdade mais de 99% de vazio. Essa teoria parece completamente inacreditável, e seu autor, no mínimo, uma pessoa iludida, porque as coisas que existem ao redor têm uma consistência sólida, têm peso e podem ser sentidas. Como pode consistir em vazio? Um erro se infiltrou nessa teoria da estrutura da matéria? Mas não há erro aqui.

Todas as coisas materiais parecem densas apenas devido à interação entre os átomos. As coisas têm uma consistência sólida e densa apenas devido à atração ou repulsão entre os átomos. Isso garante a densidade e a dureza da rede cristalina dos produtos químicos, dos quais consiste todo o material. Mas, um ponto interessante, ao mudar, por exemplo, as condições de temperatura do ambiente, as ligações entre os átomos, ou seja, sua atração e repulsão, podem enfraquecer, o que leva ao enfraquecimento da rede cristalina e até mesmo à sua destruição. Isso explica a mudança nas propriedades físicas das substâncias quando aquecidas. Por exemplo, quando o ferro é aquecido, torna-se líquido e pode ser moldado em qualquer formato. E quando o gelo derrete, a destruição da rede cristalina leva a uma mudança no estado da matéria, e ela passa de sólido para líquido. Estes são exemplos claros do enfraquecimento das ligações entre os átomos e, como resultado, o enfraquecimento ou destruição da rede cristalina, e permitem que a substância se torne amorfa. E a razão de tais metamorfoses misteriosas é precisamente que as substâncias consistem em matéria densa apenas por um décimo de milésimo, e todo o resto é vazio.

E as substâncias parecem ser sólidas apenas por causa das fortes ligações entre os átomos, com o enfraquecimento dos quais, a substância muda. Assim, a teoria quântica da estrutura do átomo nos permite ter uma visão completamente diferente do mundo ao nosso redor.

O fundador da teoria do átomo, Niels Bohr, apresentou um conceito interessante de que os elétrons no átomo não irradiam energia constantemente, mas apenas no momento de transição entre as trajetórias de seu movimento. A teoria de Bohr ajudou a explicar muitos processos intra-atômicos e também fez um avanço na ciência da química, explicando o limite da tabela criada por Mendeleev. Segundo , o último elemento que pode existir no tempo e no espaço tem o número de série cento e trinta e sete, e elementos a partir de cento e trigésimo oitavo não podem existir, pois sua existência contraria a teoria da relatividade. Além disso, a teoria de Bohr explicava a natureza de tal fenômeno físico como espectros atômicos.

Estes são os espectros de interação de átomos livres que surgem quando a energia é emitida entre eles. Tais fenômenos são típicos para substâncias gasosas, vaporosas e substâncias no estado de plasma. Assim, a teoria quântica fez uma revolução no mundo da física e permitiu que os cientistas avançassem não apenas no campo dessa ciência, mas também no campo de muitas ciências afins: química, termodinâmica, óptica e filosofia. E também permitiu à humanidade penetrar nos segredos da natureza das coisas.

Ainda há muito a ser feito pela humanidade em sua consciência para perceber a natureza dos átomos, entender os princípios de seu comportamento e interação. Tendo entendido isso, seremos capazes de entender a natureza do mundo ao nosso redor, porque tudo o que nos rodeia, começando com partículas de poeira e terminando com o próprio sol, e nós mesmos - tudo consiste em átomos, cuja natureza é misteriosa e incrível e repleto de muitos segredos.

TEORIA QUÂNTICA

TEORIA QUÂNTICA

teoria, cujos fundamentos foram lançados em 1900 pelo físico Max Planck. De acordo com essa teoria, os átomos sempre emitem ou recebem energia do raio apenas em porções, de forma descontínua, a saber, certos quanta (quanta de energia), cujo valor de energia é igual à frequência de oscilação (velocidade da luz dividida pelo comprimento de onda) do tipo correspondente de radiação, multiplicado pela ação Planck (ver . Constante, Microfísica. assim como Mecânica quântica). O quântico foi colocado (Ch. O. Einstein) na base da teoria quântica da luz (teoria corpuscular da luz), segundo a qual a luz também consiste em quanta que se movem à velocidade da luz (quanta de luz, fótons).

Dicionário Enciclopédico Filosófico. 2010 .


Veja o que é "TEORIA QUANTUM" em outros dicionários:

    Tem as seguintes subseções (a lista está incompleta): Mecânica quântica Teoria quântica algébrica Teoria quântica de campos Eletrodinâmica quântica Cromodinâmica quântica Termodinâmica quântica Gravidade quântica Teoria das supercordas Veja também ... ... Wikipedia

    A TEORIA QUÂNTICA, uma teoria que, em combinação com a teoria da RELATIVIDADE, formou a base para o desenvolvimento da física ao longo de todo o século XX. Descreve a relação entre SUBSTÂNCIA e ENERGIA no nível de PARTÍCULAS ELEMENTARES ou subatômicas, bem como ... ... Dicionário enciclopédico científico e técnico

    teoria quântica- Outra forma de pesquisa é o estudo da interação da matéria e da radiação. O termo "quântico" está associado ao nome de M. Planck (1858 1947). Este é o problema do “corpo negro” (um conceito matemático abstrato para um objeto que acumula toda a energia... A filosofia ocidental desde suas origens até os dias atuais

    Combina mecânica quântica, estatística quântica e teoria quântica de campos... Grande Dicionário Enciclopédico

    Combina mecânica quântica, estatística quântica e teoria quântica de campos. * * * TEORIA QUÂNTICA A TEORIA QUÂNTICA combina a mecânica quântica (ver MECÂNICA QUÂNTICA), estatística quântica (ver ESTATÍSTICAS QUÂNTICAS) e teoria quântica de campos ... ... dicionário enciclopédico

    teoria quântica- kvantinė teorija statusas T sritis fizika atitikmenys: angl. teoria quântica v. Quantentheorie, f rus. teoria quântica, fpranc. theorie des quanta, f; theorie quantique, f … Fizikos terminų žodynas

    Física uma teoria que combina mecânica quântica, estatística quântica e teoria quântica de campos. Isso é baseado na ideia de uma estrutura discreta (descontínua) de radiação. De acordo com K. t., qualquer sistema atômico pode ser em certas, ... ... Ciência natural. dicionário enciclopédico

    A teoria quântica de campos é a teoria quântica de sistemas com um número infinito de graus de liberdade (campos físicos). A mecânica quântica, que surgiu como uma generalização da mecânica quântica (ver mecânica quântica) em conexão com o problema da descrição ... ... Grande Enciclopédia Soviética

    - (KFT), quantum relativista. teoria da física. sistemas com um número infinito de graus de liberdade. Um exemplo de tal sistema de e-mail. magn. campo, para uma descrição completa da buzina a qualquer momento, é necessária a atribuição de forças elétricas. e magn. campos em cada ponto... Enciclopédia Física

    TEORIA DO CAMPO QUÂNTICO. Conteúdo: 1. Campos quânticos ................... 3002. Campos livres e dualidade onda-partícula .... 3013. Interação campos.........3024. Teoria da perturbação .............. 3035. Divergências e ... ... Enciclopédia Física

Livros

  • Teoria quântica
  • Teoria Quântica, Bohm D. O livro apresenta sistematicamente a mecânica quântica não relativística. O autor analisa em detalhes o conteúdo físico e examina em detalhes o aparato matemático de um dos mais importantes ...
  • Teoria quântica de campos Surgimento e desenvolvimento Conhecimento de uma das teorias físicas mais matemáticas e abstratas Edição 124 , Grigoriev V.. A teoria quântica é a mais geral e profunda das teorias físicas modernas. Sobre como as ideias físicas sobre a matéria mudaram, como surgiu a mecânica quântica e depois a mecânica quântica...

a) Antecedentes da teoria quântica

No final do século 19, foi revelado o fracasso das tentativas de criar uma teoria da radiação do corpo negro baseada nas leis da física clássica. Das leis da física clássica, segue-se que uma substância deve emitir ondas eletromagnéticas a qualquer temperatura, perder energia e baixar a temperatura para zero absoluto. Em outras palavras. o equilíbrio térmico entre matéria e radiação era impossível. Mas isso estava em desacordo com a experiência cotidiana.

Isso pode ser explicado com mais detalhes a seguir. Existe o conceito de corpo completamente negro - um corpo que absorve radiação eletromagnética de qualquer comprimento de onda. Seu espectro de emissão é determinado por sua temperatura. Não existem corpos absolutamente negros na natureza. Um corpo completamente preto corresponde com mais precisão a um corpo oco opaco fechado com um orifício. Qualquer pedaço de matéria brilha quando aquecido e, com um aumento adicional de temperatura, torna-se primeiro vermelho e depois branco. A cor da substância quase não depende, para um corpo completamente preto é determinada apenas por sua temperatura. Imagine uma cavidade assim fechada, que é mantida a uma temperatura constante e que contém corpos materiais capazes de emitir e absorver radiação. Se a temperatura desses corpos no momento inicial diferir da temperatura da cavidade, então ao longo do tempo o sistema (cavidade mais corpos) tenderá ao equilíbrio termodinâmico, que é caracterizado por um equilíbrio entre a energia absorvida e medida por unidade de tempo. G. Kirchhoff estabeleceu que este estado de equilíbrio é caracterizado por uma certa distribuição espectral da densidade de energia da radiação contida na cavidade, e também que a função que determina a distribuição espectral (a função de Kirchhoff) depende da temperatura da cavidade e não depende do tamanho da cavidade ou da sua forma, nem das propriedades dos corpos materiais nela colocados. Como a função de Kirchhoff é universal, ou seja, é o mesmo para qualquer corpo negro, então surgiu a suposição de que sua forma é determinada por algumas disposições da termodinâmica e eletrodinâmica. No entanto, tentativas desse tipo se mostraram insustentáveis. Decorreu da lei de D. Rayleigh que a densidade espectral da energia de radiação deveria aumentar monotonamente com o aumento da frequência, mas o experimento testemunhou o contrário: a princípio, a densidade espectral aumentou com o aumento da frequência e depois caiu. Resolver o problema da radiação do corpo negro exigia uma abordagem fundamentalmente nova. Foi encontrado por M.Planck.

Planck em 1900 formulou um postulado segundo o qual uma substância pode emitir energia de radiação apenas em porções finitas proporcionais à frequência dessa radiação (veja a seção "O Surgimento da Física Atômica e Nuclear"). Este conceito levou a uma mudança nas disposições tradicionais subjacentes à física clássica. A existência de uma ação discreta indicou a relação entre a localização de um objeto no espaço e no tempo e seu estado dinâmico. L. de Broglie enfatizou que "do ponto de vista da física clássica, essa conexão parece completamente inexplicável e muito mais incompreensível em termos das consequências a que leva, do que a conexão entre variáveis ​​espaciais e tempo, estabelecida pela teoria da relatividade ." O conceito quântico no desenvolvimento da física estava destinado a desempenhar um papel enorme.

O próximo passo no desenvolvimento do conceito quântico foi a expansão da hipótese de Planck por A. Einstein, que lhe permitiu explicar as leis do efeito fotoelétrico que não se encaixavam no arcabouço da teoria clássica. A essência do efeito fotoelétrico é a emissão de elétrons rápidos por uma substância sob a influência da radiação eletromagnética. A energia dos elétrons emitidos não depende da intensidade da radiação absorvida e é determinada por sua frequência e pelas propriedades da substância dada, mas o número de elétrons emitidos depende da intensidade da radiação. Não foi possível explicar o mecanismo dos elétrons liberados, pois, de acordo com a teoria ondulatória, uma onda de luz, incidente sobre um elétron, transfere energia continuamente para ele, e sua quantidade por unidade de tempo deve ser proporcional a a intensidade da onda incidente sobre ele. Einstein em 1905 sugeriu que o efeito fotoelétrico atesta a estrutura discreta da luz, ou seja, que a energia eletromagnética irradiada se propaga e é absorvida como uma partícula (mais tarde chamada de fóton). A intensidade da luz incidente é então determinada pelo número de quanta de luz caindo em um centímetro quadrado do plano iluminado por segundo. Daí o número de fótons que são emitidos por uma unidade de superfície por unidade de tempo. deve ser proporcional à intensidade da luz. Experimentos repetidos confirmaram essa explicação de Einstein, não apenas com a luz, mas também com raios-x e raios gama. O efeito A. Compton, descoberto em 1923, deu novas evidências da existência de fótons - foi descoberto o espalhamento elástico de radiação eletromagnética de pequenos comprimentos de onda (raios-X e radiação gama) em elétrons livres, que é acompanhado por um aumento no comprimento de onda. De acordo com a teoria clássica, o comprimento de onda não deve mudar durante tal espalhamento. O efeito Compton confirmou a correção das ideias quânticas sobre a radiação eletromagnética como um fluxo de fótons - pode ser considerado como uma colisão elástica de um fóton e um elétron, na qual o fóton transfere parte de sua energia para o elétron e, portanto, sua frequência diminui e o comprimento de onda aumenta.

Houve outras confirmações do conceito de fóton. A teoria do átomo de N. Bohr (1913) mostrou-se especialmente frutífera, revelando a conexão entre a estrutura da matéria e a existência dos quanta e estabelecendo que a energia dos movimentos intra-atômicos também pode mudar apenas abruptamente. Assim, ocorreu o reconhecimento da natureza discreta da luz. Mas, em essência, foi um renascimento do conceito corpuscular de luz anteriormente rejeitado. Portanto, muito naturalmente, surgiram problemas: como combinar a discrição da estrutura da luz com a teoria ondulatória (especialmente porque a teoria ondulatória da luz foi confirmada por vários experimentos), como combinar a existência de um quantum de luz com a fenômeno de interferência, como explicar os fenômenos de interferência do ponto de vista do conceito quântico? Assim, surgiu a necessidade de um conceito que ligasse os aspectos corpuscular e ondulatório da radiação.

b) O princípio da conformidade

Para eliminar a dificuldade que surgiu ao usar a física clássica para justificar a estabilidade dos átomos (lembre-se de que a perda de energia por um elétron leva à sua queda no núcleo), Bohr assumiu que um átomo em estado estacionário não irradia (veja a seção anterior). Isso significava que a teoria eletromagnética da radiação não era adequada para descrever elétrons movendo-se ao longo de órbitas estáveis. Mas o conceito quântico do átomo, tendo abandonado o conceito eletromagnético, não poderia explicar as propriedades da radiação. A tarefa surgiu: tentar estabelecer uma certa correspondência entre os fenômenos quânticos e as equações da eletrodinâmica para entender por que a teoria eletromagnética clássica fornece uma descrição correta dos fenômenos de grande escala. Na teoria clássica, um elétron movendo-se em um átomo emite luz contínua e simultaneamente de diferentes frequências. Na teoria quântica, pelo contrário, um elétron localizado dentro de um átomo em uma órbita estacionária não irradia - a radiação de um quantum ocorre apenas no momento da transição de uma órbita para outra, ou seja, a emissão de linhas espectrais de um determinado elemento é um processo discreto. Assim, há duas visões completamente diferentes. Eles podem ser harmonizados e, em caso afirmativo, de que forma?

É óbvio que a correspondência com a imagem clássica só é possível se todas as linhas espectrais forem emitidas simultaneamente. Ao mesmo tempo, é óbvio que, do ponto de vista quântico, a emissão de cada quantum é um ato individual e, portanto, para obter a emissão simultânea de todas as linhas espectrais, é necessário considerar todo um grande conjunto de átomos da mesma natureza, em que ocorrem várias transições individuais, levando à emissão de várias linhas espectrais de um determinado elemento. Neste caso, o conceito de intensidade das várias linhas do espectro deve ser representado estatisticamente. Para determinar a intensidade da radiação individual de um quantum, é necessário considerar um conjunto de um grande número de átomos idênticos. A teoria eletromagnética permite descrever os fenômenos macroscópicos e a teoria quântica dos fenômenos em que muitos quanta desempenham um papel importante. Portanto, é bastante provável que os resultados obtidos pela teoria quântica tendam a ser clássicos na região de muitos quanta. O acordo entre as teorias clássica e quântica deve ser buscado nesta área. Para calcular as frequências clássicas e quânticas, é necessário descobrir se essas frequências coincidem para estados estacionários que correspondem a grandes números quânticos. Bohr sugeriu que para um cálculo aproximado da intensidade e polarização reais, pode-se usar as estimativas clássicas de intensidades e polarizações, extrapolando para a região de pequenos números quânticos a correspondência que foi estabelecida para grandes números quânticos. Este princípio de correspondência foi confirmado: os resultados físicos da teoria quântica em grandes números quânticos devem coincidir com os resultados da mecânica clássica, e a mecânica relativística em baixas velocidades passa para a mecânica clássica. Uma formulação generalizada do princípio da correspondência pode ser expressa como a afirmação de que uma nova teoria que afirma ter um alcance mais amplo de aplicabilidade do que a antiga deve incluir esta última como um caso especial. O uso do princípio da correspondência e sua forma mais precisa contribuíram para a criação da mecânica quântica e ondulatória.

No final da primeira metade do século XX, dois conceitos surgiram nos estudos da natureza da luz - onda e corpuscular, que permaneceram incapazes de superar a lacuna que os separava. Havia uma necessidade urgente de criar um novo conceito, no qual as ideias quânticas deveriam formar sua base, e não funcionar como uma espécie de "complemento". A realização dessa necessidade foi realizada pela criação da mecânica ondulatória e da mecânica quântica, que constituíam essencialmente uma única nova teoria quântica - a diferença estava nas linguagens matemáticas utilizadas. A teoria quântica como uma teoria não relativista do movimento das micropartículas foi o conceito físico mais profundo e amplo que explica as propriedades dos corpos macroscópicos. Foi baseado na ideia de quantização de Planck-Einstein-Bohr e na hipótese de de Broglie sobre ondas de matéria.

c) Mecânica das ondas

Suas ideias principais surgiram em 1923-1924, quando L. de Broglie expressou a ideia de que o elétron também deve ter propriedades ondulatórias, inspirado na analogia com a luz. A essa altura, as idéias sobre a natureza discreta da radiação e a existência de fótons já haviam se tornado suficientemente fortes, portanto, para descrever completamente as propriedades da radiação, era necessário representá-la alternadamente como uma partícula ou como uma onda. . E como Einstein já havia demonstrado que o dualismo da radiação está associado à existência de quanta, era natural levantar a questão da possibilidade de detectar tal dualismo no comportamento de um elétron (e em geral de partículas materiais). A hipótese de De Broglie sobre as ondas de matéria foi confirmada pelo fenômeno da difração de elétrons descoberto em 1927: descobriu-se que um feixe de elétrons dá um padrão de difração. (Mais tarde, a difração também será encontrada em moléculas.)

Com base na ideia de ondas de matéria de de Broglie, E. Schrödinger em 1926 derivou a equação básica da mecânica (que ele chamou de equação de onda), que torna possível determinar os possíveis estados de um sistema quântico e sua mudança no tempo. A equação continha a chamada função de onda y (função psi) descrevendo a onda (no espaço de configuração abstrata). Schrödinger deu uma regra geral para converter essas equações clássicas em equações de onda, que se referem a um espaço de configuração multidimensional, e não a um tridimensional real. A função psi determinou a densidade de probabilidade de encontrar uma partícula em um determinado ponto. Dentro da estrutura da mecânica ondulatória, um átomo poderia ser representado como um núcleo cercado por uma peculiar nuvem de probabilidade. Usando a função psi, a probabilidade da presença de um elétron em uma determinada região do espaço é determinada.

d) Mecânica quântica (matriz).

Princípio da incerteza

Em 1926, W. Heisenberg desenvolve sua versão da teoria quântica na forma de mecânica matricial, partindo do princípio da correspondência. Diante do fato de que na transição do ponto de vista clássico para o quântico é necessário decompor todas as grandezas físicas e reduzi-las a um conjunto de elementos individuais correspondentes a várias transições possíveis de um átomo quântico, ele passou a representar cada característica física de um sistema quântico com uma tabela de números (matriz). Ao mesmo tempo, ele foi conscientemente guiado pelo objetivo de construir um conceito fenomenológico para dele excluir tudo o que não pode ser observado diretamente. Nesse caso, não há necessidade de introduzir na teoria a posição, velocidade ou trajetória dos elétrons no átomo, pois não podemos medir nem observar essas características. Apenas as grandezas que estão associadas a estados estacionários realmente observados, transições entre eles e a radiação que os acompanha devem ser introduzidas nos cálculos. Nas matrizes, os elementos estavam dispostos em linhas e colunas, e cada um deles possuía dois índices, um dos quais correspondia ao número da coluna e o outro ao número da linha. Elementos diagonais (isto é, elementos cujos índices coincidem) descrevem um estado estacionário, e elementos fora da diagonal (elementos com índices diferentes) descrevem transições de um estado estacionário para outro. O valor desses elementos está associado aos valores que caracterizam a radiação durante essas transições, obtidos usando o princípio da correspondência. Foi assim que Heisenberg construiu uma teoria matricial, cujas quantidades todas deveriam descrever apenas os fenômenos observados. E embora a presença no aparato de sua teoria de matrizes representando as coordenadas e momentos dos elétrons nos átomos deixe dúvidas sobre a exclusão completa de quantidades não observáveis, Heisenbert conseguiu criar um novo conceito quântico, que constituiu um novo passo no desenvolvimento da ciência quântica. teoria, cuja essência é substituir as quantidades físicas que ocorrem na teoria atômica, matrizes - tabelas de números. Os resultados obtidos pelos métodos utilizados na mecânica ondulatória e matricial revelaram-se os mesmos, de modo que ambos os conceitos são incluídos na teoria quântica unificada como equivalentes. Os métodos da mecânica matricial, devido à sua maior compacidade, muitas vezes levam aos resultados desejados mais rapidamente. Os métodos da mecânica ondulatória são considerados mais de acordo com o modo de pensar dos físicos e sua intuição. A maioria dos físicos usa o método das ondas em seus cálculos e usa funções de onda.

Heisenberg formulou o princípio da incerteza, segundo o qual as coordenadas e o momento não podem assumir simultaneamente valores exatos. Para prever a posição e a velocidade de uma partícula, é importante ser capaz de medir com precisão sua posição e velocidade. Nesse caso, quanto mais precisamente a posição da partícula (suas coordenadas) for medida, menos precisas serão as medições de velocidade.

Embora a radiação luminosa seja constituída de ondas, porém, de acordo com a ideia de Planck, a luz se comporta como uma partícula, pois sua radiação e absorção são realizadas na forma de quanta. O princípio da incerteza, no entanto, indica que as partículas podem se comportar como ondas - elas são, por assim dizer, "manchadas" no espaço, então podemos falar não sobre suas coordenadas exatas, mas apenas sobre a probabilidade de sua detecção em um determinado espaço. Assim, a mecânica quântica corrige o dualismo corpuscular-onda - em alguns casos é mais conveniente considerar partículas como ondas, em outros, ao contrário, ondas como partículas. A interferência pode ser observada entre duas ondas de partículas. Se as cristas e vales de uma onda coincidem com os vales de outra onda, então eles se cancelam, e se as cristas e vales de uma onda coincidem com as cristas e vales de outra onda, então eles se reforçam.

e) Interpretações da teoria quântica.

Princípio da complementaridade

O surgimento e o desenvolvimento da teoria quântica levaram a uma mudança nas ideias clássicas sobre a estrutura da matéria, movimento, causalidade, espaço, tempo, a natureza da cognição, etc., o que contribuiu para uma transformação radical da imagem do mundo. A compreensão clássica de uma partícula material foi caracterizada por sua separação nítida do ambiente, a posse de seu próprio movimento e localização no espaço. Na teoria quântica, uma partícula passou a ser representada como uma parte funcional do sistema em que está incluída, que não possui tanto coordenadas quanto momento. Na teoria clássica, o movimento era considerado como a transferência de uma partícula, que permanece idêntica a si mesma, ao longo de uma determinada trajetória. A natureza dual do movimento da partícula exigia a rejeição de tal representação do movimento. O determinismo clássico (dinâmico) deu lugar ao determinismo probabilístico (estatístico). Se antes o todo era entendido como a soma de suas partes constituintes, então a teoria quântica revelava a dependência das propriedades de uma partícula do sistema em que ela está incluída. A compreensão clássica do processo cognitivo estava associada ao conhecimento de um objeto material como existente em si mesmo. A teoria quântica tem demonstrado a dependência do conhecimento sobre um objeto em procedimentos de pesquisa. Se a teoria clássica afirmava ser completa, então a teoria quântica se desenvolveu desde o início como incompleta, baseada em várias hipóteses, cujo significado estava longe de ser claro no início e, portanto, suas principais disposições receberam interpretações diferentes, interpretações diferentes .

Discordâncias surgiram principalmente sobre o significado físico da dualidade das micropartículas. De Broglie apresentou pela primeira vez o conceito de uma onda piloto, segundo a qual uma onda e uma partícula coexistem, a onda conduz a partícula. Uma formação material real que mantém sua estabilidade é uma partícula, pois é precisamente ela que possui energia e momento. A onda que transporta a partícula controla a natureza do movimento da partícula. A amplitude da onda em cada ponto no espaço determina a probabilidade de localização da partícula próximo a este ponto. Schrödinger resolve essencialmente o problema da dualidade de uma partícula removendo-a. Para ele, a partícula atua como uma formação puramente ondulatória. Em outras palavras, a partícula é o lugar da onda, no qual se concentra a maior energia da onda. As interpretações de de Broglie e Schrõdinger eram essencialmente tentativas de criar modelos visuais no espírito da física clássica. No entanto, isso acabou sendo impossível.

Heisenberg propôs uma interpretação da teoria quântica, procedendo (como mostrado anteriormente) do fato de que a física deveria usar apenas conceitos e quantidades baseadas em medições. Heisenberg, portanto, abandonou a representação visual do movimento de um elétron em um átomo. Dispositivos macro não podem dar uma descrição do movimento de uma partícula com fixação simultânea do momento e coordenadas (ou seja, no sentido clássico) devido à controlabilidade fundamentalmente incompleta da interação do dispositivo com a partícula - devido à relação de incerteza, o a medição da quantidade de movimento não permite determinar as coordenadas e vice-versa. Em outras palavras, devido à imprecisão fundamental das medições, as previsões da teoria só podem ser de natureza probabilística, e a probabilidade é uma consequência da incompletude fundamental da informação sobre o movimento de uma partícula. Essa circunstância levou à conclusão sobre o colapso do princípio da causalidade no sentido clássico, que pressupunha a previsão de valores exatos de momento e posição. No quadro da teoria quântica, portanto, não estamos falando de erros de observação ou experimento, mas de uma falta fundamental de conhecimento, que é expressa usando a função de probabilidade.

A interpretação de Heisenberg da teoria quântica foi desenvolvida por Bohr e foi chamada de interpretação de Copenhague. No quadro desta interpretação, a principal disposição da teoria quântica é o princípio da complementaridade, o que significa a exigência de usar classes mutuamente exclusivas de conceitos, dispositivos e procedimentos de pesquisa que são usados ​​em suas condições específicas e se complementam para obter uma imagem holística do objeto em estudo no processo de cognição. Este princípio é uma reminiscência da relação de incerteza de Heisenberg. Se estamos falando sobre a definição de momento e coordenada como procedimentos de pesquisa mutuamente exclusivos e complementares, então há motivos para identificar esses princípios. No entanto, o significado do princípio da complementaridade é mais amplo do que as relações de incerteza. Para explicar a estabilidade do átomo, Bohr combinou ideias clássicas e quânticas sobre o movimento de um elétron em um modelo. O princípio da complementaridade, portanto, permitia que as representações clássicas fossem complementadas com as quânticas. Tendo revelado o oposto das propriedades ondulatórias e corpusculares da luz e não encontrando sua unidade, Bohr se inclinou para a ideia de dois, equivalentes entre si, métodos de descrição - onda e corpuscular - com sua combinação posterior. Portanto, é mais correto dizer que o princípio da complementaridade é o desenvolvimento da relação de incerteza, expressando a relação de coordenada e momento.

Vários cientistas interpretaram a violação do princípio do determinismo clássico dentro da estrutura da teoria quântica em favor do indeternismo. De fato, aqui o princípio do determinismo mudou de forma. Dentro da estrutura da física clássica, se no momento inicial são conhecidas as posições e o estado de movimento dos elementos do sistema, é possível prever completamente sua posição em qualquer momento futuro. Todos os sistemas macroscópicos estavam sujeitos a este princípio. Mesmo naqueles casos em que era necessário introduzir probabilidades, sempre se assumiu que todos os processos elementares são estritamente determinísticos e que apenas seu grande número e comportamento desordenado faz com que se recorra a métodos estatísticos. Na teoria quântica, a situação é fundamentalmente diferente. Para implementar os princípios de deternização, aqui é necessário conhecer as coordenadas e os momentos, e isso é proibido pela relação de incerteza. O uso da probabilidade aqui tem um significado diferente em comparação com a mecânica estatística: se na mecânica estatística as probabilidades eram usadas para descrever fenômenos de grande escala, então na teoria quântica, as probabilidades, ao contrário, são introduzidas para descrever os próprios processos elementares. Tudo isso significa que no mundo dos corpos em grande escala opera o princípio dinâmico da causalidade e no microcosmo - o princípio probabilístico da causalidade.

A interpretação de Copenhague pressupõe, por um lado, a descrição dos experimentos em termos da física clássica e, por outro, o reconhecimento desses conceitos como imprecisos que correspondem ao estado real das coisas. É essa inconsistência que determina a probabilidade da teoria quântica. Os conceitos da física clássica formam uma parte importante da linguagem natural. Se não usarmos esses conceitos para descrever nossos experimentos, não seremos capazes de nos entender.

O ideal da física clássica é a completa objetividade do conhecimento. Mas na cognição usamos instrumentos, e assim, como diz Heinzerberg, um elemento subjetivo é introduzido na descrição dos processos atômicos, já que o instrumento é criado pelo observador. "Devemos lembrar que o que observamos não é a natureza em si, mas a natureza que aparece como é revelada pela nossa maneira de fazer perguntas. O trabalho científico em física consiste em fazer perguntas sobre a natureza na linguagem que usamos e tentar obter uma resposta em um experimento realizado com os meios à nossa disposição. Isso traz à mente as palavras de Bohr sobre a teoria quântica: se buscamos a harmonia na vida, nunca devemos esquecer que no jogo da vida somos espectadores e participantes. é claro que em nossa atitude científica em relação à natureza, nossa própria atividade se torna importante onde temos que lidar com áreas da natureza que só podem ser penetradas pelos meios técnicos mais importantes "

As representações clássicas de espaço e tempo também se mostraram impossíveis de usar para descrever fenômenos atômicos. Aqui está o que outro criador da teoria quântica escreveu sobre isso: “A existência de um quantum de ação revelou uma conexão completamente imprevista entre geometria e dinâmica: acontece que a possibilidade de localizar processos físicos no espaço geométrico depende de seu estado dinâmico. a teoria da relatividade já nos ensinou a considerar as propriedades locais do espaço-tempo dependendo da distribuição da matéria no universo. No entanto, a existência de quanta requer uma transformação muito mais profunda e não nos permite mais representar o movimento de um objeto físico ao longo de uma certa linha no espaço-tempo (a linha do mundo). Agora é impossível determinar o estado de movimento, com base na curva que descreve as posições sucessivas de um objeto no espaço ao longo do tempo. Agora precisamos considerar o estado dinâmico não como uma consequência da localização espaço-temporal, mas como um aspecto independente e adicional da realidade física"

As discussões sobre o problema da interpretação da teoria quântica expuseram a questão do próprio status da teoria quântica - se é uma teoria completa do movimento de uma micropartícula. A questão foi formulada pela primeira vez desta forma por Einstein. Sua posição foi expressa no conceito de parâmetros ocultos. Einstein partiu do entendimento da teoria quântica como uma teoria estatística que descreve os padrões relacionados ao comportamento não de uma única partícula, mas de seu conjunto. Cada partícula é sempre estritamente localizada e simultaneamente possui certos valores de momento e posição. A relação de incerteza reflete não a estrutura real da realidade no nível dos microprocessos, mas a incompletude da teoria quântica - é só que em seu nível não somos capazes de medir simultaneamente o momento e a coordenada, embora eles realmente existam, mas como parâmetros ocultos ( escondido dentro da estrutura da teoria quântica). Einstein considerou incompleta a descrição do estado de uma partícula com a ajuda da função de onda e, portanto, apresentou a teoria quântica como uma teoria incompleta do movimento de uma micropartícula.

Bohr assumiu a posição oposta nesta discussão, partindo do reconhecimento da incerteza objetiva dos parâmetros dinâmicos de uma micropartícula como a razão da natureza estatística da teoria quântica. Em sua opinião, a negação de Einstein da existência de quantidades objetivamente incertas deixa sem explicação as características de onda inerentes a uma micropartícula. Bohr considerou impossível retornar aos conceitos clássicos do movimento de uma micropartícula.

Nos anos 50. No século 20, D.Bohm retornou ao conceito de de Broglie de um piloto de ondas, apresentando uma onda psi como um campo real associado a uma partícula. Os defensores da interpretação de Copenhague da teoria quântica e mesmo alguns de seus oponentes não apoiaram a posição de Bohm, porém, contribuiu para um estudo mais aprofundado do conceito de de Broglie: a partícula passou a ser considerada como uma formação especial que surge e se move no campo psi, mas mantém sua individualidade. Os trabalhos de P.Vigier, L.Yanoshi, que desenvolveu esse conceito, foram avaliados por muitos físicos como muito "clássicos".

Na literatura filosófica russa do período soviético, a interpretação de Copenhague da teoria quântica foi criticada pela "adesão às atitudes positivistas" na interpretação do processo de cognição. No entanto, vários autores defenderam a validade da interpretação de Copenhague da teoria quântica. A substituição do ideal clássico da cognição científica por um não clássico foi acompanhada pelo entendimento de que o observador, tentando construir uma imagem de um objeto, não pode se distrair do procedimento de medição, ou seja, o pesquisador não consegue medir os parâmetros do objeto em estudo como eram antes do procedimento de medição. W. Heisenberg, E. Schrödinger e P. Dirac colocam o princípio da incerteza na base da teoria quântica, na qual as partículas não têm mais momento e coordenadas definidas e mutuamente independentes. A teoria quântica introduziu assim um elemento de imprevisibilidade e aleatoriedade na ciência. E embora Einstein não pudesse concordar com isso, a mecânica quântica era consistente com o experimento e, portanto, tornou-se a base de muitas áreas do conhecimento.

f) Estatísticas quânticas

Simultaneamente com o desenvolvimento da mecânica ondulatória e quântica, outro componente da teoria quântica se desenvolveu - estatística quântica ou física estatística de sistemas quânticos que consistem em um grande número de partículas. Com base nas leis clássicas do movimento de partículas individuais, foi criada uma teoria do comportamento de seu agregado - estatística clássica. Da mesma forma, com base nas leis quânticas do movimento das partículas, foi criada a estatística quântica que descreve o comportamento dos macroobjetos nos casos em que as leis da mecânica clássica não são aplicáveis ​​para descrever o movimento de suas micropartículas constituintes - neste caso, as propriedades quânticas aparecem no propriedades dos macroobjetos. É importante ter em mente que o sistema neste caso é entendido apenas como partículas interagindo entre si. Ao mesmo tempo, um sistema quântico não pode ser considerado como uma coleção de partículas que retêm sua individualidade. Em outras palavras, a estatística quântica requer a rejeição da representação da distinção das partículas - isso é chamado de princípio da identidade. Na física atômica, duas partículas da mesma natureza eram consideradas idênticas. No entanto, essa identidade não foi reconhecida como absoluta. Assim, duas partículas da mesma natureza poderiam ser distinguidas pelo menos mentalmente.

Na estatística quântica, a capacidade de distinguir entre duas partículas da mesma natureza está completamente ausente. A estatística quântica procede do fato de que dois estados de um sistema, que diferem um do outro apenas por uma permutação de duas partículas da mesma natureza, são idênticos e indistinguíveis. Assim, a principal posição da estatística quântica é o princípio de identidade de partículas idênticas incluídas em um sistema quântico. É aqui que os sistemas quânticos diferem dos sistemas clássicos.

Na interação de uma micropartícula, um papel importante pertence ao spin - o momento intrínseco de momento da micropartícula. (Em 1925, D. Uhlenbeck e S. Goudsmit descobriram pela primeira vez a existência de um spin do elétron). O spin de elétrons, prótons, nêutrons, neutrinos e outras partículas é expresso como um valor meio inteiro; para fótons e mésons pi, como um valor inteiro (1 ou 0). Dependendo do spin, a micropartícula obedece a um dos dois tipos diferentes de estatísticas. Sistemas de partículas idênticas com spin inteiro (bósons) obedecem à estatística quântica de Bose-Einstein, cuja característica é que um número arbitrário de partículas pode estar em cada estado quântico. Este tipo de estatística foi proposto em 1924 por S. Bose e depois melhorado por Einstein). Em 1925, para partículas com spin semi-inteiro (férmions), E. Fermi e P. Dirac (independentemente um do outro) propuseram outro tipo de estática quântica, que recebeu o nome de Fermi-Dirac. Uma característica desse tipo de estática é que um número arbitrário de partículas pode estar em cada estado quântico. Esse requisito é chamado de princípio de exclusão de W. Pauli, descoberto em 1925. As estatísticas do primeiro tipo são confirmadas no estudo de objetos como um corpo absolutamente negro, o segundo tipo - gás de elétrons em metais, nucleons em núcleos atômicos , etc

O princípio de Pauli possibilitou explicar as regularidades no preenchimento de camadas com elétrons em átomos multielétrons, para justificar o sistema periódico de elementos de Mendeleev. Este princípio expressa uma propriedade específica das partículas que o obedecem. E agora é difícil entender por que duas partículas idênticas se proíbem mutuamente de ocupar o mesmo estado. Este tipo de interação não existe na mecânica clássica. Qual é a sua natureza física, quais são as fontes físicas da proibição - um problema à espera de ser resolvido. Uma coisa está clara hoje: uma interpretação física do princípio de exclusão dentro da estrutura da física clássica é impossível.

Uma importante conclusão da estatística quântica é a proposição de que uma partícula que entra em qualquer sistema não é idêntica à mesma partícula, mas que entra em um sistema de tipo diferente ou livre. Isso implica na importância da tarefa de identificar as especificidades do material portador de uma determinada propriedade dos sistemas.

g) Teoria quântica de campos

A teoria quântica de campos é uma extensão dos princípios quânticos para a descrição de campos físicos em suas interações e transformações mútuas. A mecânica quântica lida com a descrição de interações de energia relativamente baixa nas quais o número de partículas que interagem é conservado. Em altas energias de interação das partículas mais simples (elétrons, prótons, etc.), sua interconversão ocorre, ou seja, algumas partículas desaparecem, outras nascem e seu número muda. A maioria das partículas elementares são instáveis, decaem espontaneamente até que partículas estáveis ​​sejam formadas - prótons, elétrons, fótons e nêutrons. Em colisões de partículas elementares, se a energia das partículas em interação for grande o suficiente, há uma produção múltipla de partículas de diferentes espectros. Como a teoria quântica de campos se destina a descrever processos em altas energias, ela deve, portanto, satisfazer os requisitos da teoria da relatividade.

A moderna teoria quântica de campos inclui três tipos de interação de partículas elementares: interações fracas, que determinam principalmente o decaimento de partículas instáveis, fortes e eletromagnéticas, responsáveis ​​pela transformação das partículas durante sua colisão.

A teoria quântica de campos, que descreve a transformação de partículas elementares, ao contrário da mecânica quântica, que descreve seu movimento, não é consistente e completa, está cheia de dificuldades e contradições. A maneira mais radical de superá-los é considerada a criação de uma teoria de campo unificada, que deve ser baseada em uma lei unificada de interação da matéria primária - o espectro de massas e spins de todas as partículas elementares, bem como os valores das cargas das partículas, deve ser derivada da equação geral. Assim, pode-se dizer que a teoria quântica de campos estabelece a tarefa de desenvolver uma compreensão mais profunda da partícula elementar que surge devido ao campo de um sistema de outras partículas elementares.

A interação de um campo eletromagnético com partículas carregadas (principalmente elétrons, pósitrons, múons) é estudada pela eletrodinâmica quântica, que se baseia no conceito de discrição da radiação eletromagnética. O campo eletromagnético consiste em fótons com propriedades de onda corpuscular. A interação da radiação eletromagnética com partículas carregadas é considerada pela eletrodinâmica quântica como a absorção e emissão de fótons pelas partículas. Uma partícula pode emitir fótons e depois absorvê-los.

Assim, o afastamento da física quântica da física clássica é se recusar a descrever eventos individuais que ocorrem no espaço e no tempo e usar o método estatístico com suas ondas de probabilidade. O objetivo da física clássica é descrever objetos no espaço e no tempo e formar as leis que governam a mudança desses objetos no tempo. A física quântica, lidando com decaimento radioativo, difração, emissão de linhas espectrais e similares, não pode ser satisfeita com a abordagem clássica. Um julgamento como "tal e tal objeto tem tal e tal propriedade", que é característico da mecânica clássica, é substituído na física quântica por um julgamento como "tal e tal objeto tem tal e tal propriedade com tal e tal grau de probabilidade”. Assim, na física quântica existem leis que regem as mudanças na probabilidade ao longo do tempo, enquanto na física clássica estamos lidando com leis que regem as mudanças em um objeto individual ao longo do tempo. Diferentes realidades obedecem a diferentes leis.

A física quântica ocupa um lugar especial no desenvolvimento das ideias físicas e no estilo de pensamento em geral. Entre as maiores criações da mente humana está, sem dúvida, a teoria da relatividade - especial e geral, que é um novo sistema de ideias que uniu a mecânica, a eletrodinâmica e a teoria da gravidade e deu uma nova compreensão do espaço e do tempo. Mas era uma teoria que, em certo sentido, era a conclusão e a síntese da física do século XIX, ou seja, não significou uma ruptura completa com as teorias clássicas. A teoria quântica, por outro lado, rompeu com as tradições clássicas, criou uma nova linguagem e um novo estilo de pensamento que permite penetrar no microcosmo com seus estados de energia discretos e descrevê-lo introduzindo características que estavam ausentes na física clássica, que finalmente tornou possível entender a essência dos processos atômicos. Mas, ao mesmo tempo, a teoria quântica introduziu um elemento de imprevisibilidade e aleatoriedade na ciência, que é como ela difere da ciência clássica.

TEORIA DO CAMPO QUÂNTICO.

1. Campos quânticos......... 300

2. Campos livres e dualidade onda-partícula .............................. 301

3. Interação de campos.........302

4. Teoria das perturbações............... 303

5. Divergências e renormalizações......... 304

6. Assintótico UV e o grupo de renormalização .......... 304

7. Campos de calibração ....................... 305

8. O panorama geral ........... 307

9. Perspectivas e problemas......... 307

teoria quântica de campo(QFT) - teoria quântica de sistemas relativísticos com um número infinitamente grande de graus de liberdade (campos relativísticos), que é teórico. a base para descrever micropartículas, suas interações e transformações.

1. Campos quânticos Campo quântico (caso contrário - quantizado) é uma espécie de síntese dos conceitos do clássico. campos do tipo eletromagnético e o campo de probabilidades da mecânica quântica. De acordo com a moderna Segundo as noções, o campo quântico é a forma mais fundamental e universal da matéria subjacente a todas as suas manifestações concretas. A ideia de um clássico campo surgiu nas profundezas da teoria do eletromagnetismo Faraday - Maxwell e finalmente cristalizou no processo de criação de um especial. teoria da relatividade, que exigia o abandono da éter como um portador de material de e-magn. processos. Ao mesmo tempo, o campo tinha que ser considerado não uma forma de movimento para um -l. ambiente, mas específico. uma forma de matéria com propriedades muito incomuns. Ao contrário das partículas, o clássico o campo é continuamente criado e destruído (é emitido e absorvido por cargas), tem um número infinito de graus de liberdade e não está localizado em um determinado. pontos do espaço-tempo, mas pode se propagar nele, transmitindo um sinal (interação) de uma partícula para outra com uma velocidade finita não superior a Com. O surgimento de idéias quânticas levou a uma revisão do clássico. idéias sobre a continuidade do mecanismo de emissão ne à conclusão de que esses processos ocorrem discretamente - por emissão e absorção de quanta e-magn. campos - fótons. Surgiu contraditório do ponto de vista do clássico. imagem física quando com e-magn. fótons foram comparados com o campo e alguns fenômenos puderam ser interpretados apenas em termos de ondas, enquanto outros - apenas com a ajuda do conceito de quanta, chamado dualidade onda-partícula. Essa contradição foi resolvida a seguir. aplicação das idéias da mecânica quântica ao campo. Dinâmico variável el-magn. campos - potenciais MAS , j e força elétrica. e magn. Campos E , H - tornaram-se operadores quânticos, sujeitos a def. relações de permutação e agindo sobre a função de onda (amplitude, ou vetor de estado) sistemas. Assim, um novo físico objeto - um campo quântico que satisfaz as equações do clássico. , mas com seus próprios valores de mecânica quântica. operadores. A segunda fonte do conceito geral de um campo quântico foi a função de onda de uma partícula y ( x, t), que não é um físico independente. magnitude, e a amplitude do estado da partícula: a probabilidade de qualquer relacionado com a partícula física. as quantidades são expressas em termos de expressões que são bilineares em y. Assim, na mecânica quântica, um novo campo, o campo de amplitudes de probabilidade, acabou sendo associado a cada partícula material. A generalização relativista da função y levou P. A. M. Dirac (R. A. M. Dirac) a uma função de onda de quatro componentes do elétron y a (a = 1, 2, 3, 4), que é transformada de acordo com a representação do espinor Grupo Lorenz. Logo se percebeu que, em geral, cada departamento. uma micropartícula relativística deve estar associada a um campo local que implemente uma certa representação do grupo de Lorentz e tenha um físico. o significado da amplitude de probabilidade. Generalização para o caso de muitos partículas mostraram que se satisfazem o princípio da indistinguibilidade ( princípio de identidade), então para descrever todas as partículas, um campo no espaço-tempo quadridimensional é suficiente, que é um operador no sentido de . Isso é alcançado pela transição para uma nova mecânica quântica. representação - representação dos números de preenchimento (ou representação do secundário quantização). O campo do operador introduzido desta forma acaba por ser completamente análogo ao el-magn quantizado. campo, diferindo dele apenas na escolha da representação do grupo de Lorentz e, possivelmente, no método de quantização. Como e-mag. campo, um tal campo corresponde a todo o conjunto de partículas idênticas de um determinado tipo, por exemplo, um operador Campo de Dirac descreve todos os elétrons (e pósitrons!) do Universo. Assim, surge uma imagem universal da estrutura uniforme de toda a matéria. Para substituir os campos e partículas do clássico. físicos vêm nat unificado. os objetos são campos quânticos no espaço-tempo quadridimensional, um para cada tipo de partícula ou campo (clássico). Um ato elementar de qualquer interação torna-se a interação de vários. campos em um ponto no espaço-tempo, ou - em linguagem corpuscular - transformação local e instantânea de algumas partículas em outras. Clássico a interação na forma de forças atuando entre partículas acaba sendo um efeito secundário resultante da troca de quanta do campo que transfere a interação.
2. Campos livres e dualidade onda-partícula De acordo com o físico geral descrito acima. imagem de forma sistemática A apresentação do QFT pode ser iniciada a partir de representações de campo e corpusculares. Na abordagem de campo, deve-se primeiro construir uma teoria da teoria clássica correspondente. campo, então submetê-lo à quantização [semelhante à quantização de e-mag. campos por W. Heisenberg e W. Pauli] e, finalmente, desenvolver uma interpretação corpuscular para o campo quantizado resultante. O principal conceito inicial aqui será o campo e um(X) (índice uma enumera os componentes do campo) definido em cada ponto espaço-tempo x=(ct,x) e executando to-l. uma representação bastante simples do grupo Lorentz. A outra teoria é construída mais simplesmente com a ajuda de formalismo lagrangeano; escolha um local [ou seja, e. dependendo apenas dos componentes de campo e um(X) e suas primeiras derivadas d m e um(X)=du a /dx m = e um m ( X) (m=0, 1, 2, 3) em um ponto X] quadrático invariante de Poincaré (ver Grupo Poincaré) Lagrangiana L(x) = L(u a , q m você) e de princípio de ação mínimo obter as equações do movimento. Para uma Lagrangiana quadrática, eles são lineares - campos livres satisfazem o princípio da superposição. Em virtude de Teorema de Noether da invariância da ação S em relação a cada um parâmetro. grupo segue a conservação (independência do tempo) de um, explicitamente indicado pelo teorema, a função integral de e um e d m você. Como o próprio grupo de Poincaré é 10-paramétrico, QFT necessariamente retém 10 quantidades, que às vezes são chamadas de fundams. dinâmico quantidades: da invariância sob quatro deslocamentos no espaço-tempo quadridimensional segue a conservação dos quatro componentes do vetor energia-momento R m Mi = 1/2 E ijk M jk e três assim chamados. impulsiona N i = c - eu M 0eu(i, j, k = 1, 2, 3, E ijk- único tensor totalmente antisimétrico; índices de ocorrência dupla implicam soma). Com mãe. ponto de vista dez libras. valores - R m, Mi, N e- essência geradores de grupo Poincaré. Se a ação permanece invariável mesmo quando algumas outras transformações contínuas, não incluídas no grupo de Poincaré, são realizadas no campo em consideração - transformações do ext. simetria, - do teorema de Noether então a existência de nova dinâmica conservada. quantidades. Assim, muitas vezes assume-se que as funções de campo são complexas, e a condição de ser hermitiano é imposta ao lagrangeano (cf. operador eremita) e exigem a invariância da ação em relação ao transformação de calibre(fase a não depende de X) e um(X)""e eu uma e um(X), você* um(X)""e - eu uma você* um(X). Então acontece (como consequência do teorema de Noether) que a carga é conservada

Portanto, funções complexas e um pode ser usado para descrever a carga. Campos. O mesmo objetivo pode ser alcançado ampliando o leque de valores percorridos pelos índices uma, para que também indiquem a direção no isotópico. espaço, e exigindo que a ação seja invariável sob rotações nele. Observe que a carga Q não é necessariamente elétrica. carga, pode ser qualquer característica conservada do campo não relacionada ao grupo Poincaré, por exemplo, número lépton, estranheza, número bariônico etc. Quantização canônica, de acordo com os princípios gerais da mecânica quântica, é que as coordenadas generalizadas [i.e. e. (infinito) conjunto de valores de todos os componentes do campo você 1 , . . ., uN em todos os pontos x espaço em algum momento t(em uma apresentação mais sofisticada - em todos os pontos de alguma hipersuperfície espacial s] e os momentos generalizados p b(x, t)=dL/du b(x, t) são declarados como operadores que atuam na amplitude do estado (vetor de estado) do sistema, e as relações de comutação são impostas a eles:

além disso, os sinais "+" ou "-" correspondem à quantização de Fermi - Dirac ou Bose - Einstein (veja abaixo). Aqui d ab - Símbolo de Kronecker,d( x-y) - função delta Dirac. Devido ao papel diferenciado do tempo e ao inevitável recurso a um referencial específico, as relações de permutação (1) violam a simetria explícita do espaço e do tempo, e a preservação da invariância relativística requer especial. prova de. Além disso, as relações (1) não dizem nada sobre comutação. propriedades de campos em pares de pontos de espaço-tempo semelhantes ao tempo - os valores dos campos em tais pontos são causalmente dependentes e suas permutações só podem ser determinadas resolvendo as equações de movimento junto com (1). Para campos livres, para os quais as equações de movimento são lineares, tal problema é solucionável de forma geral e permite estabelecer - e, além disso, de forma relativisticamente simétrica - as relações de permutação dos campos em dois pontos arbitrários X e no.

Aqui D t - função de permutação Pauli - Jordan Satisfatório Klein - equação de Gordon P ab- um polinômio que garante a satisfação do lado direito (2) das equações de movimento ao longo X e por no, - Operador D-Alamber, té a massa do quantum de campo (doravante, o sistema de unidades h = Com= 1). Na abordagem corpuscular da descrição quântica relativística de partículas livres, os vetores de estado das partículas devem formar uma representação irredutível do grupo de Poincaré. Este último é fixado definindo os valores dos operadores Casimir (operadores que se deslocam com todos os dez geradores do grupo R m Mi e N i), que o grupo Poincaré tem dois. O primeiro é o operador de massa ao quadrado m 2 =R m R m. No m 2 No. 0, o segundo operador de Casimir é o quadrado do spin ordinário (tridimensional), e em massa zero, o operador de helicidade (a projeção do spin na direção do movimento). Espectro m 2 é contínuo - o quadrado da massa pode ter qualquer não negativo. valores, m vinte; o espectro de spin é discreto, pode ter valores inteiros ou semi-inteiros: 0, 1 / 2 , 1, ... Além disso, também é necessário especificar o comportamento do vetor de estado ao refletir um número ímpar de eixos coordenados . Se nenhuma outra característica for necessária, diz-se que a partícula não tem valor intrínseco. graus de liberdade e chamados. partícula neutra verdadeira. Caso contrário, a partícula tem cargas de um tipo ou de outro. Para fixar o estado de uma partícula dentro de uma representação, na mecânica quântica é necessário definir os valores do conjunto completo de operadores pendulares. A escolha de tal conjunto é ambígua; para uma partícula livre é conveniente tomar três componentes de seu momento R e projeção de volta eu s em to-l. direção. Assim, o estado de uma partícula verdadeiramente neutra livre é completamente caracterizado pelos números dados t, l s , p x, p y , p z , s, as duas primeiras definem a exibição e as quatro seguintes definem o estado nela. Para carregamento. partículas serão adicionadas outras; vamos denotá-los pela letra t. Na representação de números de ocupação, o estado de uma coleção de partículas idênticas é fixo preenchendo números n p,s, t de todos os estados de uma partícula (os índices que caracterizam a representação, como um todo, não são escritos). Por sua vez, o vetor estado | np,s, t > é escrito como resultado da ação no estado de vácuo |0> (ou seja, o estado em que não há partículas) dos operadores de criação a + (p, s, t):

Operadores de nascimento uma+ e seus operadores de aniquilação conjugados Hermitianos uma - satisfaça as relações de permutação

onde os sinais "+" e "-" correspondem respectivamente à quantização de Fermi - Dirac e Bose - Einstein, e os números de ocupação são próprios. valores de operadores para o número de partículas T. o., o vetor de estado de um sistema contendo uma partícula cada uma com números quânticos p 1 , s1, t1; p 2 , s 2, t2; . . ., é escrito como

Para levar em conta as propriedades locais da teoria, é necessário traduzir os operadores a b em uma representação coordenada. Como função de transformação, é conveniente usar o clássico. solução de equações de movimento de um campo livre adequado com índices de tensores (ou espinor) uma e índice simetria interna q. Então os operadores de criação e destruição na representação de coordenadas serão:


Esses operadores, no entanto, ainda são inadequados para construir um QFT local: tanto o comutador quanto o anticomutador são proporcionais às funções não Pauli-Jordan Dt, e suas partes de frequência positiva e negativa D 6 m(x-y)[Dm = D + m + D - m], que para pares de pontos semelhantes ao espaço X e no não desapareça. Para obter um campo local, é necessário construir uma sobreposição dos operadores de criação e aniquilação (5). Para partículas verdadeiramente neutras, isso pode ser feito diretamente definindo o campo covariante de Lorentz local como
você é(x)=você é(+ ) (X) + e um(-) (X). (6)
Mas para carregar. partículas, você não pode fazer isso: os operadores um + t e uma- t em (6) aumentará um, e o outro diminuirá a carga, e sua combinação linear não terá uma definição definitiva a esse respeito. propriedades. Portanto, para formar um campo local, deve-se emparelhar com os operadores de criação um + t são os operadores de aniquilação não das mesmas partículas, mas de novas partículas (marcadas com um til no topo) que implementam a mesma representação do grupo de Poincaré, ou seja, têm exatamente a mesma massa e spin, mas diferem das originais por o sinal da carga (os sinais de todas as cargas t), e escreva:

A partir de Teoremas de Pauli segue-se agora que para campos de spin inteiro, cujas funções de campo realizam uma representação única do grupo de Lorentz, quando quantizado de acordo com os comutadores de Bose - Einstein [ e(X), e(no)]_ ou [ e(X), v*(no)]_ proporcional funções Dm(x-y) e desaparecem fora do cone de luz, enquanto para campos de spin semi-inteiro que realizam representações de dois valores, o mesmo é obtido para anticomutadores [ e(X), e(no)] + (ou [ v(x), v* (y)] +) na quantização Fermi±Dirac. Expresso por f-lams (6) ou (7) a conexão entre as funções covariantes de Lorentz do campo satisfazendo equações lineares e ou v, v* e operadores de criação e aniquilação de partículas livres em mecânica quântica estacionária. estados é um tapete exato. descrição do dualismo de onda corpuscular. Novas partículas "nascidas" por operadores, sem as quais era impossível construir campos locais (7), chamados - em relação ao original - antipartículas. A inevitabilidade da existência de uma antipartícula para cada carga. partículas - um dos Ch. conclusões da teoria quântica de campos livres.
3. Interação de campos Soluções (6) e (7) ur-ção do campo livre de proporções. operadores de criação e aniquilação de partículas em estados estacionários, ou seja, eles podem descrever apenas situações em que nada acontece com as partículas. Para considerar também os casos em que algumas partículas afetam o movimento de outras ou se transformam em outras, é necessário tornar as equações de movimento não lineares, ou seja, incluir na Lagrangiana, além de termos quadráticos em campos, também termos com maior graus. Do ponto de vista da teoria desenvolvida até então, tal interação Lagrangiana L int podem ser quaisquer funções de corpos e suas primeiras derivadas, satisfazendo apenas uma série de condições simples: 1) a localidade da interação, exigindo que L int(x) dependia do diff. Campos e um(X) e suas primeiras derivadas apenas em um ponto no espaço-tempo X; 2) invariância relativística, a fim de cumprir um corte L int deve ser um escalar em relação às transformações de Lorentz; 3) invariância sob transformações de grupos de simetria interna, se houver, para o modelo em consideração. Para teorias com campos complexos, isso inclui, em particular, os requisitos de que o Lagrangiano seja Hermitiano e invariante sob transformações de calibre admissíveis em tais teorias. Além disso, pode-se exigir que a teoria seja invariante sob certas transformações discretas, como inversão espacial P, reversão temporal T e conjugação de carga C(substituindo partículas por antipartículas). Comprovado ( Teorema CPT) que qualquer interação que satisfaça as condições 1)-3) deve necessariamente ser invariante em relação ao mesmo tempo. realizando essas três transformações discretas. A variedade de interações Lagrangianas que satisfazem as condições 1)-3) é tão ampla quanto, por exemplo, a variedade de funções de Lagrange no clássico mecânica e, em certos No estágio de desenvolvimento do QFT, parecia que a teoria não dava uma resposta à questão de por que alguns deles, e não outros, são realizados na natureza. No entanto, após a ideia renormalizações Divergências UV (veja a Seção 5 abaixo) e sua brilhante implementação em eletrodinâmica quântica(QED) uma classe predominante de interações - renormalizáveis ​​- foi destacada. Condição 4) - a renormalização acaba sendo muito restritiva, e sua adição às condições 1)-3) deixa apenas interações com L int a forma de polinômios de baixo grau nos campos sob consideração, e campos de qualquer spin alto são geralmente excluídos da consideração. Assim, a interação em um QFT renormalizável não permite - em flagrante contraste com o clássico. e mecânica quântica - sem funções arbitrárias: assim que um conjunto específico de campos é escolhido, a arbitrariedade em L int limitado a um número fixo constantes de interação(constantes de acoplamento). O sistema completo de equações do QFT com interação (em representação de Heisenberg) constituem as equações de movimento obtidas a partir da Lagrangiana completa (um sistema conectado de equações diferenciais em derivadas parciais com termos não lineares de interação e auto-ação) e canônica. relações de permutação (1). A solução exata de tal problema pode ser encontrada apenas em um pequeno número de conteúdo fisicamente baixo. casos (por exemplo, para certos modelos no espaço-tempo bidimensional). Por outro lado, canônico as relações de permutação violam, como já mencionado, a simetria relativista explícita, que se torna perigosa se, em vez de uma solução exata, se contentar com uma aproximada. Portanto, a prática o valor da quantização na forma (1) é pequeno. Naib. um método baseado na transição para visualização de interação, em que o campo e a(x) satisfazem equações lineares de movimento para campos livres, e toda a influência de interação e auto-ação é transferida para a evolução temporal da amplitude do estado Ф, que agora não é constante, mas muda de acordo com uma equação como a de Schrödinger equação:

e Hamiltoniano interações dica(t) nesta representação depende do tempo através dos campos e a(x), obedecendo a equações livres e relações de permutação relativístico-covariantes (2); assim, torna-se desnecessário usar explicitamente o canônico comutadores (1) para campos de interação. Para comparação com o experimento, a teoria deve resolver o problema do espalhamento de partículas, na formulação do qual se supõe que assintoticamente, como t""-:(+:) o sistema estava em um estado estacionário (chegará a um estado estacionário) Ф_ : (Ф + :), e Ф b: são tais que as partículas neles não interagem devido a grandes distâncias mútuas (Veja também Hipótese adiabática), de modo que toda a influência mútua das partículas ocorre apenas em tempos finitos próximos de t=0 e transforma Ф_ : em Ф + : = S F_: . Operador S chamado matriz de espalhamento(ou S-matriz); pelos quadrados de seus elementos da matriz

as probabilidades de transições a partir do início dado são expressas. estado F eu em algum estado final Ф f, ou seja, ef. diferença de seção processos. Este., S-matrix permite que você encontre as probabilidades do físico. processos sem se aprofundar nos detalhes da evolução temporal descrita pela amplitude Ф( t). Apesar disso S-matriz é geralmente construída com base na equação (8), que admite uma solução formal de forma compacta:
.

usando o operador T cronológico uma ordenação que organiza todos os operadores de campo em ordem decrescente de tempo t=x 0 (ver Trabalho cronológico A expressão (10), no entanto, é bastante simbólica. registro de procedimento a seguir. equação de integração (8) de -: a +: em intervalos de tempo infinitesimais ( t, t+D t) em vez de uma solução utilizável. Isso pode ser visto pelo menos pelo fato de que para o cálculo suave dos elementos da matriz (9) é necessário representar a matriz de espalhamento na forma não cronológica, mas produto normal, em que todos os operadores de criação estão à esquerda dos operadores de aniquilação. A tarefa de transformar uma obra em outra é a dificuldade real e não pode ser resolvida em termos gerais.
4. Teoria da perturbação Por esta razão, para uma solução construtiva do problema, deve-se recorrer à suposição de que a interação é fraca, ou seja, a pequenez da interação Lagrangiana L int. Então você pode decompor cronologicamente. expoente na expressão (10) em série teoria da perturbação, e os elementos da matriz (9) serão expressos em cada ordem da teoria de perturbação em termos dos elementos da matriz não cronologicamente. expoentes e cronológica simples. produtos do número correspondente de Lagrangians de interação:

(Pé a ordem da teoria da perturbação), ou seja, será necessário transformar para a forma normal não exponenciais, mas polinômios simples de um tipo específico. Esta tarefa é praticamente realizada com a ajuda da tecnologia Diagramas de Feynman e regras de Feynman. Na técnica de Feynman, cada campo e a(x) é caracterizada por sua função causal de Green ( propagador ou função de propagação) DC aa"(x-y), representado nos diagramas por uma linha, e cada interação - por uma constante de acoplamento e um fator de matriz do termo correspondente em L int mostrado no diagrama cume. A popularidade da técnica do diagrama de Feynman, além da facilidade de uso, deve-se à sua clareza. Os diagramas permitem, por assim dizer, apresentar com os próprios olhos os processos de propagação (linhas) e interconversões (vértices) de partículas - reais no início. e estados finais e virtuais em intermediários (em linhas internas). Expressões particularmente simples são obtidas para os elementos da matriz de qualquer processo na ordem mais baixa da teoria de perturbação, que correspondem aos chamados diagramas de árvore que não possuem loops fechados - após a transição para a representação de impulso, não há mais integrações neles. Para o principal Processos QED, tais expressões para elementos da matriz foram obtidas no início do QFT em con. anos 20 e acabou por estar de acordo razoável com a experiência (nível de correspondência 10 - 2 -10 - 3 , ou seja, da ordem da constante de estrutura fina a). No entanto, as tentativas de calcular correções radiativas(ou seja, correções associadas à consideração de aproximações mais altas) para essas expressões, por exemplo, para Klein - Nishina - Tamm f-le (ver. Fórmula Klein-Nishina) para espalhamento Compton, encontrou-se específico. dificuldades. Diagramas com circuitos fechados de linhas correspondem a essas correções partículas virtuais, cujos momentos não são fixados por leis de conservação, e a correção total é igual à soma das contribuições de todos os momentos possíveis. Descobriu-se que, na maioria dos casos, as integrais sobre os momentos de partículas virtuais decorrentes da soma dessas contribuições divergem na região do UV, ou seja, as próprias correções acabam sendo não apenas pequenas, mas infinitas. De acordo com a relação de incerteza, pequenas distâncias correspondem a grandes impulsos. Assim, pode-se pensar que o físico As origens das divergências estão na ideia da localidade da interação. A este respeito, podemos falar de uma analogia com a energia infinita do el-magn. campo de uma carga puntiforme no clássico. eletrodinâmica.
5. Divergências e renormalizações Formalmente, matematicamente, o aparecimento de divergências se deve ao fato de que os propagadores Dc (x) são funções singulares (mais precisamente, generalizadas) que têm na vizinhança do cone de luz em x 2 ~ 0 X 2. Portanto, seus produtos que surgem em elementos de matriz, que correspondem a laços fechados em diagramas, são mal definidos com Math. pontos de vista. Imagens de Fourier de impulso de tais produtos podem não existir, mas - formalmente - ser expressas em termos de integrais de impulso divergentes. Por exemplo, a integral de Feynman
(Onde R- externo 4-impulso, k- momento de integração), correspondendo ao diagrama de um loop mais simples com dois internos. linhas escalares (Fig.), não existe.

Ele é proporcional. Transformada de Fourier do quadrado do propagador Dc (x) campo escalar e diverge logaritmicamente no limite superior (ou seja, na região UV dos momentos virtuais | k|"":, de modo que, por exemplo, se a integral for cortada no limite superior em | k|=L, então

Onde EU vigarista ( R) é a expressão final.
O problema das divergências de UV foi resolvido (pelo menos do ponto de vista da obtenção de expressões finitas para a maioria das grandezas fisicamente interessantes) no 2º semestre. anos 40 baseado na ideia de renormalizações (renormalizações). A essência deste último é que os efeitos infinitos das flutuações quânticas correspondentes aos circuitos fechados dos diagramas podem ser separados em fatores que têm o caráter de correções às características iniciais do sistema. Como resultado, as massas e constantes de acoplamento g mudam devido à interação, ou seja, eles são renormalizados. Neste caso, devido às divergências de UV, as adições de renormalização acabam sendo infinitamente grandes. Portanto, as relações de renormalização

m 0 ""m = m 0 + D m = m 0 Zm (. . .),

g 0 ""g = g 0+D g = g 0 Zg(. . .)

(Onde Zm, Zg- fatores de renormalização), ligando o original, assim chamado. massas de sementes m 0 e cargas de sementes (ou seja, constantes de acoplamento) g 0 com físico t, g, tornam-se singulares. Para não lidar com expressões infinitas sem sentido, um ou outro auxiliar é introduzido. regularização de divergências(semelhante ao corte usado em (13) em | k|=L. Nos argumentos (indicados nas partes direitas de (14) por pontos) radiats. alterações D m, D g, bem como os fatores de renormalização Z eu, além do mais t 0 e g 0 , contém dependências singulares em parâmetros auxiliares. regularização. As divergências são eliminadas identificando as massas e cargas renormalizadas m e g com seu físico valores. Na prática, para eliminar divergências, o método de introdução no Lagrangiano original também é frequentemente usado contra-membros e expressar t 0 e g 0 no Lagrangeano em termos de física m e g relações formais inversas a (14). Expandindo (14) em série no físico. parâmetro de interação:

t 0 = t + gM 1 + g 2 M 2 + ..., g 0 = g + g 2 G 1 + g 3 G 2 + ...,

selecionar coeficientes singulares M l, G eu assim, para compensar exatamente as divergências que surgem nas integrais de Feynman. A classe de modelos QFT para a qual tal programa pode ser executado sequencialmente em todas as ordens da teoria de perturbação e na qual, portanto, todas as divergências UV sem exceção podem ser "removidas" em fatores de renormalização de massas e constantes de acoplamento, chamada classe de teorias renormalizáveis. Nas teorias desta classe, todos os elementos da matriz e as funções de Green são, portanto, expressos de forma não singular em termos físicos. massas, cargas e cinemática. variáveis. Em modelos renormalizáveis, portanto, se desejado, pode-se abstrair completamente os parâmetros nus e as divergências UV, consideradas separadamente, e caracterizar completamente os resultados teóricos. cálculos definindo um número finito de física. valores de massas e cargas. Esteira. a base desta afirmação é Bogolyubov - Teorema de Parasyuk sobre a renormalização. Segue-se uma receita bastante simples para obter expressões finitas de valor único para elementos da matriz, formalizada na forma do assim chamado. R-operações Bogoliubov. Ao mesmo tempo, em modelos não renormalizáveis, um exemplo disso é a formulação agora obsoleta na forma de um Fermi Lagrangiano local de quatro férmions, não é possível "montar" todas as divergências em "agregados" que renormalizam massas e encargos. Os modelos QFT renormalizáveis ​​são caracterizados, via de regra, por constantes de acoplamento adimensionais, contribuições logaritmicamente divergentes para a renormalização de constantes de acoplamento e massas de férmions e raios quadraticamente divergentes. correções para as massas de partículas escalares (se houver). Para tais modelos, como resultado do procedimento de renormalização, obtemos teoria de perturbação renormalizada, para o céu e serve de base para a prática. cálculos. Em modelos QFT renormalizáveis, um papel importante é desempenhado pelas funções de Green renormalizadas (propagadores vestidos) e partes superiores, incluindo efeitos de interação. Eles podem ser representados por somas infinitas de termos correspondentes a diagramas de Feynman cada vez mais complexos com um número fixo e tipo de externo. linhas. Para tais quantidades, pode-se dar definições formais por meio de meio de vácuo cronológico produtos de operadores de campo na representação de interação e a matriz S (que é equivalente a médias de vácuo de T-produtos de operadores completos, ou seja, Heisenberg), ou através de derivadas funcionais de gerando funcional Z(J), expressa através do chamado. matriz de espalhamento expandida S( J), funcionalmente dependente do auxiliar. clássico fontes J a (x) Campos e a(x). O formalismo de geração de funcionais no QFT é análogo ao formalismo estatístico correspondente. física. Ele permite que você obtenha as funções de Green completas e funções de vértice ur-tions em derivadas funcionais - Equações de Schwinger, da qual, por sua vez, pode-se obter uma cadeia infinita de integro-diferenciais. u-ny - -Equações de Dyson. Os últimos são como uma cadeia de ur-ções para correlações. estatística f-tsy. física.
6. Assintótico UV e o grupo de renormalização As divergências de UV no QFT estão intimamente relacionadas à alta energia. assintótica de expressões renormalizadas. Por exemplo, logaritmo. divergência (12) da integral de Feynman mais simples Eu(p) responde logarítmica. assintótico

integral regularizada final (13), bem como a expressão renormalizada correspondente. Já que em modelos renormalizáveis ​​com constantes de acoplamento adimensionais as divergências são principalmente logarítmicas. caráter, UV assintótico eu-loop integrais, como regra (uma exceção é o caso assintótica duplamente logarítmica), temos aqui a estrutura típica ( gL)eu, Onde eu=ln(- R 2/m2), pé um momento "grande", e m é algum parâmetro da dimensão de massa que surge no processo de renormalização. Portanto, para suficientemente grande | R 2 | o crescimento do logaritmo compensa a pequenez da constante de acoplamento g e surge o problema de determinar um termo arbitrário de uma série da forma

e somando tal série ( um filme- coeficientes numéricos). A solução desses problemas é facilitada pelo uso do método grupo de renormalização, que se baseia no caráter de grupo de transformações finitas análogas às funções de renormalização singulares (14) e às transformações de Green que as acompanham. Desta forma, é possível somar efetivamente certos conjuntos infinitos de contribuições dos diagramas de Feynman e, em particular, representar expansões duplas (15) na forma de expansões simples:

onde funciona fl possuem uma geometria característica. progressões ou combinações de uma progressão com seu logaritmo e expoente. Torna-se muito significativo aqui que a condição para a aplicabilidade de f-l do tipo (15), que tem a forma g<<1, gL<< 1 é substituído por um muito mais fraco: - assim chamado. carga invariável, que na aproximação mais simples (um loop) tem a forma de uma soma de geom. progressões no argumento GL: (b 1 - coeficiente numérico). Por exemplo, em QED a carga invariante é proporcional à parte transversal do propagador de fótons d, na aproximação de um loop acaba sendo igual a

além disso, em k 2 /m 2 >0 eu=ln( k 2/m2)+ eu p( k- 4-momentum de um fóton virtual). Esta expressão, que é a soma de Ch. logaritmos da forma a(a eu)n, tem um chamado. poste fantasma em k 2 = -m 2 e 3 p/a representação espectral para um propagador de fótons). A presença desse polo está intimamente relacionada ao problema do chamado. carga zero, t. e. transformando a carga renormalizada em zero em um valor finito da carga "semente". A dificuldade associada ao aparecimento de um poste fantasmagórico às vezes tem sido interpretada até mesmo como prova de ext. inconsistência do QED, e a transferência deste resultado para o tradicional. modelos renormalizáveis ​​da forte interação de hádrons - como uma indicação da inconsistência de todo o QFT local como um todo. No entanto, tais conclusões cardinais, feitas com base em fl Ch. logaritmo. aproximações revelaram-se precipitadas. Já levando em consideração as contribuições “seguindo as principais” ~a 2 (a eu)m, levando à aproximação de dois loops, mostra que a posição do pólo muda visivelmente. Uma análise mais geral no âmbito do método de renormalização. grupo leva à conclusão sobre a aplicabilidade do f-ly (16) apenas na região ou seja, sobre a impossibilidade de provar ou refutar a existência de uma "contradição polar" com base em uma ou outra retomada da série (15). Assim, o paradoxo do fenômeno do pólo fantasma (ou a renormalização da carga para zero) acaba sendo fantasmagórico - para decidir se essa dificuldade realmente aparece em teoria, só seria possível se conseguíssemos obter resultados inequívocos Por enquanto, resta apenas a conclusão de que, aplicada ao espinor QED, a teoria da perturbação não é, apesar da pequenez incondicional do parâmetro de expansão a, uma teoria logicamente fechada. Para QED, no entanto, este problema poderia ser considerado puramente acadêmico, pois, segundo (16), mesmo em energias gigantes ~(10 15 -10 16) GeV, considerado no moderno. modelos de combinação de interações, a condição não é violada. A situação na mesodinâmica quântica, a teoria da interação de campos de mésons pseudoescalares com campos fermiônicos de núcleons, parecia muito mais séria. anos 60 unidade candidato para o papel de um modelo renormalizável da interação forte. Nela, a constante de acoplamento efetiva era grande em energias comuns, e - claramente ilegítima - a consideração pela teoria da perturbação levou às mesmas dificuldades da carga nula. Como resultado de todos os estudos descritos, surgiu uma visão um tanto pessimista. ponto de vista sobre as perspectivas futuras do QFT renormalizável. De um ponto de vista puramente teórico ponto de vista parecia que qualidades. a variedade de tais teorias é insignificante: para qualquer modelo renormalizável, todos os efeitos de interação - para pequenas constantes de acoplamento e energias moderadas - foram limitados a uma mudança não observável nas características de partículas livres e ao fato de que transições quânticas ocorreram entre estados com tais partículas, às probabilidades da aproximação mais baixa para a qual agora era possível calcular (pequenas) correções das mais altas. Para grandes constantes de acoplamento ou energias assintoticamente grandes, a teoria disponível - novamente, independentemente do modelo específico - era inaplicável. QED permaneceu a única aplicação (realmente brilhante) para o mundo real que satisfaz essas limitações. Esta situação contribuiu para o desenvolvimento de métodos não-hamiltonianos (como teoria quântica de campo axiomática, abordagem algébrica em KTP, teoria construtiva do campo quântico). Grandes esperanças foram depositadas método de relação de dispersão e análises de pesquisa. propriedades da matriz S. Mn. pesquisadores começaram a procurar uma saída para as dificuldades na forma de revisão do principal. disposições da renormalização local de QFT com a ajuda do desenvolvimento de não-canônico. direções: essencialmente não lineares (isto é, não polinomiais), não locais, não definidas (ver Teorias de campos quânticos não polinomiais, Teoria de campos quânticos não locais, Métrica indefinida), etc. A fonte de novas visões sobre a situação geral no QFT foi a descoberta de novos teóricos. fatos relacionados a não abelianos campos de calibração. 7. Campos de calibração Campos de medidor (incluindo não Abelianos Yanga - Campos de moinhos) estão relacionados com a invariância em relação a algum grupo G transformações de calibre locais. O exemplo mais simples de um campo de calibre é el-magn. campo UMA m em QED associado a um grupo abeliano você(eu). No caso geral de simetria ininterrupta, os campos de Yang-Mills, como o fóton, têm massa de repouso zero. Eles são convertidos pela representação de grupo anexada G, carregam os índices correspondentes B ab m ( x) e obedecem a equações de movimento não lineares (que são linearizadas apenas para um grupo abeliano). Sua interação com os campos de matéria será invariante de calibre se for obtida estendendo as derivadas (veja a Fig. derivada covariante): na Lagrangiana livre do campo e com a mesma constante adimensional g, que entra na Lagrangiana do campo NO. Como e-mag. campo, campos de Yang-Mills são sistemas restritos. Isso, bem como a aparente ausência na natureza de partículas vetoriais sem massa (além de fótons), interesse limitado em tais campos, e por mais de 10 anos eles foram considerados um modelo elegante que nada tem a ver com o mundo real. A situação mudou para o 2º andar. 60, quando puderam ser quantizados pelo método de integração funcional (ver. Método integral funcional) e descobrir que tanto o campo de Yang-Mills sem massa puro quanto o campo que interage com férmions são renormalizáveis. Em seguida, foi proposto um método para a introdução "suave" de massas nesses campos usando o efeito quebra espontânea de simetria. Baseado nele Mecanismo de Higgs nos permite comunicar a massa aos quanta dos campos de Yang-Mills sem violar a renormalização do modelo. Nesta base, em con. anos 60 foi construída uma teoria unificada renormalizável do fraco e do el-magn. interações (consulte Interação eletrofraca), em que os portadores da interação fraca são pesados ​​(com massas ~ 80-90 GeV) quanta de campos de calibre vetorial do grupo de simetria eletrofraca ( bósons vetoriais intermediários W 6 e Z 0 observado experimentalmente em 1983). Finalmente, no início anos 70 nota foi encontrada. propriedade de QFT não abeliano - liberdade assintótica. Descobriu-se que, em contraste com todos os QFTs renormalizáveis ​​estudados até agora, para o campo de Yang-Mills, puro e interagindo com um o número de férmions, Ch. logaritmo. contribuições para a carga invariante têm um sinal total oposto ao sinal de tais contribuições para QED:

Portanto, no limite | k 2 |"": uma carga invariável e não há dificuldades em passar para o limite UV. Este fenômeno de auto-desligamento da interação a pequenas distâncias (liberdade assintótica) tornou possível explicar naturalmente na teoria de calibre da interação forte - cromodinâmica quântica(QCD) estrutura partônica de hádrons (ver Partões), que havia se manifestado naquela época em experimentos sobre espalhamento inelástico profundo de elétrons por nucleons (ver Processos inelásticos profundos). A base de simetria da QCD é o grupo SU(3) s, atuando no espaço do chamado. variáveis ​​de cor. Números quânticos de cores diferentes de zero são atribuídos a quarks e glúons. A especificidade dos estados de cor é sua inobservabilidade em distâncias espaciais assintoticamente grandes. Ao mesmo tempo, os bárions e mésons que se manifestam claramente no experimento são singletos do grupo de cores, ou seja, seus vetores de estado não mudam durante as transformações no espaço de cores. Ao inverter o sinal b [cf. (17) com (16)] a dificuldade do polo fantasmagórico passa das altas energias para as pequenas. Ainda não se sabe o que QCD dá para energias ordinárias (da ordem das massas de hádrons), - existe a hipótese de que com o aumento da distância (ou seja, com a diminuição da energia), a interação entre as partículas coloridas cresce tão fortemente que é precisamente isso que não permite que quarks e glúons se dispersem a uma distância de /10 - 13 cm (a hipótese de não voar, ou confinamento; ver. Retenção de cor). É dada muita atenção ao estudo deste problema. Assim, o estudo de modelos de campos quânticos contendo campos de Yang-Mills revelou que teorias renormalizáveis ​​podem ter uma riqueza de conteúdo inesperada. Em particular, a crença ingênua de que o espectro de um sistema em interação é qualitativamente semelhante ao espectro de um sistema livre foi destruída e difere dele apenas em uma mudança de níveis e, possivelmente, no aparecimento de um pequeno número de estados ligados. . Descobriu-se que o espectro de um sistema com interação (hádrons) pode não ter nada em comum com o espectro de partículas livres (quarks e glúons) e, portanto, pode nem dar qualquer indicação disso. campos cujas variedades devem ser incluídas no microscópico elementar. Lagrange. Estabelecendo essas qualidades essenciais. características e segurando a grande maioria das quantidades. cálculos em QCD são baseados em uma combinação de cálculos de teoria de perturbação com a exigência de invariância de grupo de renormalização. Em outras palavras, o método do grupo de renormalização tornou-se, juntamente com a teoria da perturbação renormalizada, uma das principais ferramentas computacionais da modernidade. KTP. Dr. Método QFT, que recebeu meios. desenvolvimento desde a década de 70, especialmente na teoria dos campos de calibre não abelianos, é, como já observado, um método que utiliza o método da integral funcional e é uma generalização para a mecânica quântica QFT. método integral de caminho. Em QFT, tais integrais podem ser consideradas como médias f-ly do clássico correspondente. expressões (por exemplo, as funções clássicas de Green para uma partícula se movendo em um determinado campo externo) em termos de flutuações de campo quântico. Inicialmente, a ideia de transferir o método integral funcional para o QFT estava associada à esperança de obter expressões fechadas compactas para o básico. quantidades de campo quântico adequadas para cálculos construtivos. No entanto, descobriu-se que por causa das dificuldades do Math. caráter, uma definição rigorosa só pode ser dada às integrais do tipo gaussiano, que são as únicas que se prestam ao cálculo exato. Portanto, a representação integral funcional foi considerada por muito tempo como uma representação formal compacta da teoria quântica de perturbação de campo. Mais tarde (desviando-se do problema matemático da justificação) começaram a usar esta representação em decomp. tarefas gerais. Assim, a representação da integral funcional teve um papel importante no trabalho de quantização de campos de Yang-Mills e na prova de sua renormalização. Resultados interessantes foram obtidos usando o procedimento desenvolvido um pouco antes para problemas de estatística quântica para calcular a integral funcional do funcional método de passagem, semelhante ao método do ponto de sela na teoria das funções de uma variável complexa. Para uma série de modelos bastante simples, usando este método, descobriu-se que as quantidades de campo quântico, consideradas como funções da constante de acoplamento g, tem perto do ponto g=0 singularidade do tipo de característica exp(- 1 /g) e que (em plena conformidade com isso) os coeficientes f n expansões de energia S f n g n teorias de perturbação crescem em grande escala P fatorial: f n~n!. Assim, a afirmação feita no início foi confirmada de forma construtiva. anos 50 a hipótese de não analiticidade da teoria em relação à carga. A analítica desempenha um papel importante neste método. soluções do clássico não linear ur-tions que têm um caractere localizado ( solitons e - na versão euclidiana - instantes) e entregando um mínimo funcional à ação. No 2º andar. anos 70 no âmbito do método de integração funcional, surgiu uma direção para estudar campos de calibre não abelianos com a ajuda dos chamados. contorno , em k-poii como argumentos em vez de pontos 4D X contornos fechados Г no espaço-tempo são considerados. Desta forma, é possível reduzir a dimensão do conjunto de variáveis ​​independentes em um e, em vários casos, simplificar significativamente a formulação do problema do campo quântico (ver Seção 1.1). abordagem de contorno). Pesquisas bem-sucedidas foram realizadas com a ajuda de um cálculo numérico em um computador de integrais funcionais, aproximadamente representadas na forma de integrais iteradas de alta multiplicidade. Para tal representação, uma rede discreta é introduzida no espaço inicial de configuração ou variáveis ​​de impulso. Semelhante, como são chamados, "cálculos de rede" para realistas. os modelos exigem o uso de computadores de potência particularmente alta, pelo que estão apenas começando a se tornar disponíveis. Aqui, em particular, um cálculo encorajador das massas e ímãs anômalos foi realizado usando o método de Monte Carlo. momentos de hádrons com base na cromodinâmica quântica. representações (ver Método de rede).
8. Visão geral O desenvolvimento de novas ideias sobre o mundo das partículas e suas interações revela cada vez mais dois fundamentos. tendências. Esta é, em primeiro lugar, uma transição gradual para conceitos cada vez mais indiretos e imagens cada vez menos visuais: simetria de calibre local, o imperativo da renormalizabilidade, o conceito de simetrias quebradas, bem como a quebra espontânea de simetria e glúons em vez de hádrons realmente observados, o inobservável número quântico de cor e etc. Em segundo lugar, juntamente com a complicação do arsenal de métodos e conceitos utilizados, há uma manifestação indubitável das características da unidade dos princípios subjacentes aos fenômenos que parecem estar muito distantes uns dos outros , e como resultado disso, significa. simplificação do quadro geral. Três básicos as interações estudadas pelos métodos QFT receberam uma formulação paralela baseada no princípio da invariância de calibre local. Uma propriedade relacionada de renormalização dá a possibilidade de quantidades. cálculo dos efeitos de e-magn., interações fracas e fortes pelo método da teoria da perturbação. (Como a interação gravitacional também pode ser formulada com base nesse princípio, ela é provavelmente universal.) Com prática. do ponto de vista da teoria da perturbação, há muito se estabeleceram no QED (por exemplo, o grau de correspondência entre teoria e experimento para momento magnético anômalo elétron Dm é Dm/m 0 ~10 - 10 , onde m 0 é o magneton de Bohr). Na teoria da interação eletrofraca, esses cálculos também tiveram um notável efeito preditivo. força (por exemplo, as massas foram corretamente previstas C 6 - e Z 0 -bósons). Finalmente, em QCD na região de energias suficientemente altas e transferências de 4 momentos Q (|Q| 2 / 100 GeV 2) com base em uma teoria de perturbação renormalizável reforçada pelo método de renormalização. grupo, é possível descrever quantitativamente uma ampla gama de fenômenos na física de hádrons. Devido à pequenez insuficiente do parâmetro de expansão: a precisão dos cálculos aqui não é muito alta. Em geral, podemos dizer que, ao contrário do pessimismo de con. Nos anos 50, o método da teoria da perturbação renormalizada se mostrou frutífero, pelo menos para três dos quatro fundamentos. interações. Ao mesmo tempo, deve-se notar que a maioria Progressos significativos, alcançados principalmente nas décadas de 1960-1980, relacionam-se justamente à compreensão do mecanismo de interação de campos (e partículas). Os sucessos na observação das propriedades das partículas e dos estados ressonantes produziram material abundante, o que levou à descoberta de novos números quânticos (estranheza, encanto, etc.) e à construção dos chamados números correspondentes a eles. simetrias quebradas e a sistemática correspondente de partículas. Isso, por sua vez, deu impulso à busca por inúmeras subestruturas. hádrons e, finalmente, a criação do QCD. Como resultado, tais "50s" como núcleons e píons deixaram de ser elementares e tornou-se possível determinar suas propriedades (valores de massa, momentos magnéticos anômalos, etc.) através das propriedades dos quarks e dos parâmetros da interação quark-glúon. Uma ilustração disso é, por exemplo, o grau de perturbação do isotópico. simetria, que se manifesta na diferença de massa D M carregar e mésons e bárions neutros em um isotópico. multipleto (por exemplo, p e n; Em vez do original, do ponto de vista moderno ingênuo, ideia de que essa diferença (devido à razão numérica D MILÍMETROS~ a) tem um e-mag. origem, veio a crença de que se deve à diferença de massas e- e d-quarks. No entanto, mesmo que as quantidades sejam bem sucedidas. Com a implementação dessa ideia, a questão não está completamente resolvida - ela é apenas empurrada mais profundamente do nível dos hádrons para o nível dos quarks. A formulação do velho enigma do múon se transforma de maneira semelhante: "Por que o múon é necessário e por que ele, sendo semelhante ao elétron, duzentas vezes mais pesado que ele?". Esta questão, transferida para o nível quark-lépton, adquiriu maior generalidade e não se refere mais a um par, mas a três gerações de férmions, mas não mudou sua essência. 9. Perspectivas e problemas Grandes esperanças foram colocadas no programa dos chamados. grande unificação interações - combinando a interação QCD forte com a interação eletrofraca em energias da ordem de 10 15 GeV e superiores. O ponto de partida aqui é a observação (teórica) do fato de que a extrapolação para a região de superaltas energias de f-ly (17) é assintótica. liberdade para a cromodinâmica. constantes de acoplamento e tipo f-ly (16) para a carga invariante QED leva ao fato de que esses valores em energias da ordem de |Q| = M X~10 15 b 1 GeV são comparados entre si. Os valores correspondentes (assim como o valor da segunda carga da teoria da interação eletrofraca) são iguais a Fundam. fisica a hipótese é que essa coincidência não é acidental: na região de energias maiores que M X, existe alguma simetria mais alta descrita pelo grupo G, que em energias mais baixas se divide em simetrias observáveis ​​devido a termos de massa, e as massas que quebram as simetrias são da ordem M X. Sobre a estrutura do grupo unificador G e a natureza dos termos de quebra de simetria pode ser feita dec. suposições [naib. a resposta simples é G=SU(5 )], mas com qualidades. ponto de vista naib. Uma característica importante da associação é que os fundos. grupo de visualização (visualização - coluna) G combina quarks e léptons de fundam. representações de grupo SU(3 )c e SU(2), pelo que, a energias superiores a M X quarks e léptons tornam-se "iguais". O mecanismo de interação de calibre local entre eles contém campos vetoriais na representação adjunta (representação - matriz) do grupo G, cujos quanta, juntamente com glúons e bósons intermediários pesados ​​da interação eletrofraca, contêm novas partículas vetoriais que ligam léptons e quarks. A possibilidade de transformação de quarks em léptons leva à não conservação do número bariônico. Em particular, o decaimento do próton acaba sendo permitido, por exemplo, de acordo com o esquema p""e + +p 0 . Deve-se notar que o programa de grande unificação enfrentou uma série de dificuldades. Um deles é puramente teórico. caráter (o chamado problema da hierarquia - a impossibilidade de manter em ordens superiores teorias de perturbações de escalas incomensuráveis ​​de energias M X~10 15 GeV e M W~10 2 GeV). Dr. a dificuldade está ligada à incompatibilidade dos experimentos. dados sobre o decaimento do próton com teórico. previsões. Uma direção muito promissora para o desenvolvimento do moderno. QTP está associado a supersimetria, ou seja, com simetria em relação às transformações que “emaranham” os campos bosônicos j ( X) (spin inteiro) com campos fermiônicos y( x) (rotação de meio inteiro). Essas transformações formam um grupo que é uma extensão do grupo Poincaré. A álgebra correspondente de geradores de grupos, juntamente com os geradores usuais do grupo de Poincaré, contém geradores de espinor, bem como anticomutadores desses geradores. A supersimetria pode ser vista como uma união não trivial do grupo Poincaré com ext. simetrias, uma união possibilitada pela inclusão de geradores anticomutação na álgebra. As representações do grupo de supersimetria - o supercampo Ф - são dadas em superespaços, incluindo além das coordenadas usuais X algébrica especial. objetos (os chamados geradores Álgebra de Grassmann com involução) são precisamente elementos anticomutantes que são espinores em relação ao grupo de Poincaré. Em virtude da anticomutatividade exata, todas as potências de seus componentes, a partir do segundo, desaparecem (a álgebra de Grassmann correspondente é dita nilpotente) e, portanto, as expansões de supercampos em séries, por sua vez, em polinômios. Por exemplo, no caso mais simples de um supercampo quiral (ou analítico) que depende de def. base apenas em q,

(s é a matriz de Pauli) será:

Chances MAS(X), y a ( X), F(x ) já são campos quânticos comuns - escalares, espinor, etc. Eles são chamados. componentes ou campos constituintes. Do ponto de vista dos campos componentes, um supercampo é simplesmente composto por definição. governa um conjunto de um número finito de diferentes campos de Bose e Fermi com as regras usuais de quantização. Ao construir modelos supersimétricos, é necessário que as interações também sejam invariantes sob transformações de supersimetria, ou seja, elas representem produtos superinvariantes de supercampos como um todo. Do ponto de vista usual, isso significa a introdução de toda uma série de interações de campos componentes, interações cujas constantes não são arbitrárias, mas estão rigidamente conectadas umas às outras. Isso abre a esperança de uma compensação exata para todas ou pelo menos algumas das divergências UV originadas de diferentes termos da interação. Ressaltamos que uma tentativa de implementar tal compensação simplesmente para um conjunto de campos e interações não limitadas por requisitos de grupo seria fútil devido ao fato de que uma vez que a compensação estabelecida seria destruída durante as renormalizações. De particular interesse são os modelos supersimétricos contendo campos vetoriais de calibre não Abelianos como componentes. Esses modelos, que possuem simetria de calibre e supersimetria, são chamados. supercalibração. Nos modelos de supercalibração, observa-se uma diferença notável. o fato da redução das divergências UV. São encontrados modelos em que a Lagrangiana de interação, sendo expressa em termos de campos componentes, é representada pela soma de expressões, cada uma das quais individualmente é renormalizável e gera uma teoria de perturbação com um logaritmo. divergências, porém, as divergências correspondentes à soma dos diagramas de Feynman com as contribuições de diff. os membros do supercampo virtual se compensam. Esta propriedade da redução completa da divergência pode ser colocada em paralelo com o fato bem conhecido da diminuição do grau de divergência UV dos autovalores. massa de elétrons em QED na transição dos cálculos não covariantes originais do final dos anos 20. a uma teoria de perturbação virtualmente covariante que leva em conta pósitrons em estados intermediários. A analogia é reforçada pela possibilidade de usar as regras supersimétricas de Feynman quando tais divergências não aparecem. O cancelamento completo das divergências de UV em ordens arbitrárias de teoria de perturbação, estabelecida para vários modelos de supergauge, deu origem à esperança de uma teoria. a possibilidade de superunificação fundam. interações, ou seja, tal união de todas as quatro interações, incluindo a gravitacional, construída levando em conta a supersimetria, para a qual não apenas os efeitos não renormalizáveis ​​da gravidade quântica "comum" desaparecem, mas a interação completamente unificada também estará livre de divergências UV. Física arenas de superunificações são escalas da ordem das escalas de Planck (energias ~10 19 GeV, distâncias da ordem do comprimento de Planck R Pl ~ 10 - 33 cm). Para implementar esta ideia, modelos de supergauge são considerados baseados em supercampos dispostos de tal forma que max. o spin de seus campos ordinários constituintes é igual a dois. O campo correspondente é identificado com o gravitacional. Modelos semelhantes são chamados supergravidade (cf. supergravidade). tentativas de construir supergravidades finitas usam ideias sobre espaços de Minkowski com mais de quatro dimensões, bem como sobre cordas e supercordas. Em outras palavras, o QFT local "usual" em distâncias menores que as de Planck se transforma em uma teoria quântica de objetos estendidos unidimensionais incorporados em espaços de um número maior de dimensões. No caso de tal superunificação com base na supergravidade. Se ocorrer um modelo para o qual se comprove a ausência de divergências no UV, será construída uma teoria unificada dos quatro fundamentos. interações, livres de infinitos. Assim, as divergências UV não surgirão, e todo o aparato para eliminar divergências pelo método de renormalização se tornará desnecessário. Quanto à natureza das próprias partículas, é possível que a teoria esteja se aproximando de uma nova qualidade. um marco associado ao surgimento de ideias sobre o nível de elementaridade superior ao nível quark-lépton. Estamos falando do agrupamento de quarks e léptons em gerações de férmions e as primeiras tentativas de levantar a questão de diferentes escalas de massas de diferentes gerações com base na previsão da existência de partículas mais elementares que quarks e léptons. Aceso.: Akhiezer A.I., Berestetsky V.B., Quantum electrodynamics, 4a ed., M., 1981; Bogolyubov N. N., III e rk sobre em D. V., Introdução à teoria dos campos quantizados, 4ª ed., M., 1984; deles, Quantum Fields, Moscou, 1980; Berestetsky V.B., Lifshitz E.M., Pitaevsky L.P., Quantum electrodynamics, 2a ed., M., 1980; Weisskopf, VF, Como crescemos com a teoria de campo, trad. de Inglês, UFN, 1982, v. 138, p. 455; E tsikson K., 3 yuber J-B., Teoria quântica de campos, trad. de English, volumes 1-2, M., 1984; Bogolyubov N. N., Logunov A. A., Oksak A. I., Todorov I. T., Princípios gerais da teoria quântica de campos, Moscou, 1987. B. V. Medvedev, D. V. Shirkov.