As leis da física clássica descrevem o micromundo. Partículas elementares e suas propriedades como uma física do micromundo

Resumo da física moderna do micromundo :

1 . O micromundo consiste em dois tipos de partículas, que diferem principalmente em tamanho: partículas do mundo ultra micro ( por exemplo , fóton ) e partículas do micromundo ( por exemplo , elétron ). O mundo ultra micro é três ordens de grandeza menor do que as partículas do mundo micro . Normalmente 10 elevado a menos décima oitava potência .

2. Então temos três direções de movimento das partículas ( arroz .1 ) e , respectivamente , três espaços marginais : campo gravitacional , campo elétrico e magnético . Com base nisso, pode-se falar da natureza unificada de todos os três campos e que , que todos os três campos são inseparáveis ​​uns dos outros no microcosmo . ( Há coisas na natureza , criando campos magnéticos ou elétricos separadamente ). Como consequência desta afirmação, se um condutor para corrente elétrica é introduzido em um campo magnético , então não pode ser afetado por um campo elétrico , que é sempre ortogonal ao campo magnético .

3. Vamos prestar atenção nisso , que cada partícula do micromundo tem mais três graus de liberdade , que são usados ​​para movimento rotativo . Veja a fig. 1 . O físico Hopkins afirma , que o espaço pode passar para o tempo e vice-versa . Como entender esta afirmação ? Conhecemos a lei da conservação da energia , que lê : a soma das energias cinética e potencial de um corpo é constante . O movimento de uma partícula no espaço do micromundo é oscilatório . O movimento oscilatório é o resultado da adição de dois movimentos : translacional e rotacional . A energia cinemática é a energia do movimento de translação , e potencial é a energia armazenada de um corpo imóvel no espaço de diferentes maneiras . O movimento translacional é realizado no espaço , e rotacional no tempo e esses movimentos têm condições de contorno matemáticas , sobre o qual o físico Hopkins nos contou .

4. Eu acredito , que todas as partículas do ultra microcosmo diferem umas das outras apenas pela frequência de oscilação . Por exemplo , luz ultravioleta e infravermelha : o mesmo fóton , mas com frequência diferente . Eu acredito , que a frequência é uma forma de armazenamento de energia , t .e. frequência determina a magnitude da energia cinética e potencial da partícula . Como a fórmula de Einstein leva em conta apenas a energia cinética de uma partícula em movimento , então esta fórmula precisa ser corrigida . Aparentemente , a massa de uma partícula deve ser entendida como a massa específica , t . e . a massa do volume criado pela frequência de oscilação : a massa da partícula deve ser dividida pelo produto da amplitude da oscilação e a área do comprimento de onda ou a expectativa matemática desta onda.

5. Cada partícula elementar do micromundo contém seu próprio tipo específico de ultramicropartículas com sua própria frequência. Por exemplo , um elétron contém fótons de mesma frequência ( pelo novo nome: bíons ”), mas a frequência do fóton emitido é ajustada às condições de uma órbita particular do elétron . A Figura 4 é a prova desta conjectura : todas as ondas eletromagnéticas devem ter o mesmo comprimento e amplitude em uma órbita particular . Mas a transição de órbita para outra órbita é acompanhada por uma mudança nos parâmetros de frequência : t . e . amplitudes e comprimentos de onda . Cada órbita tem seu próprio nível de energia potencial. ep nossa , como consequência da lei da conservação da energia . Causa p e da emissão regular de um quark de energia de uma partícula elementar do micromundo, pode haver fenômenos de ressonância .

Um bloco de elétrons em órbita tem um torque , que é o produto da massa dos elétrons e o raio da órbita , que leva à rotação das próprias órbitas . Cada órbita de elétrons em um átomo é essencialmente um circuito elétrico fechado e, portanto, cria um campo eletromagnético ao seu redor.. Portanto, a velocidade dos elétrons em órbita é a mesma , como em um circuito elétrico . Este campo impede que os elétrons se aproximem dos prótons do núcleo. . A direção das linhas do campo magnético pode ser determinada pela regra do verruma .

7 . A literatura física afirma que , que o elétron tem spin 2. De fato , quando um fóton é emitido, ele gira 90 graus , t . e . por 1 / 2 voltas para a posição inicial , que dá mais 1 / 2 voltas . Em seguida, altera a face de rotação e novamente 1 / 2 e 1 / 2 , t . e . giro total é 2 .

7. Nosso Universo - espaço fisicamente fechado . É limitado por constantes físicas : por exemplo , a velocidade da luz a 300.000 km por segundo ou um limite de temperatura de 273 , 16 graus Celsius . Portanto, a Lei de Conservação de Energia é cumprida nele e, portanto, já existe há bilhões de anos. . Como explicar o fato , que o movimento dos planetas em órbitas não parou ? Assumindo , que os planetas se movem por inércia após o momento do estrondo , então essa energia ao longo de bilhões de anos seria perdida até certo ponto devido a encontros com meteoritos e o vento solar. Observação , que as partículas do mundo ultra micro, ao se moverem, fazem movimentos oscilatórios em torno de sua trajetória de movimento, t . e . seu movimento é um processo oscilatório de certa frequência . Um processo oscilatório na natureza é uma transição de energia potencial em energia cinética e vice-versa. Daí segue que , que o movimento de qualquer corpo em um espaço fechado deve usar o estoque de energia potencial com a ajuda do mecanismo de frequência.

Não sabemos por que há temperatura , limites de vácuo e limitaram a velocidade da luz . Possivelmente existe crioplasma , algo como um buraco negro , energia restritiva p gyu até certo ponto , após o qual ocorre o Big Bang .

8. Experimentalmente, os cientistas não conseguiram atingir a velocidade da luz ou a temperatura de zero Kelvin . Eles apenas se aproximam desses limites por uma quantidade assintoticamente pequena. . Esses experimentos exigiram um enorme gasto de energia. . Assim, foi estabelecido , que na região de pequenos valores há enormes custos de energia . Conhecemos da física clássica a fórmula da força F na interação de massas :m 1 M 2 Onde r é a distância entre as massas :

F=m 1 *M 2 /r^ 2 . O peso de um próton ou elétron é cerca de 0 , 91 * 10 elevado à potência menos 31 kg ( o peso é muito menor ), densidade 6 , 1 * 10 à 17ª potência kg / m ^ 3 . Distância entre partículas em interação fraca ( 2 * 10 a menos 1 5 grau ) m e com forte interação ( 10 elevado a menos 18 ) conhecido . No entanto, ao calcular a força atrativa dessas partículas, deve-se levar em conta o fato , que cada micropartícula é um circuito micro oscilatório . Olhar o explicação do parágrafo 10. A aplicação da fórmula da física clássica aos cálculos da interação das partículas do micromundo nos mostra que , que não há fronteiras entre a física clássica e a física quântica ou relativística. .

9. objetos carregados , por exemplo , elétrons são a causa não apenas de um campo eletrostático, mas também de uma corrente elétrica. Há uma diferença significativa entre esses dois fenômenos. Para o surgimento de um campo eletrostático, são necessárias cargas imóveis de alguma forma fixas no espaço, e para a ocorrência de uma corrente elétrica, pelo contrário, é necessária a presença de partículas carregadas livres e não fixas, que no campo eletrostático de cargas imóveis chegar a um estado movimento ordenado ao longo das linhas de campo . Por exemplo , Descarga elétrica eletricidade estática , concentrado em uma nuvem de tempestade - relâmpago . Este movimento é eletricidade .

10. Mas há outra razão para a ocorrência de corrente elétrica . Cada ultra e micro partícula do tipo elétron tem sua própria frequência de oscilação e , Consequentemente , é um circuito micro oscilatório , ao qual a fórmula de Joseph Thomson se aplica :

f = 1/2 P é a raiz quadrada de L*C, Onde L = 2*EL/I ao quadrado e

C = 2*Ec/U ao quadrado , onde E 1 c e e 1L é a energia do campo elétrico e do fluxo magnético, respectivamente . A fórmula mostra uma relação constante entre EU( em Henrique , ) e C ( em farads , que são convertidos para centímetros ).

( unidade de indutância em sistema GHS; 1 cm = 1 10 -9 gn( Henrique ), cm , cm ... capacidade, Centímetro - unidade de capacidade em sistema GHS = 1 10 -12 f( farad ), cm . )

Se as dimensões dessas quantidades estão em centímetros , então o denominador desta fórmula é a circunferência do círculo . Consequentemente , o campo elétrico em torno de um elétron é uma série de círculos coaxiais . Com o aumento do raio do círculo, a velocidade da ultramicropartícula deve aumentar, pois o período , isto é, a frequência de oscilação do elétron -f constante . A consequência disso o consumo de energia cinética para partículas mais distantes aumenta e sua capacidade de induzir uma corrente elétrica no condutor diminui.

Mas vamos dar uma olhada na Figura 3. , onde é mostrado , que os vetores E 1 Com e E 1L separados no espaço e mutuamente ortogonais . Esta circunstância deve ser levada em consideração ao induzir uma corrente elétrica em um condutor . Se aplicarmos a lei da conservação da energia às quantidades E 1L e E 1 Com , então E 1L é a energia cinética da corrente de elétrons em movimento -eu, uma E 1 c é a energia potencial do campo elétrico em função de sua intensidade VOCÊ. Energia E1 eu e E1c reativo . No caso de uma partícula do microcosmo, seus vetores são ortogonais ao eixo de coordenadas do OS , mas estão em planos diferentes de coordenadas ortogonais . (C arroz motri . 2 ). Ambos os vetores são separados no espaço . Portanto, sua aniquilação mútua não ocorre e a frequência das micropartículas não decai com o tempo. .

Em circuitos elétricos, a reatância é geralmente denotada por X , e a resistência total em circuitos AC Z, resistência ativa - R e a soma de todas as resistências é chamada de impedância . Z = R+jX

O módulo de impedância é a razão entre as amplitudes de tensão e corrente, enquanto a fase é a diferença entre as fases de tensão e corrente.

    Se um X >0 diz que a reatância é indutiva

    Se um X =0 dizer que a impedância é puramente resistiva (ativa)

    UE se X <0 говорят, что реактивное сопротивлние является ёмкостным .

Em um circuito oscilatório real , usado , por exemplo , em engenharia de rádio , podemos compensar a energia indutiva reativa com sua energia reativa capacitiva porque com capacitância reativa o vetor de corrente está adiantado em relação à tensão e com vetor de corrente indutivo atrasa a tensão em 90 graus e eles estão no mesmo plano, mas não simultâneos. Como uma das características da indutância é a capacidade de manter a corrente fluindo através dela inalterada, então quando a corrente de carga flui, mudança de fase entre corrente e tensão (a corrente "atrasa" a tensão por um ângulo de fase). Diferentes sinais de corrente e tensão para o período de mudança de fase, como resultado, levam a uma diminuição na energia dos campos eletromagnéticos de indutâncias, que são reabastecidas pela rede. Para a maioria dos consumidores industriais, isso significa o seguinte: ao longo das redes entre a fonte de eletricidade e o consumidor, além da energia ativa que realiza trabalho útil, também flui a energia reativa que não realiza trabalho útil.

Do exposto segue que , o que d Para a existência de uma corrente elétrica ao condutor, é necessário fornecer energia do lado de fora na forma eletromagnético Campos.

Explicação adicional . Capacitância R aumenta com o número de voltas do eletroímã .

R = 1/(2 π*C*f), Onde f- frequência , e C- capacidade .

Indutância L=N 2 * μ *A/l,

Onde EU- indutância ,N- número de voltas do fio condutor, µ - coeficiente de permeabilidade do núcleo , UMA- volume do núcleo ,eu- comprimento médio do núcleo .

f = 1/(2 π*√(L*C))

Consequentemente , R = 1/(4π 2 * C * N * √( μ * A / l)).

    Para entender as propriedades de um fóton, vamos realizar um experimento simples. Vamos soltar duas bolas de mesmo peso, da mesma altura, sobre uma placa de aço. Uma bola de plasticina e a outra bola- aço. É fácil ver que a quantidade de rebote da placa é diferente para eles e maior para a esfera de aço. O valor de rebote é determinado pela deformação elástica dos materiais das bolas. Agora vamos enviar um feixe de luz para o fogãouma , ou seja, o fluxo de fótons. Sabe-se da óptica que o ângulo de incidência de um feixe é estritamente igual ao ângulo de reflexão. Quando dois corpos colidem, eles trocam energia na proporção de suas massas. No caso de um feixe de fótons, este altera apenas o vetor de movimento. Não decorre desse fato a conclusão sobre o valor incomumente alto da deformação elástica do fóton, ou seja, sobre a superelasticidade. Afinal, estamos familiarizados com o fenômeno da plasticidade excessiva de algumas ligas.

11. Qual é o papel da deformação elástica no microcosmo? Sabemos que uma mola comprimida tem uma energia potencial, cujo valor é tanto maior quanto maior for a deformação elástica da mola. Sabemos que durante um processo oscilatório, a energia potencial é convertida em energia cinética e vice-versa. Sabe-se também que todas as partículas do micromundo realizam movimento oscilatório, ou seja, possuem sua própria frequência de oscilação, o que cria um campo eletromagnético ao redor da partícula. Assim, cada partícula do microcosmo é um circuito micro oscilatório como um circuito oscilatório de engenharia de rádio. Portanto, o campo eletromagnético deve criar um torque na partícula:M = r eu *F eu , EU - onde é um certo ponto de aplicação deste momento. Observe que a frequência da micropartícula não varia com o tempo. Portanto, a magnitude do torque e a magnitude da corrente elétrica que a causa não mudam com o tempo. E isso só é possível no caso de supercondutividade!

Este torque gira a partícula em torno dos eixos X e Y em sucessão, criando uma deformação elástica de torção. Essas deformações superelásticas retornam a partícula ao seu estado original. Assim, um movimento oscilatório de uma partícula é criado com a transição da energia potencial incorporada na deformação elástica de torção para a energia cinética do movimento da partícula no espaço ao longo do eixoZ .

O mecanismo de tal transição pode ser imaginado como torcer um tubo de pasta. De fato, a mudança de volume leva à extrusão da pasta do orifício do tubo, localizado perpendicularmente ao plano de torção do tubo. Esse momento interno faz com que a partícula se mova ao longo do eixoZ. Existe um nanomotor de alta eficiência. Algo semelhante pode ser observado na chamada roda de roupas íntimas. Se o eixo de tal roda não for fixo, em vez de uma roda giratória, obteremos o movimento de seu rolamento translacional. Para implementar este motor, é necessário criar um material com valores invulgarmente altos de deformação elástica de torção . Então o caminho para viajar na velocidade da luz se abrirá.

12. Essas propriedades extremamente altas das micropartículas ocorrem em materiais a temperaturas próximas a zero Kelvin. Não importa periodicamente encolher em algum tipo de buraco negro, que é crioplasma a uma temperatura Kelvin. Não é esta matéria, graças às super propriedades, um acumulador de energia potencial, que, ao atingir um nível crítico, é transformada em energia cinética por uma explosão?

Física do micromundo

Níveis estruturais da matéria na física

(inserir foto)

Níveis estruturais de substâncias no micromundo

    Nivel molecular- o nível da estrutura molecular das substâncias. Molécula – um único sistema de mecânica quântica unindo átomos

    Nível atômico- o nível da estrutura atômica das substâncias.

Átomo - um elemento estrutural do micromundo, constituído por um núcleo e uma camada de elétrons.

    Nível do núcleo- o nível do núcleo e as partículas dos seus constituintes.

Nucleon - o nome geral do próton e do nêutron, que são partes constituintes dos núcleos atômicos.

    Nível de quark- o nível de partículas elementares - quarks e léptons

Estrutura do átomo

Os tamanhos dos átomos são cerca de 10 -10 m.

As dimensões dos núcleos dos átomos de todos os elementos são de cerca de 10 a 15 m, o que é dezenas de milhares de vezes menor que o tamanho dos átomos

O núcleo de um átomo é positivo, e os elétrons que giram em torno do núcleo carregam uma carga elétrica negativa. A carga positiva do núcleo é igual à soma das cargas negativas dos elétrons. O átomo é eletricamente neutro.

O modelo planetário do átomo de Rutherford . (inserir foto)

As órbitas circulares de quatro elétrons são mostradas.

Os elétrons em órbitas são mantidos pelas forças de atração elétrica entre eles e o núcleo de um átomo

Um elétron não pode estar no mesmo estado de energia. Na camada eletrônica, os elétrons estão dispostos em camadas. Cada camada contém uma certa quantidade: na primeira camada mais próxima do núcleo - 2, na segunda - 8, na terceira - 18, na quarta - 32, etc. Após a segunda camada, as órbitas dos elétrons são calculadas em subcamadas .

Níveis de energia de um átomo e uma imagem condicional dos processos de absorção e emissão de fótons (Ver foto)

Ao passar de um nível de baixa energia para um nível de energia mais alto, um átomo absorve energia (quantidade de energia) igual à diferença de energia entre as transições. Um átomo emite um quantum de energia se um elétron no átomo faz a transição de um nível de energia mais alto para um mais baixo (saltos).

Classificação geral de partículas elementares

Partículas elementares- são partículas indecomponíveis, cuja estrutura interna não é uma associação de outras partículas livres, não são átomos ou núcleos atômicos, com exceção do próton

Classificação

    Fótons

    Elétrons

  • bárions

Nêutron

Principais características das partículas elementares

Peso

    Léptons (luz)

    Mésons (médio)

    Bárions (pesados)

Vida

    estábulo

    Quase estável (decaindo na interação fraca e eletromagnética)

    Ressonâncias (partículas instáveis ​​de vida curta que decaem devido à forte interação)

Interações no micromundo

    Interação forte fornece forte ligação e nêutrons nos núcleos dos átomos, quarks nos núcleos

    Interação eletromagnética fornece a conexão de elétrons com núcleos, átomos em moléculas

    Interação fraca fornece uma transição entre diferentes tipos de quarks, em particular, determina o decaimento de nêutrons, causa transições mútuas entre diferentes tipos de léptons

    Interação gravitacional no microcosmo a uma distância de 10 -13 cm não pode ser ignorada, no entanto, a distâncias da ordem de 10 -33 cm, começam a aparecer propriedades especiais do vácuo físico - partículas superpesadas virtuais se cercam de um campo gravitacional que distorce o geometria do espaço

Características da interação de partículas elementares

Tipo de interação

Intensidade relativa

Alcance cm

Partículas entre as quais existe uma interação

Partículas - portadores de interação

título

GeV em massa

Forte

Hádrons (nêutrons, prótons, mésons)

Glúons

eletromagnético

Todos os corpos e partículas eletricamente carregados

Fóton

Fraco

Todas as partículas elementares, exceto fótons

Obozons vetoriais C + , C - , Z 0

gravitacional

Todas as partículas

Grávitons (partícula hipotética)

Níveis estruturais de organização da matéria (campo)

Campo

    Gravitacional (quanta - gravitons)

    Eletromagnético (quanta - fótons)

    Nuclear (quanta - mésons)

    Elétron - positivo (quantum - elétrons, pósitrons)

Níveis estruturais de organização da matéria (substância e campo)

A substância e o campo são diferentes

    Por massa de repouso

    De acordo com as leis do movimento

    De acordo com o grau de permeabilidade

    De acordo com o grau de concentração de massa e energia

    Como entidades corpusculares e ondulatórias

Conclusão geral : a diferença entre substâncias e campos caracteriza corretamente o mundo real na aproximação macroscópica. Essa diferença não é absoluta, e na transição para os micro-objetos sua relatividade é claramente revelada. No micromundo, os conceitos de "partículas" (substância) e "ondas" (campos) atuam como características adicionais que expressam a inconsistência interna da essência dos micro-objetos.

Quarks são partículas elementares constituintes

Todos os quarks têm uma carga elétrica fracionária. Os quarks são caracterizados estranheza, encanto e beleza.

A carga bariônica para todos os quarks é 1/3, para seus antiquarks correspondentes é 1/3. Cada quark tem três estados, esses estados são chamados de cores: R - vermelho, G - verde e B - azul

A FÍSICA QUÂNTICA

física quântica − um ramo da física que estuda fenômenos inerentes ao micromundo, ou seja, objetos medindo 10 -10 m ou menos. A especificidade dos fenômenos que ocorrem no microcosmo reside principalmente na impossibilidade do direto, ou seja, através dos sentidos (principalmente visão) para obter informações sobre processos em andamento. Fundamentalmente, novas abordagens e métodos baseados em quantidades medidas experimentalmente são necessários para descrever os fenômenos do micromundo.
O nascimento da física quântica foi precedido por uma situação dramática na física no final do século XIX. A física clássica provou ser incapaz de descrever adequadamente o espectro de radiação de equilíbrio. Naquela época, a radiação térmica era considerada como um conjunto de ondas planas, e sua descrição teórica estava de acordo com o experimento. No entanto, em altas frequências, a densidade de energia de radiação prevista deve ter aumentado até o infinito. Esta situação é conhecida como a "catástrofe ultravioleta".

Uma saída inesperada da situação foi proposta pelo físico alemão Max Planck (Max Karl Ernst Ludwig Planck). Sua ideia era que a radiação ocorre em quanta separados e a energia de uma onda eletromagnética não pode ser arbitrária, como se acreditava na física clássica, mas deve ter certos valores proporcionais a algum valor muito pequeno h (igual a 6,63 10 -34 J s), que foi então denominado constante de Planck. Então a densidade de energia total não pode mais ser considerada uma quantidade contínua, mas consiste em muitas porções de energia (quanta), cuja soma não pode ser tão grande quanto as hipóteses clássicas previstas. O problema da densidade de radiação e "catástrofe ultravioleta" foi resolvido com sucesso. Pela descoberta do quantum de energia em 1918, Max Planck recebeu o Prêmio Nobel.
A introdução do quantum possibilitou resolver uma série de outras questões que então enfrentavam a ciência. Usando a ideia de Planck de um quantum de energia, Albert Einstein em 1905 derivou a equação do efeito fotoelétrico E = hν + W, onde E é a energia cinética dos elétrons, ν é a frequência da radiação eletromagnética, h é a constante de Planck e W é a função trabalho dos elétrons para uma dada substância. A conquista mais importante neste caso foi a introdução da energia da radiação eletromagnética em função da frequência (ou comprimento de onda) da radiação, o que levou à criação de uma escala de ondas eletromagnéticas.
A ideia de um quantum levou à conclusão sobre a discrição dos fenômenos que ocorrem no microcosmo, que mais tarde foi usado no estudo dos níveis de energia dos átomos e núcleos atômicos.


A dependência do comprimento de onda de vários tipos de partículas em sua energia
(unidades nucleares - MeV = 1,6 10 -13 J, fm = 10 -15 m)

Outra consequência importante da discrição dos fenômenos do micromundo foi a descoberta por Louis de Broglie (1929) da universalidade da dualidade onda-partícula, i.e. o fato de que os objetos do microcosmo têm natureza ondulatória e corpuscular ao mesmo tempo. Isso tornou possível não apenas explicar uma série de fenômenos associados à interação de partículas com a matéria (por exemplo, difração de partículas), mas também desenvolver métodos para usar a radiação para influenciar partículas, o que levou à criação dos principais modernos ferramenta para estudar a matéria - aceleradores.
Na segunda metade da década de 1920, foi criado um aparato teórico para descrever fenômenos quânticos − mecânica quântica. A contribuição mais significativa para sua criação foi feita por Werner Heisenberg, Erwin Schrödinger, Niels Bohr, Paul Dirac, Wolfgang Pauli, Max Born e outros.
A mecânica quântica é uma parte separada e bem desenvolvida da física moderna. Para sua assimilação profunda, é necessária uma boa formação matemática, que vai muito além do escopo do curso de física de muitas universidades. No entanto, as explicações dos conceitos básicos da mecânica quântica não são tão complicadas. Esses conceitos básicos incluem principalmente o significado físico da quantização, o princípio da incerteza e a função de onda.
O significado físico da discrição dos estados no microcosmo está, em primeiro lugar, ligado ao significado físico da constante de Planck. A pequenez de seu valor determina escala de interações no microcosmo. De fato, na transição para o macrocosmo e os conceitos clássicos, quantidades semelhantes à constante de Planck tornam-se desprezíveis, e na maioria dos casos as consideramos como zero. Nesse caso, ocorre a chamada passagem ao limite, ou seja, os princípios da física clássica podem ser considerados como a versão definitiva da física quântica, quando as massas, tamanhos e outros parâmetros de macro-objetos, enormes em termos da escala do microcosmo, anulam aquelas interações que são significativas no microcosmo. Portanto, podemos dizer que a constante de Planck é um elo entre os fenômenos do micro e macromundo.
Isso pode ser visto especialmente bem no exemplo da discrição dos estados no micromundo. Por exemplo, a diferença entre os estados de energia de um átomo pode ser décimos de um elétron-volt (a unidade de energia do micromundo, igual a 1,6·10 -19 J). Basta lembrar que são necessárias dezenas de quilojoules para ferver um copo de água, e fica claro que, do ponto de vista da física clássica, tal discrição é absolutamente imperceptível! É por isso que podemos falar da continuidade dos processos que nos cercam, apesar da longa e constantemente confirmada discrição dos fenômenos que ocorrem em átomos e núcleos atômicos.
Pela mesma razão, um princípio tão fundamental da física do micromundo como princípio da incerteza, proposto por W. Heisenberg em 1927
A figura abaixo explica a necessidade de introduzir o princípio da incerteza no micromundo e a ausência dessa necessidade no macrocosmo

De fato, o grau de influência de uma fonte externa (luz) em um macro-objeto (estátua) é incomensurável com seus parâmetros (por exemplo, massa convertida em energia equivalente).
Outra coisa é quando um micro-objeto se torna objeto de influência. A energia de um elétron em um átomo é de dezenas (raramente mais) de elétron-volts, e o grau de impacto é bastante proporcional a essa energia. Assim, ao tentar medir com precisão qualquer parâmetro de um micro-objeto (energia, momento, coordenada), encontraremos o fato de que o próprio processo de medição mudará os parâmetros medidos e muito fortemente. Então é necessário admitir que com quaisquer medições no microcosmo, nunca seremos capazes de fazer medições precisas − sempre haverá um erro na determinação dos principais parâmetros do sistema. O princípio da incerteza tem uma expressão matemática na forma relações de incerteza, por exemplo ΔpΔx ≈ ћ, onde Δp é a incerteza na determinação do momento, e Δx é a incerteza na determinação da coordenada do sistema. Observe que a constante de Planck à direita indica os limites de aplicabilidade do princípio da incerteza, pois no macrocosmo podemos substituí-lo com segurança por zero e realizar medições precisas de quaisquer quantidades. O princípio da incerteza leva à conclusão de que é impossível especificar exatamente qualquer parâmetro do sistema, por exemplo, não faz sentido falar sobre a localização exata de uma partícula no espaço. A este respeito, deve-se notar que a representação generalizada do átomo como um conjunto de elétrons girando em determinadas órbitas ao redor do núcleo é simplesmente uma homenagem à percepção humana do mundo ao nosso redor, a necessidade de ter quaisquer imagens visuais na frente de nós. nós. Na realidade, não há trajetórias claras - órbitas no átomo.
No entanto, pode-se fazer a pergunta - qual é então a principal característica dos sistemas no micromundo, se parâmetros como energia, momento, tempo de interação (ou existência), coordenada - não são definidos? Este valor universal é função de onda sistema quântico.
A função de onda ψ, introduzida por Max Born para determinar as características de um sistema quântico, tem um significado físico bastante complexo. Outra quantidade, o quadrado do módulo da função de onda |ψ| 2. Este valor determina, por exemplo, probabilidade que o sistema quântico está em um determinado ponto no tempo em um determinado ponto. Em geral, o princípio probabilístico é o principal na física do micromundo. Qualquer processo em andamento é caracterizado principalmente pela probabilidade de sua ocorrência com certas características.
A função de onda é diferente para sistemas diferentes. Além de conhecer a função de onda, uma descrição correta do sistema também requer informações sobre outros parâmetros, por exemplo, as características do campo em que o sistema está localizado e com o qual ele interage. O estudo de tais sistemas é precisamente uma das tarefas da mecânica quântica. De fato, a física quântica forma uma linguagem com a qual descrevemos nossas experiências e resultados no estudo do micromundo, mais geral do que a teoria clássica. Ao mesmo tempo, é importante entender que a física quântica não anula a clássica, mas a contém como seu próprio caso limite. Na transição de micro-objetos para objetos macroscópicos comuns, suas leis se tornam clássicas e, assim, a física quântica estabelece os limites de aplicabilidade da física clássica. A transição da física clássica para a quântica é uma transição para um nível mais profundo de consideração da matéria.
Os processos que ocorrem no microcosmo pertencem aos fenômenos que estão quase completamente além dos limites das percepções sensoriais. Portanto, os conceitos sobre os quais a teoria quântica opera e os fenômenos que ela considera são muitas vezes desprovidos de visibilidade. , inerentes à física clássica. Durante a formação da teoria quântica, essas idéias aparentemente óbvias e familiares sobre partículas e ondas, sobre descrições discretas e contínuas, sobre estatísticas (probabilísticas) e dinâmicas foram revisadas. A física quântica tornou-se um passo importante na construção de uma imagem física moderna do mundo. Tornou possível prever e explicar um grande número de fenômenos diferentes - desde processos que ocorrem em átomos e núcleos atômicos até efeitos macroscópicos em sólidos; sem ela, parece agora impossível compreender a origem do universo. O alcance da física quântica é amplo - de partículas elementares a objetos espaciais. Sem a física quântica, não apenas a ciência natural, mas também a tecnologia moderna é impensável.

FÍSICA ATÔMICA

Em 1885, J.J. Thomson descobriu o elétron, o primeiro objeto do microcosmo. O surgimento de um novo ramo da ciência - a física do átomo foi estabelecido. Já no início do século 20, havia vários modelos da estrutura do átomo, dos quais o mais famoso pertencia ao próprio J.J. Thomson. Com base nesse modelo, o átomo era uma carga positiva localizada em um pequeno volume, no qual, como passas em um bolo, havia elétrons. Este modelo explicou uma série de efeitos observados, mas foi incapaz de explicar outros, em particular, o aparecimento de espectros atômicos de linha. Em 1911, o compatriota de Thomson, Ernest Rutherford, tentou responder à pergunta sobre a estrutura do átomo.
O esquema do experimento foi simples - uma fonte, uma substância radioativa que emite núcleos de hélio, foi colocada em um bloco de chumbo. As partículas carregadas passaram pela fina folha de ouro e se espalharam, interagindo com os átomos de ouro. Em seguida, as partículas espalhadas caíram sobre uma tela coberta com uma substância na qual causaram cintilações (flashes). A ideia era que, se o modelo do átomo de Thomson estivesse correto, a interação ocorreria aproximadamente da mesma maneira em todos os ângulos ao longo do caminho das partículas. De fato, a maioria das partículas atinge a tela, interagindo fracamente com o material da folha. Mas, uma pequena parte (cerca de 8 partículas em mil) deles experimentou forte espalhamento BACK, como se colidisse com algum tipo de carga concentrada no meio do átomo. Após vários experimentos, Rutherford concluiu que o modelo de Thomson estava incorreto. Ele propôs um modelo mais tarde chamado planetário. No centro, em um pequeno volume, toda a carga positiva (núcleo) está concentrada, os elétrons estão localizados ao seu redor.

O modelo de Rutherford era bom, mas ainda não respondia a várias perguntas. Por exemplo, como ocorre a radiação dos átomos (luminescência)? Em que circunstâncias os átomos emitem diferentes fótons de luz? Do que depende? A emissão dos átomos está relacionada ao comportamento dos elétrons dentro deles? As respostas a essas perguntas dois anos depois foram dadas pelo notável físico dinamarquês Niels Bohr (Niels Henrik David Bohr)


Imagem de N. Bora na nota dinamarquesa de 500 coroas.

Bohr desenvolveu o modelo planetário assumindo que cada elétron em um átomo tem algum estado de energia fixo (que pode ser descrito grosseiramente como encontrar um elétron em alguma órbita).Enquanto um átomo está em seu estado de energia mais baixo, ele não pode irradiar. Ao receber energia de fora, os elétrons podem mudar seu estado de energia (passar para outra órbita) ou até mesmo deixar o átomo (ionização). Ao retornar ao seu lugar (ou sua órbita), o excesso de energia é liberado na forma de radiação característica (um fóton com alguma energia). O átomo "segundo Bohr" respondeu a todas essas questões que surgiram após a criação dos primeiros modelos atômicos. O estudo experimental dos átomos confirmou com sucesso o modelo de Bohr e, a propósito, as previsões quânticas sobre a discrição das energias no átomo. Em 1922, Niels Bohr recebeu o Prêmio Nobel por seu trabalho sobre a estrutura dos átomos e sua radiação.
Já na década de 20 do século passado, o átomo era bem estudado. O sucesso também foi facilitado pelo fato de que a conexão dos componentes do átomo - o núcleo e os elétrons, foi realizada devido ao conhecido potencial de Coulomb. No final da década de 1920, surgiu a teoria quântica, descrevendo vários átomos e as leis de seu comportamento.
Os átomos são sistemas quânticos eletricamente neutros com dimensões características da ordem de 10 a 10 m. Cada átomo contém um núcleo no qual a carga positiva do átomo está concentrada e quase toda a massa (mais de 99,9%) do átomo está concentrada. A carga negativa é distribuída entre os elétrons, seu número é igual ao número de partículas nucleares carregadas positivamente (prótons) no núcleo. Quando uma certa energia, chamada energia de ionização, é aplicada a um átomo, um dos elétrons deixa o átomo. A parte restante carregada positivamente é chamada íon, e esse processo é chamado de ionização. O processo inverso é chamado de recombinação e é acompanhado pela emissão de um fóton com uma energia correspondente à diferença das energias do átomo antes e depois da recombinação.

A ionização é um processo que ocorre constantemente ao nosso redor. As fontes de ionização são a radiação cósmica, vários instrumentos e dispositivos, fontes radioativas.
Com base nas propriedades dos átomos descritas acima, um grande número de dispositivos técnicos opera. Um exemplo que encontramos todos os dias são as lâmpadas fluorescentes. É o brilho do gás como resultado da recombinação de íons que é a causa da emissão de radiação luminosa nesses dispositivos.
Na década de 1950, como resultado do estudo das propriedades da emissão estimulada de fótons por vários átomos, foram desenvolvidos amplificadores de radiação óptica - lasers. (da abreviatura Amplificação de Luz por Emissão Estimulada de Radiação − amplificação da luz por emissão estimulada). O laser não é um dispositivo óptico, como os lendários escudos espelhados de Arquimedes, mas um dispositivo quântico que usa a estrutura de níveis atômicos para amplificar opticamente a radiação. A principal vantagem de um laser é a alta monocromaticidade (ou seja, todos os fótons emitidos têm quase o mesmo comprimento de onda) da radiação que ele gera. É precisamente por isso que os lasers são atualmente amplamente utilizados em eletrônicos e tecnologia industrial e de consumo, medicina e outros campos.

FÍSICA DO NÚCLEO

Em 1911, Ernest Rutherford propôs seu modelo do átomo, no centro do qual havia um objeto com dimensões de aproximadamente 10 -15 - 10 -14 m, contendo quase toda a massa do átomo. Este objeto é nomeado núcleo atômico. No entanto, como não é surpreendente, o estudo do núcleo atômico começou muito antes, no final do século XIX. É verdade que naquela época as propriedades dos núcleos atômicos eram atribuídas a átomos, cuja estrutura não era exatamente conhecida.

NO 1896 Antoine Becquerel, estudando a radiação dos átomos de alguns metais pesados, chegou à conclusão de que as partículas emitidas por eles, ao contrário da luz, tendem a penetrar em substâncias densas. Após 3 anos, continuando experimentos com substâncias radioativas, Ernest Rutherford colocou minério de urânio em um campo magnético e descobriu que o feixe primário se dividia em 3 partes, um tipo de partículas desviado para o pólo norte do ímã, o segundo - para o sul, e o terceiro passou sem alterações. Ainda sem conhecer a natureza dessas radiações, Rutherford nomeou-as com as três primeiras letras do alfabeto grego - α, β e γ. Estudos semelhantes, além de Becquerel e Rutherford, também foram realizados pelos cônjuges Curie - Pierre e Maria (Sklodowska-Curie). Marie Curie deu uma enorme contribuição ao estudo da radioatividade dos núcleos atômicos, pela primeira vez recebeu rádio metálico e estava entre os cientistas que criaram a física nuclear experimental. Ela é a única mulher cientista a ganhar dois prêmios Nobel (em química e física).
No entanto, o progresso real no desenvolvimento da física nuclear ocorreu após a criação da mecânica quântica. Afinal, depois de 1911 a 1913. Rutherford e Bohr descobriram a estrutura do átomo, surgiu a questão - qual é a estrutura do núcleo atômico? Rutherford tentou responder, regendo em 1918-1921. experimentos sobre o estudo de núcleos atômicos leves. Foi ele quem pela primeira vez em 1919 realizou reação nuclear e abriu próton

14N + 4He → 17O + p

O nitrogênio, interagindo com os núcleos de hélio (partículas α), transformou-se em oxigênio e hidrogênio. Na verdade, Rutherford foi o primeiro a realizar o que os alquimistas medievais sonhavam - a transformação de uma substância em outra.

O voo de um próton do núcleo confirmou a ideia da presença de prótons no núcleo. Ao mesmo tempo, ficou claro que as massas dos núcleos são muito maiores do que se consistissem no número necessário de prótons. Surgiu então a ideia de um modelo próton-elétron do núcleo, os elétrons no núcleo compensavam a carga de uma parte dos prótons que estavam ali, como dizem, “pelo peso”.
Os sucessos da mecânica quântica logo levaram ao fato de que a possibilidade da existência de elétrons nos núcleos era duvidosa - de acordo com o princípio da incerteza, um elétron colocado em um núcleo deveria ter muita energia e não poderia ser mantido lá . Em 1931, Heisenberg, Ivanenko e Majorana, independentemente um do outro, propõem a ideia de um "próton neutro" - uma partícula pesada sem carga localizada em um núcleo atômico. A clareza final veio em 1932, quando James Chadwick descobriu nêutron- uma partícula neutra com uma massa aproximadamente igual à massa de um próton. Assim, o moderno modelo próton-nêutron núcleo atômico.
A principal deficiência em nosso conhecimento do núcleo atômico é a falta de uma forma exata capacidade nuclear, que liga nucleons. Resolver o problema de criar uma teoria completa do núcleo é o mais importante na física nuclear. Ao mesmo tempo, sabemos muito sobre a estrutura do núcleo atômico.
O núcleo atômico é um objeto com dimensões de cerca de 10 a 15 m, composto por dois tipos de partículas - prótons e nêutrons. Suas massas são aproximadamente 1,7·10-27 kg, e o nêutron é 0,14% mais pesado que o próton. Devido à semelhança nas propriedades (com exceção da presença de uma carga), ambas as partículas são frequentemente chamadas de " núcleon».
Existem atualmente cerca de 3400 núcleos atômicos conhecidos. 330 deles são estáveis, o restante pode se transformar espontaneamente em outros núcleos (radioativos) em um tempo bastante curto. Os núcleos que têm o mesmo número de prótons, mas diferentes nêutrons são chamados isótopos o mesmo elemento. Assim, por exemplo, o hidrogênio tem três isótopos - o próprio hidrogênio, deutério e trítio radioativo. Mas o estanho tem mais de 30 isótopos, a maioria deles radioativos.
O núcleo atômico é um sistema quântico que obedece às leis da física quântica. O núcleo atômico tem uma estrutura de energia discreta. É verdade que ele não possui uma estrutura “planetária”, como em um átomo, mas também existem várias posições de energia de nucleons, chamadas de níveis de energia. Ao receber uma porção de energia, os núcleons do núcleo passam para um estado de energia mais alto e, ao retornarem, emitem energia na forma de fótons com comprimento de onda pequeno. Esses fótons nucleares são geralmente chamados de γ -quanta. Ao atingir a energia chamada energia de separação de núcleons, o núcleo pode ejetar um nucleon, alterando sua composição e propriedades. O número de diferentes tipos de núcleons em um núcleo e seu estado de energia determinam as propriedades dos núcleos atômicos e características mais fundamentais. Por exemplo, a prevalência de elementos no universo é explicada precisamente pelas características quânticas dos núcleos atômicos.
Ao combinar nucleons em núcleos, observa-se um efeito interessante - a massa do núcleo resultante acaba sendo ligeiramente (cerca de 1%) menor que a massa de seus nucleons constituintes. A diferença entre a massa de nucleons e a massa do núcleo vai para a ligação de nucleons no núcleo e, portanto, é chamada energia de ligação

E St \u003d ZM p s 2 + (A-Z) M n s2 − M I s 2,

onde Z é a carga do núcleo, A é Número de massa(número de nucleons no núcleo)

A energia de ligação é uma quantidade extremamente importante, que também determina muitas propriedades dos núcleos. Uma quantidade igualmente importante é energia de ligação específica, ou seja a razão entre a energia de ligação e o número de nucleons


Dependência da energia de ligação específica no número de nucleons

Pode-se ver que essa dependência tem um máximo claro na região do núcleo de 56 Fe (por isso também é chamado de “máximo de ferro”). Esta circunstância, sem exagero, é de grande importância prática.

No final da década de 1930, ao estudar núcleos pesados, foi estabelecido um padrão para uma diminuição gradual na energia de ligação específica. Como consequência, à medida que esse valor diminui, o núcleo fica mais instável, "solto". Além disso, com um certo impacto, pode começar a ejetar nucleons ou até mesmo desmoronar. Em 1939, os físicos alemães Otto Hahn e Fritz Strassman, irradiando sais de urânio com nêutrons térmicos, descobriram o bário entre os produtos da reação. Isso significava que sob um impacto muito pequeno (a energia dos nêutrons térmicos corresponde à energia das moléculas de gás à temperatura ambiente), um dos isótopos do urânio é capaz de se separar. No entanto, isso não foi o principal, mas o fato de que, como segue no diagrama acima, os núcleos do fragmento resultantes terão uma energia de ligação específica muito maior, ou seja, estará mais conectado. Portanto, durante a fissão, haverá uma diferença de energia e essa diferença será liberada. A próxima década e meia traduziu essa descoberta em uma área prática. Em 1942 o primeiro Reator nuclear(EUA), em 1945 o primeiro bomba nuclear(EUA), em 1954 - foi lançada a primeira usina de combustível nuclear (URSS).

Como é realizada a extração prática de energia durante a fissão? Imagine que temos uma quantidade suficiente de uma amostra de uma substância que cindível com um pequeno impacto (nêutrons térmicos). Após o primeiro ato de fissão, além dos núcleos dos fragmentos, vários nêutrons também serão liberados com energia muito superior à dos nêutrons térmicos. Eles dividirão os núcleos que encontrarem no caminho, como resultado desse processo, a cada novo núcleo dividido, novos nêutrons serão formados, que, por sua vez, dividirão novos núcleos, etc. O processo será semelhante a uma avalanche e por isso é chamado de reação em cadeia divisão.
Um processo semelhante é realizado em uma carga nuclear e leva a uma liberação colossal de energia em um curto espaço de tempo (vários milissegundos). A explosão de uma carga de vários quilogramas, por exemplo, 239 Pu, é semelhante à explosão de várias centenas de quilotons (!) De um explosivo convencional.
No entanto, existe uma maneira de esticar esse processo ao longo do tempo. Se você observar o esquema da reação em cadeia, poderá ver que um fator importante é o número de nêutrons que os núcleos de fissão. Portanto, ao colocar uma substância capaz de capturar nêutrons (absorvedor) em um material físsil, esse processo pode ser desacelerado o suficiente para poder remover a energia liberada, forçando-a, por exemplo, a aquecer água para ferver e usar vapor para girar a turbina de uma usina de energia (NPP). As usinas nucleares modernas usam carbono (grafite) como absorvedor.
Se olharmos agora para a região dos núcleos à esquerda do "máximo de ferro", pode-se notar que sua energia específica de ligação, em média, acaba sendo ainda menor do que a dos núcleos no próprio máximo. Assim, para núcleos leves, é possível um processo que é o inverso da fissão - síntese. Neste caso, como no caso da fissão, a energia será liberada. As reações de fusão incluem, por exemplo, a fusão de núcleos de deutério para formar hélio.

2 H + 2 H → 3 He + n


reação termonuclear

O problema, como é fácil ver, é que em todos os casos é preciso lidar com a fusão de objetos com cargas semelhantes, os chamados Barreira de Coulomb, para superar o que você ainda precisa gastar energia. Isso é mais facilmente alcançado aquecendo substâncias sintetizadas a temperaturas muito altas (milhões de graus). Em condições terrestres, isso só é possível com uma explosão nuclear. Assim, ao colocar uma carga nuclear em uma casca de elementos leves, pode-se obter uma reação de fusão descontrolada ou (devido às altas temperaturas que ocorrem), reação termonuclear. Pela primeira vez, tal reação (uma explosão de uma bomba termonuclear) foi realizada em 1953 (URSS).
Na natureza, as reações termonucleares ocorrem nas estrelas, onde existem todas as condições para "romper" a barreira de Coulomb. Além disso, a compressão gravitacional mais forte também contribui para a reação de fusão com a formação de elementos mais pesados, até o ferro.
O problema da implementação da fusão termonuclear controlada continua sem solução e um dos mais relevantes para a física nuclear, pois permite o uso de combustível barato em quantidades praticamente ilimitadas sem consequências prejudiciais para o meio ambiente.
Como já observado, a composição do núcleo atômico determina em grande parte suas propriedades. Uma das características nucleares mais proeminentes que influenciam o comportamento dos núcleos é a razão entre nêutrons e prótons nos núcleos atômicos. Isso é melhor visto nos chamados Diagrama N-Z.


Diagrama N-Z de núcleos atômicos.

Existem várias áreas notáveis ​​no diagrama. Uma delas é a parte central, uma estreita faixa de núcleos marcada em preto. Este é o chamado "vale da estabilidade", a região dos núcleos estáveis ​​que não estão sujeitos ao decaimento. Com o aumento do número de nêutrons (à direita do vale de estabilidade), localizam-se os núcleos marcados em azul. Com um excesso de nêutrons, a energia do núcleo aumenta e torna-se possível "retornar" ao vale de estabilidade convertendo um dos nêutrons em um próton

n → p + e - + e .

Esse processo é chamado decaimento β-menos. O nêutron se transforma em um próton, um elétron e eletrônico. O nêutron também pode experimentar esse decaimento fora dos núcleos. Como resultado de tal decaimento, o núcleo aumenta sua carga, deslocando-se para a região de estabilidade.
A região vermelha é a região dos núcleos com excesso de prótons. Eles fazem o processo inverso:

p → n + e + + v e

chamado decaimento β-plus. O próton se transforma em um nêutron, um pósitron e um neutrino de elétron (as duas últimas partículas são os “antípodas” de um elétron e um antineutrino). Deve-se notar que, como a massa do próton é menor que a massa do nêutron, tal decaimento ocorre apenas nos núcleos, no estado livre o próton é estável.
A área amarela no diagrama é a área de núcleos instáveis ​​​​pesados. Eles são caracterizados por outro tipo de decaimento - a emissão de partículas α (4 núcleos de He) ou α-decaimento, Esse tipo de decaimento leva a uma diminuição tanto do número de carga quanto do número de massa e do "movimento" do núcleo para a região de núcleos mais leves. Às vezes, isso leva a uma cadeia de decaimentos. Por exemplo,

226 Ra → 222 Rn + 4 He; 222 Rn → 208 Po + 4 He; 208Po → 204Pb + 4He,

onde o último já é um kernel estável.
Em muitos casos, o núcleo resultante do decaimento tem um excesso de energia e é liberado dele pela emissão de um γ-quantum, transição γ no núcleo (às vezes incorretamente chamado de decaimento γ).
Todos os decaimentos de núcleos são caracterizados por suas próprias características associadas à probabilidade de decaimentos, ao tipo de partículas emitidas e suas energias. No entanto, existem padrões gerais de decadência estabelecidos durante o trabalho de Becquerel e Curie. O principal é lei de decaimento radioativo.

N(t) \u003d N 0 e -λt,

onde N é o número de núcleos radioativos na amostra em um dado momento, N 0 é o número de núcleos radioativos em um certo tempo inicial e λ é a chamada constante de decaimento que caracteriza a probabilidade de decaimento. A constante de decaimento não é muito conveniente para uso prático, portanto, outro valor é frequentemente usado, T 1/2 - meia-vida, que caracteriza o tempo durante o qual o número de núcleos ativos diminui em 2 vezes. A constante de decaimento e a meia-vida estão relacionadas por

Vários núcleos de fontes radioativas podem ter meias-vidas que variam de milissegundos a bilhões de anos. Além disso, uma característica importante é a atividade da fonte (ou sua massa), que caracteriza a intensidade do decaimento em um determinado momento. Vários tipos de núcleos radioativos estão constantemente presentes ao nosso redor, e dois isótopos radioativos - 40 K e 14 C, estão constantemente no corpo humano.

FÍSICA DAS PARTÍCULAS

A física de partículas é talvez um dos ramos mais dinâmicos da física. No mínimo, é difícil nomear qualquer outra área do conhecimento das ciências naturais em que as ideias sobre o mundo de 40 a 50 anos atrás seriam tão diferentes das que temos agora. Isso se deve, em primeiro lugar, à mudança nas idéias sobre partículas e interações fundamentais que ocorreram durante esse período no curso de estudos experimentais e teóricos da matéria. Quais são as principais disposições da física de partículas agora?
partículas fundamentais
− um conjunto de partículas que são atualmente os constituintes elementares da matéria. Nos anos 20 do século passado, havia apenas duas dessas partículas (e partículas em geral) - um próton e um elétron. Já na década de 1950, o número total de partículas conhecidas se aproximava de duas dezenas, e muitas delas eram consideradas sem estrutura. Agora, o número total de partículas chega às centenas, mas apenas algumas são verdadeiramente fundamentais. Todas as partículas fundamentais podem ser divididas em vários grandes grupos.
Quarks
. De acordo com os conceitos modernos, este é o principal componente da matéria; em massa, eles representam mais de 95% de toda a matéria visível. Quarks são divididos em 6 tipos (sabores), cada um com suas próprias propriedades e diferenças dos outros. isto você(acima), d(baixa), s(estranho) c(charme), b(inferior) e t(topo). Quarks têm carga fracionada, igual a 1/3 ou 2/3 da carga do elétron (próton). Cada quark tem seu próprio antipartícula- um antiquark que coincide com um quark em massa, mas oposto em muitas outras características (por exemplo, ter uma carga elétrica oposta). Além disso, os quarks têm uma característica especial - cor, do qual todas as outras partículas são privadas (dizem-se que são incolores). Quarks têm três cores - vermelho, azul e verde.
Claro, não se deve pensar que a cor dos quarks é um efeito visível a olho nu. A cor refere-se a uma característica especial que é expressa no comportamento dos quarks durante várias interações entre eles. O nome neste caso é condicional, da mesma forma que essa característica poderia ser chamada, por exemplo, gosto, ou qualquer outro termo poderia ser usado.
É fácil calcular que o número total de quarks (incluindo antiquarks e cores) é 36. A partir dessas 36 partículas, todas as partículas pesadas estruturais conhecidas são formadas. A combinação de três quarks forma bárions, e a totalidade do par quark-antiquark, mésons. O próton e o nêutron bem conhecidos também pertencem ao número de bárions. Bárions e mésons são combinados sob o termo geral hádrons. De todos os hádrons, apenas o próton é estável, todos os outros hádrons decaem, transformando-se em outras partículas.
Léptons
. Este é outro grupo de partículas, cuja principal diferença dos hádrons é sua falta de estrutura, ou seja, os léptons não consistem em outras partículas, mas são elementares. Os léptons são divididos em carregados - elétron, muão e taon e neutro - eletrônico, muônico e taon neutrino. Incluindo as antipartículas, o número total de léptons é 12. Os léptons não formam combinações, exceto os elétrons que compõem os átomos. O elétron é o único lépton carregado estável. A estabilidade de todos os tipos de neutrinos está agora em questão.
Operadoras de interação
. O número total de interações é 4. isto Forte(agindo entre quarks e hádrons), eletromagnético, fraco(agindo entre quase todas as partículas, mas especialmente pronunciada na interação de léptons) e gravitacional. Cada interação é transportada por um campo, que é representado como um fluxo de partículas transportadoras. O portador da interação forte é glúon, eletromagnético − gama quântica, fraco - três tipos bósons intermediários(W - , W + e Z) e gravitacional - gráviton(no entanto, a última partícula só é previsível a partir de considerações teóricas). Todas as operadoras têm suas próprias propriedades e cada uma participa de sua interação.
Quanto ao resto das partículas, apenas hádrons e glúons participam da interação forte; no campo eletromagnético, partículas carregadas e quanta gama; nos fracos, tudo menos os portadores de outras interações; na gravitacional, partículas que têm massa. A aparência da massa das partículas está associada a outro campo especial, chamado campo de Higgs, e as partículas que o transportam são Bósons de Higgs.

Até o início da década de 1960, todas as partículas conhecidas naquela época eram consideradas sem estrutura. No entanto, devido ao progresso no desenvolvimento da principal instrumentação experimental - aceleradores de partículas, já no final da década de 1950, surgiram suposições sobre a estrutura dos nucleons. Conduzindo experimentos em um acelerador de elétrons, o físico americano Robert Hofstadter descobriu que ao espalhar elétrons sobre nêutrons, pode-se ver que os elétrons interagem com o "interior" do nêutron como se ele tivesse alguma carga oculta distribuída de forma complexa em seu interior. Hofstadter sugeriu que isso pode ser devido à presença de alguns portadores de carga elétrica dentro do nêutron não carregado. Alguns anos depois, experimentos semelhantes foram realizados em outros laboratórios.

Com base nos dados desses experimentos e estudando a sistemática de partículas descoberta na época, outro físico americano, Murray Gell-Mann (Murray Gell-Mann), em 1963, apresentou a hipótese de que o próton e o nêutron são construídos a partir de partículas menores, que ele chamou de quarks. Inicialmente, Gell-Mann introduziu apenas dois quarks - você e d, no entanto, um número maior de partículas descobertas com propriedades diferentes foram forçados a fazer ajustes no modelo, aumentando seu número primeiro para 3 e 4 e depois para 6. A hipótese dos quarks enfrentou muitos problemas em seu desenvolvimento. Em primeiro lugar, era psicologicamente difícil perceber a existência de partículas com carga menor que a carga de um elétron. Em segundo lugar, as partículas descobertas no final dos anos 60 foram interpretadas no modelo de quarks de forma que pudesse ir contra os princípios básicos da mecânica quântica. Para resolver este problema, foi introduzida uma característica especial (número quântico) dos quarks, a cor. Em terceiro lugar, o problema do modelo de quarks era que todas as tentativas de detectar quarks em estado livre não levavam ao sucesso. Isso fez com que o modelo fosse rejeitado por muitos cientistas, pois somente a confirmação experimental de uma hipótese a transfere da categoria de hipóteses para a categoria de verdades físicas. Assim, em 1969, M. Gell-Mann recebeu o Prêmio Nobel, no entanto, na redação do prêmio "Pela contribuição e descobertas na classificação de partículas elementares e suas interações" não havia a palavra "quark".
Somente após experimentos no DESY (Alemanha), Fermilab (EUA) e no Centro Europeu de Pesquisa Nuclear (CERN), no final dos anos 80, foi possível observar efeitos que indicavam a presença de partículas com carga fracionária. O primeiro Prêmio Nobel, em cuja redação a palavra "quark" estava presente, foi concedido a y, y e y em 1990. Na mesma época, foi dada uma explicação para o problema de observar quarks em estado livre. A especificidade da interação dos quarks entre si torna esse procedimento fundamentalmente impossível (o chamado confinamento), apenas a observação indireta dos efeitos dos quarks é possível.
No momento, há uma seção separada bem desenvolvida de física teórica que estuda glúons e quarks - cromodinâmica quântica. Esta seção resume o progresso da teoria quântica ao aplicá-la ao "espaço de cor" específico de quarks e glúons.
Hádrons - partículas construídas a partir de quarks atualmente incluem mais de 400 partículas (e antipartículas). Todos eles, exceto o próton e o nêutron (que é estável nos núcleos), têm vida útil de não mais de um microssegundo e decaem em outras partículas (estáveis ​​no final). Um número de partículas tem massas várias vezes maiores do que as massas de nucleons. Entre os hádrons existem partículas eletricamente neutras, existem as carregadas, incluindo aquelas com carga de +2 e -2 (em unidades de carga eletrônica). A variedade de partículas pesadas permite estudar os padrões de sua interação com vários campos e, em última análise, ter uma ideia correta dos padrões de construção do nosso mundo.
Os léptons não podem ostentar tanta diversidade quanto os hádrons. Seu número total (com antipartículas) é de apenas 12. O lépton carregado mais leve, o elétron, foi descoberto em 1895, sua antipartícula (pósitron) em 1934, o múon mais pesado em 1962, e o último, um taon com uma massa mais de 3.000 vezes maior que a de um elétron, em 1975. No entanto, os mais interessantes até hoje são os léptons sem carga - neutrinos.

No final da década de 20 do século passado, houve um rápido estudo de vários tipos de decaimentos radioativos. Ao estudar o decaimento β, os cientistas se depararam com uma situação paradoxal - os elétrons cada vez tinham uma energia diferente, embora no decaimento, o que resulta na formação de duas partículas

toda a energia de decaimento deve ser proporcionalmente dividida entre o elétron e o núcleo atômico, ou seja, elétrons devem ter uma energia fixa. As coisas chegaram ao ponto em que até Niels Bohr estava pronto para admitir que a lei da conservação da energia é violada durante o decaimento β! A saída foi encontrada pelo notável físico alemão Wolfgang Pauli. Ele sugeriu que, juntamente com o elétron, surge outra partícula não carregada (um pequeno nêutron), que voa durante o decaimento sem registro, cada vez carregando uma porção diferente de energia. A ideia proposta por Pauli resolveu a situação de forma brilhante, a lei da conservação da energia permaneceu inabalável e o surgimento de uma nova partícula explicou a situação com a “perda de energia”. No entanto, por muito tempo, o neutrino (nome proposto por Enrico Fermi) permaneceu uma "partícula de papel".

O progresso no estudo experimental dos neutrinos está associado principalmente ao nome do notável físico (italiano de nascimento que se mudou para a URSS em 1950) Bruno Pontecorvo. Em 1944, Pontecorvo, realizando um estudo teórico das possíveis propriedades do neutrino, propôs um método eficaz para a detecção dessa partícula. A fonte, segundo Pontecorvo, poderia ser um processo em que o decaimento de núcleos radioativos ocorreria de forma intensa. Pouco depois, Pontecorvo sugeriu o uso de um reator nuclear como fonte artificial de neutrinos. Já no início da década de 1950, começaram os trabalhos de registro de neutrinos (então supunha-se que os neutrinos não possuíam uma antipartícula). O primeiro experimento de registro de (anti)neutrinos foi o experimento de Frederick Reines (Frederick Reines)) e Clyde Cowan (Clyde L. Cowan, Jr.), que em 1957 conseguiram registrar antineutrinos de reator. O próximo passo no estudo dessa partícula foi o registro dos neutrinos solares, realizado por Raymond Davis Jr. em 1967 na mina Homestake (EUA). Mesmo assim, ficou claro que a interação dos neutrinos com a matéria ocorre tão raramente que seu registro efetivo requer grandes volumes da substância registradora e um longo tempo de medição. Uma das experiências de neutrinos mais bem sucedidas nas instalações de Kamiokande (Japão) durante vários anos de trabalho com um enorme tanque com capacidade para várias dezenas de milhares de toneladas de água deu o resultado na forma de vários neutrinos por ano! Além disso, além do tempo, tais experimentos também exigem grandes custos financeiros. Segundo a expressão adequada de B. Pontecorvo, "A física de partículas elementares é uma ciência cara...".
Qual é o interesse atual em neutrinos conectado? O maior poder de penetração dessas partículas possibilita a obtenção de informações sobre objetos inacessíveis ao estudo de qualquer outra forma. A gama de aplicação aqui é enorme - desde informações sobre processos em galáxias distantes e aglomerados de galáxias, até geolocalização de neutrinos da Terra. Atualmente, grandes projetos estão sendo colocados em operação para detectar neutrinos astrofísicos - telescópios de neutrinos de grande volume, onde a água do mar ou gelo é usada como substância de registro. Está prevista a construção de dois telescópios com um volume de 1 km 3 cada nos hemisférios Norte (Mediterrâneo) e Sul (Antártico).


Telescópio de neutrinos ANTARES

O problema da massa de neutrinos permanece sem solução até agora. Surpreendentemente, esta é talvez a única partícula sobre a qual é impossível dizer se tem massa ou não! Nos últimos anos, grandes esperanças para resolver este problema foram depositadas na observação das chamadas oscilações de neutrinos, transições espontâneas de neutrinos de um tipo para outro.
Apesar da presença de vários métodos de pesquisa moderna, a principal ferramenta desde os anos 40 do século passado permanece aceleradores de partículas. Qualquer acelerador é, no verdadeiro sentido da palavra, um microscópio que permite olhar profundamente na matéria. Afinal, para observar um objeto no microcosmo, é necessário utilizar radiação com comprimento de onda proporcional ao seu tamanho. E como, com base nas propriedades ondulatórias das partículas, podemos obter

onde λ é o comprimento de onda, ћ é a constante de Planck, c é a velocidade da luz, e E é a energia, então para um "aumento" maior em nosso "microscópio" é necessário aumentar a energia das partículas. Atualmente, existem diferentes tipos de aceleradores, principalmente aceleradores de prótons e elétrons. O princípio de funcionamento de um acelerador linear padrão, por exemplo, é extremamente simples e consiste no fato de que ao passar por uma diferença de potencial, um elétron (ou próton) ganha energia.

É por isso que a unidade de energia usada na física nuclear e de partículas é chamada de "elétron-volt", esta é a energia que um elétron adquire ao passar por uma diferença de potencial de 1 volt. Obviamente, nos aceleradores modernos, a aceleração é realizada com a ajuda de um campo eletromagnético alternado, que “balança” as partículas em diferentes áreas. A energia máxima de elétrons alcançada em aceleradores de elétrons hoje é 100 GeV (10 11 eV), e em aceleradores de prótons - 3,5 TeV (3,5 10 12 eV). O último valor corresponde à energia do próton alcançada no maior acelerador de prótons moderno - Grande Colisor de Hádrons(LHC) no CERN.


Representação esquemática do complexo acelerador no CERN em um mapa geográfico.

Este maior complexo acelerador é um anel supercondutor com mais de 27 quilômetros de comprimento, que permite “desenrolar” prótons até energias de 7 TeV. Com essa energia de prótons colidindo (e a colisão, claro, aumenta ainda mais a saída de energia), torna-se possível observar todo tipo de reações com a formação de várias partículas, inclusive aquelas de grandes massas. A maioria dos experimentos planejados no colisor está relacionada a testes de previsões. modelo padrão− um conjunto de pressupostos teóricos que descrevem a estrutura da matéria. A confirmação ou refutação dessas hipóteses dará à ciência a oportunidade de avançar, resolvendo os problemas que a humanidade enfrenta hoje.

Perguntas para auto-exame

  1. Qual é a diferença fundamental entre os métodos de estudo do microcosmo e do macrocosmo?
  2. Qual é o significado físico da constante de Planck?
  3. É possível medir simultaneamente com precisão a posição e o momento de uma partícula no microcosmo?
  4. Dê um exemplo da discrição de energia em um sistema quântico.
  5. Qual é a principal característica de um sistema quântico?
  6. Cite o experimento que deu início ao conceito moderno da estrutura do átomo.
  7. Qual é o tamanho aproximado de um átomo?
  8. Qual é a razão para a emissão de fótons pelos átomos?
  9. O que é ionização?
  10. Qual é o tamanho aproximado de um núcleo atômico?
  11. Quais partículas compõem um núcleo atômico?
  12. Qual é a energia de ligação nuclear?
  13. Por que os núcleos pesados ​​se dividem?
  14. Por que as reações de fusão nuclear são chamadas de termonucleares?
  15. O que é decaimento alfa?
  16. Cite três grupos de partículas fundamentais.
  17. Liste os tipos de quarks.
  18. Quantos quarks formam um próton e um nêutron?
  19. O que é um neutrino?
  20. Liste os tipos de interações fundamentais.

· Caminho de Microscopia 3

· Limite de microscopia 5

· Radiação invisível 7

· Elétrons e óptica eletrônica 9

· Elétrons são ondas!? 12

· Dispositivo de microscópio eletrônico 13

· Objetos de microscopia eletrônica 15

· Tipos de microscópios eletrônicos 17

· Características de trabalhar com um microscópio eletrônico 21

· Maneiras de superar o limite de difração da microscopia eletrônica 23

· Referências 27

· Desenhos 28


Notas:

1. Símbolo significa exponenciação. Por exemplo, 2 3 significa "2 elevado a 3".

2. Símbolo e significa notação do número na forma exponencial. Por exemplo, 2 e3 significa "2 vezes 10 elevado a 3".

3. Todos os desenhos estão na última página.

4. Devido ao uso de literatura não muito "fresca", os dados neste resumo não são particularmente "frescos".

O olho não veria o sol,

se ele não fosse como

Sol.

Goethe.

O caminho da microscopia.

Quando o primeiro microscópio foi criado no limiar do século 17, quase ninguém (e mesmo seu inventor) poderia imaginar sucessos futuros e inúmeras aplicações da microscopia. Olhando para trás, estamos convencidos de que esta invenção marcou algo mais do que a criação de um novo dispositivo: pela primeira vez, uma pessoa foi capaz de ver o que antes era invisível.

Na mesma época, outro evento remonta à invenção do telescópio, que tornou possível ver o invisível no mundo dos planetas e das estrelas. A invenção do microscópio e do telescópio representou uma revolução não só na forma como estudamos a natureza, mas também no próprio método de pesquisa.

De fato, os filósofos naturais da antiguidade observavam a natureza, aprendendo sobre ela apenas o que o olho via, a pele sentia e o ouvido ouvia. Só podemos nos surpreender com a quantidade de informações corretas sobre o mundo ao seu redor que eles receberam usando os órgãos dos sentidos "nus" e sem fazer experimentos especiais, como fazem agora. Ao mesmo tempo, junto com fatos exatos e conjecturas brilhantes, quantas falsas “observações”, afirmações e conclusões nos foram deixadas por cientistas da antiguidade e da Idade Média!

Só muito mais tarde foi encontrado um método de estudo da natureza, que consistia em estabelecer experimentos conscientemente planejados, cujo objetivo é testar suposições e hipóteses claramente formuladas. Francis Bacon, um de seus idealizadores, exprimiu as características desse método de pesquisa com as seguintes palavras, que ficaram famosas: “Fazer um experimento é interrogar a natureza”. A invenção do microscópio e do telescópio representou uma colossal expansão das possibilidades de observação e experimentação.

Já as primeiras observações, realizadas com a ajuda da tecnologia mais simples e imperfeita segundo os conceitos modernos, descobriram “um mundo inteiro numa gota de água”. Descobriu-se que objetos familiares parecem completamente diferentes quando vistos através de um microscópio: superfícies lisas ao olho e ao toque são na verdade ásperas, miríades dos menores organismos se movem em água “limpa”. Da mesma forma, as primeiras observações astronômicas com a ajuda de telescópios permitiram que uma pessoa visse o mundo familiar de planetas e estrelas de uma nova maneira: por exemplo, a superfície da Lua, cantada por poetas de todas as gerações, acabou por ser montanhosa e pontilhada com numerosas crateras, e uma mudança de fase foi descoberta em Vênus, como a Lua.

No futuro, essas observações simples darão vida a áreas independentes da ciência - microscopia e astronomia observacional. Anos se passarão e cada uma dessas áreas se desenvolverá em vários ramos, expressos em várias aplicações muito diferentes em biologia, medicina, tecnologia, química, física e navegação.

Os microscópios modernos, que, diferentemente dos eletrônicos, chamaremos de ópticos, são instrumentos perfeitos que permitem obter grandes ampliações com alta resolução. A resolução é determinada pela distância na qual dois elementos de estrutura adjacentes ainda podem ser vistos separadamente. No entanto, como os estudos têm mostrado, a microscopia óptica praticamente atingiu o limite fundamental de suas capacidades devido à difração e interferência de ¾ dos fenômenos causados ​​pela natureza ondulatória da luz.

O grau de monocromaticidade e coerência é uma característica importante de ondas de qualquer natureza (eletromagnéticas, sonoras, etc.). As oscilações monocromáticas ¾ são oscilações que consistem em ondas senoidais de uma frequência específica. Quando representamos oscilações na forma de uma senóide simples com amplitude, frequência e fase constantes, respectivamente, isso é uma certa idealização, pois, estritamente falando, não há oscilações e ondas na natureza que sejam descritas com absoluta precisão por uma senóide. No entanto, estudos têm demonstrado que oscilações e ondas reais podem se aproximar da senóide ideal com maior ou menor grau de precisão (ter maior ou menor grau de monocromaticidade). As oscilações e ondas de forma complexa podem ser representadas como um conjunto de oscilações e ondas senoidais. Na verdade, esta operação matemática é realizada por um prisma, que decompõe a luz solar em um espectro de cores.

Ondas monocromáticas, incluindo ondas de luz, de mesma frequência (sob certas condições!) Podem interagir umas com as outras de tal forma que, como resultado, "a luz se transforma em escuridão" ou, como dizem, as ondas podem interferir. Com a interferência, ocorre "amplificação e supressão" local das ondas umas pelas outras. Para que o padrão de interferência da onda permaneça inalterado ao longo do tempo (por exemplo, quando visto com os olhos ou fotografado), é necessário que as ondas sejam coerentes entre si (duas ondas são coerentes entre si se derem uma interferência estável). padrão, que corresponde à igualdade de suas frequências e deslocamento de fase constante).

Se obstáculos forem colocados no caminho de propagação das ondas, eles afetarão significativamente a direção de propagação dessas ondas. Tais obstáculos podem ser as bordas de buracos nas telas, objetos opacos, bem como quaisquer outros tipos de heterogeneidades no caminho de propagação das ondas. Em particular, as heterogeneidades também podem ser objetos transparentes (para uma determinada radiação), mas diferindo no índice de refração e, portanto, na velocidade das ondas dentro deles. O fenômeno de mudar a direção de propagação das ondas ao passar perto de obstáculos é chamado de difração. Geralmente a difração é acompanhada por fenômenos de interferência.

O limite da microscopia.

A imagem obtida com qualquer sistema óptico é o resultado da interferência de diferentes partes da onda de luz que passou por este sistema. Em particular, sabe-se que a limitação da onda de luz pela pupila de entrada do sistema (as bordas das lentes, espelhos e diafragmas que compõem o sistema óptico) e o fenômeno de difração associado levam ao fato de que o ponto luminoso será representado como um círculo difrativo. Esta circunstância limita a capacidade de distinguir detalhes finos da imagem formada pelo sistema óptico. A imagem, por exemplo, de uma fonte de luz infinitamente distante (estrela) como resultado da difração em uma pupila redonda (borda de um telescópio) é uma imagem bastante complexa (ver Fig. 1). Nesta imagem, você pode ver um conjunto de anéis concêntricos claros e escuros. A distribuição da iluminação, que pode ser corrigida se você mover do centro da imagem para as bordas, é descrita por fórmulas bastante complexas que são fornecidas nos cursos de óptica. No entanto, os padrões inerentes à posição do primeiro anel escuro (do centro da imagem) parecem simples. Denotemos por D o diâmetro da pupila de entrada do sistema óptico e por l o comprimento de onda da luz enviada por uma fonte infinitamente distante.

Arroz. 1. Imagem de difração de um ponto luminoso (o chamado disco Airy).

Se denotarmos por j o ângulo sob o qual o raio do primeiro anel escuro é visível, então, como é provado na óptica,

pecado j » 1,22 * ( eu /D) .

Assim, como resultado da limitação da frente de onda pelas bordas do sistema óptico (a pupila de entrada), ao invés da imagem de um ponto luminoso correspondente a um objeto infinitamente distante, obtemos um conjunto de anéis de difração. Naturalmente, esse fenômeno limita a possibilidade de distinguir entre duas fontes de luz pontuais muito próximas. De fato, no caso de duas fontes distantes, por exemplo, duas estrelas localizadas muito próximas uma da outra no firmamento, dois sistemas de anéis concêntricos são formados no plano de observação. Sob certas condições, eles podem se sobrepor e torna-se impossível distinguir entre as fontes. Não é por acaso que, de acordo com a "recomendação" da fórmula dada acima, eles se esforçam para construir telescópios astronômicos com grandes tamanhos de pupila de entrada. O limite de resolução em que duas fontes de luz próximas podem ser observadas é determinado da seguinte forma: por definição, o limite de resolução é considerado tal posição das imagens de difração de duas fontes de luz pontuais na qual o primeiro anel escuro criado por uma das as fontes coincidem com o centro do ponto brilhante, criado por outra fonte.

Enviar seu bom trabalho na base de conhecimento é simples. Use o formulário abaixo

Estudantes, estudantes de pós-graduação, jovens cientistas que usam a base de conhecimento em seus estudos e trabalhos ficarão muito gratos a você.

Hospedado em http://www.allbest.ru/

Teste

Micromundo: conceitos da física moderna

Introdução

O micromundo é o mundo dos micro-objetos extremamente pequenos, não diretamente observáveis. (A dimensão espacial, que é calculada de 10-8 a 10-16 cm, e a vida útil - de infinito a 10-24 s.)

A mecânica quântica (mecânica ondulatória) é uma teoria que estabelece o modo de descrição e as leis do movimento no nível micro.

O estudo dos fenômenos do micromundo levou a resultados que estavam nitidamente em desacordo com aqueles geralmente aceitos na física clássica e até mesmo na teoria da relatividade. A física clássica viu seu propósito na descrição dos objetos que existem no espaço e na formulação das leis que governam suas mudanças no tempo. Mas para fenômenos como decaimento radioativo, difração, emissão de linhas espectrais, pode-se apenas afirmar que há alguma probabilidade de que um objeto individual seja tal e que tenha tal e tal propriedade. Não há lugar na mecânica quântica para leis que governam mudanças em um único objeto ao longo do tempo.

A mecânica clássica é caracterizada pela descrição das partículas especificando sua posição e velocidades e a dependência dessas quantidades no tempo. Na mecânica quântica, as mesmas partículas sob as mesmas condições podem se comportar de maneira diferente.

1. Micromundo: conceitos da física moderna descrevendo o micromundo

Durante a transição para o estudo do micromundo, verificou-se que a realidade física é uma só e não há lacuna entre matéria e campo.

Ao estudar micropartículas, os cientistas encontraram uma situação paradoxal do ponto de vista da ciência clássica: os mesmos objetos exibiam propriedades ondulatórias e corpusculares.

O primeiro passo nessa direção foi dado pelo físico alemão M. Planck. Como você sabe, no final do século XIX. na física, surgiu uma dificuldade, que foi chamada de "catástrofe ultravioleta". De acordo com os cálculos de acordo com a fórmula da eletrodinâmica clássica, a intensidade da radiação térmica de um corpo negro deveria ter aumentado indefinidamente, o que contradizia claramente o experimento. No decorrer de seu trabalho sobre o estudo da radiação térmica, que M. Planck chamou de o mais difícil de sua vida, ele chegou à conclusão surpreendente de que nos processos de radiação, a energia pode ser liberada ou absorvida não continuamente e não em quaisquer quantidades, mas apenas em porções indivisíveis conhecidas - quanta. A energia dos quanta é determinada através do número de oscilações do tipo correspondente de radiação e da constante natural universal, que M. Planck introduziu na ciência sob o símbolo h: E \u003d h y.

Se a introdução do quantum ainda não criou uma teoria quântica real, como M. Planck enfatizou repetidamente, então em 14 de dezembro de 1900, o dia em que a fórmula foi publicada, seus fundamentos foram lançados. Portanto, na história da física, este dia é considerado o aniversário da física quântica. E como o conceito de um quantum elementar de ação mais tarde serviu de base para a compreensão de todas as propriedades da camada atômica e do núcleo atômico, 14 de dezembro de 1900 deve ser considerado tanto como o aniversário de toda a física atômica quanto o início de uma nova era. das ciências naturais.

O primeiro físico que aceitou com entusiasmo a descoberta do quantum elementar de ação e o desenvolveu criativamente foi A. Einstein. Em 1905, ele transferiu a engenhosa ideia de absorção e liberação quantizada de energia durante a radiação térmica para a radiação em geral e, assim, fundamentou a nova teoria da luz.

A noção de luz como um fluxo de quanta em movimento rápido era extremamente ousada, quase ousada, em cuja exatidão poucos acreditaram a princípio. Em primeiro lugar, o próprio M. Planck não concordava com a extensão da hipótese quântica à teoria quântica da luz, referindo sua fórmula quântica apenas às leis da radiação térmica de um corpo negro por ele consideradas.

R. Einstein sugeriu que estamos falando de um padrão natural de natureza universal. Sem olhar para as visões predominantes em óptica, ele aplicou a hipótese de Planck à luz e chegou à conclusão de que a estrutura corpuscular da luz deveria ser reconhecida.

A teoria quântica da luz, ou a teoria do fóton A de Einstein, afirmava que a luz é um fenômeno ondulatório que se propaga constantemente no espaço do mundo. E, ao mesmo tempo, a energia da luz, para ser fisicamente eficaz, concentra-se apenas em determinados lugares, portanto, a luz tem uma estrutura descontínua. A luz pode ser vista como um fluxo de grãos de energia indivisíveis, quanta de luz ou fótons. Sua energia é determinada pelo quantum elementar de ação de Planck e o número correspondente de oscilações. A luz de cores diferentes consiste em quanta de luz de diferentes energias.

A ideia de quanta de luz de Einstein ajudou a entender e visualizar o fenômeno do efeito fotoelétrico, cuja essência é expulsar elétrons da matéria sob a influência de ondas eletromagnéticas. Experimentos mostraram que a presença ou ausência do efeito fotoelétrico é determinada não pela intensidade da onda incidente, mas por sua frequência. Se assumirmos que cada elétron é ejetado por um fóton, fica claro o seguinte: o efeito ocorre apenas se a energia do fóton e, portanto, sua frequência, for grande o suficiente para superar as forças de ligação do elétron com a matéria.

A correção dessa interpretação do efeito fotoelétrico (por este trabalho, Einstein recebeu o Prêmio Nobel de Física em 1922) 10 anos depois foi confirmada nos experimentos do físico americano R.E. Millikan. Descoberto em 1923 pelo físico americano A.Kh. Compton, o fenômeno (efeito Compton), que é observado quando átomos com elétrons livres são expostos a raios X muito duros, novamente e já finalmente confirmou a teoria quântica da luz. Esta teoria é uma das teorias físicas mais experimentalmente confirmadas. Mas a natureza ondulatória da luz já foi firmemente estabelecida por experimentos de interferência e difração.

Surgiu uma situação paradoxal: descobriu-se que a luz se comporta não apenas como uma onda, mas também como um fluxo de corpúsculos. Nos experimentos de difração e interferência, suas propriedades ondulatórias se manifestam, e no efeito fotoelétrico, corpusculares. Nesse caso, o fóton acabou sendo um corpúsculo de um tipo muito especial. A principal característica de sua discrição - a porção de energia inerente a ela - foi calculada através de uma característica puramente ondulatória - a frequência y (E=Hy).

Como todas as grandes descobertas científicas naturais, a nova doutrina da luz teve um significado teórico e epistemológico fundamental. A velha posição sobre a continuidade dos processos naturais, que foi completamente abalada por M. Planck, Einstein excluiu de uma área muito mais ampla de fenômenos físicos.

Desenvolvendo as ideias de M. Planck e A. Einstein, o físico francês Louis de Broche em 1924 apresentou a ideia das propriedades ondulatórias da matéria. Em sua obra "Luz e Matéria", ele escreveu sobre a necessidade de usar representações ondulatórias e corpusculares não apenas de acordo com os ensinamentos de A. Einstein na teoria da luz, mas também na teoria da matéria.

L. de Broglie argumentou que as propriedades das ondas, juntamente com as propriedades corpusculares, são inerentes a todos os tipos de matéria: elétrons, prótons, átomos, moléculas e até corpos macroscópicos.

De acordo com de Broglie, qualquer corpo com massa m movendo-se com velocidade V corresponde a uma onda:

De fato, uma fórmula semelhante era conhecida anteriormente, mas apenas em relação aos quanta de luz - fótons.

microworld mecânica quântica física

2. Visões de M. Planck, Louis De Broglie, E. Schrödinger, W. Heisenberg, N. Bohr e outros sobre a natureza do micromundo

Em 1926, o físico austríaco E. Schrödinger encontrou uma equação matemática que determina o comportamento das ondas de matéria, a chamada equação de Schrödinger. O físico inglês P. Dirac generalizou-o.

O pensamento ousado de L. de Broglie sobre o “dualismo” universal de uma partícula e uma onda permitiu construir uma teoria com a ajuda da qual foi possível cobrir as propriedades da matéria e da luz em sua unidade. Ao mesmo tempo, os quanta de luz tornaram-se um momento especial na estrutura geral do micromundo.

Ondas de matéria, que foram originalmente apresentadas como processos ondulatórios visuais-reais do tipo ondas acústicas, assumiram uma forma matemática abstrata e, graças ao físico alemão M. Born, receberam um significado simbólico como “ondas de probabilidade”.

No entanto, a hipótese de de Broglie precisava de confirmação experimental. A evidência mais convincente da existência de propriedades ondulatórias da matéria foi a descoberta em 1927 da difração de elétrons pelos físicos americanos C. Davisson e L. Germer. Posteriormente, experimentos foram realizados para detectar a difração de nêutrons, átomos e até moléculas. Em todos os casos, os resultados apoiaram totalmente a hipótese de de Broglie. Ainda mais importante foi a descoberta de novas partículas elementares previstas com base em um sistema de fórmulas desenvolvido pela mecânica ondulatória.

O reconhecimento da dualidade onda-partícula na física moderna tornou-se universal. Qualquer objeto material é caracterizado pela presença de propriedades corpusculares e ondulatórias.

O fato de o mesmo objeto aparecer tanto como partícula quanto como onda destruiu as ideias tradicionais.

A forma de uma partícula implica uma entidade contida em um pequeno volume ou uma região finita do espaço, enquanto uma onda se propaga sobre suas vastas regiões. Na física quântica, essas duas descrições da realidade são mutuamente exclusivas, mas igualmente necessárias para descrever completamente os fenômenos em questão.

A formação final da mecânica quântica como uma teoria consistente deveu-se ao trabalho do físico alemão W. Heisenberg, que estabeleceu o princípio da incerteza? e o físico dinamarquês N. Bohr, que formulou o princípio da complementaridade, com base no qual se descreve o comportamento dos micro-objetos.

A essência da relação de incerteza de W. Heisenberg é a seguinte. Suponha que a tarefa seja determinar o estado de uma partícula em movimento. Se fosse possível usar as leis da mecânica clássica, a situação seria simples: bastava determinar as coordenadas da partícula e seu momento (momento). Mas as leis da mecânica clássica não podem ser aplicadas às micropartículas: é impossível, não apenas na prática, mas em geral, estabelecer com igual precisão o lugar e a magnitude do movimento de uma micropartícula. Apenas uma dessas duas propriedades pode ser determinada exatamente. Em seu livro "Física do Núcleo Atômico", W. Heisenberg revela o conteúdo da relação de incerteza. Ele escreve que nunca é possível saber exatamente os dois parâmetros ao mesmo tempo - a coordenada e a velocidade. Você nunca pode saber ao mesmo tempo onde uma partícula está, quão rápido e em que direção ela está se movendo. Se for montado um experimento que mostre exatamente onde a partícula está no momento, então o movimento é perturbado a tal ponto que a partícula não pode ser encontrada depois disso. Por outro lado, com uma medição precisa da velocidade, é impossível determinar a localização da partícula.

Do ponto de vista da mecânica clássica, a relação de incerteza parece absurda. Para melhor avaliar a situação atual, devemos ter em mente que nós, pessoas, vivemos no macrocosmo e, em princípio, não podemos construir um modelo visual que seja adequado ao microcosmo. A relação de incerteza é uma expressão da impossibilidade de observar o micromundo sem violá-lo. Qualquer tentativa de fornecer uma imagem clara dos processos microfísicos deve se basear na interpretação corpuscular ou ondulatória. Na descrição corpuscular, a medição é realizada para obter o valor exato da energia e a quantidade de movimento de uma micropartícula, por exemplo, durante o espalhamento de elétrons. Por outro lado, em experimentos destinados a determinar a localização exata, a explicação da onda é usada, em particular, quando os elétrons passam por placas finas ou ao observar a deflexão dos raios.

A existência de um quantum elementar de ação serve como obstáculo ao estabelecimento simultâneo e com a mesma exatidão das grandezas "canonicamente relacionadas", ou seja, a posição e a magnitude do movimento da partícula.

O princípio fundamental da mecânica quântica, juntamente com a relação de incerteza, é o princípio da complementaridade, ao qual N. Bohr deu a seguinte formulação: “Os conceitos de partículas e ondas se complementam e ao mesmo tempo se contradizem, são imagens complementares do que está acontecendo”1.

As contradições das propriedades de ondas corpusculares de micro-objetos são o resultado da interação descontrolada de micro-objetos e macro-dispositivos. Existem duas classes de dispositivos: em alguns objetos quânticos se comportam como ondas, em outros se comportam como partículas. Nos experimentos, não observamos a realidade como tal, mas apenas um fenômeno quântico, incluindo o resultado da interação de um dispositivo com um microobjeto. M. Born observou figurativamente que ondas e partículas são "projeções" da realidade física na situação experimental.

Assim, um cientista que investiga o microcosmo passa de observador a ator, pois a realidade física depende do dispositivo, ou seja, da realidade física. em última análise, do arbítrio do observador. Portanto, N. Bohr acreditava que o físico não conhece a realidade em si, mas apenas seu próprio contato com ela.

Uma característica essencial da mecânica quântica é a natureza probabilística das previsões do comportamento dos microobjetos, que é descrita usando a função de onda de E. Schrödinger. A função de onda determina os parâmetros do estado futuro do micro-objeto com vários graus de probabilidade. Isso significa que ao realizar os mesmos experimentos com os mesmos objetos, resultados diferentes serão obtidos a cada vez. No entanto, alguns valores serão mais prováveis ​​do que outros, ou seja, apenas a distribuição de probabilidade dos valores será conhecida.

Levando em conta os fatores de incerteza, complementaridade e probabilidade, N. Bohr deu a chamada interpretação “Copenhague” da essência da teoria quântica: “Costumava-se considerar que a física descreve o Universo. Agora sabemos que a física apenas descreve o que podemos dizer sobre o universo.

A posição de N. Bohr foi compartilhada por W. Heisenberg, M. Born, W. Pauli e vários outros físicos menos conhecidos. Os proponentes da interpretação de Copenhague da mecânica quântica não reconheciam causalidade ou determinismo no microcosmo e acreditavam que a incerteza fundamental, o indeterminismo, está subjacente à realidade física.

Representantes da escola de Copenhague foram fortemente contestados por G.A. Lorentz, M. Planck, M. Laue, A. Einstein, P. Langevin e outros A. Einstein escreveu sobre isso a M. Born: “Em nossas visões científicas, nos desenvolvemos em antípodas. Você acredita em Deus jogando dados, e eu - na completa regularidade de existir objetivamente... O que eu acredito firmemente é que no final eles vão parar em uma teoria na qual não probabilidades, mas fatos estarão naturalmente conectados. 2. Ele se manifestou contra o princípio da incerteza, pelo determinismo, contra o papel atribuído ao ato de observação na mecânica quântica. O desenvolvimento posterior da física mostrou a correção de Einstein, que acreditava que a teoria quântica em sua forma atual é simplesmente incompleta: o fato de os físicos ainda não poderem se livrar da incerteza não indica as limitações do método científico, como argumentou N. Bohr, mas apenas a incompletude da mecânica quântica. Einstein trouxe cada vez mais argumentos para sustentar seu ponto de vista.

O mais famoso é o chamado paradoxo Einstein-Podolsky-Rosen, ou o paradoxo EPR, com o qual eles queriam provar a incompletude da mecânica quântica. O paradoxo é um experimento mental: o que acontece se uma partícula consistindo de dois prótons decair de modo que os prótons se separam em direções opostas? Por causa de sua origem comum, suas propriedades estão relacionadas ou, como dizem os físicos, correlacionadas entre si. De acordo com a lei da conservação do momento, se um próton voa para cima, o segundo deve descer. Ao medir o momento de um próton, definitivamente descobriremos o momento do outro, mesmo que ele tenha voado para a outra extremidade do universo. Existe uma conexão não-local entre as partículas, que Einstein chamou de “a ação dos fantasmas à distância”, na qual cada partícula a qualquer momento sabe onde está a outra e o que está acontecendo com ela.

O paradoxo EPR é incompatível com a incerteza postulada na mecânica quântica. Einstein acreditava que existem alguns parâmetros ocultos que não são levados em consideração. Perguntas: há determinismo e causalidade no campo do micromundo; a mecânica quântica está completa; se existem parâmetros ocultos que não leva em conta, têm sido objeto de discussões de físicos há mais de meio século e encontraram sua solução no nível teórico apenas no final do século XX.

Em 1964 J. S. Bela sustentou a posição segundo a qual a mecânica quântica prevê uma correlação mais forte entre partículas mutuamente ligadas do que aquela de que Einstein falou.

O teorema de Bell afirma que se algum universo objetivo existe, e se as equações da mecânica quântica são estruturalmente semelhantes a esse universo, então existe algum tipo de conexão não local entre duas partículas que já entraram em contato. A essência do teorema de Bell é que não existem sistemas isolados: cada partícula do Universo está em uma conexão "instantânea" com todas as outras partículas. Todo o sistema, mesmo que suas partes estejam separadas por grandes distâncias e não haja sinais, campos, forças mecânicas, energia, etc. entre elas, funciona como um único sistema.

Em meados da década de 1980, A. Aspect (Universidade de Paris) verificou experimentalmente essa conexão estudando a polarização de pares de fótons emitidos por uma fonte na direção de detectores isolados. A comparação dos resultados de duas séries de medidas mostrou concordância entre elas. Do ponto de vista do famoso físico D. Bohm, os experimentos de A. Aspect confirmaram o teorema de Bell e apoiaram as posições de variáveis ​​ocultas não-locais, cuja existência foi assumida por A. Einstein. Na interpretação da mecânica quântica por D. Bohm, não há incerteza nas coordenadas de uma partícula e seu momento.

Os cientistas sugeriram que a comunicação é realizada através da transmissão de informações, cujos portadores são campos especiais.

3. Genética das ondas

As descobertas feitas na mecânica quântica tiveram um impacto frutífero não apenas no desenvolvimento da física, mas também em outras áreas das ciências naturais, principalmente a biologia, dentro das quais se desenvolveu o conceito de genética ondulatória, ou quântica.

Quando em 1962 J. Watson, A. Wilson e F. Crick receberam o Prêmio Nobel pela descoberta da dupla hélice do DNA portadora da informação hereditária, parecia aos geneticistas que os principais problemas da transmissão da informação genética estavam próximos de serem resolvidos. Todas as informações são registradas nos genes, cuja totalidade nos cromossomos das células determina o programa para o desenvolvimento do organismo. A tarefa era decifrar o código genético, o que significava toda a sequência de nucleotídeos no DNA.

No entanto, a realidade não atendeu às expectativas dos cientistas. Após a descoberta da estrutura do DNA e uma consideração detalhada da participação dessa molécula nos processos genéticos, o principal problema do fenômeno da vida - os mecanismos de sua reprodução - permaneceu, de fato, desconhecido. Decifrar o código genético tornou possível explicar a síntese de proteínas. Os geneticistas clássicos partiram do fato de que as moléculas genéticas, o DNA, são de natureza material e funcionam como uma substância, representando uma matriz material na qual está escrito um código genético material. De acordo com ela, um organismo carnal, material e material está sendo desenvolvido. Mas a questão de como a estrutura espaço-temporal de um organismo é codificada nos cromossomos não pode ser resolvida com base no conhecimento da sequência de nucleotídeos. Os cientistas soviéticos A.A. Lyubishchev e A. G. Gurvich, nas décadas de 1920 e 1930, expressou a ideia de que a consideração dos genes como estruturas puramente materiais é claramente insuficiente para uma descrição teórica do fenômeno da vida.

A.A. Lyubishchev, em seu trabalho "Sobre a natureza dos fatores hereditários", publicado em 1925, escreveu que os genes não são pedaços de um cromossomo, nem moléculas de enzimas autocatalíticas, nem radicais, nem uma estrutura física. Ele acreditava que o gene deveria ser reconhecido como uma substância em potencial. Uma melhor compreensão das ideias de A.A. Lyubishchev é facilitado pela analogia de uma molécula genética com notação musical. A própria notação musical é material e representa ícones no papel, mas esses ícones são realizados não em forma material, mas em sons, que são ondas acústicas.

Desenvolvendo essas ideias, A.G. Gurvich argumentou que na genética "é necessário introduzir o conceito de um campo biológico, cujas propriedades são formalmente emprestadas de representações físicas"1. A ideia principal de A.G. Gurvich era que o desenvolvimento do embrião ocorre de acordo com um programa predeterminado e assume as formas que já estão em seu campo. Ele foi o primeiro a explicar o comportamento dos componentes de um organismo em desenvolvimento como um todo com base em conceitos de campo. É no campo que estão contidas as formas assumidas pelo embrião no processo de desenvolvimento. Gurvich chamou a forma virtual, que determina o resultado do processo de desenvolvimento a qualquer momento, uma forma pré-formada dinamicamente, e assim introduziu um elemento de teleologia na formulação inicial do campo. Tendo desenvolvido a teoria do campo celular, ele estendeu a ideia do campo como princípio regulador e coordenador do processo embrionário também ao funcionamento dos organismos. Tendo fundamentado a ideia geral do campo, Gurvich o formulou como um princípio universal da biologia. Eles descobriram a radiação de biofótons da célula.

As ideias dos biólogos russos A.A. Lyubishchev e A. G. Gurvich são uma gigantesca conquista intelectual à frente de seu tempo. A essência de seus pensamentos está na tríade:

Os genes são dualistas - são matéria e campo ao mesmo tempo.

Os elementos de campo dos cromossomos marcam o espaço - o tempo do organismo - e assim controlam o desenvolvimento dos biossistemas.

Os genes têm funções estético-figurativas e reguladoras da fala.

Essas ideias permaneceram subestimadas até o surgimento das obras de V.P. Kaznacheev na década de 60 do século XX, em que as previsões dos cientistas sobre a presença de formas de campo de transmissão de informações em organismos vivos foram confirmadas experimentalmente. A direção científica em biologia, representada pela escola de V.P. Kaznacheev, foi formado como resultado de numerosos estudos fundamentais sobre o chamado efeito citopático de espelho, que se expressou no fato de que células vivas, separadas por vidro de quartzo, que não permitem a passagem de uma única molécula de uma substância, trocar informações. Após o trabalho de V. P. Kaznacheev, a existência de um canal de sinal de onda entre as células dos biossistemas não estava mais em dúvida.

Simultaneamente com os experimentos de V.P. Kaznacheev, o pesquisador chinês Jiang Kanzheng conduziu uma série de experimentos supergenéticos que ecoaram a previsão de A.L. Lyubishchev e A. G. Gurvich. A diferença entre os trabalhos de Jiang Kanzheng é que ele realizou experimentos não no nível celular, mas no nível do corpo. Partiu do fato de que o DNA - o material genético - existe em duas formas: passiva (na forma de DNA) e ativa (na forma de campo eletromagnético). A primeira forma preserva o código genético e garante a estabilidade do corpo, e a segunda é capaz de alterá-lo expondo-o a sinais bioelétricos. Um cientista chinês projetou um equipamento capaz de ler, transmitir à distância e injetar sinais supergenéticos de ondas de um biossistema doador em um organismo aceitador. Como resultado, ele trouxe híbridos impensáveis, "proibidos" pela genética oficial, que opera apenas em termos de genes materiais. Assim nasceram as quimeras animais e vegetais: galinhas-patos; milho, das espigas das quais cresciam espigas de trigo, etc.

O notável experimentador Jiang Kanzheng compreendeu intuitivamente alguns aspectos da genética experimental de ondas realmente criada por ele e acreditava que os portadores da informação do gene de campo são a radiação eletromagnética de micro-ondas usada em seu equipamento, mas não conseguiu dar uma justificativa teórica.

Após o trabalho experimental de V.P. Kaznacheev e Jiang Kanzheng, o que não podia ser explicado em termos de genética tradicional, havia a necessidade urgente do desenvolvimento teórico do modelo do genoma ondulatório, no entendimento físico-matemático e teórico-biológico do trabalho do cromossomo do DNA na campo e dimensão real.

As primeiras tentativas de resolver este problema foram feitas pelos cientistas russos P.P. Garyaev, A. A. Berezin e A.A. Vasiliev, que estabeleceu as seguintes tarefas:

mostrar a possibilidade de uma interpretação dualista do trabalho do genoma celular nos níveis da matéria e do campo no quadro de modelos físicos e matemáticos;

mostrar a possibilidade de modos de operação normais e "anormais" do genoma celular usando matrizes de sinais figurativos de ondas fantasmas;

* encontrar provas experimentais da exatidão da teoria proposta.

No marco da teoria por eles desenvolvida, chamada de genética das ondas, foram apresentados, fundamentados e comprovados experimentalmente, diversos dispositivos básicos que ampliaram significativamente a compreensão do fenômeno da vida e dos processos que ocorrem na matéria viva.

* Os genes não são apenas estruturas materiais, mas também ondas
matrizes, segundo as quais, como por modelos, um organismo é construído.

A transferência mútua de informações entre as células, que ajuda a formar o corpo como um sistema integral e corrigir o trabalho coordenado de todos os sistemas do corpo, ocorre não apenas por meios químicos - pela síntese de várias enzimas e outras substâncias "sinais". P.P. Garyaev sugeriu e provou experimentalmente que as células, seus cromossomos, DNA, proteínas transmitem informações por meio de campos físicos - ondas eletromagnéticas e acústicas e hologramas tridimensionais lidos por luz cromossômica a laser e emitindo essa luz, que se transforma em ondas de rádio e transmite informações hereditárias em espaço corporal. O genoma dos organismos superiores é considerado como um computador bioholográfico que forma a estrutura espaço-temporal dos biossistemas. Os portadores das matrizes de campo sobre as quais o corpo é construído são frentes de onda definidas por genohologramas, e os chamados sólitons no DNA - um tipo especial de campos acústicos e eletromagnéticos produzidos pelo aparato genético do próprio organismo e capazes de funções intermediárias para a troca de informações regulatórias estratégicas entre células, tecidos e órgãos do biossistema.

Na genética das ondas, as idéias de Gurvich - Lyubishchev - Kaznacheev - Jiang Kanzhen sobre o nível de campo da informação genética foram confirmadas. Em outras palavras, o dualismo de combinar a unidade "onda - partícula" ou "substância - campo", aceito na eletrodinâmica quântica, acabou sendo aplicável na biologia, o que foi previsto na época por AG. Gurvitch e AA. Lyubishchev. Gene-substância e gene-campo não são mutuamente exclusivos, mas mutuamente complementares.

A matéria viva consiste em átomos inanimados e partículas elementares, que combinam as propriedades fundamentais das ondas e partículas, mas essas mesmas propriedades são usadas pelos biossistemas como base para a troca de informações de energia das ondas. Em outras palavras, as moléculas genéticas irradiam um campo informativo-energético no qual todo o organismo, seu corpo físico e sua alma estão codificados.

*Os genes não são apenas o que constitui os chamados genes
código lógico, mas também todo o resto, a maior parte do DNA que costumava
foi considerado sem sentido.

Mas é essa grande parte dos cromossomos que é analisada no quadro da genética das ondas como a principal estrutura “intelectual” de todas as células do corpo: “Regiões não codificantes do DNA não são apenas lixo (lixo), mas estruturas projetadas para algum propósito com um propósito incerto até agora .. sequências de DNA não codificantes (e isso é 95--99% do genoma) são o conteúdo de informação estratégica dos cromossomos ... A evolução dos biossistemas criou textos genéticos e o genoma - um biocomputador - um biocomputador como um "sujeito" quase inteligente, ao seu nível "ler e compreender "estes" textos "1. Este componente do genoma, que é chamado de supergeno-continuum, ou seja, supergene, garante o desenvolvimento e a vida de humanos, animais, plantas e também programa a morte natural. Não existe uma fronteira nítida e intransponível entre genes e supergenes; eles agem como um todo. Os genes dão "réplicas" materiais na forma de RNA e proteínas, e os supergenes transformam campos internos e externos, formando a partir deles estruturas de ondas, nas quais a informação é codificada. A semelhança genética de pessoas, animais, plantas e protozoários reside no fato de que, no nível das proteínas, essas variantes praticamente não diferem ou diferem ligeiramente em todos os organismos e são codificadas por genes que compõem apenas uma pequena porcentagem do comprimento total. do cromossomo. Mas eles diferem no nível da "parte lixo" dos cromossomos, que compõe quase todo o seu comprimento.

*A própria informação dos cromossomos não é suficiente para o desenvolvimento
organismo. Cromossomos em alguma dimensão são revertidos em física
vácuo do céu, que fornece a maior parte das informações para o desenvolvimento de
bryon. O aparelho genético é capaz de si mesmo e com a ajuda de um vácuo
gerar estruturas de onda de comando, como hologramas, fornecendo
chivayuschie desenvolvimento do organismo.

Os dados experimentais obtidos por P.P. Garyaev, que comprovou a insuficiência do genoma celular para a reprodução plena do programa de desenvolvimento do organismo em condições de isolamento informacional de biocampo. O experimento consistiu no fato de que duas câmaras foram construídas, em cada uma das quais todas as condições naturais foram criadas para o desenvolvimento de girinos a partir de rãs - a composição necessária de ar e água, temperatura, condições de iluminação, lodo da lagoa, etc. A única diferença era que uma câmara era feita de perma-loy, um material que não transmite ondas eletromagnéticas, e a segunda era feita de metal comum, que não é um obstáculo às ondas. Uma quantidade igual de ovos de rã fertilizados foi colocada em cada câmara. Como resultado do experimento, na primeira câmara, apareceram completamente aberrações, que morreram após alguns dias, na segunda câmara, os girinos eclodiram e se desenvolveram normalmente, que depois se transformaram em sapos.

É claro que, para o desenvolvimento normal dos girinos na primeira câmara, faltava-lhes algum fator que carregasse a parte que faltava da informação hereditária, sem a qual o organismo não pode ser "montado" em sua totalidade. E como as paredes da primeira câmara cortam os girinos apenas da radiação que penetrava livremente na segunda câmara, é natural supor que filtrar ou distorcer o fundo de informação natural causa deformidade e morte dos embriões. Isso significa que as comunicações de estruturas genéticas com um campo de informação externo são, obviamente, necessárias para o desenvolvimento harmonioso de um organismo. Sinais de campo externo (exobiológicos) carregam informações adicionais e talvez as principais para o continuum gênico da Terra.

* Textos de DNA e hologramas do continuum cromossômico podem ser lidos em versões multidimensionais espaço-temporais e semânticas. Existem linguagens ondulatórias do genoma celular, semelhantes às humanas.

Na genética das ondas, a fundamentação da unidade da estrutura fractal (repetindo-se em diferentes escalas) das sequências de DNA e da fala humana merece atenção especial. O fato de que quatro letras do alfabeto genético (adenina, guanina, citosina, timina) formam estruturas fractais em textos de DNA foi descoberto em 1990 e não causou uma reação especial. No entanto, a descoberta de estruturas fractais semelhantes a genes na fala humana foi uma surpresa para geneticistas e linguistas. Tornou-se óbvio que a comparação aceita e já habitual do DNA com os textos, que teve um caráter metafórico após a descoberta da unidade da estrutura fractal e da fala humana, é plenamente justificada.

Juntamente com a equipe do Instituto de Matemática da Academia Russa de Ciências, o grupo de P.P. Garyaeva desenvolveu a teoria da representação fractal de linguagens naturais (humanas) e genéticas. Um teste prático dessa teoria no campo das características da "fala" do DNA mostrou a orientação estrategicamente correta da pesquisa.

Assim como nos experimentos de Jiang Kanzheng, o grupo de P.P. Garyaev, obteve-se o efeito da tradução e introdução da informação supergenética da onda do doador para o aceitador. Foram criados dispositivos - geradores de campos soliton, nos quais era possível inserir algoritmos de fala, por exemplo, em russo ou inglês. Tais estruturas de fala se transformaram em campos modulados por soliton - análogos daqueles que as células operam no processo de comunicação por ondas. O organismo e seu aparato genético “reconhecem” tais “frases de onda” como suas e agem de acordo com as recomendações de fala introduzidas pela pessoa de fora. Era possível, por exemplo, criar certas falas, algoritmos verbais, para restaurar sementes de trigo e cevada danificadas pela radiação. Além disso, as sementes das plantas “compreenderam” esse discurso, independentemente do idioma em que foi pronunciado - russo, alemão ou inglês. Os experimentos foram realizados em dezenas de milhares de células.

Para testar a eficácia dos programas de ondas de estimulação do crescimento em experimentos de controle, pseudocódigos de fala sem sentido foram introduzidos no genoma da planta por meio de geradores, que não afetaram o metabolismo da planta de forma alguma, enquanto a entrada semântica nas camadas semânticas do biocampo do genoma da planta deu o efeito de uma aceleração do crescimento acentuada, mas de curto prazo.

O reconhecimento da fala humana por genomas de plantas (independente da linguagem) é totalmente consistente com a posição da genética linguística sobre a existência da proto-linguagem do genoma dos biossistemas nos estágios iniciais de sua evolução, comum a todos os organismos e preservada em a estrutura geral do pool genético da Terra. Aqui pode-se ver a correspondência com as ideias do clássico da linguística estrutural N. Chomsky, que acreditava que todas as línguas naturais têm uma gramática universal inata profunda que é invariável para todas as pessoas e, provavelmente, para suas próprias estruturas supergenéticas.

Conclusão

Pontos fundamentalmente novos no estudo do micromundo foram:

· Cada partícula elementar tem propriedades corpusculares e ondulatórias.

· A matéria pode se transformar em radiação (a aniquilação de uma partícula e uma antipartícula produz um fóton, ou seja, um quantum de luz).

· É possível prever o lugar e o momento de uma partícula elementar apenas com uma certa probabilidade.

· Um dispositivo que investiga a realidade a afeta.

· A medição precisa só é possível ao emitir um fluxo de partículas, não uma única partícula.

Bibliografia

1. P.P. Goryaev, "Código genético da onda", M., 1997.

2. G. Idlis, “Revolução em astronomia, física e cosmologia”, M., 1985.

3. A.A. Gorelov. Curso de palestras "Conceitos da ciência natural moderna",

4. "Centro" de Moscou 2001

5. V.I. Lavrinenko, V. P. Ratnikov, "Conceitos da ciência natural moderna", M., 2000.

6. Conceitos de ciências naturais modernas: Manual para universidades / Ed. prof. V.N. Lavrinenko, prof. V.P. Ratnikov. -- 3ª ed., revisada. e adicional -- M.: UNITI-DANA, 2006.

Hospedado em Allbest.ru

Documentos Semelhantes

    Teoria da estrutura atômica e molecular do mundo. Objetos do micromundo: elétron, partículas fundamentais, férmions, léptons, hádrons, átomo, núcleo atômico e molécula. Desenvolvimento da mecânica quântica e fenômenos do micromundo. Conceitos de micromundo e mecânica quântica.

    resumo, adicionado em 26/07/2010

    O surgimento de conceitos não clássicos na física. Natureza ondulatória do elétron. Experiência de Davisson e Germer (1927). Características da descrição da mecânica quântica do micromundo. Mecânica matricial de Heisenberg. Estrutura eletrônica de átomos e moléculas.

    apresentação, adicionada em 22/10/2013

    A história da origem da teoria quântica. Descoberta do efeito Compton. O conteúdo dos conceitos de Rutherford e Bohr sobre a estrutura do átomo. Disposições básicas da teoria ondulatória de Broglie e do princípio da incerteza de Heisenberg. Dualismo de onda corpuscular.

    resumo, adicionado em 25/10/2010

    Representações físicas da antiguidade e da Idade Média. O desenvolvimento da física nos tempos modernos. Transição de conceitos clássicos para conceitos relativísticos em física. O conceito de emergência da ordem do caos por Empédocles e Anaxágoras. Física moderna do macro e micromundo.

    resumo, adicionado em 27/12/2016

    História do desenvolvimento da teoria quântica. Imagem de campo quântico do mundo. Princípios básicos da descrição da mecânica quântica. O princípio da observabilidade, visibilidade dos fenômenos da mecânica quântica. Relação de incerteza. Princípio da complementaridade de N. Bohr.

    resumo, adicionado em 22/06/2013

    Radiação térmica, hipótese quântica de Planck. Propriedades quânticas da radiação eletromagnética. Fórmula de Einstein para o efeito fotoelétrico. Dualismo de onda corpuscular da matéria. Relações de incerteza de Heisenberg. Equação de Schrödinger estacionária.

    tutorial, adicionado em 05/06/2013

    Os principais representantes da física. Leis e conceitos físicos básicos. Conceitos da ciência natural clássica. Conceito atomístico da estrutura da matéria. Formação de uma imagem mecânica do mundo. A influência da física na medicina.

    resumo, adicionado em 27/05/2003

    O significado físico das ondas de Broglie. A relação de incerteza de Heisenberg. Dualidade corpuscular-onda das propriedades das partículas. Condição de normalização da função de onda. A equação de Schrödinger como equação básica da mecânica quântica não relativística.

    apresentação, adicionada em 14/03/2016

    Princípios de física não clássica. Ideias modernas sobre matéria, espaço e tempo. Idéias e princípios básicos da física quântica. Idéias modernas sobre partículas elementares. A estrutura do microcosmo. Interações físicas fundamentais.

    resumo, adicionado em 30/10/2007

    Determinação do centro de gravidade de uma molécula e descrição da equação de Schrödinger para a função de onda total de uma molécula. Cálculo da energia da molécula e formulação da equação da parte vibracional da função de onda molecular. Movimento de elétrons e espectroscopia molecular.