As bases da ciência experimental foram lançadas. O surgimento da ciência experimental

A formação da ciência no sentido próprio da palavra está associada ao uso do método experimental na pesquisa científica, que foi a base teórica da ciência natural. Como observou V.S. Stepin, a própria ideia de pesquisa experimental assumiu implicitamente a presença na cultura de ideias especiais sobre a natureza, a atividade e o sujeito cognoscente, que não eram características da cultura antiga, mas começaram a se formar no Renascimento e receberam uma completa expressão na Nova Era. Em um estudo experimental, o sujeito da cognição atua como princípio ativo, opondo-se à matéria natural, mudando suas coisas por meio da força. pressão sobre eles. Um objeto natural é conhecido em um experimento porque é colocado em condições simuladas e só graças a isso revela suas conexões essenciais invisíveis para o sujeito.

O pré-requisito sociocultural para o estudo experimental da natureza era um novo sistema de orientações de valores, que já começa a ser visto na cultura do Renascimento. Por um lado, defende-se, em contraste com a cosmovisão medieval, um novo sistema de ideias humanistas associadas ao conceito de homem como ativamente oposto à natureza como princípio pensante e ativo. Por outro lado, destaca-se o interesse pelo conhecimento da natureza, considerada como um campo de aplicação das forças humanas.

Já no Renascimento, uma nova compreensão da relação entre natural, natural e artificial, criada pela atividade humana, começou a tomar forma. O ensino cristão tradicional sobre a criação do mundo por Deus recebe uma interpretação especial. Em relação à mente divina que criou o mundo, a natureza é vista como artificial. A atividade humana é interpretada como uma espécie de semelhança em pequena escala de atos de criação. E a base dessa atividade é a imitação da natureza, o reconhecimento de um princípio razoável (leis) nela e o seguimento de uma harmonia significativa da natureza nas artes humanas - ciência, arte, invenções técnicas. Os valores do artificial e do natural são equalizados, e uma mudança razoável na natureza no processo da atividade humana aparece não como algo contrário a ela, mas como consistente com sua estrutura natural. É esta nova atitude em relação a natureza foi consagrada na categoria de "natureza", que serviu como pré-requisito para o desenvolvimento de uma maneira fundamentalmente nova de conhecer o mundo: surge a ideia da possibilidade de fazer perguntas teóricas à natureza e obter respostas para elas transformando ativamente os objetos naturais .

Novos significados da categoria “natureza” foram associados à formação de novos significados das categorias “espaço” e “tempo” como formações homogêneas, e isso possibilitou afirmar a ideia da possibilidade e reprodutibilidade do experimento em qualquer lugar do mundo e a qualquer hora.

O método experimental começou a ser preparado para desenvolvimento por Leonardo da Vinci (1452-1519). Mas Leonardo viveu cem anos antes dessa era e não tinha as capacidades e condições técnicas adequadas. A estrutura lógica do método experimental também não foi desenvolvida. A experiência de Leonardo da Vinci carecia do rigor das definições e da precisão das medições.

O início do método experimental dos tempos modernos foi estabelecido pela invenção de dois instrumentos importantes: o microscópio composto (c. 1590) e o telescópio (c. 1608). Os antigos gregos já estavam familiarizados com o poder de ampliação dos óculos com lentes. Mas a essência de um microscópio e de um telescópio é a combinação de várias lupas. Aparentemente, inicialmente tal conexão aconteceu por acaso, e não sob a influência de qualquer ideia teórica norteadora. O primeiro microscópio foi aparentemente inventado pelo moedor de vidro holandês Zachary Jansen. A primeira luneta foi o oculista holandês Franz Lipperstey.

Com o advento dos telescópios, o desenvolvimento da astronomia atingiu um nível qualitativamente novo. Os quatro maiores satélites de Júpiter foram descobertos, muitas novas estrelas não visíveis a olho nu; foi estabelecido de forma confiável que nebulosas e galáxias são um enorme aglomerado de estrelas. Além disso, manchas escuras foram encontradas no Sol.

G. Galilei teve um papel fundamental na fundamentação do método experimental. Galileu e seus seguidores na Academia Florentina de Experimentos, fundada após sua morte, realizaram experimentos de campo. Um experimento em escala real é realizado com objetos na situação da própria realidade em estudo e, via de regra, envolve a intervenção do experimentador no curso natural dos eventos. Galileu também introduziu o experimento mental no conhecimento científico. Um experimento mental envolve estabelecer uma situação condicional que exiba as propriedades de interesse do pesquisador e operar com objetos idealizados. Galileu introduziu ativamente nas mentes dos cientistas de seu tempo a ideia de que a ciência sem construção mental, sem idealização, sem abstrações, sem generalizar conclusões baseadas em fatos, é impossível.

As idéias de Galileu sobre o método de experimento foram desenvolvidas de forma mais produtiva por H. Huygens. Com base em pesquisas experimentais, Huygens inventou um relógio de pêndulo com mecanismo de escape, estabeleceu as leis de oscilação de um pêndulo físico e lançou as bases para a teoria do impacto. Huygens melhorou o telescópio projetando uma ocular e com a ajuda deste dispositivo descobriu o anel de Saturno e seu satélite Titã.

A produtividade do método experimental foi demonstrada no período subsequente ao desenvolvimento da mecânica. A tradição, indo de Galileu e Huygens a Hooke e Newton, estava associada a tentativas de modelar em experimentos mentais com dispositivos mecânicos as forças de interação entre corpos celestes. Por exemplo, Hooke considerou a rotação dos planetas por analogia com a rotação de um corpo preso a um fio, bem como um corpo preso a uma roda giratória. Newton usou uma analogia entre a rotação da Lua ao redor da Terra e o movimento de uma bola dentro de uma esfera oca.

Caracteristicamente, foi nesse caminho que a lei da gravitação universal foi descoberta. Essa lei foi formulada por Newton comparando as leis de Kepler e expressões matemáticas obtidas em um experimento mental sobre um modelo mecânico analógico que caracteriza o movimento de uma bola sob a ação de forças centrífugas.

ciência experimental

A ideia dos humanistas de aumentar a importância do homem e fazê-lo sentir-se parte da Natureza deu vida às primeiras tentativas de criar uma ciência experimental.

Até aquele momento, a ciência era um complexo de conhecimentos teóricos. As Leis do Universo e da Natureza foram formuladas de uma vez por todas, e não houve tentativa, nem necessidade de verificar e confirmá-las.

O renascimento, pelo contrário, eleva a pessoa que se sente parte da Natureza, associa-se naturalmente a ela e tenta compreender, experimentar e descrever as suas leis.

Assim, agindo com o coração, uma pessoa chega a uma nova ideia de ciência. Outros pontos interessantes são adicionados a isso: por exemplo, durante o Renascimento, as obras originais de Platão, Pitágoras, as obras de astrônomos, geógrafos e matemáticos gregos reaparecem, pois era muito importante para os humanistas retornarem aos textos originais, afastando-se das traduções medievais, dogmáticas e tendenciosas.

O estudo dessas fontes antigas chocou seguidores que perceberam que muitos séculos atrás viviam cientistas, astrônomos, geógrafos, matemáticos, médicos, astrólogos, que interpretavam as leis básicas do Universo usando números e fórmulas que a linguagem da matemática usa para explicar essas leis. Um exemplo são os pitagóricos e Platão, que continuaram sua filosofia.

O renascimento da ciência também foi associado à magia.

Do livro Grécia Antiga autor Lyapustin Boris Sergeevich

Do livro Judeus, Cristianismo, Rússia. De profetas a secretários gerais autor Katz Alexander Semyonovich

18. Judeus e ciência Avaliar as realizações pessoais dos cientistas é mais difícil do que as realizações das figuras culturais. Acredita-se que todos entendem a cultura e, portanto, cada pessoa em um nível emocional julga com confiança e autoridade um filme, uma tela de um artista ou uma música. Ciência é destino

Do livro Outra História da Literatura. Desde o início até os dias atuais autor Kalyuzhny Dmitry Vitalievich

Ciência e "ciência"

Do livro Culturology: A Textbook for Universities autor Apresyan Ruben Grantovich

10.2. Ciência e consciência humana. Ciência e moral Um dos elos de ligação entre o desenvolvimento interno da ciência e a consciência das pessoas é a imagem do mundo. Torna-se um dos mecanismos de influência da ciência na visão de mundo, por isso é importante entender o que é

Do livro O Renascimento. Vida, religião, cultura o autor Chamberlin Eric

Do livro A Grandeza do Antigo Egito autor Murray Margaret

Ciência Os egípcios alcançaram um sucesso particular na matemática aplicada e na medicina.Infelizmente, nenhuma explicação é dada nos papiros sobreviventes, nos quais são dados problemas e soluções.A irrigação para um país com clima quente e seco era de vital importância.

Do livro Mitos e Lendas da China autor Werner Edward

Ciência e educação Deve-se notar que a educação tradicional chinesa era principalmente livresca, já que a necessidade de desenvolver as formas de conhecimento que prevaleciam no sistema de educação ocidental era considerada secundária. O sistema chinês desenvolvido em conexão com

Do livro Verboslov-2, ou Notas de um louco autor Maksimov Andrey Markovich

A Ciência do Senso Comum é uma coleção de preconceitos adquiridos antes dos dezoito anos. Albert EINSTEIN, físico, ganhador do Prêmio Nobel Todo negócio sério na Terra tem uma ideia. Há, é claro, e ciência. Grande escritor e cientista americano

Do livro A verdade do mito o autor Huebner Kurt

1. Ciência Intersubjetividade semântica significa que uma palavra ou frase é compreendida por todos da mesma forma. Como isso é possível19? Alguns filósofos argumentam que isso é possível se palavras e frases estiverem associadas a certas formas de contemplação, percepção

Do livro 1000 pensamentos sábios para todos os dias autor Kolesnik Andrey Alexandrovich

Ciência Gustave Lebon (1841-1931) psicólogo, médico... Em circunstâncias difíceis, um povo pode ser salvo pelo heroísmo, mas apenas uma combinação de pequenas virtudes consistentes determina sua grandeza. ... É assustador pensar às vezes na força que dá a uma pessoa com um extraordinário

Do livro Tempo, Avante! Política cultural na URSS autor Equipe de autores

Do livro Estudos na Conservação do Patrimônio Cultural. Versão 3 autor Equipe de autores

Parte experimental 1. Pesquisas de um cartão de montagens. Ressalta-se que para a exposição temporária, todas as peças expostas foram montadas em novas caixas de papelão sem retirar a montagem permanente com uso de vidro de proteção.As camadas interna e externa do material foram examinadas

Do livro Piada soviética (Índice de parcelas) autor Melnichenko Misha

EXPERIMENTAL Em termos de composição química, o pigmento de chumbo branco é o principal carbonato de chumbo 2PbC03Pb(OH)2 com uma pequena mistura de carbonato de chumbo РbС03. Embora ambos os sais de chumbo estejam presentes na natureza - o mineral comum cerussite PbCO3,

Do livro Mundo da Saga autor Steblin-Kamensky Mikhail Ivanovich

Os historiadores encontram os pré-requisitos para o surgimento da ciência experimental em vários fatores econômicos, políticos e culturais gerais que se desenvolveram na Europa nos séculos XIV-XV. Estes incluem a decomposição das relações feudais, acompanhada de um aumento na troca de bens, a transição da troca natural para a monetária, que contribuiu para a acumulação de capital e a transição gradual para as relações capitalistas. O desenvolvimento do comércio exigiu a expansão das áreas de atividade, o desenvolvimento de novos países e continentes: as descobertas geográficas ampliaram o horizonte de visão do mundo do europeu medieval. Descobriu-se que o mundo não se limita ao território dos principados ou de um estado separado, é habitado por diferentes povos que falam línguas diferentes, têm suas próprias tradições e costumes. Há um interesse e uma necessidade de estudá-los, bem como uma troca de ideias (as relações comerciais com o Oriente árabe levaram à descoberta da filosofia natural dos árabes para a Europa Ocidental).

As universidades medievais, que mais tarde se tornaram centros de ciência, desempenharam um papel importante no processo de secularização (do latim sacularis - mundano, secular), a libertação da cultura da autoridade da igreja, a separação entre filosofia e teologia, ciência e escolástica .

O crescimento das cidades e, consequentemente, a expansão do artesanato, o surgimento das manufaturas, o desenvolvimento do comércio exigiram novas ferramentas, ferramentas que poderiam ser criadas por novas tecnologias baseadas na experiência e na ciência. A demanda por novas invenções que passaram em testes experimentais levou à rejeição de conclusões especulativas na ciência. A ciência experimental foi declarada "a mestra das ciências especulativas" (R. Bacon).

Ao mesmo tempo, a ciência do Renascimento não poderia estar livre da influência da Antiguidade, mas, diferentemente da Idade Média, que difundiu a experiência da modelagem ideal da realidade, o Renascimento a revisou e modificou significativamente.

Na origem da formação da ciência experimental (experimental) estão as figuras de N. Copérnico (1473-1543) e Galileu Galilei (1564-1642).

N. Copérnico, baseando-se em observações e cálculos astronômicos, fez uma descoberta que nos permite falar sobre a primeira revolução científica nas ciências naturais - este é um sistema heliocêntrico. A essência de seu ensinamento é brevemente reduzida à afirmação de que o Sol, e não a Terra (como Ptolomeu acreditava) está no centro do universo e que a Terra gira em torno de seu eixo em um dia e em torno do Sol em um ano. . (Ao mesmo tempo, ao realizar observações, Copérnico confiava apenas no olho sem um instrumento especial e cálculos matemáticos.) Isso foi um golpe não apenas para a imagem ptolomaica do mundo, mas também para a religiosa em geral. No entanto, a doutrina copernicana continha muitas contradições e deu origem a muitas perguntas que ele mesmo não conseguiu responder. Por exemplo, quando perguntado por que a Terra, ao girar, não joga tudo para fora de sua superfície, Copérnico, no espírito da lógica aristotélica, respondeu que más consequências não podem ser causadas pelo movimento residual e que “a rotação do nosso planeta não causar um vento constante devido à presença da atmosfera contendo a terra (um dos quatro elementos de Aristóteles) e assim girando em harmonia com o próprio planeta. Essa resposta mostra que o pensamento de Copérnico não estava livre da tradição e da fé religiosa de Aristóteles - ele era um filho de seu tempo. O próprio Copérnico acreditava que sua teoria não pretendia ser um reflexo real da estrutura do Universo, mas era apenas uma maneira mais conveniente de calcular o movimento dos planetas. Aqui está outra citação desta fonte: Copérnico “… contestou a complexidade de prever o movimento dos planetas com base na herança ptolomaica e tentou olhar para os dados disponíveis de forma diferente.

Este é o significado de Copérnico para a filosofia da ciência: ele demonstrou a possibilidade de diferentes interpretações dos mesmos fatos, propondo teorias alternativas e escolhendo delas uma mais simples, que permite tirar conclusões mais precisas.

Mais de um século se passou antes que outro pensador notável - Galileu Galilei - foi capaz de responder a muitas questões não resolvidas e contradições de Copérnico.

Galileu é considerado o fundador do estudo experimental da natureza, mas ao mesmo tempo conseguiu combinar experimento com descrição matemática. Tendo estabelecido o objetivo de provar que a natureza vive de acordo com certas leis matemáticas, ele realizou experimentos usando vários instrumentos. Um deles foi o telescópio que ele fez a partir de uma luneta, que o ajudou a fazer uma série de descobertas de tremenda importância para a ciência em geral e a cosmologia em particular. Com sua ajuda, ele descobriu que estrelas em movimento (ou seja, planetas) não são como estrelas fixas e são esferas que brilham com luz refletida. Além disso, ele foi capaz de detectar as fases de Vênus, o que provou sua rotação em torno do Sol (e, portanto, a rotação da Terra em torno do mesmo Sol), o que confirmou a conclusão de Copérnico e refutou Ptolomeu. O movimento dos planetas, os movimentos anuais das manchas solares, o fluxo e refluxo - tudo isso provou a rotação real da Terra em torno do Sol.

Um exemplo do fato de que Galileu muitas vezes recorreu a experimentos é o seguinte fato: tentando provar a conclusão de que os corpos caem com a mesma velocidade, ele jogou bolas de pesos diferentes da Torre Inclinada de Pisa e, medindo o tempo de sua queda , refutou Aristóteles em sua afirmação de que a velocidade de um corpo aumenta à medida que se move em direção à Terra em proporção ao seu peso.

Darei mais um exemplo, de grande importância para o estabelecimento de uma abordagem científica ao estudo do mundo. Como você sabe, Aristóteles acreditava que a base de todas as coisas no mundo são quatro razões: matéria (substrato físico), forma (design, aparência), ação ou movimento (o que causou sua aparência), propósito (design, intenção). Galileu, explorando as razões da aceleração do movimento, chega à conclusão de que não se deve procurar a causa de qualquer fenômeno (ou seja, por que ele surgiu), mas como ele acontece. Assim, o princípio de causalidade posteriormente, no curso do desenvolvimento da ciência, é gradualmente eliminado dele.

Galileu não apenas realizou experimentos, mas também fez sua análise mental, na qual receberam uma interpretação lógica. Essa técnica contribuiu muito para a capacidade não apenas de explicar, mas também de prever fenômenos. Sabe-se também que ele usou amplamente métodos como abstração e idealização.

Pela primeira vez na história da ciência, Galileu proclama que, ao estudar a natureza, é possível abstrair da experiência direta, pois a natureza, como ele acreditava, é “escrita” em linguagem matemática, e só pode ser desvendada quando, abstraída a partir de dados sensoriais, mas a partir deles, construções mentais, esquemas teóricos. A experiência é material purificado em suposições e idealizações mentais, e não apenas uma descrição de fatos. O papel e a importância de Galileu na história da ciência dificilmente podem ser superestimados. Ele lançou (na opinião da maioria dos cientistas) os fundamentos da ciência da natureza, introduziu um experimento mental na atividade científica, consolidou a possibilidade de usar a matemática para explicar fenômenos naturais, o que deu à matemática o status de ciência. As leis que hoje são claras e óbvias para cada aluno foram derivadas precisamente por ele (a lei da inércia, por exemplo), ele estabeleceu um certo estilo de pensamento, tirou o conhecimento científico do quadro de conclusões abstratas para a pesquisa experimental, liberou o pensamento , reformou o intelecto. Associado ao seu nome segunda revolução científica na ciência natural e o nascimento da verdadeira ciência.

A segunda revolução científica termina em nome de Isaac Newton (1643-1727). J. Bernal chamou a principal obra de Newton "Os Princípios Matemáticos da Filosofia Natural" a "bíblia da ciência".

Newton é o fundador da mecânica clássica. E, embora hoje, do ponto de vista da ciência moderna, a imagem mecanicista do mundo de Newton pareça tosca, limitada, foi ela que deu impulso ao desenvolvimento das ciências teóricas e aplicadas pelos próximos quase 200 anos. Devemos a Newton conceitos como espaço absoluto, tempo, massa, força, velocidade, aceleração; ele descobriu as leis do movimento dos corpos físicos, lançando as bases para o desenvolvimento da ciência da física. No entanto, nada disso poderia ter acontecido se Galileu, Copérnico e outros não estivessem antes dele. Não é à toa que ele mesmo disse: "Eu subi nos ombros de gigantes".

Newton aperfeiçoou a linguagem da matemática criando o cálculo integral e diferencial, ele é o autor da ideia onda corpuscular a natureza do mundo. Pode-se também enumerar muito do que esse cientista deu à ciência e à compreensão do mundo.

Detenhamo-nos na principal conquista da pesquisa científica de Newton - a imagem mecanicista do mundo. Contém as seguintes disposições:

A afirmação de que o mundo inteiro, o Universo nada mais é do que uma coleção de um grande número de partículas indivisíveis e imutáveis ​​movendo-se no espaço e no tempo, interligadas por forças gravitacionais transmitidas de corpo a corpo através do vazio.

Segue-se que todos os eventos são rigidamente predeterminados e sujeitos às leis da mecânica clássica, o que torna possível predeterminar e prever o curso dos eventos.

A unidade elementar do mundo é um átomo, e todos os corpos consistem em corpúsculos absolutamente sólidos, indivisíveis e imutáveis ​​- átomos. Ao descrever processos mecânicos, ele usou os conceitos de "corpo" e "corpúsculo".

O movimento de átomos e corpos era apresentado como um simples movimento de corpos no espaço e no tempo. As propriedades do espaço e do tempo, por sua vez, foram apresentadas como imutáveis ​​e independentes dos próprios corpos.

A natureza era apresentada como um grande mecanismo (máquina), em que cada parte tinha seu próprio propósito e obedecia rigorosamente a certas leis.

A essência dessa imagem do mundo é a síntese do conhecimento das ciências naturais e as leis da mecânica, que reduziram (reduziram) toda a variedade de fenômenos e processos a mecânicos.

É possível notar os prós e os contras de tal imagem do mundo. As vantagens incluem o fato de permitir explicar muitos fenômenos e processos que ocorrem na natureza, sem recorrer a mitos e religião, mas a partir da própria natureza.

Quanto aos contras, são muitos. Por exemplo, a matéria na interpretação mecanicista de Newton era apresentada como uma substância inerte, fadada à eterna repetição das coisas; o tempo é uma duração vazia, o espaço é um simples "receptáculo" de matéria, existindo independentemente nem do tempo nem da matéria. O sujeito cognoscente foi eliminado da imagem do próprio mundo - foi assumido a priori que tal imagem do mundo sempre existe, por si mesma, e não depende dos meios e métodos do sujeito cognoscente.

Deve-se notar também os métodos (ou princípios) de estudo da natureza, nos quais Newton se baseou. Eles podem ser apresentados na forma de um programa de pesquisa (ou plano).

Em primeiro lugar, ele sugeriu recorrer à observação, experimento, experimentos; em seguida, por indução, isolar aspectos individuais do objeto ou processo observado para entender como os principais padrões e princípios nele se manifestam; em seguida, realizar a expressão matemática desses princípios, com base na qual construir um sistema teórico integral e, por dedução, "chegar a leis que têm força ilimitada em tudo".

A imagem mecanicista do mundo, os métodos de explicação científica da natureza, desenvolvidos por Newton, deram um poderoso impulso ao desenvolvimento de outras ciências, o surgimento de novas áreas do conhecimento - química, biologia (por exemplo, R. Boyle conseguiu para mostrar como os elementos se combinam e explicam outros fenômenos químicos com base em ideias sobre o movimento de "pequenas partículas de matéria" (corpúsculos)). Lamarck, em busca de uma resposta à pergunta sobre a origem das mudanças nos organismos vivos, apoiando-se no paradigma mecanicista de Newton, concluiu que o desenvolvimento de todos os seres vivos está sujeito ao princípio do "movimento crescente dos fluidos".

A imagem mecanicista do mundo teve um enorme impacto na filosofia - contribuiu para o estabelecimento de uma visão materialista do mundo entre os filósofos. Por exemplo, T. Hobbes (1588-1679) criticou a "substância incorpórea", argumentando que tudo o que existe deve ter uma forma física. Tudo é uma matéria em movimento - ele até apresentou a mente como uma espécie de mecanismo e os pensamentos como matéria em movimento no cérebro. Em geral, as disputas filosóficas sobre a natureza da realidade contribuíram para a criação do ambiente em que se deu a formação de várias ciências.

Até o século 19, uma imagem mecanicista do mundo reinava nas ciências naturais, e o conhecimento era baseado em princípios metodológicos - mecanicismo e reducionismo.

No entanto, com o desenvolvimento da ciência, suas diversas áreas (biologia, química, geologia, a própria física), tornou-se óbvio que a imagem mecanicista do mundo não é adequada para explicar muitos fenômenos. Assim, estudando os campos elétrico e magnético, Faraday e Maskwell descobriram o fato de que a matéria poderia ser representada não apenas como uma substância (de acordo com sua interpretação mecanicista), mas também como um campo eletromagnético. Os processos eletromagnéticos não podiam ser reduzidos aos mecânicos e, portanto, a conclusão sugeria-se: não as leis da mecânica, mas as leis da eletrodinâmica são fundamentais no universo.

Em biologia J. B. Lamarck (1744-1829) fez uma descoberta surpreendente sobre a constante mudança e complicação de todos os organismos vivos na natureza (e da própria natureza), proclamando o princípio evolução, que também contradizia a posição da imagem mecanicista do mundo sobre a imutabilidade das partículas do universo e a natureza predeterminada dos eventos. As ideias de Lamarck foram completadas na teoria evolutiva de Charles Darwin, que mostrou que os animais e os organismos vegetais são o resultado de um longo desenvolvimento do mundo orgânico, e revelou as causas desse processo (o que Lamarck não poderia fazer antes dele) - hereditariedade e variabilidade, bem como fatores determinantes - seleção natural e artificial. Mais tarde, muitas das imprecisões e suposições de Darwin foram complementadas pela genética, que explicava o mecanismo de hereditariedade e variabilidade.

A teoria celular da estrutura dos organismos vivos é também um dos elos da cadeia geral de descobertas que minaram os fundamentos da imagem clássica e mecanicista do mundo. Baseia-se na ideia de que todas as plantas e organismos vivos, dos mais simples aos mais complexos (humanos), têm uma unidade estrutural comum - a célula. Todos os seres vivos têm uma unidade interna e se desenvolvem de acordo com leis uniformes (e não isoladas umas das outras).

Finalmente, a descoberta da lei da conservação da energia na década de 40 do século XIX (J. Mayer, D. Joule, E. Lenz) mostrou que fenômenos como calor, luz, eletricidade, magnetismo também não estão isolados uns dos outros. (como é imaginado antes), mas interagem, passam sob certas condições umas para as outras e não passam de diferentes formas de movimento na natureza.

Assim, a imagem mecanicista do mundo foi solapada com sua ideia simplificada de movimento como um simples movimento de corpos no espaço e no tempo, isolados uns dos outros, da única forma possível de movimento - mecânico, do espaço como um "receptáculo". " da matéria e do tempo como uma constante imutável, não dependendo dos próprios corpos.



Na virada dos séculos XVI e XVII, quando foram lançadas as bases da nova matemática, também foram lançadas as bases da física experimental. O protagonismo aqui cabe a Galileu (1564-1642), que não apenas fez inúmeras descobertas que compuseram a época, mas em seus livros, cartas e conversas ensinou a seus contemporâneos um novo método de obtenção de conhecimento. O impacto de Galileu nas mentes foi enorme. Outra pessoa que desempenhou um papel importante no desenvolvimento da ciência experimental foi Francis Bacon (1561-1626), que fez uma análise filosófica do conhecimento científico e do método de indução.

Ao contrário dos antigos gregos, os estudiosos europeus não desprezavam de forma alguma o conhecimento empírico e a atividade prática. Ao mesmo tempo, eles dominam completamente a herança teórica dos gregos e já embarcaram no caminho de suas próprias descobertas. A combinação desses aspectos deu origem a um novo método. Bacon escreve:

Aqueles que praticavam as ciências eram empiristas ou dogmáticos. A primeira, como a formiga, apenas coleta e usa o que recolheu. Estes últimos, como uma aranha, criam tecidos a partir de si mesmos. A abelha, por outro lado, escolhe o meio-termo, extrai material das flores do jardim e do campo, mas o dispõe e o modifica com sua própria habilidade. A verdadeira obra da filosofia também não difere disso. Pois não se baseia exclusiva ou predominantemente nos poderes da mente, e não deposita intocado na consciência o material extraído da história natural e dos experimentos mecânicos, mas o modifica e o processa na mente. Assim, uma boa esperança deve ser colocada em uma união mais próxima e indestrutível (o que não foi até agora) dessas faculdades da experiência e da razão.

13.2. método científico

conceito experimentar pressupõe uma teoria. Não há experimento sem teoria, há apenas observação. Do ponto de vista cibernético (sistêmico), um experimento é vigilância controlada; o sistema de controle é o método científico, que, baseado na teoria, dita o cenário do experimento. Assim, a transição da mera observação para o experimento é uma transição metassistêmica no domínio da experiência, e este é o primeiro aspecto do surgimento do método científico; seu segundo aspecto é a realização do método científico como algo acima da teoria, ou seja, o domínio do princípio geral de descrever a realidade com o auxílio de uma linguagem formalizada, que discutimos no capítulo anterior. Em geral, o surgimento do método científico é uma única transição de metassistema que cria um novo nível de controle, incluindo o controle da observação (montagem de um experimento) e o controle da linguagem (desenvolvimento de uma teoria). O novo metassistema é a ciência no sentido moderno da palavra. Dentro da estrutura desse metassistema, são estabelecidos vínculos estreitos entre experimento e teoria - diretos e reversos. Bacon os descreve assim:

Nosso caminho e nosso método... são os seguintes: não extraímos prática da prática e experiência da experiência (como empiristas), mas causas e axiomas da prática e experiência, e das causas e axiomas novamente prática e experiência, como verdadeiros intérpretes Natureza.

Agora podemos dar uma resposta definitiva à questão do que aconteceu na Europa no início do século XVII: houve uma grande transição de metassistema que capturou atividades linguísticas e não linguísticas. No campo da atividade não linguística, apareceu na forma de um método experimental. No campo da atividade linguística, deu origem a uma nova matemática, que se desenvolve por meio de transições de metassistema (efeito escada) ao longo da linha de autoconsciência cada vez mais profunda como linguagem formalizada que serve para criar modelos da realidade. Descrevemos esse processo no capítulo anterior, sem ir além da matemática. Agora podemos completar sua descrição apontando o sistema dentro do qual esse processo se torna possível. Esse sistema é a ciência como um todo com o método científico como dispositivo governante, ou seja (para decifrar essa forma curta de expressão) a totalidade de todos os seres humanos que praticam a ciência e dominam o método científico, juntamente com todos os objetos que utilizam. No Capítulo 5, falando do efeito escada, notamos que ele se manifesta quando há um metassistema S, que continua sendo um metassistema em relação aos sistemas da série X, X", X"", ..., onde cada sistema seguinte é formado por uma transição de metassistema do anterior, e que, permanecendo um metassistema, apenas oferece a possibilidade de transições de metassistema de menor escala de X para X", a partir de X" para X"", etc. Tal sistema S tem potencial de desenvolvimento interno; nós a nomeamos ultrametassistema. Com o desenvolvimento da produção de materiais pelo ultrametassistema Sé um conjunto de seres humanos que têm a capacidade de transformar uma ferramenta em um objeto de trabalho. Com o desenvolvimento das ciências exatas pelo ultrametassistema Sé um conjunto de pessoas que dominam o método científico, ou seja, que têm a capacidade de criar modelos da realidade usando uma linguagem formalizada.

Vimos que em Descartes o método científico, tomado em seu aspecto linguístico, serviu de alavanca para a reforma da matemática. Mas Descartes não apenas reformou a matemática; desenvolvendo o mesmo aspecto do mesmo método científico, ele criou muitos modelos teóricos, ou hipóteses, para explicar fenômenos físicos, cósmicos e biológicos. Se Galileu pode ser chamado de fundador da física experimental e Bacon - seu ideólogo, Descartes é o fundador e o ideólogo da física teórica. É verdade que os modelos de Descartes eram puramente mecânicos (não poderia haver outros modelos então) e imperfeitos, a maioria deles logo se tornou ultrapassada. No entanto, isso não é tão importante quanto o fato de Descartes ter aprovado o princípio da construção de modelos teóricos. No século XIX, quando o conhecimento inicial da física foi acumulado e o aparato matemático aprimorado, esse princípio mostrou toda a sua fecundidade.

Não poderemos aqui, mesmo em uma revisão superficial, tocar na evolução das idéias da física e suas realizações, bem como nas idéias e realizações de outras ciências naturais. Detenhamo-nos em dois aspectos do método científico que são de importância universal, a saber, o papel dos princípios gerais na ciência e os critérios para a escolha de teorias científicas, e depois consideraremos algumas consequências das conquistas da física moderna em vista de sua importância para todo o sistema de ciência e visão de mundo em geral. Concluímos este capítulo discutindo algumas perspectivas sobre o desenvolvimento do método científico.

13.3. O papel dos princípios gerais

Bacon apresentou um programa para a introdução gradual de proposições teóricas ("razões e axiomas") de generalidade cada vez maior, começando com dados empíricos únicos. Ele chamou esse processo por indução(ou seja, introdução) em oposição a dedução(derivação) de proposições teóricas de menor generalidade a partir de proposições de maior generalidade (princípios). Bacon era um grande opositor dos princípios gerais, dizia que a mente não precisa de asas para levantá-la, mas de levar para puxá-la para o chão. Durante o período de “acumulação inicial” de fatos experimentais e das leis empíricas mais simples, bem como um contrapeso à escolástica medieval, esse conceito ainda tinha alguma justificativa, mas depois descobriu-se que as asas da mente ainda eram mais necessárias do que conduzir. De qualquer forma, esse é o caso da física teórica. Em confirmação, vamos dar a palavra a uma autoridade indubitável neste campo como Albert Einstein. No artigo "Princípios de Física Teórica", ele escreve:

Para aplicar seu método, o teórico precisa como fundamento alguns pressupostos gerais, os chamados princípios, dos quais ele pode deduzir consequências. A sua obra divide-se assim em duas fases. Em primeiro lugar, ele precisa encontrar princípios e, em segundo lugar, desenvolver as consequências decorrentes desses princípios. Para realizar a segunda tarefa, ele está completamente armado desde a escola. Consequentemente, se para uma determinada área, ou seja, um conjunto de interdependências, o primeiro problema for resolvido, as consequências não tardarão a chegar. A primeira dessas tarefas é de um tipo completamente diferente, ou seja, o estabelecimento de princípios que podem servir de base para a dedução. Não há nenhum método aqui que possa ser aprendido e aplicado sistematicamente para atingir o objetivo. Em vez disso, o pesquisador deve extrair da natureza princípios gerais bem definidos que reflitam certas características comuns de uma infinidade de fatos estabelecidos experimentalmente.

Em outro artigo (Física e Realidade), Einstein é muito categórico:

A física é um sistema lógico de pensamento em desenvolvimento, cujos fundamentos podem ser obtidos não extraindo-os por quaisquer métodos indutivos de experiências vividas, mas apenas por livre invenção.

As palavras sobre "ficção livre" significam, é claro, não que os princípios gerais sejam completamente independentes da experiência, mas que eles não são inequivocamente determinados pela experiência. Um exemplo que Einstein costuma dar é este. A mecânica celeste de Newton e a teoria geral da relatividade de Einstein são construídas sobre os mesmos fatos experimentais. No entanto, eles procedem de princípios gerais completamente diferentes, em certo sentido, até mesmo diametralmente opostos, o que também se manifesta em um aparato matemático diferente.

Embora o "número de andares" do edifício da física teórica não fosse grande, e as consequências dos princípios gerais fossem deduzidas de maneira fácil e inequívoca, as pessoas não perceberam que tinham certa liberdade para estabelecer princípios. No método de tentativa e erro, a distância entre tentativa e erro (ou sucesso) era tão pequena que eles não percebiam que estavam usando tentativa e erro, mas acreditavam que estavam derivando diretamente (embora isso fosse chamado não de dedução, mas de indução ) princípios da experiência. Einstein escreve:

Newton, o criador do primeiro sistema frutífero extenso de física teórica, ainda pensava que os conceitos e princípios básicos de sua teoria decorrem da experiência. Obviamente, é neste sentido que se deve entender o seu dizer “hypotheses non fingo” (não invento hipóteses).

Mas com o tempo, a física teórica se transformou em uma construção de vários andares, e derivar consequências de princípios gerais tornou-se uma questão difícil e nem sempre inequívoca, porque muitas vezes era necessário fazer suposições adicionais no processo de dedução, na maioria das vezes “ simplificações sem princípios”, sem as quais seria impossível trazer o cálculo para números. Então ficou claro que há uma profunda diferença entre os princípios gerais da teoria e os fatos que podem ser diretamente verificados pela experiência: os primeiros são construções livres da mente humana, os segundos são o material de origem que a mente recebe da natureza. É verdade que a profundidade dessa diferença não deve ser superestimada. Se abstrairmos dos assuntos e aspirações humanas, então a diferença entre teorias e fatos desaparece - ambos são alguns reflexos ou modelos da realidade fora do homem. A diferença está no nível em que o modelo é reificado. Os fatos, se completamente “desideologizados”, são determinados pela influência do mundo exterior sobre o sistema nervoso humano, que somos forçados a considerar (por enquanto) como não permitindo alteração, razão pela qual tratamos fatos como realidade primária. As teorias são modelos incorporados em objetos linguísticos que estão inteiramente em nosso poder, de modo que podemos descartar uma teoria e substituí-la por outra tão facilmente quanto substituir uma ferramenta desatualizada por uma melhor.

A crescente abstração (construtividade) dos princípios gerais das teorias físicas, sua distância dos fatos experimentais diretos leva ao fato de que no método de tentativa e erro se torna cada vez mais difícil encontrar um teste que tenha chance de sucesso. A mente começa a simplesmente precisar de asas para voar, que é o que diz Einstein. Por outro lado, o aumento da distância dos princípios gerais às consequências verificáveis ​​torna os princípios gerais, dentro de certos limites, invulneráveis ​​à experimentação, o que também foi apontado com frequência pelos clássicos da física moderna. Tendo descoberto uma discrepância entre as consequências da teoria e do experimento, o pesquisador se depara com uma alternativa: procurar as razões da discrepância nos princípios gerais da teoria, ou em algum lugar no caminho dos princípios às consequências específicas. Devido ao alto custo dos princípios gerais e à grande despesa necessária para reestruturar a teoria como um todo, a segunda via é sempre tentada primeiro. Se se consegue de maneira suficientemente elegante modificar a dedução das consequências dos princípios gerais para que concordem com a experiência, então todos se acalmam e o problema é considerado resolvido. Mas às vezes a modificação parece claramente um remendo áspero, e às vezes os remendos se sobrepõem e a teoria começa a rachar nas costuras; no entanto, suas conclusões são consistentes com os dados da experiência e continua mantendo seu poder preditivo. Então surgem questões: como se deve tratar os princípios gerais de tal teoria? Devemos nos esforçar para substituí-los por alguns outros princípios? Em que grau de "remendos" faz sentido descartar a velha teoria?

13.4. Critérios de Seleção de Teoria

Em primeiro lugar, notamos que uma compreensão clara das teorias científicas como modelos linguísticos da realidade reduz significativamente a severidade da competição entre teorias científicas em comparação com o ponto de vista ingênuo (tipo de platonismo), segundo o qual os objetos linguísticos de uma teoria apenas expressam algum tipo de realidade e, portanto, cada teoria é "realmente" verdadeira se essa realidade "realmente" existir, ou "realmente" é falsa se essa realidade for ficcional. Esse ponto de vista é gerado pela transferência da posição, que se dá para a linguagem dos fatos concretos, para a linguagem dos conceitos-construtos. Quando comparamos duas afirmações concorrentes: “há álcool puro neste copo” e “há água pura neste copo”, sabemos que essas afirmações permitem a verificação experimental, e a que não se confirma perde todo o significado do modelo, qualquer compartilhar a verdade; é realmente falso e apenas falso. A situação é bem diferente com declarações que expressam os princípios gerais das teorias científicas. Muitas consequências verificáveis ​​são deduzidas deles e, se algumas delas forem falsas, geralmente se diz que os princípios originais (ou formas de derivar consequências) não são aplicáveis ​​a essa área de experiência; geralmente também é possível estabelecer critérios formais de aplicabilidade. Portanto, os princípios gerais são em certo sentido “sempre verdadeiros”, a noção exata de verdade e falsidade não é aplicável a eles, mas apenas a noção de sua maior ou menor utilidade para descrever fatos reais é aplicável. Como os axiomas da matemática, os princípios gerais da física são as formas abstratas nas quais nos esforçamos para comprimir os fenômenos naturais. Princípios concorrentes diferem em quão bem eles fazem isso.

Mas o que significa bom?

Se uma teoria é um modelo da realidade, então, obviamente, é melhor, quanto mais amplo for o escopo de sua aplicabilidade e mais previsões puder fazer. Este é o primeiro critério para comparar teorias - o critério de generalidade e poder preditivo da teoria.

Esses critérios são bastante óbvios. Se considerarmos as teorias científicas como algo estável, não sujeito a desenvolvimento e aperfeiçoamento, então, talvez, seria difícil propor qualquer outro critério além desses critérios. Mas a humanidade está constantemente desenvolvendo e aprimorando suas teorias, e isso dá origem a outro critério - dinâmico, que acaba sendo decisivo. Este critério é bem dito por Philip Frank em seu livro "Filosofia da Ciência", e citaremos suas palavras.

Se observarmos quais teorias foram realmente preferidas por causa de sua simplicidade, descobriremos que o fundamento decisivo para aceitar uma ou outra teoria não era nem econômico nem estético, mas sim o que muitas vezes era chamado de dinâmico. Isso significa que se preferiu uma teoria que tornasse a ciência mais dinâmica, ou seja, mais adequada à expansão para o desconhecido. Isso pode ser visto por meio de um exemplo ao qual nos referimos com frequência neste livro: a luta entre os sistemas copernicano e ptolomaico. No período entre Copérnico e Newton, muitas evidências foram dadas a favor de um ou outro sistema. No final, porém, Newton apresentou uma teoria do movimento que explicava brilhantemente todos os movimentos dos corpos celestes (por exemplo, os cometas), enquanto Copérnico, como Ptolomeu, explicava apenas os movimentos em nosso sistema planetário ... baseavam-se em uma generalização da teoria copernicana, e dificilmente podemos imaginar como poderiam ser formuladas se ele procedesse do sistema ptolomaico. Nisso, como em muitos outros aspectos, a teoria copernicana era mais "dinâmica", ou seja, tinha um valor heurístico maior. Pode-se dizer que a teoria copernicana era matematicamente mais "simples" e mais dinâmica que a de Ptolomeu.

O critério estético, ou critério da beleza de uma teoria, que Frank menciona, é difícil de defender como independente, independente de outros critérios. No entanto, adquire grande importância como síntese intuitiva de todos esses critérios. A teoria parece bela para o cientista se for suficientemente geral e simples e ele tiver um pressentimento de que se tornará dinâmica. Claro, ele pode estar errado sobre isso.

13.5. Física do micromundo

Na física, como na matemática pura, à medida que as teorias se tornaram mais abstratas, uma compreensão de seu caráter linguístico se enraizou. Este processo recebeu um impulso decisivo a partir do início do século XX. a física invadiu os limites do mundo dos átomos e partículas elementares e a teoria da relatividade e a mecânica quântica foram criadas. A mecânica quântica desempenhou um papel particularmente importante. É impossível entender essa teoria a menos que se lembre constantemente que ela é apenas um modelo linguístico do microcosmo, e não uma representação de como seria "realmente" se pudesse ser visto através de um microscópio com ampliação monstruosa, e que não existe tal imagem e não pode existir. Portanto, a ideia de uma teoria como modelo linguístico da realidade tornou-se parte integrante da física moderna, tornou-se necessário que os físicos trabalhassem com sucesso. Como resultado, a atitude interna em relação à natureza de sua atividade começou a mudar entre os físicos. Se antes um físico teórico se sentia um descobridor de algo que existia antes dele e independentemente dele, como um navegador descobrindo novas terras, agora ele se sente, antes, um criador de algo novo, como um mestre possuindo habilmente sua profissão e criando novas edifícios, máquinas, ferramentas. Essa mudança se manifestou mesmo em turnos de fala. Diz-se tradicionalmente que Newton "descobriu" o cálculo infinitesimal e a mecânica celeste; se dirá que um cientista moderno "criou" ou "propôs" ou "desenvolveu" uma nova teoria; a expressão "descoberto" soará arcaica. Isso, é claro, não infringe em nada a dignidade dos teóricos, pois a criação é uma ocupação não menos honrosa e inspiradora do que a descoberta.

Por que, então, a mecânica quântica exigia uma consciência da “natureza linguística” das teorias?

De acordo com o conceito atomístico original, os átomos eram simplesmente partículas muito pequenas de matéria, corpos pequenos, tendo, em particular, uma certa forma e cor, das quais dependem as propriedades físicas e a cor de grandes aglomerados de átomos. Física atômica no início do século XX. transferiu o conceito de átomo ("indivisível") para partículas elementares - elétrons e prótons (aos quais o nêutron logo foi adicionado), e a palavra "átomo" passou a denotar uma estrutura composta por um núcleo atômico (ele, de acordo com o hipótese inicial, era um aglomerado de prótons e elétrons), em torno do qual os elétrons giram, como planetas ao redor do sol. Essa ideia da estrutura da matéria era considerada hipotética, mas extremamente plausível. A própria hipótese foi entendida no sentido de que falamos acima: o modelo planetário do átomo deve ser verdadeiro ou falso. Se for verdade (e quase não havia dúvida sobre isso), então os elétrons são “realmente” pequenas partículas de matéria que descrevem certas trajetórias ao redor do núcleo. É verdade que, em comparação com os átomos dos antigos, as partículas elementares já começaram a perder algumas das propriedades que parecem ser absolutamente necessárias para as partículas da matéria. Ficou claro que o conceito de cor é completamente inaplicável a elétrons e prótons; não é que não saibamos de que cor são, mas simplesmente essa pergunta não faz sentido, pois a cor é o resultado da interação com a luz de pelo menos um átomo como um todo, ou melhor, um aglomerado de muitos átomos. Havia também dúvidas sobre os conceitos de forma e tamanho dos elétrons. Mas o santo dos santos da ideia de uma partícula material - a presença de uma partícula em cada momento do tempo em uma determinada posição no espaço - permaneceu indubitável e auto-evidente.

13.6. Relação de incerteza

A mecânica quântica destruiu essa noção. Ela foi forçada a fazer isso sob a pressão de novos dados experimentais. Descobriu-se que as partículas elementares se comportam sob certas condições não como partículas, mas como ondas, mas ao mesmo tempo não "mancham" uma grande área do espaço, mas mantêm seu pequeno tamanho e sua discrição, apenas a probabilidade de sua detecção em uma ou outra região é manchada.

Arroz. 13.1. Difração de elétrons

Vamos tomá-lo como uma ilustração. Ele descreve um canhão de elétrons que envia elétrons de um certo impulso para o diafragma, atrás do qual a tela está localizada. O diafragma é feito de um material opaco aos elétrons, mas possui dois orifícios pelos quais os elétrons entram na tela. A tela é coberta com uma substância que brilha sob a influência de elétrons, de modo que ocorre um flash no local onde o elétron atingiu. O fluxo de elétrons da arma é bastante raro, de modo que cada elétron passa pelo diafragma e é fixado na tela independentemente dos outros. A distância entre os orifícios do diafragma é muitas vezes maior do que o tamanho dos elétrons obtidos por qualquer estimativa, mas é comparável ao valor h/p, Onde hé a constante de Planck e p- o momento do elétron, ou seja, o produto de sua velocidade e massa.

Estas são as condições do experimento. Seu resultado é a distribuição de flashes na tela. A primeira conclusão da análise dos resultados experimentais é a seguinte: os elétrons atingem diferentes pontos da tela, e é impossível prever em qual ponto cada elétron irá atingir, só é possível prever a probabilidade de atingir um ou outro ponto , ou seja, a densidade média de flashes após atingir a tela é um número muito grande de elétrons.

Mas ainda é metade do problema. Pode-se imaginar que diferentes elétrons voam através de diferentes locais dos orifícios no diafragma, experimentam diferentes forças de influência das bordas dos orifícios e, portanto, são desviados de maneira diferente. O verdadeiro problema surge quando começamos a examinar a densidade média dos flashes na tela e a comparamos com os resultados que obtemos quando fechamos um dos orifícios da abertura. Se um elétron é uma pequena partícula de matéria, quando entra na região do diafragma, é absorvido ou passa por um dos dois orifícios. Como as aberturas do diafragma estão dispostas simetricamente em relação ao canhão de elétrons, em média, metade dos elétrons passa por cada abertura. Então, se fecharmos um dos buracos e deixarmos um milhão de elétrons passarem pelo diafragma, e depois fecharmos o segundo buraco, mas abrirmos o primeiro e deixarmos outro milhão de elétrons passarem, então devemos obter a mesma densidade média de flash como se deixássemos através do diafragma com dois buracos dois milhões de elétrons. Mas acontece que não é assim! Com dois furos, a distribuição é diferente, contém máximos e mínimos, como no caso da difração de ondas.

A densidade média dos flashes pode ser calculada usando a mecânica quântica associando aos elétrons a chamada função de onda, que é uma espécie de campo imaginário, cuja intensidade é proporcional à probabilidade dos eventos observados.

Ocuparia muito espaço para descrevermos todas as tentativas de conciliar a ideia do elétron como uma partícula "comum" (tais partículas passaram a ser chamadas de clássicas, em contraste com as quânticas) com dados experimentais sobre sua comportamento. Uma extensa literatura, especializada e popular, é dedicada a esta questão. Todas essas tentativas foram mal sucedidas. As duas coisas seguintes vieram à tona.

Primeiro, se a coordenada de uma partícula quântica (qualquer, não necessariamente elétron) ao longo de algum eixo é medida simultaneamente X e impulso nessa direção R, então os erros de medição, que denotamos por x; e p respectivamente, obedecem à relação de incerteza de Heisenberg:

x × ∆ ph.

Não há como contornar essa proporção. Quanto mais precisamente tentarmos medir as coordenadas, maior será a dispersão na magnitude do momento. R, e vice versa. A relação de incerteza é uma lei universal da natureza, mas como a constante de Planck hé muito pequeno, não desempenha um papel nas medições com corpos de tamanho macroscópico.

Em segundo lugar, a ideia de que, de fato, as partículas quânticas se movem ao longo de algumas trajetórias bem definidas, ou seja, a cada momento, elas realmente têm coordenadas e velocidades bem definidas (e, portanto, momento), que simplesmente não podemos medir com precisão, se depara com dificuldades lógicas intransponíveis. Ao contrário, a rejeição fundamental de atribuir uma trajetória real a uma partícula quântica e a suposição de que a descrição mais completa do estado das partículas é a atribuição de sua função de onda leva a uma teoria logicamente impecável, mas matematicamente simples e elegante, que é brilhantemente consistente com fatos experimentais; em particular, a relação de incerteza decorre imediatamente dela. Essa teoria é a mecânica quântica. Na compreensão dos fundamentos físicos e lógicos da mecânica quântica e em sua compreensão filosófica, o papel principal foi desempenhado pelas atividades do maior cientista e filósofo de nosso tempo, Niels Bohr (1885-1962).

13.7. Modelos visuais e icônicos

Assim, o elétron não tem uma trajetória. O máximo que se pode dizer sobre um elétron é indicar sua função de onda, cujo quadrado nos dará a probabilidade de encontrar um elétron próximo a um determinado ponto no espaço. Ao mesmo tempo, dizemos que um elétron é uma partícula material de certos (e muito pequenos) tamanhos. A mistura dessas duas ideias, que os fatos experimentais exigiam, revelou-se uma questão muito difícil, e ainda há pessoas que rejeitam a interpretação usual da mecânica quântica (aceita depois da escola de Bohr pela esmagadora maioria dos físicos) e desejam para retornar a mecânica quântica a todo custo, partículas sua trajetória. De onde vem tanta persistência? Afinal, a expropriação da cor dos elétrons foi completamente indolor e, do ponto de vista lógico, o reconhecimento da inaplicabilidade do conceito de trajetória para um elétron não é fundamentalmente diferente do reconhecimento da inaplicabilidade do conceito de cor . A diferença aqui é que quando abandonamos o conceito de cor, mostramos uma certa hipocrisia. Dizemos que o elétron não tem cor, mas nós mesmos o representamos na forma de uma espécie de bola cinza (ou brilhante - isso é uma questão de gosto). Ausência substituímos as cores por arbitrário cor, e isso não interfere em nada no uso do nosso modelo. Em relação à posição no espaço, esse truque não funciona. A ideia de um elétron, que está em algum lugar a todo momento, interfere na compreensão da mecânica quântica e entra em conflito com dados experimentais. Aqui somos forçados a abandonar completamente a representação visual-geométrica do movimento de uma partícula. Isso causa uma reação dolorosa. Estamos tão acostumados a conectar a imagem espaço-temporal com a verdadeira realidade, com o que existe de forma objetiva e independente de nós, que é muito difícil para nós acreditar em uma realidade objetiva que não se encaixe nessas estruturas. E nos perguntamos repetidamente: mas se o elétron não está “manchado” no espaço, então ele deve estar em algum lugar?

É preciso muito trabalho de pensamento para reconhecer e sentir a falta de sentido dessa pergunta. Em primeiro lugar, devemos estar cientes de que todos os nossos conhecimentos e teorias são modelos secundários da realidade, ou seja, modelos de modelos primários, que são os dados da experiência sensorial. Esses dados carregam uma marca indelével da estrutura do nosso sistema nervoso, e como os conceitos espaço-temporais estão embutidos nos andares mais baixos do sistema nervoso, todas as nossas sensações e ideias, todos os produtos da nossa imaginação não podem ir além das imagens espaço-temporais. No entanto, esses limites podem ser estendidos até certo ponto. Mas isso deve ser feito não por um movimento ilusório "para baixo" para a realidade objetiva, "como ela é, independentemente de nossos sentidos", mas por um movimento "para cima", ou seja, pela construção de modelos semióticos secundários da realidade.

É claro que os signos da teoria mantêm uma existência espaço-temporal contínua, assim como os dados primários da experiência. Mas na relação entre os dois, isto é, na semântica da teoria, podemos conceder uma considerável liberdade se formos guiados pela lógica dos novos fatos experimentais, e não pela intuição espaço-temporal usual. E podemos construir tal sistema de signos, que em seu funcionamento não está de forma alguma vinculado a representações visuais, mas está sujeito apenas à condição de uma descrição adequada da realidade. A mecânica quântica é um sistema assim. Uma partícula quântica neste sistema não é uma bola cinzenta ou brilhante e nem um ponto geométrico, mas um certo conceito, ou seja, um nó funcional do sistema, que, juntamente com outros nós, fornece uma descrição e previsão de fatos experimentais reais: pisca na tela, leituras do instrumento, etc. d.

Voltemos à questão de como o elétron "realmente" se move. Vimos que, por causa da relação de incerteza, a experiência não pode, em princípio, dar uma resposta a ela. Assim, como uma "parte externa" do modelo físico da realidade, essa questão não tem sentido. Resta atribuir-lhe um significado puramente teórico. Mas então perde sua conexão direta com os fenômenos observados, e a expressão "de fato" torna-se uma pura fraude! Sempre que ultrapassamos a esfera da percepção e declaramos que “de fato” isso e aquilo acontece, estamos nos movendo não para baixo, mas para cima - estamos construindo uma pirâmide de objetos linguísticos, e só por uma ilusão de ótica nos parece que nos aprofundamos na área abaixo da experiência sensorial. Metaforicamente falando, o plano que separa a experiência sensorial da realidade é absolutamente impenetrável e, tentando ver o que está por baixo, vemos apenas um reflexo invertido da pirâmide de teorias. Isso não significa que a verdadeira realidade seja incognoscível e que nossas teorias não sejam modelos dela; basta lembrar que todos esses modelos estão deste lado da experiência sensorial e não faz sentido comparar “realidades” fantasmagóricas do outro lado a elementos individuais de teorias, como fez Platão, por exemplo. A ideia de um elétron como uma pequena bola se movendo ao longo de uma trajetória é a mesma construção que a concatenação dos sinais da teoria quântica. Difere apenas por incluir uma imagem espaço-temporal, à qual habitualmente atribuímos uma realidade ilusória com a ajuda do sem sentido, neste caso a expressão "de fato".

A transição para a construção consciente de modelos simbólicos da realidade, não baseados em quaisquer representações visuais de objetos físicos, é uma grande conquista filosófica da mecânica quântica. De fato, a física tornou-se um modelo icônico desde os tempos de Newton, e foi devido à sua iconicidade que deveu seu sucesso (cálculos numéricos); no entanto, as representações visuais estavam presentes como um elemento necessário. Agora eles se tornaram opcionais, e isso ampliou a classe de modelos possíveis. Aqueles que querem devolver visibilidade a todo custo, embora vejam que a teoria funciona melhor sem ela, na verdade estão pedindo um estreitamento da classe de modelos. É improvável que eles tenham sucesso. Eles podem ser comparados com aquele excêntrico que atrelou um cavalo a uma locomotiva a vapor, porque embora visse que a carroça se movia sem cavalo, estava além de suas forças reconhecer tal situação como normal. Modelos icônicos são uma locomotiva que não precisa de um cavalo de representações visuais para cada um de seus conceitos.

13.8. O colapso do determinismo

O segundo resultado importante da mecânica quântica, que tem um significado filosófico geral, é o colapso do determinismo. O determinismo é um conceito filosófico. Esse nome é dado à visão de que todos os eventos que ocorrem no mundo têm causas bem definidas e ocorrem por necessidade, ou seja, não podem deixar de ocorrer. As tentativas de esclarecer essa definição revelam defeitos lógicos nela que impedem a formulação exata dessa visão na forma de uma posição científica sem introduzir quaisquer ideias adicionais sobre a realidade objetiva. De fato, o que significa “eventos têm causas”? É possível indicar um número "finito" de causas de um determinado evento e dizer que não existem outras causas? E o que significa dizer que o evento “não poderia ter acontecido”? Se apenas isso acontecesse, então a afirmação se transforma em uma tautologia.

No entanto, o determinismo filosófico pode ser interpretado com mais precisão dentro da estrutura de uma teoria científica que afirma ser uma descrição universal da realidade. De fato, ele recebeu tal interpretação no âmbito da mecanismo- um conceito científico e filosófico que surgiu com base nos sucessos da mecânica clássica aplicada aos movimentos dos corpos celestes. De acordo com o conceito mecanicista, o mundo é um espaço euclidiano tridimensional preenchido com muitas partículas elementares que se movem ao longo de algumas trajetórias. As forças atuam entre as partículas, dependendo de sua localização em relação umas às outras, e o movimento das partículas obedece às leis da mecânica newtoniana. Com tal representação do mundo, seu estado exato (ou seja, as coordenadas e velocidades de todas as partículas) em algum momento fixo no tempo determina exclusivamente o estado exato do mundo em qualquer outro momento. O famoso matemático e astrônomo francês P. Laplace (1749-1827) expressou essa posição nas seguintes palavras:

A mente, que conheceria a qualquer momento todas as forças que animam a natureza e a posição relativa de todas as suas partes constituintes, se além disso fosse extensa o suficiente para submeter esses dados à análise, abraçaria em uma fórmula a movimentos dos maiores corpos do universo em pé de igualdade com os movimentos dos menores átomos: não restaria nada que não fosse confiável para ele, e o futuro, assim como o passado, apareceriam diante de seus olhos.

Este conceito tem sido chamado determinismo laplaciano. É uma consequência legítima e inevitável da concepção mecanicista do mundo. É verdade que, do ponto de vista moderno, a formulação de Laplace precisa de alguns esclarecimentos, pois não podemos reconhecer como legítimos os conceitos de uma mente onisciente e a precisão absoluta da medição. Mas é fácil modernizar, praticamente sem mudar o significado. Dizemos que se as coordenadas e os momentos de todas as partículas em um volume de espaço suficientemente grande são conhecidos com precisão suficiente, então é possível calcular o comportamento de qualquer sistema em qualquer intervalo de tempo com qualquer precisão. A partir desta formulação, como da formulação original de Laplace, pode-se concluir que todos os estados futuros do universo são predeterminados. Ao aumentar indefinidamente a precisão e a cobertura das medições, estamos aumentando indefinidamente o tempo das previsões. Uma vez que não há restrições fundamentais sobre a precisão e o alcance das medições, ou seja, tais restrições que decorrem não das limitações das capacidades humanas, mas da natureza dos objetos de medição, podemos imaginar um caso extremo e afirmar que de fato todos O futuro do mundo já está determinado e absolutamente inequívoco. Aqui a expressão "realmente" adquire um significado bastante distinto; nossa intuição reconhece facilmente a legitimidade desse "realmente" e resiste a desacreditá-lo.

Assim, a concepção mecanicista do mundo leva à ideia do determinismo completo dos fenômenos. Mas isso contradiz o senso subjetivo de liberdade de escolha que temos. Há duas saídas para isso: reconhecer o sentimento de liberdade de escolha como "ilusório" ou reconhecer a concepção mecanicista como inadequada como uma imagem universal do mundo. Agora é difícil dizer em que proporção as pessoas pensantes da era "pré-quântica" foram divididas nesses dois pontos de vista. Se abordarmos a questão de uma posição moderna, então, mesmo sem saber nada sobre mecânica quântica, devemos adotar resolutamente o segundo ponto de vista. Entendemos agora que o conceito mecanicista, como qualquer outro conceito, é apenas um modelo secundário do mundo em relação aos dados primários da experiência, portanto, os dados diretos da experiência sempre têm prioridade sobre qualquer teoria. O sentimento de liberdade de escolha é um fato experimental primário, como outros fatos primários da experiência espiritual e sensorial. A teoria não pode rejeitar esse fato, ela pode apenas comparar alguns fatos novos com ele - procedimento que nós, sob certas condições, chamamos de explicação facto. Declarar a liberdade de escolha "ilusória" é tão sem sentido quanto declarar a uma pessoa com dor de dente que sua sensação é "ilusória". Um dente pode estar perfeitamente saudável, e a sensação de dor pode ser resultado da irritação de uma determinada parte do cérebro, mas isso não o torna “ilusório”.

A mecânica quântica destruiu o determinismo. Em primeiro lugar, a ideia de partículas elementares como pequenos corpos movendo-se ao longo de certas trajetórias acabou sendo falsa e, consequentemente, toda a imagem mecanicista do mundo entrou em colapso - tão clara, familiar e, ao que parece, completamente inegável. Físicos do século XX. não pode mais clara e convincentemente, como os físicos do século 19 foram capazes, dizer às pessoas o que na realidade representa o mundo em que vive. Mas o determinismo entrou em colapso não apenas como parte de um conceito mecanicista, mas também como parte de qualquer imagem do mundo. Em princípio, pode-se imaginar uma descrição tão completa (imagem) do mundo, que inclui apenas fenômenos realmente observados, mas fornece previsões inequívocas de todos os fenômenos que serão observados. Agora sabemos que isso é impossível. Sabemos que existem situações em que é fundamentalmente impossível prever qual dos muitos fenômenos concebíveis realmente ocorrerá. Além disso, essas situações são, de acordo com a mecânica quântica, não uma exceção, mas uma regra geral; resultados estritamente determinísticos são apenas a exceção à regra. A descrição mecânica quântica da realidade é essencialmente uma descrição probabilística e inclui previsões inequívocas apenas como um caso limite.

Como exemplo, considere o experimento com difração de elétrons, representado em . As condições do experimento são completamente determinadas quando todos os parâmetros geométricos da configuração e o momento inicial dos elétrons emitidos pela arma são fornecidos. Todos os elétrons emitidos pela arma e que atingem a tela estão em condições iguais e são descritos por uma função de onda. Enquanto isso, eles são absorvidos (dar flashes) em diferentes pontos da tela, e é impossível prever com antecedência em que ponto o elétron piscará; não se pode nem prever se vai desviar para cima ou para baixo em nosso desenho, só podemos indicar a probabilidade de atingir diferentes partes da tela.

É permissível, no entanto, fazer a pergunta: por que temos certeza de que, se a mecânica quântica não pode prever o ponto em que um elétron atingirá, nenhuma teoria futura também será capaz de fazê-lo?

A esta pergunta daremos não uma, mas duas respostas inteiras; a questão merece tal atenção.

A primeira resposta pode ser chamada de formal. Ele é. A mecânica quântica é baseada no princípio de que uma descrição usando a função de onda é a descrição mais completa dos estados de uma partícula quântica. Este princípio, na forma da relação de incerteza que se segue, foi confirmado por um grande número de experimentos, cuja interpretação contém apenas conceitos de baixo nível que estão diretamente relacionados às quantidades observadas. As conclusões da mecânica quântica, envolvendo cálculos matemáticos mais complexos, são confirmadas por um número ainda maior de experimentos. E não há absolutamente nenhuma indicação de que devemos questionar esse princípio. Mas equivale à impossibilidade de prever o resultado exato de um experimento. Por exemplo, para indicar o ponto na tela onde um elétron atinge, você precisa saber mais sobre ele do que a função de onda fornece.

Começaremos a segunda resposta tentando entender por que não estamos dispostos a aceitar a impossibilidade de prever o ponto em que o elétron atingirá. Séculos de desenvolvimento da física acostumaram as pessoas à ideia de que o movimento dos corpos inanimados é regulado apenas por causas externas a eles, e que por investigação suficientemente sutil essas causas sempre podem ser descobertas. olhadinha eles. Essa crença era plenamente justificada desde que se considerasse possível espionar o sistema sem influenciá-lo, o que ocorreu em experimentos em corpos macroscópicos. Imagine que não são elétrons que se espalham, mas balas de canhão, e que você estuda seu movimento. Você vê que em um caso o núcleo se desvia para cima e no outro para baixo, e você não quer acreditar que isso acontece por si só, mas está convencido de que a diferença no comportamento dos núcleos se deve a algum motivo real. Você filma o vôo do núcleo em filme ou toma alguma outra ação e, no final, encontra tais fenômenos UMA 1 e UMA 2 associado ao voo do núcleo, que, se disponível, UMA 1 núcleo desvia para cima e, se disponível UMA 2 - para baixo. E você diz isso UMA 1 é a razão para o desvio para cima do núcleo, e UMA 2 - o motivo do desvio para baixo. É possível que sua câmera seja imperfeita ou você simplesmente fique entediado com o estudo e não encontre a causa que procura. Mas você ainda continua convencido de que de fato a causa existe, ou seja, se você olhou melhor, então os fenômenos UMA 1 e UMA 2 seriam encontrados.

Como é a matéria no experimento com elétrons? Você vê novamente que em alguns casos o elétron se desvia para cima, em outros para baixo, e em busca de uma razão você tenta seguir seu movimento, espioná-lo. Mas aqui acontece que você não pode espionar um elétron sem afetar seu destino da maneira mais catastrófica. Para "ver" um elétron, é necessário direcionar um fluxo de luz para ele. Mas a luz interage com a matéria em porções, quanta, que estão sujeitas à mesma relação de incerteza que os elétrons e outras partículas. Portanto, com o auxílio da luz, bem como com o auxílio de qualquer outro meio de investigação, não é possível ir além dos limites da relação de incerteza. Tentando refinar a posição dos elétrons com a ajuda de fótons, ou damos a ele um impulso tão grande e indefinido que estraga todo o experimento, ou medimos a coordenada tão grosseiramente que não aprendemos nada de novo sobre isso. Então os fenômenos UMA 1 e UMA 2 , ou seja, as razões pelas quais o elétron em alguns casos se desvia para cima, e em outros casos para baixo, não existem na realidade. E a afirmação de que “de fato” existe algum tipo de razão perde todo o significado científico.

Então, há fenômenos para os quais não há causas, mais precisamente, há uma série de possibilidades, das quais uma ocorre sem motivo. Isso não significa que o princípio da causalidade deva ser descartado completamente: no mesmo experimento, se o canhão de elétrons for desligado, os flashes na tela desaparecerão completamente e a causa de seu desaparecimento será o desligamento do canhão. . Mas isso significa que ele deve ser significativamente limitado em comparação com o modo como foi entendido na mecânica clássica e como ainda é entendido pela consciência cotidiana. Alguns fenômenos não têm causas, devem ser tomados simplesmente como algo dado. Assim é o mundo em que vivemos.

A segunda resposta à pergunta sobre as razões de nossa confiança na existência de fenômenos imprevisíveis é que, com a ajuda da relação de incerteza, entendemos não apenas muitos fatos novos, mas também a natureza da ruptura em relação à causalidade e previsibilidade que ocorre quando invadimos o microcosmo. Vemos que a crença na causalidade absoluta partiu de uma suposição tácita sobre a existência de meios infinitamente sutis de pesquisa, "espreitando" por trás do objeto. Mas quando chegaram às partículas elementares, os físicos descobriram que existe um quantum mínimo de ação, medido pela constante de Planck, e isso cria um círculo vicioso ao tentar detalhar demais a descrição de uma partícula com a ajuda de outra. E a causalidade absoluta entrou em colapso, e com ela o determinismo. De um ponto de vista filosófico geral, parece bastante natural que, se não há divisibilidade infinita da matéria, então não há detalhes infinitos de descrição, de modo que o colapso do determinismo parece mais natural do que se tivesse sido preservado.

13.9. Teorias "loucas" e metaciência

Os sucessos da mecânica quântica, de que falamos acima, dizem respeito principalmente à descrição de partículas não relativísticas, ou seja, partículas que se movem a velocidades muito inferiores à velocidade da luz, de modo que os efeitos associados à teoria da relatividade (efeitos relativísticos ) pode ser desprezado. É precisamente a mecânica quântica não relativística que tínhamos em mente quando falamos de sua completude e harmonia lógica. A mecânica quântica não relativística é suficiente para descrever os fenômenos do nível atômico, mas a física das partículas elementares de alta energia exige a criação de uma teoria que combine as ideias da mecânica quântica e a teoria da relatividade. Até agora, apenas um sucesso parcial foi alcançado ao longo deste caminho; não existe uma teoria unificada e consistente de partículas elementares que explique a vasta quantidade de material acumulado pelos experimentadores. Tentativas de construir uma nova teoria por meio de correções sem princípios da velha teoria não levam a resultados significativos. A criação de uma teoria satisfatória das partículas elementares repousa na extraordinária peculiaridade desse campo de fenômenos, ocorrendo como se estivesse em um mundo completamente diferente e exigindo conceitos completamente inusitados para sua descrição, fundamentalmente em desacordo com o esquema que estamos acostumados a entender.

No final dos anos 50, Heisenberg propôs uma nova teoria das partículas elementares, depois de ler a qual Bohr disse que era improvável que fosse verdade, porque "não era louco o suficiente". A teoria realmente não recebeu reconhecimento, e a observação adequada de Bohr tornou-se conhecida por todos os físicos e até entrou na literatura popular. A palavra "louco" foi naturalmente associada ao epíteto "estranho" aplicado ao mundo das partículas elementares. Mas "louco" significa "estranho", "incomum"? Talvez se Bohr tivesse dito "não é incomum o suficiente", o aforismo não teria saído. A palavra “louco” traz a conotação de “louco”, “vindo do nada” e caracteriza brilhantemente a situação atual da teoria das partículas elementares, quando todos reconhecem a necessidade de uma profunda reestruturação da teoria, mas não se sabe como proceder com isso.

Surge a pergunta: a “estranheza” do mundo das partículas elementares, a inaplicabilidade de nossa intuição desenvolvida no macrocosmo a ele, nos condena agora e para sempre a vagar no escuro?

Consideremos a natureza das dificuldades que surgiram. O princípio de criar modelos de linguagem formalizados da realidade não sofreu na transição para o estudo do micromundo. Mas se as rodas desses modelos - conceitos físicos - foram tomadas basicamente de nossa experiência macroscópica cotidiana e só foram refinadas através da formalização, então para o novo mundo "estranho" são necessários novos conceitos "estranhos", que não há de onde tirar e que, portanto, terão que ser refeitos e até mesmo conectá-los adequadamente em um circuito completo. Na primeira etapa do estudo do micromundo, uma dessas rodas - a função de onda da mecânica quântica não relativística - foi feita com relativa facilidade, contando com o aparato matemático já existente que servia para descrever fenômenos macroscópicos (mecânica de um ponto material, mecânica de meios contínuos, teoria matricial). Os físicos tiveram sorte: encontraram os protótipos da roda de que precisavam em duas rodas (completamente diferentes) da física macroscópica e fizeram delas um "centauro" - o conceito quântico de partícula-onda.

No entanto, você não pode confiar na sorte o tempo todo. Quanto mais profundamente penetramos no microcosmo, mais os conceitos-construções necessários diferem dos conceitos usuais da experiência macroscópica, e menos provável é construí-los em movimento, sem ferramentas, sem teoria. Consequentemente, devemos submeter a própria tarefa de construir conceitos e teorias científicas à análise científica, ou seja, fazer outra transição de metassistema. Para construir uma determinada teoria física de maneira qualificada, necessitamos de uma teoria geral da construção de teorias físicas (metateoria), à luz da qual será esclarecido o modo de resolver nosso problema específico. Uma comparação de modelos visuais da física antiga com um cavalo e modelos icônicos abstratos com uma locomotiva a vapor pode ser desenvolvida da seguinte forma. Os cavalos são colocados à nossa disposição pela natureza. Eles crescem e se reproduzem por conta própria e, para usá-los, você não precisa conhecer sua estrutura interna. Mas devemos construir a locomotiva nós mesmos. Para isso, devemos entender os princípios de sua estrutura e as leis físicas que lhes estão subjacentes, bem como ter algumas ferramentas de trabalho. Tentando construir uma teoria do mundo "estranho", sem ter uma metateoria das teorias físicas, nos tornamos como uma pessoa que planeja construir uma locomotiva a vapor com as próprias mãos ou construir um avião, sem ter a menor idéia das leis da aerodinâmica.

Assim, outra transição de metassistema amadureceu. A física requer... eu quero dizer "metafísica", mas, felizmente para nossa terminologia, a metateoria que precisamos é tal em relação a qualquer teoria das ciências naturais que tenha um alto grau de formalização, portanto sua mais propriamente chamado de metaciência. Esse termo tem a desvantagem de criar a impressão de que a metaciência é algo fundamentalmente fora da ciência, enquanto na realidade o novo nível de hierarquia criado por essa transição do metassistema deve, é claro, ser incluído no corpo geral da ciência, expandindo assim esse corpo. . A situação aqui é a mesma do termo metamatemática; porque a metamatemática também faz parte da matemática. Mas como o termo "metamatemática" foi aceito, o termo "metaciência" também pode ser considerado aceitável. No entanto, como a parte mais importante da pesquisa metacientífica é o estudo dos conceitos da teoria, pode-se também propor o termo conceptologia.

A principal tarefa da metaciência pode ser formulada da seguinte maneira. Um certo conjunto ou um certo gerador de fatos é dado. Como construir uma teoria que efetivamente descreva esses fatos e faça previsões corretas?

Se queremos que a metaciência vá além do raciocínio geral, precisamos construí-la como uma teoria matemática de pleno direito, e para isso seu objeto - a teoria das ciências naturais - deve aparecer de forma formalizada (ainda que simplificada - tal é o preço da formalização) forma, sujeito a matemática. Apresentada dessa forma, a teoria científica é um modelo de linguagem formalizado, cujo mecanismo é um sistema hierárquico de conceitos - o ponto de vista que citamos ao longo do livro. Desse ponto de vista, a criação de uma metaciência matemática parece ser mais uma transição natural do metassistema, fazendo com que tornemos objeto de estudo das linguagens formalizadas em geral, não apenas em relação à sua sintaxe, mas também - e principalmente - do ponto de vista da semântica, do ponto de vista da sua aplicação, à descrição da realidade. Todo o caminho do desenvolvimento da ciência física e matemática nos leva a este passo.

No entanto, até agora, procedemos em nosso raciocínio a partir das necessidades da física. Mas e a matemática pura?

Se os físicos teóricos sabem o que precisam, mas podem fazer pouco, então os matemáticos "puros" podem ser censurados pelo fato de que podem fazer muito, mas não sabem do que precisam. Não há dúvida de que muitos trabalhos puramente matemáticos são necessários para conferir coerência e harmonia a todo o edifício da matemática, e seria ridículo exigir aplicações "práticas" imediatas de cada trabalho. Mas mesmo assim, a matemática é criada para o conhecimento da realidade, e não para fins estéticos ou esportivos, como o xadrez, e mesmo seus andares mais altos são necessários, em última análise, apenas na medida em que contribuem para a realização desse objetivo.

Provavelmente, o crescimento ascendente do edifício da matemática é sempre necessário e representa um valor incondicional. Mas a matemática também está se expandindo em amplitude, e fica cada vez mais difícil determinar o que não é necessário e o que é necessário e, em caso afirmativo, até que ponto. A tecnologia matemática está agora tão desenvolvida que construir vários novos objetos matemáticos dentro da estrutura do método axiomático e estudar suas propriedades tornou-se quase tão comum, embora nem sempre fácil, como era para os antigos escribas egípcios realizar cálculos em frações. Mas quem sabe se esses objetos serão necessários? Há necessidade de uma teoria da aplicação da matemática, e isso, em essência, é metaciência. Consequentemente, o desenvolvimento da metaciência é uma tarefa orientadora e organizadora em relação a problemas matemáticos mais específicos.

A criação de uma metaciência efetiva ainda está longe. Agora é difícil imaginar até mesmo seus contornos gerais. Para torná-los claros, é necessário realizar muito trabalho preparatório. Os físicos devem dominar o "Bourbakismo", sentir o jogo das estruturas matemáticas, o que leva ao surgimento de ricas teorias axiomáticas adequadas para uma descrição detalhada da realidade. Juntamente com os matemáticos, eles devem aprender a decompor modelos simbólicos em tijolos separados para montar os blocos de que precisam. E, claro, é necessário desenvolver a técnica de realizar cálculos formais em expressões simbólicas arbitrárias (e não apenas números) com a ajuda de computadores eletrônicos. Assim como a transição da aritmética para a álgebra ocorre somente após o pleno domínio da técnica de cálculos aritméticos, a transição para a teoria da criação de sistemas simbólicos arbitrários requer uma alta técnica de trabalho com expressões simbólicas, exige a remoção prática do problema da realizando cálculos formais complicados. Se os novos métodos contribuirão para a resolução dessas dificuldades específicas que agora estão enfrentando a teoria das partículas elementares, ou se elas serão resolvidas anteriormente por métodos manuais, "antiquados", é desconhecido e, no final, não importa, porque, sem dúvida, surgirão novas dificuldades. De uma forma ou de outra, a questão da criação de uma metaciência está em pauta. Mais cedo ou mais tarde deve ser resolvido, e então as pessoas receberão novas armas para conquistar os mundos fantásticos mais estranhos.

Bacon F. Novum Organum, Grandes livros do mundo ocidental. Enciclopédia Britânica, 1955. Aforismo 95, página 126.

Bacon F. Op. cit. Aforismo 117. R. 131.

Ver coleção: Einstein A. Física e realidade. M.: Nauka, 1965. As seguintes citações também foram extraídas desta coleção.

Franco P. filosofia da ciencia. Penhascos de Englewood (Nova Jersey): Prentice-Hall, 1957.

Laplace P. Experiência na filosofia da teoria da probabilidade. M., 1908. S. 9.

A formação da psicologia como ciência experimental.

A transição do conhecimento para a ciência, que para algumas áreas deve ser atribuída ao século XVIII, e para alguns (de alguma forma mecânica) já no século XVII, na psicologia ocorre em meados do século XIX. Somente nessa época o conhecimento psicológico diverso tomou forma como uma ciência independente, armada com sua própria metodologia de pesquisa específica para seu assunto e tendo seu próprio sistema, ou seja, a lógica de construção do conhecimento relacionado a ele, específico de seu assunto.
Os pré-requisitos metodológicos para a formação da psicologia como ciência foram preparados principalmente por aquelas correntes ligadas à filosofia empírica, que proclamavam em relação ao conhecimento do psicológico, bem como de todos os outros fenômenos, a necessidade de passar da especulação ao conhecimento experimental, realizado nas ciências naturais em relação ao conhecimento dos fenômenos físicos. Um papel particularmente significativo foi desempenhado a esse respeito pela ala materialista da tendência empírica da psicologia, que ligava os processos mentais aos fisiológicos.
No entanto, para que a transição da psicologia de conhecimentos e visões mais ou menos fundamentadas para a ciência realmente ocorresse, também era necessário um desenvolvimento correspondente dos campos científicos em que a psicologia deveria se basear e o desenvolvimento de métodos de pesquisa apropriados. Esses pré-requisitos finais para a formalização da ciência psicológica foram fornecidos pelos trabalhos dos fisiologistas da primeira metade do século XIX.
Com base em uma série de descobertas importantes no campo da fisiologia do sistema nervoso (C. Bell, que mostrou a presença de vários nervos sensoriais e motores e estabeleceu as leis básicas de condução em 1811,22 I. Muller, E. Dubois- Reymond, G. Helmholtz, que submeteu à medição da condução da excitação ao longo do nervo), os fisiologistas criaram uma série de trabalhos capitais dedicados aos padrões gerais de sensibilidade e especificamente ao trabalho de vários órgãos dos sentidos (os trabalhos de I. Muller e E.G. Weber, o trabalho de T. Jung, G. Helmholtz e E. Goering na visão, G. Helmholtz de ouvido, etc.). Dedicado à fisiologia dos órgãos dos sentidos, ou seja, vários tipos de sensibilidade, esses trabalhos, por necessidade interna, já passaram para o campo da psicofisiologia das sensações.
De particular importância para o desenvolvimento da psicologia experimental foram os estudos de E. G. Weber dedicados à questão da relação entre o aumento da irritação e a sensação, que foram então continuados, generalizados e submetidos a processamento matemático por G. T. Fechner (veja abaixo). Este trabalho lançou as bases para um novo campo especial de pesquisa psicofísica experimental.
Os resultados de todos esses estudos foram combinados, parcialmente desenvolvidos e sistematizados psicologicamente em seu Fundamentals of Physiological Psychology (1874) por W. Wundt. Ele coletou e melhorou para fins de pesquisa psicológica os métodos originalmente desenvolvidos pelos fisiologistas.
Em 1861, W. Wundt inventa o primeiro dispositivo elementar especificamente para fins de pesquisa psicológica experimental. Em 1879, ele organizou um laboratório de psicologia fisiológica em Leipzig, no final dos anos 80. transformado em Instituto de Psicologia Experimental. Os primeiros trabalhos experimentais de Wundt e numerosos estudantes foram dedicados à psicofisiologia das sensações, à velocidade das reações motoras simples, aos movimentos expressivos e assim por diante. Todos esses trabalhos foram, portanto, focados em processos psicofisiológicos elementares; ainda pertenciam inteiramente ao que o próprio Wundt chamava de psicologia fisiológica. Mas logo o experimento, cuja penetração na psicologia começou com processos elementares situados, por assim dizer, na área fronteiriça entre a fisiologia e a psicologia, começou a ser introduzido passo a passo no estudo dos problemas psicológicos centrais. Laboratórios de psicologia experimental começaram a ser criados em todos os países do mundo. E. B. Titchener foi pioneiro na psicologia experimental nos Estados Unidos, onde logo recebeu um desenvolvimento significativo.
O trabalho experimental começou a se expandir e aprofundar rapidamente. A psicologia tornou-se uma ciência independente, em grande parte experimental, que, usando métodos cada vez mais rigorosos, começou a estabelecer novos fatos e revelar novos padrões. Nas poucas décadas que se passaram desde então, o material experimental real disponível para a psicologia aumentou consideravelmente; os métodos tornaram-se mais diversos e mais precisos; A face da ciência mudou consideravelmente. A introdução da experiência na psicologia não só a armou com um método especial muito poderoso de pesquisa científica, mas também levantou a questão da metodologia da pesquisa psicológica como um todo de uma maneira diferente, apresentando novos requisitos e critérios para a natureza científica da pesquisa. todos os tipos de pesquisa experimental em psicologia. É por isso que a introdução do método experimental na psicologia desempenhou um papel tão grande, talvez até decisivo, na formação da psicologia como uma ciência independente.
Junto com a penetração do método experimental, um papel significativo no desenvolvimento da psicologia foi desempenhado pela penetração do princípio da evolução nela.
A teoria evolucionista da biologia moderna, estendendo-se à psicologia, desempenhou um duplo papel nela: primeiro, introduziu no estudo dos fenômenos mentais um ponto de vista novo e muito frutífero, ligando o estudo da psique e seu desenvolvimento não apenas mecanismos fisiológicos, mas também com o desenvolvimento de organismos em processo de adaptação ao meio ambiente. Mesmo em meados do século XIX. G. Spencer constrói seu sistema de psicologia baseado no princípio da adaptação biológica. Os princípios da ampla análise biológica se estendem ao estudo dos fenômenos psíquicos. À luz dessa abordagem biológica, as próprias funções mentais passam a ser compreendidas como fenômenos de adaptação, a partir do papel das funções que desempenham na vida do organismo. Esse ponto de vista biológico sobre os fenômenos psíquicos ganhou posteriormente considerável aceitação. Tornando-se um conceito geral que não se limita à filogênese, logo revela seu calcanhar de Aquiles, levando à biologização da psicologia humana.
A teoria da evolução, que se estendeu à psicologia, levou, em segundo lugar, ao desenvolvimento da zoopsicologia em primeiro lugar. No final do século passado, graças a uma série de trabalhos notáveis ​​(J. Loeb, C. Lloyd-Morgan, L. Hobhouse, G. Jennings, E. L. Thorndike e outros), a zoopsicologia, liberta do antropomorfismo, envereda pelo caminho de pesquisa científica objetiva. A partir de pesquisas no campo da psicologia comparada filogenética (zoopsicologia), surgem novas tendências na psicologia geral, e principalmente na psicologia comportamental.<…>
A penetração na psicologia do princípio do desenvolvimento não poderia deixar de estimular a pesquisa psicológica em termos de ontogenia. Na segunda metade do século XIX. O desenvolvimento intensivo deste ramo da psicologia genética, a psicologia da criança, começa. Em 1877, Charles Darwin publicou seu Esboço Biográfico de uma Criança. Na mesma época, surgiram trabalhos semelhantes de I. Ten, E. Egger e outros. Logo, em 1882, esses diários científicos dedicados à observação de crianças foram seguidos pelo trabalho de W. Preyer, "A alma de uma criança", que os continua em um plano mais amplo e sistemático. Preyer encontra muitos seguidores em vários países. O interesse pela psicologia infantil torna-se universal e assume um caráter internacional. Em muitos países, institutos especiais de pesquisa estão sendo criados e revistas especiais dedicadas à psicologia infantil estão sendo publicadas. Há uma série de trabalhos sobre a psicologia da criança. Representantes de todas as principais escolas psicológicas começam a prestar atenção considerável a ela. Na psicologia da criança, todas as correntes de pensamento psicológico se refletem.
Juntamente com o desenvolvimento da psicologia experimental e o florescimento de vários ramos da psicologia genética como um fato significativo na história da psicologia, indicando a importância de sua pesquisa científica, é necessário notar também o desenvolvimento de várias áreas especiais das chamadas psicologia aplicada, que abordam a resolução de várias questões da vida, com base nos resultados da investigação científica, em particular experimental. A psicologia encontra ampla aplicação no campo da educação e treinamento, na prática médica, no litígio, na vida econômica, nos assuntos militares e na arte.<…>
A crise dos fundamentos metodológicos da psicologia
Formada como ciência independente em meados do século XIX, a psicologia, em seus fundamentos filosóficos, foi uma ciência do século XVIII. Não G.T. Fechner e W. Wundt - ecletistas e epígonos na filosofia, mas os grandes filósofos dos séculos XVII-XVIII. determinou seus fundamentos metodológicos. A formação da psicologia como disciplina experimental em Wundt ocorreu já nas condições da crise iminente de seus fundamentos filosóficos.
Portanto, o ponto de vista muito difundido que transforma a formação da psicologia fisiológica experimental em Fechner e Wundt no ponto culminante do desenvolvimento da psicologia, aproximando-se de qual psicologia subiu e a partir de qual, passando para um estado de crise, começou a descer para baixo, deve ser rejeitado radicalmente. A introdução do método experimental na psicologia e o destaque da psicologia como uma disciplina experimental especial é um estágio inegavelmente significativo no desenvolvimento da ciência psicológica. Mas a formação de uma nova ciência psicológica não pode ser resumida em um ponto. Este é um longo processo que ainda não terminou, no qual devem ser distinguidos três pontos de pico: o primeiro deve ser atribuído ao mesmo século XVIII. ou o ponto de virada dos séculos XVII para XVIII, que foi apontado por F. Engels para toda a história da ciência, o segundo - na época da formação da psicologia fisiológica experimental em meados do século XIX; o terceiro - no momento em que o sistema de psicologia finalmente tomar forma, combinando a perfeição dos métodos de pesquisa com uma nova metodologia verdadeiramente científica. As primeiras pedras deste novo edifício foram lançadas por K. Marx em seus primeiros trabalhos.
O desenvolvimento da psicologia no segundo período é caracterizado pela ausência de grandes sistemas originais, de alguma forma comparáveis ​​aos criados no século XVIII. ou início do século XIX, a subordinação da psicologia a construções como a eclética "metafísica indutiva" de W. Wundt, a filosofia pragmática de W. James ou a empiriocrítica de E. Mach e R. Avenarius, e a crescente luta de posições idealistas contra tendências materialistas espontâneas, sensacionalistas e os princípios mecanicistas sobre os quais a psicologia fisiológica experimental é inicialmente construída; no final desse período, essa luta leva a psicologia a uma crise óbvia. Junto com isso, há um maior desenvolvimento de estudos experimentais especiais e aprimoramento de técnicas de pesquisa.
Quase tudo no desenvolvimento da pesquisa experimental pertence a esse período propriamente dito. No período anterior, ocorreu apenas o nascimento da psicofísica e da psicofisiologia, ou psicologia fisiológica. O desenvolvimento da pesquisa experimental para além do âmbito da psicofisiologia, começando com o trabalho de E. Ebbinghaus sobre a memória (1885), a pesquisa de E. Müller sobre memória e atenção, etc., refere-se principalmente ao final do século XIX. (anos 80 e 90). O desenvolvimento da zoopsicologia remonta à mesma época (o trabalho clássico de E. L. Thorndike foi publicado em 1898). O desenvolvimento especialmente significativo da psicologia da criança, começando com o trabalho de V. Preyer (1882), refere-se principalmente a uma época ainda posterior (o trabalho de V. Stern "Psicologia da Primeira Infância" em 1914, o trabalho de K. Groos, K. Buhler e outros em anos posteriores).
A psicologia fisiológica, experimental, de acordo com seus principais princípios metodológicos e tradições filosóficas mais progressistas, era, como vimos, na época de sua formação, ainda uma ciência do século XVIII.<…>A luta contra os princípios metodológicos sobre os quais se erigiu originalmente a construção da psicologia experimental começa já na virada do século XX. Vai em muitas linhas, ao longo desta luta a oposição de um oposto ao outro continua. O racionalismo (a psicologia do “pensamento puro” da escola de Würzburg e A. Binet: novamente Descartes contra Locke) se opõe ao sensacionalismo de vários tipos que inicialmente domina a psicologia fisiológica; atomismo mecanicista em psicologia - associacionismo - a integridade de vários tipos (psicologia holística da escola de Berlim, Leipzig, etc.) e o princípio da atividade ("apercepção", "síntese criativa" em; Leibniz contra Descartes); naturalismo fisiológico (em psicofisiologia) ou biológico (Darwin, Spencer) - várias formas de "psicologia do espírito" espiritualista e "psicologia social" idealista (escola sociológica francesa em psicologia). Além disso, novas contradições são levantadas: o intelectualismo - sensacionalista e racionalista - começa a se opor a várias formas de irracionalismo; para a mente, que a Revolução Francesa do século 18 divinizou, - obscuros impulsos profundos, instintos. Finalmente, começa uma luta de diferentes lados contra os melhores aspectos progressistas do conceito cartesiano de consciência com seu conhecimento claro e distinto; contra ela, por um lado, uma difusa experiência sentimental da psicologia da escola de Leipzig é apresentada (K. Boehme e os místicos alemães contra Descartes); contrapõe-se, por outro lado, a várias variedades da psicologia do inconsciente (psicanálise, etc.). Contra ele, finalmente, levando a crise a seus limites extremos, está a psicologia comportamental, que rejeita não apenas o conceito específico de consciência, mas também a psique como um todo: “Homem-máquina” de J.O. La Mettrie tenta superar todas as contradições do espírito humano, abolindo-o completamente (reflexo contra a consciência, Descartes contra Descartes).
Essa luta em suas principais tendências é uma luta ideológica, mas os pontos de referência para essas formas específicas que ela assume na prática da pesquisa psicológica fornecem contradições entre o material factual específico que revela o curso progressivo da pesquisa psicológica científica e os fundamentos metodológicos da pesquisa psicológica. que a psicologia procedeu.
A luta em todas essas áreas, a partir da virada do século 20, continua na psicologia estrangeira até os dias atuais. Mas em diferentes períodos, diferentes motivos são dominantes. Aqui é preciso distinguir, em primeiro lugar, o período anterior a 1918 (até o fim da Primeira Guerra Mundial e a vitória da Grande Revolução Socialista na Rússia) e o período subsequente. No segundo desses períodos, a psicologia entra em um período de crise aberta; a princípio ele está sendo preparado. Já no primeiro desses períodos, muitas das tendências que se tornarão dominantes no período subsequente começam a tomar forma - e o intuicionismo irracional de A. Bergson, e a psicanálise de S. Freud, e a psicologia do espírito de V. . Dilthey, etc., mas característicos deste período são principalmente as direções que lideram a luta contra o sensacionalismo e o atomismo parcialmente mecanicista da psicologia associativa, que é a princípio a tendência dominante na psicologia (G. Spencer, A. Bain - na Inglaterra, I . Ten, T. A. Ribot - na França, E. Muller, T. Ziegen - na Alemanha, M.M. Troitsky - na Rússia). Durante este período, a tendência do idealismo racionalista ainda domina. No período subsequente, nos anos do pós-guerra, que também se tornam anos de crise aguda para a psicologia, tendências irracionais e místicas tornam-se cada vez mais dominantes.
As tendências anti-sensualistas são identificadas pela primeira vez em conexão com a formulação do problema do pensamento em psicologia - na forma mais sutil em A. Binet na França, em D.E. Moore e E. Aveling na Inglaterra, na forma idealista mais pontiaguda na Alemanha , entre representantes da escola de Würzburg, diretamente influenciados pela filosofia idealista de E. Husserl, ressuscitando o idealismo platônico e o "realismo" da filosofia escolástica. A escola de Würzburg constrói a psicologia do pensamento com base na "auto-observação experimental". Seu objetivo principal é mostrar que o pensamento é basicamente um ato puramente espiritual, irredutível às sensações e independente das imagens sensoriais visuais; seu núcleo é a “intenção” (orientação) para o objeto ideal, o conteúdo principal é a “apreensão” direta das relações. Assim, os Würzburgers revivem as ideias da filosofia racionalista no âmbito da "psicologia experimental", assim como seus oponentes implementam os princípios da filosofia do empirismo. Ao mesmo tempo, ambas as direções, apesar de todo o seu antagonismo, estão unidas por uma abordagem metafísica comum à questão da relação entre pensamento e sentimento. A psicologia sensacionalista se apoia nas posições do empirismo metafísico vulgar, para o qual não há transição da sensação para o pensamento. Assim, é preciso negar completamente a especificidade qualitativa do pensamento, reduzindo o pensamento a sensações, ou considerar o pensamento isolado da sensação. A formulação do problema do pensamento em termos de pesquisa psicológica deve inevitavelmente levar, nesta base, a uma oposição racionalista do pensamento à sensação, em geral à visualização sensorial.
Após a luta contra o princípio sensualista, começa também uma luta contra o princípio mecanicista-atomista da psicologia associativa, contra a "psicologia dos elementos" e sua tendência, inspirada nos ideais da ciência natural mecanicista, de decompor todas as formações complexas da consciência em elementos e considerá-los como resultado do acoplamento, associação desses elementos. Mesmo W. Wundt tenta levar em conta a originalidade qualitativa do todo em relação aos elementos, introduzindo o conceito de apercepção e síntese criativa, que contrasta com uma simples associação externa. Fatos experimentais obrigam Wundt a essa inovação. Assim, já os primeiros trabalhos psicológicos sobre as sensações auditivas, nomeadamente os estudos de K. Stumpf (1883), mostraram que os tons, fundindo-se, e não apenas associando-se externamente, formam diversas estruturas integrais que funcionam como novas qualidades específicas que não podem ser reduzidas à qualidades de seus constituintes. Então X. Ehrenfels (1890) mostrou isso nas percepções visuais e pela primeira vez introduziu o termo "Gestaltqualitat" para designar essa nova qualidade específica do todo. Estudos posteriores sobre a percepção de tons musicais e uma série de outros estudos revelaram um extenso material factual que não se encaixava no quadro da psicologia dos elementos e forçava a ir além.
A princípio, esse ir além dos limites da psicologia mecanicista dos elementos é realizado principalmente pela oposição ao mecanismo de associações de várias formas de "síntese criativa" como manifestações de atividade espiritual (), "estados de transição de consciência" (James), etc. No pós-guerra subsequente à crise, a mesma questão das formações integrais que não podem ser reduzidas à soma de elementos é resolvida com base em posições significativamente diferentes de formalismo estrutural (psicologia da Gestalt) e completude irracional (escola de Leipzig).
A luta contra as associações como o principal princípio explicativo da psicologia experimental também encontra expressão em outra tendência muito sintomática - a tendência a abandonar completamente a explicação de fenômenos mentais significativos ("espirituais") mais complexos e limitar-se a descrever as formas em que esses fenômenos espirituais fenômenos são dados ("psicologia descritiva") » V. Dilthea). Mas mesmo essas tendências (observadas já por Wundt, que opõe a psicologia fisiológica à psicologia histórica dos povos, que estuda as formações espirituais superiores - fala, pensamento etc.) de crise.
Nos anos seguintes ao fim da Primeira Guerra Mundial, a crise assume formas agudas. Assim como a crise da física, sobre a qual V.I. Lenin escreveu em Materialismo e Empiriocriticismo, na matemática etc., esta é uma crise associada à luta ideológica pelos fundamentos metodológicos da ciência. As bases metodológicas sobre as quais o edifício da psicologia experimental foi originalmente erguido estão desmoronando; cada vez mais difundida na psicologia é a rejeição não apenas do experimento, mas também das tarefas da explicação científica em geral (“entender a psicologia” de E. Spranger); a psicologia é dominada por uma onda de vitalismo, misticismo, irracionalismo. O instinto vindo das profundezas do organismo (A. Bergson), “horme” (de W. MacDougall) desloca o intelecto. O centro de gravidade é transferido das formas históricas superiores da consciência para seus fundamentos pré-históricos, primitivos, “profundos”, da consciência para o inconsciente, instintivo. A consciência é reduzida ao papel de um mecanismo de camuflagem, desprovido de influência real sobre o comportamento controlado por impulsos inconscientes (). Junto com isso, o mecanismo assume formas extremas, chegando a uma negação completa da psique e da consciência humanas; a atividade humana é reduzida a um conjunto de reações reflexas inconscientes (psicologia comportamental). Na psicologia dos povos e na doutrina da personalidade, na caracterologia, as teorias fatalistas raciais reacionárias (E. Kretschmer, E. Jensch) tornam-se dominantes na psicologia burguesa estrangeira; na psicologia da criança, a pedologia é amplamente difundida, na psicologia pedagógica e aplicada em geral - testologia.<…>