Die Grundlagen der experimentellen Wissenschaft wurden gelegt. Die Entstehung der experimentellen Wissenschaft

Die Bildung von Wissenschaft im eigentlichen Sinne des Wortes ist mit der Anwendung der experimentellen Methode in der wissenschaftlichen Forschung verbunden, die die Grundlage der theoretischen Naturwissenschaft war. Wie V. S. Stepin feststellte, ging die Idee der experimentellen Forschung implizit davon aus, dass in der Kultur spezielle Ideen über Natur, Aktivität und das erkennende Subjekt vorhanden waren, die für die antike Kultur nicht charakteristisch waren, sich aber in der Renaissance zu bilden begannen und eine vollständige erhielten Ausdruck im Neuen Zeitalter. In einer experimentellen Studie wirkt das Erkenntnissubjekt als aktives Prinzip, das sich der natürlichen Materie widersetzt und ihre Dinge durch Gewalt verändert. Druck auf sie. Ein natürliches Objekt ist in einem Experiment bekannt, weil es hineingestellt wird simulierte Bedingungen und erst dadurch offenbart es seine unsichtbaren Wesenszusammenhänge für das Subjekt.

Die soziokulturelle Voraussetzung für die experimentelle Naturbetrachtung war ein neues System von Wertorientierungen, das sich bereits in der Kultur der Renaissance abzuzeichnen beginnt. Einerseits wird argumentiert, im Gegensatz zum mittelalterlichen Weltbild, ein neues System humanistischer Vorstellungen verbunden mit dem Menschenbild als aktiv gegen die Natur als denkendes und wirksames Prinzip. Andererseits wird das Interesse an der Naturerkenntnis betont, die als Anwendungsgebiet menschlicher Kräfte gilt.

Bereits in der Renaissance begann sich ein neues Verständnis der durch menschliches Handeln geschaffenen Beziehung zwischen Natürlichem, Natürlichem und Künstlichem zu formen. Die traditionelle christliche Lehre von der Erschaffung der Welt durch Gott erfährt eine besondere Interpretation. In Bezug auf den göttlichen Geist, der die Welt erschaffen hat, wird die Natur als künstlich angesehen. Menschliches Handeln wird als eine Art Ähnlichkeit von Schöpfungsakten im Kleinen gedeutet. Und die Grundlage dieser Tätigkeit ist die Nachahmung der Natur, das Erkennen eines vernünftigen Prinzips (Gesetze) in ihr und das Befolgen einer sinnvollen Harmonie der Natur in den menschlichen Künsten - Wissenschaft, Kunst, technische Erfindungen. Die Werte von künstlich und natürlich werden gleichgesetzt, und eine vernünftige Veränderung der Natur im Prozess menschlicher Aktivität erscheint nicht als etwas Gegenteiliges, sondern als im Einklang mit ihrer natürlichen Struktur. Es ist diese neue Einstellung zu Natur wurde in der Kategorie "Natur" verankert, die als Voraussetzung für die Entwicklung einer grundlegend neuen Art der Welterkenntnis diente: Es entsteht die Idee der Möglichkeit, naturtheoretische Fragen zu stellen und durch aktive Transformation von Naturobjekten Antworten darauf zu erhalten .

Neue Bedeutungen der Kategorie "Natur" wurden mit der Bildung neuer Bedeutungen der Kategorien "Raum" und "Zeit" als homogene Formationen verbunden, und dies ermöglichte es, die Idee der Möglichkeit und Reproduzierbarkeit des Experiments zu behaupten überall auf der Welt und zu jeder Zeit.

Die experimentelle Methode wurde von Leonardo da Vinci (1452-1519) für die Entwicklung vorbereitet. Aber Leonardo lebte hundert Jahre vor dieser Ära, und er verfügte nicht über die entsprechenden technischen Fähigkeiten und Bedingungen. Die logische Struktur der experimentellen Methode wurde ebenfalls nicht entwickelt. Dem Experiment von Leonardo da Vinci fehlte die Strenge der Definitionen und die Genauigkeit der Messungen.

Der Beginn der experimentellen Methode der Neuzeit wurde durch die Erfindung zweier wichtiger Instrumente gelegt: das zusammengesetzte Mikroskop (um 1590) und das Fernrohr (um 1608). Bereits die alten Griechen kannten die Vergrößerungskraft von Linsenbrillen. Aber das Wesentliche sowohl eines Mikroskops als auch eines Teleskops ist die Kombination mehrerer Lupen. Anscheinend geschah eine solche Verbindung zunächst zufällig und nicht unter dem Einfluss irgendeiner theoretischen Leitidee. Das erste Mikroskop wurde offenbar von dem holländischen Glasschleifer Zachary Jansen erfunden. Das erste Fernglas war der niederländische Optiker Franz Lipperstey.

Mit dem Aufkommen der Teleskope ist die Entwicklung der Astronomie auf eine qualitativ neue Stufe gestiegen. Die vier größten Jupitermonde wurden entdeckt, viele neue Sterne, die mit bloßem Auge nicht sichtbar sind; Es wurde zuverlässig festgestellt, dass Nebel und Galaxien riesige Sternhaufen sind. Außerdem wurden dunkle Flecken auf der Sonne gefunden.

G. Galilei spielte eine grundlegende Rolle bei der Begründung der experimentellen Methode. Galilei und seine Anhänger an der nach seinem Tod gegründeten Florentiner Akademie der Experimente führten Feldexperimente durch. Ein groß angelegtes Experiment wird mit Objekten in der Situation der untersuchten Realität durchgeführt und beinhaltet in der Regel das Eingreifen des Experimentators in den natürlichen Ablauf der Ereignisse. Galileo führte das Gedankenexperiment auch in die wissenschaftliche Erkenntnis ein. Bei einem mentalen Experiment wird eine Bedingungssituation gesetzt, die die für den Forscher interessanten Eigenschaften aufweist, und mit idealisierten Objekten gearbeitet. Galileo führte aktiv in die Köpfe der Wissenschaftler seiner Zeit die Idee ein, dass Wissenschaft ohne mentale Konstruktion, ohne Idealisierung, ohne Abstraktionen, ohne verallgemeinernde Schlussfolgerungen auf der Grundlage von Fakten unmöglich ist.

Galileis Ideen über die Methode des Experiments wurden am produktivsten von H. Huygens entwickelt. Auf der Grundlage experimenteller Forschung erfand Huygens eine Pendeluhr mit Hemmung, stellte die Schwingungsgesetze eines physikalischen Pendels auf und legte die Grundlagen für die Stoßtheorie. Huygens verbesserte das Teleskop, indem er ein Okular konstruierte und mit dessen Hilfe er den Ring des Saturn und seinen Trabanten Titan entdeckte.

Die Leistungsfähigkeit der experimentellen Methode zeigte sich in der Folgezeit der Entwicklung der Mechanik. Die Tradition, die von Galileo und Huygens bis zu Hooke und Newton reichte, war mit Versuchen verbunden, in Gedankenexperimenten mit mechanischen Geräten die Wechselwirkungskräfte zwischen Himmelskörpern zu modellieren. Zum Beispiel betrachtete Hooke die Rotation der Planeten in Analogie zur Rotation eines Körpers, der an einem Faden befestigt ist, sowie eines Körpers, der an ein rotierendes Rad gebunden ist. Newton verwendete eine Analogie zwischen der Rotation des Mondes um die Erde und der Bewegung einer Kugel in einer Hohlkugel.

Bezeichnenderweise wurde auf diesem Weg das Gesetz der universellen Gravitation entdeckt. Newton formulierte dieses Gesetz, indem er Keplers Gesetze und mathematische Ausdrücke aus einem Gedankenexperiment mit einem analogen mechanischen Modell vergleicht, die die Bewegung einer Kugel unter Einwirkung von Zentrifugalkräften charakterisieren.

experimentelle Wissenschaft

Die Idee der Humanisten, die Bedeutung des Menschen zu erhöhen und ihm das Gefühl zu geben, ein Teil der Natur zu sein, brachte die ersten Versuche zum Leben, eine experimentelle Wissenschaft zu schaffen.

Bis zu diesem Zeitpunkt war die Wissenschaft ein Komplex theoretischen Wissens. Die Gesetze des Universums und der Natur wurden ein für alle Mal formuliert, und es gab keinen Versuch oder Bedarf, sie zu überprüfen und zu bestätigen.

Die Renaissance hingegen erhebt den Menschen, der sich als Teil der Natur fühlt, sich selbstverständlich mit ihr verbindet und versucht, ihre Gesetze zu verstehen, zu erfahren und zu beschreiben.

So kommt eine Person, die mit dem Herzen handelt, zu einer neuen Idee der Wissenschaft. Weitere interessante Punkte kommen hinzu: So tauchen in der Renaissance die Originalwerke von Platon, Pythagoras, die Werke griechischer Astronomen, Geographen und Mathematiker wieder auf, da es für die Humanisten also sehr wichtig war, zu den Originaltexten zurückzukehren Abkehr von mittelalterlichen Übersetzungen, dogmatisch und tendenziös.

Das Studium dieser alten Quellen schockierte Anhänger, die erkannten, dass vor vielen Jahrhunderten Wissenschaftler, Astronomen, Geographen, Mathematiker, Ärzte und Astrologen lebten, die die Grundgesetze des Universums interpretierten, indem sie Zahlen und Formeln verwendeten, die die Sprache der Mathematik verwendet, um diese Gesetze zu erklären. Ein Beispiel sind die Pythagoreer und Plato, die ihre Philosophie fortsetzten.

Die Wiederbelebung der Wissenschaft wurde auch mit Magie in Verbindung gebracht.

Aus dem Buch Antikes Griechenland Autor Ljapustin Boris Sergejewitsch

Aus dem Buch Juden, Christentum, Russland. Von Propheten bis zu Generalsekretären Autor Katz Alexander Semjonowitsch

18. Juden und Wissenschaft Die persönliche Leistung von Wissenschaftlern zu bewerten ist schwieriger als die Leistung von Kulturschaffenden. Es wird angenommen, dass jeder Kultur versteht, und daher beurteilt jede Person auf emotionaler Ebene selbstbewusst und maßgeblich einen Film, eine Künstlerleinwand oder ein Lied. Wissenschaft ist Schicksal

Aus dem Buch Eine andere Literaturgeschichte. Von den Anfängen bis heute Autor Kaljuzhny Dmitry Vitalievich

Wissenschaft und "Wissenschaft"

Aus dem Buch Kulturologie: Ein Lehrbuch für Universitäten Autor Apresyan Ruben Grantovich

10.2. Wissenschaft und menschliches Bewusstsein. Wissenschaft und Moral Eines der Bindeglieder zwischen der inneren Entwicklung der Wissenschaft und dem Bewusstsein der Menschen ist das Weltbild. Es wird zu einem der Mechanismen des Einflusses der Wissenschaft auf die Weltanschauung, daher ist es wichtig zu verstehen, was es ist

Aus dem Buch Die Renaissance. Leben, Religion, Kultur der Autor Chamberlin Eric

Aus dem Buch Die Größe des alten Ägypten Autor Murray Margaret

Wissenschaft Besondere Erfolge erzielten die Ägypter in angewandter Mathematik und Medizin.Leider finden sich in den erhaltenen Papyri keine Erklärungen, in denen Probleme und Lösungen gegeben werden.Bewässerung war für ein Land mit heißem und trockenem Klima von lebenswichtiger Bedeutung.

Aus dem Buch Mythen und Legenden von China Autor Werner Eduard

Wissenschaft und Bildung Es sollte beachtet werden, dass die traditionelle chinesische Bildung hauptsächlich buchstäblich war, da die Notwendigkeit, jene Formen des Wissens zu entwickeln, die im westlichen Bildungssystem vorherrschten, als zweitrangig angesehen wurde. Das chinesische System entwickelte sich im Zusammenhang mit bestimmten

Aus dem Buch Verboslov-2 oder Notizen einer verrückten Person Autor Maksimov Andrey Markovich

Die Wissenschaft des gesunden Menschenverstandes ist eine Sammlung von Vorurteilen, die vor dem 18. Lebensjahr erworben wurden. Albert EINSTEIN, Physiker, Nobelpreisträger Jedes seriöse Unternehmen auf der Erde hat eine Idee. Es gibt natürlich und Wissenschaft. Großer amerikanischer Schriftsteller und Wissenschaftler

Aus dem Buch Die Wahrheit des Mythos der Autor Hübner Kurt

1. Wissenschaft Semantische Intersubjektivität bedeutet, dass ein Wort oder Satz von allen gleich verstanden wird. Wie ist das möglich?19 Einige Philosophen argumentieren, dass dies möglich ist, wenn Wörter und Sätze mit bestimmten Formen der Kontemplation, Wahrnehmung verbunden sind

Aus dem Buch 1000 weise Gedanken für jeden Tag Autor Kolesnik Andrej Alexandrowitsch

Wissenschaft Gustave Lebon (1841-1931) Psychologe, Arzt... Unter schwierigen Umständen kann ein Volk durch Heldentum gerettet werden, aber nur eine Kombination kleiner, beständiger Tugenden bestimmt seine Größe. ... Es ist beängstigend, manchmal auch nur an die Kraft zu denken, die einem Menschen etwas Außergewöhnliches verleiht

Aus dem Buch Time, Forward! Kulturpolitik in der UdSSR Autor Autorenteam

Aus dem Buch Studies in the Conservation of Cultural Heritage. Ausgabe 3 Autor Autorenteam

Der experimentelle Teil 1. Die Forschungen der Pappe der Halterungen. Anzumerken ist, dass für die Wechselausstellung alle Exponate in neue Kartons montiert wurden, ohne die permanente Halterung mit Schutzglas zu entfernen und die inneren und äußeren Schichten des Materials untersucht wurden

Aus dem Buch Sowjetwitz (Handlungsindex) Autor Melnitschenko Mischa

EXPERIMENTELLES In Bezug auf die chemische Zusammensetzung ist das weiße Bleipigment das Hauptbleicarbonat 2PbC03Pb(OH)2 mit einer kleinen Beimischung von Bleicarbonat РbС03. Obwohl beide dieser Bleisalze in der Natur vorkommen - das gemeinsame Mineral Cerussit PbCO3,

Aus dem Buch World of Saga Autor Steblin-Kamensky Michail Iwanowitsch

Historiker sehen die Voraussetzungen für die Entstehung experimenteller Wissenschaft in einer Reihe von wirtschaftlichen, politischen und allgemeinen kulturellen Faktoren, die sich im 14.-15. Jahrhundert in Europa entwickelt haben. Dazu gehören die Auflösung feudaler Verhältnisse, begleitet von einer Zunahme des Warenaustauschs, der Übergang vom natürlichen zum monetären Austausch, der zur Kapitalakkumulation beitrug, und der allmähliche Übergang zu kapitalistischen Verhältnissen. Die Entwicklung des Handels erforderte die Erweiterung der Tätigkeitsbereiche, die Erschließung neuer Länder und Kontinente: Geografische Entdeckungen erweiterten den Blickwinkel der Welt des mittelalterlichen Europäers. Es stellte sich heraus, dass die Welt nicht auf das Territorium der Fürstentümer oder eines separaten Staates beschränkt ist, sondern von verschiedenen Völkern bewohnt wird, die unterschiedliche Sprachen sprechen und ihre eigenen Traditionen und Bräuche haben. Es besteht Interesse und Bedarf, sie zu studieren, sowie Gedankenaustausch (Handelsbeziehungen mit dem arabischen Osten führten zur Entdeckung der Naturphilosophie der Araber für Westeuropa).

Mittelalterliche Universitäten, die später Zentren der Wissenschaft wurden, spielten eine wichtige Rolle im Prozess der Säkularisierung (von lateinisch sacularis – weltlich, weltlich), der Befreiung der Kultur von der Autorität der Kirche, der Trennung von Philosophie und Theologie, Wissenschaft und Scholastik .

Das Wachstum der Städte und folglich die Expansion des Handwerks, die Entstehung von Manufakturen, die Entwicklung des Handels erforderten neue Werkzeuge, Werkzeuge, die durch neue Technologien auf der Grundlage von Erfahrung und Wissenschaft geschaffen werden konnten. Die Nachfrage nach neuen Erfindungen, die experimentelle Tests bestanden haben, hat zur Ablehnung spekulativer Schlussfolgerungen in der Wissenschaft geführt. Die experimentelle Wissenschaft wurde zur "Herrin der spekulativen Wissenschaften" (R. Bacon) erklärt.

Gleichzeitig konnte sich die Wissenschaft der Renaissance nicht vom Einfluss der Antike befreien, aber im Gegensatz zum Mittelalter, das die Erfahrung idealer Modellierung der Realität ausstrahlte, wurde sie von der Renaissance erheblich überarbeitet und modifiziert.

An den Ursprüngen der Entstehung der experimentellen (experimentellen) Wissenschaft stehen die Figuren von N. Copernicus (1473-1543) und Galileo Galilei (1564-1642).

N. Copernicus hat auf der Grundlage astronomischer Beobachtungen und Berechnungen eine Entdeckung gemacht, die es uns ermöglicht, über die erste wissenschaftliche Revolution in der Naturwissenschaft zu sprechen - dies ist ein heliozentrisches System. Die Essenz seiner Lehre wird kurz auf die Aussage reduziert, dass die Sonne und nicht die Erde (wie Ptolemäus glaubte) im Mittelpunkt des Universums steht und dass sich die Erde an einem Tag um ihre eigene Achse und in einem Jahr um die Sonne dreht . (Gleichzeitig verließ sich Kopernikus bei Beobachtungen nur auf das Auge ohne spezielles Instrument und mathematische Berechnungen.) Dies war ein Schlag nicht nur für das ptolemäische Weltbild, sondern auch für das religiöse im Allgemeinen. Dennoch enthielt die kopernikanische Lehre viele Widersprüche und warf viele Fragen auf, die er selbst nicht beantworten konnte. Auf die Frage zum Beispiel, warum die Erde bei ihrer Rotation nicht alles von ihrer Oberfläche abwirft, antwortete Kopernikus im Sinne der aristotelischen Logik, dass keine schlimmen Folgen durch Restbewegungen verursacht werden können und dass „die Rotation unseres Planeten dies nicht tut verursachen einen konstanten Wind aufgrund der Anwesenheit der Atmosphäre, die die Erde enthält (eines der vier Elemente von Aristoteles) ​​und sich somit in Harmonie mit dem Planeten selbst dreht. Diese Antwort zeigt, dass das Denken von Kopernikus nicht frei von der Tradition und dem religiösen Glauben des Aristoteles war – er war ein Sohn seiner Zeit. Copernicus selbst glaubte, dass seine Theorie nicht den Anspruch erhebe, die Struktur des Universums wirklich widerzuspiegeln, sondern lediglich eine bequemere Methode zur Berechnung der Bewegung der Planeten sei. Hier ist ein weiteres Zitat aus dieser Quelle: Copernicus „… bestritt die Komplexität der Vorhersage der Bewegung der Planeten auf der Grundlage des ptolemäischen Erbes und versuchte, die verfügbaren Daten anders zu betrachten.

Das ist die Bedeutung von Kopernikus für die Wissenschaftsphilosophie: Er hat die Möglichkeit unterschiedlicher Interpretationen derselben Tatsachen aufgezeigt, alternative Theorien aufgestellt und aus ihnen eine einfachere ausgewählt, die es erlaubt, genauere Schlussfolgerungen zu ziehen.

Mehr als ein Jahrhundert verging bis zu einem weiteren herausragenden Denker – Galileo Galilei - konnte viele offene Fragen und Widersprüche von Copernicus beantworten.

Galileo gilt als Begründer der experimentellen Naturkunde, gleichzeitig gelang ihm aber auch die Verbindung von Experiment und mathematischer Beschreibung. Da er sich zum Ziel gesetzt hatte, zu beweisen, dass die Natur nach bestimmten mathematischen Gesetzen lebt, führte er Experimente mit verschiedenen Instrumenten durch. Eines davon war ein Teleskop, das er aus einem Fernglas baute, das ihm half, eine Reihe von Entdeckungen von enormer Bedeutung für die Wissenschaft im Allgemeinen und die Kosmologie im Besonderen zu machen. Mit seiner Hilfe entdeckte er, dass sich bewegende Sterne (also Planeten) keine Fixsterne sind, sondern Kugeln, die im reflektierten Licht leuchten. Darüber hinaus war er in der Lage, die Phasen der Venus zu erkennen, was ihre Rotation um die Sonne (und damit die Rotation der Erde um dieselbe Sonne) bewies, was die Schlussfolgerung von Kopernikus bestätigte und Ptolemäus widerlegte. Die Bewegung der Planeten, die jährlichen Bewegungen der Sonnenflecken, Ebbe und Flut - all dies bewies die tatsächliche Rotation der Erde um die Sonne.

Ein Beispiel dafür, dass Galilei oft auf Experimente zurückgriff, ist die folgende Tatsache: Um die Schlussfolgerung zu beweisen, dass Körper mit der gleichen Geschwindigkeit herunterfallen, warf er Bälle unterschiedlichen Gewichts aus dem Schiefen Turm von Pisa und maß die Zeit ihres Falls , widerlegte Aristoteles mit seiner Aussage, dass die Geschwindigkeit eines Körpers proportional zu seinem Gewicht zunimmt, wenn er sich der Erde nähert.

Ich werde noch ein weiteres Beispiel anführen, das für die Etablierung eines wissenschaftlichen Ansatzes zur Erforschung der Welt von großer Bedeutung ist. Wie Sie wissen, glaubte Aristoteles, dass die Grundlage aller Dinge auf der Welt vier Gründe sind: Materie (physikalisches Substrat), Form (Design, Aussehen), Aktion oder Bewegung (was ihr Erscheinen verursacht hat), Zweck (Design, Absicht). Galileo, der die Gründe für die Beschleunigung der Bewegung untersucht, kommt zu dem Schluss, dass man nicht nach der Ursache eines Phänomens suchen sollte (dh warum es entstanden ist), sondern wie es passiert. So wird das Kausalitätsprinzip später im Laufe der Entwicklung der Wissenschaft allmählich aus ihr eliminiert.

Galileo führte nicht nur Experimente durch, sondern machte auch ihre mentale Analyse, in der sie eine logische Interpretation erhielten. Diese Technik trug wesentlich dazu bei, Phänomene nicht nur zu erklären, sondern auch vorherzusagen. Es ist auch bekannt, dass er Methoden wie Abstraktion und Idealisierung weit verbreitet verwendete.

Zum ersten Mal in der Wissenschaftsgeschichte verkündet Galileo, dass es beim Studium der Natur möglich ist, von direkter Erfahrung zu abstrahieren, da die Natur, wie er glaubte, in mathematischer Sprache „geschrieben“ ist und nur durch Abstraktion entschlüsselt werden kann aus sensorischen Daten, aber darauf aufbauend, mentale Konstruktionen, theoretische Schemata. Erfahrung ist Material, das in mentalen Annahmen und Idealisierungen gereinigt wurde, und nicht nur eine Beschreibung von Tatsachen. Die Rolle und Bedeutung von Galileo in der Wissenschaftsgeschichte kann kaum überschätzt werden. Er legte (nach Meinung der meisten Wissenschaftler) den Grundstein der Naturwissenschaft, führte ein Gedankenexperiment in die wissenschaftliche Tätigkeit ein, begründete die Möglichkeit der mathematischen Erklärung von Naturphänomenen, was der Mathematik den Status einer Wissenschaft verlieh. Die Gesetze, die heute für jedes Schulkind klar und selbstverständlich sind, wurden genau von ihm abgeleitet (z. B. das Trägheitsgesetz), er setzte einen bestimmten Denkstil, brachte wissenschaftliche Erkenntnisse aus dem Rahmen abstrakter Schlussfolgerungen in die experimentelle Forschung, befreite das Denken , reformierte den Intellekt. Verbunden mit seinem Namen Zweite wissenschaftliche Revolution in der Naturwissenschaft und die Geburt der wahren Wissenschaft.

Die zweite wissenschaftliche Revolution geht im Namen von Isaac Newton (1643-1727) zu Ende. J. Bernal nannte Newtons Hauptwerk „The Mathematical Principles of Natural Philosophy“ die „Bibel der Wissenschaften“.

Newton ist der Begründer der klassischen Mechanik. Und obwohl Newtons mechanistisches Weltbild heute vom Standpunkt der modernen Wissenschaft aus grob und begrenzt erscheint, war es das, was der Entwicklung der theoretischen und angewandten Wissenschaften für die nächsten fast 200 Jahre den Anstoß gab. Wir verdanken Newton Begriffe wie absoluter Raum, Zeit, Masse, Kraft, Geschwindigkeit, Beschleunigung; Er entdeckte die Bewegungsgesetze physikalischer Körper und legte damit den Grundstein für die Entwicklung der Wissenschaft der Physik. All dies hätte jedoch nicht passieren können, wenn Galileo, Kopernikus und andere nicht vor ihm gewesen wären, kein Wunder, dass er selbst sagte: "Ich stand auf den Schultern von Riesen."

Newton perfektionierte die Sprache der Mathematik, indem er Integral- und Differentialrechnungen schuf, er ist der Autor der Idee Korpuskularwelle die Natur der Welt. Man könnte auch vieles aufzählen, was dieser Wissenschaftler der Wissenschaft und dem Weltverständnis gegeben hat.

Verweilen wir bei der Haupterrungenschaft von Newtons wissenschaftlicher Forschung – dem mechanistischen Weltbild. Es enthält folgende Bestimmungen:

Die Aussage, dass die ganze Welt, das Universum, nichts anderes ist als eine Ansammlung einer riesigen Anzahl unteilbarer und unveränderlicher Teilchen, die sich in Raum und Zeit bewegen und durch Gravitationskräfte miteinander verbunden sind, die von Körper zu Körper durch die Leere übertragen werden.

Daraus folgt, dass alle Ereignisse starr vorherbestimmt sind und den Gesetzen der klassischen Mechanik unterliegen, die es ermöglichen, den Ablauf der Ereignisse vorherzusagen und vorherzusagen.

Die elementare Einheit der Welt ist ein Atom, und alle Körper bestehen aus absolut festen, unteilbaren, unveränderlichen Teilchen - Atomen. Bei der Beschreibung mechanischer Vorgänge verwendete er die Begriffe „Körper“ und „Korpuskel“.

Die Bewegung von Atomen und Körpern wurde als einfache Bewegung von Körpern in Raum und Zeit dargestellt. Die Eigenschaften von Raum und Zeit wiederum wurden als unveränderlich und unabhängig von den Körpern selbst dargestellt.

Die Natur wurde als großer Mechanismus (Maschine) dargestellt, in dem jeder Teil seinen eigenen Zweck hatte und bestimmten Gesetzen strikt gehorchte.

Das Wesen dieses Weltbildes ist die Synthese von naturwissenschaftlichen Erkenntnissen und den Gesetzmäßigkeiten der Mechanik, die die ganze Vielfalt der Phänomene und Vorgänge auf mechanische reduziert (reduziert).

Es ist möglich, die Vor- und Nachteile eines solchen Weltbildes zu notieren. Zu den Pluspunkten gehört die Tatsache, dass viele Phänomene und Prozesse in der Natur erklärt werden konnten, ohne auf Mythen und Religion zurückzugreifen, sondern aus der Natur selbst.

Was die Nachteile betrifft, gibt es viele. Zum Beispiel wurde Materie in der mechanistischen Interpretation von Newton als eine träge Substanz dargestellt, die zur ewigen Wiederholung der Dinge verdammt ist; Zeit ist eine leere Dauer, Raum ist ein einfaches "Gefäß" von Materie, das weder von Zeit noch von Materie unabhängig existiert. Das erkennende Subjekt wurde aus dem Weltbild selbst eliminiert – es wurde a priori angenommen, dass ein solches Weltbild immer von selbst existiert und nicht von den Mitteln und Methoden des erkennenden Subjekts abhängt.

Es sollte auch auf die Methoden (oder Prinzipien) des Naturstudiums hingewiesen werden, auf die sich Newton stützte. Sie können in Form eines Forschungsprogramms (oder -plans) präsentiert werden.

Zunächst schlug er vor, auf Beobachtungen, Experimente, Experimente zurückzugreifen; Isolieren Sie dann mithilfe von Induktion einzelne Aspekte des beobachteten Objekts oder Prozesses, um zu verstehen, wie sich die Hauptmuster und Prinzipien darin manifestieren. dann den mathematischen Ausdruck dieser Prinzipien auszuführen, auf deren Grundlage ein integrales theoretisches System aufgebaut und durch Deduktion "zu Gesetzen gelangt wird, die in allem unbegrenzte Kraft haben".

Das mechanistische Weltbild, die von Newton entwickelten Methoden der wissenschaftlichen Erklärung der Natur gaben der Entwicklung anderer Wissenschaften, der Entstehung neuer Wissensgebiete - Chemie, Biologie (zum Beispiel war R. Boyle in der Lage zu zeigen, wie sich Elemente verbinden und andere chemische Phänomene zu erklären, basierend auf Vorstellungen über die Bewegung von "kleinen Materieteilchen" (Korpuskeln)). Auf der Suche nach einer Antwort auf die Frage nach der Ursache von Veränderungen in lebenden Organismen kam Lamarck unter Berufung auf Newtons mechanistisches Paradigma zu dem Schluss, dass die Entwicklung aller Lebewesen dem Prinzip der "zunehmenden Bewegung von Flüssigkeiten" unterliegt.

Das mechanistische Weltbild hatte einen großen Einfluss auf die Philosophie – es trug zur Etablierung eines materialistischen Weltbildes unter den Philosophen bei. Zum Beispiel kritisierte T. Hobbes (1588-1679) die „körperlose Substanz“ und argumentierte, dass alles, was existiert, eine physische Form haben muss. Alles ist eine sich bewegende Materie – er stellte sogar den Geist als eine Art Mechanismus dar und Gedanken als Materie, die sich im Gehirn bewegt. Im Allgemeinen trugen philosophische Auseinandersetzungen über die Natur der Realität zur Schaffung des Umfelds bei, in dem die Bildung verschiedener Wissenschaften stattfand.

Bis zum 19. Jahrhundert herrschte in der Naturwissenschaft ein mechanistisches Weltbild vor, und das Wissen basierte auf methodischen Prinzipien – Mechanismus und Reduktionismus.

Mit der Entwicklung der Wissenschaft, ihrer verschiedenen Bereiche (Biologie, Chemie, Geologie, Physik selbst) wurde jedoch deutlich, dass das mechanistische Weltbild nicht geeignet ist, viele Phänomene zu erklären. So entdeckten Faraday und Maskwell beim Studium der elektrischen und magnetischen Felder, dass Materie nicht nur als Substanz (gemäß ihrer mechanistischen Interpretation), sondern auch als elektromagnetisches Feld dargestellt werden kann. Elektromagnetische Prozesse ließen sich nicht auf mechanische zurückführen, und daher lag die Schlussfolgerung nahe: Nicht die Gesetze der Mechanik, sondern die Gesetze der Elektrodynamik sind grundlegend im Universum.

In der Biologie J. B. Lamarck (1744-1829) machte eine verblüffende Entdeckung über die ständige Veränderung und Komplikation aller lebenden Organismen in der Natur (und der Natur selbst) und verkündete das Prinzip Evolution, was auch der Position des mechanistischen Weltbildes über die Unveränderlichkeit der Teilchen des Universums und die Vorbestimmtheit von Ereignissen widersprach. Lamarcks Ideen wurden in der Evolutionstheorie von Charles Darwin vervollständigt, der zeigte, dass Tiere und Pflanzenorganismen das Ergebnis einer langen Entwicklung der organischen Welt sind, und die Ursachen dieses Prozesses aufdeckte (was Lamarck vor ihm nicht tun konnte) - Vererbung und Variabilität sowie treibende Faktoren - natürliche und künstliche Selektion. Später wurden viele der Ungenauigkeiten und Annahmen von Darwin durch die Genetik ergänzt, die den Mechanismus der Vererbung und Variabilität erklärte.

Die zelluläre Theorie der Struktur lebender Organismen ist auch eines der Glieder in der allgemeinen Kette von Entdeckungen, die die Grundlagen des klassischen, mechanistischen Weltbildes untergraben haben. Es basiert auf der Idee, dass alle lebenden Pflanzen und Organismen, von den einfachsten bis zu den komplexesten (Menschen), eine gemeinsame strukturelle Einheit haben - die Zelle. Alle Lebewesen haben eine innere Einheit und entwickeln sich nach einheitlichen Gesetzmäßigkeiten (und nicht isoliert voneinander).

Schließlich zeigte die Entdeckung des Energieerhaltungsgesetzes in den 40er Jahren des 19. Jahrhunderts (J. Mayer, D. Joule, E. Lenz), dass Phänomene wie Wärme, Licht, Elektrizität und Magnetismus auch nicht voneinander isoliert sind (wie man sich das vorher vorstellt), sondern interagieren, gehen unter bestimmten Bedingungen ineinander über und sind nichts anderes als unterschiedliche Bewegungsformen in der Natur.

Damit wurde das mechanistische Weltbild mit seiner vereinfachten Vorstellung von Bewegung als einfache Bewegung von Körpern in Raum und Zeit, isoliert voneinander, von der einzig möglichen Bewegungsform – mechanisch, von Raum als „Behältnis“ unterminiert „der Materie und der Zeit als unveränderliche Konstante, unabhängig von den Körpern selbst.



An der Wende vom 16. zum 17. Jahrhundert, als die Grundlagen der neuen Mathematik gelegt wurden, wurden auch die Grundlagen der Experimentalphysik gelegt. Die führende Rolle gehört hier Galileo (1564-1642), der nicht nur zahlreiche Entdeckungen machte, die die Epoche ausmachten, sondern seinen Zeitgenossen in seinen Büchern, Briefen und Gesprächen eine neue Methode der Erkenntnisgewinnung beibrachte. Die Wirkung von Galileo auf die Köpfe war enorm. Eine weitere Person, die eine wichtige Rolle bei der Entwicklung der experimentellen Wissenschaft spielte, war Francis Bacon (1561-1626), der eine philosophische Analyse der wissenschaftlichen Erkenntnisse und der Induktionsmethode durchführte.

Anders als die alten Griechen waren die europäischen Gelehrten keineswegs verächtlich gegenüber empirischem Wissen und praktischem Handeln. Gleichzeitig haben sie das theoretische Erbe der Griechen vollständig gemeistert und sich bereits auf den Weg ihrer eigenen Entdeckungen begeben. Die Kombination dieser Aspekte führte zu einer neuen Methode. Speck schreibt:

Diejenigen, die die Wissenschaften praktizierten, waren entweder Empiriker oder Dogmatiker. Erstere sammeln und verwenden wie die Ameise nur das, was sie gesammelt haben. Letztere stellen wie eine Spinne Stoff aus sich selbst her. Die Biene dagegen wählt den Mittelweg, sie entzieht den Blumen des Gartens und des Ackers Material, disponiert und verändert es aber mit eigener Geschicklichkeit. Davon unterscheidet sich auch das wahre Werk der Philosophie nicht. Denn sie beruht nicht ausschließlich oder überwiegend auf den Kräften des Geistes und legt das der Naturgeschichte und den mechanischen Experimenten entnommene Material nicht unberührt im Bewußtsein ab, sondern verändert und verarbeitet es im Geiste. Daher sollte eine gute Hoffnung auf eine engere und unzerstörbare (was bisher nicht der Fall war) Vereinigung dieser Erfahrungs- und Vernunftfähigkeiten gesetzt werden.

13.2. wissenschaftliche Methode

Konzept Experiment setzt eine Theorie voraus. Es gibt kein Experiment ohne Theorie, es gibt nur Beobachtung. Aus kybernetischer (systemischer) Sicht ist ein Experiment kontrollierte Überwachung; das Kontrollsystem ist die wissenschaftliche Methode, die auf der Grundlage der Theorie den Rahmen des Experiments vorgibt. Der Übergang von der bloßen Beobachtung zum Experiment ist also ein metasystemischer Übergang im Bereich der Erfahrung, und dies ist der erste Aspekt der Entstehung der wissenschaftlichen Methode; ihr zweiter Aspekt ist die Verwirklichung der wissenschaftlichen Methode als etwas, das über der Theorie steht, mit anderen Worten, die Beherrschung des allgemeinen Prinzips der Beschreibung der Realität mit Hilfe einer formalisierten Sprache, das wir im vorigen Kapitel besprochen haben. Im Allgemeinen ist die Entstehung der wissenschaftlichen Methode ein einziger Übergang des Metasystems, der eine neue Ebene der Kontrolle schafft, einschließlich der Kontrolle der Beobachtung (Aufbau eines Experiments) und der Kontrolle der Sprache (Entwicklung einer Theorie). Das neue Metasystem ist Wissenschaft im modernen Sinne des Wortes. Im Rahmen dieses Metasystems werden Experiment und Theorie eng miteinander verknüpft – direkt und umgekehrt. Bacon beschreibt sie so:

Unser Weg und unsere Methode ... sind folgende: Wir extrahieren nicht Praxis aus Praxis und Erfahrung aus Erfahrung (als Empiristen), sondern Ursachen und Axiome aus Praxis und Erfahrung und aus Ursachen und Axiome wiederum Praxis und Erfahrung als wahre Interpreten Natur.

Jetzt können wir die Frage, was in Europa zu Beginn des 17. Jahrhunderts geschah, endgültig beantworten: Es gab einen großen Metasystemwechsel, der sowohl sprachliche als auch nichtsprachliche Aktivitäten erfasste. Auf dem Gebiet der nichtsprachlichen Tätigkeit erschien es in Form einer experimentellen Methode. Im Bereich der sprachlichen Tätigkeit hat er eine neue Mathematik entstehen lassen, die sich durch Metasystemübergänge (Treppeneffekt) entlang der Linie der immer tiefer werdenden Selbsterfahrung als formalisierte Sprache entwickelt, die der Erstellung von Realitätsmodellen dient. Wir haben diesen Prozess im vorigen Kapitel beschrieben, ohne über die Mathematik hinauszugehen. Jetzt können wir seine Beschreibung vervollständigen, indem wir auf das System hinweisen, innerhalb dessen dieser Prozess möglich wird. Dieses System ist die Wissenschaft als Ganzes mit der wissenschaftlichen Methode als ihrem Leitbild, d. h. (um diese Kurzform des Ausdrucks zu entschlüsseln) die Gesamtheit aller Menschen, die Wissenschaft betreiben und die wissenschaftliche Methode beherrschen, samt aller Gegenstände, die sie benutzen. In Kapitel 5, als wir vom Leitereffekt sprachen, bemerkten wir, dass er sich manifestiert, wenn es ein Metasystem gibt Y, das weiterhin ein Metasystem in Bezug auf Systeme der Reihe ist X, X", X"", ..., wo jedes nächste System durch einen Metasystem-Übergang aus dem vorherigen gebildet wird, und das, indem es ein Metasystem bleibt, nur die Möglichkeit von Metasystem-Übergängen kleineren Maßstabs bietet X zu X", aus X" zu X"" usw. Ein solches System Y hat internes Entwicklungspotential; wir haben sie genannt Ultrametasystem. Mit der Entwicklung der materiellen Produktion durch das Ultrametasystem Y ist eine Gruppe von Menschen, die die Fähigkeit haben, ein Werkzeug in ein Arbeitsobjekt zu verwandeln. Mit der Entwicklung der exakten Wissenschaften durch das Ultrametasystem Y ist eine Gruppe von Menschen, die die wissenschaftliche Methode beherrschen, dh die Fähigkeit haben, Modelle der Realität mit einer formalisierten Sprache zu erstellen.

Wir haben gesehen, dass bei Descartes die wissenschaftliche Methode unter ihrem sprachlichen Aspekt als Hebel für die Reform der Mathematik diente. Aber Descartes reformierte nicht nur die Mathematik; Er entwickelte denselben Aspekt derselben wissenschaftlichen Methode und schuf viele theoretische Modelle oder Hypothesen, um physikalische, kosmische und biologische Phänomene zu erklären. Wenn Galileo als Begründer der experimentellen Physik und Bacon als ihr Ideologe bezeichnet werden kann, dann ist Descartes sowohl der Begründer als auch der Ideologe der theoretischen Physik. Die Modelle von Descartes waren zwar rein mechanisch (damals konnte es keine anderen Modelle geben) und unvollkommen, die meisten von ihnen waren bald veraltet. Dies ist jedoch nicht so wichtig wie die Tatsache, dass Descartes das Prinzip der Konstruktion theoretischer Modelle befürwortete. Im 19. Jahrhundert, als die ersten physikalischen Erkenntnisse angesammelt und der mathematische Apparat verbessert wurden, zeigte dieses Prinzip seine ganze Fruchtbarkeit.

Auf die Entwicklung der Ideen der Physik und ihrer Errungenschaften sowie der Ideen und Errungenschaften anderer Naturwissenschaften können wir hier auch in einem oberflächlichen Rückblick nicht eingehen. Wir werden auf zwei Aspekte der wissenschaftlichen Methode eingehen, die von universeller Bedeutung sind, nämlich die Rolle allgemeiner Prinzipien in der Wissenschaft und die Kriterien für die Auswahl wissenschaftlicher Theorien, und dann werden wir einige Konsequenzen der Errungenschaften der modernen Physik im Hinblick auf ihre betrachten Bedeutung für das gesamte Wissenschaftssystem und Weltbild im Allgemeinen. Wir beschließen dieses Kapitel, indem wir einige Perspektiven zur Entwicklung der wissenschaftlichen Methode diskutieren.

13.3. Die Rolle allgemeiner Prinzipien

Bacon stellte ein Programm zur schrittweisen Einführung theoretischer Sätze ("Gründe und Axiome") von immer größerer Allgemeinheit vor, beginnend mit empirischen Einzeldaten. Er nannte diesen Prozess durch Induktion(dh Einführung) im Gegensatz zu Abzug(Ableitung) theoretischer Sätze geringerer Allgemeinheit von Sätzen größerer Allgemeinheit (Prinzipien). Bacon war ein großer Gegner allgemeiner Prinzipien, er sagte, dass der Geist keine Flügel braucht, um ihn anzuheben, sondern Blei, um ihn zu Boden zu ziehen. In der Zeit der „Anfangsakkumulation“ experimenteller Tatsachen und einfachster Erfahrungsgesetze sowie als Gegengewicht zur mittelalterlichen Scholastik hatte dieser Begriff noch eine gewisse Berechtigung, aber später stellte sich heraus, dass die Flügel des Geistes immer noch notwendiger waren als führen. In der theoretischen Physik ist dies jedenfalls der Fall. Lassen Sie uns zur Bestätigung einer so unbestrittenen Autorität auf diesem Gebiet wie Albert Einstein das Wort erteilen. In dem Artikel „Prinzipien der Theoretischen Physik“ schreibt er:

Um seine Methode anwenden zu können, benötigt der Theoretiker als Grundlage einige allgemeine Annahmen, sogenannte Prinzipien, aus denen er Konsequenzen ableiten kann. Seine Arbeit gliedert sich somit in zwei Phasen. Erstens muss er Prinzipien finden und zweitens die Konsequenzen entwickeln, die sich aus diesen Prinzipien ergeben. Für die zweite Aufgabe ist er seit der Schulzeit bestens gewappnet. Wenn also für einen bestimmten Bereich, also eine Reihe von Abhängigkeiten, das erste Problem gelöst ist, dann lassen die Konsequenzen nicht lange auf sich warten. Die erste dieser Aufgaben ist von ganz anderer Art, nämlich die Aufstellung von Prinzipien, die als Grundlage für die Deduktion dienen können. Hier gibt es keine Methode, die erlernt und systematisch angewendet werden kann, um das Ziel zu erreichen. Vielmehr muss der Forscher der Natur wohldefinierte allgemeine Prinzipien entlocken, die bestimmte gemeinsame Merkmale einer Vielzahl experimentell festgestellter Tatsachen widerspiegeln.

In einem anderen Artikel (Physik und Realität) ist Einstein sehr kategorisch:

Die Physik ist ein sich entwickelndes logisches Denksystem, dessen Grundlagen nicht dadurch gewonnen werden können, dass man sie durch irgendwelche induktiven Methoden aus erfahrenen Erfahrungen extrahiert, sondern nur durch freie Erfindung.

Die Worte von "freier Fiktion" bedeuten natürlich nicht, dass allgemeine Prinzipien völlig unabhängig von Erfahrung sind, aber dass sie nicht eindeutig durch Erfahrung bestimmt sind. Ein Beispiel, das Einstein oft gibt, ist dieses. Newtons Himmelsmechanik und Einsteins allgemeine Relativitätstheorie bauen auf denselben experimentellen Fakten auf. Sie gehen jedoch von ganz anderen, gewissermaßen sogar diametral entgegengesetzten Grundprinzipien aus, was sich auch in einem anderen mathematischen Apparat manifestiert.

Während die "Zahl der Stockwerke" des Gebäudes der theoretischen Physik nicht groß war und die Konsequenzen allgemeiner Prinzipien leicht und eindeutig abgeleitet werden konnten, erkannte man nicht, dass man eine gewisse Freiheit bei der Festlegung von Prinzipien hatte. Bei der Trial-and-Error-Methode war der Abstand zwischen Versuch und Irrtum (oder Erfolg) so gering, dass sie nicht bemerkten, dass sie Trial-and-Error verwendeten, sondern glaubten, direkt abzuleiten (obwohl dies nicht Deduktion, sondern Induktion genannt wurde). ) Prinzipien aus Erfahrung. Einstein schreibt:

Newton, der Schöpfer des ersten umfassenden fruchtbaren Systems der theoretischen Physik, dachte immer noch, dass die grundlegenden Konzepte und Prinzipien seiner Theorie aus der Erfahrung folgen. Offensichtlich ist in diesem Sinne sein Ausspruch „hypotheses non fingo“ (ich stelle keine Hypothesen auf) zu verstehen.

Aber im Laufe der Zeit wurde die theoretische Physik zu einem mehrstöckigen Gebäude, und das Ableiten von Konsequenzen aus allgemeinen Prinzipien wurde zu einer schwierigen und nicht immer eindeutigen Angelegenheit, weil es sich oft als notwendig herausstellte, zusätzliche Annahmen im Prozess der Deduktion zu treffen, meistens „ prinzipienlose“ Vereinfachungen, ohne die es unmöglich wäre, die Rechnung auf Zahlen zu bringen. Dann wurde deutlich, dass es einen tiefgreifenden Unterschied zwischen den allgemeinen Prinzipien der Theorie und den Tatsachen gibt, die direkt durch Erfahrung verifiziert werden können: Erstere sind freie Konstruktionen des menschlichen Geistes, letztere sind das Ausgangsmaterial, das der Geist aus der Natur erhält. Es stimmt, die Tiefe dieses Unterschieds sollte nicht überschätzt werden. Wenn wir von menschlichen Angelegenheiten und Bestrebungen abstrahieren, stellt sich heraus, dass der Unterschied zwischen Theorien und Tatsachen verschwindet – beide sind einige Reflexionen oder Modelle der Realität außerhalb des Menschen. Der Unterschied liegt in der Ebene, auf der das Modell verdinglicht wird. Tatsachen, wenn sie völlig „entideologisiert“ sind, werden durch den Einfluss der Außenwelt auf das menschliche Nervensystem bestimmt, das wir (vorerst) als nicht veränderbar betrachten müssen, weshalb wir behandeln Tatsachen als primäre Realität. Theorien sind in Sprachobjekten verkörperte Modelle, die vollständig in unserer Macht stehen, sodass wir eine Theorie verwerfen und durch eine andere ersetzen können, so einfach wie ein veraltetes Werkzeug durch ein besseres zu ersetzen.

Die zunehmende Abstraktheit (Konstruktivität) der allgemeinen Prinzipien physikalischer Theorien, ihre Distanz zu direkten experimentellen Fakten führt dazu, dass es bei der Trial-and-Error-Methode immer schwieriger wird, einen aussichtsreichen Test zu finden. Der Geist beginnt, einfach Flügel zu brauchen, um aufzusteigen, wie Einstein sagt. Andererseits macht eine Vergrößerung der Distanz von allgemeinen Prinzipien zu überprüfbaren Konsequenzen allgemeine Prinzipien in gewissen Grenzen für Experimente unangreifbar, worauf auch die Klassiker der modernen Physik oft hingewiesen haben. Hat der Forscher eine Diskrepanz zwischen den Konsequenzen von Theorie und Experiment entdeckt, steht er vor einer Alternative: die Gründe für die Diskrepanz in den allgemeinen Prinzipien der Theorie oder irgendwo auf dem Weg von Prinzipien zu spezifischen Konsequenzen zu suchen. Wegen der hohen Kosten allgemeiner Prinzipien und des hohen Aufwands für die Umstrukturierung der Theorie als Ganzes wird immer zuerst der zweite Weg versucht. Gelingt es auf hinreichend elegante Weise, die Ableitung von Konsequenzen aus allgemeinen Prinzipien so zu modifizieren, dass sie mit dem Experiment übereinstimmen, dann beruhigt sich jeder und das Problem gilt als gelöst. Aber manchmal sieht die Modifikation eindeutig wie ein grober Flicken aus, und manchmal überlappen sich die Flicken und die Theorie beginnt an den Nähten zu reißen; dennoch stimmen seine Schlussfolgerungen mit den Erfahrungsdaten überein und es behält weiterhin seine Vorhersagekraft. Dann stellen sich Fragen: Wie soll man mit den allgemeinen Prinzipien einer solchen Theorie umgehen? Sollten wir danach streben, sie durch andere Prinzipien zu ersetzen? Ab welchem ​​Grad an „Patching“ ist es sinnvoll, die alte Theorie zu verwerfen?

13.4. Theorie Auswahlkriterien

Zunächst stellen wir fest, dass ein klares Verständnis von wissenschaftlichen Theorien als sprachliche Modelle der Realität die Schärfe der Konkurrenz zwischen wissenschaftlichen Theorien gegenüber der naiven Sichtweise (Art des Platonismus), wonach die sprachlichen Gegenstände einer Theorie nur Gegenstand sind, deutlich reduziert irgendeine Art von Realität ausdrücken und daher ist jede Theorie entweder "tatsächlich" wahr, wenn diese Realität "tatsächlich" existiert, oder "tatsächlich" falsch, wenn diese Realität fiktiv ist. Diese Sichtweise wird durch die Übertragung der Position, die für die Sprache der konkreten Tatsachen stattfindet, auf die Sprache der Begriffskonstrukte generiert. Wenn wir zwei konkurrierende Aussagen vergleichen: „In diesem Glas ist reiner Alkohol“ und „In diesem Glas ist reines Wasser“, wissen wir, dass diese Aussagen eine experimentelle Überprüfung zulassen, und diejenige, die nicht bestätigt wird, jegliche Modellbedeutung verliert Wahrheit teilen; es ist tatsächlich falsch und nur falsch. Ganz anders verhält es sich mit Aussagen, die allgemeine Prinzipien wissenschaftlicher Theorien zum Ausdruck bringen. Viele überprüfbare Konsequenzen werden daraus abgeleitet, und wenn sich einige davon als falsch erweisen, dann heißt es meist, die ursprünglichen Prinzipien (oder Wege zur Ableitung von Konsequenzen) seien auf dieses Erfahrungsfeld nicht anwendbar; es ist in der Regel möglich, auch formelle Anwendbarkeitskriterien festzulegen. Daher sind allgemeine Prinzipien gewissermaßen „immer wahr“, der genaue Begriff von Wahrheit und Falschheit trifft auf sie nicht zu, sondern nur der Begriff ihres mehr oder weniger großen Nutzens zur Beschreibung tatsächlicher Tatsachen. Wie die Axiome der Mathematik sind die allgemeinen Prinzipien der Physik die abstrakten Formen, in die wir uns bemühen, Naturphänomene zu pressen. Wettbewerbsprinzipien unterscheiden sich darin, wie gut sie es tun.

Aber was heißt gut?

Wenn eine Theorie ein Modell der Realität ist, dann ist sie offensichtlich umso besser, je breiter ihr Anwendungsbereich ist und je mehr Vorhersagen sie machen kann. Dies ist das erste Kriterium für den Vergleich von Theorien – das Kriterium der Allgemeingültigkeit und Aussagekraft der Theorie.

Diese Kriterien sind ziemlich offensichtlich. Wenn wir wissenschaftliche Theorien als etwas Stabiles betrachten, das keiner Entwicklung und Verbesserung unterliegt, dann wäre es vielleicht schwierig, andere Kriterien zusätzlich zu diesen Kriterien aufzustellen. Aber die Menschheit entwickelt und verbessert ihre Theorien ständig, und daraus ergibt sich ein weiteres Kriterium – die Dynamik, das sich als entscheidend herausstellt. Dieses Kriterium wird von Philip Frank in seinem Buch „Philosophie der Wissenschaft“ gut ausgedrückt, und wir werden seine Worte zitieren.

Wenn wir uns ansehen, welche Theorien wegen ihrer Einfachheit tatsächlich bevorzugt wurden, stellen wir fest, dass der entscheidende Grund für die Annahme der einen oder anderen Theorie weder ökonomisch noch ästhetisch war, sondern das, was oft als dynamisch bezeichnet wurde. Das bedeutet, dass eine Theorie bevorzugt wurde, die die Wissenschaft dynamischer machte, dh geeigneter für die Expansion ins Unbekannte. Dies zeigt sich an einem Beispiel, auf das wir in diesem Buch oft Bezug genommen haben: dem Kampf zwischen dem kopernikanischen und dem ptolemäischen System. In der Zeit zwischen Kopernikus und Newton wurden viele Beweise für das eine oder andere System geliefert. Am Ende stellte Newton jedoch eine Bewegungstheorie auf, die alle Bewegungen von Himmelskörpern (z. B. Kometen) brillant erklärte, während Kopernikus wie Ptolemäus nur die Bewegungen in unserem Planetensystem erklärte ... Allerdings Newtons Gesetze basierten auf einer Verallgemeinerung der kopernikanischen Theorie, und wir können uns kaum vorstellen, wie sie formuliert werden könnten, wenn er vom ptolemäischen System ausging. In dieser wie in vielen anderen Hinsichten war die kopernikanische Theorie "dynamischer", dh sie hatte einen größeren heuristischen Wert. Man kann sagen, dass die kopernikanische Theorie mathematisch „einfacher“ und dynamischer war als die von Ptolemäus.

Das ästhetische Kriterium oder Kriterium der Schönheit einer Theorie, das Frank erwähnt, ist als eigenständiges, von anderen Kriterien unabhängiges, schwer zu verteidigen. Als intuitive Synthese all dieser Kriterien kommt ihr jedoch eine große Bedeutung zu. Die Theorie erscheint dem Wissenschaftler schön, wenn sie hinreichend allgemein und einfach ist und er ahnt, dass sie sich als dynamisch erweisen wird. Natürlich kann er sich dabei irren.

13.5. Physik der Mikrowelt

In der Physik wie in der reinen Mathematik hat sich mit der Abstraktion der Theorien ein Verständnis ihres sprachlichen Charakters etabliert. Einen entscheidenden Schub erhielt dieser Prozess nach Beginn des 20. Jahrhunderts. Die Physik drang in die Grenzen der Welt der Atome und Elementarteilchen ein und es entstanden die Relativitätstheorie und die Quantenmechanik. Dabei spielte die Quantenmechanik eine besonders wichtige Rolle. Es ist unmöglich, diese Theorie überhaupt zu verstehen, es sei denn, man erinnert sich ständig daran, dass es sich nur um ein sprachliches Modell des Mikrokosmos handelt und nicht um eine Darstellung dessen, wie es "wirklich" aussehen würde, wenn es durch ein Mikroskop mit ungeheurer Vergrößerung betrachtet werden könnte. und dass es kein solches Bild gibt und nicht geben kann. Daher ist die Idee einer Theorie als Sprachmodell der Realität zu einem festen Bestandteil der modernen Physik geworden, es ist für Physiker notwendig geworden, erfolgreich zu arbeiten. Infolgedessen begann sich die interne Einstellung zur Natur ihrer Tätigkeit unter den Physikern zu ändern. Fühlte sich früher ein theoretischer Physiker als Entdecker von etwas, das vor ihm und unabhängig von ihm existierte, wie ein Seefahrer, der neue Länder entdeckt, so fühlt er sich jetzt eher als Schöpfer von etwas Neuem, wie ein Meister, der seinen Beruf geschickt beherrscht und Neues schafft B. Gebäude, Maschinen, Werkzeuge. Diese Veränderung manifestierte sich sogar in Redewendungen. Newton soll traditionell die Infinitesimalrechnung und die Himmelsmechanik "entdeckt" haben; von einem modernen Wissenschaftler wird gesagt, er habe eine neue Theorie „erfunden“ oder „vorgeschlagen“ oder „entwickelt“; der Ausdruck „entdeckt“ wird archaisch klingen. Dies verletzt natürlich nicht im Geringsten die Würde der Theoretiker, denn das Schaffen ist eine nicht weniger ehrenhafte und inspirierende Beschäftigung als die Entdeckung.

Warum forderte die Quantenmechanik dann ein Bewusstsein für die „sprachliche Natur“ von Theorien?

Nach dem ursprünglichen atomistischen Konzept waren Atome einfach sehr kleine Materieteilchen, kleine Körper, die insbesondere eine bestimmte Form und Farbe hatten, von denen die physikalischen Eigenschaften und die Farbe großer Atomhaufen abhängen. Atomphysik zu Beginn des 20. Jahrhunderts. übertrug das Konzept eines Atoms ("unteilbar") auf Elementarteilchen - Elektronen und Protonen (zu denen bald das Neutron hinzugefügt wurde), und das Wort "Atom" begann, eine Struktur zu bezeichnen, die aus einem Atomkern bestand (es, nach dem Ausgangshypothese war ein Cluster aus Protonen und Elektronen), um den Elektronen kreisen, wie Planeten um die Sonne. Diese Vorstellung vom Aufbau der Materie galt als hypothetisch, aber äußerst plausibel. Die Hypothese selbst wurde in dem Sinne verstanden, über den wir oben gesprochen haben: Das planetarische Modell des Atoms muss entweder wahr oder falsch sein. Wenn es stimmt (und daran gab es fast keinen Zweifel), dann sind Elektronen „wirklich“ kleine Materieteilchen, die bestimmte Bahnen um den Kern herum beschreiben. Zwar haben die Elementarteilchen im Vergleich zu den Atomen der Antike bereits begonnen, einige Eigenschaften einzubüßen, die für Materieteilchen absolut notwendig zu sein scheinen. Es wurde deutlich, dass der Begriff der Farbe für Elektronen und Protonen völlig unanwendbar ist; Es ist nicht so, dass wir nicht wissen, welche Farbe sie haben, aber diese Frage macht einfach keinen Sinn, weil Farbe das Ergebnis der Wechselwirkung mit Licht ist, mindestens ein Atom als Ganzes, oder besser gesagt, eine Ansammlung von vielen Atomen. Es gab auch Zweifel an den Konzepten der Form und Größe von Elektronen. Aber das Allerheiligste des Begriffs eines materiellen Teilchens – die Anwesenheit eines Teilchens zu jedem Zeitpunkt einer bestimmten Position im Raum – blieb unzweifelhaft und selbstverständlich.

13.6. Unsicherheitsbeziehung

Die Quantenmechanik hat diese Vorstellung zerstört. Unter dem Druck neuer experimenteller Daten war sie dazu gezwungen. Es stellte sich heraus, dass sich Elementteilchen unter bestimmten Bedingungen nicht wie Teilchen, sondern wie Wellen verhalten, aber gleichzeitig nicht über einen großen Raumbereich „verschmieren“, sondern ihre geringe Größe und ihre Diskretion behalten, nur die Wahrscheinlichkeit ihres Nachweises in der einen oder anderen Region verwischt wird.

Reis. 13.1. Elektronenbeugung

Nehmen wir es als Illustration. Es zeigt eine Elektronenkanone, die Elektronen eines bestimmten Impulses an die Membran sendet, hinter der sich der Bildschirm befindet. Die Blende besteht aus einem für Elektronen undurchlässigen Material, hat aber zwei Löcher, durch die die Elektronen in den Schirm eintreten. Der Schirm ist mit einer Substanz bedeckt, die unter dem Einfluss von Elektronen leuchtet, sodass an der Stelle, an der das Elektron auftrifft, ein Blitz entsteht. Der Elektronenfluss aus der Kanone ist eher selten, so dass jedes Elektron die Blende passiert und unabhängig von den anderen auf dem Schirm fixiert wird. Der Abstand zwischen den Löchern in der Blende ist um ein Vielfaches größer als die Größe der Elektronen, die man nach irgendwelchen Schätzungen erhält, aber um den Wert vergleichbar ist h/p, wo h ist die Plancksche Konstante, und p- der Impuls des Elektrons, also das Produkt aus Geschwindigkeit und Masse.

Dies sind die Versuchsbedingungen. Das Ergebnis ist die Verteilung von Blitzen auf dem Bildschirm. Die erste Schlussfolgerung aus der Analyse der experimentellen Ergebnisse lautet wie folgt: Die Elektronen treffen auf verschiedene Punkte des Bildschirms, und es ist unmöglich vorherzusagen, welchen Punkt jedes Elektron treffen wird, es ist nur möglich, die Wahrscheinlichkeit vorherzusagen, den einen oder anderen Punkt zu treffen , d.h. die durchschnittliche Dichte der Blitze nach dem Auftreffen auf den Bildschirm ist eine sehr große Anzahl von Elektronen.

Aber es ist immer noch die halbe Miete. Man kann sich vorstellen, dass unterschiedliche Elektronen durch unterschiedliche Stellen der Löcher in der Blende fliegen, unterschiedliche Einwirkungskräfte von den Rändern der Löcher erfahren und daher unterschiedlich abgelenkt werden. Das eigentliche Problem entsteht, wenn wir beginnen, die durchschnittliche Blitzdichte auf dem Bildschirm zu untersuchen und sie mit den Ergebnissen zu vergleichen, die wir erhalten, wenn wir eines der Löcher in der Blende schließen. Wenn ein Elektron ein kleines Materieteilchen ist, dann wird es beim Eintritt in den Bereich der Membran entweder absorbiert oder passiert eines der beiden Löcher. Da die Öffnungen der Blende symmetrisch zur Elektronenkanone angeordnet sind, passiert im Durchschnitt die Hälfte der Elektronen jede Öffnung. Wenn wir also eines der Löcher schließen und eine Million Elektronen durch die Blende lassen und dann das zweite Loch schließen, aber das erste öffnen und eine weitere Million Elektronen durchlassen, dann sollten wir die gleiche durchschnittliche Blitzdichte erhalten, als ob wir es zulassen würden durch die Membran mit zwei Löchern zwei Millionen Elektronen. Aber es stellt sich heraus, dass dies nicht so ist! Bei zwei Löchern ist die Verteilung anders, sie enthält Maxima und Minima, wie bei der Wellenbeugung.

Die durchschnittliche Dichte von Blitzen kann mithilfe der Quantenmechanik berechnet werden, indem man Elektronen die sogenannte Wellenfunktion zuordnet, eine Art imaginäres Feld, dessen Intensität proportional zur Wahrscheinlichkeit beobachteter Ereignisse ist.

Es würde zu weit führen, alle Versuche zu beschreiben, die Idee des Elektrons als „gewöhnliches“ Teilchen (solche Teilchen werden im Gegensatz zu Quantenteilchen als klassisch bezeichnet) mit experimentellen Daten über ihr Verhalten in Einklang zu bringen . Diesem Thema ist eine umfangreiche Fach- und Populärliteratur gewidmet. Alle diese Versuche blieben erfolglos. Die folgenden zwei Dinge kamen ans Licht.

Erstens, wenn die Koordinate eines Quantenteilchens (beliebige, nicht unbedingt Elektronen) entlang einer Achse gleichzeitig gemessen wird X und Schwung in diese Richtung R, dann die Messfehler, die wir mit bezeichnen x; und p respektive der Heisenbergschen Unschärferelation gehorchen:

x × ∆ ph.

An diesem Verhältnis führt kein Weg vorbei. Je genauer wir versuchen, die Koordinaten zu messen, desto größer fällt die Impulsstreuung aus. R, umgekehrt. Die Unschärferelation ist ein universelles Naturgesetz, aber seit der Planckschen Konstante h sehr klein ist, spielt es bei Messungen mit Körpern makroskopischer Größe keine Rolle.

Zweitens die Idee, dass sich Quantenteilchen tatsächlich entlang einiger wohldefinierter Trajektorien bewegen, d.h. zu jedem Zeitpunkt haben sie tatsächlich wohldefinierte Koordinaten und Geschwindigkeiten (und damit Impuls), die wir einfach nicht genau messen können, gerät in unüberwindliche logische Schwierigkeiten. Im Gegenteil, die grundsätzliche Ablehnung, einem Quantenteilchen eine reale Flugbahn zuzuschreiben und die Annahme, dass die vollständigste Beschreibung des Zustands von Teilchen die Zuordnung seiner Wellenfunktion ist, führt nämlich zu einer logisch einwandfreien, aber mathematisch einfachen und eleganten Theorie brillant im Einklang mit experimentellen Fakten; insbesondere folgt daraus unmittelbar die Unschärferelation. Diese Theorie ist Quantenmechanik. Beim Verständnis der physikalischen und logischen Grundlagen der Quantenmechanik und bei ihrem philosophischen Verständnis spielten die Aktivitäten des größten Wissenschaftlers und Philosophen unserer Zeit, Niels Bohr (1885–1962), die Hauptrolle.

13.7. Visuelle und ikonische Modelle

Das Elektron hat also keine Bahn. Über ein Elektron kann man höchstens seine Wellenfunktion angeben, deren Quadrat uns die Wahrscheinlichkeit gibt, ein Elektron in der Nähe eines bestimmten Punktes im Raum zu finden. Gleichzeitig sagen wir, dass ein Elektron ein materielles Teilchen bestimmter (und sehr kleiner) Größe ist. Die Vermischung dieser beiden Ideen, die die experimentellen Fakten erforderten, stellte sich als sehr schwierige Angelegenheit heraus, und es gibt immer noch Menschen, die die übliche Interpretation der Quantenmechanik (die nach der Bohr-Schule von der überwiegenden Mehrheit der Physiker akzeptiert wurde) ablehnen und wünschen Quantenmechanik um jeden Preis Teilchen ihre Flugbahn zurückzugeben. Woher kommt diese Hartnäckigkeit? Immerhin war die Enteignung der Farbe von Elektronen völlig schmerzlos, und aus logischer Sicht unterscheidet sich die Anerkennung der Nichtanwendbarkeit des Begriffs einer Bahn auf ein Elektron grundsätzlich nicht von der Anerkennung der Nichtanwendbarkeit des Farbbegriffs . Der Unterschied besteht darin, dass wir, wenn wir das Konzept der Farbe aufgeben, eine gewisse Heuchelei an den Tag legen. Wir sagen, dass das Elektron keine Farbe hat, aber wir selbst stellen es in Form einer Art grauer (oder glänzender - das ist Geschmackssache) Kugel dar. Abwesenheit Wir ersetzen Farben durch willkürlich Farbe, und dies stört die Verwendung unseres Modells nicht im Geringsten. In Bezug auf die Position im Raum funktioniert dieser Trick nicht. Die Vorstellung eines Elektrons, das jeden Moment irgendwo ist, stört das Verständnis der Quantenmechanik und gerät in Konflikt mit experimentellen Daten. Hier sind wir gezwungen, die visuell-geometrische Darstellung der Bewegung eines Teilchens vollständig aufzugeben. Dies verursacht eine schmerzhafte Reaktion. Wir sind so daran gewöhnt, das Raum-Zeit-Bild mit der wahren Realität, mit dem, was objektiv und unabhängig von uns existiert, zu verbinden, dass es uns sehr schwer fällt, an eine objektive Realität zu glauben, die nicht in diesen Rahmen passt. Und wir fragen uns immer wieder: aber wenn das Elektron nicht im Raum „verschmiert“ ist, dann muss es doch irgendwo sein?

Es bedarf harter Denkarbeit, um die Bedeutungslosigkeit dieser Frage zu erkennen und zu fühlen. Zunächst müssen wir uns darüber im Klaren sein, dass all unser Wissen und unsere Theorien sekundäre Modelle der Realität sind, dh Modelle von primären Modellen, die die Daten der Sinneserfahrung sind. Diese Daten tragen einen unauslöschlichen Eindruck der Struktur unseres Nervensystems, und da raumzeitliche Konzepte in den untersten Stockwerken des Nervensystems eingebettet sind, können all unsere Empfindungen und Ideen, alle Produkte unserer Vorstellungskraft nicht über raumzeitliche Bilder hinausgehen. Diese Grenzen können jedoch bis zu einem gewissen Grad erweitert werden. Aber dies darf nicht durch eine illusorische Bewegung „nach unten“ zur objektiven Realität geschehen, „wie sie ist, unabhängig von unseren Sinnesorganen“, sondern durch eine „nach oben“-Bewegung, d. h. durch die Konstruktion sekundärer semiotischer Modelle der Realität.

Natürlich behalten die Zeichen der Theorie ebenso wie die primären Erfahrungsdaten eine kontinuierliche räumlich-zeitliche Existenz. Aber in der Beziehung zwischen beiden, dh in der Semantik der Theorie, können wir uns beträchtliche Freiheiten leisten, wenn wir uns von der Logik neuer experimenteller Tatsachen leiten lassen und nicht von der üblichen Raum-Zeit-Intuition. Und wir können ein solches Zeichensystem bauen, das in seiner Funktionsweise keineswegs an visuelle Darstellungen gebunden ist, sondern nur der Bedingung einer adäquaten Beschreibung der Realität unterliegt. Die Quantenmechanik ist ein solches System. Ein Quantenteilchen in diesem System ist keine graue oder glänzende Kugel und kein geometrischer Punkt, sondern ein bestimmtes Konzept, also ein funktionaler Knoten des Systems, das zusammen mit anderen Knoten eine Beschreibung und Vorhersage realer experimenteller Fakten liefert: blinkt auf dem Bildschirm, Instrumentenablesungen usw. d.

Kommen wir noch einmal auf die Frage zurück, wie sich das Elektron „wirklich“ bewegt. Wir haben gesehen, dass das Experiment wegen der Unschärferelation im Prinzip keine Antwort darauf geben kann. Als "externer Teil" des physikalischen Modells der Realität ist diese Frage also bedeutungslos. Es bleibt, ihm eine rein theoretische Bedeutung zuzuschreiben. Aber dann verliert es den direkten Bezug zu den beobachteten Phänomenen und der Ausdruck „tatsächlich“ wird zum reinen Schwindel! Immer wenn wir über die Wahrnehmungssphäre hinausgehen und erklären, dass „tatsächlich“ dies und das stattfindet, bewegen wir uns nicht nach unten, sondern nach oben – wir bauen eine Pyramide von Sprachobjekten, und nur aufgrund einer optischen Täuschung scheint es uns dass wir in den Bereich unterhalb der sinnlichen Erfahrung eintauchen. Metaphorisch gesprochen ist die Ebene, die die sinnliche Erfahrung von der Realität trennt, absolut undurchdringlich, und wenn wir versuchen zu sehen, was darunter liegt, sehen wir nur ein umgekehrtes Spiegelbild der Pyramide der Theorien. Das bedeutet nicht, dass die wahre Realität unerkennbar ist und dass unsere Theorien keine Modelle davon sind; man muss sich nur vor Augen führen, dass all diese Modelle diesseits der sinnlichen Erfahrung liegen und es unsinnig ist, gespenstische „Realitäten“ auf der anderen Seite mit einzelnen Elementen von Theorien zu vergleichen, wie es etwa Platon getan hat. Die Vorstellung eines Elektrons als kleiner Ball, der sich entlang einer Flugbahn bewegt, ist die gleiche Konstruktion wie die Verkettung der Zeichen der Quantentheorie. Es unterscheidet sich nur dadurch, dass es ein raumzeitliches Bild enthält, dem wir mit Hilfe des Sinnlosen in diesem Fall des Ausdrucks „tatsächlich“ eine illusorische Realität zuschreiben.

Der Übergang zur bewussten Konstruktion symbolischer Realitätsmodelle, die nicht auf visuellen Darstellungen physikalischer Objekte basieren, ist eine große philosophische Errungenschaft der Quantenmechanik. Tatsächlich ist die Physik seit Newton zu einem wegweisenden Modell geworden, und ihrer Bedeutung verdankte sie ihren Erfolg (numerische Berechnungen); visuelle Darstellungen waren jedoch als notwendiges Element vorhanden. Jetzt sind sie optional geworden, was die Klasse möglicher Modelle erweitert hat. Diejenigen, die die Sichtbarkeit um jeden Preis zurückgeben wollen, obwohl sie sehen, dass die Theorie ohne sie besser funktioniert, fordern eigentlich eine Einengung der Klasse der Modelle. Dass ihnen das gelingt, ist unwahrscheinlich. Sie können mit jenem Sonderling verglichen werden, der ein Pferd vor eine Dampflokomotive spannte, denn obwohl er sah, dass der Wagen ohne Pferd fuhr, überstieg es seine Kraft, eine solche Situation als normal zu erkennen. Ikonische Modelle sind eine Lokomotive, die für jedes ihrer Konzepte überhaupt kein Pferd visueller Darstellungen benötigt.

13.8. Der Zusammenbruch des Determinismus

Das zweite wichtige Ergebnis der Quantenmechanik, das eine allgemeine philosophische Bedeutung hat, ist der Zusammenbruch des Determinismus. Determinismus ist ein philosophisches Konzept. Dieser Name wird der Ansicht gegeben, dass alle Ereignisse, die in der Welt auftreten, wohldefinierte Ursachen haben und notwendigerweise eintreten, das heißt, dass sie nicht ausbleiben können. Versuche, diese Definition zu klären, offenbaren darin logische Mängel, die eine genaue Formulierung dieser Ansicht in Form einer wissenschaftlichen Position verhindern, ohne zusätzliche Vorstellungen über die objektive Realität einzuführen. Was bedeutet eigentlich „Ereignisse haben Ursachen“? Ist es möglich, eine "endliche" Anzahl von Ursachen für ein bestimmtes Ereignis anzugeben und zu sagen, dass es keine anderen Ursachen gibt? Und was bedeutet es, dass das Ereignis „nicht hätte passieren können“? Wenn es nur passiert ist, dann verwandelt sich die Aussage in eine Tautologie.

Der philosophische Determinismus kann jedoch genauer im Rahmen einer wissenschaftlichen Theorie interpretiert werden, die den Anspruch erhebt, eine universelle Beschreibung der Realität zu sein. Tatsächlich erhielt er eine solche Interpretation im Rahmen von Mechanismus- ein wissenschaftliches und philosophisches Konzept, das auf der Grundlage der Erfolge der klassischen Mechanik in Anwendung auf die Bewegungen von Himmelskörpern entstand. Nach dem mechanistischen Konzept ist die Welt ein dreidimensionaler euklidischer Raum, der mit vielen Elementarteilchen gefüllt ist, die sich auf bestimmten Bahnen bewegen. Zwischen Partikeln wirken Kräfte, abhängig von ihrer Position relativ zueinander, und die Bewegung von Partikeln gehorcht den Gesetzen der Newtonschen Mechanik. Bei einer solchen Darstellung der Welt bestimmt ihr exakter Zustand (d. h. die Koordinaten und Geschwindigkeiten aller Teilchen) zu einem bestimmten Zeitpunkt eindeutig den exakten Zustand der Welt zu jedem anderen Zeitpunkt. Der berühmte französische Mathematiker und Astronom P. Laplace (1749–1827) drückte diese Position in folgenden Worten aus:

Der Verstand, der für jeden gegebenen Moment alle Kräfte kennen würde, die die Natur beleben, und die relative Position aller ihrer Bestandteile, wenn er sich außerdem als umfangreich genug erweisen würde, um diese Daten einer Analyse zu unterziehen, würde in einer Formel das zusammenfassen Bewegungen der größten Körper des Universums auf Augenhöhe mit den Bewegungen der kleinsten Atome: es gäbe nichts mehr, was für ihn unzuverlässig wäre, und sowohl die Zukunft als auch die Vergangenheit würden vor seinen Augen erscheinen.

Dieses Konzept wurde aufgerufen Laplacescher Determinismus. Sie ist eine legitime und unvermeidliche Folge der mechanistischen Weltauffassung. Zwar bedarf Laplaces Formulierung aus heutiger Sicht einer Klarstellung, da wir die Konzepte eines allwissenden Geistes und der absoluten Messgenauigkeit nicht als legitim anerkennen können. Aber es ist leicht zu modernisieren, praktisch ohne die Bedeutung zu ändern. Wir sagen, wenn die Koordinaten und Impulse aller Teilchen in einem ausreichend großen Raumvolumen mit ausreichender Genauigkeit bekannt sind, dann ist es möglich, das Verhalten jedes Systems in jedem gegebenen Zeitintervall mit beliebiger Genauigkeit zu berechnen. Aus dieser Formulierung, wie aus der ursprünglichen Formulierung von Laplace, kann man schließen, dass alle zukünftigen Zustände des Universums vorherbestimmt sind. Indem wir die Genauigkeit und Abdeckung der Messungen auf unbestimmte Zeit erhöhen, verlängern wir das Timing von Vorhersagen auf unbestimmte Zeit. Da es keine grundsätzlichen Beschränkungen der Genauigkeit und des Umfangs von Messungen gibt, also solche Beschränkungen, die sich nicht aus den Beschränkungen menschlicher Fähigkeiten, sondern aus der Natur der Messobjekte ergeben würden, können wir uns einen Extremfall vorstellen und dies auch behaupten alle Die Zukunft der Welt ist bereits bestimmt und absolut eindeutig. Hier bekommt der Ausdruck „eigentlich“ eine ganz eigene Bedeutung; unsere Intuition erkennt leicht die Legitimität dieses „wirklich“ und wehrt sich dagegen, es zu diskreditieren.

Die mechanistische Weltanschauung führt also zur Idee des vollständigen Determinismus der Phänomene. Aber das widerspricht dem subjektiven Gefühl der Wahlfreiheit, das wir haben. Hieraus gibt es zwei Auswege: das Gefühl der Wahlfreiheit als „illusorisch“ anzuerkennen oder die mechanistische Konzeption als universelles Weltbild als ungeeignet anzuerkennen. Es ist heute schwer zu sagen, in welchem ​​Verhältnis die denkenden Menschen der „Vor-Quanten“-Ära in diese beiden Sichtweisen gespalten waren. Wenn wir von einer modernen Position aus an die Sache herangehen, dann müssen wir, auch ohne etwas über die Quantenmechanik zu wissen, entschieden den zweiten Standpunkt einnehmen. Wir verstehen jetzt, dass das mechanistische Konzept wie jedes andere Konzept nur ein sekundäres Modell der Welt in Bezug auf die primären Erfahrungsdaten ist, daher haben die direkten Erfahrungsdaten immer Vorrang vor jeder Theorie. Das Gefühl der Wahlfreiheit ist eine primäre experimentelle Tatsache, wie andere primäre Tatsachen der spirituellen und sinnlichen Erfahrung. Die Theorie kann diese Tatsache nicht verwerfen, sie kann nur einige neue Tatsachen damit vergleichen - ein Verfahren, das wir unter bestimmten Bedingungen aufrufen Erläuterung Tatsache. Wahlfreiheit für „illusorisch“ zu erklären, ist ebenso bedeutungslos, wie einem Menschen mit Zahnschmerzen zu erklären, dass seine Empfindung „illusorisch“ ist. Ein Zahn kann vollkommen gesund sein, und das Schmerzempfinden kann das Ergebnis einer Reizung eines bestimmten Teils des Gehirns sein, aber das macht es nicht „illusorisch“.

Die Quantenmechanik zerstörte den Determinismus. Zunächst einmal stellte sich die Vorstellung von Elementarteilchen als kleine Körper, die sich auf bestimmten Bahnen bewegen, als falsch heraus, und infolgedessen brach das gesamte mechanistische Bild der Welt zusammen - so klar, vertraut und anscheinend völlig unbestreitbar. Physiker des XX Jahrhunderts. kann den Menschen nicht mehr klar und überzeugend, wie es die Physiker des 19. Jahrhunderts konnten, was sagen eigentlich repräsentiert die Welt, in der sie leben. Aber der Determinismus brach nicht nur als Teil eines mechanistischen Konzepts zusammen, sondern als Teil jedes Weltbildes. Im Prinzip könnte man sich eine solche vollständige Beschreibung (Bild) der Welt vorstellen, die nur wirklich beobachtete Phänomene beinhaltet, aber eindeutige Vorhersagen über alle Phänomene gibt, die jemals beobachtet werden. Heute wissen wir, dass dies unmöglich ist. Wir wissen, dass es Situationen gibt, in denen grundsätzlich nicht vorhersehbar ist, welches der vielen denkbaren Phänomene tatsächlich eintritt. Darüber hinaus sind diese Situationen laut Quantenmechanik keine Ausnahme, sondern eine allgemeine Regel; Streng deterministische Ergebnisse sind nur die Ausnahme von der Regel. Die quantenmechanische Beschreibung der Realität ist im Wesentlichen eine probabilistische Beschreibung und beinhaltet eindeutige Vorhersagen nur als Grenzfall.

Betrachten Sie als Beispiel das Experiment mit Elektronenbeugung, dargestellt in . Die Bedingungen des Experiments sind vollständig bestimmt, wenn alle geometrischen Parameter des Aufbaus und der Anfangsimpuls der von der Kanone emittierten Elektronen gegeben sind. Alle Elektronen, die von der Kanone emittiert werden und auf den Bildschirm treffen, befinden sich in gleichen Bedingungen und werden durch eine Wellenfunktion beschrieben. Unterdessen werden sie an verschiedenen Punkten auf dem Bildschirm absorbiert (geben Blitze), und es ist unmöglich, im Voraus vorherzusagen, an welchem ​​Punkt das Elektron aufblitzen wird; man kann nicht einmal vorhersagen, ob es in unserer Zeichnung nach oben oder unten abweichen wird, man kann nur die Wahrscheinlichkeit angeben, mit der es verschiedene Teile des Bildschirms trifft.

Es ist jedoch zulässig, die Frage zu stellen: Warum sind wir sicher, dass, wenn die Quantenmechanik den Punkt, an dem ein Elektron auftrifft, vorhersagen kann, dann auch keine zukünftige Theorie dazu in der Lage sein wird?

Auf diese Frage werden wir nicht eine, sondern zwei vollständige Antworten geben; das Thema verdient eine solche Aufmerksamkeit.

Die erste Antwort kann als formal bezeichnet werden. Er ist. Die Quantenmechanik basiert auf dem Prinzip, dass eine Beschreibung mit Hilfe der Wellenfunktion die vollständigste Beschreibung der Zustände eines Quantenteilchens ist. Dieses Prinzip in Form der daraus folgenden Unschärferelation wurde durch eine Vielzahl von Experimenten bestätigt, deren Interpretation nur niedere Begriffe enthält, die in direktem Zusammenhang mit den beobachteten Größen stehen. Die Schlussfolgerungen der Quantenmechanik, die komplexere mathematische Berechnungen beinhalten, werden durch eine noch größere Anzahl von Experimenten bestätigt. Und es gibt absolut keinen Hinweis darauf, dass wir dieses Prinzip in Frage stellen sollten. Aber es ist gleichbedeutend mit der Unmöglichkeit, den genauen Ausgang eines Experiments vorherzusagen. Um beispielsweise den Punkt auf dem Bildschirm anzuzeigen, an dem ein Elektron auftrifft, müssen Sie mehr darüber wissen, als die Wellenfunktion hergibt.

Wir werden die zweite Antwort damit beginnen, dass wir versuchen zu verstehen, warum wir in keiner Weise bereit sind, die Unmöglichkeit zu akzeptieren, den Punkt vorherzusagen, wo das Elektron auftreffen wird. Jahrhunderte der Entwicklung der Physik haben die Menschen an die Vorstellung gewöhnt, dass die Bewegung unbelebter Körper ausschließlich durch ihnen äußere Ursachen reguliert wird und dass diese Ursachen durch hinreichend subtile Untersuchung immer entdeckt werden können. spähen Sie. Dieser Glaube war völlig berechtigt, solange man es für möglich hielt, das System auszuspionieren, ohne es zu beeinflussen, was bei Experimenten an makroskopischen Körpern stattfand. Stellen Sie sich vor, dass nicht Elektronen streuen, sondern Kanonenkugeln, und dass Sie ihre Bewegung studieren. Sie sehen, dass der Kern in dem einen Fall nach oben und in dem anderen nach unten abweicht, und Sie wollen nicht glauben, dass dies von selbst geschieht, sondern sind überzeugt, dass das unterschiedliche Verhalten der Kerne eine wirkliche Ursache hat. Sie filmen den Flug des Atomkerns oder unternehmen eine andere Aktion und finden am Ende solche Phänomene EIN 1 und EIN 2 verbunden mit dem Flug des Kerns, der, falls vorhanden, EIN 1 Kern weicht nach oben ab, und falls vorhanden EIN 2 - nach unten. Und das sagst du EIN 1 ist der Grund für die Abweichung des Kerns nach oben, und EIN 2 - der Grund für die Abweichung nach unten. Es ist möglich, dass Ihre Kamera unvollkommen ist oder Sie das Studium einfach langweilt und Sie die gesuchte Ursache nicht finden. Aber Sie bleiben immer noch davon überzeugt, dass tatsächlich die Ursache existiert, das heißt, wenn Sie besser hinsahen, dann die Phänomene EIN 1 und EIN 2 gefunden werden.

Wie ist die Materie im Experiment mit Elektronen? Sie sehen wieder, dass das Elektron in einigen Fällen nach oben, in anderen nach unten abweicht, und auf der Suche nach einem Grund versuchen Sie, seiner Bewegung zu folgen, es auszuspionieren. Aber hier stellt sich heraus, dass man ein Elektron nicht ausspionieren kann, ohne sein Schicksal auf die katastrophalste Weise zu beeinflussen. Um ein Elektron zu „sehen“, muss ein Lichtstrahl darauf gerichtet werden. Aber Licht wechselwirkt mit Materie in Portionen, Quanten, die der gleichen Unschärferelation unterliegen wie Elektronen und andere Teilchen. Daher ist es mit Hilfe von Licht, wie auch mit Hilfe anderer Untersuchungsmittel, nicht möglich, die Grenzen der Unschärferelation zu überschreiten. Beim Versuch, die Position von Elektronen mit Hilfe von Photonen zu verfeinern, geben wir ihm entweder einen so großen und unbestimmten Impuls, der das ganze Experiment verdirbt, oder wir messen die Koordinate so grob, dass wir nichts Neues darüber erfahren. Also die Phänomene EIN 1 und EIN 2 , d. h. die Gründe, warum das Elektron in einigen Fällen nach oben und in anderen Fällen nach unten abweicht, existieren in der Realität nicht. Und die Behauptung, dass es „tatsächlich“ einen Grund gibt, verliert jede wissenschaftliche Bedeutung.

Es gibt also Phänomene, für die es keine Ursachen gibt, genauer gesagt, es gibt eine Reihe von Möglichkeiten, von denen eine ohne Grund auftritt. Dies bedeutet nicht, dass das Prinzip der Kausalität vollständig verworfen werden sollte: Wenn im selben Experiment die Elektronenkanone ausgeschaltet wird, verschwinden die Blitze auf dem Bildschirm vollständig und die Ursache für ihr Verschwinden ist das Ausschalten der Kanone . Das bedeutet aber, dass es im Vergleich dazu, wie es in der klassischen Mechanik verstanden wurde und wie es heute noch im Alltagsbewusstsein verstanden wird, deutlich eingeschränkt werden muss. Manche Phänomene haben keine Ursachen, sie müssen einfach als etwas Gegebenes genommen werden. Das ist die Welt, in der wir leben.

Die zweite Antwort auf die Frage nach den Gründen für unser Vertrauen in die Existenz unvorhersehbarer Phänomene ist, dass wir mit Hilfe der Unschärferelation nicht nur viele neue Tatsachen verstehen, sondern auch die Art des Bruchs in Bezug auf Kausalität und Vorhersagbarkeit, die auftritt, wenn wir in den Mikrokosmos eindringen. Wir sehen, dass der Glaube an die absolute Kausalität von einer stillschweigenden Annahme über die Existenz unendlich subtiler Forschungsmittel herrührt, die hinter das Objekt „guckten“. Aber als sie zu den Elementarteilchen kamen, entdeckten die Physiker, dass es ein minimales Wirkungsquantum gibt, gemessen durch die Plancksche Konstante, und dies schafft einen Teufelskreis, wenn man versucht, die Beschreibung eines Teilchens mit Hilfe eines anderen zu überdetailliert. Und die absolute Kausalität brach zusammen und mit ihr der Determinismus. Aus allgemeinphilosophischer Sicht erscheint es ganz natürlich, dass es, wenn es keine unendliche Teilbarkeit der Materie gibt, auch kein unendliches Detail der Beschreibung gibt, so dass der Zusammenbruch des Determinismus natürlicher erscheint, als wenn er erhalten geblieben wäre.

13.9. "Verrückte" Theorien und Metawissenschaften

Die Erfolge der Quantenmechanik, von denen wir oben gesprochen haben, beziehen sich hauptsächlich auf die Beschreibung nichtrelativistischer Teilchen, also Teilchen, die sich mit viel geringerer Geschwindigkeit als der Lichtgeschwindigkeit bewegen, so dass die mit der Relativitätstheorie verbundenen Effekte (relativistische Effekte ) kann vernachlässigt werden. Gerade die nichtrelativistische Quantenmechanik hatten wir im Sinn, als wir von ihrer Vollständigkeit und logischen Harmonie sprachen. Die nicht-relativistische Quantenmechanik reicht aus, um die Phänomene auf atomarer Ebene zu beschreiben, aber die Physik der Elementarteilchen hoher Energie erfordert die Schaffung einer Theorie, die die Ideen der Quantenmechanik und der Relativitätstheorie kombiniert. Bisher wurden auf diesem Weg nur Teilerfolge erzielt; Es gibt keine einheitliche und konsistente Theorie der Elementarteilchen, die die enorme Menge an Material erklärt, die von Experimentatoren angesammelt wurde. Versuche, durch prinzipienlose Korrekturen der alten Theorie eine neue Theorie aufzubauen, führen zu keinen nennenswerten Ergebnissen. Die Schaffung einer zufriedenstellenden Theorie der Elementarteilchen beruht auf der außerordentlichen Originalität dieses Phänomenbereichs, der wie in einer völlig anderen Welt vorkommt und zu seiner Beschreibung völlig ungewöhnliche Konzepte erfordert, die grundlegend von dem vertrauten Schema abweichen, mit dem wir vertraut sind.

In den späten 50er Jahren schlug Heisenberg eine neue Theorie der Elementarteilchen vor, nachdem er gelesen hatte, dass Bohr sagte, dass es unwahrscheinlich sei, dass sie wahr sei, weil sie „nicht verrückt genug“ sei. Die Theorie fand wirklich keine Anerkennung, und Bohrs treffende Bemerkung wurde allen Physikern bekannt und gelangte sogar in die populäre Literatur. Das Wort „verrückt“ wurde natürlich mit dem Epitheton „komisch“ in Verbindung gebracht, das auf die Welt der Elementarteilchen angewendet wurde. Aber heißt "verrückt". nur"seltsam", "ungewöhnlich"? Vielleicht wäre der Aphorismus nicht herausgekommen, wenn Bohr „nicht ungewöhnlich genug“ gesagt hätte. Das Wort „verrückt“ bringt die Konnotation von „verrückt“, „aus dem Nichts kommend“ mit sich und charakterisiert brillant die aktuelle Situation in der Theorie der Elementarteilchen, wenn alle die Notwendigkeit einer tiefgreifenden Umstrukturierung der Theorie erkennen, aber nicht wissen wie es weitergeht.

Es stellt sich die Frage: Verurteilt uns die „Fremdheit“ der Welt der Elementarteilchen, die Unanwendbarkeit unserer im Makrokosmos entwickelten Intuition auf sie, jetzt und für immer im Dunkeln zu wandeln?

Betrachten wir die Art der aufgetretenen Schwierigkeiten. Das Prinzip, formalisierte Sprachmodelle der Realität zu schaffen, hat beim Übergang zur Erforschung der Mikrowelt nicht gelitten. Aber wenn die Räder dieser Modelle – physikalische Konzepte – im Wesentlichen unserer alltäglichen makroskopischen Erfahrung entnommen und nur durch Formalisierung verfeinert wurden, dann werden für die neue „fremde“ Welt neue „fremde“ Konzepte benötigt, denen man nirgendwo etwas entnehmen kann und die daher neu gemacht werden müssen, und sie sogar richtig zu einem vollständigen Stromkreis verbinden müssen. In der ersten Phase des Studiums der Mikrowelt wurde eines dieser Räder - die Wellenfunktion der nichtrelativistischen Quantenmechanik - relativ einfach hergestellt, indem man sich auf den bereits vorhandenen mathematischen Apparat stützte, der zur Beschreibung makroskopischer Phänomene diente (Mechanik eines materiellen Punktes, Mechanik kontinuierlicher Medien, Matrixtheorie). Die Physiker hatten einfach Glück: Sie fanden die Prototypen des Rades, das sie brauchten, in zwei (völlig unterschiedlichen) Rädern der makroskopischen Physik und machten daraus einen "Zentaur" - das Quantenkonzept eines Wellenteilchens.

Allerdings kann man sich nicht immer auf sein Glück verlassen. Je tiefer wir in den Mikrokosmos vordringen, desto mehr unterscheiden sich die notwendigen Begriffskonstrukte von den üblichen Begriffen der makroskopischen Erfahrung, und desto unwahrscheinlicher ist es, sie unterwegs, ohne Werkzeuge, ohne Theorie zu bauen. Folglich müssen wir die eigentliche Aufgabe, wissenschaftliche Konzepte und Theorien zu konstruieren, einer wissenschaftlichen Analyse unterziehen, d.h. einen weiteren Metasystem-Übergang vornehmen. Um eine bestimmte physikalische Theorie qualifiziert zu konstruieren, benötigen wir eine allgemeine Theorie der Konstruktion physikalischer Theorien (Metatheorie), an deren Licht der Weg zur Lösung unseres spezifischen Problems verdeutlicht wird. Ein Vergleich von visuellen Modellen der alten Physik mit einem Pferd und abstrakten ikonischen Modellen mit einer Dampflokomotive kann wie folgt entwickelt werden. Pferde werden uns von Natur aus zur Verfügung gestellt. Sie wachsen und vermehren sich von selbst, und um sie zu verwenden, müssen Sie ihre innere Struktur nicht kennen. Aber wir müssen die Lokomotive selbst bauen. Dazu müssen wir die Prinzipien seiner Struktur und der ihnen zugrunde liegenden physikalischen Gesetze verstehen und über einige Werkzeuge für die Arbeit verfügen. Wenn wir versuchen, eine Theorie der „fremden“ Welt aufzubauen, ohne eine Metatheorie physikalischer Theorien zu haben, werden wir wie eine Person, die vorhatte, mit bloßen Händen eine Lokomotive oder ein Flugzeug zu bauen, ohne eine Ahnung von den Gesetzen der Aerodynamik zu haben.

Ein weiterer Übergang des Metasystems ist also gereift. Physik erfordert ... ich möchte "Metaphysik" sagen, aber zum Glück für unsere Terminologie ist die Metatheorie, die wir brauchen, eine solche in Bezug auf jede naturwissenschaftliche Theorie, die einen hohen Grad an Formalisierung hat, also ihre besser Metawissenschaft genannt. Dieser Begriff hat den Nachteil, dass er den Eindruck erweckt, Metawissenschaft sei etwas grundlegend Außerhalb der Wissenschaft, während in Wirklichkeit die durch diesen Metasystemwechsel geschaffene neue Hierarchieebene natürlich in den Gesamtkörper der Wissenschaft aufgenommen werden muss und diesen dadurch erweitert . Hier verhält es sich wie beim Begriff Metamathematik; denn Metamathematik ist auch ein Teil der Mathematik. Da aber der Begriff „Metamathematik“ dennoch akzeptiert wurde, kann auch der Begriff „Metawissenschaft“ als akzeptabel angesehen werden. Da jedoch der wichtigste Teil der metawissenschaftlichen Forschung das Studium der Theoriekonzepte ist, kann man den Begriff auch vorschlagen Konzeptologie.

Die Hauptaufgabe der Metawissenschaft lässt sich wie folgt formulieren. Eine bestimmte Menge oder ein bestimmter Generator von Fakten ist gegeben. Wie baut man eine Theorie auf, die diese Fakten effektiv beschreibt und korrekte Vorhersagen macht?

Wenn wir wollen, dass die Metawissenschaft über das allgemeine Denken hinausgeht, dann müssen wir sie als vollwertige mathematische Theorie aufbauen, und dafür muss ihr Gegenstand – die naturwissenschaftliche Theorie – in einer formalisierten (wenn auch vereinfachten – das ist der Preis der Formalisierung) erscheinen. Form, Gegenstand der Mathematik. In dieser Form präsentiert, ist die wissenschaftliche Theorie ein formalisiertes Sprachmodell, dessen Mechanismus ein hierarchisches System von Konzepten ist – der Standpunkt, den wir im gesamten Buch zitiert haben. Aus dieser Sicht scheint die Schaffung einer mathematischen Metawissenschaft ein weiterer und natürlicher Übergang des Metasystems zu sein, wodurch wir formalisierte Sprachen allgemein zum Studiengegenstand machen, nicht nur in Bezug auf ihre Syntax, sondern auch – und vor allem - vom Standpunkt der Semantik, vom Gesichtspunkt ihrer Anwendung bis zur Beschreibung der Wirklichkeit. Der ganze Entwicklungsweg der physikalischen und mathematischen Wissenschaft führt uns zu diesem Schritt.

Bisher sind wir jedoch bei unseren Überlegungen von den Bedürfnissen der Physik ausgegangen. Aber was ist mit reiner Mathematik?

Wenn theoretische Physiker wissen, was sie brauchen, aber wenig können, dann kann man „reinen“ Mathematikern eher vorwerfen, dass sie viel können, aber nicht wissen, was sie brauchen. Es besteht kein Zweifel, dass viele rein mathematische Werke erforderlich sind, um dem gesamten Gebäude der Mathematik Kohärenz und Harmonie zu verleihen, und es wäre lächerlich, von jedem Werk sofortige „praktische“ Anwendungen zu verlangen. Aber immerhin ist die Mathematik zur Erkenntnis der Wirklichkeit geschaffen und nicht zu ästhetischen oder sportlichen Zwecken wie das Schach, und selbst ihre höchsten Stockwerke werden letztlich nur insoweit benötigt, als sie zur Erreichung dieses Zieles beitragen.

Wahrscheinlich ist das Aufwärtswachstum des Gebäudes der Mathematik immer notwendig und stellt einen unbedingten Wert dar. Aber auch die Mathematik nimmt an Breite zu, und es wird immer schwieriger zu bestimmen, was nicht benötigt wird und was in welchem ​​Umfang benötigt wird. Die mathematische Technologie ist heute so weit entwickelt, dass das Konstruieren mehrerer neuer mathematischer Objekte im Rahmen der axiomatischen Methode und das Studium ihrer Eigenschaften fast so üblich geworden ist, wenn auch nicht immer einfach, wie es für die alten ägyptischen Schreiber war, Berechnungen mit Brüchen durchzuführen. Aber wer weiß, ob diese Objekte gebraucht werden? Es bedarf einer Theorie der Anwendung der Mathematik, und diese ist im Wesentlichen Metawissenschaft. Folglich ist die Entwicklung der Metawissenschaft eine leitende und organisierende Aufgabe in Bezug auf spezifischere mathematische Probleme.

Die Schaffung einer effektiven Metawissenschaft ist noch in weiter Ferne. Jetzt ist es schwierig, sich sogar seine allgemeinen Konturen vorzustellen. Um sie zu bereinigen, muss viel Vorarbeit geleistet werden. Physiker müssen den "Bourbakismus" beherrschen, das Spiel mathematischer Strukturen spüren, was zur Entstehung reichhaltiger axiomatischer Theorien führt, die für eine detaillierte Beschreibung der Realität geeignet sind. Gemeinsam mit Mathematikern müssen sie lernen, symbolische Modelle in einzelne Bausteine ​​zu zerlegen, um daraus die benötigten Bausteine ​​zusammenzusetzen. Und natürlich ist es notwendig, die Technik zu entwickeln, mit Hilfe elektronischer Computer formale Berechnungen mit beliebigen symbolischen Ausdrücken (und nicht nur mit Zahlen) durchzuführen. So wie der Übergang von der Arithmetik zur Algebra erst nach vollständiger Beherrschung der Technik der arithmetischen Berechnungen erfolgt, erfordert der Übergang zur Theorie der Erstellung beliebiger symbolischer Systeme eine hohe Technik der Arbeit mit symbolischen Ausdrücken, erfordert die praktische Beseitigung des Problems von umständliche formale Berechnungen durchzuführen. Ob die neuen Methoden zur Lösung jener spezifischen Schwierigkeiten beitragen werden, vor denen die Theorie der Elementarteilchen jetzt steht, oder ob sie früher durch manuelle, "altmodische" Methoden gelöst werden, ist unbekannt und wird es am Ende auch nicht wichtig, weil es zweifellos neue Schwierigkeiten geben wird. Auf die eine oder andere Weise steht die Frage nach der Schaffung einer Metawissenschaft auf der Tagesordnung. Früher oder später muss es gelöst werden, und dann werden die Menschen neue Waffen erhalten, um die seltsamsten fantastischen Welten zu erobern.

Speck F. Novum Organum, Große Bücher der westlichen Welt. Encyclopedia Britannica, 1955. Aphorismus 95, S. 126.

Speck F. Op. zit. Aphorismus 117. R. 131.

Sehen Sammlung: Einstein A. Physik und Realität. M.: Nauka, 1965. Auch die folgenden Zitate sind dieser Sammlung entnommen.

Frank P. Philosophie der Wissenschaft. Englewood Cliffs (New Jersey): Prentice-Hall, 1957.

Laplace P. Erfahrung in der Philosophie der Wahrscheinlichkeitstheorie. M., 1908. S. 9.

Entstehung der Psychologie als experimentelle Wissenschaft

Der Übergang vom Wissen zur Wissenschaft, der für einige Bereiche dem 18. Jahrhundert, für einige (irgendwie Mechanik) dem 17. Jahrhundert zuzurechnen ist, vollzieht sich in der Psychologie um die Mitte des 19. Jahrhunderts. Erst zu diesem Zeitpunkt hat sich das vielfältige psychologische Wissen als eigenständige Wissenschaft herausgebildet, ausgestattet mit einer eigenen fachspezifischen Forschungsmethodik und einem eigenen System, d.h. die Logik der Konstruktion von Wissen, das sich darauf bezieht, spezifisch für sein Fach.
Die methodischen Voraussetzungen für die Ausbildung der Psychologie als Wissenschaft wurden vor allem durch jene Tendenzen der empirischen Philosophie geschaffen, die in Bezug auf die Erkenntnis psychologischer wie aller anderen Phänomene die Notwendigkeit einer Wendung von der Spekulation zur experimentellen Erkenntnis proklamierten, die in der Naturwissenschaft in Bezug auf die Kenntnis physikalischer Phänomene durchgeführt werden. Eine besonders bedeutende Rolle spielte dabei der materialistische Flügel der empirischen Richtung in der Psychologie, der seelische Vorgänge mit physiologischen verband.
Damit der Übergang der Psychologie von mehr oder weniger fundierten Erkenntnissen und Anschauungen in die Wissenschaft tatsächlich erfolgen konnte, bedurfte es aber auch einer entsprechenden Entwicklung der Wissenschaftsfelder, auf denen die Psychologie aufbauen sollte, und der Entwicklung entsprechender Forschungsmethoden. Diese letzten Voraussetzungen für die Formalisierung der psychologischen Wissenschaft wurden durch die Arbeiten der Physiologen der ersten Hälfte des 19. Jahrhunderts geschaffen.
Basierend auf einer Reihe wichtiger Entdeckungen auf dem Gebiet der Physiologie des Nervensystems (C. Bell, der 1811 das Vorhandensein verschiedener sensorischer und motorischer Nerven nachwies und die Grundgesetze der Leitung festlegte,22 I. Muller, E. Dubois- Reymond, G. Helmholtz, der die Erregungsleitung entlang des Nervs misst), haben Physiologen eine Reihe von Hauptwerken geschaffen, die den allgemeinen Mustern der Empfindlichkeit und insbesondere der Arbeit verschiedener Sinnesorgane gewidmet sind (die Arbeiten von I. Muller und E.G. Weber, die Arbeiten von T. Jung, G. Helmholtz und E. Göring über das Sehen, G. Helmholtz über das Gehör usw.). Der Physiologie der Sinnesorgane gewidmet, d.h. verschiedenen Arten von Sensibilität sind diese Arbeiten aufgrund innerer Notwendigkeit bereits in den Bereich der Psychophysiologie der Empfindungen übergegangen.
Von besonderer Bedeutung für die Entwicklung der experimentellen Psychologie waren die Studien von E. G. Weber, die sich der Frage nach dem Zusammenhang zwischen Reizsteigerung und Empfindung widmeten, die dann von G. T. Fechner fortgeführt, verallgemeinert und mathematisch verarbeitet wurden (su). Diese Arbeit legte den Grundstein für ein neues Spezialgebiet der experimentellen psychophysischen Forschung.
Die Ergebnisse all dieser Studien wurden in seinen Grundlagen der Physiologischen Psychologie (1874) von W. Wundt zusammengefasst, teilweise weiterentwickelt und psychologisch systematisiert. Er sammelte und verbesserte zum Zweck der psychologischen Forschung die ursprünglich von Physiologen entwickelten Methoden.
1861 erfindet W. Wundt das erste elementare Gerät speziell für experimentelle psychologische Forschung. 1879 organisierte er Ende der 80er Jahre ein Labor für physiologische Psychologie in Leipzig. in das Institut für Experimentelle Psychologie umgewandelt. Die ersten experimentellen Arbeiten von Wundt und zahlreichen Studenten widmeten sich der Psychophysiologie von Empfindungen, der Geschwindigkeit einfacher motorischer Reaktionen, Ausdrucksbewegungen und so weiter. Alle diese Arbeiten konzentrierten sich daher auf elementare psychophysiologische Prozesse; sie gehörten noch ganz zu dem, was Wundt selbst als physiologische Psychologie bezeichnete. Aber schon bald begann das Experiment, dessen Durchbruch in die Psychologie mit elementaren Vorgängen begann, die gleichsam im Grenzbereich zwischen Physiologie und Psychologie lagen, Schritt für Schritt in die Erforschung zentraler psychologischer Probleme eingeführt zu werden. In allen Ländern der Welt begannen Laboratorien für experimentelle Psychologie zu entstehen. E. B. Titchener leistete Pionierarbeit in der experimentellen Psychologie in den Vereinigten Staaten, wo sie bald eine bedeutende Entwicklung erfuhr.
Die experimentelle Arbeit begann sich schnell auszudehnen und zu vertiefen. Die Psychologie ist zu einer unabhängigen, weitgehend experimentellen Wissenschaft geworden, die mit immer rigoroseren Methoden begann, neue Tatsachen zu ermitteln und neue Muster aufzudecken. In den wenigen Jahrzehnten, die seither vergangen sind, hat sich das tatsächliche experimentelle Material, das der Psychologie zur Verfügung steht, beträchtlich vermehrt; Methoden sind vielfältiger und genauer geworden; Das Gesicht der Wissenschaft hat sich deutlich verändert. Die Einführung des Experiments in die Psychologie hat sie nicht nur mit einer sehr mächtigen Spezialmethode der wissenschaftlichen Forschung ausgestattet, sondern auch die Frage nach der Methodik der psychologischen Forschung insgesamt auf andere Weise gestellt und neue Anforderungen und Kriterien für die Wissenschaftlichkeit der Psychologie gestellt alle Arten experimenteller Forschung in der Psychologie. Deshalb spielte die Einführung der experimentellen Methode in die Psychologie eine so große, vielleicht sogar entscheidende Rolle bei der Herausbildung der Psychologie als eigenständiger Wissenschaft.
Neben der Durchdringung der experimentellen Methode spielte die Durchdringung des Evolutionsprinzips eine bedeutende Rolle in der Entwicklung der Psychologie.
Die Evolutionstheorie der modernen Biologie, die sich auf die Psychologie ausgedehnt hat, spielte dabei eine doppelte Rolle: Erstens führte sie in die Erforschung psychischer Phänomene eine neue, sehr fruchtbare Sichtweise ein, die die Erforschung der Psyche und ihrer Entwicklung nicht nur mit verknüpfte physiologischen Mechanismen, aber auch mit der Entwicklung von Organismen, die sich an die Umwelt anpassen. Sogar in der Mitte des 19. Jahrhunderts. G. Spencer baut sein psychologisches System auf der Grundlage des Prinzips der biologischen Anpassung auf. Die Prinzipien der breiten biologischen Analyse erstrecken sich auf das Studium psychischer Phänomene. Im Lichte dieses biologischen Ansatzes beginnen die mentalen Funktionen selbst als Anpassungsphänomene verstanden zu werden, basierend auf der Rolle der Funktionen, die sie im Leben des Organismus erfüllen. Diese biologische Sicht auf psychische Phänomene hat in der Folge erhebliche Verbreitung gefunden. Als allgemeines Konzept, das nicht auf die Phylogenese beschränkt ist, offenbart es bald seine Achillesferse und führt zur Biologisierung der menschlichen Psychologie.
Die Evolutionstheorie, die sich auf die Psychologie erstreckte, führte zweitens überhaupt erst zur Entwicklung der Zoopsychologie. Am Ende des letzten Jahrhunderts begibt sich dank einer Reihe herausragender Arbeiten (J. Loeb, C. Lloyd-Morgan, L. Hobhouse, G. Jennings, E. L. Thorndike und andere) die vom Anthropomorphismus befreite Zoopsychologie auf den Weg der objektiven wissenschaftlichen Forschung. Aus der Forschung auf dem Gebiet der phylogenetisch vergleichenden Psychologie (Zoopsychologie) ergeben sich neue Strömungen in der allgemeinen Psychologie, vor allem in der Verhaltenspsychologie.<…>
Das Eindringen des Entwicklungsprinzips in die Psychologie konnte nicht umhin, die psychologische Forschung im Sinne der Ontogenese anzuregen. In der zweiten Hälfte des 19. Jahrhunderts. Die intensive Entwicklung dieses Zweiges der genetischen Psychologie, der Psychologie des Kindes, beginnt. 1877 veröffentlichte Charles Darwin seine Biographische Skizze eines Kindes. Etwa zur gleichen Zeit erschienen ähnliche Werke von I. Ten, E. Egger und anderen. Diesen wissenschaftlichen Tagebuchaufsätzen, die sich mit Kinderbeobachtungen befassten, folgte bald, 1882, das Werk von W. Preyer, „Die Seele eines Kindes“, das sie breiter und systematischer fortsetzt. Preyer findet viele Anhänger in verschiedenen Ländern. Das Interesse an der Kinderpsychologie wird universell und nimmt einen internationalen Charakter an. In vielen Ländern werden spezielle Forschungsinstitute gegründet und spezielle Zeitschriften zur Kinderpsychologie herausgegeben. Es gibt eine Reihe von Arbeiten zur Psychologie des Kindes. Vertreter aller großen psychologischen Schulen beginnen, ihm beträchtliche Aufmerksamkeit zu schenken. In der Psychologie des Kindes spiegeln sich alle Strömungen des psychologischen Denkens wider.
Neben der Entwicklung der experimentellen Psychologie und dem Aufblühen verschiedener Zweige der genetischen Psychologie als bedeutende Tatsache in der Geschichte der Psychologie, die auf die Bedeutung ihrer wissenschaftlichen Forschung hinweist, ist es auch notwendig, die Entwicklung verschiedener Spezialgebiete der sogenannten Angewandte Psychologie, die sich der Lösung verschiedener Lebensfragen auf der Grundlage der Ergebnisse wissenschaftlicher, insbesondere experimenteller Forschung nähert. Psychologie findet umfangreiche Anwendung im Bereich der allgemeinen und beruflichen Bildung, in der medizinischen Praxis, in Rechtsstreitigkeiten, im Wirtschaftsleben, in militärischen Angelegenheiten und in der Kunst.<…>
Die Krise der methodischen Grundlagen der Psychologie
Mitte des 19. Jahrhunderts als eigenständige Wissenschaft gegründet, war die Psychologie in ihren philosophischen Grundlagen eine Wissenschaft des 18. Jahrhunderts. Nicht G. T. Fechner und W. Wundt - Eklektiker und Epigonen der Philosophie, sondern die großen Philosophen des 17.-18. Jahrhunderts. legte ihre methodischen Grundlagen fest. Die Herausbildung der Psychologie als experimenteller Disziplin vollzog sich bei Wundt bereits unter den Bedingungen der drohenden Krise ihrer philosophischen Grundlagen.
Daher die sehr weit verbreitete Sichtweise, die die Entstehung der experimentellen physiologischen Psychologie bei Fechner und Wundt zum Höhepunkt in der Entwicklung der Psychologie macht, an die die Psychologie heranging und von der aus sie, in einen Krisenzustand übergehend, stetig zu werden begann nach unten absinken, muss radikal abgelehnt werden. Die Einführung der experimentellen Methode in die Psychologie und die Hervorhebung der Psychologie als spezielle experimentelle Disziplin ist eine unbestreitbar bedeutsame Etappe in der Entwicklung der psychologischen Wissenschaft. Aber die Bildung einer neuen psychologischen Wissenschaft kann nicht in einem Punkt zusammengezogen werden. Dies ist ein langer, noch nicht abgeschlossener Prozess, bei dem drei Eckpunkte unterschieden werden müssen: Der erste muss demselben 18. Jahrhundert zugeschrieben werden. oder der Wendepunkt vom 17. zum 18. Jahrhundert, der von F. Engels für die gesamte Wissenschaftsgeschichte herausgegriffen wurde, der zweite - zur Zeit der Entstehung der experimentellen physiologischen Psychologie in der Mitte des 19. Jahrhunderts; der dritte - bis zu dem Zeitpunkt, an dem das System der Psychologie endlich Gestalt annimmt und die Perfektion der Forschungsmethoden mit einer neuen wirklich wissenschaftlichen Methodik verbindet. Die Grundsteine ​​dieses Neubaus wurden von K. Marx in seinen Frühwerken gelegt.
Die Entwicklung der Psychologie in der zweiten Periode ist durch das Fehlen großer Originalsysteme gekennzeichnet, die mit denen des 18. Jahrhunderts vergleichbar wären. oder Anfang des 19. Jahrhunderts die Unterordnung der Psychologie unter solche Konstruktionen wie die eklektische „induktive Metaphysik“ von W. Wundt, die pragmatische Philosophie von W. James oder die Empiriokritik von E. Mach und R. Avenarius, und die wachsender Kampf von idealistischen Positionen gegen spontane materialistische Tendenzen, sensationelle und die mechanistischen Prinzipien, auf denen die experimentelle physiologische Psychologie ursprünglich aufgebaut ist; Am Ende dieser Periode bringt dieser Kampf die Psychologie in eine offensichtliche Krise. Daneben gibt es eine Weiterentwicklung spezieller experimenteller Studien und eine Verbesserung der Forschungstechniken.
Fast alles in der Entwicklung der experimentellen Forschung gehört dieser eigentlichen Periode an. In der vorangegangenen Periode fand nur die eigentliche Geburt der Psychophysik und Psychophysiologie oder der physiologischen Psychologie statt. Die Entwicklung der experimentellen Forschung über die Psychophysiologie hinaus, beginnend mit den Gedächtnisarbeiten von E. Ebbinghaus (1885), E. Müllers Gedächtnis- und Aufmerksamkeitsforschung etc. bezieht sich hauptsächlich auf das Ende des 19. Jahrhunderts. (80er und 90er). Die Entwicklung der Zoopsychologie geht auf die gleiche Zeit zurück (das klassische Werk von E. L. Thorndike wurde 1898 veröffentlicht). Besonders bedeutende Entwicklung der Psychologie des Kindes, beginnend mit der Arbeit von V. Preyer (1882), bezieht sich hauptsächlich auf eine noch spätere Zeit (V. Sterns Arbeit "Psychologie der frühen Kindheit" im Jahr 1914, die Arbeit von K. Groos, K. Bühler und andere in den Folgejahren).
Die physiologische, experimentelle Psychologie war, wie wir gesehen haben, nach ihren fortschrittlichsten methodischen Prinzipien und philosophischen Traditionen zur Zeit ihrer Entstehung noch eine Wissenschaft des 18. Jahrhunderts.<…>Der Kampf gegen die methodischen Prinzipien, auf denen das Gebäude der experimentellen Psychologie ursprünglich errichtet wurde, beginnt bereits um die Wende des 20. Jahrhunderts. Es geht in viele Richtungen, während dieses Kampfes geht die Opposition von einem Gegenstück zum anderen weiter. Der Rationalismus (die Psychologie des „reinen Denkens“ der Würzburger Schule und A. Binet: wieder Descartes gegen Locke) steht dem Sensationsgier verschiedener Art gegenüber, der zunächst die physiologische Psychologie beherrscht; Mechanistischer Atomismus in der Psychologie - Assoziationismus - Integrität verschiedener Typen (ganzheitliche Psychologie der Berliner Schule, Leipzig ua) und das Wirkprinzip ("Apperzeption", "schöpferische Synthese" in; Leibniz gegen Descartes); Naturalismus physiologisch (in der Psychophysiologie) oder biologisch (Darwin, Spencer) - verschiedene Formen von spiritualistischer "Psychologie des Geistes" und idealistischer "Sozialpsychologie" (französische soziologische Schule in Psychologie). Darüber hinaus werden neue Widersprüche aufgeworfen: Der Intellektualismus – sensationalistisch und rationalistisch – beginnt sich verschiedenen Formen des Irrationalismus entgegenzustellen; dem Verstand, den die Französische Revolution des 18. Jahrhunderts vergötterte, - dunkle tiefe Triebe, Instinkte. Schließlich beginnt von verschiedenen Seiten ein Kampf gegen die besten progressiven Aspekte des Cartesianischen Bewusstseinsbegriffs mit seinem klaren und deutlichen Wissen; dagegen wird einerseits ein diffuses gefühlsmäßiges Erleben der Psychologie der Leipziger Schule vorgebracht (K. Böhme und die deutschen Mystiker gegen Descartes); dagegen stehen verschiedene Spielarten der Psychologie des Unbewußten (Psychoanalyse etc.). Gegen ihn schließlich, die Krise an ihre äußersten Grenzen bringend, steht die Verhaltenspsychologie, die nicht nur den spezifischen Bewusstseinsbegriff, sondern die Psyche insgesamt ablehnt: „Mensch-Maschine“ von J.O. La Mettrie versucht, alle Widersprüche zu überwinden des menschlichen Geistes, der ihn vollständig aufhebt (Reflex gegen Bewusstsein, Descartes gegen Descartes).
Dieser Kampf ist in seinen Haupttendenzen ein ideologischer Kampf, aber die Bezugspunkte für jene spezifischen Formen, die er in der Praxis der psychologischen Forschung annimmt, liefern Widersprüche zwischen dem spezifischen Tatsachenmaterial, das den fortschreitenden Verlauf der wissenschaftlichen psychologischen Forschung offenbart, und jenen methodologischen Grundlagen welche Psychologie vorging. .
Der Kampf auf all diesen Gebieten, der um die Wende des 20. Jahrhunderts begann, setzt sich in der ausländischen Psychologie bis heute fort. Aber in verschiedenen Epochen dominieren unterschiedliche Motive. Dabei ist zunächst zwischen der Zeit vor 1918 (bis zum Ende des Ersten Weltkriegs und dem Sieg der Großen Sozialistischen Revolution in Russland) und der Zeit danach zu unterscheiden. In der zweiten dieser Perioden tritt die Psychologie in eine Periode offener Krise ein; zunächst wird er vorbereitet. Bereits in der ersten dieser Perioden nehmen viele der Trends Gestalt an, die in der Folgeperiode dominieren werden - und der irrationale Intuitionismus von A. Bergson und die Psychoanalyse von S. Freud und die Psychologie des Geistes von V . Dilthey usw., aber charakteristisch für diese Periode sind hauptsächlich Richtungen, die den Kampf gegen den Sensationsgier und den teilweise mechanistischen Atomismus der assoziativen Psychologie führen, die zunächst die dominierende Richtung in der Psychologie ist (G. Spencer, A. Bain - in England, I Ten, T. A. Ribot – in Frankreich, E. Muller, T. Ziegen – in Deutschland, M. M. Troitsky – in Russland). In dieser Zeit dominiert noch die Tendenz des rationalistischen Idealismus. In der Folgezeit, in den Nachkriegsjahren, die auch für die Psychologie zu akuten Krisenjahren werden, dominieren immer mehr irrationalistische, mystische Tendenzen.
Antisensualistische Tendenzen werden erstmals im Zusammenhang mit der Formulierung des Denkproblems in der Psychologie identifiziert - in subtilster Form bei A. Binet in Frankreich, bei D. E. Moore und E. Aveling in England, in zugespitzter idealistischer Form in Deutschland , unter den Vertretern der Würzburger Schule, direkt beeinflusst von der idealistischen Philosophie von E. Husserl, Wiederbelebung des platonischen Idealismus und "Realismus" der scholastischen Philosophie. Die Würzburger Schule baut die Denkpsychologie auf der Grundlage der „experimentellen Selbstbeobachtung“ auf. Sein Hauptziel ist es zu zeigen, dass Denken im Grunde ein rein geistiger Akt ist, nicht auf Empfindungen reduzierbar und unabhängig von sinnlichen visuellen Bildern; ihr Kern ist die „Intention“ (Orientierung) am idealen Objekt, ihr Hauptinhalt ist das direkte „Erfassen“ von Zusammenhängen. So beleben die Würzburger die Ideen der rationalistischen Philosophie im Rahmen der „experimentellen Psychologie“ ebenso wie ihre Gegner die Prinzipien der Philosophie des Empirismus. Gleichzeitig verbindet beide Richtungen bei aller Gegensätzlichkeit eine gemeinsame metaphysische Herangehensweise an die Frage nach dem Verhältnis von Denken und Fühlen. Die Sensationspsychologie steht auf den Positionen des vulgärmetaphysischen Empirismus, für den es keinen Übergang von der Sensation zum Denken gibt. Man muss also entweder die qualitative Spezifität des Denkens vollständig leugnen, das Denken auf Empfindungen reduzieren, oder das Denken isoliert von der Empfindung betrachten. Die forschungspsychologische Formulierung des Denkproblems muss auf dieser Grundlage zwangsläufig zu einem rationalistischen Gegensatz des Denkens zur Empfindung, allgemein zur sinnlichen Anschauung führen.
Nach dem Kampf gegen das sinnliche Prinzip beginnt auch ein Kampf gegen das mechanistisch-atomistische Prinzip der assoziativen Psychologie, gegen die „Psychologie der Elemente“ und ihre von den Idealen der mechanistischen Naturwissenschaft inspirierte Tendenz, alle komplexen Bewusstseinsbildungen in sie zu zerlegen Elemente und betrachten sie als Ergebnis der Kopplung, Assoziation dieser Elemente. Auch W. Wundt versucht, der qualitativen Originalität des Ganzen in Bezug auf die Elemente Rechnung zu tragen, indem er den Begriff der Apperzeption und schöpferischen Synthese einführt, dem er eine einfache äußere Assoziation gegenüberstellt. Experimentelle Tatsachen zwingen Wundt zu dieser Neuerung. So zeigten bereits die ersten psychologischen Arbeiten über Hörempfindungen, nämlich die Studien von K. Stumpf (1883), dass Töne ineinander übergehen und nicht nur äußerlich assoziieren, vielfältige integrale Strukturen bilden, die als neue spezifische Qualitäten wirken, die nicht auf das reduziert werden können Eigenschaften ihrer Bestandteile. Dann hat X. Ehrenfels (1890) dies an visuellen Wahrnehmungen gezeigt und erstmals den Begriff "Gestaltqualität" eingeführt, um diese spezifische neue Qualität des Ganzen zu bezeichnen. Spätere Studien zur Wahrnehmung musikalischer Töne und eine Reihe anderer Studien ergaben umfangreiches Faktenmaterial, das nicht in den Rahmen der Psychologie der Elemente passte und darüber hinausgehen musste.
Dieses Überschreiten der Grenzen der mechanistischen Elementepsychologie erfolgt zunächst vor allem dadurch, dass dem Mechanismus der Assoziationen verschiedener Formen der „schöpferischen Synthese“ als Manifestationen geistiger Aktivität (), „Übergangszustände des Bewusstseins“ (James), usw. In der darauffolgenden Nachkriegszeit der Krise wird dieselbe Frage nach integralen Gebilden, die sich nicht auf die Summe der Elemente reduzieren lassen, auf der Grundlage deutlich unterschiedlicher Positionen des Strukturformalismus (Gestaltpsychologie) und der irrationalen Vollständigkeit (Leipziger Schule) gelöst.
Der Kampf gegen Assoziationen als wichtigstes Erklärungsprinzip der experimentellen Psychologie drückt sich auch in einer anderen sehr symptomatischen Tendenz aus - der Tendenz, die Erklärung komplexerer bedeutungsvoller ("spiritueller") psychischer Phänomene völlig aufzugeben und sich darauf zu beschränken, die Formen zu beschreiben, in denen diese spirituellen Phänomene gegeben ("Beschreibende Psychologie"). » V. Dilthea). Aber auch diese Tendenzen (beobachtet schon von Wundt, der die physiologische Psychologie der historischen Psychologie der Völker gegenüberstellt, die höhere geistige Bildungen - Sprache, Denken usw. - untersucht) treten bereits in den folgenden Nachkriegsjahren - in der Zeit - zum Vorschein der Krise.
In den Jahren nach dem Ende des Ersten Weltkriegs nimmt die Krise akute Formen an. Genau wie die Krise in der Physik, über die W. I. Lenin in Materialismus und Empiriokritizismus schrieb, in der Mathematik usw., ist dies eine Krise, die mit dem ideologischen Kampf um die methodologischen Grundlagen der Wissenschaft verbunden ist. Die methodologischen Grundlagen, auf denen das Gebäude der experimentellen Psychologie ursprünglich errichtet wurde, bröckeln; immer weiter verbreitet in der Psychologie ist die Ablehnung nicht nur des Experiments, sondern auch der Aufgaben wissenschaftlicher Erklärung im Allgemeinen („Psychologie verstehen“ von E. Spranger); die Psychologie wird von einer Welle des Vitalismus, Mystizismus, Irrationalismus überrollt. Der aus den Tiefen des Organismus kommende Instinkt (A. Bergson), „horme“ (von W. MacDougall) verdrängt den Intellekt. Der Schwerpunkt wird von den höheren historischen Formen des Bewusstseins auf seine prähistorischen, primitiven, „tiefen“ Grundlagen, vom Bewusstsein auf das Unbewusste, Instinktive verlagert. Das Bewusstsein wird auf die Rolle eines Tarnmechanismus reduziert, ohne wirklichen Einfluss auf das von unbewussten Trieben gesteuerte Verhalten (). Gleichzeitig nimmt der Mechanismus extreme Formen an und kommt zu einer vollständigen Leugnung der menschlichen Psyche und des menschlichen Bewusstseins; menschliche Aktivität wird auf eine Reihe unbewusster Reflexreaktionen reduziert (Verhaltenspsychologie). In der Völkerpsychologie und in der Persönlichkeitslehre, in der Charakterologie werden in der fremden bürgerlichen Psychologie reaktionäre rassenfatalistische Theorien (E. Kretschmer, E. Jensch) dominant; in der Psychologie des Kindes ist die Pedologie weit verbreitet, in der pädagogischen und angewandten Psychologie im Allgemeinen die Testologie.<…>