Designentwicklung studieren. Strategien und Designs in der sozialempirischen Forschung Verschiedene Forschungsprojekte

Experimentdesign (DAMHIRSCHKUH , DOX oder experimentelles Design) ist die Entwicklung einer Aufgabe, die versucht, die Änderung von Informationen unter Bedingungen zu beschreiben oder zu erklären, von denen angenommen wird, dass sie die Änderung widerspiegeln. Der Begriff wird normalerweise mit Experimenten in Verbindung gebracht, bei denen das Design Bedingungen einführt, die sich direkt auf Veränderungen auswirken, kann sich aber auch auf das Design von Quasi-Experimenten beziehen, bei denen natürliche Bedingungen, die sich auf Veränderungen auswirken, zur Beobachtung ausgewählt werden.

In seiner einfachsten Form zielt ein Experiment darauf ab, Ergebnisse vorherzusagen, indem eine Änderung der Vorbedingungen eingeführt wird, die durch eine oder mehrere unabhängige Variablen dargestellt wird, die auch als "Eingabevariablen" oder "Prädiktoren" bezeichnet werden. Von einer Änderung einer oder mehrerer unabhängiger Variablen wird normalerweise angenommen, dass sie zu einer Änderung einer oder mehrerer abhängiger Variablen führt, die auch als „Ausgangsvariablen“ oder „Antwortvariablen“ bezeichnet werden. Das Pilotdesign kann auch Steuervariablen definieren, die konstant gehalten werden sollten, um zu verhindern, dass externe Faktoren die Ergebnisse beeinflussen. Das experimentelle Design umfasst nicht nur die Auswahl geeigneter unabhängiger, abhängiger und Kontrollvariablen, sondern auch die Planung der Durchführung des Experiments unter statistisch optimalen Bedingungen unter Berücksichtigung der Einschränkungen der verfügbaren Ressourcen. Es gibt mehrere Ansätze zum Bestimmen des Satzes von Designpunkten (eindeutige Kombinationen von erklärenden Variableneinstellungen), die in einem Experiment verwendet werden sollen.

Hauptanliegen bei der Entwicklung sind Aktionserstellung, Zuverlässigkeit und Reproduzierbarkeit. Diese Probleme können beispielsweise teilweise angegangen werden, indem die unabhängigen Variablen sorgfältig ausgewählt werden, das Risiko von Messfehlern verringert wird und sichergestellt wird, dass die Dokumentation der Methoden ausreichend detailliert ist. Damit verbundene Herausforderungen umfassen das Erreichen angemessener statistischer Aussagekraft und Sensitivität.

Richtig konzipierte Experimente erweitern das Wissen in den Natur- und Sozialwissenschaften und den Ingenieurwissenschaften. Andere Anwendungen umfassen Marketing und Richtlinienentwicklung.

Geschichte

Systematische klinische Studien

1747, während er als Chirurg auf der HMS diente Salisbury führte James Lind eine systematische klinische Studie durch, um Mittel gegen Skorbut zu vergleichen. Diese systematische klinische Studie ist eine Form von ME.

Lind wählte 12 Personen aus dem Schiff aus, die alle an Skorbut litten. Lind beschränkte seine Probanden auf Männer, die "so aussahen, als ob ich sie haben könnte", das heißt, er gewährte strenge Zugangsvoraussetzungen, um Veränderungen von außen zu reduzieren. Er teilte sie in sechs Paare ein und gab jedem Paar zwei Wochen lang eine andere Ergänzung zu ihrer Grundnahrung. Die Verfahren waren alle Mittel, die vorgeschlagen wurden:

  • Jeden Tag ein Liter Cider.
  • Fünfundzwanzig Gutts (Tropfen) Vitriol (Schwefelsäure) dreimal täglich auf nüchternen Magen.
  • Jeden Tag ein halber Liter Meerwasser.
  • Eine Mischung aus Knoblauch, Senf und Meerrettich in einem muskatgroßen Klumpen.
  • Dreimal täglich zwei Esslöffel Essig.
  • Jeden Tag zwei Orangen und eine Zitrone.

Zitrusbehandlungen hörten nach sechs Tagen auf, als ihnen die Früchte ausgingen, aber bis dahin war ein Seemann wieder einsatzbereit und die anderen hatten sich fast erholt. Außerdem zeigte nur eine Gruppe (Apfelwein) eine gewisse Wirkung seiner Behandlung. Der Rest der Besatzung diente vermutlich als Kontrollgruppe, aber Lind berichtete keine Ergebnisse von irgendeiner (unbehandelten) Kontrollgruppe.

Statistische Experimente, neben C. Pierce

Die Theorie der statistischen Inferenz wurde von Ch. Peirce in Illustrations to the Logic of Science (1877-1878) und The Theory of Probable Inferences (1883) entwickelt, zwei Ausgaben, die die Bedeutung der Randomisierung auf der Grundlage von Inferenz in der Statistik betonten.

randomisierte Experimente

Ch. Pierce randomisierte Freiwillige einem blinden, wiederholten Messdesign, um ihre Fähigkeit zu beurteilen, zwischen Gewichten zu unterscheiden. Peirces Experiment inspirierte andere Forscher in Psychologie und Pädagogik, die im 19. Jahrhundert eine Forschungstradition randomisierter Experimente in Laboratorien und spezialisierten Lehrbüchern entwickelten.

Optimale Designs für Regressionsmodelle

Vergleich In einigen Studienbereichen ist es nicht möglich, unabhängige Messungen auf einem rückführbaren metrologischen Normal durchzuführen. Vergleiche zwischen Behandlungen sind weitaus wertvoller und werden im Allgemeinen bevorzugt und oft mit wissenschaftlichen Kontrollen oder traditionellen Behandlungen verglichen, die als Basis dienen. Zufälligkeit Randomisierung ist der Prozess der Zuweisung von Personen zu zufälligen Gruppen oder zu verschiedenen Gruppen in einem Experiment, sodass jede Person in der Population die gleiche Chance hat, Studienteilnehmer zu werden. Die zufällige Zuordnung von Individuen zu Gruppen (oder Bedingungen innerhalb einer Gruppe) unterscheidet ein rigoroses, „echtes“ Experiment von einer Beobachtungsstudie oder einem „Quasi-Experiment“. Es gibt eine umfangreiche mathematische Theorie, die die Folgen von Entscheidungen untersucht, Einheiten einer Behandlung durch einen zufälligen Mechanismus (wie Tabellen mit Zufallszahlen oder die Verwendung von zufälligen Geräten wie Spielkarten oder Würfeln) zuzuweisen. Die Zuordnung von Einheiten zu der Behandlung erfolgt zufällig, üblicherweise um den verwirrenden Effekt abzumildern, der die Wirkungen auf andere Faktoren als die Behandlung zurückzuführen macht, vermutlich als Ergebnis der Behandlung. Risiken im Zusammenhang mit einer zufälligen Verteilung (z. B. ein erhebliches Ungleichgewicht in einem Schlüsselmerkmal zwischen Behandlungs- und Kontrollgruppe) sind kalkulierbar und können daher mit einer ausreichenden Anzahl von Versuchseinheiten auf ein akzeptables Niveau gehandhabt werden. Wenn die Population jedoch in mehrere Subpopulationen unterteilt ist, die sich in gewisser Weise unterscheiden, und die Studie erfordert, dass jede Subpopulation gleich groß ist, kann eine geschichtete Stichprobe verwendet werden. Somit sind die Einheiten in jeder Subpopulation zufällig, aber nicht die gesamte Stichprobe. Die Ergebnisse eines Experiments können nur dann zuverlässig von Versuchseinheiten auf eine größere statistische Grundgesamtheit von Einheiten verallgemeinert werden, wenn die Versuchseinheiten eine Zufallsstichprobe aus einer größeren Grundgesamtheit sind; der wahrscheinliche Fehler einer solchen Extrapolation hängt unter anderem von der Stichprobengröße ab. Statistische Replikation Messungen unterliegen im Allgemeinen Schwankungen und Messunsicherheiten; Daher werden sie wiederholt und vollständige Experimente repliziert, um die Quellen der Variabilität zu identifizieren, die wahren Wirkungen der Behandlung besser zu bewerten, die Zuverlässigkeit und Gültigkeit des Experiments weiter zu stärken und das vorhandene Wissen über das Thema zu erweitern. Allerdings müssen bestimmte Bedingungen erfüllt sein, bevor ein Replikationsexperiment initiiert wird: Die ursprüngliche Forschungsfrage wurde in einem Peer-Review-Journal veröffentlicht oder wird häufig zitiert, der Forscher ist unabhängig vom ursprünglichen Experiment, der Forscher muss zuerst versuchen, die ursprünglichen Daten zu replizieren unter Verwendung der Originaldaten, und Die Überprüfung sollte zeigen, dass es sich bei der durchgeführten Studie um eine Replikationsstudie handelt, die versucht hat, der Originalstudie so genau wie möglich zu folgen. Blockierung Blockierung ist die nicht zufällige Anordnung von Versuchseinheiten in Gruppen (Blöcke/Lose), die aus einander ähnlichen Einheiten bestehen. Das Blockieren reduziert die bekannten, aber irrelevanten Quellen der Variabilität zwischen den Blöcken und bietet daher eine größere Genauigkeit beim Schätzen der Quelle der untersuchten Variation. Orthogonalität Orthogonalität betrifft Formen des Vergleichs (Kontrast), die legitim und effektiv ausgeübt werden können. Die Kontraste können durch Vektoren dargestellt werden, und Sätze orthogonaler Kontraste sind unkorreliert und unabhängig verteilt, wenn die Daten normal sind. Aufgrund dieser Unabhängigkeit liefert jede orthogonale Verarbeitung den anderen unterschiedliche Informationen. Wenn es gibt T- Verfahren u T- 1 orthogonale Kontraste, alle Informationen, die aus dem Experiment erfasst werden können, können aus dem Kontrastsatz gewonnen werden. Faktorielle Experimente Verwenden Sie faktorielle Experimente anstelle einer Einzelfaktor-zu-Zeit-Methode. Sie sind effektiv bei der Beurteilung der Auswirkungen und möglicher Wechselwirkungen mehrerer Faktoren (unabhängiger Variablen). Eine Experimentdesignanalyse basiert auf der Grundlage von ANOVA, einer Sammlung von Modellen, Aufteilung der beobachteten Varianz in Komponenten, je nachdem, welche Faktoren das Experiment bewerten oder testen soll.

Beispiel

Dieses Beispiel wird Hotelling zugeschrieben. Es vermittelt einen Teil des Geschmacks dieser Aspekte des Themas, die kombinatorische Konstruktionen beinhalten.

Die Gewichte von acht Objekten werden durch Waagschalenschwenken und einen Satz Standardgewichte gemessen. Jedes Gewicht misst den Gewichtsunterschied zwischen Objekten in der linken Schale und allen Objekten in der rechten Schale und fügt ein kalibriertes Gewicht für eine leichtere Schale hinzu, bis die Waage im Gleichgewicht ist. Jede Messung hat einen zufälligen Fehler. Der durchschnittliche Fehler ist Null; auf Standardabweichungen nach der Verteilung der Fehlerwahrscheinlichkeit fällt mit der Zahl σ auf unterschiedliche Gewichtungen zusammen; Fehler bei verschiedenen Wägungen sind unabhängig. Lassen Sie uns die wahren Gewichte mit bezeichnen

θ 1 , ... , θ 8 , (\displaystyle \theta _(1),\dots,\theta _(8).\)

Wir betrachten zwei verschiedene Experimente:

  1. Wiegen Sie jedes Objekt in einer Schale, während die andere Schale leer ist. Lassen X ich das Gewicht eines Objekts gemessen werden, ich = 1, ..., 8.
  2. Es werden acht Wägungen gemäß folgendem Diagramm vorgenommen und gelassen Y ich Unterschied zu messen ich = 1, ..., 8:
linker Topf rechte Schale Erstes Wiegen: 1 2 3 4 5 6 7 8 (leer) Zweites: 1 2 3 8 4 5 6 7 Drittes: 1 4 5 8 2 3 6 7 Viertes: 1 6 7 8 2 3 4 5 Fünftes: 2 4 6 8 1 3 5 7 Sechstel: 2 5 7 8 1 3 4 6 Siebtel: 3 4 7 8 1 2 5 6 Achtel: 3 5 6 8 1 2 4 7 (\displaystyle (\ (Anordnung beginnen) (lcc) &(\text(links pan))&(\text(rechts pan))\\\hLine(\text(1 gewichtung:))&1\2\3\4\5\6\7\8&(\ text( (leer))) \\ (\ text(2)) & 1 \ 2 \ 3 \ 8 \ & 4 \ 5 \ 6 \ 7 \\ (\ text (3.: )) & 1 \ 4 \ 5 \ 8 \ & 2 \ 3 \ 6 \ 7 \\ (\ Text (4. :)) & 1 \ 6 \ 7 \ 8 \ & 2 \ 3 \ 4 \ 5 \\ (\ Text (5. :)) : )) & 2 \ 4 \ 6 \ 8 \ & 1 \ 3 \ 5 \ 7 \\ (\text(6.:)) & 2 \ 5 \ 7 \ 8 \ & 1 \ 3 \ 4 \ 6 \ \ (\ text (7.: )) & 3 \ 4 \ 7 \ 8 \ & 1 \ 2 \ 5 \ 6 \\ (\ text (8.:)) & 3 \ 5 \ 6 \ 8 \ & 1 \ 2 \ 4 \ 7 \ end (array ))) Dann der errechnete Wert des Gewichts θ 1 ist θ ^ 1 = Y 1 + Y 2 + Y 3 + Y 4 - Y 5 - Y 6 - Y 7 - Y 8 8 , (\displaystyle (\widehat (\theta))_(1)=(\frac( Y_ (1) + Y_ (2) + Y_ (3) + Y_ (4) -Y_ (5) -Y_ (6) - Y_ (7) -Y_ (8)) (8)).)Ähnliche Schätzungen können für das Gewicht anderer Gegenstände gefunden werden. zum Beispiel θ ^ 2 = Y 1 + Y 2 - Y 3 - Y 4 + Y 5 + Y 6 - Y 7 - Y 8 8 , θ ^ 3 = Y 1 + Y 2 - Y 3 - Y 4 - Y 5 - Y 6 + Y 7 + Y 8 8 , θ ^ 4 = Y 1 - Y 2 + Y 3 - Y 4 + Y 5 - Y 6 + Y 7 - Y 8 8 , θ ^ 5 = Y 1 - Y 2 + Y 3 - Y 4 - Y 5 + Y 6 - Y 7 + Y 8 8 , θ ^ 6 = Y 1 - Y 2 - Y 3 + Y 4 + Y 5 - Y 6 - Y 7 + Y 8 8 , θ ^ 7 = Y 1 - Y 2 - Y 3 + Y 4 - Y 5 + Y 6 + Y 7 - Y 8 8 , θ ^ 8 = Y 1 + Y 2 + Y 3 + Y 4 + Y 5 + Y 6 + Y 7 + Y 8 8 , (\displaystyle (\(begin align)(\widehat (\theta)) _(2)=(&\frac(Y_(1)+Y_(2)-Y_(3 )-Y_(4)+ (5 Y_)+Y_(6)-Y_(7)-Y_(8))(8)).\\(\widehat(\theta))_(3)&=(\ Bruch (Y_ (1) + Y_ (2) -Y_ (3) -Y_ (4) -Y_ (5) -Y_ (6) + Y_ (7) + (Y_ 8)) (8)).\\ ( \widehat(\theta)) _(4)&=(\r Hydraulisches Brechen (Y_ (1) -Y_ (2) + Y_ (3) -Y_ (4) + Y_ (5) -Y_ (6) + Y_ (7) (-Y_ 8)) (8)). \\(\widehat(\theta))_(5)&=(\frac(Y_(1)-Y_(2)+Y_(3)-Y_(4)-Y_(5)+Y_(6)- Y_ (7) + (Y_ 8)) (8)). \\(\widehat(\theta))_(6)&=(\frac(Y_(1)-Y_(2)-Y_(3)+Y_(4)+Y_(5)-Y_(6)- Y_ (7) + (Y_ 8)) (8)) \\. (\widehat(\theta))_(7)&=(\frac(Y_(1)-Y_(2)-Y_(3)+Y_(4)-Y_(5)+Y_(6)+(7 ) Y_ ) -Y_ (8)) (8)). \\(\widehat(\theta))_(8)&=(\frac(Y_(1)+Y_(2)+Y_(3)+Y_(4)+Y_(5)+Y_(6)+ Y_ (7) + (Y_ 8)) (8)). \ (Ende Blocksatz)))

Frage zum Versuchsaufbau: Welcher Versuch ist der beste?

Schätzungsabweichung X 1 von & Thetas 1 ist σ 2, wenn wir das erste Experiment verwenden. Aber wenn wir das zweite Experiment verwenden, ist die Varianz der oben angegebenen Schätzung σ 2 /8. Somit liefert uns das zweite Experiment 8-mal mehr als die Genauigkeit zum Schätzen eines Elements und wertet alle Elemente gleichzeitig mit der gleichen Genauigkeit aus. Was der zweite Versuch mit acht erreicht, würde 64 Wägungen erfordern, wenn die Gegenstände getrennt gewogen werden. Wir stellen jedoch fest, dass die Schätzungen für die im zweiten Experiment erhaltenen Elemente Fehler aufweisen, die miteinander korrelieren.

Viele experimentelle Designprobleme beinhalten kombinatorische Designs, wie in diesem und anderen Beispielen.

Um Fehlalarme zu vermeiden

False Positives, oft resultierend aus Publikationsdruck oder dem eigenen Bestätigungsbias des Autors, sind in vielen Bereichen eine inhärente Gefahr. Eine gute Möglichkeit, eine Verzerrung zu verhindern, die während der Datenerfassungsphase möglicherweise zu falsch positiven Ergebnissen führen könnte, ist die Verwendung eines Doppelblinddesigns. Wenn doppelblinde Designs verwendet werden, werden die Teilnehmer nach dem Zufallsprinzip experimentellen Gruppen zugeordnet, aber der Forscher weiß nicht, zu welcher Gruppe die Teilnehmer gehören. Somit kann der Forscher die Reaktion der Teilnehmer auf die Intervention nicht beeinflussen. Experimentelle Proben mit nicht offengelegten Freiheitsgraden sind ein Problem. Dies kann zu bewusstem oder unbewusstem „P-Hacking“ führen: Mehrere Dinge ausprobieren, bis Sie das gewünschte Ergebnis erhalten. Dies beinhaltet typischerweise das Manipulieren – vielleicht unbewusst – während der statistischen Analyse und der Freiheitsgrade, bis sie die Abbildung unter p zurückgeben<.05 уровня статистической значимости. Таким образом, дизайн эксперимента должен включать в себя четкое заявление, предлагающие анализы должны быть предприняты. P-взлом можно предотвратить с помощью preregistering исследований, в которых исследователи должны направить свой план анализа данных в журнал они хотят опубликовать свою статью прежде, чем они даже начать сбор данных, поэтому никаких манипуляций данных не возможно (https: // OSF .io). Другой способ предотвратить это берет двойного слепого дизайна в фазу данных анализа, где данные передаются в данном-аналитик, не связанный с исследованиями, которые взбираются данные таким образом, нет никакого способа узнать, какие участник принадлежат раньше они потенциально отняты, как недопустимые.

Eine klare und vollständige Dokumentation der experimentellen Methodik ist ebenfalls wichtig, um die Replikation der Ergebnisse zu unterstützen.

Diskussionsthemen bei der Erstellung von Entwicklungsprojekten

Eine entwicklungsbezogene oder randomisierte klinische Studie erfordert eine sorgfältige Abwägung mehrerer Faktoren, bevor das Experiment tatsächlich durchgeführt wird. Experimentelles Design des Auslegens des detaillierten experimentellen Plans im Voraus, um das Experiment durchzuführen. Einige der folgenden Themen wurden bereits im Abschnitt Experimentelle Designprinzipien behandelt:

  1. Wie viele Faktoren hat Design, und sind die Ebenen dieser Faktoren fest oder zufällig?
  2. Sind Kontrollbedingungen notwendig und welche sollten sie sein?
  3. Manipulationsprüfungen; Hat Manipulation wirklich funktioniert?
  4. Was sind Hintergrundvariablen?
  5. Was ist die Stichprobengröße. Wie viele Einheiten müssen gesammelt werden, damit ein Experiment verallgemeinerbar ist und genügend Power hat?
  6. Welche Bedeutung hat das Zusammenspiel von Faktoren?
  7. Welchen Einfluss haben die Langzeitwirkungen der Hauptfaktoren auf die Ergebnisse?
  8. Wie wirken sich Antwortänderungen auf Selbstberichtsmaße aus?
  9. Wie realistisch ist die Einführung gleicher Messgeräte in gleichen Einheiten, in unterschiedlichen Fällen, mit Nachprüfung und Folgeprüfungen?
  10. Was ist mit der Verwendung eines Proxy-Pretests?
  11. Gibt es lauernde Variablen?
  12. Sollte der Klient/Patient, Forscher oder sogar Datenanalyst bedingt blind sein?
  13. Welche Möglichkeit besteht, nachträglich unterschiedliche Bedingungen auf dieselbe Einheit anzuwenden?
  14. Wie viel der einzelnen Steuer- und Rauschfaktoren sollten berücksichtigt werden?

Die unabhängige Variable einer Studie hat oft viele Ebenen oder verschiedene Gruppen. In einem echten Experiment können die Forscher eine Experimentalgruppe bekommen, in der ihre Intervention durchgeführt wird, um die Hypothese zu testen, und eine Kontrollgruppe, die alle das gleiche Element in der Experimentalgruppe hat, ohne das Interventionselement. Wenn also alles andere außer einer Intervention konstant gehalten wird, können Forscher mit einiger Sicherheit bestätigen, dass dieses eine Element die beobachtete Veränderung verursacht. In einigen Fällen ist es nicht ethisch, eine Kontrollgruppe zu haben. Manchmal wird dies gelöst, indem zwei verschiedene Versuchsgruppen verwendet werden. In einigen Fällen können unabhängige Variablen nicht manipuliert werden, z. B. beim Testen auf einen Unterschied zwischen zwei Gruppen mit unterschiedlichen Krankheiten oder beim Testen auf einen Unterschied zwischen Männern und Frauen (offensichtlich eine Variable, die einem Teilnehmer schwer oder unethisch zuzuordnen wäre). . In diesen Fällen kann ein quasi-experimentelles Design verwendet werden.

kausale Zuschreibungen

Beim rein experimentellen Design wird die unabhängige Variable (der Prädiktor) vom Forscher manipuliert – das heißt, jeder Teilnehmer der Studie wird zufällig aus der Population ausgewählt, und jeder Teilnehmer wird zufällig den Bedingungen der unabhängigen Variablen zugeordnet. Nur so kann mit hoher Wahrscheinlichkeit verifiziert werden, dass Unterschiede in Ergebnisvariablen durch unterschiedliche Bedingungen verursacht werden. Daher sollten Forscher nach Möglichkeit ein Versuchsdesign anderen Designtypen vorziehen. Die Art der unabhängigen Variablen lässt jedoch nicht immer eine Manipulation zu. In Fällen sollten sich Forscher bewusst sein, Kausalzuschreibungen nicht zu zertifizieren, wenn ihr Design dies nicht zulässt. Beispielsweise werden in Beobachtungsprojekten die Teilnehmer den Bedingungen nicht zufällig zugeordnet, und wenn Unterschiede in den Ergebnisvariablen zwischen den Bedingungen gefunden werden, ist es wahrscheinlich, dass es etwas anderes als Unterschiede zwischen den Bedingungen gibt, die Unterschiede in den Ergebnissen verursachen, das heißt die dritte Variable. Gleiches gilt für Studien mit Korrelationsdesign. (Ader & Mellenbergh, 2008).

Statistische Kontrolle

Es ist am besten, dass der Prozess vor der Durchführung der geplanten Experimente einer angemessenen statistischen Kontrolle unterzogen wird. Wenn dies nicht möglich ist, ermöglichen eine ordnungsgemäße Blockierung, Replikation und Randomisierung die sorgfältige Durchführung der geplanten Experimente. Zur Kontrolle auf Störgrößen legt der Forscher fest Kontrollprüfungen als zusätzliche Maßnahmen. Forscher müssen sicherstellen, dass unkontrollierte Einflüsse (z. B. die Wahrnehmung einer Quelle des Vertrauens) die Forschungsergebnisse nicht verfälschen. Die Manipulationsprüfung ist ein Beispiel für eine Kontrollprüfung. Manipulationstests ermöglichen es Forschern, Schlüsselvariablen zu isolieren, um die Unterstützung dafür zu verstärken, dass diese Variablen wie beabsichtigt funktionieren.

Einige effektive Designs zur Bewertung mehrerer Haupteffekte wurden 1940 unabhängig und in unmittelbarer Folge von Raja Chandra Bose und K. Kishen gefunden, blieben jedoch wenig bekannt, bis die Plackett-Burmese-Designs veröffentlicht wurden Biometrie im Jahr 1946. Etwa zur gleichen Zeit führte CR Rao das Konzept orthogonaler Arrays als experimentelle Proben ein. Dieses Konzept war zentral für die Entwicklung der Taguchi-Methoden durch Taguchi, die während seines Besuchs am Indian Statistical Institute in den frühen 1950er Jahren stattfand. Seine Methoden wurden von der japanischen und indischen Industrie erfolgreich angewendet und übernommen und später auch von der amerikanischen Industrie übernommen, wenn auch mit einigen Vorbehalten.

1950 veröffentlichten Gertrude Mary Cox und William Gemmell Cochran das Buch Experimentelle Designs, das danach viele Jahre lang zum wichtigsten Nachschlagewerk für die Planung von Experimenten an Statistikern wurde.

Die Entwicklung der Theorie der linearen Modelle hat die Fälle, die die frühen Autoren betrafen, erfasst und übertroffen. Heutzutage stützt sich die Theorie auf komplexe Themen in

© Staatliche Universität Sankt Petersburg, 2018

© Dermanova I. B., Manukyan V. R., 2018

Einführung

Dieses Lehrmittel gibt die wesentlichen Inhalte des ersten Teils der Lehrveranstaltung „Design psychologischer Forschung“ für Studierende des ersten Studienjahres wieder. Sein Zweck ist es, die wissenschaftliche Technologie der Planung und Organisation psychologischer Forschung aufzuzeigen. Dieses Ziel zu erreichen ist unmöglich, ohne das bestehende Gebiet der psychologischen Forschung zu verstehen, ohne ihre Arten, Merkmale und spezifischen Brechungen durch das Prisma der psychologischen Wissenschaft sowie die allgemeinen wissenschaftlichen Prinzipien, auf denen sie beruhen, zu kennen. Diese komplexen Fragestellungen werden im Handbuch in einem ausschließlich angewandten Aspekt dargestellt, der es ermöglicht, Erkenntnisse aus dem Bereich der psychologischen Methodik direkt in die eigenständige Forschungsarbeit einzubringen. Jede Forschung hat mehrere Phasen: Planung, eigentliche Durchführung der Forschung, Präsentation der Ergebnisse. Der Begriff „Forschungsdesign“ impliziert eine allgemeine Organisation der Studie, einschließlich der Art und Methoden der konsequenten Suche nach Antworten auf die vom Forscher gestellten Fragen [Breslav, 2010]. Forschungsdesign umfasst den gesamten Prozess der Gestaltung (Planung) von Forschung und das Ergebnis dieses Prozesses. Ein psychologisches Forschungsprojekt ist ein Dokument, das eine kohärente Beschreibung aller Hauptelemente der geplanten Forschung enthält:

- Formulierung des Problems;

- Formulierung des Zwecks und der Hypothese der Studie;

- Ziele setzen;

- ein Verfahren zur Bildung einer Stichprobe von Probanden;

– Wahl der Methoden zur Erhebung empirischen Materials;

- Auswahl der Studienabschnitte;

– Wahl der Methoden zur Analyse der erhaltenen Daten;

– Interpretation der erhaltenen Ergebnisse.


Die Gestaltung einer psychologischen Studie kann in ihrer Bedeutung mit der Arbeit eines Architekten verglichen werden. Wie K. Hakim feststellte: „Bevor ein Gebäude jeder Größenordnung gebaut wird, findet die erste Entwurfsphase statt. Architekten sind eingeladen, ihre Ideen, manchmal im Wettbewerb, zu Form, Stil und Charakter eines Gebäudes unter Berücksichtigung seiner Funktion, seines Zwecks, seiner Platzierung usw. einzureichen.“ [zit. Zitiert aus: Research Design, 2017, p. 5].

Bei der Durchführung von Forschungen stützt sich ein Psychologe auf sein Wissen über die Phänomene und Phänomene, die er untersucht, auf jene Theorien und Konzepte, die die menschliche Psychologie beschreiben und / oder erklären, sowie auf das Repertoire an bekannten und / oder beherrschten Datenerfassungs- und Analysemethoden von ihm. Dieses Wissen eröffnet dem Forscher einen Korridor von Möglichkeiten, dessen Grenzen maßgeblich durch den einen oder anderen Ansatz – das Forschungsdesign – bestimmt werden.

Laut N. Blakey sollte Forschungsdesign drei Hauptfragen beantworten: Was wird untersucht, warum wird es untersucht, wie wird es untersucht. Die letzte Frage lässt sich in vier Unterfragen unterteilen: Welche Forschungsstrategie wird verwendet, woher werden die Daten gewonnen, wie werden die Daten gesammelt und analysiert, wann werden die einzelnen Forschungsphasen durchgeführt?

Er identifiziert acht Elemente des Forschungsdesigns, die während der Phase des Forschungsdesigns berücksichtigt werden sollten: Forschungsthema/-problem; Forschungsfragen und -ziele; Forschungsstrategien; Konzepte, Theorien, Hypothesen und Modelle; Quellen, Arten und Formen von Daten; Auswahl aus Datenquellen; Datensammlung und Timing; Datenverarbeitung und -analyse .

Das Handbuch behandelt konsequent die Vorbereitungsphase der Organisation psychologischer Forschung. Das erste Kapitel befasst sich mit der Formulierung des Forschungsproblems und seiner methodischen Elemente (Forschungsgegenstand und -gegenstand, Zweck und Ziele der Forschung, Hypothesen); der zweite befasst sich ausführlich mit der Problematik der Wahl der Forschungsmethoden; der dritte analysiert im Detail verschiedene Quellen empirischer Evidenz und Methoden zu ihrer Sammlung, und der vierte befasst sich mit ethischen Problemen in der psychologischen Forschung.

Um das erworbene Wissen zu festigen, helfen die im Handbuch vorgeschlagenen Aufgaben zum selbstständigen Arbeiten und Listen empfohlener Literatur zu den einzelnen Themen.

Wir hoffen, dass die Entwicklung dieses Kurses es unerfahrenen Psychologen-Forschern ermöglicht, ihre Arbeit sinnvoller und kompetenter aufzubauen.

Kapitel 1
Organisation der psychologischen Forschung

1.1. Psychologische Forschung: allgemeine Idee, Haupttypen und Stadien

Die wissenschaftliche Psychologie wurde in der zweiten Hälfte des 19. Jahrhunderts als eigenständige Wissenschaft gegründet und hat sich zu einem anerkannten Wissenschaftszweig entwickelt. Das Hauptziel der wissenschaftlichen Psychologie ist die Suche nach neuen Erkenntnissen, die durch wissenschaftliche psychologische Forschung erreicht werden. Die Hauptziele der Forschungsaktivitäten in der Psychologie sind:

– Erklärung psychologischer Phänomene;

- Nachweis bestimmter theoretischer Positionen (Hypothesen);

– Vorhersage bestimmter psychologischer Tatsachen [Karandyshev, 2004].


Wissenschaftliche Forschung, einschließlich psychologischer Forschung, zeichnet sich durch Objektivität, Allgemeingültigkeit, Systematik, Schlüssigkeit, Vertrauen auf wissenschaftliche Fakten und Konzepte aus. Wissenschaftlich-psychologische Erkenntnisse und Forschungsergebnisse werden in der Regel in der Sprache der wissenschaftlichen Psychologie präsentiert, sind für professionelle Psychologen verständlich und für einen unvorbereiteten Leser nicht immer verständlich beschrieben.

Es gibt verschiedene Klassifikationen der psychologischen Forschung. Am gebräuchlichsten sind dichotome Klassifikationen, die auf verschiedenen Grundlagen basieren: theoretisch und empirisch, Grundlagenforschung und angewandte Forschung, Labor- und Feldforschung, quantitative und qualitative Forschung [Druzhinin, 2011; Nikandrow, 2007; Goodwin, 2004 und andere].

Ziel theoretische Forschung allgemeines Wissen über psychologische Phänomene zu erlangen. Diese Studie basiert auf Beschreibungen und Erklärungen der Tatsachen des Seelenlebens, die bereits in der Wissenschaft verfügbar sind, sowie auf zuvor aufgestellten Hypothesen und Annahmen. Im Prozess der theoretischen Forschung interagiert der Wissenschaftler mit dem mentalen Modell des Forschungsobjekts [Druzhinin, 2011]. Theoretische Forschung umfasst die Analyse, Synthese, den Vergleich und die Verallgemeinerung von in der Wissenschaft vorhandenem Wissen sowie die darauf basierende Ableitung neuer Erkenntnisse mit Hilfe von Inferenzen. Es basiert auf einem bestimmten System von Axiomen, Theorien und empirischen Erkenntnissen, die derzeit in diesem Wissenschaftsbereich existieren, und verwendet die Methoden der logischen Ableitung neuer Erkenntnisse [Karandyshev, 2004]. Das Ergebnis einer theoretischen Studie wird in Form von mehr oder weniger harmonischen und demonstrativen Verallgemeinerungen präsentiert - Hypothesen, Konzepte, Theorien. Das Niveau dieser Verallgemeinerungen unterscheidet sich erheblich. Eine Hypothese ist eine wissenschaftliche Annahme, die aufgestellt wird, um ein Phänomen zu erklären, das weiterer experimenteller Tests und/oder zusätzlicher theoretischer Begründung bedarf, um eine verlässliche wissenschaftliche Theorie zu werden. Ein Konzept ist ein System begründeter Ansichten, das das eine oder andere Verständnis des untersuchten Phänomens formalisiert. Theorie ist eine Verallgemeinerung von Erfahrung Beweis Ebene, die die Essenz der untersuchten Realität widerspiegelt. In der Psychologie sprechen wir von psychologischer Realität, die sowohl objektive als auch subjektive Fakten und Muster umfasst [Nikandrov, 2007]. Im Gegensatz zu einem Konzept ist eine Theorie ein strenger strukturiertes und begründetes System theoretischer Aussagen, das die Mechanismen, Beziehungen und die Struktur des untersuchten Objekts beschreibt [Karandyshev, 2004].

empirische Forschung zielt darauf ab, Faktenmaterial zu erhalten, das anschließend entweder durch theoretische Studien verallgemeinert oder für angewandte Zwecke verwendet wird. Im Prozess der empirischen Forschung führt der Forscher eine externe reale Interaktion mit dem Forschungsgegenstand durch [Druzhinin, 2011]. In der empirischen Forschung bemühen sie sich um eine äußerst rigorose Beschreibung psychologischer Sachverhalte, für die sie sehr sorgfältig Daten über das untersuchte Phänomen sammeln. Die Hauptmethoden der empirischen psychologischen Forschung sind Beobachtung, Experiment, Test, Befragung, Gespräch, Modellierung. Typischerweise sind diese Daten von massiver Natur, d. h. sie werden durch mehrfaches Aufrufen des Untersuchungsobjekts erhalten, was die Zuverlässigkeit der Endergebnisse erhöht [Nikandrov, 2007].

Aus dem Verhältnis von wissenschaftlicher und praktischer Bedeutung der Forschung ergibt sich die Dyade „Grundlagenforschung – angewandte Forschung“. BEIM grundlegende Forschung die wissenschaftliche Bedeutung überwiegt deutlich die praktische: Die Ergebnisse solcher Studien können nicht unmittelbar in die Praxis umgesetzt werden, tragen aber zur Erforschung des einen oder anderen großen wissenschaftlichen Problems bei. Grundlagenforschung erweitert den Horizont der wissenschaftlichen Gemeinschaft erheblich und vor allem „öffnet Raum und ebnet den Weg für die Organisation engerer spezifischer Forschung mit praktischer Orientierung“ [Nikandrov, 2007, S. fünfzehn]. Insofern spielen sie eine Stiftungsfunktion sowohl im allgemeinen Wissenssystem der Menschheit als auch in der auf praktische Ergebnisse gerichteten Forschung.

Angewandte Forschung darauf abzielt, in bestimmten Situationen des menschlichen Lebens eine Wirkung zu erzielen. Üblicherweise werden diese Studien im Sonderauftrag von interessierten Personen oder Organisationen (Kunden) durchgeführt, die durch die Anforderung der Praxis vorgegeben sind. Ihr Ziel ist es, ein bestimmtes Problem zu lösen, indem sie bekanntes Wissen darauf „anwenden“ [Nikandrov, 2007]. In diesen Studien werden die theoretischen und empirischen Erkenntnisse der Wissenschaft genutzt, die von ihr entwickelten und erprobten Methoden und Techniken eingesetzt. Hier geht es nicht darum, neues Wissen zu erlangen, sondern dem Kunden im aktuellen Leben und in der Praxis zu helfen.

J. Goodwin schlägt auch vor, zwischen Studien nach den Durchführungsbedingungen (Labor und Feld) und der Art der verwendeten Methoden (quantitativ und qualitativ) zu unterscheiden.

Laborforschung geben Forschern ein hohes Maß an Kontrolle: Die experimentellen Bedingungen können klarer definiert und die Auswahl und Untersuchung der Probanden systematischer durchgeführt werden. In der Laborforschung ist es einfacher, die informierte Zustimmung der Teilnehmer einzuholen, es ist relativ einfach, anders als in der Feldforschung, die Standards des Ethikkodex strikt zu befolgen, während in der Feldforschung ethische Probleme im Zusammenhang mit dem Eindringen in den Ethikkodex auftreten können Privatsphäre der Befragten.

Feldforschung werden unter den Bedingungen des täglichen Lebens durchgeführt, und die Ähnlichkeit mit dem wirklichen Leben ist ihr Hauptvorteil. J. Goodwin nennt weitere Vorteile: Erstens können die Bedingungen der Feldforschung im Labor oft nicht reproduziert werden; zweitens können Feldstudien Laborstudien validieren und Fehler korrigieren, die durch natürliche Laborbeschränkungen verursacht werden; drittens ist es möglich, Daten zu erhalten, die sich schnell auf das Leben der untersuchten Personen auswirken können [Goodwin, 2004].

BEIM quantitative Forschung Daten werden gesammelt und in Form von Zahlen dargestellt - durchschnittliche Schätzungen für verschiedene Gruppen, der Anteil (in Prozent) der Personen, die auf die eine oder andere Weise eingetreten sind, Koeffizienten, die die Beziehung verschiedener Eigenschaften, Zustände, Prozesse usw. widerspiegeln. Gleichzeitig , in der modernen Psychologie qualitative Forschung sind wieder gefragt. Sie beinhalten in der Regel das Sammeln detaillierter Informationen durch Interviews mit Einzelpersonen oder Fokusgruppen und umfassen manchmal detaillierte Fallstudien sowie grundlegende Beobachtungsforschung. Was diese Arten qualitativer Forschung verbindet, ist, dass ihre Ergebnisse nicht in Form statistischer Berichte präsentiert werden, sondern in Form einer allgemeinen Analyse des Projekts [Goodwin, 2004].

Allerdings ist anzumerken, dass die Auswahl dieser Arten psychologischer Forschung immer noch etwas willkürlich ist und eher eine Abstraktion darstellt, die ein besseres Verständnis des Themas aus der Sicht seiner Bestandteile ermöglicht. So zeichnen sich viele psychologische Studien durch eine Kombination theoretischer und praktischer Forschungsaspekte in einem einzigen Prozess aus, da „jede Forschung nicht isoliert, sondern als Teil eines ganzheitlichen wissenschaftlichen Programms oder zur Entwicklung einer wissenschaftlichen Richtung durchgeführt wird“ [Druzhinin, 2011, p. acht]. Theoretische Aspekte sind charakteristisch für die Anfangs- und Endphase des psychologischen Forschungsprozesses, während empirische Aspekte für die zentrale Phase charakteristisch sind. Angewandte Forschung ist sowohl ohne die grundlagenwissenschaftlich akkumulierte theoretische Begründung als auch ohne empirische Verfahren nicht möglich. Gleichzeitig führt nicht nur die Grundlagenforschung zu einer angewandten Untersuchung des Problems, sondern die Ergebnisse der angewandten Forschung erweisen sich oft als wichtig für die Grundlagenforschung, indem sie die aufgestellten Theorien bestätigen, widerlegen oder Grenzen setzen. J. Goodwin nennt auch Fälle, in denen Labor- und Feldexperimente durch ein gemeinsames Ziel zu einer Studie kombiniert werden, wodurch eine größere Zuverlässigkeit der Ergebnisse erreicht werden kann [Goodwin, 2004]. Die moderne Psychologie hat Beispiele für qualitative und quantitative Studien, in denen die Untersuchung von Mustern in großen Stichproben veranschaulicht und durch qualitative Beschreibungen mentaler Prozesse und Phänomene ergänzt wird.

Alle psychologischen Forschungen haben eine gewisse Logik - die Reihenfolge ihres Verhaltens. Wie jede wissenschaftliche Forschung durchläuft die psychologische Forschung drei Phasen: 1) vorbereitend; 2) Haupt; 3) endgültig.

In der ersten Phase werden ihre Ziele formuliert, Orientierung in der Gesamtheit des Wissens in diesem Bereich vorgenommen, ein Aktionsprogramm erstellt, organisatorische, materielle und finanzielle Fragen geklärt. Auf der Hauptstufe wird der eigentliche Forschungsprozess durchgeführt: Der Wissenschaftler kommt mit speziellen Methoden (direkt oder indirekt) mit dem Untersuchungsobjekt in Kontakt und sammelt Daten darüber. In diesem Stadium spiegelt sich in der Regel am stärksten die Spezifik des Studiums wider: die zu untersuchende Realität in Form des Untersuchungsgegenstandes und -themas, das Wissensgebiet, die Art des Studiums, die methodische Ausstattung. In der letzten Phase werden die empfangenen Daten verarbeitet und in das gewünschte Ergebnis umgewandelt. Die Ergebnisse werden mit den gesetzten Zielen korreliert, erläutert und in das bestehende Wissenssystem in diesem Bereich aufgenommen. Stellt man diese Stadien genauer dar, so ergibt sich folgendes Schema der psychologischen Forschung:



Die gegebene Stufenfolge sollte nicht als starres Schema betrachtet werden, das für eine stetige Ausführung akzeptiert wird.

Es handelt sich vielmehr um ein allgemeines Prinzip der Algorithmisierung von Forschungsaktivitäten. Unter bestimmten Bedingungen kann sich die Reihenfolge der Stufen ändern, der Forscher kann zu den bestandenen Stufen zurückkehren, ohne die nachfolgenden zu beenden oder gar mit der Ausführung zu beginnen, einzelne Stufen können teilweise ausgeführt werden oder einige können sogar herausfallen. Diese Freiheit bei der Durchführung von Phasen und Operationen ist in der flexiblen Planung der Studie vorgesehen [Nikandrov, 2007].

1.2. Vorbereitende Phase der Forschungsorganisation: Problemstellung

Psychologische Forschung beginnt wie jede andere mit einer Problemstellung – der Entdeckung eines Defizits, eines Mangels an Informationen, um die Realität zu beschreiben oder zu erklären. Im philosophisch-enzyklopädischen Lexikon wird der Begriff „Problem“ interpretiert als „eine im Laufe der Wissensentwicklung objektiv auftretende Frage oder ein integraler Komplex von Fragen, deren Lösung von praktischem oder theoretischem Interesse ist“ [cit. von: Druzhinin, 2011, p. Sechszehn]. So sind es der Mangel an Wissen, Informationen, die Widersprüchlichkeit wissenschaftlicher Vorstellungen in der gesellschaftlichen Praxis oder als Ergebnis wissenschaftlicher Forschung, die die Bedingungen für die Entstehung und Formulierung eines wissenschaftlichen Problems schaffen. Laut V. N. Druzhinin „ist ein Problem eine rhetorische Frage, die ein Forscher der Natur stellt, aber er muss sie selbst beantworten“ [Druzhinin, 2011, p. 12]. Er hebt auch die folgenden Phasen der Problemgenerierung hervor: 1) Offenlegung des Mangels an wissenschaftlichem Wissen über die Realität; 2) Beschreibung des Problems auf der Ebene der Umgangssprache; 3) Formulierung des Problems in Bezug auf eine wissenschaftliche Disziplin. Die zweite Stufe, so der Wissenschaftler, sei notwendig, da der Übergang auf die Ebene der Umgangssprache es ermögliche, von einem Wissenschaftsgebiet (mit eigener spezifischer Terminologie) zu einem anderen zu wechseln und eine breitere Suche nach Lösungsmöglichkeiten durchzuführen das Problem. Somit grenzen wir, indem wir das Problem bereits formulieren, den Bereich der Suche nach seinen Lösungen ein und stellen implizit eine Forschungshypothese auf. L. Ya. Dorfman stellt fest, dass Probleme normalerweise an der Schnittstelle verschiedener Theorien zu finden sind; theoretische Bestimmungen und empirische Daten; allerlei empirische Daten; Daten zu verschiedenen Populationen; Daten, die durch einige Methoden erhalten wurden, und Daten, die durch andere Methoden erhalten wurden usw. [Dorfman, 2005]. Die Produktivität zukünftiger Forschung hängt weitgehend von der Fähigkeit des Wissenschaftlers ab, den beobachteten Widerspruch zu sehen und zu formulieren.

Elena Zuchi, Forscherin an der Universität Mailand, gibt Ratschläge zur Formulierung wissenschaftlicher Probleme – sie betreffen die Notwendigkeit, zu vage und allgemeine Probleme zu vermeiden. Zu allgemeine Probleme betreffen Studien, die aufgrund ihrer Zeitdauer und Breite nicht umsetzbar sind. Nur operativ formulierbare Probleme werden einer wissenschaftlichen Analyse unterzogen [Dzuki, 1997].

Operationalisierungen von Begriffen– Der genauen Definition von Begriffen bei der Formulierung wissenschaftlicher Probleme wird in der Forschung viel Aufmerksamkeit geschenkt. Bei der Operationalisierung von Begriffen wird in der Regel angedeutet, wie dieses Phänomen gemessen werden kann. J. Goodwin betont, dass dies besonders wichtig in der psychologischen Forschung ist, wo Konzepte verwendet werden, für die viele Definitionen gegeben werden können. Die Genauigkeit operationaler Definitionen hat eine weitere wichtige Konsequenz – sie bieten die Möglichkeit, Experimente zu reproduzieren [Goodwin, 2004].

Der Prozess der Entwicklung und Formulierung eines Forschungsproblems ist ohne das Kennenlernen von Publikationen zu diesem Thema und den Austausch mit auf diesem Gebiet tätigen Kollegen unmöglich. Üblicherweise geht einer wissenschaftlichen Recherche eine Darstellung einer solchen Problematik in Form einer Literaturrecherche voraus. Wie L. V. Kulikov zu Recht feststellt, „können Sie Ihren zukünftigen Leser davon überzeugen, dass das Problem wirklich existiert, basierend auf Ihrer Literaturkritik“ [Kulikov, 2001, p. elf]. Sie charakterisiert den Grad der Erforschung des Problems sowohl im Allgemeinen als auch in seinen einzelnen Aspekten. Unerforschte und wenig untersuchte Fragen, Widersprüche im Verständnis des Phänomens als Ganzes und seiner einzelnen Aspekte, Widersprüche in den verfügbaren empirischen Daten werden aufgezeigt.

Als Ergebnis der bibliografischen Vorbereitung muss der Forscher eine Idee haben:

- über die Anzahl der Veröffentlichungen zu dem für ihn interessanten Thema;

– über den zeitlichen Rahmen der Veröffentlichungen;

– über das Interesse der Wissenschaftler an diesem Problem;


Es ist besser, mit den berühmtesten und zitiertesten Autoren und denjenigen zu lesen, die den größten Beitrag zur ersten Phase des Studiums des Problems geleistet haben - auf diese Weise wird es einfacher, den Inhalt weiterer Arbeiten zu verstehen.

Der Aufbau einer Literaturrecherche kann chronologisch oder logisch erfolgen. Mit Ausnahme bestimmter Themen, bei denen es um die Geschichte der Erforschung eines Phänomens geht, ist eine logische Präsentation des Materials vorzuziehen, da sie es ermöglicht, das Forschungsproblem in größerem Umfang aufzudecken und zu untermauern.

Der Aufbau eines theoretischen Reviews könnte etwa so aussehen:

1. Essenz, Natur des Phänomens. Verfügbare Definitionen dieses Phänomens. Charakterisierung des Diversitätsgrades in seinem Verständnis durch verschiedene Autoren.

2. Phänomenologische Beschreibung (Beschreibung von Manifestationen) - der Bereich der Manifestationen, die Häufigkeit von Manifestationen, zeitliche, räumliche, Intensität, Modalität (falls die untersuchten Phänomene sie haben) Merkmale.

3. Die Struktur eines Phänomens ist eine stabile Beziehung zwischen seinen Komponenten. In der Psychologie wird Struktur meist als Funktionsstruktur verstanden, also als stabile Beziehungen zwischen einzelnen Funktionen. Der Betrachtung sollte ein Schema zugrunde liegen, das dem gewählten Ansatz entspricht (systemisch, ganzheitlich, komplex, umweltbezogen, situativ etc.).

4. Die Stellung dieses Phänomens unter anderen mentalen Phänomenen - seine Wechselbeziehungen, gegenseitigen Einflüsse (Faktoren, die es bestimmen und die Phänomene, die es beeinflusst).

5. Muster, die das Phänomen steuern [Kulikov, 2001].


Der Aufbau einer Literaturrecherche hängt von den Besonderheiten des betrachteten psychischen Phänomens, seinem Studiengrad und vielen anderen Faktoren ab, so dass das vorgeschlagene Schema nicht immer befolgt werden muss und kann.

In der Literaturrecherche müssen die Namen der Autoren genannt werden, deren Ideen oder Versuchsergebnisse erzählt oder verallgemeinert werden. Es sollte auf Quellen verwiesen werden, indem die spezifischen Veröffentlichungen der Autoren oder Veröffentlichungen von Vermittlern angegeben werden, dank derer die erforderlichen Informationen verfügbar wurden [Kulikov, 2001].

Darüber hinaus wird bei der Erarbeitung eines Forschungsproblems und der Erstellung einer Literaturrecherche besonderes Augenmerk darauf gelegt, die Relevanz und Neuartigkeit der Studie zu begründen.

Relevanz Forschung kann unter praktischen und wissenschaftlichen Gesichtspunkten charakterisiert werden. Die praktische Relevanz wird sowohl durch die Notwendigkeit bestimmt, nach neuem Wissen zu suchen, um ein praktisches Problem zu lösen, als auch durch die Bedeutung, ein System oder eine Methode der praktischen psychologischen Arbeit zu entwickeln, um bestimmte Probleme zu lösen. Die wissenschaftliche Relevanz kann durch das Fehlen bestimmter Kenntnisse, Forschungsmethoden auf dem relevanten Gebiet der wissenschaftlichen Psychologie, durch die Notwendigkeit, ein bestimmtes wissenschaftliches Problem zu lösen, beurteilt werden.

In der ersten Phase wird das Design sorgfältig ausgearbeitet (aus dem Englischen. Design- kreative Idee) zukünftiger Forschung.

Zunächst wird ein Forschungsprogramm entwickelt.

Programm beinhaltet Thema, Zweck und Ziele der Studie, formulierte Hypothesen, Definition des Untersuchungsgegenstandes, Einheiten und Umfang der Beobachtungen, Glossar, Beschreibung statistischer Verfahren zur Stichprobenbildung, Erhebung, Speicherung, Verarbeitung und Analyse von Daten, Methodik für die Durchführung einer Pilotstudie eine Liste der verwendeten statistischen Instrumente .

Name Themen meist in einem Satz formuliert, der dem Zweck der Studie entsprechen sollte.

Zweck der Studie- Dies ist eine mentale Antizipation des Ergebnisses einer Aktivität und Möglichkeiten, es mit Hilfe bestimmter Mittel zu erreichen. Der Zweck medizinischer und sozialer Forschung ist in der Regel nicht nur theoretischer (kognitiver), sondern auch praktischer (anwendungsbezogener) Natur.

Um dieses Ziel zu erreichen, bestimmen Sie Forschungsschwerpunkte, die den Inhalt des Ziels offenbaren und detailliert darstellen.

Die wichtigsten Bestandteile des Programms sind Hypothesen (Erwartete Ergebnisse). Hypothesen werden anhand bestimmter statistischer Indikatoren formuliert. Die Hauptanforderung an Hypothesen ist ihre Überprüfbarkeit im Forschungsprozess. Die Ergebnisse der Studie können die aufgestellten Hypothesen bestätigen, korrigieren oder widerlegen.

Vor der Materialsammlung werden Objekt und Betrachtungseinheit festgelegt. Unter Gegenstand medizinischer und sozialer Forschung eine statistische Menge verstehen, die aus relativ homogenen einzelnen Objekten oder Phänomenen - Beobachtungseinheiten - besteht.

Beobachtungseinheit- das primäre Element der statistischen Grundgesamtheit, das mit allen zu untersuchenden Merkmalen ausgestattet ist.

Der nächste wichtige Schritt bei der Vorbereitung der Studie ist die Entwicklung und Genehmigung des Arbeitsplans. Wenn das Forschungsprogramm eine Art strategischer Plan ist, der die Ideen des Forschers verkörpert, dann der Arbeitsplan (als Bewerbung für das Programm) ist ein Mechanismus für die Durchführung der Studie. Der Arbeitsplan umfasst: das Verfahren zur Auswahl, Schulung und Organisation der Arbeit von direkten Ausführenden; Entwicklung von regulatorischen und methodischen Dokumenten; Ermittlung des erforderlichen Umfangs und der Art der Ressourcenunterstützung für die Studie (Personal, Finanzen, Sach- und Fachmittel, Informationsressourcen usw.); Definition von Begriffen und verantwortlich für einzelne Forschungsschritte. Es wird normalerweise in Form dargestellt Netzwerkgrafiken.

In der ersten Phase der medizinischen und sozialen Forschung wird festgelegt, mit welchen Methoden die Auswahl der Beobachtungseinheiten durchgeführt wird. Je nach Umfang wird zwischen kontinuierlichem und selektivem Studium unterschieden. Bei einer kontinuierlichen Studie werden alle Einheiten der Allgemeinbevölkerung untersucht, bei einer selektiven Studie wird nur ein Teil der Allgemeinbevölkerung (Stichprobe) untersucht.

Durchschnittsbevölkerung wird eine Menge qualitativ homogener Beobachtungseinheiten genannt, die durch ein Merkmal oder eine Gruppe von Merkmalen vereint sind.

Stichprobenpopulation (Stichprobe)- jede Untergruppe von Beobachtungseinheiten der Allgemeinbevölkerung.

Die Bildung einer Stichprobenpopulation, die die Merkmale der Allgemeinbevölkerung vollständig widerspiegelt, ist die wichtigste Aufgabe der statistischen Forschung. Alle auf Stichprobendaten basierenden Urteile über die Allgemeinbevölkerung gelten nur für repräsentative Stichproben, d.h. für solche Stichproben, deren Merkmale denen der Allgemeinbevölkerung entsprechen.

Die tatsächliche Bereitstellung von Repräsentativität der Stichprobe ist gewährleistet Zufallsauswahlverfahren jene. eine solche Auswahl von Beobachtungseinheiten in der Stichprobe, bei der alle Objekte in der Allgemeinbevölkerung die gleichen Chancen haben, ausgewählt zu werden. Um eine zufällige Auswahl zu gewährleisten, werden speziell entwickelte Algorithmen verwendet, die dieses Prinzip implementieren, entweder Tabellen mit Zufallszahlen oder ein Zufallszahlengenerator, der in vielen Computersoftwarepaketen verfügbar ist. Das Wesen dieser Methoden besteht darin, die Anzahl derjenigen Objekte zufällig anzugeben, die aus der gesamten Population in irgendeiner Weise geordnet ausgewählt werden müssen. Beispielsweise kann die Allgemeinbevölkerung „Regionale Bevölkerung“ nach Alter, Wohnort, alphabetischer Reihenfolge (Nachname, Vorname, Vatersname) usw. sortiert werden.

Neben der zufälligen Auswahl werden bei der Organisation und Durchführung medizinischer und sozialer Forschung auch die folgenden Methoden zur Bildung einer Stichprobe verwendet:

Mechanische (systematische) Auswahl;

Typologische (stratifizierte) Auswahl;

serielle Auswahl;

Mehrstufige (Screening-)Auswahl;

Kohortenmethode;

Die "Copy-Pair"-Methode.

Mechanische (systematische) Auswahl ermöglicht es Ihnen, eine Stichprobe mit einem mechanischen Ansatz zur Auswahl von Beobachtungseinheiten einer geordneten Allgemeinbevölkerung zu bilden. Gleichzeitig ist es notwendig, das Verhältnis der Volumina der Stichprobe und der Allgemeinbevölkerung zu bestimmen und damit den Anteil der Auswahl zu ermitteln. Um beispielsweise die Struktur von Krankenhauspatienten zu untersuchen, wird eine Stichprobe von 20 % aller Patienten gebildet, die das Krankenhaus verlassen haben. In diesem Fall sollte unter allen „Krankenakten eines stationären Patienten“ (f. 003 / y), geordnet nach Nummern, jede fünfte Karte ausgewählt werden.

Typologische (stratifizierte) Auswahl beinhaltet eine Untergliederung der Allgemeinbevölkerung in typologische Gruppen (Schichten). Bei der Durchführung medizinischer und sozialer Forschung werden als typologische Gruppen altersgeschlechtliche, soziale, berufliche Gruppen, einzelne Siedlungen sowie städtische und ländliche Bevölkerungen herangezogen. In diesem Fall wird die Anzahl der Beobachtungseinheiten aus jeder Gruppe in der Stichprobe zufällig oder mechanisch proportional zur Größe der Gruppe ausgewählt. Beispielsweise wird bei der Untersuchung der Ursache-Wirkungs-Zusammenhänge von Risikofaktoren und onkologischer Morbidität der Bevölkerung die Studiengruppe zunächst in Untergruppen nach Alter, Geschlecht, Beruf, sozialem Status eingeteilt und dann die erforderliche Anzahl von Beobachtungseinheiten ausgewählt aus jeder Untergruppe.

serielle Auswahl die Stichprobe wird nicht aus einzelnen Beobachtungseinheiten gebildet, sondern aus ganzen Serien oder Gruppen (Gemeinden, Gesundheitseinrichtungen, Schulen, Kindergärten etc.). Die Auswahl der Serien erfolgt durch ordnungsgemäße Stichproben oder maschinelle Stichproben. Innerhalb jeder Serie werden alle Beobachtungseinheiten untersucht. Dieses Verfahren kann beispielsweise verwendet werden, um die Wirksamkeit der Immunisierung der Kinderpopulation zu bewerten.

Mehrstufige (Screening-)Auswahl beinhaltet eine phasenweise Probenahme. Durch die Anzahl der Stufen werden einstufige, zweistufige, dreistufige Auswahl usw. unterschieden. So werden beispielsweise bei der Untersuchung der reproduktiven Gesundheit von Frauen, die auf dem Gebiet einer Gemeinde leben, in der ersten Phase berufstätige Frauen ausgewählt, die anhand grundlegender Screening-Tests untersucht werden. In der zweiten Stufe wird eine spezialisierte Untersuchung von Frauen mit Kindern durchgeführt, in der dritten Stufe eine eingehende spezialisierte Untersuchung von Frauen mit Kindern mit angeborenen Fehlbildungen. Beachten Sie, dass in diesem Fall einer gezielten Auswahl auf einer bestimmten Grundlage die Stichprobe alle Objekte umfasst - Träger des untersuchten Attributs auf dem Gebiet der Gemeinde.

Kohortenmethode werden verwendet, um die statistische Grundgesamtheit relativ homogener Gruppen von Menschen zu untersuchen, die durch das Einsetzen eines bestimmten demografischen Ereignisses im gleichen Zeitintervall vereint sind. Beispielsweise wird bei der Untersuchung von Fragen im Zusammenhang mit dem Fruchtbarkeitsproblem eine Bevölkerung (Kohorte) gebildet, die auf der Grundlage eines einzigen Geburtsdatums (eine Untersuchung der Fruchtbarkeit nach Generationen) oder auf der Grundlage eines einzigen Heiratsalters homogen ist (eine Studie der Fruchtbarkeit nach Länge des Familienlebens).

Copy-Pair-Methode sieht vor, dass für jede Beobachtungseinheit der untersuchten Gruppe ein Objekt ausgewählt wird, das in einem oder mehreren Merkmalen ähnlich ist („copy-pair“). Faktoren wie das Körpergewicht und das Geschlecht des Kindes sind beispielsweise dafür bekannt, dass sie die Säuglingssterblichkeitsrate beeinflussen. Bei Anwendung dieser Methode wird für jeden Tod eines Kindes unter 1 Jahr ein „Kopienpaar“ des gleichen Geschlechts, ähnlich in Alter und Körpergewicht, aus den lebenden Kindern unter 1 Jahr ausgewählt. Diese Auswahlmethode sollte verwendet werden, um Risikofaktoren für die Entwicklung sozial bedeutsamer Krankheiten und individueller Todesursachen zu untersuchen.

In der ersten Stufe wird auch Forschung entwickelt (vorgefertigtes wird verwendet) und repliziert statistischer Werkzeugkasten (Karten, Fragebögen, Tabellenlayouts, Computerprogramme zur Kontrolle eingehender Informationen, Bildung und Verarbeitung von Informationsdatenbanken usw.), in die die untersuchten Informationen eingegeben werden.

In der Untersuchung der öffentlichen Gesundheit und der Aktivitäten des Gesundheitswesens wird häufig soziologische Forschung unter Verwendung spezieller Fragebögen (Fragebögen) verwendet. Fragebögen (Fragebögen) für die medizinische und soziologische Forschung sollen zielgerichtet, orientiert, die Verlässlichkeit, Verlässlichkeit und Repräsentativität der in ihnen erfassten Daten gewährleisten. Bei der Entwicklung von Fragebögen und Interviewprogrammen sind folgende Regeln zu beachten: die Eignung des Fragebogens zur Erhebung, Verarbeitung und Extraktion der notwendigen Informationen daraus; die Möglichkeit, den Fragebogen zu überprüfen (ohne das Codesystem zu verletzen), um erfolglose Fragen zu beseitigen und entsprechende Anpassungen vorzunehmen; Erläuterung der Ziele und Zielsetzungen des Studiums; klare Formulierung der Fragen, wodurch diverse zusätzliche Erläuterungen entfallen; Feststehender Charakter der meisten Fragen.

Durch geschickte Auswahl und Kombination verschiedener Fragetypen – offene, geschlossene und halbgeschlossene – kann die Genauigkeit, Vollständigkeit und Verlässlichkeit der erhaltenen Informationen erheblich gesteigert werden.

Die Qualität der Befragung und ihrer Ergebnisse hängt maßgeblich davon ab, ob die Grundvoraussetzungen für die Gestaltung des Fragebogens und dessen grafische Gestaltung erfüllt sind. Für die Erstellung eines Fragebogens gelten folgende Grundregeln:

Der Fragebogen enthält nur die wichtigsten Fragen, deren Antworten dazu beitragen, die Informationen zu erhalten, die zur Lösung der Hauptziele der Studie erforderlich sind und die auf andere Weise ohne die Durchführung einer Fragebogenerhebung nicht erhalten werden können.

Die Formulierung der Fragen und alle darin enthaltenen Wörter sollten für den Befragten verständlich sein und seinem Wissens- und Bildungsstand entsprechen;

Der Fragebogen sollte keine Fragen enthalten, die dazu führen, dass sie nicht beantwortet werden. Es ist notwendig sicherzustellen, dass alle Fragen eine positive Reaktion des Befragten hervorrufen und den Wunsch nach vollständigen und wahren Informationen hervorrufen.

Die Organisation und Abfolge der Fragen sollte darauf ausgerichtet sein, die nötigsten Informationen zu erhalten, um das Ziel zu erreichen und die in der Studie gestellten Probleme zu lösen.

Spezielle Fragebögen (Fragebögen) werden häufig verwendet, um unter anderem die Lebensqualität von Patienten mit einer bestimmten Krankheit und die Wirksamkeit ihrer Behandlung zu beurteilen. Sie ermöglichen es, Veränderungen in der Lebensqualität von Patienten zu erfassen, die über einen relativ kurzen Zeitraum (normalerweise 2-4 Wochen) aufgetreten sind. Es gibt viele spezielle Fragebögen, wie AQLQ (Asthma Quality of Life Questionnaire) und AQ-20 (20-Item Asthma Questionnaire) für Asthma bronchiale, QLMI (Quality of Life after Myocardial Infarction Questionnaire) für Patienten mit akutem Myokardinfarkt etc.

Die Koordinierung der Arbeit an der Entwicklung von Fragebögen und ihrer Anpassung an verschiedene sprachliche und wirtschaftliche Formationen wird von einer internationalen gemeinnützigen Organisation zur Erforschung der Lebensqualität - dem MAPI-Institut (Frankreich) - durchgeführt.

Bereits in der ersten Phase der statistischen Untersuchung müssen Layouts von Tabellen erstellt werden, die in Zukunft mit den erhaltenen Daten gefüllt werden.

In Tabellen wird wie in grammatikalischen Sätzen das Subjekt unterschieden, d.h. die Hauptsache, die in der Tabelle gesagt wird, und das Prädikat, d.h. das, was das Thema charakterisiert. Gegenstand - dies ist das Hauptmerkmal des untersuchten Phänomens - es befindet sich normalerweise links entlang der horizontalen Linien der Tabelle. Prädikat - Schilder, die das Thema charakterisieren, befinden sich normalerweise über den vertikalen Spalten der Tabelle.

Beim Erstellen von Tabellen sind bestimmte Anforderungen zu beachten:

Die Tabelle sollte einen klaren, prägnanten Titel haben, der ihre Essenz widerspiegelt;

Die Gestaltung der Tabelle endet mit den Summen für Spalten und Zeilen;

Die Tabelle sollte keine leeren Zellen enthalten (wenn kein Zeichen vorhanden ist, fügen Sie einen Bindestrich ein).

Es gibt einfache, Gruppen- und kombinierte (komplexe) Arten von Tabellen.

Eine einfache Tabelle ist eine Tabelle, die eine Zusammenfassung der Daten für nur ein Attribut darstellt (Tabelle 1.1).

Tabelle 1.1. Einfaches Tabellenlayout. Verteilung der Kinder nach Gesundheitsgruppen, % der Gesamtzahl

In der Gruppentabelle wird das Subjekt durch mehrere unzusammenhängende Prädikate charakterisiert (Tab. 1.2).

Tabelle 1.2. Gruppentabellenlayout. Verteilung der Kinder nach Gesundheitsgruppen, Geschlecht und Alter, % der Gesamtzahl

In der Kombinationstabelle sind die das Subjekt charakterisierenden Zeichen miteinander verbunden (Tabelle 1.3).

Tabelle 1.3. Kombinationstabellenlayout. Verteilung der Kinder nach Gesundheitsgruppen, Alter und Geschlecht, % der Gesamtzahl

Einen wichtigen Platz in der Vorbereitungszeit nimmt dabei ein Pilotstudie, dessen Aufgabe es ist, statistische Werkzeuge zu testen, um die Richtigkeit der entwickelten Methodik für die Erhebung und Verarbeitung von Daten zu überprüfen. Am erfolgreichsten ist eine solche Pilotstudie, die in reduziertem Maßstab die Hauptstudie wiederholt, d.h. ermöglicht es, alle anstehenden Arbeitsschritte zu überprüfen. Abhängig von den Ergebnissen der vorläufigen Analyse der während der Pilotierung gewonnenen Daten werden die statistischen Instrumente, Methoden zur Erhebung und Verarbeitung von Informationen angepasst.

Die experimentelle Psychologie basiert auf der praktischen Anwendung der Pläne des sogenannten echten Experiments, wenn im Verlauf der Studie Kontrollgruppen verwendet werden und sich die Probe unter Laborbedingungen befindet. Die Versuchspläne dieser Art werden als Pläne 4, 5 und 6 bezeichnet.

Plan mit Vor- und Nachtest und Kontrollgruppe (Plan 4). Schema 4 ist ein klassisches „Design“ einer psychologischen Laborstudie. Es ist aber auch im Gelände anwendbar. Seine Besonderheit liegt nicht nur in der Anwesenheit einer Kontrollgruppe – sie ist bereits im vorexperimentellen Schema 3 vorhanden – sondern in der Äquivalenz (Homogenität) der Versuchs- und Kontrollproben. Ein wichtiger Faktor für die Zuverlässigkeit des nach Schema 4 aufgebauten Experiments sind auch zwei Umstände: die Homogenität der Forschungsbedingungen, in denen sich die Proben befinden, und die vollständige Kontrolle von Faktoren, die die interne Validität des Experiments beeinflussen.

Die Wahl eines Versuchsplans mit Vor- und Endversuch und einer Kontrollgruppe erfolgt entsprechend der Versuchsaufgabe und den Bedingungen der Studie. Wenn es möglich ist, mindestens zwei homogene Gruppen zu bilden, wird das folgende Versuchsschema angewendet:

Beispiel. Zur praktischen Aneignung der Möglichkeiten zur Umsetzung des Versuchsplans 4 geben wir ein Beispiel einer realen Studie in Form eines laborbildenden Experiments, das einen Mechanismus zur Bestätigung der Hypothese enthält, dass positive Motivation die Konzentration der Aufmerksamkeit einer Person beeinflusst.

Hypothese: Die Motivation der Probanden ist ein wesentlicher Faktor für die Erhöhung der Konzentration und Stabilität der Aufmerksamkeit von Menschen, die sich in den Bedingungen pädagogischer und kognitiver Aktivität befinden.

Versuchsablauf:

  • 1. Bildung von Versuchs- und Kontrollproben. Die Teilnehmer des Experiments werden in Paare eingeteilt, die sorgfältig durch Indikatoren der Vorprüfung oder durch Variablen, die signifikant miteinander korrelieren, ausgeglichen werden. Die Mitglieder jeder Nara werden dann "zufällig" (zufällig) per Los in die Versuchs- oder Kontrollgruppen gezogen.
  • 2. Beide Gruppen werden aufgefordert, den Test „Korrekturtest mit Ringen“ (O, und 0 3) zu erarbeiten.
  • 3. Die Aktivität der Versuchsprobe wird stimuliert. Angenommen, die Probanden erhalten eine experimentelle Stimulationsinstallation (X): „Studierende, die 95 oder mehr Punkte (richtige Antworten) auf der Grundlage von Konzentrations- und Aufmerksamkeitsstabilitätstests erzielen, erhalten in diesem Semester eine „automatische“ Gutschrift.
  • 4. Beide Gruppen werden eingeladen, den Test „Korrekturtest mit Silben“ (0 2 und OD

Algorithmus zur Analyse der Ergebnisse des Experiments

  • 5. Empirische Daten werden auf „Normalität“ der Verteilung 1 getestet. Diese Operation ermöglicht es, mindestens zwei Umstände herauszufinden. Erstens, als ein Test, der verwendet wird, um die Stabilität und Konzentration der Aufmerksamkeit der Versuchspersonen zu bestimmen, diskriminiert (differenziert) er sie gemäß dem gemessenen Attribut. In diesem Fall zeigt die Normalverteilung, dass die Indikatoren der Merkmale mit der Entwicklungssituation des angewandten Tests im optimalen Verhältnis stehen, d.h. Die Technik misst den vorgesehenen Bereich optimal aus. Es ist für den Einsatz unter diesen Bedingungen geeignet. Zweitens gibt die Normalität der Verteilung empirischer Daten das Recht, die Methoden der parametrischen Statistik korrekt anzuwenden. Statistiken können verwendet werden, um die Verteilung von Daten abzuschätzen Als und Ex oder beim .
  • 6. Die Berechnung des arithmetischen Mittels Mx und Effektivwert 5 L. Abweichungen der Ergebnisse der Vor- und Endprüfung.
  • 7. Vergleich der Durchschnittswerte der Testindikatoren in den Versuchs- und Kontrollgruppen (O, 0 3 ; Ach od
  • 8. Die Mittelwerte werden nach Student's t-Test verglichen, d.h. Bestimmung der statistischen Signifikanz von Mittelwertunterschieden.
  • 9. Der Nachweis der Verhältnisse Oj = O e, O, 0 4 als Indikatoren für die Wirksamkeit des Experiments wird durchgeführt.
  • 10. Eine Untersuchung der Gültigkeit des Experiments wird durchgeführt, indem der Grad der Kontrolle von Invaliditätsfaktoren bestimmt wird.

Zur Veranschaulichung eines psychologischen Experiments über den Einfluss von Motivationsvariablen auf den Konzentrationsprozess der Aufmerksamkeit der Versuchspersonen wenden wir uns den Daten zu, die in der Tabelle aufgeführt sind. 5.1.

Tabelle der Versuchsergebnisse, Punkte

Tisch 5.1

Das Ende des Tisches. 5.1

Themen

Messung vor der Belichtung X

Messung nach der Belichtung X

Experimental-

Kontrollgruppe

Experimental-

Kontrollgruppe 0 3

Versuchsgruppe 0 2

Kontrollgruppe 0 4

Vergleich der Daten der Primärmessung der Versuchs- und Kontrollproben - Oh! und O3 – wird durchgeführt, um die Äquivalenz der Versuchs- und Kontrollproben zu bestimmen. Die Identität dieser Indikatoren zeigt die Homogenität (Äquivalenz) der Gruppen an. Sie wird ermittelt, indem das statistische Signifikanzniveau der Mittelwertdifferenzen im Konfidenzintervall berechnet wird R t-Test Styodeita.

In unserem Fall lag der Studentent /-Kriteriumswert zwischen den empirischen Daten der Erstuntersuchung in der Versuchs- und Kontrollgruppe bei 0,56. Dies zeigt, dass sich die Stichproben im Konfidenzintervall /? nicht signifikant unterscheiden.

Der Vergleich der Daten der primären und wiederholten Messungen der Versuchsprobe - Oj und 0 2 - wird durchgeführt, um den Grad der Änderung der abhängigen Variablen nach dem Einfluss der unabhängigen Variablen auf die Versuchsprobe zu bestimmen. Dieses Verfahren wird mit dem /-Styodeit-Test durchgeführt, wenn die Variablen auf der gleichen Testskala gemessen werden oder standardisiert sind.

In diesem Fall wurden die Vor- (Primär-) und Abschlussuntersuchungen mit verschiedenen Tests durchgeführt, die die Aufmerksamkeitskonzentration messen. Daher ist ein Vergleich von Durchschnittswerten ohne Standardisierung nicht durchführbar. Lassen Sie uns den Korrelationskoeffizienten zwischen den Indikatoren der Primär- und Abschlussstudien in der experimentellen Gruppe berechnen. Sein niedriger Wert kann als indirekter Beweis dafür dienen, dass eine Datenänderung vorliegt. (Rx = 0D6) .

Der Versuchseffekt wird durch Vergleich der Nachmessungsdaten der Versuchs- und Kontrollproben - 0 2 und 0 4 - bestimmt. Sie wird durchgeführt, um den Signifikanzgrad der Änderung der abhängigen Variablen nach Exposition gegenüber der unabhängigen Variablen zu bestimmen. (X) für die Versuchsprobe. Die psychologische Bedeutung dieser Studie besteht darin, die Auswirkungen zu bewerten X zu den Versuchspersonen. In diesem Fall erfolgt der Vergleich im Stadium der Endmessung der Daten der Versuchs- und Kontrollgruppe. Wirkungsanalyse X mit Hilfe des /-Student-Kriteriums durchgeführt. Sein Wert beträgt 2,85 und liegt damit über dem Tabellenwert des /-Kriteriums 1 . Dies zeigt, dass es einen statistisch signifikanten Unterschied zwischen den mittleren Testwerten in der Versuchs- und Kontrollgruppe gibt.

Als Ergebnis des Experiments gemäß Plan 4 wurde also festgestellt, dass sich in der ersten Gruppe von Probanden, die sich nicht von der anderen Gruppe in Bezug auf einstellungspsychologische Merkmale (in Bezug auf die Aufmerksamkeitskonzentration) unterscheiden, mit Ausnahme der Einfluss der unabhängigen Variablen darauf x, Der Wert des Indikators der Aufmerksamkeitskonzentration unterscheidet sich statistisch signifikant von dem ähnlichen Indikator der zweiten Gruppe, der sich unter denselben Bedingungen befindet, aber außerhalb des Einflusses liegt x.

Betrachten Sie die Untersuchung der Gültigkeit des Experiments.

Hintergrund: kontrolliert werden, da Ereignisse, die parallel zur experimentellen Exposition auftreten, sowohl in der experimentellen als auch in der Kontrollgruppe beobachtet werden.

Natürliche Entwicklung: aufgrund kurzer Intertest- und Expositionszeiten kontrolliert und tritt sowohl in Versuchs- als auch in Kontrollgruppen auf.

Testeffekt und Instrumentenfehler: werden kontrolliert, weil sie in der Versuchs- und Kontrollgruppe in gleicher Weise auftreten. In unserem Fall liegt eine Stichprobenverzerrung von 1 vor.

Statistische Regression: kontrolliert. Erstens, wenn die Randomisierung zum Auftreten extremer Ergebnisse in der Versuchsgruppe geführt hat, erscheinen sie auch in der Kontrollgruppe, wodurch der Regressionseffekt derselbe ist. Zweitens, wenn die Randomisierung nicht zum Auftreten extremer Ergebnisse in den Stichproben geführt hat, wird diese Frage von selbst beseitigt.

Auswahl der Testpersonen: kontrolliert, weil die Erklärung von Unterschieden ausgeschlossen ist, soweit die Randomisierung eine Gleichwertigkeit der Stichproben bewirkt. Dieser Grad ergibt sich aus der von uns übernommenen Stichprobenstatistik.

Vorführung: vollständig kontrolliert wird, da der Zeitraum zwischen den Tests in beiden Stichproben relativ kurz ist, und auch durch die Notwendigkeit der Anwesenheit der Testpersonen im Unterricht. Bei Experimenten mit langer Expositionsdauer (Zeitraum zwischen den Tests) ist eine Verzerrung der Probe und der Einfluss der Ergebnisse des Experiments möglich. Der Ausweg aus dieser Situation besteht darin, bei der Verarbeitung der Ergebnisse der vorläufigen und endgültigen Testdaten alle Teilnehmer in beiden Stichproben zu berücksichtigen, auch wenn die Probanden der Versuchsgruppe keine experimentelle Exposition erhalten haben. Wirkung x, wird anscheinend geschwächt, aber es wird keine Stichprobenverzerrung geben. Der zweite Ausweg besteht darin, das Design des Experiments zu ändern, da vor der endgültigen Testung eine Äquivalenz der Gruppen durch Randomisierung erreicht werden muss:

Das Zusammenspiel des Selektionsfaktors mit der natürlichen Entwicklung: kontrolliert durch Bildung einer kontrolläquivalenten Gruppe.

Reaktive Wirkung: Pre-Tests bereiten die Probanden wirklich darauf vor, die experimentelle Wirkung wahrzunehmen. Daher wird die Wirkung der Belichtung "verschoben". Es ist unwahrscheinlich, dass man in dieser Situation absolut behaupten kann, dass die Ergebnisse des Experiments auf die gesamte Bevölkerung ausgedehnt werden können. Eine reaktive Wirkungskontrolle ist insofern möglich, als Wiederholungsuntersuchungen für die gesamte Bevölkerung charakteristisch sind.

Wechselwirkung von Selektionsfaktor und experimentellem Einfluss: In einer Situation der freiwilligen Zustimmung zur Teilnahme am Experiment besteht eine Bedrohung der Validität („Bias“), da diese Zustimmung von Personen eines bestimmten Persönlichkeitstyps erteilt wird. Die Bildung gleichwertiger Proben in zufälliger Reihenfolge reduziert die Ungültigkeit.

Die Reaktion der Probanden auf das Experiment: Die Situation des Experiments führt zu einer Verzerrung der Ergebnisse, da die Probanden in "besondere" Bedingungen geraten und versuchen, die Bedeutung dieser Arbeit zu verstehen. Daher sind Manifestationen von Demonstration, Spielen, Wachsamkeit, ratende Haltungen usw. häufig. Jedes Element des experimentellen Verfahrens kann eine Reaktion auf ein Experiment hervorrufen, wie der Inhalt der Tests, der Randomisierungsprozess, die Aufteilung der Teilnehmer in separate Gruppen, die Unterbringung der Probanden in verschiedenen Räumen, die Anwesenheit von Fremden, die Verwendung eines Außergewöhnlichen X usw.

Der Ausweg aus dieser Schwierigkeit besteht darin, das Studium zu „maskieren“, d.h. Erstellung und strikte Einhaltung eines Systems zur Legendierung von Versuchsabläufen oder deren Einbindung in den üblichen Ablauf. Zu diesem Zweck erscheint es am vernünftigsten, Tests und experimentelle Expositionen unter dem Deckmantel regelmäßiger Verifizierungsaktivitäten durchzuführen. Bei der Untersuchung auch einzelner Mitglieder der Gruppe ist es wünschenswert, am Experiment des gesamten Teams teilzunehmen. Es erscheint sinnvoll, Tests und experimentelle Einflussnahme durch Personalleiter, Lehrer, Aktivisten, Beobachter usw. durchzuführen.

Abschließend sei darauf hingewiesen, dass, wie D. Campbell betonte, „gesunder Menschenverstand“ und „Überlegungen nicht-mathematischer Natur“ immer noch die optimale Methode sein können, um den Effekt eines Experiments zu bestimmen.

R. Solomons Plan für vier Gruppen (Plan 5). Bei Vorliegen bestimmter Forschungsbedingungen, die die Bildung von vier gleichwertigen Proben ermöglichen, wird das Experiment nach Schema 5 aufgebaut, das nach seinem Ersteller benannt wurde - "Salomons Plan für vier Gruppen":

Solomons Plan ist ein Versuch, Faktoren zu kompensieren, die die externe Validität des Experiments bedrohen, indem dem Experiment zwei zusätzliche (zu Plan 4) Gruppen hinzugefügt werden, die nicht vorab gemessen wurden.

Der Vergleich von Daten für zusätzliche Gruppen neutralisiert den Einfluss des Testens und den Einfluss der experimentellen Umgebung selbst und ermöglicht auch eine bessere Verallgemeinerung der Ergebnisse. Die Identifizierung der Wirkung der experimentellen Exposition wird durch den statistischen Nachweis der folgenden Ungleichungen wiedergegeben: 0 2 > Oj; 0 2 > 0 4 ; 0 5 > Über b. Wenn alle drei Beziehungen erfüllt sind, dann die Gültigkeit der experimentellen Schlussfolgerung viel erhöht sich.

Die Verwendung von Design 5 bestimmt die Wahrscheinlichkeit, die Wechselwirkung von Test und experimenteller Exposition zu neutralisieren, was die Interpretation der Ergebnisse von Studien gemäß Design 4 erleichtert. Der Vergleich von Ob mit O und 0 3 zeigt die kombinierte Wirkung von natürlicher Entwicklung und Hintergrund . Der Vergleich der Mittelwerte 0 2 und 0 5 , 0 4 und 0 0 ermöglicht es, den Haupteffekt der Vorversuche abzuschätzen. Der Vergleich der Mittelwerte () 2 und 0 4 , 0 5 und 0 D) ermöglicht es, den Haupteffekt der experimentellen Exposition abzuschätzen.

Wenn der Vortesteffekt und der Interaktionseffekt klein und vernachlässigbar sind, dann ist es wünschenswert, eine Kovarianzanalyse von 0 4 und 0 2 unter Verwendung der Vortestergebnisse als Kovariate durchzuführen.

Plan mit Kontrollgruppe und Test nur nach Exposition (Plan 6). Sehr oft sind Forscher bei der Durchführung experimenteller Aufgaben mit der Situation konfrontiert, dass psychologische Variablen unter den Bedingungen der Unmöglichkeit einer vorläufigen Messung der psychologischen Parameter der Probanden untersucht werden müssen, da die Studie nach unabhängiger Exposition durchgeführt wird Variablen, d.h. wenn ein Ereignis bereits eingetreten ist und dessen Folgen identifiziert werden müssen. In dieser Situation ist das optimale Design des Experiments ein Plan mit einer Kontrollgruppe und Tests nur nach der Exposition. Durch Randomisierung oder andere Verfahren, die eine optimale selektive Äquivalenz bieten, werden homogene Versuchs- und Kontrollgruppen von Probanden gebildet. Das Testen von Variablen wird nur nach experimenteller Exposition durchgeführt:

Beispiel. Im Jahr 1993 wurde im Auftrag des Forschungsinstituts für Radiologie eine Studie über die Wirkung einer Strahlenexposition auf die psychologischen Parameter einer Person durchgeführt 1 . Das Experiment wurde nach Plan 6 aufgebaut. Eine psychologische Untersuchung von 51 Liquidatoren zu den Folgen des Unfalls im Kernkraftwerk Tschernobyl wurde mit einer Reihe psychologischer Tests durchgeführt (Persönlichkeitsfragebögen, SAN (Health. Activity. Mood), Luscher Test etc.), EAF nach R. Voll (R. Voll) und das Automatisierte Situationsdiagnostische Spiel (ASID) „Test“. Die Kontrollstichprobe bestand aus 47 Spezialisten, die nicht an radiologischen Aktivitäten im Kernkraftwerk Tschernobyl teilnahmen. Das Durchschnittsalter der Probanden der Versuchs- und Kontrollgruppe betrug 33 Jahre. Die Probanden beider Stichproben waren hinsichtlich Erfahrung, Tätigkeitsart und Sozialisationsstruktur optimal korreliert, daher wurden die gebildeten Gruppen als gleichwertig anerkannt.

Machen wir eine theoretische Analyse des Plans, nach dem das Experiment aufgebaut wurde, und seiner Gültigkeit.

Hintergrund: kontrolliert, da in der Studie eine gleichwertige Kontrollprobe verwendet wurde.

natürliche Entwicklung: kontrolliert als Faktor des experimentellen Einflusses, da es keine Einmischung der Experimentatoren in den Prozess der Sozialisierung der Probanden gab.

Testeffekt: kontrolliert, da keine Vorabtestung der Probanden erfolgte.

Instrumentaler Fehler: Es wurde kontrolliert, da nach der Durchführung des Experiments eine vorläufige Überprüfung der Zuverlässigkeit der methodischen Instrumente und die Klärung ihrer normativen Indikatoren durchgeführt und die Verwendung derselben Art von „Testbatterie“ in der Kontroll- und Versuchsgruppe durchgeführt wurde.

Statistische Regression: wurde kontrolliert, indem das experimentelle Material an der gesamten zufällig gebildeten Probe ausgearbeitet wurde. Allerdings war die Validität dadurch gefährdet, dass keine vorläufigen Daten zur Zusammensetzung der Versuchsgruppen vorlagen, d.h. die Eintrittswahrscheinlichkeit und polare Variablen.

Auswahl der Testpersonen, wurde aufgrund der natürlichen Randomisierung nicht vollständig kontrolliert. Eine spezielle Themenauswahl wurde nicht durchgeführt. In zufälliger Reihenfolge wurden Gruppen aus den Teilnehmern an der Liquidierung des Unfalls im Kernkraftwerk Tschernobyl und Chemiespezialisten gebildet.

Screening von Testpersonen, war während des Versuchs nicht anwesend.

Wechselwirkung des Selektionsfaktors mit der natürlichen Entwicklung“, Es wurde keine besondere Auswahl getroffen. Diese Variable wurde kontrolliert.

Wechselwirkung von Gruppenzusammensetzung und experimentellem Einfluss“, Eine spezielle Themenauswahl wurde nicht durchgeführt. Sie wurden nicht darüber informiert, in welcher Studiengruppe (Experimental- oder Kontrollgruppe) sie sich befanden.

Die Reaktion der Probanden auf das Experiment, unkontrollierbarer Faktor in diesem Experiment.

Gegenseitige Beeinflussung (Überlagerung) experimenteller Einflüsse: wurde nicht kontrolliert, da nicht bekannt war, ob die Probanden an solchen Experimenten teilnahmen und wie sich dies auf die Ergebnisse psychologischer Tests auswirkte. Durch Beobachtung der Experimentatoren stellte sich heraus, dass die Einstellung zum Experiment im Allgemeinen negativ war. Es ist unwahrscheinlich, dass sich dieser Umstand positiv auf die externe Validität dieses Experiments ausgewirkt hat.

Versuchsergebnisse

  • 1. Es wurde eine Studie über die Verteilung empirischer Daten durchgeführt, die eine glockenförmige Form nahe der theoretischen Normalverteilungskurve hatten.
  • 2. Unter Verwendung des Student-t-Tests wurden die Mittelwerte Oj > 0 2 verglichen. Laut ASID "Test" und EAF unterschieden sich die Versuchs- und Kontrollgruppen signifikant in der Dynamik der emotionalen Zustände (bei den Liquidatoren - höher), der Wirksamkeit der kognitiven Aktivität (bei den Liquidatoren gab es eine Abnahme) sowie der Funktionsweise des Bewegungsapparates, der Leber, der Nieren etc. durch chronische endogene Intoxikation.
  • 3. Mit dem ^-Kriterium von Fisher wurde der Einfluss von "Fluktuationen" (Streuung der unabhängigen Variablen) berechnet X auf der Varianz der abhängigen Variablen 0 2 .

Als Abschluss dieser Studie wurden den Teilnehmern des Experiments und ihren Leitern geeignete Empfehlungen gegeben, die diagnostische Batterie psychologischer Tests validiert und psychophysiologische Faktoren identifiziert, die Menschen unter extremen radiologischen Bedingungen betreffen.

Somit stellt das experimentelle „Design“ 6 das optimale Schema für psychologische Forschung dar, wenn es nicht möglich ist, eine vorläufige Messung psychologischer Variablen vorzunehmen.

Aus dem Vorstehenden folgt, dass die Grundlage der experimentellen Methode in der Psychologie die sogenannten wahren Pläne sind, in denen fast alle Hauptfaktoren kontrolliert werden, die die interne Validität beeinflussen. Die Verlässlichkeit der Ergebnisse in Experimenten, die gemäß den Schemata 4–6 entworfen wurden, weckt bei der überwiegenden Mehrheit der Forscher keine Zweifel. Das Hauptproblem ist, wie bei allen anderen psychologischen Studien, die Bildung von Versuchs- und Kontrollstichproben von Probanden, die Organisation der Studie, die Suche nach und der Einsatz geeigneter Messinstrumente.

  • Das Symbol R im Schema zeigt an, dass die Homogenität der Gruppen durch Randomisierung erreicht wurde. Dieses Symbol kann bedingt sein, da die Homogenität der Kontroll- und Versuchsproben auf andere Weise sichergestellt werden kann (z. B. paarweise Auswahl, Vorversuche usw.). .). Der Wert des Korrelationskoeffizienten (0,16) zeigt eine schwache statistische Beziehung zwischen Messungen, d. h. es kann davon ausgegangen werden, dass sich die Daten geändert haben Die Messwerte nach der Exposition stimmen nicht mit den Messwerten vor der Exposition überein. EAF - Volls Methode (deutsch: Elektroakupunktur nach Voll, EAV) - ein Verfahren der elektrifizierten Schnelldiagnostik in der alternativen (alternativen) Medizin durch Messung des elektrischen Widerstands der Haut. Die Methode wurde 1958 in Deutschland von Dr. Reinold Voll entwickelt. Sie ist im Wesentlichen eine Kombination aus Akupunktur und der Verwendung eines Galvanometers.
  • Bewertung des psychologischen Status des Militärpersonals - Liquidatoren des Unfalls von Tschernobyl mit dem dynamischen Situationsspiel "Test" / I. V. Zakharov, O. S. Govoruha, I. II. Poss [et al.] // Military Medical Journal. 1994. Nr. 7. S. 42-44.
  • Forschung B.II. Ignatkin.