Der Prozess der Entwicklung operanten Verhaltens wird durch das Gesetz der Bereitschaft erleichtert. Theorie des operanten Lernens B.F.

Nach dieser Theorie sind die meisten Formen menschlichen Verhaltens willkürlich, d.h. operativ; sie werden mehr oder weniger wahrscheinlich, je nachdem, ob die Folgen günstig oder ungünstig sind. Entsprechend dieser Idee wurde die Definition formuliert.

Operantes (instrumentelles) Lernen Eine Art des Lernens, bei der die richtige Reaktion oder Verhaltensänderung verstärkt und wahrscheinlicher gemacht wird.

Diese Art des Lernens wurde von den amerikanischen Psychologen E. Thorndike und B. Skinner experimentell untersucht und beschrieben. Diese Wissenschaftler führten in das Lernschema die Notwendigkeit ein, die Ergebnisse der Übungen zu verstärken.

Das Konzept des operanten Lernens basiert auf dem Schema „Situation-Reaktion-Verstärkung“.

Der Psychologe und Pädagoge E. Thorndike führte als erstes Glied eine Problemsituation in das Lernschema ein, deren Ausweg von Versuch und Irrtum begleitet war und zu Zufallserfolgen führte.

Edward Lee Thorndike(1874–1949) – US-amerikanischer Psychologe und Pädagoge Recherche zum Tierverhalten in „Problemboxen“. Der Autor der Theorie des Lernens durch Versuch und Irrtum mit einer Beschreibung der sogenannten „Lernkurve“. Er formulierte eine Reihe bekannter Lerngesetze.

E. Thorndike führte ein Experiment mit hungrigen Katzen in Problemkäfigen durch. Ein in einen Käfig gesetztes Tier konnte nur durch Aktivieren einer speziellen Vorrichtung - Drücken einer Feder, Ziehen einer Schlaufe usw. - herauskommen und Top-Dressing erhalten. Die Tiere machten viele Bewegungen, eilten in verschiedene Richtungen, kratzten an der Kiste usw., bis eine der Bewegungen zufällig erfolgreich war. Mit jedem neuen Erfolg hat die Katze immer mehr Reaktionen, die zum Ziel führen, und immer weniger nutzlose.

Reis. 12. Problemzellen nach E. Thorndike

„Versuch, Irrtum und zufälliger Erfolg“ war die Formel für alle Arten von Verhalten, sowohl bei Tieren als auch bei Menschen. Thorndike schlug vor, dass dieser Prozess durch 3 Verhaltensgesetze bestimmt wird:

1)das Gesetz der Bereitschaft - Für die Bildung einer Fähigkeit im Körper muss ein Zustand vorhanden sein, der zur Aktivität drängt (z. B. Hunger);

2)gesetzliche Ausübung - Je öfter eine Aktion ausgeführt wird, desto öfter wird diese Aktion anschließend gewählt;

3)Gesetz der Wirkung - Die Aktion, die einen positiven Effekt hat („belohnt“), wird öfter wiederholt.

In Bezug auf die Probleme der Schulbildung und Erziehung definiert E. Thorndike "die Kunst des Lernens als die Kunst, Reize zu erzeugen und zu verzögern, um bestimmte Reaktionen hervorzurufen oder zu verhindern". Gleichzeitig können Reize Worte sein, die an das Kind gerichtet sind, ein Blick, ein Satz, den es lesen wird usw., und Antworten können neue Gedanken, Gefühle, Handlungen des Schülers, sein Zustand sein. Betrachten Sie diese Bestimmung am Beispiel der Entwicklung von Bildungsinteressen.



Das Kind hat durch seine eigene Erfahrung eine Vielzahl von Interessen. Die Aufgabe des Lehrers besteht darin, unter ihnen die „Guten“ zu sehen und auf deren Grundlage die für das Lernen notwendigen Interessen zu entwickeln. Der Lehrer wendet drei Wege an, um die Interessen des Kindes in die richtige Richtung zu lenken. Der erste Weg besteht darin, die geleistete Arbeit mit etwas Wichtigem für den Schüler zu verbinden, das ihm Zufriedenheit verschafft, beispielsweise mit der Position (Status) unter Gleichaltrigen. Die zweite besteht darin, den Mechanismus der Nachahmung zu nutzen: Ein Lehrer, der sich selbst für sein Fach interessiert, interessiert sich auch für die Klasse, in der er unterrichtet. Die dritte besteht darin, das Kind über solche Informationen zu informieren, die früher oder später das Interesse an dem Thema wecken werden.

Ein anderer bekannter Verhaltensforscher, B. Skinner, enthüllte die besondere Rolle der Verstärkung der richtigen Reaktion, die das „Entwerfen“ eines Auswegs aus der Situation und die Verpflichtung zur richtigen Reaktion beinhaltet (dies war eine der Grundlagen des programmierten Lernens). . Nach den Gesetzen des operanten Lernens wird Verhalten durch die darauf folgenden Ereignisse bestimmt. Wenn die Folgen günstig sind, steigt die Wahrscheinlichkeit, das Verhalten in der Zukunft zu wiederholen. Wenn die Folgen ungünstig sind und nicht verstärkt werden, sinkt die Wahrscheinlichkeit des Verhaltens. Verhalten, das nicht zum gewünschten Effekt führt, wird nicht erlernt. Sie werden bald aufhören, eine Person anzulächeln, die nicht zurücklächelt. Weinen lernt man in einer Familie mit kleinen Kindern. Weinen wird zu einem Mittel, um Erwachsene zu beeinflussen.

Das Herzstück dieser Theorie, wie auch der Pawlowschen, ist der Mechanismus zur Herstellung von Verbindungen (Assoziationen). Operantes Lernen basiert ebenfalls auf den Mechanismen konditionierter Reflexe. Dies sind jedoch bedingte Reflexe anderer Art als die klassischen. Skinner nannte diese Reflexe operativ oder instrumental. Ihre Besonderheit besteht darin, dass Aktivität nicht erst durch ein Signal von außen, sondern durch ein Bedürfnis von innen erzeugt wird. Diese Aktivität hat einen chaotischen Zufallscharakter. Dabei werden nicht nur angeborene Reaktionen mit konditionierten Signalen in Verbindung gebracht, sondern beliebige zufällige Handlungen, die eine Belohnung erhielten. Beim klassischen bedingten Reflex wartet das Tier sozusagen passiv darauf, was ihm angetan wird, beim operanten Reflex sucht das Tier selbst aktiv nach der richtigen Handlung, und wenn es sie findet, lernt es sie.

Die Technik der Entwicklung "operanter Reaktionen" wurde von Skinners Anhängern bei der Erziehung von Kindern, ihrer Erziehung und bei der Behandlung von Neurotikern verwendet. Während des Zweiten Weltkriegs arbeitete Skinner an einem Projekt, bei dem Tauben zur Bekämpfung von Flugzeugfeuer eingesetzt wurden.

Nachdem B. Skinner einmal eine Rechenstunde am College besucht hatte, wo seine Tochter studierte, war er entsetzt darüber, wie wenig die Daten der Psychologie verwendet werden. Um den Unterricht zu verbessern, erfand er eine Reihe von Lehrmaschinen und entwickelte das Konzept des programmierten Lernens. Er hoffte, basierend auf der Theorie der operanten Reaktionen, ein Programm zur „Herstellung“ von Menschen für eine neue Gesellschaft zu schaffen.


Psychologische Konzepte - Lernen, Training, Lehren - beschreiben eine breite Palette von Phänomenen, die mit dem Erwerb von Erfahrungen, Kenntnissen, Fertigkeiten und Fähigkeiten im Prozess der aktiven Beziehung des Subjekts zur objektiven und sozialen Welt verbunden sind - in Verhalten, Aktivität, Kommunikation.

Wenn es um das Lernen geht, hat der Forscher folgende Aspekte dieses Prozesses im Auge:

allmähliche Veränderung;

Die Rolle der Übung;

Die Spezifität des Lernens im Vergleich zu den angeborenen Merkmalen des Individuums.

Typischerweise bezeichnen die Begriffe Lernen und Lernen den Prozess des Erwerbs individueller Erfahrungen, während der Begriff „Lernen“ sowohl den Prozess selbst als auch sein Ergebnis beschreibt.
Lernen (Training, Lehren) ist also der Prozess, sich neue Arten der Ausführung von Verhalten und Aktivitäten durch das Subjekt anzueignen, sie zu fixieren und/oder zu modifizieren. Die durch diesen Prozess eintretende Veränderung der psychischen Strukturen bietet die Möglichkeit zur weiteren Verbesserung der Aktivität.
Klassische Lernkonzepte sind bekannt. Dies ist zum Beispiel die Lehre von I.P. Pavlov (1849-1936) über die Bildung bedingter Reflexe. Als Ergebnis einer oder mehrerer Präsentationen eines indifferenten Begrenzers (konditionierter Reiz), gefolgt von einem unbedingten Reiz (Nahrung), der eine unbedingte, angeborene Reaktion (Speichelfluss) hervorruft, beginnt der indifferente Reiz selbst eine Reaktion hervorzurufen. Beim Aufbau einer temporären Verbindung übernimmt der unbedingte Reiz die Funktion der Verstärkung, der konditionierte Reiz fungiert als Signalwert und der Reflex trägt zur Anpassung des Organismus an veränderte Umweltbedingungen bei.
Erstmals wurden die durch experimentelle Methoden etablierten Lernmuster im Rahmen des Behaviorismus etabliert. Diese Muster oder „Lerngesetze“ wurden von E. Thorndike formuliert und von C. Hull, E. Tolman und E. Gasri ergänzt und modifiziert.

Sie sind:

Das Gesetz der Bereitschaft: Je stärker das Bedürfnis, desto erfolgreicher das Lernen. Das Gesetz wird auf der Grundlage der Herstellung eines Zusammenhangs zwischen Bedürfnis und Lernen abgeleitet.

Gesetz der Wirkung: Verhalten, das zu einer positiven Wirkung führt, führt zu einer Verringerung des Bedarfs und wird daher wiederholt.

Gesetz der Übung: Wenn andere Dinge gleich sind, erleichtert das Wiederholen einer bestimmten Aktion die Ausführung eines Verhaltens und führt zu einer schnelleren Ausführung und einer geringeren Wahrscheinlichkeit, Fehler zu machen. Später zeigte Thorndike, dass Wiederholung nicht immer zur Vereinfachung einer Fertigkeit beiträgt, obwohl dieser Faktor beim motorischen Lernen sehr wichtig ist und zur Verhaltensänderung beiträgt.

Das Gesetz der Aktualität: Das Material, das am Ende der Serie präsentiert wird, lässt sich besser einprägen. Dieses Gesetz widerspricht dem Effekt des Primats – der Tendenz, sich den Stoff, der zu Beginn des Lernprozesses präsentiert wird, besser einzuprägen. Der Widerspruch wird aufgehoben, wenn das Gesetz „Randwirkung“ formuliert wird. Die U-förmige Abhängigkeit des Einprägungsgrades des Stoffes von seinem Platz im Lernprozess spiegelt diesen Effekt wider und wird als „Positionskurve“ bezeichnet.

Korrespondenzgesetz: Es besteht eine proportionale Beziehung zwischen der Wahrscheinlichkeit einer Reaktion und der Wahrscheinlichkeit einer Verstärkung.

Wenden wir uns nun den Lerntheorien der Persönlichkeitspsychologie zu.
Theorien basieren auf zwei Annahmen:

1. Alle Verhaltensweisen werden im Lernprozess erworben.

2. Um beim Testen von Hypothesen wissenschaftliche Strenge zu wahren, ist es notwendig, den Grundsatz der Objektivität von Daten zu beachten. Als manipulierbare Variablen werden äußere Ursachen (Nahrungsbelohnung) gewählt, im Gegensatz zu „inneren“ Variablen in psychodynamischer Richtung (Instinkte, Abwehrmechanismen, Selbstkonzept), die nicht manipulierbar sind.

In den Lerntheorien (I. P. Pavlov) wird Anpassung als Analogon zur menschlichen Entwicklung betrachtet. Sie kann auf unterschiedliche Weise erfolgen, beispielsweise durch klassische Pawlowsche Konditionierung.

Dabei wurden wichtige Phänomene untersucht:

Generalisierung – eine konditionierte Reaktion auf einen anfänglich neutralen Reiz erstreckt sich auf andere Reize, die dem konditionierten Reiz ähnlich sind (Angst, die bei einem bestimmten Hund auftaucht, breitet sich dann auf alle Hunde aus).

Differenzierung - eine spezifische Reaktion auf ähnliche Reize, die sich im Verstärkungsgrad unterscheiden (z. B. Differenzierung von Reaktionen auf einen Kreis und eine Ellipse).

Extinktion - die Zerstörung der Verbindung zwischen dem konditionierten Reiz und der Reaktion, wenn sie nicht von einer Verstärkung begleitet wird.

Ein typisches Experiment bestand darin, den Hund festzuschnallen, um seine Bewegung einzuschränken, und dann das Licht einzuschalten. 30 Sekunden nachdem das Licht eingeschaltet wurde, wurde dem Hund etwas Futter ins Maul gegeben, was zu Speichelfluss führte. Die Kombination aus Licht und Essen wurde mehrmals wiederholt. Nach einiger Zeit begann das Licht, das zunächst als indifferenter Reiz wirkte, selbst eine Speichelreaktion hervorzurufen.
Ebenso ist es möglich, konditionierte Abwehrreaktionen auf anfänglich neutrale Reize zu entwickeln. In den frühen Studien zur defensiven Konditionierung wurde ein Hund an einem Geschirr befestigt, um ihn in einer Kiste zu halten, und Elektroden wurden an seiner Pfote befestigt. Das Anlegen eines elektrischen Stroms (ein unbedingter Reiz) an die Pfote verursachte ein Zurückziehen der Pfote (ein unbedingter Reflex), was eine Reflexreaktion des Tieres war. Läutete die Glocke unmittelbar vor dem Stromschlag mehrmals, so konnte das Geräusch selbst nach und nach einen abwehrenden Pfotenrückzugsreflex auslösen.
Gemäß der Terminologie von I.P. Pavlova, Essen (oder Elektroschock) waren unkonditionierte Reize, und Licht (oder Ton) war konditioniert. Speicheln (oder Zurückziehen der Pfote) beim Erscheinen von Nahrung (oder Elektroschock) wurde als unbedingter Reflex bezeichnet, und Speicheln beim Einschließen eines Lichts (oder Zurückziehen einer Pfote bei einem Geräusch) wurde als bedingter Reflex bezeichnet. Die Reaktionen, die Pavlov untersuchte, wurden reziprok oder antwortend genannt, da sie automatisch nach bekannten Reizen (Nahrung, Elektroschock) auftraten. Führend im Modell I.P. Pavlova ist ein Stimulus, dessen Manipulation zur Entstehung neuer Verhaltensformen führt.
Die klassische Konditionierung ist also ein Prozess, der von I.P. Pavlov, dank dessen ein anfänglich neutraler Reiz aufgrund seiner assoziativen Verbindung mit einem Reiz, der automatisch dieselbe oder eine ähnliche Reaktion hervorruft, eine Reaktion hervorruft.
Die von B.F. Skinner (1904-1990) wird als Theorie der operanten Konditionierung bezeichnet. Er sagte, dass ein Wissenschaftler wie jeder andere Organismus das Produkt einer einzigartigen Geschichte ist. Welchen Bereich er für sich bevorzugt auswählt, hängt zum Teil von seinem persönlichen Hintergrund ab.
Skinners Interesse an der Entstehung und Veränderung von Verhalten entstand nach Bekanntschaft mit der Arbeit von I.P. Pavlov "Conditioned Reflexes" und ein Artikel (kritisch in seiner Ausrichtung) von Bertrand Russell. Die Artikel des letzteren entfremdeten nicht nur nicht die Ideen Pawlows, sondern verstärkten im Gegenteil ihren Einfluss.
Skinners Ziel war es, die Lernmechanismen bei Menschen und Tieren (Ratten und Tauben) auf der Grundlage einer begrenzten Anzahl von Grundprinzipien zu erklären. Die Hauptidee war, die Umgebung zu verwalten, zu kontrollieren und gleichzeitig geordnete Änderungen vorzunehmen. Er sagte: "Überprüfe die Bedingungen (Umgebung), und die Ordnung wird dir offenbart."

Definition von operante Konditionierung

Der Lernvorgang wird als „operante Konditionierung“ bezeichnet. Es bestand in dem Wunsch des Experimentators, durch Verstärkung - Ermutigung oder Bestrafung - eine Verbindung zwischen dem Reiz (S) und der Reaktion (R) herzustellen. Im Stimulus-Response-Schema (S-R) war der Schlüssel für Skinner genau die Reaktion. Reaktionen wurden unter dem Gesichtspunkt der Einfachheit-Komplexität betrachtet. Einfach - Speichelfluss, Handrückzug; schwierig - Lösen eines mathematischen Problems, aggressives Verhalten.
Operante Konditionierung ist der Prozess, durch den die Eigenschaften einer Reaktion durch die Folgen dieser Reaktion bestimmt werden.
Weiterhin unterschied Skinner (1) Reaktionen, die durch bestimmte Stimuli verursacht werden (Ziehen der Hand von einem heißen Gegenstand) – in diesem Fall ist die Verbindung zwischen dem Stimulus und der Reaktion unbedingt; und (2) Reaktionen, die nicht direkt mit dem Stimulus zusammenhängen. Letztere Reaktionen werden vom Organismus selbst produziert und werden als Operanten bezeichnet. Skinner glaubte, dass Reize an sich ein Individuum nicht dazu zwingen, auf sie zu reagieren. Die Ursache liegt im Körper selbst. In jedem Fall tritt das Verhalten ohne Einwirkung eines besonderen Reizes auf. Die Umsetzung des operanten Verhaltens liegt in der biologischen Natur des Organismus. Skinner betrachtete das Lernen als einen Prozess. Kein (besonders komplexer) Operant erscheint sofort. Der Prozess ist die Ermutigung des operanten Verhaltens des Tieres. Eine Belohnung oder Bestrafung ist ein Verstärker oder Stimulus, der einer Reaktion folgt und die Wahrscheinlichkeit ihres Auftretens erhöht. Wenn eine Taube mit ihrem Schnabel auf die Scheibe stößt (oder eine Ratte mit ihrer Pfote auf einen Hebel drückt), handelt es sich um ein operantes Verhalten, bei dem, wenn es von einer Verstärkung begleitet wird, die Wahrscheinlichkeit einer Wiederholung steigt. „Die operante Konditionierung formt das Verhalten auf die gleiche Weise, wie ein Bildhauer eine Figur aus Ton formt. Obwohl der Bildhauer irgendwann ein völlig neues Objekt zu schaffen scheint, können wir immer zum Anfang des Prozesses zurückkehren, zum ursprünglichen undifferenzierten Rohling und wählen Sie willkürlich kleine Schritte oder aufeinanderfolgende Stufen aus, nach denen Sie den gewünschten Zustand erreichen können. In keinem einzigen Moment kann etwas erscheinen, das sich sehr von dem unterscheidet, was ihm vorausgegangen ist ... Ein Operant ist nicht etwas, das bereits vollständig im Verhalten erscheint Das ist das Ergebnis eines kontinuierlichen Formungsprozesses“ (zitiert nach: Pervin L., John O. Psychology of Personality. Theory and Research. M., 2000. S. 350).

Prinzipien der operanten Konditionierung

Verstärkung ist eines der Prinzipien der Konditionierung. Bereits im Säuglingsalter, so Skinner, lässt sich menschliches Verhalten mit Hilfe von verstärkenden Reizen regulieren. Es gibt zwei verschiedene Arten von Verstärkungen. Einige, wie das Essen oder das Beseitigen von Schmerzen, werden als primäre Verstärker bezeichnet, weil sie es sind sie haben eine natürliche Verstärkungskraft. Andere Verstärker (Lächeln, Aufmerksamkeit eines Erwachsenen, Anerkennung, Lob) sind konditionierte Verstärker. Sie werden zu solchen durch häufige Kombination mit primären Verstärkungen.
Die operante Konditionierung beruht hauptsächlich auf positiver Verstärkung, d.h. auf die Folgen von Reaktionen, die sie unterstützen oder verstärken, z. B. Essen, finanzielle Belohnungen, Lob. Trotzdem betont Skinner die Bedeutung der negativen Verstärkung, die zum Auslöschen der Reaktion führt. Solche verstärkenden Reize können körperliche Bestrafung, moralische Beeinflussung, psychischer Druck sein. Bei der Bestrafung folgt der unangenehme Reiz der Reaktion, wodurch die Wahrscheinlichkeit verringert wird, dass die Reaktion erneut auftritt. Skinner beklagte, dass Bestrafung „die in der modernen Welt am weitesten verbreitete Technik zur Verhaltenskontrolle ist. Das Schema ist jedem bekannt: Wenn sich ein Mann nicht so verhält, wie Sie es möchten, schlagen Sie ihn mit der Faust; wenn sich ein Kind schlecht benimmt, verprügeln Sie ihn. wenn sich Menschen in einem anderen Land schlecht verhalten, werfen Sie eine Bombe auf sie“ (zitiert in: Crane W. Secrets of Personality Formation. St. Petersburg: Prime-Eurosign, 2002. S. 241).
Neben der Verstärkung ist das Prinzip der Konditionierung ihre Unmittelbarkeit. Es wurde festgestellt, dass es in der Anfangsphase des Experiments nur möglich ist, die Reaktion auf das höchste Niveau zu bringen, wenn sie sofort verstärkt wird. Andernfalls wird die Reaktion, die sich zu bilden begann, schnell verblassen.
Sowohl bei der operanten als auch bei der antwortenden Konditionierung wird eine Verallgemeinerung von Stimuli beobachtet. Generalisierung ist eine assoziative Verbindung einer im Prozess der Konditionierung entstandenen Reaktion mit Reizen, die denen ähneln, auf die sich der konditionierte Reflex ursprünglich entwickelt hat. Beispiele für Verallgemeinerungen sind die Angst vor allen Hunden, die durch den Angriff eines einzelnen Hundes entstanden ist, die positive Reaktion des Kindes (Lächeln, Aussprechen des Wortes "Papa", Bewegen auf ein Treffen usw.) für alle Männer ähnlich wie sein Vater.
Die Entstehung einer Reaktion ist ein Prozess. Die Reaktion entsteht nicht sofort und plötzlich, sie nimmt allmählich Gestalt an, da eine Reihe von Verstärkungen durchgeführt werden. Sequenzielle Verstärkung ist die Entwicklung komplexer Handlungen durch Verstärkung von Handlungen, die der endgültigen Verhaltensform, die gebildet werden sollte, allmählich immer ähnlicher werden. Kontinuierliches Verhalten entsteht im Prozess der Verstärkung einzelner Verhaltenselemente, die sich zu komplexen Handlungen summieren. Diese. eine Reihe anfänglich erlernter Handlungen in der endgültigen Form wird als ganzheitliches Verhalten wahrgenommen.
Der Prozess selbst wird durch das sogenannte Verstärkungsregime unterstützt. Verstärkungsschema – Prozentsatz und Intervall der Verstärkungsreaktionen. Um Verstärkungsprogramme zu untersuchen, erfand Skinner die Skinner-Box, durch die er das Verhalten von Tieren beobachtete. Schematisch sieht das so aus:
S1 - R - S2,
wo S1 - Hebel;
R - Drücken des Hebels;
S2 - Nahrung (Verstärkung).
Das Verhalten wird durch sich ändernde Umgebungsbedingungen (oder Verstärkung) gesteuert. Sie können beispielsweise gegeben werden (1) nach einer bestimmten Zeit, unabhängig von der Anzahl der Reaktionen; (2) durch eine bestimmte Anzahl von Reaktionen (Drücken des Hebels) usw.

Verstärkungsmodi

Die folgenden Arten der Verstärkung wurden identifiziert: kontinuierliche Verstärkung – die Darbietung von Verstärkung jedes Mal, wenn das Subjekt die gewünschte Antwort gibt; intermittierende oder teilweise Verstärkung.
Für eine strengere Klassifizierung von Verstärkungsregimen wurden zwei Parameter unterschieden - temporäre Verstärkung und proportionale Verstärkung. Im ersten Fall werden sie erst verstärkt, wenn der Zeitraum abgelaufen ist, in dem die entsprechende Tätigkeit ausgeführt werden musste, im zweiten Fall werden sie für den Arbeitsaufwand (Anzahl der Aktionen) verstärkt, der hätte ausgeführt werden müssen.

Basierend auf den beiden Parametern wurden vier Arten der Verstärkung beschrieben:

1. Verstärkungsmodus mit konstantem Verhältnis. Die Verstärkung erfolgt gemäß der festgelegten Anzahl (Volumen) von Reaktionen. Ein Beispiel für ein solches Regime könnte der Lohn für eine bestimmte, konstante Menge an Arbeit sein. Beispielsweise eine Vergütung an einen Übersetzer für die Anzahl der übersetzten Zeichen oder an eine Schreibkraft für die Menge an gedrucktem Material.

2. Verstärkungsmodus mit konstantem Intervall. Eine Verstärkung erfolgt erst, wenn ein fest festgelegtes, festgelegtes Zeitintervall verstrichen ist. Zum Beispiel Monats-, Wochen-, Stundenlohn, Erholung nach schwerer körperlicher oder geistiger Arbeit.

3. Verstärkungsregime mit variablem Verhältnis. In diesem Modus wird der Körper auf der Grundlage einer bestimmten Anzahl von Reaktionen im Durchschnitt gestärkt. Der Kauf von Lottoscheinen kann beispielsweise ein Beispiel dafür sein, wie dieses Verstärkungsprogramm funktioniert. In diesem Fall bedeutet der Kauf eines Tickets, dass es mit einer gewissen Wahrscheinlichkeit zu einem Gewinn kommen kann. Die Wahrscheinlichkeit steigt, wenn nicht ein, sondern mehrere Tickets gekauft werden. Das Ergebnis ist jedoch im Prinzip wenig vorhersehbar und instabil, und eine Person schafft es selten, das in den Kauf von Tickets investierte Geld zurückzugeben. Die Ungewissheit des Ergebnisses und die Erwartung einer großen Auszahlung führen jedoch zu einer sehr langsamen Dämpfung der Reaktion und zum Erlöschen des Verhaltens.

4. Verstärkungsschema mit einem variablen Intervall. Das Individuum wird verstärkt, nachdem ein unbestimmtes Intervall vergangen ist. Ähnlich wie beim Verstärkungssystem mit konstanten Intervallen ist die Verstärkung in diesem Fall zeitabhängig. Das Zeitintervall ist beliebig. Kurze Intervalle führen in der Regel zu hohen Rücklaufquoten, während lange Intervalle zu niedrigen Rücklaufquoten führen. Dieser Modus wird im Bildungsprozess verwendet, wenn die Bewertung des Leistungsniveaus unregelmäßig durchgeführt wird.

Skinner sprach über die Individualität der Verstärkung, über die Variabilität in der Entwicklung einer bestimmten Fähigkeit bei verschiedenen Menschen sowie bei verschiedenen Tieren. Darüber hinaus ist die Verstärkung selbst insofern einzigartig, als sie Es ist unmöglich, mit Sicherheit zu sagen, dass eine bestimmte Person oder ein bestimmtes Tier als Verstärkung fungieren kann.

Persönliches Wachstum und Entwicklung

Während sich das Kind entwickelt, werden seine Reaktionen verinnerlicht und bleiben unter der Kontrolle verstärkender Einflüsse aus der Umwelt. In Form von verstärkenden Einflüssen sind - Essen, Lob, emotionale Unterstützung usw. Die gleiche Idee wird von Skinner in dem Buch "Verbal Behavior" (1957) vorgestellt. Er glaubt, dass die Sprachbeherrschung nach den allgemeinen Gesetzen der operanten Konditionierung erfolgt. Das Kind erhält Verstärkung, indem es bestimmte Laute ausspricht. Verstärkung ist nicht Nahrung oder Wasser, sondern die Zustimmung und Unterstützung von Erwachsenen.
1959 äußerte sich der bekannte amerikanische Linguist N. Chomsky kritisch zu Skinners Konzept. Er leugnete die besondere Rolle der Verstärkung im Verlauf des Spracherwerbs und kritisierte Skinner dafür, die syntaktischen Regeln zu vernachlässigen, die für das Verständnis von Sprachkonstrukten eine Rolle spielen. Er glaubte, dass das Erlernen der Regeln keinen speziellen Bildungsprozess erfordert, sondern dank eines angeborenen, spezifischen Sprachmechanismus erreicht wird, der als "Mechanismus der Sprachbeherrschung" bezeichnet wird. Sprachbeherrschung entsteht also nicht durch Lernen, sondern durch natürliche Entwicklung.

Psychopathologie

Aus lernpsychologischer Sicht braucht man die Erklärung der Krankheitssymptome nicht in verborgenen Ursachen zu suchen. Pathologie ist laut Behaviorismus keine Krankheit, sondern entweder (1) das Ergebnis einer nicht erlernten Reaktion oder (2) einer erlernten maladaptiven Reaktion.

(1) Eine verlernte Reaktion oder ein Verhaltensdefizit resultieren aus einem Mangel an Verstärkung bei der Entwicklung der notwendigen Fertigkeiten und Fähigkeiten. Depression wird auch als Folge eines Mangels an Verstärkung angesehen, um die notwendigen Reaktionen zu bilden oder sogar aufrechtzuerhalten.

(2) Eine nicht-adaptive Reaktion ist das Ergebnis der Assimilation einer Handlung, die für die Gesellschaft nicht akzeptabel ist, die nicht den Verhaltensnormen entspricht. Dieses Verhalten tritt als Folge der Verstärkung einer unerwünschten Reaktion oder als Ergebnis eines zufälligen Zusammentreffens von Reaktion und Verstärkung auf.

Die Verhaltensänderung basiert auch auf den Prinzipien der operanten Konditionierung, auf einem System der Verhaltensänderung und der damit verbundenen Verstärkung.
A. Verhaltensänderungen können durch Selbstbeherrschung entstehen.

Selbstkontrolle umfasst zwei voneinander abhängige Reaktionen:

1. Eine Kontrollreaktion, die sich auf die Umwelt auswirkt, indem sie die Wahrscheinlichkeit sekundärer Reaktionen verändert („Entzug“, um „Wut“ nicht auszudrücken; Nahrungsentzug, um übermäßiges Essen abzugewöhnen).

2. Eine Kontrollreaktion, die auf das Vorhandensein von Reizen in der Situation abzielt, die das gewünschte Verhalten wahrscheinlicher machen können (das Vorhandensein einer Tabelle für die Umsetzung des Bildungsprozesses).

B. Verhaltensänderungen können auch als Ergebnis einer Verhaltensberatung auftreten. Ein Großteil dieser Art von Beratung basiert auf den Prinzipien des Lernens.
Wolpe definiert Verhaltenstherapie als Konditionierungstherapie, bei der durch Experimentieren formulierte Lernprinzipien verwendet werden, um unangemessenes Verhalten zu ändern. Unangemessene Gewohnheiten werden geschwächt und beseitigt; adaptive Gewohnheiten hingegen werden eingeführt und verstärkt.

Ziele der Beratung:

1) Unangemessenes Verhalten ändern.

2) Entscheidungsfindung im Unterricht.

3) Vermeidung von Problemen durch Antizipieren der Ergebnisse des Verhaltens.

4) Beseitigen Sie das Defizit im Verhaltensrepertoire.

Phasen der Beratung:

1) Verhaltensbewertung, Sammlung von Informationen über erworbene Handlungen.

2) Entspannungsverfahren (muskulär, verbal usw.).

3) Systematische Desensibilisierung - die Verbindung von Entspannung mit dem Bild, das Angst verursacht.

4) Durchsetzungstraining

5) Verstärkungsverfahren.

Vor- und Nachteile von Lerntheorien

Vorteile:

1. Der Wunsch nach strengem Testen von Hypothesen, Experimenten, Kontrolle zusätzlicher Variablen.

2. Anerkennung der Rolle von Situationsvariablen, Umweltparametern und deren systematische Untersuchung.

3. Der pragmatische Therapieansatz hat wichtige Verfahren zur Verhaltensänderung hervorgebracht.

Mängel:

1. Reduktionismus - Reduktion der an Tieren gewonnenen Verhaltensprinzipien auf die Analyse menschlichen Verhaltens.

2. Eine geringe externe Validität wird durch die Durchführung von Experimenten unter Laborbedingungen verursacht, deren Ergebnisse schwer auf natürliche Bedingungen zu übertragen sind.

3. Ignorieren kognitiver Prozesse bei der Analyse von S-R-Beziehungen.

4. Große Lücke zwischen Theorie und Praxis.

5. Die Verhaltenstheorie liefert keine stabilen Ergebnisse.



Burres Frederick Skinner war einer der berühmtesten Psychologen seiner Zeit. Er war es, der an den Ursprüngen der Richtung stand, die heute in der Wissenschaft als Behaviorismus bezeichnet wird. Noch heute spielt seine Lerntheorie eine wichtige Rolle in Psychologie, Pädagogik und Management.

Wissenschaftlerexperimente

Skinners Theorie ist in einem seiner Hauptwerke mit dem Titel The Behaviour of Organisms detailliert beschrieben. Darin skizziert der Wissenschaftler die Prinzipien der sogenannten operanten Konditionierung. Der einfachste Weg, diese Prinzipien zu verstehen, besteht darin, sich eines der typischsten Experimente eines Wissenschaftlers anzusehen. Das Gewicht der Ratte wurde auf 80–90 % des Normalgewichts reduziert. Es wird in ein spezielles Gerät gelegt, das als Skinner-Box bezeichnet wird. Es bietet die Möglichkeit, nur die Aktionen auszuführen, die der beobachtende Experimentator sehen und steuern kann.

Die Box hat eine Öffnung, durch die dem Tier Futter zugeführt wird. Um Futter zu bekommen, muss die Ratte den Hebel drücken. Dieses Drücken wird in Skinners Theorie als operante Reaktion bezeichnet. Wie die Ratte es schafft, diesen Hebel zu drücken – mit einer Pfote, einer Nase oder vielleicht einem Schwanz – spielt keine Rolle. Die operative Reaktion im Experiment bleibt dieselbe, da sie nur eine Folge hat: Die Ratte bekommt Futter. Indem der Forscher das Tier für eine bestimmte Anzahl von Belastungen mit Futter belohnt, bildet er stabile Reaktionsweisen im Tier aus.

Verhaltensbildung nach Skinner

Eine operative Reaktion in Skinners Theorie ist eine willkürliche und zielgerichtete Aktion. Aber Skinner definiert diese Zielstrebigkeit als Feedback. Mit anderen Worten, das Verhalten wird durch bestimmte Folgen des Tieres beeinflusst.

Skinner stimmte mit den Ansichten der Wissenschaftler Watson und Thornadike über die duale Natur der geistigen Entwicklung überein. Sie glaubten, dass die Bildung der Psyche von zwei Arten von Faktoren beeinflusst wird - sozialen und genetischen. Operantes Lernen verstärkt bestimmte Operationen, die vom Subjekt ausgeführt werden. Mit anderen Worten, genetische Daten sind die Grundlage, auf der gesellschaftlich bestimmtes Verhalten aufbaut. Daher ist Entwicklung, so glaubte Skinner, ein Lernen aufgrund bestimmter Umweltreize.

Skinner glaubte auch, dass es nicht nur zur Kontrolle des Verhaltens anderer Subjekte, sondern auch in Bezug auf das eigene Verhalten verwendet werden könnte. Selbstkontrolle kann erreicht werden, indem besondere Bedingungen geschaffen werden, unter denen das gewünschte Verhalten verstärkt wird.

positive Verstärkung

Operantes Lernen in Skinners Verstärkungstheorie basiert auf den aktiven Aktionen des Subjekts ("Operationen"), die in einer bestimmten Umgebung ausgeführt werden. Wenn eine bestimmte spontane Handlung nützlich wird, um ein bestimmtes Bedürfnis zu erfüllen oder ein Ziel zu erreichen, wird sie durch ein positives Ergebnis verstärkt. Zum Beispiel kann eine Taube eine komplexe Aktion lernen - Ping-Pong spielen. Aber nur, wenn dieses Spiel zu einem Mittel wird, um Nahrung zu bekommen. Belohnung wird in Skinners Theorie Verstärkung genannt, weil sie das am meisten erwünschte Verhalten verstärkt.

Konsequente und proportionale Verstärkung

Aber eine Taube kann nicht lernen, Ping-Pong zu spielen, es sei denn, der Experimentator weist ihr dieses Verhalten durch diskriminierendes Lernen bei. Das bedeutet, dass die individuellen Aktionen der Taube durch den Wissenschaftler konsequent gezielt verstärkt werden. In der Theorie von B. F. Skinner kann Verstärkung entweder zufällig verteilt sein, in bestimmten Zeitintervallen auftreten, oder in bestimmten Anteilen auftreten. Belohnung, die zufällig in Form von regelmäßigen Geldpreisen verteilt wird, provoziert bei Menschen Spielsucht. Ein in regelmäßigen Abständen auftretender Anreiz – ein Gehalt – trägt dazu bei, dass eine Person in einem bestimmten Dienst verbleibt.

Die proportionale Belohnung in Skinners Theorie ist ein so starker Verstärker, dass sich die Tiere in seinen Experimenten praktisch zu Tode prügeln, wenn sie versuchen, schmackhafteres Futter zu verdienen. Im Gegensatz zur Verhaltensverstärkung ist Bestrafung ein negativer Verstärker. Bestrafung kann kein neues Verhaltensmuster lehren. Es bewirkt nur, dass das Subjekt ständig bestimmte Operationen vermeidet, gefolgt von einer Bestrafung.

Bestrafung

Die Anwendung von Bestrafung hat tendenziell negative Nebenwirkungen. In Skinners Lerntheorie werden folgende Bestrafungsfolgen angegeben: hohe Angst, Feindseligkeit und Aggressivität, Rückzug auf sich selbst. Manchmal zwingt eine Bestrafung eine Person dazu, sich nicht mehr auf eine bestimmte Weise zu verhalten. Sein Nachteil ist jedoch, dass es nicht zur Bildung eines positiven Verhaltens beiträgt.

Die Bestrafung zwingt das Subjekt oft dazu, das unerwünschte Verhalten nicht aufzugeben, sondern es nur in eine verborgene Form umzuwandeln, die nicht bestraft wird (z. B. Alkoholkonsum bei der Arbeit). Natürlich gibt es viele Fälle, in denen Bestrafung die einzige Möglichkeit zu sein scheint, sozial gefährliches Verhalten zu unterdrücken, das das Leben oder die Gesundheit anderer Menschen bedroht. Aber in gewöhnlichen Situationen ist Bestrafung ein unwirksames Mittel der Beeinflussung und sollte möglichst vermieden werden.

Vor- und Nachteile von Skinners Operant-Learning-Theorie

Betrachten Sie die wichtigsten Vor- und Nachteile von Skinners Konzept. Seine Vorteile sind wie folgt:

  • Strenge Überprüfung von Hypothesen, Kontrolle zusätzlicher Faktoren, die das Experiment beeinflussen.
  • Erkennen der Bedeutung von Situationsfaktoren, Parametern der äußeren Umgebung.
  • Ein pragmatischer Ansatz, der die Schaffung effektiver psychotherapeutischer Verfahren zur Verhaltenstransformation ermöglichte.

Nachteile von Skinners Theorie:

  • Reduktionismus. Das von Tieren gezeigte Verhalten wird vollständig auf die Analyse menschlichen Verhaltens reduziert.
  • Geringe Validität aufgrund von Laborexperimenten. Die Ergebnisse von Experimenten lassen sich nur schwer auf die natürliche Umwelt übertragen.
  • Den kognitiven Prozessen bei der Bildung eines bestimmten Verhaltenstyps wird keine Aufmerksamkeit geschenkt.
  • Skinners Theorie liefert in der Praxis keine stabilen, nachhaltigen Ergebnisse.

Motivationskonzept

Skinner schuf auch die Motivationstheorie. Seine Hauptidee ist, dass der Wunsch, diese oder jene Aktion zu wiederholen, auf die Folgen dieser Aktion in der Vergangenheit zurückzuführen ist. Das Vorhandensein bestimmter Anreize bewirkt bestimmte Aktionen. Wenn die Folgen eines bestimmten Verhaltens positiv sind, wird sich das Subjekt in einer ähnlichen Situation in Zukunft ähnlich verhalten.

Sein Verhalten wird sich wiederholen. Aber wenn die Folgen einer bestimmten Strategie negativ sind, wird er in Zukunft entweder auf bestimmte Anreize nicht reagieren oder seine Strategie ändern. Skinners Motivationstheorie läuft darauf hinaus, dass die mehrfache Wiederholung bestimmter Ergebnisse zur Herausbildung einer spezifischen Verhaltenseinstellung des Subjekts führt.

Persönlichkeit und das Konzept des Lernens

Aus Skinners Sicht ist Persönlichkeit die Erfahrung, die ein Individuum im Laufe des Lebens erwirbt. Anders als beispielsweise Freud halten es die Befürworter des Lernkonzepts nicht für notwendig, über die im menschlichen Geist verborgenen mentalen Prozesse nachzudenken. Persönlichkeit in Skinners Theorie ist ein Produkt, das zum größten Teil durch äußere Faktoren geformt wird. Es ist das soziale Umfeld, und nicht die Phänomene des inneren Seelenlebens, die die persönlichen Eigenschaften bestimmen. Skinner betrachtete die menschliche Psyche als „Black Box“. Es ist unmöglich, Emotionen, Motive und Instinkte im Detail zu untersuchen. Daher müssen sie von den Beobachtungen des Experimentators ausgeschlossen werden.

Skinners Theorie des operanten Lernens, an der der Wissenschaftler viele Jahre gearbeitet hat, sollte seine umfangreiche Forschung zusammenfassen: Alles, was ein Mensch tut und was er im Prinzip ist, wird durch die Geschichte der Belohnungen und Bestrafungen bestimmt, die er erhalten hat.

Operante Konditionierungstheorie (Thorndack)

Operant-instrumentelles Lernen

Nach dieser Theorie sind die meisten Formen menschlichen Verhaltens willkürlich, d.h. operativ; sie werden mehr oder weniger wahrscheinlich, je nachdem, ob die Folgen günstig oder ungünstig sind. Entsprechend dieser Idee wurde die Definition formuliert.

Operantes (instrumentelles) Lernen ist eine Art des Lernens, bei der die richtige Reaktion oder Verhaltensänderung verstärkt und wahrscheinlicher gemacht wird.

Diese Art des Lernens wurde von den amerikanischen Psychologen E. Thorndike und B. Skinner experimentell untersucht und beschrieben. Diese Wissenschaftler führten in das Lernschema die Notwendigkeit ein, die Ergebnisse der Übungen zu verstärken.

Das Konzept des operanten Lernens basiert auf dem Schema „Situation – Reaktion – Verstärkung“.

Der Psychologe und Pädagoge E. Thorndike führte als erstes Glied eine Problemsituation in das Lernschema ein, deren Ausweg von Versuch und Irrtum begleitet war und zu Zufallserfolgen führte.

Edward Lee Thorndike (1874-1949), US-amerikanischer Psychologe und Pädagoge. Recherche zum Tierverhalten in „Problemboxen“. Der Autor der Theorie des Lernens durch Versuch und Irrtum mit einer Beschreibung der sogenannten „Lernkurve“. Er formulierte eine Reihe bekannter Lerngesetze.

E. Thorndike führte ein Experiment mit hungrigen Katzen in Problemkäfigen durch. Ein in einen Käfig gesetztes Tier konnte nur durch Aktivieren einer speziellen Vorrichtung - Drücken einer Feder, Ziehen einer Schlaufe usw. - herauskommen und Top-Dressing erhalten. Die Tiere machten viele Bewegungen, eilten in verschiedene Richtungen, kratzten an der Kiste usw., bis eine der Bewegungen zufällig erfolgreich war. Mit jedem neuen Erfolg hat die Katze immer mehr Reaktionen, die zum Ziel führen, und immer weniger - nutzlos.

Reis. 12.

psychoanalytische Theorie operantes Kind

„Versuch, Irrtum und zufälliger Erfolg“ – so lautete die Formel für alle Arten von Verhalten, sowohl bei Tieren als auch bei Menschen. Thorndike schlug vor, dass dieser Prozess durch 3 Verhaltensgesetze bestimmt wird:

1) das Gesetz der Bereitschaft - für die Bildung einer Fähigkeit im Körper muss es einen Zustand geben, der zur Aktivität drängt (z. B. Hunger);

2) das Ausübungsgesetz – je öfter eine Aktion ausgeführt wird, desto häufiger wird diese Aktion anschließend gewählt;

3) das Wirkungsgesetz – die Aktion, die eine positive Wirkung hat („belohnt“), wird öfter wiederholt.

In Bezug auf die Probleme der Schulbildung und Erziehung definiert E. Thorndike "die Kunst des Lernens als die Kunst, Reize zu erzeugen und zu verzögern, um bestimmte Reaktionen hervorzurufen oder zu verhindern". Gleichzeitig können Reize Worte sein, die an das Kind gerichtet sind, ein Blick, ein Satz, den es lesen wird usw., und Antworten - neue Gedanken, Gefühle, Handlungen des Schülers, sein Zustand. Betrachten Sie diese Bestimmung am Beispiel der Entwicklung von Bildungsinteressen.

Das Kind hat durch seine eigene Erfahrung eine Vielzahl von Interessen. Die Aufgabe des Lehrers besteht darin, unter ihnen die „Guten“ zu sehen und auf deren Grundlage die für das Lernen notwendigen Interessen zu entwickeln. Der Lehrer wendet drei Wege an, um die Interessen des Kindes in die richtige Richtung zu lenken. Der erste Weg besteht darin, die geleistete Arbeit mit etwas Wichtigem für den Schüler zu verbinden, das ihm Zufriedenheit verschafft, beispielsweise mit der Position (Status) unter Gleichaltrigen. Die zweite besteht darin, den Mechanismus der Nachahmung zu nutzen: Der Lehrer selbst, der sich für sein Fach interessiert, interessiert sich auch für die Klasse, in der er unterrichtet. Die dritte besteht darin, das Kind über solche Informationen zu informieren, die früher oder später das Interesse an dem Thema wecken werden.

Ein anderer bekannter Verhaltensforscher, B. Skinner, enthüllte die besondere Rolle der Verstärkung der richtigen Reaktion, die das „Entwerfen“ eines Auswegs aus der Situation und die Verpflichtung zur richtigen Reaktion beinhaltet (dies war eine der Grundlagen des programmierten Lernens). . Nach den Gesetzen des operanten Lernens wird Verhalten durch die darauf folgenden Ereignisse bestimmt. Wenn die Folgen günstig sind, steigt die Wahrscheinlichkeit, das Verhalten in der Zukunft zu wiederholen. Wenn die Folgen ungünstig sind und nicht verstärkt werden, sinkt die Wahrscheinlichkeit des Verhaltens. Verhalten, das nicht zum gewünschten Effekt führt, wird nicht erlernt. Sie werden bald aufhören, eine Person anzulächeln, die nicht zurücklächelt. Weinen lernt man in einer Familie mit kleinen Kindern. Weinen wird zu einem Mittel, um Erwachsene zu beeinflussen.

Das Herzstück dieser Theorie, wie auch der Pawlowschen, ist der Mechanismus zur Herstellung von Verbindungen (Assoziationen). Operantes Lernen basiert ebenfalls auf den Mechanismen konditionierter Reflexe. Dies sind jedoch bedingte Reflexe anderer Art als die klassischen. Skinner nannte solche Reflexe operant oder instrumental. Ihre Besonderheit besteht darin, dass Aktivität nicht erst durch ein Signal von außen, sondern durch ein Bedürfnis von innen erzeugt wird. Diese Aktivität hat einen chaotischen Zufallscharakter. Dabei werden nicht nur angeborene Reaktionen mit konditionierten Signalen in Verbindung gebracht, sondern beliebige zufällige Handlungen, die eine Belohnung erhielten. Beim klassischen bedingten Reflex wartet das Tier sozusagen passiv darauf, was ihm angetan wird, beim operanten Reflex sucht das Tier selbst aktiv nach der richtigen Handlung, und wenn es sie findet, lernt es sie.

Die Technik der Entwicklung "operanter Reaktionen" wurde von Skinners Anhängern bei der Erziehung von Kindern, ihrer Erziehung und bei der Behandlung von Neurotikern verwendet. Während des Zweiten Weltkriegs arbeitete Skinner an einem Projekt, bei dem Tauben zur Bekämpfung von Flugzeugfeuer eingesetzt wurden.

Nachdem B. Skinner einmal eine Rechenstunde am College besucht hatte, wo seine Tochter studierte, war er entsetzt darüber, wie wenig die Daten der Psychologie verwendet werden. Um den Unterricht zu verbessern, erfand er eine Reihe von Lehrmaschinen und entwickelte das Konzept des programmierten Lernens. Er hoffte, basierend auf der Theorie der operanten Reaktionen, ein Programm zur „Herstellung“ von Menschen für eine neue Gesellschaft zu schaffen.

Operantes Lernen in den Werken von E. Thorndike. Eine experimentelle Untersuchung der Bedingungen für den Erwerb wirklich neuen Verhaltens sowie der Lerndynamik stand im Mittelpunkt des Interesses des amerikanischen Psychologen E. Thorndike. Thorndikes Arbeit untersuchte hauptsächlich die Muster der Probenlösung. Eine experimentelle Untersuchung der Bedingungen für den Erwerb wirklich neuen Verhaltens sowie der Lerndynamik stand im Mittelpunkt des Interesses des amerikanischen Psychologen E. Thorndike. Thorndikes Arbeit untersuchte hauptsächlich die Muster der Lösung von Problemsituationen durch Tiere. Ein Tier (Katze, Hund, Affe) musste selbstständig einen Weg aus einer speziell gestalteten „Problemkiste“ oder aus einem Labyrinth finden. Später nahmen auch kleine Kinder als Probanden an ähnlichen Experimenten teil.

Bei der Analyse eines so komplexen spontanen Verhaltens wie die Suche nach einem Weg zur Lösung eines Labyrinthproblems oder zum Aufschließen einer Tür (im Gegensatz zu einer Reaktion, Befragter) ist es schwierig, einen Stimulus zu isolieren, der eine bestimmte Reaktion auslöst. Laut Thorndike machten die Tiere anfangs viele chaotische Bewegungen - Versuche und produzierten nur zufällig die notwendigen, was zum Erfolg führte. Bei nachfolgenden Versuchen, dieselbe Box zu verlassen, war die Anzahl der Fehler geringer und die aufgewendete Zeit geringer. Die Art des Lernens, bei der das Subjekt in der Regel unbewusst verschiedene Verhaltensweisen, Operetten (aus dem Englischen opera - act) ausprobiert, aus denen das geeignetste, anpassungsfähigste „ausgewählt“ wird, wird als operante Konditionierung bezeichnet.

Die Methode des "Versuchs und Irrtums" bei der Lösung intellektueller Probleme wurde allmählich als allgemeines Muster angesehen, das das Verhalten von Tieren und Menschen charakterisiert.

Thorndike formulierte vier Grundgesetze des Lernens.

1. Wiederholungsgesetz (Übungen). Je öfter die Verbindung zwischen Reiz und Reaktion wiederholt wird, desto schneller wird sie fixiert und desto stärker ist sie.

2. Wirkungsgesetz (Verstärkung). Beim Lernen von Reaktionen werden diejenigen von ihnen fixiert, die von Verstärkung (positiv oder negativ) begleitet werden.

3. Gesetz der Bereitschaft. Der Zustand des Subjekts (die Gefühle von Hunger und Durst, die es erlebt) ist der Entwicklung neuer Reaktionen nicht gleichgültig.

4. Gesetz der assoziativen Verschiebung (zeitliche Nachbarschaft). Ein neutraler Reiz, der durch Assoziation mit einem signifikanten Reiz verbunden ist, beginnt ebenfalls, das gewünschte Verhalten hervorzurufen.

Thorndike nannte auch zusätzliche Bedingungen für den Lernerfolg eines Kindes – die Leichtigkeit, zwischen einem Stimulus und einer Reaktion zu unterscheiden, und das Bewusstsein für die Verbindung zwischen ihnen.

Operantes Lernen tritt auf, wenn der Organismus aktiver ist, es wird von seinen Ergebnissen und Konsequenzen kontrolliert (bestimmt). Der allgemeine Trend ist, dass wenn Aktionen zu einem positiven Ergebnis, zum Erfolg geführt haben, sie fixiert und wiederholt werden.

Das Labyrinth in Thorndikes Experimenten diente als vereinfachtes Modell der Umgebung. Die Labyrinthtechnik modelliert in gewisser Weise die Beziehung zwischen Organismus und Umwelt, aber sehr eng, einseitig, begrenzt; und es ist äußerst schwierig, die im Rahmen dieses Modells entdeckten Muster auf das soziale Verhalten eines Menschen in einer komplex organisierten Gesellschaft zu übertragen.

Begriff operante Konditionierung wurde 1938 von B. F. Skinner (1904-1990) vorgeschlagen (Skinner, 1938; siehe insbesondere Skinner, 1953). Er argumentierte, dass das Verhalten von Tieren in ihrer Umgebung auftritt und sich je nach Folgen wiederholt oder nicht wiederholt. Laut Thorndike können diese Konsequenzen viele Formen annehmen, z. B. das Erhalten von Belohnungen für das Ausführen bestimmter Aktionen oder das Ausführen bestimmter Verhaltensweisen, um Ärger zu vermeiden. Viele Arten von Stimuli können als Belohnung (Essen, Lob, soziale Interaktionen) und einige als Bestrafung (Schmerz, Unbehagen) wirken. In etwas harscher, extremer Form ausgedrückt, aber die richtige Meinung von Skinner: alle Was wir tun oder nicht tun, ist auf Konsequenzen zurückzuführen.

Skinner untersuchte die operante Konditionierung im Labor, hauptsächlich mit Ratten und Tauben. Es ist zum Beispiel nicht schwierig, das Verhalten von Ratten zu untersuchen, wenn sie einen Hebel oder ein „Pedal“ drücken, was sie leicht lernen, um Belohnungen mit Futter zu erhalten. Variablen wie die Art und Regelmäßigkeit der Nahrungszufuhr (z. B. nach jedem Hebeldruck, nach einer bestimmten Anzahl von Drücken) können dann manipuliert werden, um zu sehen, welche Auswirkungen diese Änderungen auf das Verhalten der Ratte haben werden. Skinner konzentrierte sich dann weiter Charakter Drücken des Hebels in Abhängigkeit von verschiedenen Arten von Eventualitäten, d. h. Faktoren, die dazu führen können, dass die Ratte den Hebel schneller, langsamer oder überhaupt nicht drückt.

In gewisser Weise drehte Skinner die Uhr zurück und kehrte zum strikten Behaviorismus zurück. Während seiner fast sechzigjährigen höchst illustren wissenschaftlichen Karriere hat er sich entschieden geweigert, Begriffe wie Lernen, Motivation oder irgendetwas anderes zu verwenden, um etwas Unsichtbares in dem erklärten Verhalten zu bezeichnen. Er begründete dies damit, dass solche Begriffe uns glauben machen, dass wir etwas verstehen, was wir nicht wirklich verstehen. Seine eigenen Worte waren:

Wenn wir sagen, dass eine Person isst, weil sie hungrig ist ... viel raucht, weil sie ein starker Raucher ist ... oder gut Klavier spielt, weil sie musikalische Fähigkeiten hat, scheinen wir uns auf die Ursachen des Verhaltens zu beziehen. Aber nach einer Analyse erweisen sich diese Sätze als einfach unangemessene (übertriebene) Beschreibungen. Ein einfacher Sachverhalt wird durch zwei Aussagen beschrieben: „er isst“ und „er hat Hunger“. Oder zum Beispiel: „er raucht viel“ und „er ist ein starker Raucher“. Oder: „er spielt gut Klavier“ und „er hat musikalische Fähigkeiten“. Die Praxis, eine Aussage durch eine andere zu erklären, ist gefährlich, weil sie davon ausgeht, dass wir die Ursache gefunden haben und deshalb nicht weiter suchen müssen (Skinner, 1953, S. 31).

Mit anderen Worten, solche Aussagen bilden sich Teufelskreis. Woher wissen wir, dass eine Person hungrig ist? Weil er isst. Warum isst er? Weil er Hunger hat. Viele Forscher wiesen jedoch darauf hin, dass es Auswege aus dieser Falle gibt, Wege, Begriffe in wissenschaftlichem Umlauf zu halten, die innere, unsichtbare Zustände oder Prozesse beschreiben. Eine davon haben wir bereits erwähnt: die Verwendung von operationalen Definitionen solcher Zustände wie Hunger durch Vertreter der Lerntheorie. Über das Ausmaß wird jedoch weiterhin debattiert Grad die Verwendung solcher Begriffe.

Skinners operante Konditionierung mit den damit verbundenen Einschränkungen und Vorbehalten (insbesondere für Menschen), die in Kapitel 3 im Zusammenhang mit seiner Analyse erörtert wurden, gilt inzwischen als die wichtigste Art und Weise, wie die Umwelt unsere Entwicklung und unser Verhalten beeinflusst.

Die amerikanische Psychologie ist die Psychologie des Lernens.
Dies ist eine Richtung in der amerikanischen Psychologie, für die der Begriff der Entwicklung mit dem Begriff des Lernens, des Erwerbs neuer Erfahrungen, identifiziert wird. Die Ideen von I. P. Pavlov hatten großen Einfluss auf die Entwicklung dieses Konzepts. Amerikanische Psychologen akzeptierten in den Lehren von I. P. Pavlov die Idee, dass adaptive Aktivität für alle Lebewesen charakteristisch ist. Gewöhnlich wird betont, dass das Pawlowsche Prinzip des bedingten Reflexes in die amerikanische Psychologie übernommen wurde, was J. Watson als Anstoß diente, ein neues Konzept der Psychologie zu entwickeln. Das ist zu allgemein. Die Idee, ein strenges wissenschaftliches Experiment durchzuführen, das von I. P. Pavlov zur Untersuchung des Verdauungssystems entwickelt wurde, trat in die amerikanische Psychologie ein. Die erste Beschreibung eines solchen Experiments durch I. P. Pavlov erfolgte 1897, und die erste Veröffentlichung von J. Watson erfolgte 1913.
Die Entwicklung der Ideen von I. P. Pavlov in der amerikanischen Psychologie dauerte mehrere Jahrzehnte, und jedes Mal tauchte einer der Aspekte dieses einfachen, aber gleichzeitig noch nicht erschöpften Phänomens in der amerikanischen Psychologie, des Phänomens eines bedingten Reflexes, vor den Forschern auf.
In den frühesten Studien des Lernens trat die Idee einer Kombination von Reiz und Reaktion, konditionierten und unkonditionierten Reizen in den Vordergrund: Der Zeitparameter dieser Verbindung wurde herausgegriffen. So entstand der assoziative Lernbegriff (J. Watson, E. Gasri). Als die Aufmerksamkeit der Forscher auf die Funktionen des unbedingten Reizes bei der Herstellung einer neuen assoziativen Reiz-Reaktions-Verbindung gelenkt wurde, entstand das Konzept des Lernens, bei dem der Schwerpunkt auf dem Wert der Verstärkung lag. Dies waren die Konzepte von E. Thorndike und B. Skinner. Die Suche nach Antworten auf die Frage, ob Lernen, also das Herstellen einer Verbindung zwischen einem Reiz und einer Reaktion, von solchen Subjektzuständen wie Hunger, Durst, Schmerz abhängt, die in der amerikanischen Psychologie den Namen Drive erhalten haben, führte zu komplexeren theoretischen Lernkonzepten - den Konzepten von N. Miller und K. Hull. Die letzten beiden Konzepte brachten die amerikanische Lerntheorie zu einem solchen Reifegrad, dass sie bereit war, neue europäische Ideen aus den Bereichen Gestaltpsychologie, Feldtheorie und Psychoanalyse aufzunehmen. Hier vollzog sich eine Wendung vom strengen Verhaltensexperiment Pawlowscher Art zur Untersuchung der Motivation und kognitiven Entwicklung des Kindes, wobei sich die Verhaltensrichtung auch mit entwicklungspsychologischen Problemen auseinandersetzte. Gemäß der Verhaltenstheorie ist ein Mensch das, was er gelernt hat zu sein. Diese Idee hat Wissenschaftler dazu veranlasst, den Behaviorismus als „Lerntheorie“ zu bezeichnen. Viele Befürworter des Behaviorismus glauben, dass ein Mensch sein ganzes Leben lang lernt, sich zu benehmen, aber keine besonderen Stadien, Perioden, Stadien unterscheidet. Stattdessen schlagen sie drei Arten des Lernens vor: klassische Konditionierung, operante Konditionierung und Beobachtungslernen.
Die klassische Konditionierung ist die einfachste Art des Lernens, bei der nur unwillkürliche (unbedingte) Reflexe im Verhalten von Kindern genutzt werden. Diese Reflexe sind bei Mensch und Tier angeboren. Ein Kind (wie ein Tierbaby) reagiert im Laufe des Lernens rein automatisch auf alle äußeren Reize und lernt dann, auf geringfügig andere Reize in gleicher Weise zu reagieren (Beispiel mit dem 9 Monate alten Albert, der Ryder und Watson lehrten, sich vor einer weißen Maus zu fürchten).
Operante Konditionierung ist eine spezifische Art des Lernens, die Skinner entwickelt hat. Sein Wesen liegt in der Tatsache, dass eine Person ihr Verhalten kontrolliert und sich auf die wahrscheinlichen Folgen (positiv und negativ) konzentriert. (Skinner mit Ratten). Kinder lernen durch Lernmethoden unterschiedliche Verhaltensweisen von anderen, insbesondere durch Verstärkung und Bestrafung.
Verstärkung ist jeder Stimulus, der die Wahrscheinlichkeit erhöht, bestimmte Reaktionen oder Verhaltensweisen zu wiederholen. Es kann positiv oder negativ sein. Eine positive Verstärkung ist eine, die für eine Person angenehm ist, einige ihrer Bedürfnisse befriedigt und zur Wiederholung von Verhaltensweisen beiträgt, die eine Ermutigung verdienen. In Skinners Experimenten war Essen ein positiver Verstärker. Negativ ist eine solche Verstärkung, die Sie dazu bringt, die Reaktionen von Ablehnung, Ablehnung, Ablehnung von etwas zu wiederholen.
Vertreter der Verhaltenstheorie haben festgestellt, dass Bestrafung auch ein spezifisches Mittel des Lernens ist. Bestrafung ist ein Anreiz, der einen dazu zwingt, die Handlungen aufzugeben, die sie verursacht haben, Verhaltensformen.
Die Begriffe „Bestrafung“ und „negative Verstärkung“ werden oft verwechselt. Aber wenn eine Person bestraft wird, wird ihr etwas Unangenehmes gegeben, angeboten, ihr wird etwas Unangenehmes auferlegt oder ihr wird etwas Angenehmes weggenommen, und als Ergebnis zwingen sie beide, einige Handlungen und Taten einzustellen. Bei negativer Verstärkung wird etwas Unangenehmes entfernt, um ein bestimmtes Verhalten zu fördern.
Lernen durch Beobachtung. Der amerikanische Psychologe Albert Bandura erkennt zwar die Bedeutung des Lernens durch klassische und operante Konditionierung an, glaubt jedoch, dass Lernen im Leben durch Beobachtung erfolgt. Das Kind beobachtet, was Eltern tun, wie sich andere Menschen in seinem sozialen Umfeld verhalten, und versucht, Muster ihres Verhaltens zu reproduzieren.
Bandura und seine Kollegen, die die Abhängigkeit der persönlichen Eigenschaften eines Menschen von seiner Fähigkeit betonen, von anderen zu lernen, werden gewöhnlich als Theoretiker des sozialen Lernens bezeichnet.
Das Wesen des Lernens durch Beobachtung besteht darin, dass eine Person die Verhaltensmuster einer Person kopiert, ohne dafür eine Belohnung oder Bestrafung zu erwarten. In den Jahren der Kindheit sammelt das Kind umfangreiche Informationen über verschiedene Verhaltensweisen, obwohl es sie in seinem Verhalten möglicherweise nicht reproduziert.
Wenn er jedoch sieht, dass einige Taten, Handlungen und Verhaltensreaktionen anderer Kinder ermutigend sind, wird er höchstwahrscheinlich versuchen, sie zu kopieren. Außerdem ist es wahrscheinlich, dass er eher bereit ist, die Menschen nachzuahmen, die er bewundert, die er liebt, die ihm mehr bedeuten als andere. Kinder werden niemals freiwillig die Verhaltensmuster derer kopieren, die ihnen nicht angenehm sind, die ihnen nichts bedeuten, die ihnen Angst machen.
In den Experimenten von E. Thorndike (Untersuchung erworbener Verhaltensformen) und in den Studien von I. P. Pavlov (Untersuchung der physiologischen Lernmechanismen) wurde die Möglichkeit der Entstehung neuer Verhaltensformen auf instinktiver Basis betont . Es zeigte sich, dass unter dem Einfluss der Umwelt erbliche Verhaltensweisen mit erworbenen Fertigkeiten und Fähigkeiten überwuchert werden.