Lade Inhalt...

Was ist Lernen? Über die Inhalte behavioristischer und kognitiver Lerntheorien sowie gestaltpsychologischer und konstruktivistischer Ansätze

©2006 Hausarbeit (Hauptseminar) 46 Seiten

Zusammenfassung

Lernen wird in erster Linie mit schulischem Lernen in Verbindung gebracht, also mit der Aneignung von Wissen. Gelernt werden aber auch motorische Fähigkeiten wie Autofahren oder Schwimmen in dem Sinne, sich länger über Wasser zu halten; eine Sprache wird gelernt durch den Erwerb von Wörtern und der Grammatik, ebenso lernt man Wertvorstellungen, an die Verhaltensformen angepasst werden. Lernen ist also eine Verhaltensänderung in Verbindung mit Interaktionen mit der Umwelt.
Lernen kann so definiert werden: „Lernen ist der Prozess, durch den Verhalten auf Grund von Interaktionen mit der Umwelt oder Reaktionen auf eine Situation relativ dauerhaft entsteht oder verändert wird, wobei auszuschließen ist, dass diese Änderungen durch angeborene Reaktionsweisen, Reifungsvorgänge oder vorübergehende Zustände des Organismus (Ermüdung, Rausch oder Ähnliches) bedingt sind (Skowronek 1975, 6.Aufl., S.11). „Lernen ist also die Aneignung von Wissen durch Instruktion oder Schulung. (Bodenmann u.a. 2004, S.14). Ebenso ist Lernen auch durch Erfahrung möglich.
Lerntheorien versuchen, Wissen über menschliches Lernen zu strukturieren und zu bündeln, um damit Lernprozesse zu optimieren. Vorliegende Arbeit unternimmt den Versuch, Lerntheorien im Überblick vorzustellen, wobei aus Gründen der didaktischen Reduktion eine Auswahl getroffen werden musste. Beleuchtet werden behavioristische, gestaltpsychologische, kognitive und konstruktivistische Ansätze.

Leseprobe

Inhaltsverzeichnis

1. Vorbemerkungen: Was ist Lernen?

2. Behavioristische Lerntheorien
2.1 Klassisches Konditionieren
2.1.1 Iwan P. Pawlow (1849 – 1936)
2.1.2 Edward Lee Thorndike (1874 – 1949)
2.2 Operantes Konditionieren: Burrhus Frederic Skinner (1904 – 1990)
2.2.1 Grundlagen
2.2.2 Stellenwert der Verstärkung
2.2.3 Verstärkungspläne
2.2.4 Aversive Verhaltenskontrolle und Strafe
2.2.5 Programmierter Unterricht
2.2.6 Abschließende Bemerkungen

3. Gestaltpsychologische Ansätze: Die Lerntheorie von Edward Chase Tolman (1886 – 1959)

4. Kognitive Lerntheorien
4.1. Die sozial-kognitve Lerntheorie von Albert Bandura (*1925)
4.1.1 Grundsätzliches
4.1.2 Ausmaß und Effekte der Modellbeobachtung
4.1.3 Lernprozesse nach Banduras Theorie
4.1.4 Abschließende Bemerkungen
4.2 Lernen als Entwicklung: Jean Piaget (1896 – 1980)
4.2.1 Grundannahmen Piagets
4.2.2 Ursachen für Entwicklung und Ausprägung der Lern- und Entwicklungsstufen
4.2.3 Struktur und Funktion
4.2.4 Abschließende Bemerkungen
4.3 Lawrence Kohlberg: Lernen als Persönlichkeitsentwicklung
4.3.1 Das Stufenmodell
4.3.2 Moral und Konvention
4.4 Gerôme Bruner (*1915)
4.4.1 Grundlagen
4.4.2 Kategorisierung
4.4.3 Folgerungen für den Unterricht
4.4.4 Abschließende Bemerkungen
4.5 David P. Ausubel (*1918)

5. Konstruktivistische Ansätze
5.1 Grundlegendes und Ausprägungen des Konstruktivismus
5.2 Wissenserwerb
5.3 Anforderungen an eine konstruktivistische Lernkultur
5.3.1 Allgemeines
5.3.2 Zur Rolle von Lehrenden und Lernenden
5.3.3 Abschließende Bemerkungen

6. Schlussbemerkungen

7. Literaturverzeichnis

1. Vorbemerkungen: Was ist Lernen?

Lernen wird in erster Linie mit schulischem Lernen in Verbindung gebracht, also mit der Aneignung von Wissen.[1] Gelernt werden aber auch motorische Fähigkeiten wie Autofahren oder Schwimmen in dem Sinne, sich länger über Wasser zu halten; eine Sprache wird gelernt durch den Erwerb von Wörtern und der Grammatik, ebenso lernt man Wertvorstellungen, an die Verhaltensformen angepasst werden.[2] Lernen ist also eine Verhaltensänderung in Verbindung mit Interaktionen mit der Umwelt. Gelernt wird darüber hinaus „Angst und Sicherheit (), Ausbildung von Gewohnheiten (), Befähigung zu planvollem Handeln und problemlösendem Denken“[3], meist aus Situationen heraus, die als negativ empfunden wurden.

Lernen kann so definiert werden: „Lernen ist der Prozess, durch den Verhalten auf Grund von Interaktionen mit der Umwelt oder Reaktionen auf eine Situation relativ dauerhaft entsteht oder verändert wird, wobei auszuschließen ist, dass diese Änderungen durch angeborene Reaktionsweisen, Reifungsvorgänge oder vorübergehende Zustände des Organismus (Ermüdung, Rausch oder Ähnliches) bedingt sind.“[4] „Lernen ist also die Aneignung von Wissen durch Instruktion oder Schulung.“[5] Ebenso ist Lernen „eine Verhaltensänderung, die auf Grund von Erfahrungen zustande kommt.“[6]

Lerntheorien sind „Versuche, die Kenntnisse über menschliches Lernen zu systematisieren und zusammenzufassen.“[7] Vorliegende Arbeit unternimmt den Versuch, Lerntheorien im Überblick vorzustellen, wobei aus Gründen der didaktischen Reduktion eine Auswahl getroffen werden musste. Bis etwa Mitte der 1960er Jahre wurde der Lernbegriff auf Basis des Behaviorismus, also verhaltensorientiert, gebraucht. Gelernt ist dann, „wenn eine beobachtbare Änderung in den Verhaltensweisen eines Organismus eingetreten ist.“[8] Vorgänge im Gehirn sind irrelevant. Aus kognitiver Sicht stehen bei Lernvorgängen „Veränderungen der kognitiven Strukturen (…) im Vordergrund (…), die zumeist auf der Basis eines Informationsverarbeitungsansatzes analysiert werden.“ Die Aneignung von Wissen und Wissensstrukturen durch Verknüpfung von neuen Informationen mit schon vorhandenen ist hier der Schwerpunkt.[9] „Kognitive Theorien verknüpfen das Lernen mit der Gesamtheit der Prozesse, die mit der Aufnahme von Informationen, ihrer weiteren Verarbeitung und Speicherung im Gedächtnis sowie ihrer Anwendung in spezifischen Situationen mit Aufgabencharakter verbunden sind.“[10]

Gestaltpsychologen postulieren ein Verständnis beim Lernen und eine Vorgehensweise beim Problemlösen. „Lernen vollzieht sich als ein Prozess der Umorganisation von Erfahrungen, der so lange dauert, bis sich im Moment der Einsicht die vollständige Durchgliederung des Erfahrungsfeldes und somit die Lösung des Problems einstellt.“[11]

Die Konstruktivisten sehen Lernen als Vorgang der Erzeugung von Bedeutungen, wobei „mentale Modelle“ eine wichtige Rolle spielen. Darunter versteht man „kognitive Konstruktionen, mittels derer eine Person ihre Erfahrung oder ihr Denken derart organisiert, dass sie eine systematische Repräsentation ihres Wissens erreicht.“[12] Das heißt, die Welt ist objektiv nicht erkennbar und daher als Abbild nicht speicher- und abrufbar. Lernen ist „ein aktiver, selbstorganisierter und –kontrollierter, sozialer und kontextualisierter sowie die Bildung von Sinnstrukturen ermöglichender Prozess.“[13] Ziel ist „eine dauerhaft wirksame Erweiterung von Handlungsmöglichkeiten auf Grund erworbener Fähigkeiten und Kenntnisse.“[14] „Jeder Akt des Lernens bringt eine Welt hervor. Denn jedes Lernen ist ein Erkennen, und jedes Erkennen ist auch ein Tun.“[15] Beispiele für Lerntheorien werden in den folgenden Kapiteln vorgestellt.

2. Behavioristische Lerntheorien

2.1 Klassisches Konditionieren

2.1.1 Iwan P. Pawlow (1849 – 1936)

Pawlow vertrat die Auffassung, dass Lernen im Aufbau neuer Reiz-Reaktions-Verknüpfungen bestünde, die auf Dauer eine Verhaltensänderung bewirkten.[16] Er begründete die „Lehre vom bedingten Reflex.“[17] Weltberühmt ist sein Hunde-Versuch, mit dem er ein Erwartungsverhalten sichtbar machen wollte. Die Versuchsanordnung zeigt Abb.1.

Abbildung in dieser Leseprobe nicht enthalten

Abb.1: Pawlows Versuchsanordnung

(Quelle: Schermer,F., S.25)

Der Hund ist angebunden, um störende Bewegungen zu vermeiden. Die Messung der Speichelabsonderung erfolgt mittels eines kleinen Schlauches und einer „operativ angebrachte(n) Fistel.“[18] Wird dem Hund Fleisch dargeboten, erfolgt eine Speichelabsonderung in der Erwartung, dass es gleich Futter gibt, als angeborene bzw. ungelernte Reaktion, die als unbedingte Reaktion bezeichnet wird.[19] Im zweiten Stadium des Versuchs wird das Futter – der unbedingte Reiz – mit einem Summton als neutralem Reiz verbunden; neutral ist er deshalb, weil durch das Senden eines Tones kein Speichelfluss ausgelöst wurde. Wird diese Variante mehrfach wiederholt, führt das Senden eines Tones im dritten Stadium zur Speichelabsonderung. Der Ton ist nun ein bedingter Reiz, die Speichelabsonderung eine bedingte oder konditionierte Reaktion. Das Tier lernte, „auf einen Reiz mit einem verfügbaren Verhalten zu antworten.“[20]

Die Bedingtheit der Reaktion ist abhängig von der Verknüpfung eines ursprünglich neutralen Reizes mit einem ungelernten Reiz. Bleibt aber der unbedingte Reiz – im Hundeversuch das Futter – wiederholt aus, führt das zu einer Schwächung und letztlich zum Erliegen der bedingten Reaktion. Der Summton im Hundeversuch verliert seine Wirkung. Das klassische Bedingen oder klassische Konditionieren geht vom autonomen Nervensystem aus und betrifft unwillkürliche Reaktionen.[21] Deshalb kann man auch Furcht- und Angstreaktionen klassisch bedingen. Bechterew beispielsweise behandelte Ratten mit negativen Reizen wie Elektroschocks, die daraus resultierende unbedingte Reaktion ist Vermeidung oder Flucht. Körperliche Reaktionen sind erhöhte Puls- und Atemfrequenzen sowie Pupillenerweiterung.[22] Die Reaktion nach Vermeidung wird auch ohne Schock beibehalten, obwohl diese bedingte Reaktion nicht mehr auftreten dürfte. Die Ratten lernten stattdessen neue Befreiungsmethoden aus dem „Schockabteil“, Antrieb ist hier Furcht oder Angst, das die Ratten als „dauerhaftes Motiv“ erworben hatten.[23] Umstritten war der Menschenversuch von Watson und Rayner mit dem neun Monate alten Albert (1920), der eine zahme weiße Ratte als Spieltier hatte. Bei der folgenden Präsentation des Tieres in Verbindung mit einem starken Hammerschlag auf Stahl schrie das Kind, nach fünfmaliger Wiederholung begann das Kind bereits beim Anblick der Ratte zu schreien.[24]

Die Behauptung, dass sich alles Verhalten auf Reiz-Reaktions-Verknüpfungen zurückführen lasse, ist so nicht haltbar, wie noch zu zeigen sein wird, wenngleich es solche Verbindungen auch im Alltag gibt. Beispiele sind das Anfahren bei grünem Ampellicht oder die Furcht vor dem Bohrer beim Zahnarzt.[25]

Bedeutsam für klassisches Konditionieren sind Generalisation und Diskrimination. Generalisation meint die Übertragung bzw. Auslösung der bedingten Reaktion durch ähnliche Reize wie der ursprünglich bedingte Reiz.[26] Je größer die Ähnlichkeit, desto stärker ist die Reaktion. Beispielsweise entschuldigt sich der Mensch, wenn er einen anderen angerempelt hat, wird aber nicht seine Fahrweise mit einem neuen Auto ändern.[27] Eine primäre Reizgeneralisation liegt vor, wenn im Hundeversuch das Tier nicht nur bei 600 Hertz Speichel absondert, sondern auch bei 500 und 700 Hertz; d.h. die bedingten Reize sind physikalisch ähnlich.[28] Sekundäre Reizgeneralisation tritt bei erlernten, also kulturell gegebenen Ähnlichkeiten auf. Wird z.B. beim Wort „Onkel“ ein Luftzug auf das Auge geblasen, führt dies – als bedingter Reflex – zum Blinzeln. Der Luftzug ist ein unbedingter Reiz. Ähnliche Bedeutungen erzeugen analoge Reaktionen, z.B. bei „Tante“ oder „Verwandte.“ Es handelt sich hier um „semantische Bedingungsvorgänge“, die wichtig für das Begriffelernen sind.[29]

Diskrimination bedeutet Reizdifferenzierung; d.h. der „richtige“ Reiz löst den unbedingten Reiz aus. So wird z.B. nur bei 600 Hertz Speichel abgesondert. Reaktionen auf ähnliche Signale werden allmählich gelöscht. Das eine Reaktion auslösende Reizspektrum wird verringert.[30] Wichtig ist dies für das Lernen von Sozialverhalten. In der Kirche wird kein Lärm gemacht, wohl aber kann das zu Hause geschehen.[31] Ein Beispiel aus der Schule ist der zum Reden auffordernde Blick der Lehrperson. Diskrimination ist nur unter der Annahme erklärbar, dass der Lernende versteht, gemeinsame Elemente zweier „Stimuli-Sets“, also deren Schnittmenge, zu ignorieren. Eine weitere Zusatzannahme ist die Konzentration des Lernenden auf „Reizmuster und nicht auf Einzelelemente.“[32] Kognitive Komponenten fließen hier also mit ein, obwohl sie in einem assoziativen Ansatz nicht vorkommen.

Die Verstetigung einer bedingten Reaktion erfolgt durch mehrere Wiederholungen von unbedingtem Reiz – bedingtem Reiz. Pawlow sah in dem unbedingten Reiz eine Verstärkung, denn bleibt er aus, bildet sich auch die konditionierte Reaktion zurück.[33] Manchmal tritt die bedingte Reaktion auch ohne Verstärker wieder auf, „ist aber von geringerer Intensität als die ursprüngliche (bedingte Reaktion) und bildet sich in wiederholten Tests bald vollständig zurück.“ Bezeichnet wird dies als Spontanerholung.[34]

Bei der Konditionierung höherer Ordnung übernimmt ein bedingter Reiz die Funktion eines unbedingten Reizes. „Konditionierungen höherer Ordnung bauen immer auf einer Konditionierung erster Ordnung auf“, wobei ein ursprünglich neutraler Reiz zu einem bedingten, konditionierten Reiz wird.[35] Wird der nun bedingte Reiz abermals mit einem neuen, neutralen Reiz dargeboten ohne den unbedingten Reiz, führt auch der zweite neutrale Reiz zu einer bedingten Reaktion. Das bedeutet: Konditionierungen höherer Ordnung entstehen demnach durch Substitution des (unbedingten Reizes) durch den (bedingten Reiz) der vorausgehenden Trainingsphase.[36]

2.1.2 Edward Lee Thorndike (1874 – 1949)

Wie Pawlow fragt auch Thorndike nach der Anpassungsfähigkeit von Menschen und Tieren an veränderte Bedingungen. Thorndike vertritt die Auffassung, die Konsequenzen bestimmen, was gelernt wird und was nicht.[37] Lernen setzt sich aus Verknüpfung – übernommen aus der Assoziationspsychologie –, Reiz-Reaktions-Schemata – übernommen aus der Reflexologie – und Beschränkung auf beobachtbares Verhalten – übernommen vom Behaviorismus – zusammen.

Ausgangspunkt für Thorndikes Theorie war die Beobachtung von Verhalten von Tieren in Vexierkästen. Er bezeichnete dieses Verhalten als „Lernen durch Versuch und Irrtum mit zufälligem Erfolg.“[38] Lernen ist die „Stabilisierung und Stärkung von Reiz-Reaktions-Verbindungen.“[39] In seiner Versuchsanordnung befindet sich eine Katze in einem Käfig, das Futter außerhalb. Das Öffnen des Käfigs erfolgt durch einen bestimmten Mechanismus, z.B. durch Ziehen an einer Schnur, Betätigen eines Drückers oder Treten auf eine Plattform.

Nach mehrmaligem Wiederholen gelingt der Katze das Öffnen des Käfigs schneller, weil aus den möglichen Verhaltensweisen nur die ausgewählt werden, die auch tatsächlich zielführend sind, ohne dass das Tier Zusammenhänge „versteht“[40], weshalb derartige Experimente nur bei einfachen Öffnungsmechanismen erfolgreich sind. Thorndike konnte belegen, dass Katzen nicht durch „Einsicht“ lernen, denn obwohl – so die Versuchsreihe – die Tiere Gelegenheit hatten, die Befreiungsversuche anderer Tiere zu beobachten, war die Katze zur Übertragung des Gesehenen auf ihr eigenes Verhalten nicht in der Lage. Analoges gilt für die Anleitung durch den Versuchsleiter. Die Motivation der Katze ist Hunger. Die Konsequenzbedingung liegt in der Bedürfnisbefriedigung durch Nahrungsaufnahme.[41]

Thorndike deutet das Ergebnis als „Gesetz der Wirkung“, 1911 schreibt er (S.244): „Von mehreren Reaktionen auf die gleiche Situation hin werden diejenigen, welche bei dem Tier von Befriedigung begleitet oder dicht gefolgt sind, bei Gleichheit aller anderen Bedingungen stärker mit der Situation verbunden, so dass, wenn die Situation wieder eintritt, sie wahrscheinlicher eintreten werden; diejenigen, welche bei dem Tier von Unbehagen begleitet oder dicht gefolgt sind, werden – bei Gleichheit aller anderen Bedingungen – ihre Verbindung mit der Situation schwächen, so dass, wenn die Situation wieder eintritt, sie mit geringerer Wahrscheinlichkeit eintreten. Je größer die Befriedigung oder das Unbehagen, desto größer ist die Stärkung oder die Schwächung der Verbindung.“[42] Unbefriedigende Zustände ziehen das Bestreben nach Änderung nach sich.[43] Die Stärke einer Verbindung beschreibt die Wahrscheinlichkeit, mit der eine Reaktion in einer gleichen Situation wiederkehrt.

Ergänzt werden diese Überlegungen durch das „Gesetz der Übung“ von 1911: „Unter gleichen Bedingungen wird jede Reaktion auf eine Situation um so stärker mit dieser Situation verknüpft sein, je häufiger sie mit ihr in Verbindung gebracht wurde und je intensiver und anhaltender diese Verbindungen sind.“[44] Diese Auffassung vertrat Thorndike in seinen früheren Arbeiten; später definierte er Übung nicht als „sinnlose“ Übung, denn wenn der Lernende von der Notwendigkeit und Richtigkeit einer Übung überzeugt ist, kann sie durchaus einen Sinn haben. Ein gutes Beispiel dafür ist das Vokabellernen. Thorndike musste eine weitere Revision an diesem Gesetz vornehmen, das ursprünglich symmetrisch angelegt war; d.h. Bestärkung durch Belohnung, Schwächung durch Strafe. Die Stärkung durch Belohnung wirkt aber stärker als die Schwächung durch Strafe, zumal die Wirkung einer Strafe im Vorhinein nicht immer absehbar ist.[45]

2.2 Operantes Konditionieren: Burrhus Frederic Skinner (1904 – 1990)

2.2.1 Grundlagen

Skinner geht davon aus, dass Verhalten nicht nur von Reizen gesteuert wird, sondern auch spontan auftreten kann. Die durch Reize ausgelösten Reaktionen wie Speichelabsonderung oder Blinzeln sieht er als respondentes oder Antwortverhalten.[46] Spontane Reaktionen bezeichnet er als operantes oder Wirkverhalten in Form einer Verbindung Reaktion – Konsequenz.[47] Mit der Kontingenz drückt Skinner die Beziehungen zwischen Reiz, Reaktion und Konsequenzen aus, indem er eine Wenn – dann – Reaktion annimmt, „wobei die Wenn-Komponente jene Bedingungen angibt, unter denen das Verhalten (…) gezeigt werden muss, damit daraufhin bestimmte Konsequenzen eintreten.“[48] Lernen am Erfolg oder „Reiz-Antwort-Verstärkung-Antwort“ beschreiben dieses Grundprinzip des Lernens.[49]

Den experimentellen Nachweis führt Skinner ähnlich wie Thorndike. Eine Taube in der sogenannten Skinnerbox bekommt Futter durch eine Klappe, wenn sie sich höher reckt als gewöhnlich. Wiederholt man diesen Verstärkungsreiz der Futtergabe, ist auch das höhere Recken häufiger. Dieser Lernvorgang wird von Skinner als operantes Konditionieren bezeichnet. Er ist identisch mit dem instrumentalen Bedingen.[50]

Ein der Reaktion vorausgehender Reiz hat lediglich eine Hinweisfunktion. Die Kontrolle des operanten Verhaltens erfolgt durch gleichzeitige Präsentation von Verstärkungsreiz – in diesem Beispiel Futter für die Tiere – und neu einzuführendem Reiz, z.B. ein Lichtsignal. Hierbei handelt es sich um einen Vorgang des klassischen Bedingens, was Skinner jedoch ignoriert. Dieses Lichtsignal ist der Hinweis auf die Gelegenheit, ein bestimmtes Verhalten zu zeigen.[51] Das gewünschte Endverhalten wird nicht sofort erreicht, sondern nur annäherungsweise. Auf diese Weise lernten Tauben Ping-Pong-Spielen, indem es zunächst Futter gab, wenn Tischtennisbälle im Käfig waren, in einer zweiten Stufe gab es Futter, wenn die Taube nah an den Bällen war und schließlich gab es Futter, wenn die Tauben mit den Bällen agierten.[52] Bei diesem Versuch wird also nur die mit Blick auf das erwünschte Endverhalten zielführende Reaktion verstärkt; bezeichnet wird ein solches Lernen als sukzessive Approximation oder shaping. Vorausgesetzt wird eine Umwelt, die andere Verhaltensweisen als die letztlich gewünschte ausschließt.[53] Beispiele für schrittweises Lernen aus dem Alltag sind kindliches Sprachenlernen, Lernen im Sport oder in der Fahrschule.

2.2.2 Stellenwert der Verstärkung

Der Verstärkung kommt laut Skinner entscheidende Bedeutung beim Lernen zu. Diese definiert er wie folgt: „Der Vorgang der Verstärkung wird als die Darbietung einer bestimmten Stimulusart in einer zeitlichen Beziehung zu einem Stimulus oder einer Reaktion definiert. Ein verstärkender Reiz wird deshalb durch seine Fähigkeit, die resultierende Veränderung hervorzurufen, definiert.“[54] Resultierende Veränderung meint die Erhöhung der Wahrscheinlichkeit, dass die Reaktion später erneut auftritt.[55] Damit geht Skinner konform mit Thorndike im Gesetz der Wirkung, der ebenfalls die Verstärkung über das Verhalten definiert. Das Lernen komplexerer Verhaltensweisen erfolgt durch sukzessives Lernen der Einzelelemente, die jeweils verstärkt werden.[56] Verstärkende Reize lassen sich nach unterschiedlichen Gesichtspunkten systematisieren. Eine einfache Systematisierung in positive und negative Verstärkungsreize zeigt Tab.1:

Tabelle 1: Kontingenzschema

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Schermer,F., S.57.[57]

Verstärker lassen sich nach primären und sekundären ordnen. Primäre Verstärker wirken ohne Lernvorgang, da sie angeboren sind und sich auf Grundbedürfnisse wie Hunger, Durst, Schlaf beziehen. Je größer der Mangel ist, desto größer ist die Verstärkung. Primäre Verstärker sind daher mit den unbedingten Reizen des klassischen Konditionierens vergleichbar. Sekundäre Reize sind ehemals neutrale Reize, die erlernt werden.[58]

Eine Sonderform sind generalisierte Verstärker, die mit vielen primären und sekundären Verstärkern verbunden werden und in diese umgetauscht werden können. Ihre Wirkung ist abhängig vom gerade vorhandenen Bedürfniszustand. Ein Beispiel dafür ist Geld, mit dem man Nahrungsmittel kaufen oder die Wohnungsmiete bezahlen kann.[59]

Diese Betrachtungen leiten über zur Einteilung von Verstärkern nach Inhalten. Materielle Verstärker „sind alle Dinge (…), deren Vorgabe zu einer Erhöhung der Verhaltensrate führt. Das Spektrum ist sehr vielfältig. Wird diese Verstärkung nicht häufig eingesetzt, kann auch wirksam der Gefahr begegnet werden, durch diese Art von Verstärkung nur extrinsische Motivation zu fördern. Hat der Lernende durch die materielle Verstärkung positive Erfahrungen – also Erfolge – gesammelt, entwickelt sich die intrinsische Motivation.[60]

Soziale Verstärker sollten verhaltensbezogen und nicht personenbezogen eingesetzt werden, denn ist letzteres der Fall gewesen und bleibt z.B. das Lob aus, kann dies als „selbstwertmindernd“ empfunden werden. Bei verhaltensbezogenem Einsatz wird nicht nur das verstärkte Verhalten gefördert, sondern auch das Selbstwertgefühl des Lernenden erhöht.[61]

Aktivitätsverstärker sind „angenehm erlebte und angestrebte Tätigkeiten“.[62] Sie sind durch Beobachtung zu ermitteln und können eingesetzt werden, um ein Verhalten niederer Kategorie zu bewirken. Dies findet alltäglich im Rahmen von Erziehung statt, wenn Kinder dazu angehalten werden, erst die Hausaufgaben zu erledigen und dann spielen zu gehen. Andere Begriffe dazu sind Selbstverstärkung, -kontrolle und –steuerung.[63] Verdeckte Verstärker ergeben sich durch das Handeln selbst, wenn es Freude macht oder Erfolg zeitigt, z.B. beim Lösen einer komplexen (Denk-)Aufgabe.[64]

2.2.3 Verstärkungspläne

Verstärkungspläne beschreiben das Verhältnis von operantem Verhalten und zeitnah angefügten Verstärkungen. Unterschieden werden die kontinuierliche und die intermittierende oder partielle Verstärkung.

Kontinuierliche Verstärkung liegt vor, wenn jedes operante Verhalten verstärkt wird; z.B. erhält die Taube nach jedem Picken gegen die richtige Käfigscheibe Futter. Permanente Verstärkung bietet sich an, wenn es um das schnelle Erlernen eines Verhaltens geht.[65] Die Löschungsresistenz ist allerdings sehr gering; d.h. das gelernte Verhalten wird bei Ausbleiben der Verstärkung gelöscht.[66]

Abhilfe schafft hier die partielle Verstärkung. Unterschieden werden Intervallpläne – hier folgt die Verstärkung nach einem festen oder variablen Zeitraum – und Quotenpläne, bei denen die Verstärkung an der Anzahl der gezeigten Verhaltensweisen orientiert ist.[67] Die Quote gibt das Verhältnis von verstärkten zu nicht verstärkten Reaktionen an. Fixierte Intervallpläne verstärken nur die Reaktionen, die nach Ende des Zeitintervalls auftreten, und fördern daher „Saisonarbeit“. Erfolgt z.B. im Taubenversuch die Futtergabe alle zwei oder fünf Minuten, wird 1¾ oder 4¾ Minuten nicht gepickt, sondern erst kurz vor der Verstärkung.[68] Analoges findet man im schulischen Lernen, wenn Schüler nur vor Leistungsmessungen wie Klassenarbeiten lernen statt regelmäßig über das Schuljahr verteilt.

Ein fixierter Quotenplan bringt hohe und stabile Verhaltensweisen; bei Erhöhung des Verhaltens – hier die Anzahl des Pickens, z.B. wird jeder fünfte Pickversuch verstärkt – wird das operante Verhalten nicht direkt gezeigt; es tritt vielmehr eine Pause ein.[69]

Beim variablen Quotenplan wird die Anzahl der Reaktionen, die verstärkt werden, um einen Durchschnittswert herum verändert; z.B. werden die Pickversuche 80, 35, 44, 13, 110, 18 verstärkt, im Schnitt also jede 50. Pickreaktion. Sie ergibt sich durch Addition aller Pickversuche, dividiert durch die Anzahl der Verstärkungen. Das Ergebnis sind sehr hohe, konstant und stabil bleibende Verhaltensraten bei gleichzeitig hoher Lösungsresistenz.[70]

Eine Veränderung der Zeitabstände, denen eine Verstärkung folgt, gibt es im variablen Intervallplan; z.B. nach 5, 21, 14, 3, 9, 20 Minuten, im Schnitt also alle 12 Minuten. Auch hier ist der Lerneffekt hoch, aber etwas niedriger als beim variablen Quotenplan.[71] Ein Beispiel aus der Schule sind unangekündigte Hausaufgabenabfragen oder Kurzkontrollen, die zum regelmäßigen Arbeiten zwingen, auch wenn das Intervall vergrößert wurde.

Als Ergebnis kann festgehalten werden, dass Quotenpläne erfolgreicher sind als Intervallpläne, variable besser als fixierte, da nicht nur die Verhaltensrate insgesamt höher, sondern auch dauerhaft und konstant ist.

2.2.4 Aversive Verhaltenskontrolle und Strafe

Darunter versteht man Reize, die die Auftretenswahrscheinlichkeit eines Verhaltens verringern sollen.[72] Primäre aversive Reize können Elektroschocks sein, die häufig in Tierversuchen angewendet werden, grelles Licht oder extreme Lautstärke.[73] Sekundäre aversive Reize sind erlernt worden, z.B. kann dem Elektroschock ein Summton vorangeschaltet werden, der dann zu diesem sekundären aversiven Reiz wird. Dazu zählen aus dem Bereich des sozialen Lebens Kopfschütteln, Stirnrunzeln oder eine Drohgebärde mit dem Finger sowie die Wegnahme positiver Verstärker.[74] Daraus resultiert ein Vorbeugeverhalten, indem z.B. Rechnungen fristgerecht bezahlt werden oder wärmere Kleidung bei niedrigeren Temperaturen getragen wird. Auch in der Schule findet aversive Kontrolle des Lernenden statt in Form zu umfangreicher Lehrpläne, Leistungsüberprüfungen, von unzureichendem Nachdenken mancher Lehrer und Eltern über das eigene Verhalten, was zu negativer Verstärkung und Bestrafung führt. Sinnvoller ist das „Lernprinzip Erfolg“, bei dem Lernende auf Grund ihrer Motivation positiv verstärkt werden sollen.[75]

Bei Verstärkungen ist der Mensch aktiv, er tut etwas. Das unterscheidet Verstärkung von Bestrafung, die der Unterdrückung von Verhalten dient und deshalb keine Verstärkung ist. Eine Bestrafung ist nur dann wirksam, wenn zwischen Bestrafendem und Bestraftem ein stabiles Vertrauensverhältnis besteht, das durch Strafe nicht beschädigt wird.[76] Wesentlich ist die zeitliche Nähe der Strafe zum ungewünschten Verhalten, weil Strafe sonst nur eine geringe Wirkung hat, wie das Beispiel von Geschwindigkeitsüberschreitungen zeigt: Die zeitliche Verzögerung des Bußgeldbescheides und die geringe Wahrscheinlichkeit „erwischt“ zu werden. Die Erfolgsaussichten, unerwünschtes Verhalten zu beseitigen, sind durch alternatives Verhalten, für das Verstärkung erlangt werden kann, höher.[77]

2.2.5 Programmierter Unterricht

Skinners wichtige Erkenntnis liegt darin, dass Organismen nicht nur auf Reize reagieren, sondern auch spontan aktiv werden. Gerade die Aktivität, das eigene Tun des Lernenden führt zur Aneignung neuer Verhaltensweisen.[78] Außerdem ist bedeutsam die „pragmatische Kontrolle des Verhaltens und die Entwicklung einer Verhaltenstechnologie“.[79] Aus diesen Grundüberlegungen entstand das programmierte Lernen.[80] Dazu wird der Lernstoff in so kleine Teile zerlegt, dass etwa 90-95% der SchülerInnen eine richtige Antwort geben. Alle Lernenden müssen die gleiche Aufgabe bearbeiten, aber jeder gemäß dem eigenen Lerntempo.[81] Der Computer gibt dann die Verstärkung in Form der Information, dass die eingegebene Antwort richtig ist. Die Verantwortung für den Lernerfolg liegt beim Programm, denn: „Ein Unterrichtsprogramm ist ein Instrument, das eine im wesentlichen reproduzierbare Abfolge von Unterrichtsgängen erzeugt und die Verantwortung dafür übernimmt, dass von einer gegebenen Bandbreite von Eingangsfähigkeiten oder Verhaltenstendenzen aus eine spezifizierte Veränderung zu einem spezifizierten Endzustand von Fähigkeiten oder Verhaltenstendenzen erreicht wird.“[82] Das Programm muss demnach so lange überarbeitet werden, bis der Lernablauf optimiert ist.

2.2.6 Abschließende Bemerkungen

Skinners Theorie ist hilfreich im Bereich der angewandten Psychologie, im Alltagsleben eines Handelsvertreters[83] oder im Schuldienst, wenn Schülerleistungen angemessen mit Lob verstärkt werden, wobei die personenspezifische Angemessenheit zu beachten ist, denn ein „gut“ auf eine Schülerreaktion kann bei einem anderen Schüler, der ebenso verstärkt werden soll, nicht als solche empfunden werden. Hier ist die Lehrkraft in der Auswahl geeigneter Verstärker gefordert. Ein Mangel liegt im universalen Anspruch der Theorie. Es fehlt aber der Aspekt, dass die Umwelt einen starken Einfluss auf das Verhalten hat; innerorganismische Vorgänge werden ebenso wenig berücksichtigt, z.B. im kognitiven Bereich. Dazu gehören etwa Wahrnehmen, Problemlösen, Entscheiden. Ferner bleiben Entwicklungsverläufe unberücksichtigt, die – gerade beim Menschen – qualitativ erhebliche Unterschiede aufweisen. Skinner bestreitet zudem die Existenz eines freien menschlichen Willens.[84]

3. Gestaltpsychologische Ansätze: Die Lerntheorie von Edward Chase Tolman (1886 – 1959)

Tolman versteht unter Lernen ein Lernen von Zeichen in Verbindung mit Erwartungen und steht damit in Gegensatz zu Reiz-Reaktions-Theorien, die annehmen, dass der Organismus, gesteuert durch interne und externe Reize, einen Reaktionsablauf lernt, der zu einem bestimmten Ergebnis führt.[85] Lernen bei Tolman findet dergestalt statt, „dass der Lernende Zeichen zu einem Ziel hin verfolgt, dass er seinen Weg herausfindet, dass er einer Art von Lageplan folgt – in anderen Worten, nicht Bewegungen, sondern Bedeutungen lernt.“[86] Lernen als Verhaltensänderung vollzieht sich in „Zeichen-Gestalt-Erwartungen“, die auf der Annahme seitens des Lernenden basieren, „dass gewisse Handlungen zu gewissen Zielen führen“[87], wobei diese Ziele positiv (annehmen) oder negativ (vermeiden) sein können. Daraus ergibt sich das Lernen als kognitiver Prozess.

Ergebnis des Lernens sind daher eher Wissen oder Erkenntnisse als spezifische Gewohnheiten wie bei Reiz-Reaktions-Theorien. Gelernt wird ein Verhalten auch ohne Ausführung.[88] Die Ausführung des Verhaltens setzt ein Zielverlangen voraus.[89]

Tolman widerspricht Thorndikes „Gesetz der Wirkung“ insofern, als er Lernen und Vollzug des Gelernten differenziert. Nach seiner Auffassung werden Reaktionen nicht durch den erreichten Erfolg verstärkt, sondern nach erfolgreicher Umsetzung des Gelernten. Gelernt werden muss also ein „funktioneller Zusammenhang zwischen verschiedenen Elementen der Situation“ gemäß der Formel: „Verhalten x führt über Weg y zum Ziel z.“[90] Tolman sieht also das Lernen aus ganzheitlicherer Perspektive und vertritt die Auffassung, dass Lernen zweck- und zielgerichtet ist.[91]

Belegen lassen sich diese Überlegungen in Tierversuchen mit Ratten, dessen Ergebnis Abb.2 zeigt.

Abbildung in dieser Leseprobe nicht enthalten

Abb.2: Labyrinth-Fehlerkurven von drei unterschiedlich behandelten Rattengruppen nach Tolman/Honzik

Quelle: Skowronek,H., S.49)

Von zwei Rattengruppen erhält die erste regelmäßig Futter nach Durchlaufen des Labyrinths, die zweite erhielt zunächst kein Futter. Gruppe 1 stellte die Fehler beim Durchlaufen schneller ab und verkürzte dadurch die Durchlaufzeit schneller als Gruppe 2. Wird nun auch Gruppe 2 regelmäßig gefüttert – hier ab dem 11. Tag –, verringert sich deren Durchlaufzeit ebenfalls erheblich. Bei Ratten ohne Belohnung dauert der Vorgang am längsten. Gruppe 2 und Gruppe 3 haben also im Prinzip genauso gut gelernt wie Gruppe 1, das Gelernte aber mangels Belohnung – eine nicht erfüllte Erwartung – nicht abgerufen. Diese Rattengruppen hatten „latent“ gelernt.[92]

Gelernt werden Handlungen im Sinne des Durchlaufens des Labyrinths in Verbindung mit einer „mentalen Landkarte“, wobei Einzelelemente durchaus austauschbar sind. So konnten Ratten in Experimenten das Labyrinth auch durchschwimmen statt durchlaufen.[93] Bei Barrieren in einzelnen Gängen werden neue kürzeste Wege gefunden, wenn es am Ende Futter gibt. Beim Lernen entstehen also die motivationsfördernden Zielerwartungen.[94]

Tolmans Forschungen führten zu Versuchen der psychologischen Forschung, bisherige Ergebnisse der Lernpsychologie erwartungstheoretisch zu erklären. Ergebnisse der klassischen Konditionierung wurden erklärt durch „Reiz-Reaktions-Erwartungen“, die des operanten Lernens als „Verhalten-Reiz-Erwartungen.“ Die Perspektive hat sich zu Gunsten der Wahrnehmung von Reizen verschoben, die in Beziehung zum Verhalten und daraus folgenden Konsequenzen steht. Diese Beziehungen sind individuell verschieden, so dass z.B. „objektiv vorhandene Beziehungen nicht erkannt bzw. objektiv nicht vorhandene angenommen werden.“ Insbesondere das latente Lernen, also ohne Verstärkung, stellt eine maßgebliche Erweiterung der bisherigen Lerntheorien dar.[95]

4. Kognitive Lerntheorien

4.1. Die sozial-kognitve Lerntheorie von Albert Bandura (*1925)

4.1.1 Grundsätzliches

Banduras Lerntheorie hat ausschließlich Bezüge zum menschlichen Lernen, dem Grundannahmen über die Natur des Menschen zugrunde liegen. Die Verwendung von Symbolen ermöglicht die Speicherung von Erfahrungen im Gedächtnis, damit entfällt die Phase des Einübens. Gedanken beeinflussen daher ebenso das Verhalten wie vorausschauendes Denken, durch das mögliche Ereignisse quasi vorweggenommen werden und damit das Verhalten bestimmen können.[96] Schließlich entwickelt er Standards zur Verhaltensbewertung und verfügt über die Fähigkeit zur Selbstreflexion. Bandura sieht in seinem Modell die Wechselwirkung zwischen Personen-, Verhaltens- und Umweltbedingungen.[97]

Ausgangspunkt der Lerntheorie ist Nachahmung. Diese „ist nach Dollard und Miller ein Prozess, durch den entsprechende oder ähnliche Akte in zwei Personen ausgelöst und mit geeigneten Anzeichen verbunden werden (…) Wenn Nachahmung regelmäßig belohnt wird, kann sich eine sekundäre Tendenz zur Nachahmung entwickeln, und der Prozess der Nachahmung wird zum abgeleiteten Nachahmungstrieb.“[98] Da das Beobachtungslernen nach Ansicht von Dollard und Miller den Lerngesetzen folgt, ist dieses als Erweiterung der Reiz-Reaktions-Lerntheorien zu sehen. Eine positive Verstärkung ist das Lob für ein kleines Kind, das seine Spielsachen wegräumt; der Tadel, wenn es das nicht tut, ist eine negative Verstärkung. Das angestrebte Verhalten wird nach teilweiser oder regelmäßiger Belohung öfter auftreten. Andere Begriffe dafür sind „Sanktionenlernen“ und „Unterscheidungslernen“.[99]

Nach Bandura und Walters (1963) erfolgt das eigentliche Beobachtungslernen bei Kindern, die sich an Verhaltensmustern ihrer Eltern orientieren. Eltern können sich dieses abgeschaute Verhalten oft nicht erklären in Unkenntnis der Tatsache, dass sie selbst quasi Vorbild sind. Das bedeutet zugleich, dass das auch „Identifikationslernen“ genannte Beobachtungslernen auch ohne Verstärkung erfolgt. Nach Bandura und Walters bezieht sich dieses Lernen auf „die Tendenz des Individuums, Handlungen, Einstellungen oder emotionale Reaktionen zu reproduzieren, die von symbolisierten oder realen Modellen gezeigt werden.“[100] Symbolische Modelle sind z.B. Benimm-Handbücher, Verhaltensratgeber, Figuren in Geschichten, Märchen, Filmen oder der Werbung. Auch aggressives Verhalten kann auf diese Weise gelernt werden, wobei es dabei zu „Enthemmungsvorgänge(n) kommen kann, d.h. das aggressive Verhalten zeigt sich nicht nur in der Lernsituation vergleichbaren Lagen, sondern auch in völlig anders gelagerten Situationen.“[101]

[...]


[1] Schermer,Franz J.: Lernen und Gedächtnis. = Grundriss der Psychologie, Band 10, S.9. Stuttgart u.a., 1991; im Folgenden zitiert als: Schermer,F.

[2] Skowronek,Helmut: Lernen und Lernfähigkeit. = Grundfragen der Erziehungswissenschaft, Band 9, S.9. Mün- chen, 61975; im Folgenden zitiert als: Skowronek,H.; Seel,Norbert M.: Psychologie des Lernens, S.20. Mün- chen, 22003; im Folgenden zitiert als: Seel,N.

[3] Edelmann,Walter: Lernpsychologie, S.277. Weinheim, 62000; im Folgenden zitiert als: Edelmann,W.

[4] Skowronek,H., S.11; analog bei: Bodenmann,Guy/Perrez,Mainrad u.a.: Klassische Lerntheorien. Grundlagen und Anwendungen in Erziehung und Psychotherapie, S.14. Bern u.a., 2004; im Folgenden zitiert als: Boden- mann,G.; Gage,N.L./Berliner,D.C., Pädagogische Psychlogie, S.260f.; Weinheim, 1986; im Folgenden zitiert als: Gage/Berliner.

[5] Bodenmann,G., S.14.

[6] Lefrancois,Guy R.: Psychologie des Lernens, S.11. Berlin u.a., 32003; im Folgenden zitiert als: Lefrancois,G.

[7] ebda.

[8] Schermer,F., S.12; analog bei Baumgart,Franzjörg: Entwicklungs- und Lerntheorien. Erläuterungen-Texte-Ar- beitsaufgaben, S.109. Bad Heilbrunn/Obb., 1998; im Folgenden zitiert als Baumgart,F.

[9] Schermer,F., S.12.

[10] Seel,N., S.21; analog bei Müller,Klaus: Der pragmatische Konstruktivismus. Ein Modell zur Überwindung des Antagonismus von Instruktion und Konstruktion. In: Meixner,Johanna/Müller,Klaus (Hrsg.): Konstruktivisti- sche Schulpraxis, S.3-47, hier S.6. Neuwied,Kriftel, 2001; im Folgenden zitiert als: Müller,K.

[11] Seel,N., S.20.

[12] Seel,N., S.24.

[13] Müller,K., S.38; analog bei Kösel,Edmund/Scherer,Helios: Konstruktionen über Wissenserwerb und Lernwe- ge bei Lernenden. In: Voß,Reinhard: Die Schule neu erfinden. Systemisch-konstruktivistische Annäherungen an Schule und Pädagogik, S.105-128, hier S.105f. Neuwied und Kriftel, 42002; im Folgenden zitiert als: Kö- sel/Scherer.

[14] Kahlert,Joachim: Didaktische Netze – ein Modell zur Konstruktion situierter und erfahrungsoffener Lernum- gebungen. In: Meixner/Müller, S.73-94, hier S.75. Neuwied und Kriftel, 2001; im Folgenden zitiert als: Kah- lert (vgl. Anm.10).

[15] Huschke-Rhein,Rolf: Lernen, leben, überleben. Die Schule als Lernsystem und das Lernen fürs Leben aus der Perspektive systemisch-konstruktivistischer Lernkonzepte. In: Voß,Reinhard (Hrsg.), S.33-55, hier S.40. Neuwied und Kriftel, 42002; im Folgenden zitiert als: Huschke-Rhein,R., 2002.

[16] Baumgart,F., S.109.

[17] Skowronek,H., S.18; Seel,N., S.19.

[18] Schermer,F., S.26.

[19] Schermer,F., S.26; Skowronek,H., S.22; Baumgart,F., S.110; Lefrancois,G., S.17f.; Gage/Berliner, S.262; Edel- mann,W., S.31, hier als Säure-Experiment; Krech,D./Crutchfield,R. u.a.: Grundlagen der Psychologie, Band 3: Lern- und Gedächtnispsychologie. Weinheim, 1992a, S.14f.; im Folgenden zitiert als: Krech/Crutchfield, 1992a.

[20] Schermer,F., S.27; Skowronek,H., S.22f.; Gage/Berliner, S.262f.; Lefrancois,G., S.18; Bodenmann,G., S.49-51; Krech/Crutchfield, 1992a, S.15; Angermeier, Wilhelm F.: Psychologie des Lernens: Grundlagen des Lernens. Hagen, 1987a, S.80; im Folgenden zitiert als: Angermeier,W., 1987a; Edelmann,W., S.35f.

[21] Skowronek,H., S.25; Seel,N., S.19.

[22] Skowronek,H., S.25; Krech/Crutchfield, 1992a, S.20.

[23] Skowronek,H., S.25f.

[24] Skowronek,H., S.26; ähnlich bei Baumgart,F., S.120; Krech/Crutchfield, 1992a, S.18; Edelmann,W., S.41.

[25] Lefrancois,G., S.20f.; Baumgart,F., S.127; Angermeier,W., 1987a, S.80f.

[26] Gage/Berliner, S.298f.; Krech/Crutchfield, 1992a, S.21; Edelmann,W., S.21.

[27] Baumgart,F., S.138; Angermeier,W., 1987a, S.102; Lefrancois,G., S.44, dort weitere Beispiele.

[28] Skowronek,H., S.26; Schermer,F., S.27f.

[29] Skowronek,H., S.26f.; Gage/Berliner, S.298f.

[30] Schermer,F., S.28; Angermeier,W., 1987a, S.102; Gage/Berliner, S.297; Krech/Crutchfield, 1992a, S.22; Edel- mann,W., S.39.

[31] Baumgart,F., S.139; Lefrancois,G., S.44.

[32] Schermer,F., S.44; Bodenmann,G., S.64f.

[33] Schermer,F., S.30; Angermeier,W., 1987a, S.28; Gage/Berliner, S.299; Krech/Crutchfield, 1992a, S.21; Edel- mann,W., S.93.

[34] Schermer,F., S.76; Baumgart,F., S.133; Krech/Crutchfield, 1992a, S.21.

[35] Schermer,F., S.29; Lefrancois,G., S.18; Bodenmann,G., S.60; Krech/Crutchfield, 1992a, S.17f.

[36] Schermer,F., S.30; Edelmann,W., S.39f. Mit Hunden gelang eine dreistufige, mit Menschen eine siebenstufige Ordnung, v.a. im motivationalen und emotionalen Bereich; vgl. Bodenmann,G., S.60.

[37] Lefrancois,G., S.29; Bodenmann,G., S.99; Krech/Crutchfield, 1992a, S.31; Seel,N., S.19.

[38] Skowronek,H., S.19; analog Schermer,F., S.47; Seel,N., S.19; Lefrancois,G., S.28.

[39] Skowronek,H., S.22; analog Angermeier,W., 1987a, S.91; Lefrancois,G., S.27; Bodenmann,G., S.99.

[40] Skowronek,H., S.19; Bodenmann,G., S.101; Lefrancois,G., S.128.

[41] Schermer,F., S.47; Skowronek,H., S.20.

[42] zitiert nach Schermer,F., S.47f.

[43] Skowronek,H., S.21; Schermer,F., S.28; Baumgart,F., S.113; Lefrancois,G., S.27; Bodenmann,G., S.100.

[44] Skowronek,H., S.21; analog Lefrancois,G., S.26; Bodenmann,G., S.101; Angermeier,W., 1987a, S.91.

[45] Skowronek,H., S.21f; Bodenmann,G., S.101.

[46] Skowronek,H., S.37; Edelmann,W., S.66; Gage/Berliner,S.296; Lefrancois,G., S.33; Angermeier,W., 1987a, S. 97; Baumgart,F., S.129.

[47] Schermer,F., S.55; Skowronek,H., S.37; Baumgart,F., S.112 und S.129; Lefrancois,G., S.33; Edelmann,W., S.67.

[48] Schermer,F., S.56; Baumgart,F., S.112; Edelmann,W., S.68; Bodenmann,G., 105f; Angermeier,W., 1987a, S.97.

[49] Kron,Friedrich W.: Grundwissen Pädagogik. München und Basel, 62001, S.157; im Folgenden zitiert als: Kron,W. 2001.

[50] Angermeier,W., 1987a, S.97; Krech/Crutchfield, 1992a, S.31; Edelmann,W., S.67f.

[51] Schermer,F., S.55; Bodenmann,G., S.106f.; Edelmann,W., S.71f.; Skowronek,H., S.38; Krech/Crutchfield, 1992a, S.41.

[52] Skowronek,H., S.38f.; ein weiteres Experiment mit Ratten findet sich bei Lefrancois,G., S.36f. und Baumgart,F., S.131f.

[53] Skowronek,H., S.66f.; Baumgart,F., S.136; Angermeier,W., 1987a, S.99; Lefrancois,G., S.99; Edelmann,W.,S.78; Krech/Crutchfield, 1992a, S.45; Gage/Berliner, S.293.

[54] Sinner, 1966, S.62; zitiert nach Schermer,F., S.56.

[55] Lefrancois,G., S.34; Baumgart,F., S.130; Schermer,F., S.56; Edelmann,W., S.76; Gage/Berliner, S.281.

[56] Seel,N., S.20.

[57] analog bei Baumgart,F., S.130; Angermeier,W., 1987a, S.98; Lefrancois,G., S.26/35; Bodenmann,G., S.108f.; Krech/Crutchfield, 1992a, S.34f.; Edelmann,W., S.69.

[58] Baumgart,F., S.132; Angermeier,W., 1987a, S.101; Lefrancois,G., S.37; Schermer,F., S.58; Edelmann,W., S.47; Bodenmann,G., S.109; Gage/Berliner, S.283.

[59] Schermer,F., S.58; Angermeier,W., 1987a, S.101; Gage/Berliner, S.283f.

[60] Schermer,F., S.59.

[61] Schermer,F., S.59; Bodenmann,G., S.112f.; dort auch Beispiele aus Schule (S.136) und Erziehung (S.137ff.).

[62] Schermer,F., S.60; Edelmann,W., S.77.

[63] Kron,Friedrich W.: Grundwissen Didaktik. Basel u.a., 2004 , S.161 ; im Folgenden zitiert als Kron,F., 2004; Bo- denmann,G., S.114f.; Schermer,F., S.60.

[64] Schermer,F., S.60; Edelmann,W., S.74.

[65] Schermer,F., S.61; Angermeier,W., 1987a, S.99; Lefrancois,G., S.40; Bodenmann,G., S.122; Gage/Berliner, S. 284; Edelmann,W., S.77.

[66] Schermer,F., S.61; Lefrancois,G., S.40.

[67] Schermer,F., S.62; Bodenmann,G., S.123; Lefrancois,G., S.38/40; Gage/Berliner, S.284; Skowronek,H., S.39; Baumgart,F., S.134; Krech/Crutchfield, 1992a, S.37.

[68] Schermer,F., S.62; Lefrancois,G., S.39; Bodenmann,G., S.123; Gage/Berliner, S.288.

[69] Skowronek,H., S.39; Schermer,F., S.62; Bodenmann,G., S.124; Gage/Berliner, S.285; Edelmann,W., S.78; Le- francois,G., S.39.

[70] Schermer,F., S.63; analog bei Lefrancois,G., S.39; Bodenmann,G., S.125; Gage/Berliner, S.287; Krech/Crutch- field, 1992a, S.37.

[71] Schermer,F., S.63; analog Lefrancois,G., S.39; Bodenmann,G., S.124; Gage/Berliner, S.289.

[72] Schermer,F., S.67; Kron,W., 2004, S.159; Gage/Berliner, S.282f.

[73] Schermer,F., S.68; Krech/Crutchfield, 1992a, S.47.

[74] Schermer,F., S.68; Lefrancois,G., S.47; Edelmann,W., S.89f.

[75] Edelmann,W., S.83/99.

[76] Lefrancois,G., S.47.

[77] Schermer,F., S.73; Edelmann,W., S.90. Aus Gründen der didaktischen Reduktion muss auf weitere Ausführungen an dieser Stelle verzichtet werden.

[78] Skowronek,H., S.67; Kron,F., 2004, S.157.

[79] Skowronek,H., S.67.

[80] Seel,N., S.20; Kron,F., 2004, S.162.

[81] Schermer,F., S.79; Edelmann,W., S.77; Skowronek,H., S.68; Kron,F., 2004, S.163.

[82] Lumsdaine 1964, S..385 – zitiert nach Skowronek,H., S.68.

[83] Schermer,F., S.80; Baumgart,F., S.137f./143.

[84] Baumgart,F., S.140; Lefrancois,G, S.49; Schermer,F., S.80f.

[85] Skowronek,H., S.47f.; Baumgart,F., S.168; Lefrancois,G., S.93.

[86] Skowronek,H., S.48; analog bei Bodenmann,G., S.183.

[87] Skowronek,H., S.48; analog bei Schermer,F., S.97; Lefrancois,G., S.94f.; Bodenmann,G., S.183f.

[88] Angermeier, Wilhelm F.: Psychologie des Lernens: Kognitive Lerntheorien. Hagen, 1987, S.35; im Folgenden zi- tiert als: Angermeier,W., 1987c; Bodenmann,G., S.185; Krech/Crutchfield, 1992a, S.35f.

[89] Skowronek,H., S.46; Bodenmann,G., S.186, dort auch ein Beispiel dazu.

[90] Skowronek,H., S.48.

[91] Schermer,F., S.96; Lefrancois,G., S.92; Bodenmann,G., S.186f.

[92] Skowronek,H., S.49; Lefrancois,G., S.94; Bodenmann,G., S.36f.

[93] Skowronek,H., S.50; Angermeier,W., 1987c, S.37; Bodenmann,G., S.189; Krech/Crutchfield, 1992a, S.35.

[94] Angermeier,W., 1987c, S.37; Skowronek,H., S.50; Bodenmann,G., S.187; Schermer,F., S.97.

[95] Schermer,F., S.97f.; Bodenmann,G., S.191ff.

[96] Schermer,F., S.83; Seel,N., S.121.

[97] Schermer,F., S.84; Seel,N., S.119f.; Baumgart,F., S.115; Angermeier,Wilhelm F.: Psychologie des Lernens: Ver- bales Lernen. Hagen, 1987b, S.6; im Folgenden zitiert als: Angermeier,W., 1987b.

[98] 1941, S.10 – zitiert nach Skowronek,H., S.63f.

[99] Skowronek,H., S.64.

[100] 1963, S.89 – zitiert nach Skowronek,H., S.65; analog bei Schermer,F., S.84, dort auch die Versuchsanordnung Banduras von 1965; Baumgart,F., S.153.

[101] Schermer,F., S.66; analog bei Bodenmann,G., S.239; Gage/Berliner, S.271 und S.357f.

Details

Seiten
Jahr
2006
ISBN (eBook)
9783656757016
ISBN (Paperback)
9783656768784
Dateigröße
822 KB
Sprache
Deutsch
Institution / Hochschule
Universität des Saarlandes – Philosophische Fakultät III - Empirische Humanwissenschaften, Fachbereich Erziehungswissenschaften
Erscheinungsdatum
2014 (September)
Note
1,0
Schlagworte
lernen über inhalte lerntheorien ansätze
Zurück

Titel: Was ist Lernen? Über die Inhalte behavioristischer und kognitiver Lerntheorien sowie gestaltpsychologischer und konstruktivistischer Ansätze