Wissenschaftstheorie
Wie Psychologie zur Wissenschaft wurde
Psychologie will nicht nur beschreiben, sondern erklären und vorhersagen. Aber was macht eine Aussage „wissenschaftlich"?
🔬 Logischer Empirismus
Nur empirisch überprüfbare Aussagen sind wissenschaftlich. Wiener Kreis (Carnap, Schlick): Theorie + Beobachtung = Erkenntnis.
❌ Kritischer Rationalismus
Popper (Falsifikationismus): Theorien können nie bewiesen, nur widerlegt werden. Wissenschaftlich = prinzipiell falsifizierbar.
🔄 Paradigmenwechsel
Kuhn: Wissenschaft verläuft in Revolutionen. Ein Paradigma dominiert, bis Anomalien einen Umsturz erzwingen.
„Alle Schwäne sind weiß" — falsifizierbar (ein schwarzer Schwan reicht). „Irgendwo gibt es Geister" — nicht falsifizierbar → nicht wissenschaftlich nach Popper.
Induktion vs. Deduktion: Induktion: Einzelfall → Allgemeines (unsicher!). Deduktion: Allgemeines → Einzelfall (gültig). Popper: hypothetisch-deduktive Methode — Hypothese → Vorhersage → empirisch prüfen.
Theorie-Beladenheit der Beobachtung
Es gibt keine „reine" Beobachtung. Ein Radiologe sieht auf einem Röntgenbild etwas anderes als ein Laie. Heller: Experiment und Theorie sind wechselseitig bedingt.
Das Asymmetrie-Argument
Eine Theorie lässt sich nie endgültig verifizieren (egal wie viele weiße Schwäne). Aber mit einem einzigen Gegenbeispiel falsifizieren.
Gerichtsprozess: Unschuld nie beweisbar, Schuld schon — durch ein belastendes Beweisstück. So auch bei Theorien.
Kuhns Phasenmodell
Psychologie: Behaviorismus → Chomsky (Sprache ≠ nur Verstärkung) + Tolman (kognitive Karten) → Kognitive Wende.
Duhem-Quine-Problem
Hypothesen werden nie isoliert getestet, sondern mit Hilfsannahmen. Wenn widerlegt — welcher Teil falsch? Falsifikation ist weniger eindeutig als Popper suggeriert.
Lakatos: Forschungsprogramme
Harter Kern (unveränderbar) + Schutzgürtel (anpassbar). Anomalien treffen erst den Schutzgürtel. Erst wenn das Programm „degenerativ" wird → Ablösung.
Statement View vs. Non-Statement View
In der Klausur ein Dauerbrenner: Wie unterscheiden sich die beiden Auffassungen von Theorien?
Statement View
- Theorien = Menge von Aussagen (Sätze)
- Logischer Empirismus, Popper
- Theorie ist sprachliches Gebilde
- Verifikation/Falsifikation von Sätzen
Non-Statement View
- Theorien = Mengen von Modellen
- Sneed/Stegmüller: Strukturalismus
- Formale Rekonstruktion:
T = (K, I) - K = math. Kern, I = intendierte Anwendungen
Theorie = geordnetes Paar T = (K, I). Der Kern K enthält die formale Struktur (Axiome, Modelle). I sind die intendierten Anwendungen — reale Systeme, die der Theorie genügen sollen. Vorteil: Theorien können sich entwickeln, ohne völlig aufgegeben zu werden (Kern bleibt, I ändert sich).
Erkenntnistheoretische Grundpositionen
| Position | Kernaussage | Vertreter |
|---|---|---|
| Empirismus | Erkenntnis durch Sinneserfahrung | Locke, Hume, Wiener Kreis |
| Rationalismus | Erkenntnis durch Vernunft/Denken | Descartes, Leibniz |
| Realismus | Welt existiert unabhängig vom Beobachter | Popper |
| Idealismus | Realität ist geistabhängig | Berkeley, Kant (teilw.) |
| Skeptizismus | Sichere Erkenntnis ist unmöglich | Hume (Induktionsproblem) |
Theorienbildung: Gütekriterien
🎯 Terminol. Exaktheit
Klassifikatorisch (=/ ≠), komparativ (>, <), quantitativ (Zahlen). Je quantitativer, desto präziser.
🪒 Sparsamkeit
Ockhams Rasiermesser: Die einfachste Erklärung gewinnt. Weniger Parameter = besser.
⚖️ Anpassung vs. Generalisierung
Overfitting: Theorie passt perfekt auf Daten, versagt bei neuen. Gute Theorie = robust generalisierbar.
Klausurfalle: Eine Theorie mit perfekter Anpassungsgüte ist nicht automatisch gut — sie kann overfitted sein! Prüfbarkeit und Sparsamkeit sind mindestens ebenso wichtig.
Paradigmen in der Psychologie
Behaviorismus: Watson (S→R), Skinner-Box (Verstärkung). Anomalien: Chomsky (Sprache ≠ nur Verstärkung), Tolman (kognitive Karten bei Ratten). Kritik Neuroimaging: Lachs-fMRI-Studie — selbst bei totem Lachs „Aktivierung" ohne Korrektur für multiples Testen!
🧠 Schnellcheck
Welche Aussage ist nach Popper nicht wissenschaftlich?
Formale Logik
Das Fundament korrekten Schließens
Logik prüft, ob die Schlussfolgerung zwingend aus den Prämissen folgt.
Aussagenlogik
| Junktor | Symbol | Bedeutung | Wahr, wenn… |
|---|---|---|---|
| Negation | ¬A | „nicht A" | A falsch |
| Konjunktion | A ∧ B | „A und B" | beide wahr |
| Disjunktion | A ∨ B | „A oder B" | mind. eines wahr |
| Konditional | A → B | „wenn A, dann B" | nicht (A wahr ∧ B falsch) |
| Bikonditional | A ↔ B | „genau dann, wenn" | gleicher Wahrheitswert |
Konditional ist kontraintuitiv! A → B ist nur falsch, wenn A wahr und B falsch. Bei falschem A ist es immer wahr (ex falso quodlibet).
Schlussregeln
Psychologie: „Wenn depressiv (A), dann niedrige Serotoninaktivität (B)." ✓ Person depressiv → niedrige Serotonin (Ponens). ✗ Niedrige Serotonin → depressiv? Fehlschluss! (Andere Ursachen möglich.)
Prädikatenlogik
∀x: P(x) — „Für alle x gilt P." ∃x: P(x) — „Es gibt mind. ein x mit P."
Negation: ¬(∀x: P(x)) ≡ ∃x: ¬P(x) — Ein Gegenbeispiel widerlegt die Allaussage → Basis der Falsifikation!
Mengenlehre & Relationen
| Abbildungstyp | Eigenschaft | Beispiel |
|---|---|---|
| Injektiv | Verschiedene Urbilder → verschiedene Bilder | Matrikelnummer → Student |
| Surjektiv | Jedes Element der Zielmenge wird getroffen | Noten → {1,2,3,4,5} |
| Bijektiv | Injektiv + Surjektiv → umkehrbar | Nominalskala-Transformation |
Eine n-stellige Relation R ⊆ A₁ × A₂ × … × Aₙ ist eine Teilmenge des kartesischen Produkts. Wichtig für Messtheorie: Empirisches Relativ = (M, R) mit einer Relation R auf M.
Wahrheitstabellen konstruieren
Klausuraufgabe: Welcher Operator macht (A ∧ B) ? (A → B) zur Tautologie?
| A | B | A∧B | A→B | ∧B ? A→B |
|---|---|---|---|---|
| w | w | w | w | ? = →: w |
| w | f | f | f | ? = →: w |
| f | w | f | w | ? = →: w |
| f | f | f | w | ? = →: w |
Antwort: → (Konditional) macht es zur Tautologie! (A ∧ B) → (A → B) ist immer wahr. Trick: Bei falschem Antezedens (A∧B = f) ist das Konditional automatisch wahr.
Kontraposition bilden
Klausurbeispiel: „Wenn jemand neurotisch ist, dann hat er Angst." Kontraposition: „Wenn jemand keine Angst hat, dann ist er nicht neurotisch." Formal: (A → B) ≡ (¬B → ¬A).
Tautologien (immer wahr)
De Morgan
„Nicht (hungrig UND müde)" = „Nicht hungrig ODER nicht müde." Das „und" wird zum „oder"!
Wissenschaftliches Schließen = Modus Tollens
🧠 Schnellcheck
„Wenn Regen (A), dann Straße nass (B)." Straße trocken (¬B). Was folgt?
Messtheorie
Psychologische Phänomene in Zahlen fassen
Messen = Homomorphismus vom empirischen (Lautstärken, Schmerz…) ins numerische Relativ (Zahlen), der Beziehungen erhält.
Eine Abbildung φ: M → ℝ heißt Homomorphismus, wenn gilt:
Die Richtung der Äquivalenz (⇔, nicht nur →) ist klausurrelevant: Die Zuordnung muss in beiden Richtungen gelten.
Skalenniveaus
| Skala | Eigenschaft | Transformation | Beispiel | Statistik |
|---|---|---|---|---|
| Nominal | = / ≠ | Bijektive Abb. | Geschlecht | Modus, χ² |
| Ordinal | + Rangfolge | Monotone Abb. | Schulnoten | + Median |
| Intervall | + Abstände | y = ax+b | °C, IQ | + Mittelwert |
| Verhältnis | + Nullpunkt | y = ax | Reaktionszeit | + Verhältnisse |
| Absolut | + Einheit | Identität | Anzahl | Alles |
„Doppelt so viel Schmerz" — nur bei Verhältnisskala! Bei Ordinalskala (1–10) sind Verhältnisaussagen unzulässig.
Ordinale Messung & Matrix-Aufgaben
In jeder Klausur kommt eine Matrix-Aufgabe: Gegeben eine Vergleichsmatrix, prüfe ob eine ordinale Messung möglich ist.
Ein empirisches Relativ (M, ≥) ist eine schwache Ordnung, wenn für alle x, y, z ∈ M gilt:
Wenn zusätzlich Antisymmetrie gilt (x ≥ y ∧ y ≥ x → x = y), ist es eine totale Ordnung.
Klausurbeispiel: 5 Personen (a–e) vergleichen Attraktivität paarweise. Matrix zeigt „≥" (mindestens so attraktiv wie):
| a | b | c | d | e | |
|---|---|---|---|---|---|
| a | 1 | 1 | 1 | 0 | 1 |
| b | 0 | 1 | 1 | 0 | 0 |
| c | 0 | 0 | 1 | 0 | 0 |
| d | 1 | 1 | 1 | 1 | 1 |
| e | 1 | 1 | 1 | 0 | 1 |
Prüfung Konnexität: Für jedes Paar (i,j): mindestens eine 1 in Zelle (i,j) oder (j,i)? Ja → Konnex.
Prüfung Transitivität: Wenn Zeile i hat 1 bei j, und Zeile j hat 1 bei k → muss Zeile i auch 1 bei k haben. Systematisch alle Tripel prüfen!
Homomorphismus: Zeilensummen → Rangzahlen: d=5, a=e=4, b=3, c=1. Wenn schwache Ordnung gilt, sind die Zeilensummen ein gültiger Homomorphismus.
Klausurtipp: Immer konkrete Gegenbeispiele mit Zeilen-/Spaltenangabe nennen! „Transitivität verletzt bei a≥b, b≥c, aber NICHT a≥c" — mit konkreten Matrixzellen.
Zyklische Triaden erkennen: Suche nach Kreisbeziehungen: A schlägt B, B schlägt C, C schlägt A. Sobald ein solcher Kreis existiert, ist die Transitivität verletzt! Das ist der schnellste Weg in der Klausur.
Repräsentations- & Eindeutigkeitssatz
Repräsentationssatz: Unter welchen Axiomen existiert ein Homomorphismus?
Eindeutigkeitssatz: Wie viele gibt es? → Bestimmt Skalenniveau! Eindeutig bis auf lineare Transformation → Intervallskala.
Das Likert-Dilemma
Likert-Skalen sind streng genommen ordinal. Mittelwerte? Pragmatisch OK bei symmetrischer Verteilung, genug Items (5+), und Annahme ~gleicher Abstände. Aber: Vorsicht bei einzelnen Items!
Permissible Statistics
Die erlaubten statistischen Operationen hängen vom Skalenniveau ab. Mittelwerte auf Nominalskalen sind sinnlos (mittleres Geschlecht?). Nur invariante Aussagen unter den erlaubten Transformationen sind sinnvoll.
Psychophysik
Reiz → Empfindung
Wie hängt subjektives Erleben mit physikalischer Reizintensität zusammen?
📏 Weber
JND proportional zur Reizstärke.
📐 Fechner
Empfindung wächst logarithmisch.
⚡ Stevens
n<1 Kompression, n>1 Expansion.
Weber: 1 kg → 50 g extra merkbar. 20 kg → ~400 g nötig. Weber-Bruch Gewicht: k ≈ 1/50. Tonhöhe: k ≈ 1/333!
Formale Psychophysik (Klausurrelevant!)
Derjenige Vergleichsreiz x, bei dem die Wahrscheinlichkeit einer „größer"-Antwort genau 50 % beträgt:
Der Abstand vom PSE zu dem Reiz, bei dem die Wahrscheinlichkeit π (z.B. 0.75) beträgt:
Webersches Gesetz — Formale Varianten
In der Klausur kommen 6 Formelvarianten zum Ankreuzen. Nur einige sind korrekt!
| Formel | Korrekt? | Erklärung |
|---|---|---|
p(x, s) = p(λx, λs) | Ja | Webersches Gesetz: Verhältnisse bleiben gleich bei Skalierung |
λ·p(x, s) = p(λx, λs) | Nein | Wahrscheinlichkeit wird nicht mit λ skaliert |
Δπ(λs) = λ·Δπ(s) | Ja | jnd skaliert proportional mit Standardreiz |
Δπ(λs) = Δπ(s) | Nein | jnd ist NICHT konstant über verschiedene s |
x₀.₅(λs) = λ·x₀.₅(s) | Ja | PSE skaliert mit |
p(x+a, s+a) = p(x, s) | Nein | Additive Invarianz gilt NICHT (nur multiplikative) |
Eselsbrücke: Weber = multiplikative Invarianz (Verhältnisse!). Wenn man Standard und Vergleichsreiz mit dem gleichen Faktor multipliziert, ändert sich die Antwortwahrscheinlichkeit nicht.
Psychophysische Methoden
📈 Grenzmethode
Reiz wird systematisch auf-/absteigend variiert bis VP „ja"/„nein" sagt. Schwelle = Umschlagpunkt. ⚠️ Erwartungsfehler und Gewöhnungsfehler.
🎲 Konstante Reize
Reize in zufälliger Reihenfolge. Ergibt psychometrische Funktion (S-Kurve). Schwelle = 50%-Punkt. Genaueste Methode.
🎛️ Herstellungsmethode
VP stellt Reiz selbst ein bis subjektiv gleich. Schnell, aber: systematische Verzerrungen (Zentraltendenz).
Fechners drei Methoden
1. Grenzen: Reiz ↑/↓ bis Umschlag. ⚠️ Erwartungsfehler.
2. Konstante Reize: Zufällige Reihenfolge → S-Kurve. Schwelle = 50 %-Punkt.
3. Herstellung: VP stellt selbst ein. Schnell, aber systematisch verzerrt.
Signalentdeckungstheorie (SDT)
Keine feste Schwelle! SDT trennt Sensitivität (d') und Antwortneigung (β).
Rauchmelder: d' = Unterscheidung Rauch vs. Kochdampf. β = Auslöseschwelle. Liberal → viele Fehlalarme, konservativ → verpasst echte Brände.
🧠 Schnellcheck
Weber-Bruch Gewicht: k=1/50. Du hältst 10 kg. Mindest-Unterschied?
Wahrscheinlichkeitstheorie
Zufall ist berechenbar
Ω = Ergebnismenge. A ⊆ Ω = Ereignis. P(A) ∈ [0, 1].
🎲 Bedingte W.
P(A) gegeben B eingetreten.
🔁 Bayes
Prior → Posterior.
Bayes-Falle: Test 90 % sensitiv, 5 % Grundrate, 10 % Falsch-Positiv. P(krank|+) = (0.9×0.05)/(0.9×0.05+0.1×0.95) ≈ 32 %! → Basisraten-Vernachlässigung.
Zufallsvariable X: Ω → ℝ
Normalverteilung
Zentraler Grenzwertsatz: Summe vieler kleiner unabhängiger Einflüsse → ~normalverteilt.
68-95-99.7: ~68 % in μ±1σ, ~95 % in μ±2σ, ~99.7 % in μ±3σ.
Unabhängigkeit
A⊥B ⟺ P(A∩B) = P(A)·P(B). Zentrale Annahme vieler Tests!
Versuchsplanung
Das Herzstück der experimentellen Methode
sierungMessbar
| Variable | Was? | Beispiel |
|---|---|---|
| UV | Manipuliert | Koffein-Dosis |
| AV | Gemessen | Reaktionszeit |
| Störvariable | Beeinflusst AV, nicht untersucht | Müdigkeit |
| Konfundierung | SV kovariiert mit UV | → Int. Validität ↓ |
Kochen: UV = Zutat. AV = Geschmack. Störvar. = Ofentemp. Konfundierung = Salz UND Pfeffer gleichzeitig ändern.
Max-Kon-Min-Prinzip (Kerlinger): Maximiere Primärvarianz (starke UV-Manipulation). Kontrolliere Sekundärvarianz (Störvariablen ausschalten). Minimiere Fehlervarianz (präzise Messung, große Stichprobe).
Designs
Between-Subjects 👤👤
- Verschiedene Gruppen
- Keine Übertragung
- Mehr VPn nötig
- Individuelle Unterschiede = Fehler
Within-Subjects 🔄
- Jede VP alle Bedingungen
- Ind. Unterschiede kontrolliert
- Reihenfolgeeffekte!
- Counterbalancing nötig
Intern: UV→AV eindeutig? Extern: Generalisierbar? Konstrukt: Misst es das Konstrukt? Statistisch: Effekt korrekt?
Randomisierung vs. Parallelisierung
In jeder Klausur gefragt: „Nennen Sie zwei Vorteile der Randomisierung gegenüber der Parallelisierung!"
Randomisierung
- Kontrolliert alle SVs (auch unbekannte!)
- Einfach durchführbar
- Keine Vorabmessung nötig
- Benötigt große Stichproben
Parallelisierung
- Kontrolliert nur bekannte SVs
- Unbekannte SVs bleiben unkontrolliert
- Vorabmessung der Parallelisierungsvariable nötig
- Funktioniert auch bei kleinen Stichproben
„Unter sonst gleichen Bedingungen." Kernprinzip: Zwischen den Gruppen darf sich nur die UV unterscheiden — alles andere wird konstant gehalten. Verletzung → Konfundierung → keine Kausalaussage.
Messwiederholung
Klausurliebling: Unterschied between/within? Within = Messwiederholung = jede VP durchläuft alle Bedingungen. Vorteil: weniger VPn, Kontrolle individueller Unterschiede. Problem: zeitgebundene Störvariablen (Übung, Ermüdung, Reihenfolgeeffekte). Lösung: Counterbalancing (Lateinisches Quadrat).
Versuchsleitereffekte & Verblindung
| Technik | Was wird verblindet? | Gegen was? |
|---|---|---|
| Einfach | VP weiß nicht, in welcher Bedingung | Placebo-Effekt, Demand Characteristics |
| Doppelt | VP + VL wissen es nicht | + Rosenthal-Effekt (VL-Erwartung) |
| Dreifach | VP + VL + Auswerter | + Auswertungsbias |
Pygmalion im Klassenzimmer (Rosenthal & Jacobson): Lehrer erfuhren, bestimmte Schüler seien „Hochbegabte" (zufällig gewählt). Diese Schüler zeigten tatsächlich bessere Leistung — self-fulfilling prophecy. → Deshalb Doppelblind!
Fallbeispiel: Therapiestudie (BDI)
Eine kognitive Verhaltenstherapie wird mit dem Beck-Depressions-Inventar (BDI) evaluiert. Versuchsplan:
| Vortest | Treatment | Nachtest | |
|---|---|---|---|
| EG | O₁ | X | O₂ |
| KG | O₃ | — | O₄ |
Frage: „Kann man schließen, dass die Therapie wirkt?" → Nur wenn Interaktion vorliegt: EG verbessert sich MEHR als KG. Haupteffekt allein reicht nicht (Spontanremission!).
Interaktionstypen: Ordinal = beide Gruppen verbessern sich, aber EG stärker (Linien divergieren). Disordinal = Linien kreuzen sich (Therapie hilft EG, schadet KG). Die BDI-Studie testet typisch eine ordinale Interaktion.
Forschungsethik
⚡ Milgram (1963)
Gehorsamsexperiment: VPn gaben vermeintliche Stromschläge. 65% gingen bis 450V. → Extremer psychischer Stress, kein informed consent, kein echtes Recht auf Abbruch.
🏛️ Stanford Prison (1971)
Zimbardo: Studenten als Wärter/Häftlinge. Abbruch nach 6 (statt 14) Tagen. → Kontrollverlust des Forschers, keine Sicherheitsmaßnahmen.
👶 Little Albert (1920)
Watson: 11 Monate altes Kind, Konditionierung von Angst. Keine Dekonditionierung. → Ethisch inakzeptabel, Kind langfristig geschädigt.
Ethische Grundsätze heute: (1) Informierte Einwilligung — freiwillig, aufgeklärt, jederzeit widerrufbar. (2) Ethik-Kommission — Vorabprüfung. (3) Debriefing — Aufklärung nach dem Experiment. (4) Datenschutz — Anonymisierung/Pseudonymisierung. (5) Schadensvermeidung — kein nachhaltiger Schaden.
Kontrolltechniken
Randomisierung: Verteilt alle SVs (auch unbekannte) gleichmäßig. Konstanthalten: SV fixieren. Counterbalancing: Latin Square. Matching: Paarweise zuordnen. Verblindung: Einfach/doppelt → gegen Erwartungseffekte.
Interaktionen
2×2: Koffein × Schlafentzug. Keine Interaktion: parallele Linien. Interaktion: Koffein hilft nur bei Schlafentzug → Linien divergieren/kreuzen.
Quasi-Experiment
UV = bestehende Eigenschaft (Geschlecht). Keine Randomisierung → keine Kausalaussagen.
Bedrohungen interner Validität
Selektion: Gruppen vorher verschieden. Reifung: Ermüdung. Regression zur Mitte: Extreme → Mittel. Demand Characteristics: VP erkennt Hypothese.
🧠 Schnellcheck
Warum ist „Reagieren Männer schneller?" kein echtes Experiment?
Statistische Auswertung
Von Daten zu Entscheidungen
NHST
P(Daten so extrem oder extremer | H₀). NICHT: P(H₀ | Daten)!
| H₀ wahr | H₀ falsch | |
|---|---|---|
| H₀ ablehnen | α-Fehler (Typ I) 🚨 | Power = 1−β 💪 |
| H₀ beibehalten | Korrekt ✓ | β-Fehler (Typ II) 😶 |
❌ „p=.03 → H₀ ist 3 % wahrscheinlich" — P(D|H₀) ≠ P(H₀|D)!
❌ „p=.06 → kein Effekt" — .05 ist willkürlich.
Bayes
BF₁₀ = „Wie stark stützen Daten H₁ vs. H₀?" 1 = neutral, 10 = stark für H₁, 0.1 = stark für H₀.
Effektstärke
Signifikant + d=0.05 → „echt", aber praktisch irrelevant.
Power = 1−β
Ziel: ≥ .80. Hängt ab von: Effektstärke, n, α, Streuung.
NHST vs. Bayes
NHST
- Binär (sig/nicht)
- Kann H₀ nicht stützen
- p kontraintuitiv
Bayes
- Kontinuierliche Evidenz
- Kann H₀ stützen
- Braucht Prior
Multiple Vergleiche
20 Tests, α=.05 → ~1 Falsch-Positiv! Bonferroni: α/k. FDR: weniger konservativ.
Konfidenzintervall
95%-KI: Bei ∞ Wiederholungen enthält 95 % den wahren Wert. Nicht: „95 % Wahrsch., dass Wert drin liegt."
🧠 Schnellcheck
p = .02 — korrekte Interpretation?
Lernexperimente
Klassische Paradigmen
🔗 Paarassoziationslernen
Wort-Wort-Paare. Durchgänge zählen, schwierige Paare → Gedächtnisstrukturen.
📊 Lernkurve
Leistung vs. Übung. Schneller Anfang → Plateau (negativ beschleunigt).
📋 Positionseffekte
Primacy (→LZG) + Recency (→AG) = U-Kurve.
Warum U-Form? Anfang: innerlich wiederholt → LZG. Ende: noch im Arbeitsgedächtnis. Mitte: verdrängt, nicht genug wiederholt.
Rock: Paarassoziationslernen im Detail
Irving Rock (1957) stellte die inkrementelle Lerntheorie in Frage — ein Klausur-Dauerbrenner!
Experimentalgruppe: Nicht-gelernte Paare werden in jedem Durchgang durch neue Paare ersetzt. Kontrollgruppe: Alle Paare bleiben über Durchgänge gleich.
Ergebnis: Kein Unterschied in der Lerngeschwindigkeit! → Rocks Schluss: Lernen ist All-or-None (ganz oder gar nicht), nicht inkrementell (Stück für Stück).
All-or-None (Rock)
- Item wird in einem Durchgang gelernt oder nicht
- Lernkurve = Artefakt der Mittelung
- Substitution hat keinen Effekt
Inkrementell (klassisch)
- Jeder Durchgang stärkt die Verbindung
- Lernkurve = echte Stärkungsfunktion
- Substitution sollte Lernen verlangsamen
Postman-Kritik: Rocks Ergebnis könnte ein Artefakt sein: Substituierte Paare waren zufällig leichter als die schwierigen ursprünglichen Paare (Item-Selection-Artifact). Schwierige Paare → raus, leichte → rein = unfairer Vergleich!
Mehrspeichermodell (Atkinson & Shiffrin, 1968)
Glanzer & Cunitz (1966) lieferten experimentelle Evidenz: Ablenkung nach Lernen löscht Recency (KZG), nicht Primacy (LZG). → Experimentelle Dissoziation = starkes Argument für zwei getrennte Speicher!
Behaviorismus
Watson: Nur Beobachtbares zählt. S→R. Skinner: operante Konditionierung (Verstärkung/Bestrafung).
Kognitive Wende (~1960)
Chomsky: Sprache ≠ nur Verstärkung. Tolman: Kognitive Karten. Miller: 7±2 Chunks → interne Kapazität.
Glanzer & Cunitz (1966)
30 Sek. Ablenkung nach Lernen: Recency weg (AG gelöscht), Primacy bleibt (im LZG). → Experimentelle Dissoziation = Zwei-Speicher-Theorie.
Lernkurve mathematisch
Positiv-/Negativliste
Positiv: gelernte Paare (kommen raus). Negativ: noch nicht gelernt (weiter üben). → Itemspezifische Analyse.
🧠 Schnellcheck
30 Sek. Ablenkung nach Lernen. Welcher Effekt verschwindet?
Gesamtüberblick
Der rote Faden durch den Heller
Take-Away: Experimentelle Psychologie = Theorie + Empirie. Gutes Experiment: theoretische Frage → logische Hypothese → saubere Operationalisierung → durchdachtes Design → angemessene Statistik.