Seminar kognitive Modellierung:
Einführung II
Jan Göttmann, M.Sc.
Fahrplan
Datum | Thema |
---|---|
25.10.2023 | Organisation und Ablauf |
08.11.2023 | Einführung: Grundlagen der Modellierung |
15.11.2023 | Einführung II: Grundlagen der Modellierung |
22.11.2023 | Parameterschätzung I: Diskrepanzfunktionen & Schätzalgorithmen |
29.11.2023 | Parameterschätzung II: Maximum Likelihood & Beyond |
06.12.2023 | Parameterschätzung III: Hands On in R Parameter Estimation |
13.12.2023 | Multinomial Processing Tree Models (Theorie) |
20.12.2023 | Anwendung von MPT Modellen (R-Sitzung) |
10.01.2024 | Drift Diffusion Models (Theorie) |
17.01.2024 | Drift Diffusion Models (Anwendung) |
24.01.2023 | Mixture Models (Theorie) |
31.01.2024 | Mixture Models (Anwendung) |
07.02.2024 | Puffersitzung |
Einführung II: Recap
- Modelle müssen präzise spezifiziert sein – Modelle die alles vorhersagen sind wertlos
- Präzise Modelle können widerlegt werden, es gibt Daten, die dem Modell wiedersprechen !
- Präzise und falsifizierbare Modelle besitzen innerhalb ihres schmalen Scopes große Vorhersagekraft
- Gute Modelle besitzen einen guten Trade-Off zwischen Scope und Predicitve Power
Einführung II: Kognitive Modelle
- Versuchspersonen wurden trainiert, eine kleine Anzahl an Cartoon-Gesichter in zwei Kategorien einzuteilen
-
Anschließend mussten sie in einer Transferaufgabe neue und bereits gelernte Gesichter klassifizieren und zwei Entscheidungen treffen:
-
Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
- Wurde das Gesicht schon während der Trainingsphase gezeigt?
-
Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
Nosofsky (1991): Recognition & Confidence
Stimuli in Nosofsky‘s (1991) Experiment
Einführung II: Kognitive Modelle
- Versuchspersonen wurden trainiert, eine kleine Anzahl an Cartoon-Gesichter in zwei Kategorien einzuteilen
-
Anschließend mussten sie in einer Transferaufgabe neue und bereits gelernte Gesichter klassifizieren und zwei Entscheidungen treffen:
-
Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
- Wurde das Gesicht schon während der Trainingsphase gezeigt?
-
Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
Nosofsky (1991): Recognition & Confidence
Frage: Gibt es einen Zusammenhang zwischen der Classification Confidence und Recognition?
Einführung II: Kognitive Modelle
-
Zusammenhang zwischen Recognition und Confidence r = .36
-
In anderen Worten, kennt man eine der beiden Antworten, dann steigt die Wahrscheinlichkeit die jeweils andere Antwort zu kennen nur um 13 %
-
Beobachtbare Daten sprechen also eher gegen einen großen Zusammenhang !
Nosofsky (1991): Recognition & Confidence
Einführung II: Kognitive Modelle
Beobachtbar: Nur kleiner Zusammenhang
Einführung II: Kognitive Modelle
Latent: Ein Modell kann beide Prozesse fast perfekt Vorhersagen !
Einführung II: Kognitive Modelle
-
Werden die Daten modelliert, kann ein klarer Zusammenhang beider Prozesse gezeigt werden
-
Das Generalized Context Model (GCM) deckt den Zusammenhang zwischen beiden Aufgaben auf
-
Das GCM deckt auf, wie beide Aufgaben zusammenhängen und ermöglicht eine genaue Vorhersage der jeweils anderen Antwort!
Nosofsky (1991): Recognition & Confidence
Beobachtete und vorhergesagte Klassifizierung (links, p = .96) und
Recognition (rechts, p= .92) durch das GCM.
Kognitive Modelle: Lessons Learned
-
Kognitive Modelle können Beziehungen zwischen psychologischen Maßen aufdecken, die sonst unentdeckt bleiben würden
-
In diesem Fall erklärt das GCM, die Leistung in zwei unterschiedlichen Aufgaben
- psychologisches Modell
- erklärt und beschreibt nicht nur Daten
Kognitive Modelle: Lessons Learned
-
…zielen darauf ab die kognitiven Prozesse formell zu beschreiben und spezifische experimentelle Effekte zu erklären
-
..beschreiben die Architektur eines kognitiven Prozesses und das Zusammenspiel der verschiedenen Mechanismen die zu bestimmten experimentellen Ergebnissen führen.
Explanatorische kognitive Modelle (Prozessmodelle)…
Kognitive Messmodelle …
-
… Parameter werden als Maß für Unterschiede zwischen Personen oder Versuchsbedingungen in Bezug auf einen bestimmten Prozess des kognitiven Modells verwendet.
-
… zerlegen beobachtetes Verhalten einer Person in Parameter des latenten kognitiven Prozesses
-
erklären Unterschiede zwischen Individuen und Bedingungen anhand der Variationen ihrer geschätzten Parametern
Einführung II: Modellparameter & Architektur
Modelle beschreiben Daten mit Hilfe von Parametern
- Parameter sind interne Modellvariablen, deren Werte anhand von Daten geschätzt werden können
- Umgekehrt können aus geschätzten Parametern neue Daten simuliert werden, um Vorhersagen zu treffen
- Parameter beeinflussen das Modellverhalten aber nicht die Architektur des Modelles.
- Jeder von uns hat schon einmal Daten modelliert: Der Mittelwert und die Varianz einer Verteilung sind Parameter der Normalverteilung!
Parameter fassen viele einzelne
Datenpunkte in einem interpretierbaren Wert zusammen !
Einführung II: Modellparameter & Architektur
Modelle beschreiben Daten mit Hilfe von Parametern
Freie Parameter
- Werden an die Daten „gefittet“, bis sie diese hinreichend beschreiben (Schätzung)
- Beispiel: Mittelwert und Standardabweichung einer Normalverteilung
Fixierte Parameter
-
Feste Größen, die die Parameterschätzung „skalieren“
-
Werden nicht geschätzt, sondern im Modelframework festgelegt
-
Beispiel: Mittelwert wird auf 0 gesetzt, siehe Grafik, nur Standardabweichung ändert sich
Einführung II: Modellparameter & Architektur
Beispiel: „Power Law“ of Learning (Heatcote, 2000)
-
Das Power Law of Learning beschreibt die Zeit die man für eine Aufgabe benötigt, mit einer Potenzfunktion:
-
alpha ist der Parameter, der die Lernrate angibt
-
Je größer alpha , desto schneller ist der Fortschritt des Lernens, d.h. man wird in weniger Versuchen viel schneller!
-
Aber: Je mehr schon gelernt wurde, desto langsamer lernt man !
Einführung II: Modellparameter & Architektur
Beispiel: „Power Law“ of Learning (Heatcote, 2000)
-
Wenn wir die Architektur des Modells verändern, indem wir nun eine Exponentialfunktion annehmen, dann kann zwar der Parameter die gleiche psychologische Bedeutung haben (hier Lernrate) allerdings mit völlig anderen Implikationen:
-
In diesem Fall bleobt die relative Lernrate über Zeit konstant, egal wieviel man schon gelernt hat.
-
Im Gegensatz dazu bleibt die Lernrate in der Exponentialfunktion über die Übungsversuche konstant – egal wieviel man lernt, man verbessert sich stetig.
Einführung II: Modellparameter & Architektur
- Parameter sind interne Modellvariablen, die das Verhalten eines Modells beeinflussen (Tuning Knobs)
- Freie Parameter die werden auf Grundlage der beobachteten Daten geschätzt
- Fixe Parameter skalieren die Schätzung der freien Parameter – sie sind die Grundlage für den „Start“ des Modells
- Parameter können die gleiche psychologische Bedeutung in unterschiedlichen Modellarchitekturen haben – sie bestimmen nicht die Architektur, sondern das Modellverhalten !
Einführung II: Modellparameter & Architektur
Thank you for Your Attention!
github.com/jgman86
jan.goettmann@uni-mainz.de
Lecture 2: Introduction II
By Jan Göttmann
Lecture 2: Introduction II
- 138