Jan Göttmann, M.Sc.
Datum | Thema |
---|---|
25.10.2023 | Organisation und Ablauf |
08.11.2023 | Einführung: Grundlagen der Modellierung |
15.11.2023 | Einführung II: Grundlagen der Modellierung |
22.11.2023 | Parameterschätzung I: Diskrepanzfunktionen & Schätzalgorithmen |
29.11.2023 | Parameterschätzung II: Maximum Likelihood & Beyond |
06.12.2023 | Parameterschätzung III: Hands On in R Parameter Estimation |
13.12.2023 | Multinomial Processing Tree Models (Theorie) |
20.12.2023 | Anwendung von MPT Modellen (R-Sitzung) |
10.01.2024 | Drift Diffusion Models (Theorie) |
17.01.2024 | Drift Diffusion Models (Anwendung) |
24.01.2023 | Mixture Models (Theorie) |
31.01.2024 | Mixture Models (Anwendung) |
07.02.2024 | Puffersitzung |
Nosofsky (1991): Recognition & Confidence
Stimuli in Nosofsky‘s (1991) Experiment
Nosofsky (1991): Recognition & Confidence
Frage: Gibt es einen Zusammenhang zwischen der Classification Confidence und Recognition?
Nosofsky (1991): Recognition & Confidence
Beobachtbar: Nur kleiner Zusammenhang
Latent: Ein Modell kann beide Prozesse fast perfekt Vorhersagen !
Nosofsky (1991): Recognition & Confidence
Beobachtete und vorhergesagte Klassifizierung (links, p = .96) und
Recognition (rechts, p= .92) durch das GCM.
…zielen darauf ab die kognitiven Prozesse formell zu beschreiben und spezifische experimentelle Effekte zu erklären
..beschreiben die Architektur eines kognitiven Prozesses und das Zusammenspiel der verschiedenen Mechanismen die zu bestimmten experimentellen Ergebnissen führen.
Explanatorische kognitive Modelle (Prozessmodelle)…
Kognitive Messmodelle …
… Parameter werden als Maß für Unterschiede zwischen Personen oder Versuchsbedingungen in Bezug auf einen bestimmten Prozess des kognitiven Modells verwendet.
… zerlegen beobachtetes Verhalten einer Person in Parameter des latenten kognitiven Prozesses
erklären Unterschiede zwischen Individuen und Bedingungen anhand der Variationen ihrer geschätzten Parametern
Modelle beschreiben Daten mit Hilfe von Parametern
Parameter fassen viele einzelne
Datenpunkte in einem interpretierbaren Wert zusammen !
Modelle beschreiben Daten mit Hilfe von Parametern
Freie Parameter
Fixierte Parameter
Feste Größen, die die Parameterschätzung „skalieren“
Werden nicht geschätzt, sondern im Modelframework festgelegt
Beispiel: Mittelwert wird auf 0 gesetzt, siehe Grafik, nur Standardabweichung ändert sich
Beispiel: „Power Law“ of Learning (Heatcote, 2000)
Das Power Law of Learning beschreibt die Zeit die man für eine Aufgabe benötigt, mit einer Potenzfunktion:
alpha ist der Parameter, der die Lernrate angibt
Je größer alpha , desto schneller ist der Fortschritt des Lernens, d.h. man wird in weniger Versuchen viel schneller!
Aber: Je mehr schon gelernt wurde, desto langsamer lernt man !
Beispiel: „Power Law“ of Learning (Heatcote, 2000)
Wenn wir die Architektur des Modells verändern, indem wir nun eine Exponentialfunktion annehmen, dann kann zwar der Parameter die gleiche psychologische Bedeutung haben (hier Lernrate) allerdings mit völlig anderen Implikationen:
In diesem Fall bleobt die relative Lernrate über Zeit konstant, egal wieviel man schon gelernt hat.
Im Gegensatz dazu bleibt die Lernrate in der Exponentialfunktion über die Übungsversuche konstant – egal wieviel man lernt, man verbessert sich stetig.
github.com/jgman86
jan.goettmann@uni-mainz.de