Seminar kognitive Modellierung:
Einführung II
 

Jan Göttmann, M.Sc.

Fahrplan

Datum Thema
25.10.2023 Organisation und Ablauf
08.11.2023 Einführung: Grundlagen der Modellierung
15.11.2023 Einführung II: Grundlagen der Modellierung
22.11.2023 Parameterschätzung I: Diskrepanzfunktionen & Schätzalgorithmen
29.11.2023 Parameterschätzung II: Maximum Likelihood & Beyond
06.12.2023 Parameterschätzung III: Hands On in R Parameter Estimation
13.12.2023 Multinomial Processing Tree Models  (Theorie)​
20.12.2023 Anwendung von MPT Modellen (R-Sitzung)​
10.01.2024 Drift Diffusion Models (Theorie)
17.01.2024 Drift Diffusion Models (Anwendung)
24.01.2023 Mixture Models (Theorie)
31.01.2024 Mixture Models (Anwendung)
07.02.2024 Puffersitzung

Einführung II: Recap

  1. Modelle müssen präzise spezifiziert sein – Modelle die alles vorhersagen sind wertlos
  2. Präzise Modelle können widerlegt werden, es gibt Daten, die dem Modell wiedersprechen !
  3. Präzise und falsifizierbare Modelle besitzen innerhalb ihres schmalen Scopes große Vorhersagekraft
  4. Gute Modelle besitzen einen guten Trade-Off zwischen Scope und Predicitve Power

Einführung II: Kognitive Modelle

  • Versuchspersonen wurden trainiert, eine kleine Anzahl an Cartoon-Gesichter in zwei Kategorien einzuteilen
  • Anschließend mussten sie in einer Transferaufgabe neue und bereits gelernte Gesichter klassifizieren und zwei Entscheidungen treffen:
     
    1. Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
       
    2. Wurde das Gesicht schon während der Trainingsphase gezeigt?

Nosofsky (1991): Recognition & Confidence

Stimuli in Nosofsky‘s (1991) Experiment

Einführung II: Kognitive Modelle

  • Versuchspersonen wurden trainiert, eine kleine Anzahl an Cartoon-Gesichter in zwei Kategorien einzuteilen
  • Anschließend mussten sie in einer Transferaufgabe neue und bereits gelernte Gesichter klassifizieren und zwei Entscheidungen treffen:
     
    1. Zu welcher Kategorie gehört das Gesicht und die „Classification Confidence“ dieser Entscheidung – also wie sicher man ist.
       
    2. Wurde das Gesicht schon während der Trainingsphase gezeigt?

Nosofsky (1991): Recognition & Confidence

Frage: Gibt es einen Zusammenhang zwischen der Classification Confidence und Recognition?

Einführung II: Kognitive Modelle

  • Zusammenhang zwischen Recognition und Confidence r = .36
     
  • In anderen Worten, kennt man eine der beiden Antworten, dann steigt die Wahrscheinlichkeit die jeweils andere Antwort zu kennen nur um 13 %
     
  • Beobachtbare Daten sprechen also eher gegen einen großen Zusammenhang !
     

Nosofsky (1991): Recognition & Confidence

Einführung II: Kognitive Modelle

Beobachtbar: Nur kleiner Zusammenhang

Y
X

Einführung II: Kognitive Modelle

\theta

Latent: Ein Modell kann beide Prozesse fast perfekt Vorhersagen  ! 

Y
X

Einführung II: Kognitive Modelle

 

  • Werden die Daten modelliert, kann ein klarer Zusammenhang beider Prozesse gezeigt werden
     
  • Das Generalized Context Model (GCM) deckt den Zusammenhang zwischen beiden Aufgaben auf
     
  • Das GCM deckt auf, wie beide Aufgaben zusammenhängen und ermöglicht eine genaue Vorhersage der jeweils anderen Antwort!
     

 

Nosofsky (1991): Recognition & Confidence

Beobachtete und vorhergesagte Klassifizierung (links, p = .96) und

Recognition (rechts, p= .92) durch das GCM.

Kognitive Modelle: Lessons Learned

 

  1. Kognitive Modelle können Beziehungen zwischen psychologischen Maßen aufdecken, die sonst unentdeckt bleiben würden
     
  2. In diesem Fall erklärt das GCM, die Leistung in zwei unterschiedlichen Aufgaben
    1. psychologisches Modell
    2. erklärt und beschreibt nicht nur Daten

 

Kognitive Modelle: Lessons Learned

 

 

  • …zielen darauf ab die kognitiven Prozesse formell zu beschreiben und spezifische experimentelle Effekte zu erklären ​

  • ..beschreiben die Architektur eines kognitiven Prozesses und das Zusammenspiel der verschiedenen Mechanismen die zu bestimmten experimentellen Ergebnissen führen.​​

 

Explanatorische kognitive Modelle (Prozessmodelle)…​​

Kognitive Messmodelle …​​

  • … Parameter werden als Maß für Unterschiede zwischen Personen oder Versuchsbedingungen in Bezug auf einen bestimmten Prozess des kognitiven Modells verwendet.​

  • … zerlegen beobachtetes Verhalten einer Person in Parameter des latenten kognitiven Prozesses ​

  • erklären Unterschiede zwischen Individuen und Bedingungen anhand der Variationen ihrer geschätzten Parametern​

Einführung II: Modellparameter & Architektur

Modelle beschreiben Daten mit Hilfe von Parametern

  • Parameter sind interne Modellvariablen, deren Werte anhand von Daten geschätzt werden können
     
  • Umgekehrt können aus geschätzten Parametern neue Daten simuliert werden, um Vorhersagen zu treffen
     
  • Parameter beeinflussen das Modellverhalten aber nicht die Architektur des Modelles.
     
  • Jeder von uns hat schon einmal Daten modelliert: Der Mittelwert und die Varianz einer Verteilung sind Parameter der Normalverteilung! 

Parameter fassen viele einzelne

Datenpunkte in einem interpretierbaren Wert zusammen !

Einführung II: Modellparameter & Architektur

Modelle beschreiben Daten mit Hilfe von Parametern

Freie Parameter​

  • Werden an die Daten „gefittet“, bis sie diese hinreichend beschreiben (Schätzung)​
  • Beispiel: Mittelwert und Standardabweichung einer Normalverteilung

Fixierte Parameter​

  • Feste Größen, die die Parameterschätzung „skalieren“ ​

  • Werden nicht geschätzt, sondern im Modelframework festgelegt​

  • Beispiel: Mittelwert wird auf 0 gesetzt, siehe Grafik, nur Standardabweichung ändert sich

Einführung II: Modellparameter & Architektur

Beispiel: „Power Law“ of Learning (Heatcote, 2000)

  • Das Power Law of Learning beschreibt die Zeit die man für eine Aufgabe benötigt, mit einer Potenzfunktion:



     

  • alpha ist der Parameter, der die Lernrate angibt

  • Je größer alpha , desto schneller ist der Fortschritt des Lernens, d.h. man wird in weniger Versuchen viel schneller! 

  • Aber: Je mehr schon gelernt wurde, desto langsamer lernt man !

RT = N^{-\alpha}

Einführung II: Modellparameter & Architektur

Beispiel: „Power Law“ of Learning (Heatcote, 2000)

  • Wenn wir die Architektur des Modells verändern, indem wir nun eine Exponentialfunktion annehmen, dann kann zwar der Parameter die gleiche psychologische Bedeutung haben (hier Lernrate) allerdings mit völlig anderen Implikationen:


     

  • In diesem Fall bleobt die relative Lernrate über Zeit konstant, egal wieviel man schon gelernt hat.
     

  • Im Gegensatz dazu bleibt die Lernrate in der Exponentialfunktion über die Übungsversuche konstant – egal wieviel man lernt, man verbessert sich stetig.

RT = e^{-\alpha \cdot N}

Einführung II: Modellparameter & Architektur

  • Parameter sind interne Modellvariablen, die das Verhalten eines Modells beeinflussen (Tuning Knobs)
  • Freie Parameter die werden auf Grundlage der beobachteten Daten geschätzt  
  • Fixe Parameter skalieren die Schätzung der freien Parameter – sie sind die Grundlage für den „Start“ des Modells
  • Parameter können die gleiche psychologische Bedeutung in unterschiedlichen Modellarchitekturen haben – sie bestimmen nicht die Architektur, sondern das Modellverhalten !

Einführung II: Modellparameter & Architektur

Thank you for Your Attention!

github.com/jgman86

jan.goettmann@uni-mainz.de

Lecture 2: Introduction II

By Jan Göttmann

Lecture 2: Introduction II

  • 137