Titel: Evaluierung an der Universität Wien - Signal- oder Bewertungsfunktion
Logistisches Zentrum der Universität Wien
Reichsratsstraße 17/5/15
1010 Wien
alexandra.beisteiner@univie.ac.at
Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation
der Lehre"
In Österreich wird die Evaluation von Lehre und Forschung durch zwei Gesetze, dem UOG 93 (Universitätsorganisationsgesetz 1993) und der EvalVO (Evaluationsverordnung), geregelt. Im UOG 93,welches mit 1.1.00 in Kraft treten soll, wird im §18 die Evaluation von Forschung und Lehre an österreichischen Universitäten festgelegt,deren Ergebnisse den Entscheidungen der Universitätsorgane zugrundezulegen sind. Der §6 der EvalVO regelt die Evaluation von LVs (Lehrveranstaltungen) mit dem Ziel der Qualitätssicherung einerseits und der Standardisierung der Erhebungsinstrumente
andererseits.
An der Universität Wien wurde das Logistische Zentrum, welches für die Implementierung des UOG 93 geschaffen wurde, mit der Ausarbeitung eines Konzepts für die LV-Evaluation betraut. Seit 1997 wurden mehrere Probeläufe durchgeführt, die der Optimierung des Ablaufes und der Auswertung dienen. Aufgrund der Größe der Universität Wien ergeben sich mehrere konzeptuelle und methodische Probleme. Die Replikation testtheoretischer
Fragebogenanalysen und die Bestätigung theoriegeleiteter Hypothesen über die Skalenstruktur gelingt in den meisten Fällen nicht. (vgl. Gössler, 1997). Eine Analyse der Daten aus dem SS 99 (Sommersemester 1999) bestätigt diese Annahme.
Die Signalfunktion von LV-Bewertungen wird durch die summative Rückmeldung an die LV-Leiter unterstützt, die einen intrinsischen Prozeß der Qualitätsverbesserung hervorrufen sollen. Um eine solche Bewertung nach objektiven Kriterien durchzuführen, werden anhand der aggregierten LV-Daten aus dem SS 1999 eine Klassifizierung mittels Cluster- und Latenter Klassenanalyse durchgeführt und der Versuch einer Identifizierung von qualitativ unterschiedlichen Lehrveranstaltungen unternommen.
Titel: Evaluation von Trainingsprogrammen
Institut für Allgemeine Psychologie und Methoden der Psychologie
Technische Universität Dresden
D-01062 Dresden
bergmann@psy1.psych.tu-dresden.de
Beitragszuordnung: Evaluatutionsforschung
Evaluationen sind ein Mittel der Optimierung von Trainingsprogrammen. In ihnen wird festgestellt, ob beabsichtigte Ziele erreicht sind. Die Evaluation von Trainingsprogrammen ist eine mehrstufige Aufgabe mit unterschiedlichen Analyse- und Bewertungsperspektiven. Die Entwicklung neuer Trainingsprogramme erfordert Bedarfsanalysen. Durch sie werden Trainingsziele begründet und präzisiert. Die Evaluation bereits entwickelter Trainingsprogramme erfordert es, die Reaktionen der Teilnehmer auf das Training, den Trainingsfortschritt innerhalb des Trainings als angeeignetes
deklaratives und prozedurales Wissen, den Transfer und möglichst auch Trainingseffekte auf der Ebene der Resultate der Organisation, in der das Training durchgeführt wird, auszuweisen, z. B. durch Produktivitäts-, Kosten- oder Qualitätskennziffern. Die Durchführung von Evaluationen
erfordert es, für jede Ebene Evaluationskriterien zu begründen und über methodische Prozeduren zu ihrer Erfassung zu entscheiden. Dies ist nicht immer ganz einfach, weil durch Trainingsprogramme oft komplexe Kompetenzverbesserungen in bestimmten Bereichen angestrebt werden. Die
Operationalisierung dieser Kompetenzverbesserungen führt zu ganzen Bündeln von Evaluationskriterien. Ein schwieriges Problem ist die Beschreibung von Transfereffekten. Der umgekehrt proportionale Zusammenhang zwischen Transfereffekt und Transferdistanz kann Interpretationsprobleme zur Folge haben. Durch die Wahl des Abstandes zwischen Trainings- und Transferaufgaben kann der Transfereffekt beeinflußt, also auch manipuliert werden. Die Erfassung von Transfereffekten bei unterschiedlicher Transferdistanz wird als Ausweg begründet und am Beispiel einer vergleichenden Trainingsevaluation illustriert. Ein spezifisches methodisches Problem ist die Begründung einer Metrik für die Transferdistanz.
Titel: Die Verknüpfung verschiedener Invarianzhypothesen im Bereich der Lern- und Gedächtnispsychologie
Universität Bonn
juergen.bredenkamp@uni-bonn.de
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver
Leistungen
Vier verschiedene Invarianzhypothesen (modifizierte Total-Time Hypothesis, Nevelskis Hypothese einer konstanten Langzeitgedächtnisspanne,
Baddeleys Hypothese der phonologischen Schleife, Cavanaghs Gesetz) werden miteinander verzahnt. Diese Hypothesenintegration erlaubt genaue Prognosen über das Verhältnis von Kurzzeitgedächtnisspanne und Asymptote der Lernkurve sowie über die Einflüsse verschiedener experimenteller
Manipulationen (artikulatorische Unterdrückung, irrelevante Sprache, Beanspruchung der zentralen Exekutive) auf verschiedene Parameter der
Lernkurve (Lernrate, Asymptote). Soweit diese Prognosen schon getestet wurden, wird hierüber berichtet. Perspektiven für die weitere Forschung
werden abschließend dargestellt.
Titel: Statistical methods for testing the hypothesis of unconfoundedness
Friedrich-Schiller-Universität Jena
Institution: Institut für Psychologie
Am Steiger 3, Hs. 1
07743 Jena
1041-709@online.de
Beitragszuordnung: Kausalanalyse
The
null hypothesis of unconfoundedness of a linear regression with normally
distributed variables (Steyer, von Davier, Gabler and Schuster, 1997) is
considered here. In order to test the hypothesis of unconfoundedness
we analyze several approaches which are usually employed in testing
non-linear hypotheses. The statistical methods are: the Wald test, the
likelihood ratio test, the Delta method and the test proposed by Clogg
et al.~(1995). The Wald test and the likelihood ratio test are known to
be asymptotically chi-squared distributed under the null hypothesis, providing
that the Jacobian matrix of the restriction function describing the null
hypothesis has a full row rank. Under the hypothesis of unconfoundedness,
there are parameter values, namely 'the singular points' where this assumption
is not fulfilled and the Wald test and likelihood ratio, respectively,
are not chi-squared distributed. Our numerical results indicate that the
tests are asymptotically conservative at the singular points of the null
hypothesis. The computation time required by the likelihood ratio test
is about 100 time larger than the one required for the Wald test, which
represents a practical disadvantage. We also analyze other methods (Delta
method and the test proposed by Clogg et al.~1995) by the means of a Monte
Carlo study and we compare them to the Wald test. They present similar
deviations from the standard results at the singular points of the null
hypothesis as the Wald test does and they are difficult to apply for multi-dimensional
regressors. Thus the assumption on the Jacobian of the restriction function
is required by all tests and by the Delta method.
According to our results the Wald test seems to be more suitable for
testing unconfoundedness because it
can be easy computed for one-dimensional, as well as for multi-dimensional
regressors and it remains conservative at the singular points.
Titel: WINMIRA 32 Softwaredemonstration (Demonstration)
IPN
Olshausenstrasse 62
24098 Kiel
vdavier@ipn.uni-kiel.de
1. Beitrag:
Beitragszuordnung: Analyse kategorialer Daten
WINMIRA
32 stellt Modelle zur Verfügung, die Analysen von Daten ermöglichen,
wie sie typischerweise in Erhebungen mit Fragebögen oder Leistungstests
anfallen. Diese Daten sind kategorialer Natur, d.h. die untersuchten Personen
haben nur eine begrenzte Anzahl von Antwortmöglichkeiten, oder die
zunächst offenen Antworten werden in einem Kategorienschema kodiert.
In der qualitativen Testtheorie werden Unterschiede im Antwortverhalten
(den Daten) der Probanden auf latente, d.h., nicht direkt beobachtbare
Typologien (latente Klassen) zurückgeführt. Die quantitative
probabilistische Testtheorie nimmt demgegenüber an, daß sich
die beobachteten Unterschiede zwischen den Probanden auf Unterschiede bzgl.
einer kontinuierlichen latenten
Variable zurückführen lassen.
WINMIRA 32 ermöglicht Analysen mit der Latent-Class Analyse, mit
dem Rasch Model, mit dem Mixed Rasch Modell und mit dem Hybrid Modell (vgl.Rost,
1996 sowie von Davier & Rost, 1995).
Das Programm läuft unter Windows 95/98 bzw. NT und ist vollständig
dialogorientiert. Jeder Eingabedialog verfügt über direkt abrufbare
Erläuterungen in der online-Hilfe. Neben der textuellen Ausgabe der
Analyseergebnisse stehen eine Reihe von graphischen Ausgaben zur Verfügung,
die in z.B. in Textverarbeitungen übernommen werden können.
In der Softwaredemonstration wird vorgeführt, wie WINMIRA 32 zur
Analyse von Daten aus dem Bereich der empirisch pädagogischen Forschung
verwendet werden kann.
Titel: ATI Effekte beim Lernen mit Multimedia
Beitragszuordnung: Kausalanalyse
Im Vortrag wird ein Experiment zur Wirkung von Selbststeuerung sowie visuellen vs. verbalen Lernpräferenzen vorgestellt. Anhand zweier Versionen (Version a: nur Bild + Erläuterung vs. Version b: Animationen) einer Multimedia Software zum Thema "Membranpotentiale der Nervenzelle" wird untersucht, inwieweit sich Personenmerkmale zur Erklärung der Leistungsunterschiede in einem Wissens- und Transfertest heranziehen lassen. Die Lernpräferenzen werden sowohl in der Form eines Fragebogens als auch in Form eines Lernexperiments erhoben. Neben diesen Variablen werden weitere Kovariate (u.a. motivationale Variablen) erhoben, deren Einfluß auf die Lernleistung untersucht wird. Die erwarteten Interaktionseffekte
beziehen sich insbesondere auf die kompensatorische Wirkung von Personenmerkmalen in Bezug auf den Wissenserwerb in den Experimentalgruppen ohne Animationen (Programmversion a).
Titel: Ein multimediales Lernprogramm zur Psychoakustik (Referat und Demonstration)
Institut für Psychologie
Universität Regensburg
93040 REGENSBURG
wolfgang.ellermeier@psychologie.uni-regensburg.de
Beitragszuordnung: Einsatz von Multimedia in der Lehre
Da die Phänomene und Gesetzmäßigkeiten der auditiven Wahrnehmung in Lehrbüchern nicht adäquat dargestellt werden können, ist hier
Multimedialität in besonderer Weise gefordert. Deshalb wurde ein Lernprogramm entwickelt, welches den Schwerpunkt darauf legt,
das Stoffgebiet der Psychologie des Hörens auch auditiv erfahrbar zu machen. Das Programm umfaßt eine Einführung in physikalische Grundbegriffe,
psychoakustische Wahrnehmungsdimensionen, Skalierungsmethoden und ausgewählte Bereiche der Lärmforschung. Durch die Verknüpfung von Text, Graphik, Hördemonstrationen und interaktiven Selbstversuchen soll die Wissensvermittlung des komplexen Stoffgebietes erleichtert werden. Um bereits zu Beginn der Entwicklung die Qualität des Programms zu sichern, wurde ein Prototyp in einem wahrnehmungspsychologischen Seminar eingesetzt und unter Mithilfe der Studierenden formativ evaluiert. Aufgrund dieser Prozeßevaluation, die sich auf Qualitätsanalysen und eine Befragung der Teilnehmer stützte, wurde eine verbesserte Version des Programms erstellt, welche auf CD-ROM in einer installierbaren Version vorliegt. Zukünftige
systematische Untersuchungen sollen klären, auf welche Weise die eigene Hörerfahrung zum Verständnis des Stoffes beitragen kann.
Titel: Die Trennung von konsistenten und inkonsisten Individuen anhand eines Mischverteilungs-State-Trait-Modells
Universität Trier
Fachbereich I - Psychologie
Universität Trier, 54286 Trier
eid@uni-trier.de
Beitragszuordnung: Analyse kategorialer Daten
In
der Debatte um die Konsistenz und Spezifität des Verhaltens und Erlebens,
hat der Metatrait-Ansatz
zunehmend an Interesse gewonnen. Diesem Ansatz zufolge können
sich Individuen in der Konsistenz ihres Verhaltens über Situationen
hinweg und in der zeitlichen Stabilität ihres Verhaltens unterscheiden.
Um konsistente von weniger konsistenten Individuen trennen zu können,
wurde ein Mischverteilungs-State-Trait-Modell für
kategoriale Antwortvariablen entwickelt. In diesem Modell wird angenommen,
daß die Gesamtpopulation aus zwei Subpopulationen besteht, die sich
in ihrer transsituationalen Konsistenz unterscheiden. Es wird gezeigt,
wie dieses Modell im Rahmen von log-linearen Modellen mit latenten Variablen
analysiert werden kann. Schließlich wird das Modell anhand eines
empirischen Beispiels illustriert.
Titel: Statistische Hypothesenprüfung im Rahmen multinomialer Modelle: Powerapproximationen und Poweroptimierung
Psychologisches Institut der Universität Bonn
Römerstraße 164
53117 Bonn
erdfelder@uni-bonn.de
Beitragszuordnung: Analyse kategorialer Daten, Methoden zur Modellierung
und Messung kognitiver Leistungen
Anwendungen
von log-linearen Modellen, Latent-Class-Modellen, Verarbeitungsbaummodellen,
Signalentdeckungsmodellen und anderen parametrisierten multinomialen Modellen
spielen in vielen Bereichen der
Psychologie eine wichtige Rolle. Soweit das Ausgangsmodell nicht saturiert
ist, wird typischerweise zunächst ein goodness-of-fit-Test durchgeführt.
Kann die Modellgeltungshypothese (H0) beibehalten werden, schließen
sich
häufig Tests spezieller Parameternullhypothesen an, die z.B. die
Gleichheit verschiedener Parameterwerte behaupten. Obwohl die Bedeutung
von Powerkontrollen auf der Hand liegt, werden sie selten durchgeführt.
Wenn
sie durchgeführt werden, beschränken sie sich in der Regel
auf die Abschätzung der Teststärke für kleine, mittlere
oder große Abweichungen von H0 im Sinne von Cohen (1988). Dies ist
unbefriedigend, weil die Bedeutung
von "klein", "mittel" und "groß" modellabhängig, designabhängig
und hypothesenabhängig variieren kann.
Im Vortrag soll dargestellt werden, wie die Teststärke mit geringem
Aufwand direkt als Funktion der Modellparameterwerte unter H0 und H1 bestimmt
werden kann. Verschiedene Powerapproximationsmethoden werden vorgestellt
und in einer Monte-Carlo-Studie für verschiedene Prüfstatistiken
(Likelihood-Ratio-Chi-Quadrat, Pearsons Chi-Quadrat, Cressie-Read-Statistik)
miteinander verglichen. Abschließend werden verschiedene Methoden
der Poweroptimierung bei gegebenem Gesamtstichprobenumfang erörtert:
die optimale Wahl der Prüfstatistik, die optimale Aufteilung des Gesamtstichprobenumfangs
bei verbundenen multinomialen Modellen, Maßnahmen zur Optimierung
hypothesenirrelevanter Modellparameterwerte und die Optimierung der Teststrategie
bei multiplen Tests.
Titel: Evaluation, Datentheorie, Fairneß
FU Berlin
Kauersweg 11
21521 Dassendorf
bhfeger.das@t-online.de
Beitragszuordnung: Evaluationsforschung
Ausgehend
von einem konkreten Beispiel, und zwar der Bewertung und Auswahl von angemeldeten
Tagungsbeiträgen, wird die Aufgabe diskutiert, wie Schätzurteile
aus mehreren Quellen (Beurteilern) zu einer Rangordnung der Elemente zusammengefaßt
werden können. Aus der Datentheorie werden systematische
Kriterien abgeleitet, um Aggregierungsmodelle zu charakterisieren.
Der Vortrag konzentriert sich auf den Vergleich von Modellen (und ihrer
Implikationen) für Daten mit Ordinalniveau, z. B. die lexikographische
Ordnung und die "mittlere Rangordnung". Schließlich werden Fairneßprinzipien
diskutiert, die die Willkür bei Anwenungen eingrenzen können.
Titel: Konstruktvalidierungen mittels Konfirmatorischer Faktorenanalyse am Beispiel des Eysenck Personality Profiler (Deutsch)
Johann Wolfgang Goethe-Universitaet
Institut für Psychologie, Abteilung Prof. Dr. H. Moosbrugger
Mertonstrasse 17
60054 Frankfurt am Main
Fischbach@soz.uni-frankfurt.de
Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansaetze
In
den vergangenen zwei Jahren wurde an der Entwicklung eines deutschsprachigen
Aequivalentes zum Eysenck Personality Profiler gearbeitet (EPP, Eysenck
& Wilson, 1991), wobei Untersuchungen zur Kostruktvaliditaet an einer
Stichprobe von 1764 Personen durchgeführt wurden (s. Moosbrugger,
Fischbach & Schermelleh-Engel, 1998).
- Zur Überprüfung, ob es sich bei den 440 Items der
übersetzten Vollversion auch im deutschsprachigen Kulturkreis um Indikatoren
der von Eysenck implizierten (7X3)+1=22 Eigenschaften handelt, wurden neben
"klassischen" Itemanalysen Ergebnisse von Konfirmatorischen Faktorenanalysen
(CFA) erster Ordnung berücksichtigt. Trotz des dreistufigen Antwortmodus
der Items ("ja", "nein", "weiss nicht"), wurden wegen Uneindeutigkeit
der Kategorie "weiss nicht" nur die dichotomen Kategorienauspraegungen
verrechnet und wegen des resultierenden zweiwertigen Antwortmodus zur Parameterschaetzung
auf Itemebene die "weighted least squares" Methode eingesetzt.
- Zur Untersuchung der theoretischen Annahme, dass jeweils sieben
der 21 Eigenschaften die drei von Eysenck als grundlegend postulierten
Persönlichkeitsdimensionen Extraversion, Emotionalität und Risikoneigung
konstituieren, wurden Konfirmatorische Faktorenanalysen zweiter Ordnung
durchgeführt. Bei diesen Analysen wurde trotz Verletzung der Normalverteilungsannahme
die "maximum likelihood" Methode zur Parameterschaetzung eingesetzt.
Die allgemein-methodische Bedeutung der CFA für Konstruktvalidierungen,
die dabei auftretenden methodischen Probleme, unsere Lösungsvorschlaege
für Itemselektion und Modellanpassung sowie die praktische Durchführbarkeit
der CFA bei komplexen Modellen werden referiert und diskutiert.
Eysenck, H. J. &
Wilson, G. D. (1991). The Eysenck Personality Profiler. London: Corporated
Assessment Network Ltd.
Moosbrugger, H., Fischbach, A. & Schermelleh-Engel, K. (1998).
Zur Konstruktvaliditaet des EPP-D. In H. J. Eysenck, C. D. Wilson und C.
J. Jackson: Eysenck Personality Profiler EPP-D. Manual. Frankfurt am Main:
Swets Test Services.
Titel: Computergestützte Videoanalysen im Beobachtungspraktikum (Demonstration und Poster)
Institut für Entwicklungspsychologie, Persönlichkeitspsychologie
und Psychodiagnostik
Seeburgstr. 14-20
04103 Leipzig
Beitragszuordnung: Einsatz von Multimedia in der Lehre
Innerhalb der Methodenausbildung im Grundstudium wird in einem Teil des Beobachtungspraktikums der Einsatz von Multimedia mit spezifischen Inhalten des Fachgebietes Entwicklungspsychologie verbunden.
Zur Schulung der Beobachtungsfähigkeit der Studenten werden Videoaufnahmen von Interaktionen zwischen Mutter, Vater oder Geschwisterkindern und Säuglingen, die in der "Beratung für Eltern mit Babies und Kleinkindern" und in entsprechenden Diplomarbeiten entstanden sind, in einem ersten Schritt beobachtet und dann computergestützt analysiert. Dazu dient die softeware INTERACT. Neben der inhaltlichen Auseinandersetzung erhalten die Studenten die Möglichkeit, den Aufbau, die Adaptation und die Anwendung von Kategoriensystemen zu erproben und ihre Beobachtungen in kategoriale Daten umzusetzen und auszuwerten.
Das Poster informiert über die Erfahrungen der computergestützten Auswertung der videographierten Interaktionen mit INTERACT und diskutiert die Einsatzmöglichkeiten in der Lehre.
Titel: Einbeziehung von Kovariaten in die Konfigurationsanalyse
Berlin & Michigan State University, East Lansing
Max-Planck - Institut für Bildungsforschung
Lentzeallee 94
14195 Berlin
Beitragszuordnung: Analyse kategorialer Daten
Der Beitrag präsentiert eine neuen Ansatz zur Einbeziehung von Kovariaten in der Konfigurationsfrequenzanalyse (KFA): Die Grundidee der Methode
ist, eine oder mehrere kontinuirliche Variablen als Kovariate in das loglineare Basismodell einzubeziehen, das zur Berechnung der erwarteten Häufigkeiten für die KFA herangezogen wird. Die Typen- bzw. Antitypen in der KFA können sich in unterschiedlicher Weise verändern, wenn eine
Kovariate einbezogen wird: Einige oder alle Typen oder Antitypen können verschwinden, und/oder neue Typen oder Antitypen können entstehen.
Der vorliegende beitrag untersucht die Bedingungen für das Entstehen bzw. Verschwinden von Typen oder Antitypen: Neue Typen und Antitypen
entstehen nach Einbeziehung einer Kovariate dann, wenn das Muster der Kovariatenmittelwerte über die Zellen der Kontingenztafel nicht mir
dem Muster der logarithmierten Zelhäufigkeiten korrespondiert. Das Verschwinden von Typen und Antitypen nach Einbeziehung einer
Kovariate kann hingegen ein Hinweis darauf sein, daß die Kovariate mit den Wirkfaktoren, die die Typen und Antitypen erzeugen,
zusammenhängen könnte. Wir illustrieren die Funktionsweise des Ansatzes an einem Datenbeispiel (Anwendung unterschiedlicher Strategiekombinationen bei Raumvorstellungsaufgaben), wobei zugleich eine Vorgangsweise gezeigt wird, mit der die komplexen Effekte der Einbeziehung einer Kovariate nachvollzogen werden können. Schließlich werden Empfehlungen für die praktische Anwendung der Methode gegeben.
Titel: Überprüfung einer NEO-FFI-Version mit kontinuierlichen Items (Poster)
Institut für Psychologie der Universität Wien
Liebiggasse 5
A-1010 Wien
Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze
Der Beitrag berichtet über eine Anwendung des Modells für kontinuierliche Ratingskalen von Müller (1999) auf eine computergestützte Version des NEO-Fünf-Faktoren-Inventars (NEO-FFI), bei der die Items einzeln auf einem Monitor dargeboten wurden und mittels Maus auf einem Balken mit den Enden "starke Ablehnung" bzw. "starke Zustimmung" zu beantworten waren. Die Antworten von 100 Studierenden wurden erhoben und entsprechend den NEO-FFI-Skalen getrennt analysiert.
Das kontinuierliche Ratingskalen-Modell ist ein eindimensionales Rasch-Modell, bei dem die Antwortverteilungen im Regelfall gestutzte Normalverteilungen sind. Die Antwortverteilung hängt wie beim dichotomen Rasch-Modell von der Differenz zwischen der Merkmalsausprägung der
Person und der Schwierigkeit des Items ab, zusätzlich jedoch von einem Dispersionsparameter. In verschiedenen Modellgeltungskontrollen
ergaben sich Hinweise auf abweichende Items bei den Skalen Neurotizismus, Extraversion, Offenheit für Erfahrung und Verträglichkeit; die Skala
Gewissenhaftigkeit erschien am ehesten modellkonform. Bei der Skala Offenheit für Erfahrung legt ein Dispersionsparameter nahe Null die
Interpretation nahe, daß das kontinuierliche Antwortformat hier im Mittel fast wie ein dichotomes benutzt wurde; bei den übrigen vier Skalen kann
auf eine differenzierte Beantwortung der Aussagen geschlossen werden. Eine zu Kontrollzwecken durchgeführte exploratorische Faktorenanalyse erbrachte im wesentlichen die gleiche Faktorenstruktur wie bei der Gesamtstichprobe von Borkenau und Ostendorf (1993). Kritikpunkte der Untersuchung werden ebenso aufgezeigt wie mögliche Konsequenzen für das NEO-FFI.
Borkenau, P. & Ostendorf, F. (1993). NEO-Fünf-Faktoren Inventar (NEO-FFI) nach Costa und McCrae: Handanweisung. Göttingen: Hogrefe.
Müller, H. (1999). Probabilistische Testmodelle für diskrete und kontinuierliche Ratingskalen. Bern: Huber.
Titel: Was wollen wir eigentlich evaluieren, wenn wir evaluieren?
Georg-Elias-Müller-Institut für Psychologie
Goßlerstr. 14, 37073 Göttingen
Beitragszuordnung: Evaluationsforschung
Die
Evaluierung von allen möglichen psychologischen Interventionsmaßnahmen
treibt uns seit etlichen Jahren um, und zwar so sehr, dass die Evaluationsforschung
eigens mit in den Prüfungskanon zum Hauptdiplom aufgenommen worden
ist. Es gibt eine Vielzahl von Darstellungen, die sich mit dem "richtigen"
Vorgehen bei der Evaluation von Interventionsmaßnahmen befassen,
doch kaum eine Veröffentlichung befasst sich mit dem, was eigentlich
zur Evaluation ansteht. Vordergründig sind es natürlich immer
irgendwelche Interventionsmaßnahmen, doch was soll an ihnen evaluiert
werden? M.a.W. Was sollen psychologische Interventionsmaßnahmen eigentlich
bewirken können? Sie sollen Veränderungen bewirken - darüber
herrscht Einigkeit. Doch worauf sollen sich diese Veränderungen beziehen?
Darüber herrscht weit weniger Einigkeit: Sollen Performanzen geändert
werden oder Kompetenzen oder das Transferverhalten? Was haben denn Coachingprogramme,
Trainings, Therapien und Unterricht gemeinsam, was unterscheidet sie? Ist
es nicht so, dass wir auf längerfristige Erfolge hoffen, wenn wir
intervenieren,? Und: Macht es Sinn, den Aufwand einer Intervention zu treiben,
wenn die dadurch erzeugten Veränderungen nicht anhalten und irgend
wohin übertragen werden - am besten auch auf das Alltagsleben? Macht
es angesichts dessen Sinn, den Erfolg einer Interventionsmaßnahme
nur einmal, und zwar unmittelbar nach Ende der Maßnahme zu erheben?
Nachdem viele Jahre lang über den Grenzen und den Nutzen der sich
ja nicht ausschließenden Prozess- und der Erfolgsevaluation nachgedacht
und geschrieben worden ist, scheint es hohe Zeit, auch einmal darüber
nachzudenken, was wir mit unseren Interventionen denn eigentlich erreichen
wollen und wie wir das Erreichen des zu Erreichenden valide feststellen
können. Der Vortrag soll Denkanstöße zu den aufgeworfenen
Fragen geben.
Titel: Quadratisch, praktisch, gut? Der Evaluationskubus als Orientierungsrahmen für Evaluationsforschung
Ludwig-Maximilians-Universität München
Institut für Pädagogische Psychologie und Empirische Pädagogik,
Leopoldstr. 13, D-80802 München
henninge@edupsy.uni-muenchen.de
Beitragszuordnung: Evaluationsforschung - mit dem Schwerpunkt "Evaluation
der Lehre"
Sind
studentische Veranstaltungsbewertungen geeignet, um Informationen über
den möglichen Lernerfolg oder Transferleistungen zu bekommen? Die
empirische Evidenz zu dieser Frage laesst ein Nein als Antwort eher
plausibel erscheinen als ein Ja. Sind Evaluationen auf der Grundlage
studentischer Urteile deswegen grundsaetzlich zu verwerfen? Vermutlich
wird nun der Mehrzahl von EvaluationsforscherInnen ein klares Nein ueber
die Lippen kommen, ergaenzt um den Hinweis, es kommt darauf an, was herausgefunden
werden soll. Dieses kleine Frage- und Antwortspiel verdeutlicht ein wichtiges
Problem bei der Rezeption von Studien der Evaluationsforschung: fuer die
klare Bewertung und Einordnung von Theorien und Befunden bedarf es einer
klaren Verortung der
Evaluationsstudie (Rossi & Freeman, 1993; Wottawa & Thierau,
1998). Diese Verortung soll durch den vorzustellenden Evaluationskubus
ermoeglicht werden, der eine dreidimensionale Darstellung folgender
wichtiger Aspekte liefert:
(1) Evaluationsfokus: Inhaltliche Aspekte einer Lehrveranstaltung (Instruktion,
Organisation, Kosten/Nutzen),
(2) Messzeitpunkt: Zu Beginn, waehrend bzw. nach Beendigung der Lehrveranstaltung,
(3) Evaluationsebene: Wirkung einer Lehrveranstaltung auf die beteiligten
Personen (Reaktion, individueller
Erfolg, Transfer, organisationaler Erfolg).
Der Evaluationskubus soll neben der Klaerung von Zielsetzungen,
theoretischem Rahmen und der Adressaten einer
Evaluationsstudie auch eine Spezifikation der empirischen
Umsetzung, die Auswahl geeigneter Designs
und Methoden ermoeglichen. Die in diesem Modell integrierten
theoretischen Ansaetze der Evaluationsforschung
(Henninger, Balk & Mandl, 1998; Kirkpatrick, 1987;
Scriven, 1980;Wittmann, 1990; Wottawa &
Thierau, 1998) sollen dargestellt und die Anwendung des
Evaluationskubus auf empirische Studien veranschaulicht
werden.
Andreas Hinz
Coautoren: Frank Piontek, Bernhard Hueber, Gert Schreinecke
Titel: Urteilstendenzen bei Ratingskalen zum Gesundheitszustand und deren statistische Berücksichtigung
Universität Leipzig
Institut für Arbeits- und Sozialmedizin
Riemannstr.32, 04107 Leipzig
Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansätze
Bei
der Suche nach psychosozialen Ursachen für Gesundheitsbeeinträchtigungen
werden häufig sowohl die Ursachenfaktoren als auch der Gesundheitszustand
mittels Selbsteinschätzungsskalen erfaßt. Korreliert man die
so gewonnenen Maße zwischen Belastungen und Beschwerden, so ergeben
sich häufig Korrelationen um 0.30. Jedoch sind diese Zusammenhänge
zumindest teilweise durch individuell unterschiedliche Urteilstendenzen
mit vermittelt. Über Partialkorrelationen, multiple Regressionen,
geeignete Schichtungen der Personenstichproben und über Strukturgleichungsmodelle
lassen sich die Urteilseffekte aus den Beziehungen zwischen Belastungen
und Beschwerden herauspartialisieren. Diese Methoden werden anhand
einer konkreten Untersuchung von 160 Personen und Erfassung verschiedener
Belastungsfaktoren (Arbeitsfaktoren, kritische Lebensereignisse,
mangelnde soziale Unterstützung) exemplarisch vorgestellt und
verglichen. Als Maß für die Urteilstendenz wird Neurotizismus
im Sinne einer generellen Tendenz zu negativem Erleben und Beurteilen herangezogen.
Die rohen Korrelationen zwischen den Gefährdungsfaktoren und den
Beschwerden liegen zwischen 0.20 und 0.41. Mit allen vier genannten statistischen
Methoden werden die Beziehungen zwischen den Stressoren
und den Beschwerden abgeschwächt, jedoch in unterschiedlichem
Ausmaß. Bei der Analyse mittels LISREL wird die Abhängigkeit
der Ergebnisse von verschiedenen Modellannahmen dargestellt. Schließlich
wird die Auswahl
geeigneter Maße zur Erfassung der Urteilstendenzen diskutiert.
Titel: Explikative und deduktive Komponenten der "Herleitung" statistischer Vorhersagen aus psychologischen Hypothesen
Autoren: Albrecht Iseler
Freie Universität Berlin
Fachbereich Erziehungswissenschaft und Psychologie, Arbeitsbereich
Methoden der Psychologie
Habelschwerdter Allee 45, 14195 Berlin
Beitragszuordnung: Kausalanalyse
Es
wird dafür plädiert, die üblicherweise vertretene intuitive
"Herleitung" (Meehl: 'loose derivation') einer statistischen Vorhersage
aus einer zu prüfenden "vorstatistischen psychologischen Hypothese"
(VSPH) in zwei
Teilschritte zu zerlegen: Eine Explikation in Form einer statistisch
explizierten psychologischen Hypothese (SEPH) und eine strikt deduktive
Herleitung einer prüfbaren statischen Aggregathypothese (SAH). Dann
können
für beide Teilschritte wesentlich striktere Adäquatheitskriterien
verlangt und erfüllt werden als bei einer "Herleitung" in einem Schritt.
Insbesondere werden die Kriterien einer adäquaten Explikation meistens
vernachlässigt. Dagegen ist zu fordern, daß die SEPH in ihrem
substantiellen Gehalt der VSPH möglichst ähnlich sein, gleichzeitig
aber präzise spezifizieren soll, welche Sachverhalte (z.B. Verteilungspaare)
als hypothesenkonform und welche als hypothesenwidrig anzusehen sind. Außerdem
soll sie eine strikt deduktive
Herleitung einer SAH ermöglichen. Der Ansatz wird an einer für
psychologische Kausalhypothesen typischen
Relation demonstriert: Unter einer Bedingung b ist ein (von der AV
eines Experiments erfaßtes) interessierendes Merkmal "tendentiell
ausgeprägter" als unter Bedingung a. Es wird gezeigt, daß die
scheinbare Beliebigkeit der
statistischen Explikation dieser Relation (z.B. aufgrund von Erwartungswerten,
Medianen oder aufgrund des U-Test-Kriteriums) mit deduktiven Mitteln erheblich
reduziert werden kann. Ist andererseits eine
VSPH in einer SEPH adäquat expliziert, dann folgen daraus strikt
deduktiv Vorhersagen, die als Ergebnis einer "Herleitung" in einem Schritt
nach gängigen Standards als haarsträubend zu betrachten wären.
Titel: Haben unterschiedliche Personengruppen einen Einfluß auf
die Skalenhomogenität eines Persönlichkeitsfragebogens? - Eine
empirische Anwendung des
Programms T-Rasch 1.0 am
Beispiel des Myers-Briggs Typenindikators (Demonstration)
Institution: Dr. G. Schuhfried GmbH.
Hyrtlstr. 45, A-2340 Mödling
Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze,
Softwaredemonstrationen
Als Forschungsinstrument wurde in dieser Arbeit der Myers-Briggs Typenindikator, ein auf der Persönlichkeitstheorie C.G. Jung's beruhender
Persönlichkeitsfragebogen, herangezogen. Von diesem Verfahren wurden 3 Varianten für eine dichotome, eine siebenkategorielle und eine
kontinuierliche Antworteingabe entwickelt. Zu jeder dieser Varianten gab es eine computeriesierte Version, bzw. eine Papier-Bleistift Version.
Insgesamt wurden 474 Personen unter je einer dieser Bedingungen getestet. 186 dieser Personen nahmen freiwillig und anonym an der Untersuchung teil (Studentenstichprobe); für die restlichen 288 Personen war die Testung mit Konsequenzen verbunden (Auslesesituation).
Ein Auswertung erfolgte je nach Antwortformat mit dem dichotomen Modell von Rasch (1960) oder dem Partial Credit Modell von Masters (1982). Eine Überprüfung der Modellgeltung wurde mit den bekannten Likelihood-Quotienten Tests nach Andersen (1973) und den üblichen Teilungskriterien für die Stichprobe durchgeführt. Im dichotomen Fall wurden diese Tests an einem kleineren Teil der Stichprobe mit den von Ponocny (1996) entwickelten Modelltests wiederholt. Letztere ermöglichten neben der Überprüfung der spezifischen Objektivität auch eine Prüfung der lokalen stochastischen Unabhängigkeit.
Im Vortrag wird eine Vergleich der Ergebnisse dieser beiden Modelltestvarianten gegeben werden. Außerdem werden die Skaleneigenschaften der beiden Stichprobengruppen diskutiert werden.
Titel: Konsistenz und Spezifität der Prüfungsängstlichkeit: Eine Überprüfung des TAI-G mit der Latent State-Trait Theorie
Institut für Psychologie der J. W. Goethe-Universitaet
Mertonstrasse 17
60054 Frankfurt am Main
Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze
Zur Überprüfung der Konstruktvaliditaet der deutschen Version
des Test Anxiety Inventory (TAI-G; s. Hodapp, 1991), der den Trait Prüfungsängstlichkeit
über die vier Dimensionen "Aufgeregtheit", Besorgtheit", "Interferenz"
und "Mangel an Zuversicht" erfassen soll, wurde der Fragebogen einer vorwiegend
studentischen Stichprobe von N =3D 302 dreimal in einem zeitlichen Abstand
von jeweils zwei Wochen vorgelegt. Die Trait-Konzeption des Fragebogens
wurde unter Anwendung der Latent State-Trait Theorie (LST-Theorie) von
Steyer (1987), die dimensionalen Annahmen mittels konfirmatorischer Faktorenanalysen
höherer Ordnung überprüft. Die Ergebnisse bestätigen
sowohl die Trait-Konzeption als auch die Dimensionalität des TAI-G.
Die vier Subskalen eignen sich füer die Messung der verschiedenen
relativ stabilen Dimensionen der Prüfungsangst: 75-95% der Varianz
der Skalen zu den drei Messzeitpunkten werden durch die Traits erklärt,
durch die Situation bzw. die Person-Situation-Interaktion dagegen nur 1-19%.
Die bei den Analysen der Strukturgleichungsmodelle aufgetretenen methodischen
Probleme, u.a. das Problem von Wiederholungseffekten bei Mehrfachtestungen,
die Verwendung von Methodenfaktoren sowie die Verletzung der Normalverteilungsannahme
der Indikatorvariablen werden ausführlich diskutiert und daraus Empfehlungen
für zukünftige Validierungsstudien abgeleitet.
Hodapp, V. (1991). Das Prüfungsängstlichkeitsinventar TAI-G:
Eine erweiterte und modifizierte Version mit vier Komponenten. Zeitschrift
für Pädagogische Psychologie, 5, 121-130.
Steyer, R. (1987). Konsistenz und Spezifität: Definition zweier
zentraler Begriffe der Differentiellen Psychologie und ein einfaches Modell
zu ihrer Identifikation. Zeitschrift fuer Differentielle und Diagnostische
Psychologie, 8, 245-258.
Titel: Die Robustheit der LMS-Methode zur Überprüfung latenter Moderatoreffekte
Johann Wolfgang Goethe-Universitaet Frankfurt
Institut fuer Psychologie
Mertonstrasse 17, 60054 Frankfurt am Main
a.klein@psych.uni-frankfurt.de
Beitragszuordnung: Stukturgleichungs- und Latent-trait-Ansaetze, Analyse kategorialer Daten
Die
LMS-Methode stellt ein Verfahren zur Schaetzung und Ueberpruefung latenter
Moderatoreffekte dar, das sich hinsichtlich seiner hohen Effizienz und
Teststaerke gegenueber alternativen Verfahren (z.B. LISREL
oder 2SLS) auszeichnet. Es ist ein parametrisches Schaetz- und Testverfahren
fuer nichtlineare Strukturmodelle, dessen Anwendung an bestimmte methodische
Voraussetzungen hinsichtlich der Verteilung der
Indikatorvariablen (normalverteilte x-Variablen) und des Skalentyps
(Intervallskala) geknuepft ist.
Empirische psychologische Datensaetze fuer Indikatorvariablen unterliegen
aber in der Regel bestimmten Einschraenkungen und erfuellen nicht immer
die idealen Voraussetzungen: Beispielsweise koennen die
empirischen Daten eine deutliche Abweichung von der Normalverteilung
aufweisen, die Indikatorvariablen sind nur ordinalskaliert mit geringer
Stufenzahl oder die Stichprobengroessee unterliegt Beschraenkungen. Der
Beitrag untersucht die Robustheit der LMS-Methode in bezug auf diese
Einschraenkungen und stellt Vergleiche mit konkurrierenden Methoden an.
Die Beurteilung der Praxistauglichkeit der LMS-Methode fuer den Einsatz
in der psychologischen Forschung wird diskutiert.
Titel: Methoden zur Analyse der Beziehung zwischen Verhaltenserwartungen und Verhalten
Humboldt Universitaet Berlin
Geschwister Scholl Str. 7, 10099 Berlin
Uwe.Konerding@educat.hu-berlin.de
Beitragszuordnung: mathematische Modellierung in der Sozialpsychologie
Ein
wichtiges Problem der angewandten Sozialpsychologie ist die Vorhersage
und Erklärung von Verhalten aufgrund von Fragebogendaten. Dabei deuten
die bisher vorliegenden Forschungsergebnisse (z.B. Warshaw &
Davis, 1985) darauf hin, dass sich Verhalten am besten durch Verhaltenserwartungen
im Sinne subjektiver Wahrscheinlichkeiten vorhersagen laesst. Fuer die
weitere Forschung stellen sich damit die Fragen, wie die Beziehung zwischen
diesen Verhaltenserwartungen und dem Verhalten genauer aussieht und unter
welchen Umstaenden welche Beziehung zu erwarten ist. Zur Beantwortung dieser
Fragen fehlen zur Zeit aber noch
geeignete Methoden. So wird der Zusammenhang zwischen Verhaltenserwartungen
und Verhalten bisher meist mit
Korrelationskoeffizienten analysiert. Es gibt aber kaum eine explizite
Diskussion darueber, welche Art von Zusammenhang zwischen Verhaltenserwartungen
und Verhalten zu erwarten ist und inwieweit der
Korrelationskoeffizient sich in geeigneter Weise auf diese Art von
Zusammenhang bezieht. Im Vortrag werden zwei Modelle gegenuebergestellt,
die beide jeweils eine Klasse moeglicher Zusammenhangsfunktionen
definieren. Das erste ist das Modell, das dem klassischen Korrelationskoeffizienten
zugrundeliegt; das zweite ist das, das aufgrund der Rahmenbedingungen der
Problemstellung angemessener erscheint. Beide
Modelle werden zusammen mit den statistischen Verfahren zur Parameterschaetzung
und -testung vergleichend diskutiert und an Daten demonstriert.
Titel: Messung von Kontrollaufwand im Arbeitsgedächtnis auf der Basis von EEG-Kohärenzen (Poster)
Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
Bei der Lösung eines Problems laufen im Arbeitsgedächtnis
Kontrollprozesse zur Koordinierung des Behaltens und der Verarbeitung von
Information ab. Die Fähigkeit zur effizienten Koordination ist eine
entscheidende Komponente von Intelligenz. Für die Messung und Bewertung
von Denkleistungen stellt sich damit die Frage nach der Identifikation
dieser Kontrollprozesse sowie nach dem für ihre Realisierung aufgewendeten
kognitiven Aufwand.
Ziel der vorliegenden Untersuchung ist es, den kognitiven Aufwand für
solche Kontrollprozesse im Arbeitsgedächtnis vom Aufwand für
Informationsaufnahme und motorische Reaktion (Tastendruck) abzutrennen.
Ergebnisse, die mit Hilfe der funktionellen Kernspintomographie (fMRI)
erzielt wurden, sprechen dafür, daß der frontale Kortex und
parietale Bereiche zusammen eine Rolle beim aktiven Behalten und Verarbeiten
von Information im Arbeitsgedächtnis spielen. Anknüpfend daran
und basierend auf der Annahme, daß für die Informationsverarbeitung
ein höherer Kontrollaufwand erforderlich ist als für die Informationsaufnahme
und die motorische Reaktion, wird untersucht, ob dieser Kontrollaufwand
durch hohe Synchronisation zwischen spezifischen frontalen und parietalen
Hirnarealen gekennzeichnet ist.
Die erzielten Ergebnisse machen deutlich, daß hoher Kontrollaufwand
für Informationsverarbeitungsprozesse im Arbeitsgedächtnis vom
Aufwand für Informationsaufnahme und motorische Reaktion auf der Basis
interregionaler Kohärenzen zwischen spezifischen frontalen und parietalen
Hirnarealen abtrennbar ist.
Titel: Bootstrap-Verfahren: Anwendungen in der Analyse von Multikanal-EEG-Daten (Poster)
Autoren: Claus Lamm & Oliver Vitouch
Universität Wien
Institution: Brain Research Lab, Institut für Psychologie
Liebiggasse 5
A-1010 Wien
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver
Leistungen
Den
neuronalen Grundlagen kognitiver Prozesse wurde in den letzten Jahren vermehrtes
Interesse zuteil. Die technische Weiterentwicklung der dabei eingesetzten
BrainImaging-Verfahren (fMRI, PET, EEG, MEG) resultiert in der Erhebung
von sehr vielen Datenpunkten an meist sehr kleinen Stichproben (vgl. Vitouch
& Glück, 1997). Die Voraussetzungen der zur inferenzstatistischen
Auswertung dieser Daten herangezogenen varianzanalytischen Verfahren (ANOVA,
MANOVA bzw. GLM-basierte) sind dabei häufig nicht gegeben bzw. nicht
adäquat überprüfbar. Ferner liegen sehr oft non-orthogonale
Datensätze vor, was erwiesenermaßen die Robustheit der varianzanalytischen
Teststatistiken zusätzlich vermindert. Da in einem Großteil
der Fälle dennoch parametrisch ausgewertet wird (u.a. weil alternativ
verfügbare Verfahren nur bei entsprechend großen Stichproben
robust sind; Keselman, 1998), ist die aus dieser Form der Analyse resultierende
Inferenzstatistik meist wenig reliabel. Mögliche Lösungsansätze
sollen aufgezeigt und diskutiert werden. Besonderes Augenmerk wird dabei
den sogenannten Resampling-basierten Verfahren, wie etwa Permutationstests
oder Bootstrap-Analysen, zuteil werden. Vor allem der Bootstrap-Ansatz
stellt aufgrund seines weitgehenden Verzichts auf Populationsannahmen und
seiner Flexibilität einen besonders vielversprechenden Ansatz dar.
Dabei werden wiederholt mit Zurücklegen Zufallsstichproben aus der
real erhobenen Stichprobe gezogen. Für jede dieser Bootstrap-Stichproben
wird der gewünschte statistische Kennwert berechnet, woraus eine alternative
Schätzung der Stichprobenkennwerteverteilung resultiert, die auch
inferenzstatistisch verwertet werden kann.
Anhand des Beispiels von Multikanal-EEG-Datensätzen sollen die
klassischen Auswertungsstrategien mit Bootstrap-basierten Analysen verglichen
werden. Keselman, H.J. (1998). Testing treatment effects in repeated measures
designs: An update for psychophysiological researchers. Psychophysiology,
35, 470-478.
Vitouch, O. & Glück, J. (1997). „Small group PETting:“ Sample
sizes in brain mapping research. Human Brain Mapping, 5, 74-77.
Titel: Computer in der Lehre: Evaluation eines intelligenten Tutorsystems
Ministère de l'Education Nationale et de la Formation Professionnelle
- SCRIPT
29, rue Aldringen,
L - 2926 Luxembourg
Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation der Lehre" oder Einsatz von Multimedia in der Lehre
Die vorliegende Arbeit beschäftigt sich mit der Evaluation eines intelligenten Tutorsystems, das im Rahmen des Curriculums für Mediziner an der Münchner Poliklinik eingesetzt und allgemein auf seine Effektivität geprüft wurde. Für das Untersuchungsvorhaben wurde eine Fragebogenbatterie zusammengestellt, die neben einem Fragebogen zur Lernsoftware-Evaluation auch Fragen zur allgemeinen Einstellung gegenüber Computern, zum bevorzugten Lernstil, zur allgemeinen Leistungsmotivation sowie biographischen Fragen enthielt.
Die Lernsoftware, ein
Rheumatologie-Trainer, ist u.a. für die Aus- und Weiterbildung von
Ärzten und Studenten konzipiert, die computerunterstützt Erkrankungsfälle
fallbasiert präsentiert bekommen. Im Rahmen einer Prä-Post-Studie
benutzten Studierende das Lernprogramm während eines Semesters, wobei
lediglich Studierende mit geringem Vorwissen vom Lernmaterial zu profitieren
schienen. In einer Nachbefragung gaben die Studierenden an, daß sie
das Programm inhaltlich akzeptieren, daß die allgemeine Lernmotivation
als hoch anzusehen ist.
Eine Änderung im Umgang mit Computern wurde nicht beobachtet.
Die allgemeine Leistungsmotivation zeigte zu Semesterende einen signifikanten
Anstieg. Weiterhin gab die Mehrheit der Studierenden an, dass sie die Art
des Lernprogramms für hilfreich und sinnvoll hielt, mit der technischen
Handhabung und allgemeinen Benutzung des Programms aber Schwierigkeiten
hatte.
Nach dem heutigen Erkenntnisstand
der Forschung scheint es nicht möglich zu sein, prinzipielle Aussagen
über Lernwirkungen von Multimedia zu machen. Der Vergleich und die
kritische Bewertung existierender Studien
und Übersichtsarbeiten zeigt zwar, daß Multimediasysteme
über Potentiale zur Verbesserung der Lernleistung verfügen. Dennoch
scheint die überwiegende Mehrheit der eingesetzten Multimediasysteme
nur wenige oder
keine positive Auswirkung auf die Lernleistung, wie auch die Ergebnisse
dieser Untersuchung belegen. Hier gilt es, weiter an Massnahmen zur Verbesserung
dieser Situation zu arbeiten.
Titel: Alternativ oder kontrovers ?
Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig
Beitragszuordnung: Historische Methodenlehre
Eine Alternative zu formulieren ist Bestandteil wissenschaftlichen Denkens.
Die kontroverse Diskussion einer Alternative unterstützt dagegen die
Entstehung von Klischees, die sich nachteilig auf die weiterführende
Betrachtung auswirken können. Die „kontroverse Sichtweise“ auf den
vermeintlichen Gegner nimmt nur die „passenden“ Aussagen zur Kenntnis bzw.
interpretiert einstellungskonform.
Da Klischees ungeprüft weiterwirken, wird die ursprüngliche
Alternative zunehmend reduziert und schließlich zum Selbstverständnis
für eine bestimmte Denkrichtung. Auf diese reduziert und schließlich
zum Selbstverständnis für eine bestimmte Denkrichtung. Auf diese
Weise können auch niemals vertretene Auffassungen zur selbstverständlichen
Annahmen einer Theorie erklärt werden – das wohl bekannteste Beispiel
ist die Erklärung an die Adresse „elementaristischer“ Psychologen,
daß die Melodie mehr als die Summe ihrer Töne sei. Schon Carl
Stumpf fragte, ob denn jemals jemand behauptet habe, daß die Melodie
eine Summe von Tönen ist und antwortet: „eine solche Eselei habe ich
nirgends gefunden“.
An Beispielen soll belegt werden, daß kontroverse Diskussion der Weiterentwicklung des ursprünglichen Ideengehalts einer Alternative schaden kann und die Entdeckung und Entwicklung sich ergänzender Gesichtspunkte alternativer Ideen und Thesen nahezu ausschließt.
Titel: Modellierung und Erklärung intraindividueller Veränderung am Beispiel des Lernzuwachses im Fach Statistik
Universität Jena
Institut für Psychologie
Steiger 3, Haus 1
07743 Jena
Beitragszuordnung: Stukturgleichungsansätze, Analyse von Längsschnittstudien
Ein
Anwendungsfall für die Messung interindividueller Unterschiede bei
intraindividueller Veränderung ist die Erfassung von Lernzuwachs im
Bereich Wahrscheinlichkeitstheorie und Statistik. Das Erlernen dieses Grundwissens
im Fach Psychologie ist für Studierende häufig mit nicht unerheblichen
Schwierigkeiten verbunden. Vor diesem Hintergrund interessiert uns nicht
nur, ob und wieviel die Studierenden in den Lehrveranstaltungen zur
Statistik dazulernen, sondern darüber hinaus möchten wir
ermitteln, welche Studierenden viel bzw. wenig dazulernen. Wäre es
weiterhin möglich, potentielle Viel- und Weniglerner anhand einiger
Kriteriumsvariablen zu identifizieren, könnten gezielte Förderungs-
bzw. Nachhilfemaßnahmen angeboten werden. Aufbauend auf einen Ansatz
zur Modellierung wahrer intraindividueller Veränderung als latente
Variable, wird in diesem Vortrag eine Untersuchung vorgestellt, bei der
in mehreren Wellen das Wissen von Psychologie-Studierenden im Grundstudium
im Bereich Wahrscheinlichkeitstheorie gemessen wurde. Die intraindividuelle
Veränderung im Wissenstand
zwischen den Erhebungszeitpunkten wird auf zusätzlich erhobene
Personenvariablen wie z. B. Lernaufwand,
Vorwissen, Lernmotivation etc. zurückgeführt.
Titel: T-Rasch 1.0: Ein menügesteuertes Windows-Programm zur Erstellung und Überprüfung eindimensionaler Tests (Demonstration)
Universität Wien
Institut für Psychologie
Liebiggasse 5
A-1010 Wien, OEsterreich
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver
Leistungen;Strukturgleichungs- und
Latent-Trait-Ansätze
Die in der Praxis oft implizit getroffene Annahme, dass sich die Leistung in einem kognitiven Test als die Anzahl der richtigen Lösungen charakterisieren läßt, ist (unter wenig restriktiven Bedingungen) mathematisch äquivalent zur Güeltigkeit des Raschmodells, welches durch geeignete Modelltests überprüft werden kann. Insbesondere kann das Raschmodell als Prüfstein dafür herangezogen werden, ob
a) die Items als eindimensional zu betrachten sind und
b) es keine Subgruppen gibt, in welchen sich einzelne Items anders verhalten als in der Gesamtstichprobe (im Sinne von Differential Item Functioning).Die T-Rasch zugrundeliegenden Modelltests sind vor allem in Hinblick auf kleinere Stichproben (unter 100 Personen) konzipiert und kommen dementsprechend ohne asymptotische Näherungen aus. Weiters wurde in Hinblick auf maximale Macht der Möglichkeit, a priori-Hypothesen sowie deren Zusammensetzungen zu berücksichtigen, viel Raum gewaehrt. Anhand praktischer Beispiele konnte so gezeigt werden, dass auch bei kleinen Stichproben bereits viele Items als nicht "homogen" (im Sinne des Raschmodells) ausgeschieden werden koennen. Typische a priori-Hypothesen ueber Abweichungen vom Raschmodell wie die folgenden können durch einfaches Anklicken von Itemnummern im entsprechenden Menüpunkt realisiert werden:
* Bestimmte Itempaare oder Itemgruppen sind inhaltlich zu ähnlich konstruiert (z.B. dieselbe logische Struktur, aber mit anderen Symbolen), ihre
Übereinstimmungen sind grösser als innerhalb des Raschmodells zulässig.
* Bestimmte Items sind (z.B.) aufgrund ihrer inhaltlichen Verpackung für Mädchen etwas motivierender als für Burschen oder umgekehrt.
* Hypothesen der vorigen Typen gelten in Kombination.
* T-Rasch bietet auch Screening-Verfahren an, mit denen nach Abweichungen vom Typ a) oder b) gesucht werden kann (zusammen mit
overall-Signifikanzniveaus).
Titel: Lehrevaluationsforschung und Lehrevaluationspraxis - Fragestellungen und aktuelle Entwicklungen
Otto-von-Guericke-Universität Magdeburg
Institut für Psychologie
Postfach 4120
D-39016 Magdeburg
heiner.rindermann@gse-w.uni-magdeburg.de
Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation
der Lehre"
In
dem Beitrag zur studentischen Lehrevaluation werden Forschungsstand, relevante
Fragen der Lehrevaluationsforschung und aktuelle Trends beschrieben und
diskutiert: relevante Prozeß- und Produktvariablen der Lehrqualität;
Konstruktion und Dimensionen eines Lehrinventars, welches eine differenzierte
Beschreibung von Lehrveranstaltungen erlaubt; Skalenqualitäten (verschiedene
Maße der Reliabilität, Urteilerübereinstimmung); Validität
studentischer Beurteilungen bestimmt an den Kriterien Übereinstimmung
mit Fremdurteilern,
Zusammenhang mit Leistungsmaßen, Generalisierbarkeit dozentenbezogener
Urteile über verschiedene Veranstaltungen und Beeinflußbarkeit
durch Biasvariablen (z.B. Besuchsgrund); Möglichkeiten des Einsatzes
studentischer Beurteilungen zur Verbesserung der Lehre. Während
günstige Skalenqualitäten und die Validität unterstützende
Befunde geschildert werden können, zeigt sich in formativen Ansätzen,
daß studentische Lehrevaluationen der Ergänzung durch Beratung
und Weiterbildung bedürfen, um nachweisbare Verbesserungen erzielen
zu können. Ergebnisse einer aktuellen Studie, die Verbesserungsmöglichkeiten
der Lehre durch Evaluation und Beratung überprüft, werden geschildert.
Hierbei zeigt sich, daß bei Einsatz von Beratung und bei unterstützenden
institutionellen Bedingungen die Qualität der Lehre nachweisbar verbesserbar
ist. Künftige Projekte sollten deshalb hochschuldidaktische und (test)diagnostische
Ansätze verbinden sowie strukturelle Rahmenbedingungen und deren Auswirkungen
in Optimierungsmodelle miteinbeziehen.
Titel: Exakte Tests und exploratorische Analysen im Rahmen der multivariaten
Auswertung evozierter EEG-Kohärenzen
TU Dresden
Fachrichtung Psychologie, Institut für Humanbiologie und Biopsychologie
Mommsenstr. 13
01062 Dresden
rudolf@psy1.psych.tu-dresden.de
Beitragszuordnung: Methoden zur Messung und Modellierung kognitiver
Leistungen
Aus der neurophysiologischen Forschung ist bekannt, daß bei der Realisierung komplexer mentaler Operationen verschiedene Gebiete des Gehirns zusammenwirken, wobei derartige Kooperationen von einer Änderung der Ähnlichkeit der elektrischen Aktivität der einbezogenen Hirngebiete begleitet werden. Die evozierte Kohärenz des EEG (Volke, 1992, 1995) bietet sich als Instrument für die Untersuchung solcher Prozesse an. Wegen der paarweisen Ermittlung der Kohärenzen zwischen den Ableitorten nimmt dabei die Variablenzahl quadratisch zu, was zu spezifischen Problemen für die statistische Datenauswertung führt. In unserem Experiment diente das Schachspiel als mentales Tätigkeitsmodell. Den Schachspielern (n=25) wurden Schachaufgaben unterschiedlicher Komplexität über einen Computerbildschirm zur Lösung dargeboten, wobei das EEG 29-kanalig abgeleitet wurde. Die für die statistische Auswertung anzuwendende Vorgehensweise sollte einerseits exakte inferenzstatistische Hypothesenprüfungen ermöglichen. Dabei waren die klassischen multivariaten Verfahren wegen der großen Variablenanzahl bei geringem Stichprobenumfang nur sehr eingeschränkt nutzbar. Andererseits sollte ein Beitrag zur Modellierung der Zusammenhangsstruktur der teilweise hochkorrelierten Daten und zur Hypothesenbildung über die Arbeitsweise des Gehirns geleistet werden.
Vorkenntnisse über
die faktorielle Zusammenhangsstruktur der Kohärenzdaten (z.B. Rudolf,
Jackisch & Volke, 1996) konnten ausgenutzt werden, um für die
statistischen Hypothesenprüfungen stabile multivariate Verfahren (Läuter,
1996; Kropf & Glimm, 1997) anzuwenden, die auch bei kleinen Stichprobenumfängen
und hohen Merkmalsdimensionen das vorgegebene Signifikanzniveau exakt einhalten.
Eine exploratorische zweistufige Faktorenanalyse in Verbindung mit einer
topologischen Analyse der Faktoren ermöglichte darüber hinaus
eine
Bestimmung der an der Lösung der verschiedenen Aufgaben beteiligten
Kortexareale.
Mit dieser Vorgehensweise erscheinen evozierte EEG-Kohärenzen als ein sensitives Instrument zur Untersuchung subtiler Veränderungen der Hirntätigkeit bei mentaler Beanspruchung.
Titel: Konsistenz und Spezifität der Prüfungsängstlichkeit: Eine Überprüfung des TAI-G mit der Latent State-Trait Theorie
J. W. Goethe-Universitaet
Institut für Psychologie
Mertonstrasse 17
60054 Frankfurt am Main
schermelleh-engel@psych.uni-frankfurt.de
Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansaetze
Zur Ueberpruefung der Konstruktvaliditaet der deutschen Version des Test Anxiety Inventory (TAI-G; s. Hodapp, 1991), der den Trait Pruefungsaengstlichkeit ueber die vier Dimensionen "Aufgeregtheit", Besorgtheit", "Interferenz" und "Mangel an Zuversicht" erfassen soll, wurde der Fragebogen einer vorwiegend studentischen Stichprobe von N =3D 302 dreimal in einem zeitlichen Abstand von jeweils zwei Wochen vorgelegt. Die Trait-Konzeption des Fragebogens wurde unter Anwendung der Latent State-Trait Theorie (LST-Theorie) von Steyer (1987), die dimensionalen Annahmen mittels konfirmatorischer Faktorenanalysen hoeherer Ordnung ueberprueft. Die Ergebnisse bestaetigen sowohl die Trait-Konzeption als auch die Dimensionalitaet des TAI-G. Die vier Subskalen eignen sich fuer die Messung der verschiedenen relativ stabilen Dimensionen der Pruefungsangst: 75-95% der Varianz der Skalen zu den drei Messzeitpunkten werden durch die Traits erklaert, durch die Situation bzw. die Person-Situation-Interaktion dagegen nur 1-19%. Die bei den Analysen der Strukturgleichungsmodelle aufgetretenen methodischen Probleme, u.a. das Problem von Wiederholungseffekten bei Mehrfachtestungen, die Verwendung von Methodenfaktoren sowie die Verletzung der Normalverteilungsannahme der Indikatorvariablen werden ausfuehrlich diskutiert und daraus Empfehlungen fuer zukuenftige Validierungsstudien abgeleitet.
Hodapp, V. (1991). Das
Prüfungs=E4ngstlichkeitsinventar TAI-G: Eine erweiterte und modifizierte
Version mit vier Komponenten. Zeitschrift für P=E4dagogische Psychologie,
5, 121-130.
Steyer, R. (1987). Konsistenz und Spezifitaet: Definition zweier zentraler
Begriffe der Differentiellen Psychologie und ein einfaches Modell zu ihrer
Identifikation. Zeitschrift fuer Differentielle und Diagnostische Psychologie,
8, 245-258.
Titel: Tests auf Unkonfundiertheit im Allgemeinen Linearen Modell mit stochastischen Regressoren
Friedrich-Schiller-Universität Jena
Lehrstuhl für Methodenlehre und Evaluationsforschung, Institut
für Psychologie
Am Steiger 3, Haus 1
D-07743 Jena
Beitragszuordnung: Kausalanalyse
In
der Methodenlehre der Psychologie wird kausale Abhängigkeit zweier
Variablen durch Regressionsmethoden untersucht, was allerdings nur unter
bestimmten Voraussetzungen gerechtfertigt ist. Bisher hat unsere
Arbeitsgruppe diese Voraussetzungen spezifiziert, die theoretischen
Vorarbeiten geleistet und erste Testverfahren entwickelt (vgl. dazu etwa
Steyer et al., 1996). Teststatistik im Rahmen einer Kausalen Regressionstheorie
ist eine Kenngröße für die "Stärke der Konfundiertheit"
einer regressiven Abhängigkeit.
Eine wesentliche Rolle bei der praktischen Anwendung (d.h. der Testung
auf Unkonfundiertheit) spielt der Wald-Test zur Überprüfung (auch)
nichtlinearer Hypothesen. Im obigem Artikel beschränkten wir uns auf
den Fall einer multivariaten Normalverteilung der eingehenden Zufallsgrößen
X, W und Y (Treatmentvariable, "Konfundierungsvariable" und Responsevariable)
mit festen Regressoren. Dieses Referat soll nun weitere Grundlagen für
die praktische Anwendbarkeit der Kausalitätstheorie legen: Der Test
der Unkonfundiertheit im Fall diskreter, stochastischer Regressoren und
bedingter Normalverteilung des Regressanden Y. Insbesondere soll hier
überprüft werden, ob auch für diesen Fall der Wald-Test
verwendet werden kann. Der Wald-Test ist ein asymptotischer Test. Ziel
unserer Bemühungen ist es daher auch, eine kritische Stichprobengröße
anzugeben, ab der der Wald-Test verwendet werden kann. Dazu werden Ergebnisse
von Simulationsstudien berichtet.
Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig
psyschu@rzaix530.rz.uni-leipzig.de
1. Beitrag:
Titel: Split- Ein Verfahren zur Strukturermittlung
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
Das vorzustellende Verfahren setzt sich genau genommen aus zwei methodischen Ansätzen zusammen. Das Split-Paradigma (nach LANDER) ist eine neue Experimentalanordnung, die sich aus den klassischen Verfahren des Tripelvergleichs bzw. aus Sortiertechniken ableitet. Die angeschlossene
Auswertungsprozedur zur Ermittlung der Strukturierung und Dimensionierung von Gedächtnisinhalten (nach LANDER) nutzt die im Split-Paradigma
bereitgestellte Datenbasis und stellt eine eigenständige Methode dar. Obgleich beide Verfahren in Kombination entwickelt wurden, sind sie auch
jedes für sich getrennt einsetzbar. Die vorliegende Untersuchung soll am Beispiel der Beurteilung der Ähnlichkeit geometrischer Figuren mit
diskret-alternativen Merkmalen auf mehreren Merkmalsdimensionen die Einsatzmöglichkeiten sowohl des Split-Paradigmas als auch der
Auswertungsprozedur veranschaulichen. Es wurde die Frage untersucht, welchen Einfluß die Darbietung unterschiedlicher Figurteilmengen auf die
Merkmalsrepräsentation hat. Am Experiment nahmen 28 Vpn teil, die nach dem Split-Paradigma die Ähnlichkeit von Figuren beurteilten. Die Auswertung wurde nach der vorgeschlagenen Auswertungsprozedur realisiert und ergänzende Auswertungsvarianten entwickelt. Die Ergebnisse (Clusterlösungen, Faktorlösungen) bestätigten die Hypothese der Kontextabhängigkeit in den Ähnlichkeitsurteilen. Die Splitmethode erwies sich als geeignetes Analysemittel.
2. Beitrag:
Coautoren: Annekathrin Aurich
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
Titel: Anwendung des Split- Verfahrens zum Nachweis visueller Verarbeitungsdefizite
bei Legasthenikern (Poster)
In Untersuchungen zu Defiziten bei Legasthenikern stehen in der Regel auditive Defizite im Vordergrund. Im Bereich der visuellen Defizite sind
Beeinträchtigungen bei frühen Verarbeitungsleistungen zu finden. Im Mittelpunkt der vorliegenden Untersuchung stehen Besonderheiten der
Strukturbildung in der visuellen Wahrnehmung bei Legasthenikern. Als Untersuchungsmethode wurde das Split-Paradigma und die sich anschließende
Auswertungsprozedur nach LANDER eingesetzt. Anhand der Cluster- und Faktorlösungen konnten Gruppenunterschiede zwischen Legasthenikern und normallesenden Kindern in der Art und Strukturierung der Ähnlichkeitskriterien nachgewiesen werden.
Titel: Das MR- und andere Kriterien für die orthogonale Rotation von Faktoren
Universität Freiburg
Psychologisches Institut
Belfortstr. 16
79085 Freiburg
Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze,
Faktorenanalytische Verfahren
Neue
Kriterien für die orthogonale Rotation von Faktoren, die auf bis zu
drei heuristischen Regeln beruhen, werden vorgestellt. Den Ausgangspunkt
für die Entwicklung der neuen Kriterien bildet Carroll's (1953) Berechnungsregel
für die orthogonale Rotation, die als äquivalent zur Quartimax-Regel
betrachtet wird. Außerdem wurde auf die Fähigkeit Bezug genommen,
unter bestimmten Bedingungen die geeignetste Konfiguration hoher Ladungen
zu "sehen". Rotationsverfahren, die die neuen Kriterien implizieren, sowie
Quartimax und Varimax wurden auf Monte-Carlo-Daten und spezielle Korrelationsmatrizen
angewendet. Insgesamt konnten mit dem MR (multiple rules) Kriterium, welches
auf drei heuristischen Regeln basiert, die vielversprechendsten Ergebnisse
erzielt werden. Es fand sich allerdings auch eine Abhängigkeit der
Effizienz der Rotationsverfahren von der Struktur der Daten, was auf die
Notwendigkeit einer differenzierten Gewichtung der Beiträge der einzelnen
heuristischen Regeln hindeutet.
Titel: Überlegungen zur Anwendung von Randomisierungstests und
Bootstrapverfahren in der Überprüfung kausaler
Hypothesen
Ernst-Moritz-Arndt-Universität Greifswald
Institut für Psychologie, Lehrstuhl für Allgemeine Psychologie
und Forschungsmethodik
Franz-Mehring-Str. 47
D-17487 Greifswald
masiemer@mail.uni-greifswald.de
Beitragszuordnung: Kausalanalyse
Die
Klasse der sogenannten "resampling"-Verfahren kann danach unterschieden
werden, ob das resampling aus der vorhandenen Stichprobe mit oder ohne
Zurücklegen erfolgt. Im ersten Fall handelt es sich um Randomisierungs-
oder Permutationstests und im zweiten um Bootstrapverfahren. Die methodologische
Grundlage von Randomisierungstest ist wohlbekannt. Sie entsprechen generell
der Logik experimenteller Forschung besser als parametrische, populationsbasierte
statistische Verfahren. Insbesondere sind Randomisierungstests ausschließlich
stichprobenbasiert und entsprechen somit der Intention experimenteller
Forschung, die an der Güte eines Kausalschlusses interessiert ist
und nicht an dem Rückschluß auf eine in aller Regel unzureichend
definierte Population. Nachteilig am Randomierungstestkonzept ist jedoch,
daß die Teststärke (und mithin der Beta-Fehler), ohne die Annahme
einer zugrundeliegenden Population aus der Stichproben wiederholt gezogen
werden können, nicht sinnvoll definiert ist. Als Folge wird häufig
ein hybrides Modell des Signifikanztests vertreten, das einerseits auf
der zwingenden Logik des Randomisierungstests basiert, jedoch zur Bestimmung
der Teststärke ein parametrisches Populationskonzept benötigt.
Bootstrapverfahren sind dazu geeignet, dieses prima-facie Dilemma zu
lösen und ermöglichen eine konsistente Interpretation des
Teststärkebegriffs, ohne auf ein klassisches Populationsmodell
zurückzugreifen. In Bootstrapverfahren wird die Stichprobe selbst
mit einer hypothetischen, infiniten (Ziehen mit Zurücklegen)
Population gleichgesetzt. Auf diese Weise ist es möglich post-hoc
und a-priori Teststärkeanalysen mit
veränderbaren Stichprobengrößen und Effektstärken,
ausschließlich auf der Basis einer bestehenden Stichprobe durchzuführen.
Hierzu werden Bootstrapstichproben aus der manifesten Stichprobe gezogen
und die
Verteilung der anhand von Randomisierungstests erhaltenen Signifikanzwerte
dieser Bootstrapstichproben ermittelt. Bei diesem Vorgehen wird an keiner
Stelle auf das Konzept einer zugrundeliegenden Population (und
entsprechenden Verteilungsannahmen) zurückgegriffen. Erste Ergebnisse
einer Monte-Carlo Simulation zum Vergleich parametrischer Teststärkeanalysen
mit dem vorgeschlagenen Verfahren werden vorgestellt.
Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig
Titel: Messung von Lernerfolg auf der Basis von EEG- Kohärenzen
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
Welche Prozeßeigenschaften zeigen einen Lerneffekt an? Einen möglichen
Weg zur Beantwortung dieser Frage sehen wir in der Analyse von prozeßbegleitenden
funktionalen Kooperationen zwischen kortikalen Subsystemen. Auf der Basis
von EEG-Kohärenzanalysen konnte experimentell belegt werden, daß
sich hoher kognitiver Aufwand für Kontroll- und Steuerprozesse in
starker Synchronisation zwischen frontalen und parietalen Hirnarealen widerspiegelt.
Demzufolge müßte eine durch Übung oder Training zu erwartende
Aufwandsreduktion mit einer Verringerung solcher Synchronisationen einhergehen.
Gegenstand dieser Studie ist die Untersuchung von Veränderungen
in der EEG-Kohärenz im Verlauf von acht Lernphasen. Durch die Ergebnisse
wird die Annahme gestützt, daß eine Reduktion des kognitiven
Aufwands für Kontroll- und Steuerprozesse durch Übung mit einer
Verringerung der Stärke der funktionalen Kooperation zwischen spezifischen
frontalen und parietalen Instanzen verbunden ist. Weiterhin sprechen die
Ergebnisse dafür, daß der durch Übung teilweise automatisierte
Lösungsprozeß mehr und mehr in parietalen Hirnregionen stattfindet
und damit die Exekutive von ihrer Kontrollfunktion entlastet wird. Die
lernabhängigen Kohärenzverläufe in unterschiedlichen Frequenzbändern
bilden ein Basis zur Identifizierung lernabhängiger Veränderungen
von Behaltens- und Prozeßkomponenten des kognitiven Aufwands.
Titel: Vom konkret-operatorischen zum formal-operatorischen Denken: Modellierung mit Item-response-Modellen
Karl-Franzens-Universität Graz
Institut für Psychologie
Universitätsplatz 2
A-8010 Graz
Christiane.Spiel@kfunigraz.ac.at
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen;Strukturgleichungs- und Latent-Trait-Ansätze
Entgegen
Piagets ursprünglicher Annahme scheinen die Übergänge von
einem kognitiven Stadium zum nächst höheren nicht relativ plötzlich
zu erfolgen, sondern einen längeren Zeitraum in Anspruch zu nehmen,
was die Frage nach potentiellen Zwischenstadien aufwirft. Basierend auf
den Ergebnissen früherer Arbeiten (Spiel, Gittler, Sirsch & Glück,
1996) untersuchten wir diese Annahme für den Übergang vom konkret-operatorischen
zum
formal-operatorischen Stadium. Als Versuchsmaterial verwendeten wir
Syllogismentests zum deduktiven Reasoning, die wir systematisch hinsichtlich
Aufgabeninhalt (konkret, abstrakt, kontrafaktisch) und
Präsentation des Antezedenten (mit und ohne Negation) variierten.
Daraus ergaben sich aufgrund der vier Antwortformen insgesamt 24 Einzelitems.
Die Stichprobe bestand aus 418 Vpn zwischen 12 und 18 Jahren (Gymnasium).
Wir gingen davon aus, daß die Vpn in Abhängigkeit von ihrem
kognitiven Entwicklungsstand unterschiedliche Operationen zur Itembearbeitung
einsetzten, d.h. eine Mischverteilung vorliegt. Daher wurden für die
Analyse Mixed-Rasch-Models eingesetzt (Rost, 1990). Die 3-Klassenlösung
erwies sich als bestpassende. Hinsichtlich der Lösungsmuster präsentieren
die drei Klassen eine kognitive Entwicklungssequenz, wobei die erste Klasse
in allen Fällen transduktive Schlüsse zog, die zweite Klasse
dies bei den abstrakten und kontrafaktischen Aufgaben tat, jedoch nicht
bei den konkreten. Bei diesen hatten die Vpn bei Modus Ponens und Modus
Tollens
höhere Lösungswahrscheinlichkeiten als für die Negation
des Antezendenten und die Affirmation des Konsequenten. Solche Lösungsmuster
wurden in der dritten Klasse für alle sechs Aufgabengruppen
beobachtet. Dieses Ergebnis wirft die Frage nach der Relativität
des Begriffs Homogenität auf, da offensichtlich homogene Itemuntergruppen
im Verlauf der Entwicklung inhomogen werden und schließlich
wieder homogen.
Titel: Wohin gehört die historische Methodenlehre? - Plädoyer für eine heimatlose Methodik
Fontanestr. 15
12459 Berlin
Beitragszuordnung: Historische Methodenlehre
Für
die Mehrzahl der heutigen Methodiker der Psychologie ist Methodenlehre
empirische oder experimentelle Methodik, einschließlich ihrer mathematischen
Analyse-, Modellierungs- und Simulationsmittel. Aber dies Verständnis
ist erst in der jüngeren Geschichte der Psychologie entstanden. Bei
dessen Entwicklung wurde zunehmend übersehen, daß es neben der
rezenten Empirie auch eine historische Empirie gibt, die aus Spuren vergangener
psychischer Tätigkeiten besteht, die z.B. in Form von Dokumenten vorliegen.
Solche Dokumente sind beispielsweise wissenschaftliche Einzelarbeiten,
Monographien, Bild- und Tondokumente über Autoren, Laboratorien, Versuchsanordnungen;
weiterhin Apparate, Zeugnisse, Beurteilungen, Gutachten, Krankengeschichten,
Denkschriften, Nachlässe, Briefe, Memoiren, Chronisten- und Zeitzeugenberichte.
Dementsprechend existiert für die Untersuchung dieser historischen
Empirie auch eine Methodenlehre, die historische. Wilhelm Wundt und vielen
seiner Zeitgenossen war dieses duale Methodenverständnis noch voll
bewußt. Nicht umsonst unterschied er eine experimentelle „Individualpsychologie“
von einer nichtexperimentellen, d.h. einer historischen „Völkerpsychologie“.
Im Beitrag werden zum einen ausgewählte methodische und methodentheoretische
Grundlagen der historischen Methodenlehre vorgestellt und zum anderen wird
ein kurzes Plädoyer für die historische Methodenlehre als Komplementierung
der empirischen Methodenlehre gehalten. Bei den Grundlagen handelt es sich
um die „Perspektiven“ und die „Strategien“ der Geschichtsforschung, um
„Erklärungsformen“ historischer Entwicklungen, um „Erklärungsmodelle“
historischer Entwicklungen in der Geschichte und um spezielle „historiographische
Methoden“. Im Ausblick wird auf ein integriertes System der Psychologischen
Methodenlehre verwiesen.
Literatur
Sprung, L. & Sprung, H. (1997). Psychologiegeschichte und Methodengeschichte
- Zur Geschichte der historischen und empirischen Methodik sowie ausgewählte
Reflexionen über ein integriertes System der Psychologischen Methodenlehre.
In D. Albert & H. Gundlach (Hrsg.), Apparative Psychologie: Geschichtliche
Entwicklung und gegenwärtige Bedeutung. (S. 125-141). Lengerich: Pabst.
Titel: Veränderungsmessung anhand der Latent Class Analyse
Universität Erlangen/Nürnberg
Institut für Psychologie1
Bismarckstr. 1
91054 Erlangen
Beitragszuordnung: Analyse von Längsschnittstudien, Analyse kategorialer
Daten
Auch
wenn empirische Daten auf Intervalldatenniveau erfaßt werden, gibt
es häufig qualitative Zuschreibungen für
einzelne Wertebereiche. Diesen Zuschreibungen kommt oft eine größere
Bedeutung zu, als den absoluten Zahlenwerten auf Intervallniveau. Dadurch
wird im Endeffekt eine Auswertung auf einem geringeren Datenniveau bevorzugt.
Gezeigt wird die Auswertung von längsschnittlichen medizinischen Intervalldaten
(z.B. HbA1-Werte, Stoffwechseleinstellung bei Diabetes) auf kategorialer
Ebene mit Hilfe der Latent Class Analyse (LCA; Formann, 1984; Langeheine
& Rost, 1993) und ihren verwandten Verfahren wie z.B. Markov-Modelle
(Langeheine & van de Pol, 1994). Ferner wird die Möglichkeit diskutiert
die Ergebnisse der LCAAuswertung anhand der Ergebnisse aus längsschnittlichen
Clusteranalysen zu validieren.
Titel: Kausale Modellierung: Einige neue Forschungsthemen
Friedrch-Schiller-Universität Jena
Institut für Psychologie
Am Steiger 3/ Haus 1
D-07743 Jena
Beitragszuordnung: Kausalanalyse
Nach einer kurzen Einführung in die Grundbegriffe der Theorie individueller und durchschnittlicher kausaler Effekte werden einige neue Forschungsthemen vorgestellt und dabei die Grenzen dieser Theorie und die Möglichkeiten ihrer Überwindung aufgezeigt. Neben einigen noch im Rahmen dieser Theorie noch weitgehend unbearbeiteten Themen wie die "Kausale Analyse von Längsschnittdaten" sind das "Die kausale Analyse in der nichtorthogonalen Varianzanalyse" und die "Kausalitätstests in Modellen mit stochastischen qualitativen Regressoren". Die beide letztgenannten Themen werden in nachfolgenden Referaten im Detail behandelt.
Titel: Probabilistische Meßtheorie
FB Psychologie
Universität Osnabrück
Pf:: 4469
49069 Osnabrück
Suck@luce.psycho.uni-osnabrueck.de
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
Es wird ein meßtheoretischer Rahmen erarbeitet, in dem es möglich ist, aus qualitativen Bedingungen Verteilungen zu charakterisieren. Das allgemeine Prinzip wird erläutert, bisherige Ergebnisse dargestellt, und Schwierigkeiten bei noch nicht gelungenen Charakterisierungen diskutiert. Verschiedene Fragen im Zusammenhang mit der Normalverteilung und Verteilungsvoraussetzungen im linearen Modell lassen sich auf diese Weise einheitlich behandeln.
Titel: Methoden zur Untersuchung von sukzessiven und simultanen Kontexteffekten in der multidimensionalen Psychophysik (Poster)
Institut für Psychologie
Mertonstra_e 17
D-60054 Frankfurt/Main
szczepanski@psych.uni-frankfurt.de
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen; Analyse kategorialer Daten
Die methodischen Ansätze a) two-stimulus-two-choice und b) delayed-matching-to-sample wurden im Hinblick auf die Untersuchung von Frequenzeffekten in der mehrdimensionalen Bezugssystemforschung verwendet. Hierbei besaßen die einzelnen untersuchten Dimensionen Größe und Helligkeit bedingt durch den gewählten Aufgabentyp unterschiedliche Relevanz. In drei Experimenten wurden den Probanden Kreise dargeboten, die in den Dimensionen Größe und Helligkeit variierten. Im Experiment I lernten die Probanden im Training, vier unterschiedlich große Reize innerhalb zwei unterschiedlich heller Reizpaare zweikategorial (rechts/links) zu beurteilen (four-stimulus-two-choice); im anschließenden Test wurden die zuvor erlernten Zuordnungsregeln unter sukzessiver Darbietung von Reizen mit neuen Größenstimuli generalisiert. Hierbei wiesen die Reizserien entweder positive (mehr kleine Kreise) oder negative (mehr große Kreise) Schiefe in der Dimension Größe auf. Im Experiment II wurden die Reize nach einem mit Experiment I identischen Training entweder zunächst simultan oder sukzessiv dargeboten. Hierbei wurden dieselben Reizserien mit den entsprechenden Frequenzverteilungen aus dem Experiment I verwendet. Im Experiment III wurden den Probanden in mehreren delayed-matching-to-sample-Aufgaben Reizserien simultan präsentiert, in denen die jeweils kurz zuvor präsentierten Targetreize wiedererkannt werden sollten. Die Reizserien wurden entweder entlang der Dimension Größe oder entlang der Dimension Helligkeit oder entlang der beiden Dimensionen Größe und Helligkeit hinsichtlich der Frequenzverteilung variiert. In allen drei Experimenten traten deutliche Urteilsverschiebungen aufgrund der Schiefe der Darbietungs- häufigkeitsverteilung der Reizserien auf. Im direkten Vergleich der sukzessiven und der simultanen Reizdarbietung im Rahmen des Experimentes II zeigten sich stärkere Effekte bei der simultanen Methode.
Titel: Individuelle Urteilsdifferenzierung bei der Beurteilung von Lehrveranstaltungen durch Studierende
Universität der Bundeswehr München
Werner-Heisenberg-Weg 39
85577 Neubiberg
christian.tarnai@unibw-muenchen.de
Beitragzuordnung: Evaluationsforschung
Abgesehen
von der uneinheitlichen Beurteilung ein und derselben Lehrveranstaltung
durch Studierende werden durch sie unabhängig vom Urteilsniveau graduelle
Abstufungen vorgenommen. Es wird im vorliegenden Beitrag untersucht, ob
systematische Urteilsdifferenzierungen beobachtet werden können, die
erkennen lassen,
welche Aspekte die Studierenden relativ positiv bzw. negativ bewerten.
Die Untersuchung der Fragestellung erfolgt für Vorlesungen, in
denen eine Veranstaltungsbeurteilung mit dem Fragebogen zur studentischen
Evaluation von Diehl (1994) erfolgt ist. Der Fragebogen enthält 16
Items, die zu vier Skalen zusammengefaßt werden: (1) Relevanz und
Nützlichkeit der Veranstaltungsinhalte, (2) Verhalten des Dozenten
gegenüber den VeranstaltungsteilnehmerInnen, (3) Angemessenheit von
Schwierigkeit und Umfang der Veranstaltungsinhalte und (4) Methode und
Aufbau der Veranstaltung.
Die Analyse der individuellen Urteilsdifferenzierung erfolgt auf der
Grundlage der pro Person standardisierten Antworten auf die 16 Items. Die
Abweichungen pro Item sind die Grundlage für eine hierarchische Cluststeranalyse
(Ward-Verfahren). Für drei bisher ausgewertete Vorlesungen (N=83,
N=98, N=39) ergeben sich drei bis vier Gruppen von Studierenden. In allen
drei Vorlesungen ist eine Gruppe beobachtbar, die
den Dozenten (Skala 2) relativ positiv und die 'Relevanz der Inhalte'
(Skala 1) relativ negativ beurteilen. Bei jeweils zwei Veranstaltungen
werden Gruppen identifiziert, die den Dozenten negativ und die
'Angemessenheit der Inhalte' (Skala 3) positiv beurteilen. Ebenso bestehen
Gruppen, welche die 'Relevanz' (Skala 1) relativ positiv und gleichzeitig
die 'Angemessenheit' (Skala 3) relativ negativ zu den übrigen Aspekten
beurteilen. Diese ersten Ergebnisse werden durch Analysen weiterer Vorlesungen
ergänzt.
Titel: Matrix-strukturelle Probleme bei der inferenzstatistischen Analyse von Brain Imaging-Daten
Universität Wien
Institut für Psychologie
Liebiggasse 5
A-1010 Wien, Österreich
Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver
Leistungen
Die
rapiden technischen Entwicklungen im Bereich elektrophysiologischer und
metabolischer funktionell-bildgebender Verfahren ("brain imaging-Verfahren")
ermöglichen eine zunehmend verfeinerte räumliche
Signalauflösung (Zahl simultan erfaßter topographischer/tomographischer
Datenpunkte je Person und Meßzeitpunkt). Zugleich geht damit jedoch,
vorwiegend aus Aufwands- und Kostengründen, eine krasse Reduzierung
der durchschnittlichen Stichprobengrößen einher (Vitouch &
Glück, 1997, Hum.
Brain Mapping). Für kognitiv-neurowissenschaftliche Experimentaldesigns
(inferenzstatistische Prüfung von Gruppen- und Bedingungsunterschieden)
ergeben sich daher, neben schwerwiegenden Stabilitäts-,
Generalisierbarkeits- und Power-Problemen, auch generelle Schwierigkeiten
mit der Datenverrechnung: Wir haben es typischerweise mit "strukturell
horizontalen" Datenmatrizen, also mit zahlreichen, zusätzlich noch
komplexe Interdependenzmuster aufweisenden Datenpunkten (im Sinne von
Meßwiederholungs-Faktorstufen) von nur wenigen Individuen zu tun
(n << k).
Prinzipiell vorteilhafte MANOVA-Ansätze können auf diese
problematischen Matrizen nicht angewandt werden (oder büßen
Teststärke ein); Meßwiederholungs-ANOVAs sind mit einer Reihe
von Einschränkungen und
Korrekturen verbunden (starke Spherizitätsverletzungen, limitierte
Einzelvergleichs-Möglichkeiten, Software-Beschränkungen auf k
= 50). Will man die regional hochspezifisch gemessene Information nicht
in oft
fragwürdiger Weise, durch Aggregation oder Selektion, wieder "kollabieren"
lassen, sind daher "maßgeschneiderte" Alternativen für kleine
Stichproben vonnöten. Hier wurden, teils bereits im Imaging-Kontext,
unterschiedliche Zugänge vorgeschlagen: u. a. voraussetzungsfreie
Permutationstests (exakte p-Werte; meist Omnibus-Tests), Bootstrapping-Techniken,
Sequentialtests (Stichprobenminimierung durch fortgesetzte Prüfung
prädefinierter Kontraste) oder meta-analytische Ansätze (beispielsweise
anhand kooperativer Internet-Datenbanken). Aktuell wurden auch neue ALM-basierte
Lösungsansätze (statistical parametric mapping), ja sogar Strukturgleichungsmodell-Anwendungen
("Netzwerkanalysen") präsentiert, die auf die Stichprobengrößen-Problematik
jedoch zumeist nicht explizit eingehen. Der Beitrag diskutiert Vorteile
und Beschränkungen dieser verschiedenen Ansätze. Exemplarisch
wird anhand eigener DC-EEG-Daten die
Anwendung inhaltlich geleiteter, an lokal spezifische Hypothesen gebundener
Sequentialtests demonstriert (primär-motocorticale Aktivitätstopographien
von Pianisten).
Titel: Evaluation der Lehre durch Expertenbegutachtung und Befragung von Studierenden
Ernst-Moritz-Arndt-Universität Greifswald
Institut für Psychologie
Franz-Mehring-Straße 47
17487 Greifswald
westerma@mail.uni-greifswald.de
Beitragszuordnung: Evaluation der Lehre
Von maßgeblichen hochschulpolitischen Instanzen wird eine Evaluation der universitären Lehre nach dem niederländischen Modell empfohlen. Sie umfaßt eine Selbstbeschreibung der Fachbereiche, eine Begutachtung durch auswärtige Experten und eine gemeinsame Auswertungskonferenz. Realisiert wird dies beispielsweise im "Nordverbund" von Universitäten aus fünf Bundesländern. Großer Wert wird dabei auf Kommunikation, Konsens und Zielvereinbarungen zwischen den Beteiligten gelegt. Eine Weiterentwicklung zu einem "Total Quality Management System" nach ISO 9000 oder EFQM ist möglich, bedarf aber hochschulspezifischer Modifikationen dieser Normensysteme. Entscheidend für Erfolg und Akzeptanz von Lehrevaluationen und Qualitätssicherungen ist jedoch eine Verbesserung ihrer Valididität. Im Nordverbund werden keine Versuche gemacht, Erhebung, Integration und Interpretation der Informationen wissenschaftlich zu fundieren und potentiell ergebnisverfälschende Faktoren zu kontrollieren. Insbesondere werden die Meinungen der Studierenden entweder gar nicht oder nur durch intuitiv formulierte und zusammengestellte Fragen erhoben. Deshalb ergänzen wir in Greifswald die Nordverbundevaluation durch Befragungen von Studierenden zu ihren Zielen, Überzeugungen und Einstellungen. Dazu werden vorher konstruierte Fragebögen zur Zufriedenheit mit Lehrveranstaltungen und Studienbedingungen durch orts- und fachspezifische Komponenten ergänzt.Die allgemeinen Befragungsergebnisse werden den Fachbereichen, die veranstaltungsspezifischen den Lehrenden zurückgemeldet. Aufgrund dieser Ergebnisse können wir sowohl problematische Lehrveranstaltungen wie unzufriedene Studentengruppen identifizieren und Anregungen zur Verbesserung der Lehre ableiten. Dieses Vorgehen kann an abgeschlossenen Voruntersuchungen in den Fächern Theologie, Nordistik, Biologie, Medizin und Romanistik sowie an der laufenden Evaluation von Psychologie, Rechtswissenschaft und Sportwissenschaft verdeutlicht werden. Außerdem haben wir in diesem Rahmen erste Ergebnisse einer Längsschnittstudie an Medizinstudenten vorliegen, durch die wir der Fakultät Hinweise zur Erklärung der hohen Zahl an Studienabbrechern bzw. Ortswechslern geben wollen.
Institut für Psychologie der Universität Jena
Steiger 3, Haus 1
07743 Jena
Titel: Modellierung und Erklärung intraindividueller Veränderung am Bsp. des Lernzuwachses im Fach Statistik
Beitragszuordnung: Stukturgleichungsansätze, Analyse von Längsschnittstudien
Ein Anwendungsfall für die Messung interindividueller Unterschiede bei intraindividueller Veränderung ist die Erfassung von Lernzuwachs im Bereich
Wahrscheinlichkeitstheorie und Statistik. Das Erlernen dieses Grundwissens im Fach Psychologie ist für Studierende häufig mit nicht unerheblichen Schwierigkeiten verbunden. Vor diesem Hintergrund interessiert uns nicht nur, ob und wieviel die Studierenden in den Lehrveranstaltungen zur
Statistik dazulernen, sondern darüber hinaus möchten wir ermitteln, welche Studierenden viel bzw. wenig dazulernen. Wäre es weiterhin möglich, potentielle Viel- und Weniglerner anhand einiger Kriteriumsvariablen zu identifizieren, könnten gezielte Förderungs- bzw. Nachhilfemaßnahmen
angeboten werden. Aufbauend auf einen Ansatz zur Modellierung wahrer intraindividueller Veränderung als latente Variable, wird in diesem Vortrag eine Untersuchung vorgestellt, bei der in mehreren Wellen das Wissen von Psychologie-Studierenden im Grundstudium im Bereich Wahrscheinlichkeitstheorie gemessen wurde. Die intraindividuelle Veränderung im Wissenstand zwischen den Erhebungszeitpunkten wird auf zusätzlich erhobene Personenvariablen wie z. B. Lernaufwand, Vorwissen, Lernmotivation etc. zurückgeführt.
Titel: Die kausale Analyse in der nicht-orthogonalen Varianzanalyse
Friedrch-Schiller-Universität Jena
Institut für Psychologie
Am Steiger 3/ Haus 1
D-07743 Jena
Tel.: 03641- 945236
Beitragszuordnung: Kausalanalyse
Die
Kausalitätstheorie, wie sie von Neyman, Rubin, Holland, Sobel, Steyer
u. a. formuliert
worden ist, ist eine theoretische Grundlage für die Analyse von
Daten. Mit Hilfe dieser Grundlagen ist es möglich, nicht nur die üblichen
statistischen Methoden besser begründen zu koennen, sondern auch bisher
noch ungelöste Fragen zu beantworten. Ein Fall, bei dem sich die kausale
Analyse als besonders nützlich erwiesen hat, ist die Analyse
von nicht-orthogonalen varianzanalytischen Designs, die oft bei ungleichen
Zellenbesetzungen vorliegen. Das Hauptproblem bei solchen Designs besteht
darin, dass eine eindeutige Zerlegung der Treatmentquadratsumme als Summe
der Faktorenquadratsummen und der Interaktionsquadratsumme, wie bei der
Varianzanalyse mit gleichen Zellenbesetzungen, nicht mehr möglich
ist. Seit Ende der 60er Jahre wurden unter verschiedenen Zielsetzungen
mehrere Wege entwickelt, die Treatmentquadratsumme zu zerlegen. Diese Ansätze
führen oft zu unterschiedlichen Ergebnissen, auch zu unterschiedlichen
Berechnungen der Haupteffekte der Faktoren. In der letzten Tagung der Fachgruppen
Methoden (Berlin, 1997) und in der DGP Tagung (Dresden, 1998) haben wir
die Lösung dieses Problems für den Fall einer zweifaktoriellen
Varianzanalyse vorgestellt. Es handelte sich um die Entwicklung eines Verfahrens,
welches das Testen von kausalen Effekten ermöglicht. Ziel dieses Beitrages
ist, die Verallgemeinerung dieser Resultates für den Fall einer mehrfaktoriellen
Varianzanalyse präsentieren. Wir werden eine Methode darstellen, mit
der sich auch bei einer Varianzanalyse mit mehreren Treatmentvariablen
und mehreren potentiellen Störvariablen (blocking factors, Kontrollfaktoren)
die kausalen Effekte testen lassen.
Titel: Differentielle längsschnittliche Datenanalyse anhand von latenten Differenzvariablen
Universität Heidelberg
Institut für Gerontologie
Bergheimer Strasse 20
69115 Heidelberg
daniel.zimprich@urz.uni-heidelberg.de
Beitragszuordnung: Analyse von Längsschnittstudien, Strukturgleichungs-
und Latent-trait-Ansätze
Die
Analyse von Längsschnittdaten dient zur Klärung von mindestens
zwei Fragen: (1) Treten im Mittel über die Zeit Veränderungen
auf? (2) Verändern sich verschiedene Personen unterschiedlich über
die Zeit? Diese Fragen
lassen sich im Rahmen von Strukturgleichungsmodellen beantworten, indem
man autoregressive Modelle um latente Mittelwerte erweitert und zusätzlich
latente Differenzvariablen einführt. Weisen die latenten Differenzvariablen
statistisch signifikante Mittelwerte und Varianzen auf, dann kann daraus
auf - varianzanalytisch gesprochen - Haupt- und Interaktionseffekte geschlossen
werden. Im Vergleich zu manifesten Differenzvariablen lassen sich mit Hilfe
dieser Modelle zwei Probleme umgehen: (1) Durch die Überprüfung
verschiedener Formen faktorieller Invarianz läßt sich zunächst
untersuchen, inwieweit über die Zeit das gleiche Konstrukt gemessen
wurde. (2) Durch die Modellierung von Differenzen auf latenter Ebene wird
das bei manifesten Differenzen auftretende Reliabilitätsproblem umgangen.
Darüber hinaus können mögliche Ursachen von ggf. auftretenden
differentiellen Veränderungen genauer untersucht werden, indem die
Modelle etwa um konstante oder sich
ihrerseits über die Zeit verändernde Kovariate erweitert
werden. Anhand von Datenmaterial zur kognitiven Entwicklung aus der Interdisziplinären
Langzeitstudie des Erwachsenenalters (ILSE, N = 218, 2 Meßzeitpunkte)
werden verschiedene Modelle mit latenten Differenzvariablen praktisch veranschaulicht.
Stand: 7. September 1999
Rico
Saupe