Aktuelle Abstracts


Alexanda Beisteiner

Titel: Evaluierung an der Universität Wien - Signal- oder Bewertungsfunktion

Logistisches Zentrum der Universität Wien

Reichsratsstraße 17/5/15
1010 Wien

 alexandra.beisteiner@univie.ac.at

Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation der Lehre"
 

In Österreich wird die Evaluation von Lehre und Forschung durch zwei Gesetze, dem UOG 93 (Universitätsorganisationsgesetz 1993) und der EvalVO (Evaluationsverordnung),  geregelt. Im UOG 93,welches mit 1.1.00 in Kraft treten soll, wird im §18 die Evaluation von Forschung und Lehre an österreichischen Universitäten festgelegt,deren Ergebnisse den Entscheidungen der Universitätsorgane zugrundezulegen sind. Der §6 der EvalVO regelt die Evaluation von LVs (Lehrveranstaltungen) mit dem Ziel der Qualitätssicherung einerseits und der Standardisierung der Erhebungsinstrumente
andererseits.
An der Universität Wien wurde das Logistische Zentrum, welches für die Implementierung des UOG 93 geschaffen wurde, mit der Ausarbeitung eines Konzepts für die LV-Evaluation betraut. Seit 1997 wurden mehrere Probeläufe durchgeführt, die der Optimierung des Ablaufes und der Auswertung dienen. Aufgrund der Größe der Universität Wien ergeben sich mehrere konzeptuelle und methodische Probleme. Die Replikation testtheoretischer
Fragebogenanalysen und die Bestätigung theoriegeleiteter Hypothesen über die Skalenstruktur gelingt in den meisten Fällen nicht. (vgl. Gössler, 1997). Eine Analyse der Daten aus dem SS 99 (Sommersemester 1999) bestätigt diese Annahme.
Die Signalfunktion von LV-Bewertungen wird durch die summative Rückmeldung an die LV-Leiter unterstützt, die einen intrinsischen Prozeß der Qualitätsverbesserung hervorrufen sollen. Um eine solche Bewertung nach objektiven Kriterien durchzuführen, werden anhand der aggregierten LV-Daten aus dem SS 1999 eine Klassifizierung mittels Cluster- und Latenter Klassenanalyse durchgeführt und der Versuch einer Identifizierung von qualitativ unterschiedlichen Lehrveranstaltungen unternommen.

Bärbel Bergmann

Titel: Evaluation von Trainingsprogrammen

Institut für Allgemeine Psychologie und Methoden der Psychologie

Technische Universität Dresden
D-01062 Dresden

bergmann@psy1.psych.tu-dresden.de

Beitragszuordnung: Evaluatutionsforschung
 

Evaluationen sind ein Mittel der Optimierung von Trainingsprogrammen. In ihnen wird  festgestellt, ob beabsichtigte Ziele erreicht sind. Die Evaluation von Trainingsprogrammen ist eine  mehrstufige Aufgabe mit unterschiedlichen Analyse- und Bewertungsperspektiven. Die Entwicklung  neuer Trainingsprogramme erfordert Bedarfsanalysen. Durch sie werden Trainingsziele begründet und präzisiert. Die Evaluation bereits entwickelter Trainingsprogramme erfordert es, die Reaktionen der Teilnehmer auf das Training, den Trainingsfortschritt innerhalb des Trainings als angeeignetes
 deklaratives und prozedurales Wissen, den Transfer und möglichst auch Trainingseffekte auf der Ebene der Resultate der Organisation, in der das Training durchgeführt wird, auszuweisen, z. B. durch Produktivitäts-, Kosten- oder Qualitätskennziffern. Die Durchführung von Evaluationen
 erfordert es, für jede Ebene Evaluationskriterien zu begründen und über methodische Prozeduren zu ihrer Erfassung zu entscheiden. Dies ist nicht immer ganz einfach, weil durch  Trainingsprogramme oft komplexe Kompetenzverbesserungen in bestimmten Bereichen angestrebt werden. Die
Operationalisierung dieser Kompetenzverbesserungen führt zu ganzen Bündeln von Evaluationskriterien. Ein schwieriges Problem ist die Beschreibung von Transfereffekten. Der umgekehrt proportionale Zusammenhang zwischen Transfereffekt und Transferdistanz  kann Interpretationsprobleme zur Folge haben. Durch die Wahl des Abstandes zwischen Trainings- und Transferaufgaben kann der Transfereffekt beeinflußt, also auch manipuliert werden. Die Erfassung von Transfereffekten bei unterschiedlicher Transferdistanz wird als Ausweg begründet und am Beispiel einer vergleichenden Trainingsevaluation illustriert. Ein spezifisches methodisches Problem ist die Begründung einer Metrik für die Transferdistanz.


Jürgen Bredenkamp
Coautor: Silke Hamm

Titel: Die Verknüpfung verschiedener Invarianzhypothesen im Bereich der Lern- und Gedächtnispsychologie

Universität Bonn

 juergen.bredenkamp@uni-bonn.de

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
 

Vier verschiedene Invarianzhypothesen (modifizierte Total-Time Hypothesis, Nevelskis Hypothese einer konstanten Langzeitgedächtnisspanne,
Baddeleys Hypothese der phonologischen Schleife, Cavanaghs Gesetz) werden miteinander verzahnt. Diese Hypothesenintegration erlaubt genaue Prognosen über das Verhältnis von Kurzzeitgedächtnisspanne und Asymptote der Lernkurve sowie über die Einflüsse verschiedener experimenteller
Manipulationen (artikulatorische Unterdrückung, irrelevante Sprache, Beanspruchung der zentralen Exekutive) auf verschiedene Parameter der
Lernkurve (Lernrate, Asymptote). Soweit diese Prognosen schon getestet wurden, wird hierüber berichtet. Perspektiven für die weitere Forschung
werden abschließend dargestellt.

Alina-Anca von Davier

Titel: Statistical methods for testing the hypothesis of unconfoundedness

Friedrich-Schiller-Universität Jena
Institution: Institut für Psychologie
Am Steiger 3, Hs. 1
07743 Jena
1041-709@online.de

Beitragszuordnung: Kausalanalyse

The null hypothesis of unconfoundedness of a linear regression with normally distributed variables (Steyer, von Davier, Gabler and Schuster, 1997) is considered here. In order to test the hypothesis of unconfoundedness
we analyze several approaches which are usually employed in testing non-linear hypotheses. The statistical methods are: the Wald test, the likelihood ratio test, the Delta method and the test proposed by Clogg et al.~(1995). The Wald test and the likelihood ratio test are known to be asymptotically chi-squared distributed under the null hypothesis, providing that the Jacobian matrix of the restriction function describing the null hypothesis has a full row rank. Under the hypothesis of unconfoundedness, there are parameter values, namely 'the singular points' where this assumption is not fulfilled and the Wald test and likelihood ratio, respectively, are not chi-squared distributed. Our numerical results indicate that the tests are asymptotically conservative at the singular points of the null hypothesis. The computation time required by the likelihood ratio test is about 100 time larger than the one required for the Wald test, which represents a practical disadvantage. We also analyze other methods (Delta method and the test proposed by Clogg et al.~1995) by the means of a Monte Carlo study and we compare them to the Wald test. They present similar deviations from the standard results at the singular points of the null hypothesis as the Wald test does and they are difficult to apply for multi-dimensional regressors. Thus the assumption on the Jacobian of the restriction function is required by all tests and by the Delta method.
According to our results the Wald test seems to be more suitable for testing unconfoundedness because it
can be easy computed for one-dimensional, as well as for multi-dimensional regressors and it remains conservative at the singular points.
 


Matthias von Davier

Titel: WINMIRA 32 Softwaredemonstration (Demonstration)

IPN
Olshausenstrasse 62
24098 Kiel
vdavier@ipn.uni-kiel.de

1. Beitrag:

Beitragszuordnung: Analyse kategorialer Daten

WINMIRA 32 stellt Modelle zur Verfügung, die  Analysen von Daten ermöglichen, wie sie typischerweise in Erhebungen mit Fragebögen oder Leistungstests anfallen. Diese Daten sind kategorialer Natur, d.h. die untersuchten Personen haben nur eine begrenzte Anzahl von Antwortmöglichkeiten, oder die zunächst offenen Antworten werden in einem Kategorienschema kodiert. In der qualitativen Testtheorie werden Unterschiede im Antwortverhalten (den Daten) der Probanden auf latente, d.h., nicht direkt beobachtbare Typologien (latente Klassen) zurückgeführt. Die quantitative probabilistische Testtheorie nimmt demgegenüber an, daß sich die beobachteten Unterschiede zwischen den Probanden auf Unterschiede bzgl. einer kontinuierlichen latenten
Variable zurückführen lassen.
WINMIRA 32 ermöglicht Analysen mit der Latent-Class Analyse, mit dem Rasch Model, mit dem Mixed Rasch Modell und mit dem Hybrid Modell (vgl.Rost, 1996 sowie von Davier & Rost, 1995).
Das Programm läuft unter Windows 95/98 bzw.  NT und ist vollständig dialogorientiert. Jeder Eingabedialog verfügt über direkt abrufbare Erläuterungen in der online-Hilfe. Neben der textuellen Ausgabe der
Analyseergebnisse stehen eine Reihe von graphischen Ausgaben zur Verfügung, die in z.B. in Textverarbeitungen übernommen werden können.
In der Softwaredemonstration wird vorgeführt, wie WINMIRA 32 zur Analyse von Daten aus dem Bereich der empirisch pädagogischen Forschung verwendet werden kann.

 
2. Beitrag:
Coautoren: Helmut Prechtl, Manfred Schenzer, Detlef Urhahne

Titel: ATI Effekte beim Lernen mit Multimedia

Beitragszuordnung: Kausalanalyse

Im Vortrag wird ein Experiment zur Wirkung von Selbststeuerung sowie visuellen vs. verbalen Lernpräferenzen vorgestellt. Anhand zweier Versionen (Version a: nur Bild + Erläuterung vs. Version b: Animationen) einer Multimedia Software zum Thema "Membranpotentiale der Nervenzelle" wird untersucht, inwieweit sich Personenmerkmale zur Erklärung der Leistungsunterschiede in einem Wissens- und Transfertest heranziehen lassen. Die Lernpräferenzen werden sowohl in der Form eines Fragebogens als auch in Form eines Lernexperiments erhoben. Neben diesen Variablen werden weitere Kovariate (u.a. motivationale Variablen) erhoben, deren Einfluß auf die Lernleistung untersucht wird. Die erwarteten Interaktionseffekte
beziehen sich insbesondere auf die kompensatorische Wirkung von Personenmerkmalen in Bezug auf den Wissenserwerb in den Experimentalgruppen ohne Animationen (Programmversion a).

Wolfgang Ellermeier
Coautoren: Klaus Bredl

Titel: Ein multimediales Lernprogramm zur Psychoakustik (Referat und Demonstration)

Institut für Psychologie
Universität Regensburg
93040 REGENSBURG

 wolfgang.ellermeier@psychologie.uni-regensburg.de

Beitragszuordnung: Einsatz von Multimedia in der Lehre
 

Da die Phänomene und Gesetzmäßigkeiten der auditiven Wahrnehmung in  Lehrbüchern nicht adäquat dargestellt werden können, ist hier
 Multimedialität in besonderer Weise gefordert. Deshalb  wurde ein Lernprogramm entwickelt,  welches den Schwerpunkt darauf legt,
das Stoffgebiet der Psychologie des Hörens auch auditiv erfahrbar zu machen. Das Programm umfaßt eine Einführung in physikalische Grundbegriffe,
 psychoakustische Wahrnehmungsdimensionen, Skalierungsmethoden und ausgewählte Bereiche der Lärmforschung. Durch die Verknüpfung von Text, Graphik, Hördemonstrationen und interaktiven Selbstversuchen soll die Wissensvermittlung des komplexen Stoffgebietes erleichtert werden. Um bereits zu Beginn der Entwicklung die Qualität des Programms zu sichern, wurde ein Prototyp in einem wahrnehmungspsychologischen Seminar eingesetzt und unter Mithilfe der Studierenden formativ evaluiert. Aufgrund dieser Prozeßevaluation, die sich auf Qualitätsanalysen und eine Befragung der Teilnehmer stützte, wurde eine verbesserte Version des Programms erstellt, welche auf CD-ROM in einer installierbaren Version vorliegt. Zukünftige
systematische Untersuchungen sollen klären, auf welche Weise die eigene Hörerfahrung zum  Verständnis des Stoffes beitragen kann.


Michael Eid
Coautoren: Rolf Langeheine

Titel: Die Trennung von konsistenten und inkonsisten Individuen anhand eines Mischverteilungs-State-Trait-Modells

Universität Trier
Fachbereich I - Psychologie
Universität Trier, 54286 Trier
eid@uni-trier.de

Beitragszuordnung: Analyse kategorialer Daten
 

In der Debatte um die Konsistenz und Spezifität des Verhaltens und Erlebens, hat der Metatrait-Ansatz
zunehmend an Interesse gewonnen. Diesem Ansatz zufolge können sich Individuen in der Konsistenz ihres Verhaltens über Situationen hinweg und in der zeitlichen Stabilität ihres Verhaltens unterscheiden. Um konsistente von weniger konsistenten Individuen trennen zu können, wurde ein Mischverteilungs-State-Trait-Modell für
kategoriale Antwortvariablen entwickelt. In diesem Modell wird angenommen, daß die Gesamtpopulation aus zwei Subpopulationen besteht, die sich in ihrer transsituationalen Konsistenz unterscheiden. Es wird gezeigt, wie dieses Modell im Rahmen von log-linearen Modellen mit latenten Variablen analysiert werden kann. Schließlich wird das Modell anhand eines empirischen Beispiels illustriert.

 


Edgar Erdfelder

Titel: Statistische Hypothesenprüfung im Rahmen multinomialer Modelle: Powerapproximationen und Poweroptimierung

Psychologisches Institut der Universität Bonn
Römerstraße 164
53117 Bonn
erdfelder@uni-bonn.de
 

Beitragszuordnung: Analyse kategorialer Daten, Methoden zur Modellierung und Messung kognitiver Leistungen
 

Anwendungen von log-linearen Modellen, Latent-Class-Modellen, Verarbeitungsbaummodellen, Signalentdeckungsmodellen und anderen parametrisierten multinomialen Modellen spielen in vielen Bereichen der
Psychologie eine wichtige Rolle. Soweit das Ausgangsmodell nicht saturiert ist, wird typischerweise zunächst ein goodness-of-fit-Test durchgeführt. Kann die Modellgeltungshypothese (H0) beibehalten werden, schließen sich
häufig Tests spezieller Parameternullhypothesen an, die z.B. die Gleichheit verschiedener Parameterwerte behaupten. Obwohl die Bedeutung von Powerkontrollen auf der Hand liegt, werden sie selten durchgeführt. Wenn
sie durchgeführt werden, beschränken sie sich in der Regel auf die Abschätzung der Teststärke für kleine, mittlere oder große Abweichungen von H0 im Sinne von Cohen (1988). Dies ist unbefriedigend, weil die Bedeutung
von "klein", "mittel" und "groß" modellabhängig, designabhängig und hypothesenabhängig variieren kann.
Im Vortrag soll dargestellt werden, wie die Teststärke mit geringem Aufwand direkt als Funktion der Modellparameterwerte unter H0 und H1 bestimmt werden kann. Verschiedene Powerapproximationsmethoden werden vorgestellt und in einer Monte-Carlo-Studie für verschiedene Prüfstatistiken (Likelihood-Ratio-Chi-Quadrat, Pearsons Chi-Quadrat, Cressie-Read-Statistik) miteinander verglichen. Abschließend werden verschiedene Methoden der Poweroptimierung bei gegebenem Gesamtstichprobenumfang erörtert: die optimale Wahl der Prüfstatistik, die optimale Aufteilung des Gesamtstichprobenumfangs bei verbundenen multinomialen Modellen, Maßnahmen zur Optimierung hypothesenirrelevanter Modellparameterwerte und die Optimierung der Teststrategie bei multiplen Tests.


Hubert Feger

Titel: Evaluation, Datentheorie, Fairneß

FU Berlin
Kauersweg 11
21521 Dassendorf
bhfeger.das@t-online.de

Beitragszuordnung: Evaluationsforschung

Ausgehend von einem konkreten Beispiel, und zwar der Bewertung und Auswahl von angemeldeten Tagungsbeiträgen, wird die Aufgabe diskutiert, wie Schätzurteile aus mehreren Quellen (Beurteilern) zu einer Rangordnung der Elemente zusammengefaßt werden können. Aus der Datentheorie werden systematische
Kriterien abgeleitet, um Aggregierungsmodelle zu charakterisieren. Der Vortrag konzentriert sich auf den Vergleich von Modellen (und ihrer Implikationen) für Daten mit Ordinalniveau, z. B. die lexikographische Ordnung und die "mittlere Rangordnung". Schließlich werden Fairneßprinzipien diskutiert, die die Willkür bei Anwenungen eingrenzen können.
 


Andrea Fischbach
Coautoren: Helfried Moosbrugger, Karin Schermelleh-Engel

Titel: Konstruktvalidierungen mittels Konfirmatorischer Faktorenanalyse am Beispiel des Eysenck Personality Profiler (Deutsch)

Johann Wolfgang Goethe-Universitaet
Institut für Psychologie, Abteilung Prof. Dr. H. Moosbrugger
Mertonstrasse 17
60054 Frankfurt am Main
Fischbach@soz.uni-frankfurt.de

Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansaetze
 

 In den vergangenen zwei Jahren wurde an der Entwicklung eines deutschsprachigen Aequivalentes zum Eysenck Personality Profiler gearbeitet (EPP, Eysenck & Wilson, 1991), wobei Untersuchungen zur Kostruktvaliditaet an einer Stichprobe von 1764 Personen durchgeführt wurden (s. Moosbrugger, Fischbach & Schermelleh-Engel, 1998).
 - Zur Überprüfung, ob es sich bei den 440 Items der übersetzten Vollversion auch im deutschsprachigen Kulturkreis um Indikatoren der von Eysenck implizierten (7X3)+1=22 Eigenschaften handelt, wurden neben "klassischen" Itemanalysen Ergebnisse von Konfirmatorischen Faktorenanalysen (CFA) erster Ordnung berücksichtigt. Trotz des dreistufigen Antwortmodus der Items ("ja", "nein", "weiss nicht"), wurden wegen Uneindeutigkeit  der Kategorie "weiss nicht" nur die  dichotomen Kategorienauspraegungen verrechnet und wegen des resultierenden zweiwertigen Antwortmodus zur Parameterschaetzung auf Itemebene die "weighted least squares" Methode eingesetzt.
 - Zur Untersuchung der theoretischen Annahme, dass jeweils sieben der 21 Eigenschaften die drei von Eysenck als grundlegend postulierten Persönlichkeitsdimensionen Extraversion, Emotionalität und Risikoneigung konstituieren, wurden Konfirmatorische Faktorenanalysen zweiter Ordnung durchgeführt. Bei diesen Analysen wurde trotz Verletzung der Normalverteilungsannahme die "maximum likelihood" Methode zur Parameterschaetzung eingesetzt.
 Die allgemein-methodische Bedeutung der CFA für Konstruktvalidierungen, die dabei auftretenden methodischen Probleme, unsere Lösungsvorschlaege für Itemselektion und Modellanpassung sowie die praktische Durchführbarkeit der CFA bei komplexen Modellen werden referiert und diskutiert.

Eysenck, H. J. & Wilson, G. D. (1991). The Eysenck Personality Profiler. London: Corporated Assessment Network Ltd.
Moosbrugger, H., Fischbach, A. & Schermelleh-Engel, K. (1998). Zur Konstruktvaliditaet des EPP-D. In H. J. Eysenck, C. D. Wilson und C. J. Jackson: Eysenck Personality Profiler EPP-D. Manual. Frankfurt am Main: Swets Test Services.


Mauri Fries

Titel: Computergestützte Videoanalysen im Beobachtungspraktikum (Demonstration und Poster)

Institut für Entwicklungspsychologie, Persönlichkeitspsychologie und Psychodiagnostik
Seeburgstr. 14-20
04103 Leipzig

 fries@rz.uni-leipzig.de

Beitragszuordnung: Einsatz von Multimedia in der Lehre
 

Innerhalb der Methodenausbildung im Grundstudium wird in einem Teil des Beobachtungspraktikums der Einsatz von Multimedia mit spezifischen Inhalten des Fachgebietes Entwicklungspsychologie verbunden.
Zur Schulung der Beobachtungsfähigkeit der Studenten werden Videoaufnahmen von Interaktionen zwischen Mutter, Vater oder Geschwisterkindern und Säuglingen, die in der "Beratung für Eltern mit Babies und Kleinkindern" und in entsprechenden Diplomarbeiten entstanden sind, in einem ersten Schritt beobachtet und dann computergestützt analysiert. Dazu dient die softeware INTERACT. Neben der inhaltlichen Auseinandersetzung erhalten die Studenten die Möglichkeit, den Aufbau, die Adaptation und die Anwendung von Kategoriensystemen zu erproben und ihre Beobachtungen in kategoriale Daten umzusetzen und auszuwerten.
Das Poster informiert über die Erfahrungen der computergestützten Auswertung der videographierten Interaktionen mit INTERACT und diskutiert die Einsatzmöglichkeiten in der Lehre.


Judith Glück
Coautoren: Alexander von Eye

Titel: Einbeziehung von Kovariaten in die Konfigurationsanalyse

Berlin & Michigan State University, East Lansing
Max-Planck - Institut für Bildungsforschung
Lentzeallee 94
14195 Berlin

 glueck@mpib-berlin.mpg.de

Beitragszuordnung: Analyse kategorialer Daten

Der Beitrag präsentiert eine neuen Ansatz zur Einbeziehung von Kovariaten in der Konfigurationsfrequenzanalyse (KFA): Die Grundidee der Methode
ist, eine oder mehrere kontinuirliche Variablen als Kovariate in das loglineare Basismodell einzubeziehen, das zur Berechnung der erwarteten Häufigkeiten für die KFA herangezogen wird. Die Typen- bzw. Antitypen in der KFA können sich in unterschiedlicher Weise verändern, wenn eine
Kovariate einbezogen wird: Einige oder alle Typen oder Antitypen können verschwinden, und/oder neue Typen oder Antitypen können entstehen.
Der vorliegende beitrag untersucht die Bedingungen für das Entstehen bzw. Verschwinden von Typen oder Antitypen: Neue Typen und Antitypen
entstehen nach Einbeziehung einer Kovariate dann, wenn das Muster der Kovariatenmittelwerte über die Zellen der Kontingenztafel nicht mir
dem Muster der logarithmierten Zelhäufigkeiten korrespondiert. Das Verschwinden von Typen und Antitypen nach Einbeziehung einer
Kovariate kann hingegen ein Hinweis darauf sein, daß die Kovariate mit den Wirkfaktoren, die die Typen und Antitypen erzeugen,
zusammenhängen könnte. Wir illustrieren die Funktionsweise des Ansatzes an einem Datenbeispiel (Anwendung unterschiedlicher  Strategiekombinationen bei  Raumvorstellungsaufgaben), wobei zugleich eine Vorgangsweise gezeigt wird, mit der die komplexen Effekte der Einbeziehung einer Kovariate nachvollzogen werden können. Schließlich werden Empfehlungen für die  praktische Anwendung der Methode gegeben.


Silke Göbel
Coautoren: Hans Müller, Helfried Moosbrugger

Titel: Überprüfung einer NEO-FFI-Version mit kontinuierlichen Items (Poster)

Institut für Psychologie der Universität Wien
Liebiggasse 5
A-1010 Wien

 goebel@t-online.de

Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze
 

Der Beitrag berichtet über eine Anwendung des Modells für kontinuierliche Ratingskalen von Müller (1999) auf eine computergestützte Version des NEO-Fünf-Faktoren-Inventars (NEO-FFI), bei der die Items einzeln auf einem Monitor dargeboten wurden und mittels Maus auf einem Balken mit den Enden "starke Ablehnung" bzw. "starke Zustimmung" zu beantworten waren. Die Antworten von 100 Studierenden wurden erhoben und entsprechend den NEO-FFI-Skalen getrennt analysiert.
Das kontinuierliche Ratingskalen-Modell ist ein eindimensionales Rasch-Modell, bei dem die Antwortverteilungen im Regelfall gestutzte Normalverteilungen sind. Die Antwortverteilung hängt wie beim dichotomen Rasch-Modell von der Differenz zwischen der Merkmalsausprägung der
Person und der Schwierigkeit des Items ab, zusätzlich jedoch von einem Dispersionsparameter. In verschiedenen Modellgeltungskontrollen
ergaben sich Hinweise auf abweichende Items bei den Skalen Neurotizismus, Extraversion, Offenheit für Erfahrung und Verträglichkeit; die Skala
Gewissenhaftigkeit erschien am ehesten modellkonform. Bei der Skala Offenheit für Erfahrung legt ein Dispersionsparameter nahe Null die
Interpretation nahe, daß das kontinuierliche Antwortformat hier im Mittel fast wie ein dichotomes benutzt wurde; bei den übrigen vier Skalen kann
auf eine differenzierte Beantwortung der Aussagen geschlossen werden. Eine zu Kontrollzwecken durchgeführte exploratorische Faktorenanalyse erbrachte im wesentlichen die gleiche Faktorenstruktur wie bei der Gesamtstichprobe von Borkenau und Ostendorf (1993). Kritikpunkte der Untersuchung werden ebenso aufgezeigt wie mögliche Konsequenzen für das NEO-FFI.
Borkenau, P. & Ostendorf, F. (1993). NEO-Fünf-Faktoren Inventar (NEO-FFI) nach Costa und McCrae: Handanweisung. Göttingen: Hogrefe.
Müller, H. (1999). Probabilistische Testmodelle für diskrete und kontinuierliche Ratingskalen. Bern: Huber.


Willi Hager

Titel: Was wollen wir eigentlich evaluieren, wenn wir evaluieren?

Georg-Elias-Müller-Institut für Psychologie
Goßlerstr. 14, 37073 Göttingen

whager@gwdg.de

Beitragszuordnung: Evaluationsforschung

Die Evaluierung von allen möglichen psychologischen Interventionsmaßnahmen treibt uns seit etlichen Jahren um, und zwar so sehr, dass die Evaluationsforschung eigens mit in den Prüfungskanon zum Hauptdiplom aufgenommen worden ist. Es gibt eine Vielzahl von Darstellungen, die sich mit dem "richtigen" Vorgehen bei der Evaluation von Interventionsmaßnahmen befassen, doch kaum eine Veröffentlichung befasst sich mit dem, was eigentlich zur Evaluation ansteht. Vordergründig sind es natürlich immer irgendwelche Interventionsmaßnahmen, doch was soll an ihnen evaluiert werden? M.a.W. Was sollen psychologische Interventionsmaßnahmen eigentlich bewirken können? Sie sollen Veränderungen bewirken - darüber herrscht Einigkeit. Doch worauf sollen sich diese Veränderungen beziehen? Darüber herrscht weit weniger Einigkeit: Sollen Performanzen geändert werden oder Kompetenzen oder das Transferverhalten? Was haben denn Coachingprogramme, Trainings, Therapien und Unterricht gemeinsam, was unterscheidet sie? Ist es nicht so, dass wir auf längerfristige Erfolge hoffen, wenn wir intervenieren,? Und: Macht es Sinn, den Aufwand einer Intervention zu treiben, wenn die dadurch erzeugten Veränderungen nicht anhalten und irgend wohin übertragen werden - am besten auch auf das Alltagsleben? Macht es angesichts dessen Sinn, den Erfolg einer Interventionsmaßnahme nur einmal, und zwar unmittelbar nach Ende der Maßnahme zu erheben?
Nachdem viele Jahre lang über den Grenzen und den Nutzen der sich ja nicht ausschließenden Prozess- und der Erfolgsevaluation nachgedacht und geschrieben worden ist, scheint es hohe Zeit, auch einmal darüber nachzudenken, was wir mit unseren Interventionen denn eigentlich erreichen wollen und wie wir das Erreichen des zu Erreichenden valide feststellen können. Der Vortrag soll Denkanstöße zu den aufgeworfenen Fragen geben.


Michael Henninger

Titel: Quadratisch, praktisch, gut? Der Evaluationskubus als Orientierungsrahmen für Evaluationsforschung

Ludwig-Maximilians-Universität München
Institut für Pädagogische Psychologie und Empirische Pädagogik,
Leopoldstr. 13, D-80802 München

henninge@edupsy.uni-muenchen.de

Beitragszuordnung: Evaluationsforschung - mit dem Schwerpunkt "Evaluation der Lehre"
 

Sind studentische Veranstaltungsbewertungen geeignet, um Informationen über den möglichen Lernerfolg oder Transferleistungen zu bekommen? Die empirische Evidenz zu dieser Frage laesst ein Nein als Antwort eher
plausibel erscheinen als ein Ja. Sind Evaluationen auf der Grundlage studentischer Urteile deswegen grundsaetzlich zu verwerfen? Vermutlich wird nun der Mehrzahl von EvaluationsforscherInnen ein klares Nein ueber die Lippen kommen, ergaenzt um den Hinweis, es kommt darauf an, was herausgefunden werden soll. Dieses kleine Frage- und Antwortspiel verdeutlicht ein wichtiges Problem bei der Rezeption von Studien der Evaluationsforschung: fuer die klare Bewertung und Einordnung von Theorien und Befunden bedarf es einer klaren Verortung der
Evaluationsstudie (Rossi & Freeman, 1993; Wottawa & Thierau, 1998). Diese Verortung soll durch den vorzustellenden Evaluationskubus ermoeglicht werden, der eine dreidimensionale Darstellung folgender
wichtiger Aspekte liefert:
(1) Evaluationsfokus: Inhaltliche Aspekte einer Lehrveranstaltung (Instruktion, Organisation, Kosten/Nutzen),
(2) Messzeitpunkt: Zu Beginn, waehrend bzw. nach Beendigung der Lehrveranstaltung,
(3) Evaluationsebene: Wirkung einer Lehrveranstaltung auf die beteiligten Personen (Reaktion, individueller
     Erfolg, Transfer, organisationaler Erfolg). Der Evaluationskubus soll neben der Klaerung von Zielsetzungen,
     theoretischem Rahmen und der Adressaten einer Evaluationsstudie auch eine Spezifikation der empirischen
     Umsetzung, die Auswahl geeigneter Designs und Methoden ermoeglichen. Die in diesem Modell integrierten
     theoretischen Ansaetze der Evaluationsforschung (Henninger, Balk & Mandl, 1998; Kirkpatrick, 1987;
     Scriven, 1980;Wittmann, 1990; Wottawa & Thierau, 1998) sollen dargestellt und die Anwendung des
     Evaluationskubus auf empirische Studien veranschaulicht werden.



Andreas Hinz
Coautoren: Frank Piontek, Bernhard Hueber, Gert Schreinecke

Titel: Urteilstendenzen bei Ratingskalen zum Gesundheitszustand und deren statistische Berücksichtigung

Universität Leipzig
Institut für Arbeits- und Sozialmedizin
Riemannstr.32, 04107 Leipzig

hinz@medizin.uni-leipzig.de

Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansätze

Bei der Suche nach psychosozialen Ursachen für Gesundheitsbeeinträchtigungen werden häufig sowohl die Ursachenfaktoren als auch der Gesundheitszustand mittels Selbsteinschätzungsskalen erfaßt. Korreliert man die so gewonnenen Maße zwischen Belastungen und Beschwerden, so ergeben sich häufig Korrelationen um 0.30. Jedoch sind diese Zusammenhänge zumindest teilweise durch individuell unterschiedliche Urteilstendenzen mit vermittelt. Über Partialkorrelationen, multiple Regressionen,  geeignete Schichtungen der Personenstichproben und über Strukturgleichungsmodelle lassen sich die Urteilseffekte aus den Beziehungen zwischen Belastungen
und Beschwerden herauspartialisieren. Diese Methoden werden anhand einer konkreten Untersuchung von 160 Personen und Erfassung verschiedener Belastungsfaktoren (Arbeitsfaktoren, kritische Lebensereignisse,
mangelnde soziale Unterstützung) exemplarisch vorgestellt und verglichen. Als Maß für die Urteilstendenz wird Neurotizismus im Sinne einer generellen Tendenz zu negativem Erleben und Beurteilen herangezogen.
Die rohen Korrelationen zwischen den Gefährdungsfaktoren und den Beschwerden liegen zwischen 0.20 und 0.41. Mit allen vier genannten statistischen Methoden werden die Beziehungen zwischen den Stressoren
und den Beschwerden abgeschwächt, jedoch in unterschiedlichem Ausmaß. Bei der Analyse mittels LISREL wird die Abhängigkeit der Ergebnisse von verschiedenen Modellannahmen dargestellt. Schließlich wird die Auswahl
geeigneter Maße zur Erfassung der Urteilstendenzen diskutiert.

 


Albrecht Iseler

Titel: Explikative und deduktive Komponenten der "Herleitung" statistischer Vorhersagen aus psychologischen Hypothesen

Autoren: Albrecht Iseler

Freie Universität Berlin
Fachbereich Erziehungswissenschaft und Psychologie, Arbeitsbereich Methoden der Psychologie
Habelschwerdter Allee 45, 14195 Berlin

iseler@zedat.fu-berlin.de

Beitragszuordnung: Kausalanalyse
 

Es wird dafür plädiert, die üblicherweise vertretene intuitive "Herleitung" (Meehl: 'loose derivation') einer statistischen Vorhersage aus einer zu prüfenden "vorstatistischen psychologischen Hypothese" (VSPH) in zwei
Teilschritte zu zerlegen: Eine Explikation in Form einer statistisch explizierten psychologischen Hypothese (SEPH) und eine strikt deduktive Herleitung einer prüfbaren statischen Aggregathypothese (SAH). Dann können
für beide Teilschritte wesentlich striktere Adäquatheitskriterien verlangt und erfüllt werden als bei einer "Herleitung" in einem Schritt. Insbesondere werden die Kriterien einer adäquaten Explikation meistens vernachlässigt. Dagegen ist zu fordern, daß die SEPH in ihrem substantiellen Gehalt der VSPH möglichst ähnlich sein, gleichzeitig aber präzise spezifizieren soll, welche Sachverhalte (z.B. Verteilungspaare) als hypothesenkonform und welche als hypothesenwidrig anzusehen sind. Außerdem soll sie eine strikt deduktive
Herleitung einer SAH ermöglichen. Der Ansatz wird an einer für psychologische Kausalhypothesen typischen
Relation demonstriert: Unter einer Bedingung b ist ein (von der AV eines Experiments erfaßtes) interessierendes Merkmal "tendentiell ausgeprägter" als unter Bedingung a. Es wird gezeigt, daß die scheinbare Beliebigkeit der
statistischen Explikation dieser Relation (z.B. aufgrund von Erwartungswerten, Medianen oder aufgrund des U-Test-Kriteriums) mit deduktiven Mitteln erheblich reduziert werden kann. Ist andererseits eine
VSPH in einer SEPH adäquat expliziert, dann folgen daraus strikt deduktiv Vorhersagen, die als Ergebnis einer "Herleitung" in einem Schritt nach gängigen Standards als haarsträubend zu betrachten wären.


Dr. Thomas Karner

Titel: Haben unterschiedliche Personengruppen einen Einfluß auf die Skalenhomogenität eines Persönlichkeitsfragebogens? - Eine empirische Anwendung des
        Programms T-Rasch 1.0 am Beispiel des Myers-Briggs Typenindikators (Demonstration)

Institution: Dr. G. Schuhfried GmbH.
Hyrtlstr. 45, A-2340 Mödling

karner@schuhfried.co.at

Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze, Softwaredemonstrationen
 

Als Forschungsinstrument wurde in dieser Arbeit der Myers-Briggs Typenindikator, ein auf der Persönlichkeitstheorie C.G. Jung's beruhender
Persönlichkeitsfragebogen, herangezogen. Von diesem Verfahren wurden 3 Varianten für eine dichotome, eine siebenkategorielle und eine
kontinuierliche Antworteingabe entwickelt. Zu jeder dieser Varianten gab es eine computeriesierte Version, bzw. eine Papier-Bleistift Version.
Insgesamt wurden 474 Personen unter je einer dieser Bedingungen getestet. 186 dieser Personen nahmen freiwillig und anonym an der Untersuchung teil (Studentenstichprobe); für die restlichen 288 Personen war die Testung mit Konsequenzen verbunden (Auslesesituation).
Ein Auswertung erfolgte je nach Antwortformat mit dem dichotomen Modell von Rasch (1960) oder dem Partial Credit Modell von Masters (1982). Eine Überprüfung der Modellgeltung wurde  mit den bekannten Likelihood-Quotienten Tests nach Andersen (1973) und den üblichen Teilungskriterien für die Stichprobe durchgeführt. Im dichotomen Fall wurden diese Tests an einem kleineren Teil der Stichprobe mit den von Ponocny (1996) entwickelten Modelltests wiederholt. Letztere ermöglichten neben der Überprüfung der spezifischen Objektivität auch eine Prüfung der lokalen stochastischen Unabhängigkeit.
Im Vortrag wird eine Vergleich der Ergebnisse dieser beiden Modelltestvarianten gegeben werden. Außerdem werden die Skaleneigenschaften der beiden Stichprobengruppen diskutiert werden.


Nina Keith
Coautoren:  Karin Schermelleh-Engel, Helfried Moosbrugger, Volker Hodapp

Titel: Konsistenz und Spezifität der Prüfungsängstlichkeit: Eine Überprüfung des TAI-G mit der Latent State-Trait Theorie

Institut für Psychologie der J. W. Goethe-Universitaet
Mertonstrasse 17
60054 Frankfurt am Main

keith@psych.uni-frankfurt.de

Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze

Zur Überprüfung der Konstruktvaliditaet der deutschen Version des Test Anxiety Inventory (TAI-G; s. Hodapp, 1991), der den Trait Prüfungsängstlichkeit über die vier Dimensionen "Aufgeregtheit", Besorgtheit", "Interferenz" und "Mangel an Zuversicht" erfassen soll, wurde der Fragebogen einer vorwiegend studentischen Stichprobe von N =3D 302 dreimal in einem zeitlichen Abstand von jeweils zwei Wochen vorgelegt. Die Trait-Konzeption des Fragebogens wurde unter Anwendung der Latent State-Trait Theorie (LST-Theorie) von Steyer (1987), die dimensionalen Annahmen mittels konfirmatorischer Faktorenanalysen höherer Ordnung überprüft. Die Ergebnisse bestätigen sowohl die Trait-Konzeption als auch die Dimensionalität des TAI-G. Die vier Subskalen eignen sich füer die Messung der verschiedenen relativ stabilen Dimensionen der Prüfungsangst: 75-95% der Varianz der Skalen zu den drei Messzeitpunkten werden durch die Traits erklärt, durch die Situation bzw. die Person-Situation-Interaktion dagegen nur 1-19%. Die bei den Analysen der Strukturgleichungsmodelle aufgetretenen methodischen Probleme, u.a. das Problem von Wiederholungseffekten bei Mehrfachtestungen, die Verwendung von Methodenfaktoren sowie die Verletzung der Normalverteilungsannahme der Indikatorvariablen werden ausführlich diskutiert und daraus Empfehlungen für zukünftige Validierungsstudien abgeleitet.
Hodapp, V. (1991). Das Prüfungsängstlichkeitsinventar TAI-G: Eine erweiterte und modifizierte Version mit vier Komponenten. Zeitschrift für  Pädagogische Psychologie, 5, 121-130.
Steyer, R. (1987). Konsistenz und Spezifität: Definition zweier zentraler Begriffe der Differentiellen Psychologie und ein einfaches Modell zu ihrer Identifikation. Zeitschrift fuer Differentielle und Diagnostische Psychologie, 8, 245-258.



Andreas Klein
Coautoren: Helfried Moosbrugger, Karin Schermelleh-Engel

Titel: Die Robustheit der LMS-Methode zur Überprüfung latenter Moderatoreffekte

Johann Wolfgang Goethe-Universitaet Frankfurt
Institut fuer Psychologie
Mertonstrasse 17, 60054 Frankfurt am Main

a.klein@psych.uni-frankfurt.de

Beitragszuordnung: Stukturgleichungs- und Latent-trait-Ansaetze, Analyse kategorialer Daten

Die LMS-Methode stellt ein Verfahren zur Schaetzung und Ueberpruefung latenter Moderatoreffekte dar, das sich hinsichtlich seiner hohen Effizienz und Teststaerke gegenueber alternativen Verfahren (z.B. LISREL
oder 2SLS) auszeichnet. Es ist ein parametrisches Schaetz- und Testverfahren fuer nichtlineare Strukturmodelle, dessen Anwendung an bestimmte methodische Voraussetzungen hinsichtlich der Verteilung  der
Indikatorvariablen (normalverteilte x-Variablen) und des Skalentyps (Intervallskala) geknuepft ist.
Empirische psychologische Datensaetze fuer Indikatorvariablen unterliegen aber in der Regel bestimmten Einschraenkungen und erfuellen nicht immer die idealen Voraussetzungen: Beispielsweise koennen die
empirischen Daten eine deutliche Abweichung von der Normalverteilung aufweisen, die Indikatorvariablen sind nur ordinalskaliert mit geringer Stufenzahl oder die Stichprobengroessee unterliegt Beschraenkungen. Der
Beitrag untersucht die Robustheit der LMS-Methode in bezug auf diese Einschraenkungen und stellt Vergleiche mit konkurrierenden Methoden an. Die Beurteilung der Praxistauglichkeit der LMS-Methode fuer den Einsatz
in der psychologischen Forschung wird diskutiert.

 


Uwe Konerding

Titel: Methoden zur Analyse der Beziehung zwischen Verhaltenserwartungen und Verhalten

Humboldt Universitaet Berlin
Geschwister Scholl Str. 7, 10099 Berlin

Uwe.Konerding@educat.hu-berlin.de

Beitragszuordnung: mathematische Modellierung in der Sozialpsychologie
 

Ein wichtiges Problem der angewandten Sozialpsychologie ist die Vorhersage und Erklärung von Verhalten aufgrund von Fragebogendaten. Dabei deuten die bisher vorliegenden Forschungsergebnisse (z.B. Warshaw &
Davis, 1985) darauf hin, dass sich Verhalten am besten durch Verhaltenserwartungen im Sinne subjektiver Wahrscheinlichkeiten vorhersagen laesst. Fuer die weitere Forschung stellen sich damit die Fragen, wie die Beziehung zwischen diesen Verhaltenserwartungen und dem Verhalten genauer aussieht und unter welchen Umstaenden welche Beziehung zu erwarten ist. Zur Beantwortung dieser Fragen fehlen zur Zeit aber noch
geeignete Methoden. So wird der Zusammenhang zwischen Verhaltenserwartungen und Verhalten bisher meist mit
Korrelationskoeffizienten analysiert. Es gibt aber kaum eine explizite Diskussion darueber, welche Art von Zusammenhang zwischen Verhaltenserwartungen und Verhalten zu erwarten ist und inwieweit der
Korrelationskoeffizient sich in geeigneter Weise auf diese Art von Zusammenhang bezieht. Im Vortrag werden zwei Modelle gegenuebergestellt, die beide jeweils eine Klasse moeglicher Zusammenhangsfunktionen
definieren. Das erste ist das Modell, das dem klassischen Korrelationskoeffizienten zugrundeliegt; das zweite ist das, das aufgrund der Rahmenbedingungen der Problemstellung angemessener erscheint. Beide
Modelle werden zusammen mit den statistischen Verfahren zur Parameterschaetzung und -testung vergleichend diskutiert und an Daten demonstriert.


Franziska Kopp
Coautor: Erdmute Sommerfeld

Titel: Messung von Kontrollaufwand im Arbeitsgedächtnis auf der Basis von EEG-Kohärenzen (Poster)

Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen

Bei der Lösung eines Problems laufen im Arbeitsgedächtnis Kontrollprozesse zur Koordinierung des Behaltens und der Verarbeitung von Information ab. Die Fähigkeit zur effizienten Koordination ist eine entscheidende Komponente von Intelligenz. Für die Messung und Bewertung von Denkleistungen stellt sich damit die Frage nach der Identifikation dieser Kontrollprozesse sowie nach dem für ihre Realisierung aufgewendeten kognitiven Aufwand.
Ziel der vorliegenden Untersuchung ist es, den kognitiven Aufwand für solche Kontrollprozesse im Arbeitsgedächtnis vom Aufwand für Informationsaufnahme und motorische Reaktion (Tastendruck) abzutrennen. Ergebnisse, die mit Hilfe der funktionellen Kernspintomographie (fMRI) erzielt wurden, sprechen dafür, daß der frontale Kortex und parietale Bereiche zusammen eine Rolle beim aktiven Behalten und Verarbeiten von Information im Arbeitsgedächtnis spielen. Anknüpfend daran und basierend auf der Annahme, daß für die Informationsverarbeitung ein höherer Kontrollaufwand erforderlich ist als für die Informationsaufnahme und die motorische Reaktion, wird untersucht, ob dieser Kontrollaufwand durch hohe Synchronisation zwischen spezifischen frontalen und parietalen Hirnarealen gekennzeichnet ist.
Die erzielten Ergebnisse machen deutlich, daß hoher Kontrollaufwand für Informationsverarbeitungsprozesse im Arbeitsgedächtnis vom Aufwand für Informationsaufnahme und motorische Reaktion auf der Basis interregionaler Kohärenzen zwischen spezifischen frontalen und parietalen Hirnarealen abtrennbar ist.



Claus Lamm
Coautoren: Oliver Vitouch

Titel: Bootstrap-Verfahren: Anwendungen in der Analyse von Multikanal-EEG-Daten (Poster)

Autoren: Claus Lamm & Oliver Vitouch
Universität Wien
Institution: Brain Research Lab, Institut für Psychologie
Liebiggasse 5
A-1010 Wien

Claus.Lamm@univie.ac.at

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
 

Den neuronalen Grundlagen kognitiver Prozesse wurde in den letzten Jahren vermehrtes Interesse zuteil. Die technische Weiterentwicklung der dabei eingesetzten BrainImaging-Verfahren (fMRI, PET, EEG, MEG) resultiert in der Erhebung von sehr vielen Datenpunkten an meist sehr kleinen Stichproben (vgl. Vitouch & Glück, 1997). Die Voraussetzungen der zur inferenzstatistischen Auswertung dieser Daten herangezogenen varianzanalytischen Verfahren (ANOVA, MANOVA bzw. GLM-basierte) sind dabei häufig nicht gegeben bzw. nicht adäquat überprüfbar. Ferner liegen sehr oft non-orthogonale Datensätze vor, was erwiesenermaßen die Robustheit der varianzanalytischen Teststatistiken zusätzlich vermindert. Da in einem Großteil der Fälle dennoch parametrisch ausgewertet wird (u.a. weil alternativ verfügbare Verfahren nur bei entsprechend großen Stichproben robust sind; Keselman, 1998), ist die aus dieser Form der Analyse resultierende Inferenzstatistik meist wenig reliabel. Mögliche Lösungsansätze sollen aufgezeigt und diskutiert werden. Besonderes Augenmerk wird dabei den sogenannten Resampling-basierten Verfahren, wie etwa Permutationstests oder Bootstrap-Analysen, zuteil werden. Vor allem der Bootstrap-Ansatz stellt aufgrund seines weitgehenden Verzichts auf Populationsannahmen und seiner Flexibilität einen besonders vielversprechenden Ansatz dar. Dabei werden wiederholt mit Zurücklegen Zufallsstichproben aus der real erhobenen Stichprobe gezogen. Für jede dieser Bootstrap-Stichproben wird der gewünschte statistische Kennwert berechnet, woraus eine alternative Schätzung der Stichprobenkennwerteverteilung resultiert, die auch inferenzstatistisch verwertet werden kann.
Anhand des Beispiels von Multikanal-EEG-Datensätzen sollen die klassischen Auswertungsstrategien mit Bootstrap-basierten Analysen verglichen werden. Keselman, H.J. (1998). Testing treatment effects in repeated measures designs: An update for psychophysiological researchers. Psychophysiology, 35, 470-478.
Vitouch, O. & Glück, J. (1997). „Small group PETting:“ Sample sizes in brain mapping research. Human Brain Mapping, 5, 74-77.

 


Iris Langer

Titel: Computer in der Lehre: Evaluation eines intelligenten Tutorsystems

Ministère de l'Education Nationale et de la Formation Professionnelle - SCRIPT
29, rue Aldringen,
L - 2926 Luxembourg

langer@men.lu

Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation der Lehre" oder Einsatz von Multimedia in der Lehre

Die vorliegende Arbeit beschäftigt sich mit der Evaluation eines intelligenten Tutorsystems, das im Rahmen des Curriculums für Mediziner an der Münchner Poliklinik eingesetzt und allgemein auf seine Effektivität geprüft wurde. Für das Untersuchungsvorhaben wurde eine Fragebogenbatterie zusammengestellt, die neben einem Fragebogen zur Lernsoftware-Evaluation auch Fragen zur allgemeinen Einstellung gegenüber Computern, zum bevorzugten Lernstil, zur allgemeinen Leistungsmotivation sowie biographischen Fragen enthielt.

Die Lernsoftware, ein Rheumatologie-Trainer, ist u.a. für die Aus- und Weiterbildung von Ärzten und Studenten konzipiert, die computerunterstützt Erkrankungsfälle fallbasiert präsentiert bekommen. Im Rahmen einer Prä-Post-Studie benutzten Studierende das Lernprogramm während eines Semesters, wobei lediglich Studierende mit geringem Vorwissen vom Lernmaterial zu profitieren schienen. In einer Nachbefragung gaben die Studierenden an, daß sie das Programm inhaltlich akzeptieren, daß die allgemeine Lernmotivation als hoch anzusehen ist.
Eine Änderung im Umgang mit Computern wurde nicht beobachtet. Die allgemeine Leistungsmotivation zeigte zu Semesterende einen signifikanten Anstieg. Weiterhin gab die Mehrheit der Studierenden an, dass sie die Art des Lernprogramms für hilfreich und sinnvoll hielt, mit der technischen Handhabung und allgemeinen Benutzung des Programms aber Schwierigkeiten hatte.

Nach dem heutigen Erkenntnisstand der Forschung scheint es nicht möglich zu sein, prinzipielle Aussagen über Lernwirkungen von Multimedia zu machen. Der Vergleich und die kritische Bewertung existierender Studien
und Übersichtsarbeiten zeigt zwar, daß Multimediasysteme über Potentiale zur Verbesserung der Lernleistung verfügen. Dennoch scheint die überwiegende Mehrheit der eingesetzten Multimediasysteme nur wenige oder
keine positive Auswirkung auf die Lernleistung, wie auch die Ergebnisse dieser Untersuchung belegen. Hier gilt es, weiter an Massnahmen zur Verbesserung dieser Situation zu arbeiten.


Anneros Meischner-Metge

Titel: Alternativ oder kontrovers ?

Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig

ameisch@uni-leipzig.de

Beitragszuordnung: Historische Methodenlehre

Eine Alternative zu formulieren ist Bestandteil wissenschaftlichen Denkens. Die kontroverse Diskussion einer Alternative unterstützt dagegen die Entstehung von Klischees, die sich nachteilig auf die weiterführende Betrachtung auswirken können. Die „kontroverse Sichtweise“ auf den vermeintlichen Gegner nimmt nur die „passenden“ Aussagen zur Kenntnis bzw. interpretiert einstellungskonform.
Da Klischees ungeprüft weiterwirken, wird die ursprüngliche Alternative zunehmend reduziert und schließlich zum Selbstverständnis für eine bestimmte Denkrichtung. Auf diese reduziert und schließlich zum Selbstverständnis für eine bestimmte Denkrichtung. Auf diese Weise können auch niemals vertretene Auffassungen zur selbstverständlichen Annahmen einer Theorie erklärt werden – das wohl bekannteste Beispiel ist die Erklärung an die Adresse „elementaristischer“ Psychologen, daß die Melodie mehr als die Summe ihrer Töne sei. Schon Carl Stumpf fragte, ob denn jemals jemand behauptet habe, daß die Melodie eine Summe von Tönen ist und antwortet: „eine solche Eselei habe ich nirgends gefunden“.

An Beispielen soll belegt werden, daß kontroverse Diskussion der Weiterentwicklung des ursprünglichen Ideengehalts einer Alternative schaden kann und die Entdeckung und Entwicklung sich ergänzender Gesichtspunkte alternativer Ideen und Thesen nahezu ausschließt.



Christof Nachtigall
Coautoren: Rolf Steyer

Titel: Modellierung und Erklärung intraindividueller Veränderung am Beispiel des Lernzuwachses im Fach Statistik

Universität Jena
Institut für Psychologie
Steiger 3, Haus 1
07743 Jena

Andreas.Wolf@uni-jena.de

Beitragszuordnung: Stukturgleichungsansätze, Analyse von Längsschnittstudien

Ein Anwendungsfall für die Messung interindividueller Unterschiede bei intraindividueller Veränderung ist die Erfassung von Lernzuwachs im Bereich Wahrscheinlichkeitstheorie und Statistik. Das Erlernen dieses Grundwissens im Fach Psychologie ist für Studierende häufig mit nicht unerheblichen Schwierigkeiten verbunden. Vor diesem Hintergrund interessiert uns nicht nur, ob und wieviel die Studierenden in den Lehrveranstaltungen zur
Statistik dazulernen, sondern darüber hinaus möchten wir ermitteln, welche Studierenden viel bzw. wenig dazulernen. Wäre es weiterhin möglich, potentielle Viel- und Weniglerner anhand einiger Kriteriumsvariablen zu identifizieren, könnten gezielte Förderungs- bzw. Nachhilfemaßnahmen angeboten werden. Aufbauend auf einen Ansatz zur Modellierung wahrer intraindividueller Veränderung als latente Variable, wird in diesem Vortrag eine Untersuchung vorgestellt, bei der in mehreren Wellen das Wissen von Psychologie-Studierenden im Grundstudium im Bereich Wahrscheinlichkeitstheorie gemessen wurde. Die intraindividuelle Veränderung im Wissenstand
zwischen den Erhebungszeitpunkten wird auf zusätzlich erhobene Personenvariablen wie z. B. Lernaufwand,
Vorwissen, Lernmotivation etc. zurückgeführt.


Ivo Ponocny
Coautoren: Elisabeth Ponocny-Seliger

Titel: T-Rasch 1.0: Ein menügesteuertes Windows-Programm zur Erstellung und Überprüfung eindimensionaler Tests (Demonstration)

Universität Wien
Institut für Psychologie
Liebiggasse 5
A-1010 Wien, OEsterreich

ivo.ponocny@univie.ac.at

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen;Strukturgleichungs- und
                              Latent-Trait-Ansätze
 

Die in der Praxis oft implizit getroffene Annahme, dass sich die Leistung in einem kognitiven Test als die Anzahl der richtigen Lösungen charakterisieren läßt, ist (unter wenig restriktiven Bedingungen) mathematisch äquivalent zur Güeltigkeit des Raschmodells, welches durch geeignete Modelltests überprüft werden kann. Insbesondere kann das Raschmodell als Prüfstein dafür herangezogen werden, ob


a) die Items als eindimensional zu betrachten sind und
b) es keine Subgruppen gibt, in welchen sich einzelne Items anders verhalten als in der Gesamtstichprobe (im Sinne von Differential Item Functioning).

Die T-Rasch zugrundeliegenden Modelltests sind vor allem in Hinblick auf kleinere Stichproben (unter 100 Personen) konzipiert und kommen dementsprechend ohne asymptotische Näherungen aus. Weiters wurde in Hinblick auf maximale Macht der Möglichkeit, a priori-Hypothesen sowie deren Zusammensetzungen zu berücksichtigen, viel Raum gewaehrt. Anhand praktischer Beispiele konnte so gezeigt werden, dass auch bei kleinen Stichproben bereits viele Items als nicht "homogen" (im Sinne des Raschmodells) ausgeschieden werden koennen. Typische a priori-Hypothesen ueber Abweichungen vom Raschmodell wie die folgenden können durch einfaches Anklicken von Itemnummern im entsprechenden Menüpunkt realisiert werden:
* Bestimmte Itempaare oder Itemgruppen sind inhaltlich zu ähnlich konstruiert (z.B. dieselbe logische Struktur, aber mit anderen Symbolen), ihre
   Übereinstimmungen sind grösser als innerhalb des Raschmodells zulässig.
* Bestimmte Items sind (z.B.) aufgrund ihrer inhaltlichen Verpackung für Mädchen etwas motivierender als für Burschen oder umgekehrt.
* Hypothesen der vorigen Typen gelten in Kombination.
* T-Rasch bietet auch Screening-Verfahren an, mit denen nach Abweichungen vom Typ a) oder b) gesucht werden kann (zusammen mit
   overall-Signifikanzniveaus).


Heiner Rindermann

Titel: Lehrevaluationsforschung und Lehrevaluationspraxis - Fragestellungen und aktuelle Entwicklungen

Otto-von-Guericke-Universität Magdeburg
Institut für Psychologie
Postfach 4120
D-39016 Magdeburg

heiner.rindermann@gse-w.uni-magdeburg.de

Beitragszuordnung: Evaluationsforschung - mit Schwerpunkt "Evaluation der Lehre"
 

In dem Beitrag zur studentischen Lehrevaluation werden Forschungsstand, relevante Fragen der Lehrevaluationsforschung und aktuelle Trends beschrieben und diskutiert: relevante Prozeß- und Produktvariablen der Lehrqualität; Konstruktion und Dimensionen eines Lehrinventars, welches eine differenzierte Beschreibung von Lehrveranstaltungen erlaubt; Skalenqualitäten (verschiedene Maße der Reliabilität, Urteilerübereinstimmung); Validität studentischer Beurteilungen bestimmt an den Kriterien Übereinstimmung mit Fremdurteilern,
Zusammenhang mit Leistungsmaßen, Generalisierbarkeit dozentenbezogener Urteile über verschiedene Veranstaltungen und Beeinflußbarkeit durch Biasvariablen (z.B. Besuchsgrund); Möglichkeiten des Einsatzes
studentischer Beurteilungen zur Verbesserung der Lehre. Während günstige Skalenqualitäten und die Validität unterstützende Befunde geschildert werden können, zeigt sich in formativen Ansätzen, daß studentische Lehrevaluationen der Ergänzung durch Beratung und Weiterbildung bedürfen, um nachweisbare Verbesserungen erzielen zu können. Ergebnisse einer aktuellen Studie, die Verbesserungsmöglichkeiten der Lehre durch Evaluation und Beratung überprüft, werden geschildert. Hierbei zeigt sich, daß bei Einsatz von Beratung und bei unterstützenden institutionellen Bedingungen die Qualität der Lehre nachweisbar verbesserbar ist. Künftige Projekte sollten deshalb hochschuldidaktische und (test)diagnostische Ansätze verbinden sowie strukturelle Rahmenbedingungen und deren Auswirkungen in Optimierungsmodelle miteinbeziehen.

 


Matthias Rudolf
Coautoren: Peter Dettmar, Peter Richter, Hans-Jürgen Volke

Titel: Exakte Tests und exploratorische Analysen im Rahmen der multivariaten Auswertung evozierter EEG-Kohärenzen
 

TU Dresden
Fachrichtung Psychologie, Institut für Humanbiologie und Biopsychologie
Mommsenstr. 13
01062 Dresden

rudolf@psy1.psych.tu-dresden.de

Beitragszuordnung: Methoden zur Messung und Modellierung kognitiver Leistungen
 

Aus der neurophysiologischen Forschung ist bekannt, daß bei der Realisierung komplexer mentaler Operationen verschiedene Gebiete des Gehirns zusammenwirken, wobei derartige Kooperationen von einer Änderung der Ähnlichkeit der elektrischen Aktivität der einbezogenen Hirngebiete begleitet werden. Die evozierte Kohärenz des EEG (Volke, 1992, 1995) bietet sich als Instrument für die Untersuchung solcher Prozesse an. Wegen der paarweisen Ermittlung der Kohärenzen zwischen den Ableitorten nimmt dabei die Variablenzahl quadratisch zu, was zu spezifischen Problemen für die statistische Datenauswertung führt.  In unserem Experiment diente das Schachspiel als mentales Tätigkeitsmodell. Den Schachspielern (n=25) wurden Schachaufgaben unterschiedlicher Komplexität über einen Computerbildschirm zur Lösung dargeboten, wobei das EEG 29-kanalig abgeleitet wurde. Die für die statistische Auswertung anzuwendende Vorgehensweise sollte einerseits exakte inferenzstatistische Hypothesenprüfungen ermöglichen. Dabei waren die klassischen multivariaten Verfahren wegen der großen Variablenanzahl bei geringem Stichprobenumfang nur sehr eingeschränkt nutzbar. Andererseits sollte ein Beitrag zur Modellierung der Zusammenhangsstruktur der teilweise hochkorrelierten Daten und zur Hypothesenbildung über die Arbeitsweise des Gehirns geleistet werden.

Vorkenntnisse über die faktorielle Zusammenhangsstruktur der Kohärenzdaten (z.B. Rudolf, Jackisch & Volke, 1996) konnten ausgenutzt werden, um für die statistischen Hypothesenprüfungen stabile multivariate Verfahren (Läuter, 1996; Kropf & Glimm, 1997) anzuwenden, die auch bei kleinen Stichprobenumfängen und hohen Merkmalsdimensionen das vorgegebene Signifikanzniveau exakt einhalten. Eine exploratorische zweistufige Faktorenanalyse in Verbindung mit einer topologischen Analyse der Faktoren ermöglichte darüber hinaus eine
Bestimmung der an der Lösung der verschiedenen Aufgaben beteiligten Kortexareale.

Mit dieser Vorgehensweise erscheinen evozierte EEG-Kohärenzen als ein sensitives Instrument zur Untersuchung subtiler Veränderungen der Hirntätigkeit bei mentaler Beanspruchung.


Karin Schermelleh-Engel

Titel: Konsistenz und Spezifität der Prüfungsängstlichkeit: Eine Überprüfung des TAI-G mit der Latent State-Trait Theorie

J. W. Goethe-Universitaet
Institut für Psychologie
Mertonstrasse 17
60054 Frankfurt am Main

schermelleh-engel@psych.uni-frankfurt.de

Beitragszuordnung: Strukturgleichungs- und Latent-trait-Ansaetze
 

Zur Ueberpruefung der Konstruktvaliditaet der deutschen Version des Test Anxiety Inventory (TAI-G; s. Hodapp, 1991), der den Trait Pruefungsaengstlichkeit ueber die vier Dimensionen "Aufgeregtheit", Besorgtheit", "Interferenz" und "Mangel an Zuversicht" erfassen soll, wurde der Fragebogen einer vorwiegend studentischen Stichprobe von N =3D 302 dreimal in einem zeitlichen Abstand von jeweils zwei Wochen vorgelegt. Die Trait-Konzeption des Fragebogens wurde unter Anwendung der Latent State-Trait Theorie (LST-Theorie) von Steyer (1987), die dimensionalen Annahmen mittels konfirmatorischer Faktorenanalysen hoeherer Ordnung ueberprueft. Die Ergebnisse bestaetigen sowohl die Trait-Konzeption als auch die Dimensionalitaet des TAI-G. Die vier Subskalen eignen sich fuer die Messung der verschiedenen relativ stabilen Dimensionen der Pruefungsangst: 75-95% der Varianz der Skalen zu den drei Messzeitpunkten werden durch die Traits erklaert, durch die Situation bzw. die Person-Situation-Interaktion dagegen nur 1-19%. Die bei den Analysen der Strukturgleichungsmodelle aufgetretenen methodischen Probleme, u.a. das Problem von Wiederholungseffekten bei Mehrfachtestungen, die Verwendung von Methodenfaktoren sowie die Verletzung der Normalverteilungsannahme der Indikatorvariablen werden ausfuehrlich diskutiert und daraus Empfehlungen fuer zukuenftige Validierungsstudien abgeleitet.

Hodapp, V. (1991). Das Prüfungs=E4ngstlichkeitsinventar TAI-G: Eine erweiterte und modifizierte Version mit vier Komponenten. Zeitschrift für P=E4dagogische Psychologie, 5, 121-130.
Steyer, R. (1987). Konsistenz und Spezifitaet: Definition zweier zentraler Begriffe der Differentiellen Psychologie und ein einfaches Modell zu ihrer Identifikation. Zeitschrift fuer Differentielle und Diagnostische Psychologie, 8, 245-258.


Joachim Schmidt

Titel: Tests auf Unkonfundiertheit im Allgemeinen Linearen Modell mit stochastischen Regressoren

Friedrich-Schiller-Universität Jena
Lehrstuhl für Methodenlehre und Evaluationsforschung, Institut für Psychologie
Am Steiger 3, Haus 1
D-07743 Jena

m6scjo@uni-jena.de

Beitragszuordnung: Kausalanalyse
 

In der Methodenlehre der Psychologie wird kausale Abhängigkeit zweier Variablen durch Regressionsmethoden untersucht, was allerdings nur unter bestimmten Voraussetzungen gerechtfertigt ist. Bisher hat unsere
Arbeitsgruppe diese Voraussetzungen spezifiziert, die theoretischen Vorarbeiten geleistet und erste Testverfahren entwickelt (vgl. dazu etwa Steyer et al., 1996). Teststatistik im Rahmen einer Kausalen Regressionstheorie ist eine Kenngröße für die "Stärke der Konfundiertheit" einer regressiven Abhängigkeit.
Eine wesentliche Rolle bei der praktischen Anwendung (d.h. der Testung auf Unkonfundiertheit) spielt der Wald-Test zur Überprüfung (auch) nichtlinearer Hypothesen. Im obigem Artikel beschränkten wir uns auf den Fall einer multivariaten Normalverteilung der eingehenden Zufallsgrößen X, W und Y (Treatmentvariable, "Konfundierungsvariable" und Responsevariable) mit festen Regressoren. Dieses Referat soll nun weitere Grundlagen für die praktische Anwendbarkeit der Kausalitätstheorie legen: Der Test der Unkonfundiertheit im Fall diskreter, stochastischer Regressoren und bedingter Normalverteilung des Regressanden Y. Insbesondere soll hier
überprüft werden, ob auch für diesen Fall der Wald-Test verwendet werden kann. Der Wald-Test ist ein asymptotischer Test. Ziel unserer Bemühungen ist es daher auch, eine kritische Stichprobengröße anzugeben, ab der der Wald-Test verwendet werden kann. Dazu werden Ergebnisse von Simulationsstudien berichtet.


Ursula Schuster

Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig

 psyschu@rzaix530.rz.uni-leipzig.de

1. Beitrag:

Titel: Split- Ein Verfahren zur Strukturermittlung

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen

Das vorzustellende Verfahren setzt sich genau genommen aus zwei methodischen Ansätzen zusammen. Das Split-Paradigma (nach LANDER) ist eine neue Experimentalanordnung, die sich aus den klassischen Verfahren des Tripelvergleichs bzw. aus Sortiertechniken ableitet. Die angeschlossene
Auswertungsprozedur zur Ermittlung der Strukturierung und Dimensionierung von Gedächtnisinhalten (nach LANDER) nutzt die im Split-Paradigma
bereitgestellte Datenbasis und stellt eine eigenständige Methode dar. Obgleich beide Verfahren in Kombination entwickelt wurden, sind sie auch
jedes für sich getrennt einsetzbar. Die vorliegende Untersuchung soll am Beispiel der Beurteilung der Ähnlichkeit geometrischer Figuren mit
diskret-alternativen Merkmalen auf mehreren Merkmalsdimensionen die Einsatzmöglichkeiten sowohl des Split-Paradigmas als auch der
Auswertungsprozedur  veranschaulichen. Es wurde die Frage untersucht, welchen Einfluß die Darbietung unterschiedlicher Figurteilmengen auf die
Merkmalsrepräsentation hat. Am Experiment  nahmen 28 Vpn teil, die nach dem Split-Paradigma die Ähnlichkeit von Figuren beurteilten. Die Auswertung wurde  nach der vorgeschlagenen Auswertungsprozedur realisiert und ergänzende Auswertungsvarianten entwickelt. Die Ergebnisse (Clusterlösungen, Faktorlösungen) bestätigten die Hypothese der Kontextabhängigkeit in den Ähnlichkeitsurteilen. Die Splitmethode erwies sich als geeignetes Analysemittel.


2. Beitrag:
Coautoren: Annekathrin Aurich

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen

Titel: Anwendung des Split- Verfahrens zum Nachweis visueller Verarbeitungsdefizite bei Legasthenikern (Poster)
 

In Untersuchungen zu Defiziten bei Legasthenikern stehen in der Regel auditive Defizite im Vordergrund. Im Bereich der visuellen Defizite sind
Beeinträchtigungen bei frühen Verarbeitungsleistungen zu finden. Im Mittelpunkt der vorliegenden Untersuchung stehen Besonderheiten der
Strukturbildung in der visuellen Wahrnehmung bei Legasthenikern. Als Untersuchungsmethode wurde das Split-Paradigma und die sich anschließende
Auswertungsprozedur nach LANDER eingesetzt. Anhand der Cluster- und Faktorlösungen konnten Gruppenunterschiede zwischen Legasthenikern und normallesenden Kindern in der Art und Strukturierung der Ähnlichkeitskriterien nachgewiesen werden.


Karl Schweitzer

Titel:  Das MR- und andere Kriterien für die orthogonale Rotation von Faktoren

Universität Freiburg
Psychologisches Institut
Belfortstr. 16
79085 Freiburg

schwkarl@ruf.uni-freiburg.de

Beitragszuordnung: Strukturgleichungs- und Latent-Trait-Ansätze, Faktorenanalytische Verfahren
 

Neue Kriterien für die orthogonale Rotation von Faktoren, die auf bis zu drei heuristischen Regeln beruhen, werden vorgestellt. Den Ausgangspunkt für die Entwicklung der neuen Kriterien bildet Carroll's (1953) Berechnungsregel für die orthogonale Rotation, die als äquivalent zur Quartimax-Regel betrachtet wird. Außerdem wurde auf die Fähigkeit Bezug genommen, unter bestimmten Bedingungen die geeignetste Konfiguration hoher Ladungen zu "sehen". Rotationsverfahren, die die neuen Kriterien implizieren, sowie Quartimax und Varimax wurden auf Monte-Carlo-Daten und spezielle Korrelationsmatrizen angewendet. Insgesamt konnten mit dem MR (multiple rules) Kriterium, welches auf drei heuristischen Regeln basiert, die vielversprechendsten Ergebnisse erzielt werden. Es fand sich allerdings auch eine Abhängigkeit der Effizienz der Rotationsverfahren von der Struktur der Daten, was auf die Notwendigkeit einer differenzierten Gewichtung der Beiträge der einzelnen heuristischen Regeln hindeutet.
 


Matthias Siemer

Titel: Überlegungen zur Anwendung von Randomisierungstests und Bootstrapverfahren in der Überprüfung kausaler
        Hypothesen

Ernst-Moritz-Arndt-Universität Greifswald
Institut für Psychologie, Lehrstuhl für Allgemeine Psychologie und Forschungsmethodik
Franz-Mehring-Str. 47
D-17487 Greifswald

masiemer@mail.uni-greifswald.de

Beitragszuordnung: Kausalanalyse

Die Klasse der sogenannten "resampling"-Verfahren kann danach unterschieden werden, ob das resampling aus der vorhandenen Stichprobe mit oder ohne Zurücklegen erfolgt. Im ersten Fall handelt es sich um Randomisierungs- oder Permutationstests und im zweiten um Bootstrapverfahren. Die methodologische Grundlage von Randomisierungstest ist wohlbekannt. Sie entsprechen generell der Logik experimenteller Forschung besser als parametrische, populationsbasierte statistische Verfahren. Insbesondere sind Randomisierungstests ausschließlich stichprobenbasiert und entsprechen somit der Intention experimenteller Forschung, die an der Güte eines Kausalschlusses interessiert ist und nicht an dem Rückschluß auf eine in aller Regel unzureichend definierte Population. Nachteilig am Randomierungstestkonzept ist jedoch, daß die Teststärke (und mithin der Beta-Fehler), ohne die Annahme einer zugrundeliegenden Population aus der Stichproben wiederholt gezogen werden können, nicht sinnvoll definiert ist. Als Folge wird häufig ein hybrides Modell des Signifikanztests vertreten, das einerseits auf der zwingenden Logik des Randomisierungstests basiert, jedoch zur Bestimmung der Teststärke ein parametrisches Populationskonzept  benötigt.
Bootstrapverfahren sind dazu geeignet, dieses prima-facie Dilemma zu lösen  und ermöglichen eine konsistente Interpretation des Teststärkebegriffs,  ohne auf ein klassisches Populationsmodell zurückzugreifen. In Bootstrapverfahren wird die Stichprobe selbst mit einer hypothetischen,  infiniten (Ziehen mit Zurücklegen) Population gleichgesetzt. Auf diese Weise ist es möglich post-hoc und a-priori Teststärkeanalysen mit
veränderbaren Stichprobengrößen und Effektstärken, ausschließlich auf der Basis einer bestehenden Stichprobe durchzuführen. Hierzu werden Bootstrapstichproben aus der manifesten Stichprobe gezogen und die
Verteilung der anhand von Randomisierungstests erhaltenen Signifikanzwerte dieser Bootstrapstichproben ermittelt. Bei diesem Vorgehen wird an keiner Stelle auf das Konzept einer zugrundeliegenden Population (und
entsprechenden Verteilungsannahmen) zurückgegriffen. Erste Ergebnisse einer Monte-Carlo Simulation zum Vergleich parametrischer Teststärkeanalysen mit dem vorgeschlagenen Verfahren werden vorgestellt.
 


Erdmute Sommerfeld
Coautoren: Anke Hensel, Andrea Simmel

Institut für Allgemeine Psychologie
Universität Leipzig
Seeburgstr. 14-20
04103 Leipzig

sommerf@uni-leipzig.de

Titel: Messung von Lernerfolg auf der Basis von EEG- Kohärenzen

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen

Welche Prozeßeigenschaften zeigen einen Lerneffekt an? Einen möglichen Weg zur Beantwortung dieser Frage sehen wir in der Analyse  von prozeßbegleitenden funktionalen Kooperationen zwischen kortikalen Subsystemen. Auf der Basis von EEG-Kohärenzanalysen konnte experimentell belegt werden, daß sich hoher kognitiver Aufwand für Kontroll- und Steuerprozesse in starker Synchronisation zwischen frontalen und parietalen Hirnarealen widerspiegelt. Demzufolge müßte eine durch Übung oder Training zu erwartende Aufwandsreduktion mit einer Verringerung solcher Synchronisationen einhergehen.
Gegenstand dieser Studie ist die Untersuchung von Veränderungen in der EEG-Kohärenz im Verlauf von acht Lernphasen. Durch die Ergebnisse wird die Annahme gestützt, daß eine Reduktion des kognitiven Aufwands für Kontroll- und Steuerprozesse durch Übung mit einer Verringerung der Stärke der funktionalen Kooperation zwischen spezifischen frontalen und parietalen Instanzen verbunden ist. Weiterhin sprechen die Ergebnisse dafür, daß der durch Übung teilweise automatisierte Lösungsprozeß mehr und mehr in parietalen Hirnregionen stattfindet und damit die Exekutive von ihrer Kontrollfunktion entlastet wird. Die lernabhängigen Kohärenzverläufe in unterschiedlichen Frequenzbändern bilden ein Basis zur Identifizierung lernabhängiger Veränderungen von Behaltens- und Prozeßkomponenten des kognitiven Aufwands.



Christiane Spiel
Coautoren: Judith Glück, Heimo Gössler

Titel: Vom konkret-operatorischen zum formal-operatorischen Denken: Modellierung mit Item-response-Modellen

Karl-Franzens-Universität Graz
Institut für Psychologie
Universitätsplatz 2
A-8010 Graz

Christiane.Spiel@kfunigraz.ac.at

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen;Strukturgleichungs- und Latent-Trait-Ansätze

Entgegen Piagets ursprünglicher Annahme scheinen die Übergänge von einem kognitiven Stadium zum nächst höheren nicht relativ plötzlich zu erfolgen, sondern einen längeren Zeitraum in Anspruch zu nehmen, was die Frage nach potentiellen Zwischenstadien aufwirft. Basierend auf den Ergebnissen früherer Arbeiten (Spiel, Gittler, Sirsch & Glück, 1996) untersuchten wir diese Annahme für den Übergang vom konkret-operatorischen zum
formal-operatorischen Stadium. Als Versuchsmaterial verwendeten wir Syllogismentests zum deduktiven Reasoning, die wir systematisch hinsichtlich Aufgabeninhalt (konkret, abstrakt, kontrafaktisch) und
Präsentation des Antezedenten (mit und ohne Negation) variierten. Daraus ergaben sich aufgrund der vier Antwortformen insgesamt 24 Einzelitems. Die Stichprobe bestand aus 418 Vpn zwischen 12 und 18 Jahren (Gymnasium). Wir gingen davon aus, daß die Vpn in Abhängigkeit von ihrem kognitiven Entwicklungsstand unterschiedliche Operationen zur Itembearbeitung einsetzten, d.h. eine Mischverteilung vorliegt. Daher wurden für die Analyse Mixed-Rasch-Models eingesetzt (Rost, 1990). Die 3-Klassenlösung erwies sich als bestpassende. Hinsichtlich der Lösungsmuster präsentieren die drei Klassen eine kognitive Entwicklungssequenz, wobei die erste Klasse in allen Fällen transduktive Schlüsse zog, die zweite Klasse dies bei den abstrakten und kontrafaktischen Aufgaben tat, jedoch nicht bei den konkreten. Bei diesen hatten die Vpn bei Modus Ponens und Modus Tollens
höhere Lösungswahrscheinlichkeiten als für die Negation des Antezendenten  und die Affirmation des Konsequenten. Solche Lösungsmuster wurden in der  dritten Klasse für alle sechs Aufgabengruppen beobachtet. Dieses Ergebnis  wirft die Frage nach der Relativität des Begriffs Homogenität auf, da  offensichtlich homogene Itemuntergruppen im Verlauf der Entwicklung  inhomogen werden und schließlich wieder homogen.
 
 


Lothar Sprung

Titel: Wohin gehört die historische Methodenlehre? - Plädoyer für eine heimatlose Methodik

Fontanestr. 15
12459 Berlin

101.73961@germanynet.de

Beitragszuordnung: Historische Methodenlehre

Für die Mehrzahl der heutigen Methodiker der Psychologie ist Methodenlehre empirische oder experimentelle Methodik, einschließlich ihrer mathematischen Analyse-, Modellierungs- und Simulationsmittel. Aber dies Verständnis ist erst in der jüngeren Geschichte der Psychologie entstanden. Bei dessen Entwicklung wurde zunehmend übersehen, daß es neben der rezenten Empirie auch eine historische Empirie gibt, die aus Spuren vergangener psychischer Tätigkeiten besteht, die z.B. in Form von Dokumenten vorliegen. Solche Dokumente sind beispielsweise wissenschaftliche Einzelarbeiten, Monographien, Bild- und Tondokumente über Autoren, Laboratorien, Versuchsanordnungen; weiterhin Apparate, Zeugnisse, Beurteilungen, Gutachten, Krankengeschichten, Denkschriften, Nachlässe, Briefe, Memoiren, Chronisten- und Zeitzeugenberichte. Dementsprechend existiert für die Untersuchung dieser historischen Empirie auch eine Methodenlehre, die historische. Wilhelm Wundt und vielen seiner Zeitgenossen war dieses duale Methodenverständnis noch voll bewußt. Nicht umsonst unterschied er eine experimentelle „Individualpsychologie“ von einer nichtexperimentellen, d.h. einer historischen „Völkerpsychologie“. Im Beitrag werden zum einen ausgewählte methodische und methodentheoretische Grundlagen der historischen Methodenlehre vorgestellt und zum anderen wird ein kurzes Plädoyer für die historische Methodenlehre als Komplementierung der empirischen Methodenlehre gehalten. Bei den Grundlagen handelt es sich um die „Perspektiven“ und die „Strategien“ der Geschichtsforschung, um „Erklärungsformen“ historischer Entwicklungen, um „Erklärungsmodelle“ historischer Entwicklungen in der Geschichte und um spezielle „historiographische Methoden“. Im Ausblick wird auf ein integriertes System der Psychologischen Methodenlehre verwiesen.
Literatur
Sprung, L. & Sprung, H. (1997). Psychologiegeschichte und Methodengeschichte - Zur Geschichte der historischen und empirischen Methodik sowie ausgewählte Reflexionen über ein integriertes System der Psychologischen Methodenlehre. In D. Albert & H. Gundlach (Hrsg.), Apparative Psychologie: Geschichtliche Entwicklung und gegenwärtige Bedeutung. (S. 125-141). Lengerich: Pabst.


Mark Stemmler

Titel: Veränderungsmessung anhand der Latent Class Analyse

Universität Erlangen/Nürnberg
Institut für Psychologie1
Bismarckstr. 1
91054 Erlangen

mkstemml@phil.unierlangen.de

Beitragszuordnung: Analyse von Längsschnittstudien, Analyse kategorialer Daten
 

Auch wenn empirische Daten auf Intervalldatenniveau erfaßt werden, gibt es häufig qualitative Zuschreibungen für
einzelne Wertebereiche. Diesen Zuschreibungen kommt oft eine größere Bedeutung zu, als den absoluten Zahlenwerten auf Intervallniveau. Dadurch wird im Endeffekt eine Auswertung auf einem geringeren Datenniveau bevorzugt. Gezeigt wird die Auswertung von längsschnittlichen medizinischen Intervalldaten (z.B. HbA1-Werte, Stoffwechseleinstellung bei Diabetes) auf kategorialer Ebene mit Hilfe der Latent Class Analyse (LCA; Formann, 1984; Langeheine & Rost, 1993) und ihren verwandten Verfahren wie z.B. Markov-Modelle (Langeheine & van de Pol, 1994). Ferner wird die Möglichkeit diskutiert die Ergebnisse der LCAAuswertung anhand der Ergebnisse aus längsschnittlichen Clusteranalysen zu validieren.


Rolf Steyer

Titel: Kausale Modellierung: Einige neue Forschungsthemen

Friedrch-Schiller-Universität Jena
Institut für Psychologie
Am Steiger 3/ Haus 1
D-07743 Jena

Beitragszuordnung: Kausalanalyse

Nach einer kurzen Einführung in die Grundbegriffe der Theorie individueller und durchschnittlicher kausaler Effekte werden einige neue Forschungsthemen vorgestellt und dabei die Grenzen dieser Theorie und die Möglichkeiten ihrer Überwindung aufgezeigt. Neben einigen noch im Rahmen dieser Theorie noch weitgehend unbearbeiteten Themen wie die "Kausale Analyse von Längsschnittdaten" sind das "Die kausale Analyse in der nichtorthogonalen Varianzanalyse" und die "Kausalitätstests in Modellen mit stochastischen qualitativen Regressoren". Die beide letztgenannten Themen werden in nachfolgenden Referaten im Detail behandelt.

 


Reinhard Suck

Titel: Probabilistische Meßtheorie

FB Psychologie
Universität Osnabrück
Pf:: 4469
49069 Osnabrück

Suck@luce.psycho.uni-osnabrueck.de

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen

Es wird ein meßtheoretischer Rahmen erarbeitet, in dem es möglich ist, aus qualitativen Bedingungen Verteilungen zu charakterisieren. Das allgemeine Prinzip wird erläutert, bisherige Ergebnisse dargestellt, und Schwierigkeiten bei noch nicht gelungenen Charakterisierungen diskutiert. Verschiedene Fragen im Zusammenhang mit der Normalverteilung und Verteilungsvoraussetzungen im linearen Modell lassen sich auf diese Weise einheitlich behandeln.



Marek Szczepanski
Coautoren: V. Sarris

Titel: Methoden zur Untersuchung von sukzessiven und simultanen Kontexteffekten in der multidimensionalen Psychophysik (Poster)

Institut für Psychologie
Mertonstra_e 17
D-60054 Frankfurt/Main

szczepanski@psych.uni-frankfurt.de

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen; Analyse kategorialer Daten

Die methodischen Ansätze a) two-stimulus-two-choice und b) delayed-matching-to-sample wurden im Hinblick auf die Untersuchung von Frequenzeffekten in der mehrdimensionalen Bezugssystemforschung verwendet. Hierbei besaßen die einzelnen untersuchten Dimensionen Größe und Helligkeit bedingt durch den gewählten Aufgabentyp unterschiedliche Relevanz. In drei Experimenten wurden den Probanden Kreise dargeboten, die in den Dimensionen Größe und Helligkeit variierten. Im Experiment I lernten die Probanden im Training, vier unterschiedlich große Reize innerhalb zwei unterschiedlich heller Reizpaare zweikategorial (rechts/links) zu beurteilen (four-stimulus-two-choice); im anschließenden Test wurden die zuvor erlernten Zuordnungsregeln unter sukzessiver Darbietung von Reizen mit neuen Größenstimuli generalisiert. Hierbei wiesen die Reizserien entweder positive (mehr kleine Kreise) oder negative (mehr große Kreise) Schiefe in der Dimension Größe auf. Im Experiment II wurden die Reize nach einem mit Experiment I identischen Training entweder zunächst simultan oder sukzessiv dargeboten. Hierbei wurden dieselben Reizserien mit den entsprechenden Frequenzverteilungen aus dem Experiment I verwendet. Im Experiment III wurden den Probanden in mehreren delayed-matching-to-sample-Aufgaben Reizserien simultan präsentiert, in denen die jeweils kurz zuvor präsentierten Targetreize wiedererkannt werden sollten. Die Reizserien wurden entweder entlang der Dimension Größe oder entlang der Dimension Helligkeit oder entlang der beiden Dimensionen Größe und Helligkeit hinsichtlich der Frequenzverteilung variiert. In allen drei Experimenten traten deutliche Urteilsverschiebungen aufgrund der Schiefe der  Darbietungs- häufigkeitsverteilung der Reizserien auf. Im direkten Vergleich der sukzessiven und der simultanen Reizdarbietung im Rahmen des Experimentes II zeigten sich stärkere Effekte bei der simultanen Methode.

 


Christian Tarnai

Titel: Individuelle Urteilsdifferenzierung bei der Beurteilung von Lehrveranstaltungen durch Studierende

Universität der Bundeswehr München
Werner-Heisenberg-Weg 39
85577 Neubiberg

christian.tarnai@unibw-muenchen.de

Beitragzuordnung: Evaluationsforschung
 

Abgesehen von der uneinheitlichen Beurteilung ein und derselben Lehrveranstaltung durch Studierende werden durch sie unabhängig vom Urteilsniveau graduelle Abstufungen vorgenommen. Es wird im vorliegenden Beitrag untersucht, ob systematische Urteilsdifferenzierungen beobachtet werden können, die erkennen lassen,
welche Aspekte die Studierenden relativ positiv bzw. negativ bewerten.
Die Untersuchung der Fragestellung erfolgt für Vorlesungen, in denen eine Veranstaltungsbeurteilung mit dem Fragebogen zur studentischen Evaluation von Diehl (1994) erfolgt ist. Der Fragebogen enthält 16 Items, die zu vier Skalen zusammengefaßt werden: (1) Relevanz und Nützlichkeit der Veranstaltungsinhalte, (2) Verhalten des Dozenten gegenüber den VeranstaltungsteilnehmerInnen, (3) Angemessenheit von Schwierigkeit und Umfang der Veranstaltungsinhalte und (4) Methode und Aufbau der Veranstaltung.
Die Analyse der individuellen Urteilsdifferenzierung erfolgt auf der Grundlage der pro Person standardisierten Antworten auf die 16 Items. Die Abweichungen pro Item sind die Grundlage für eine hierarchische Cluststeranalyse (Ward-Verfahren). Für drei bisher ausgewertete Vorlesungen (N=83, N=98, N=39) ergeben sich drei bis vier Gruppen von Studierenden. In allen drei Vorlesungen ist eine Gruppe beobachtbar, die
den Dozenten (Skala 2) relativ positiv und die 'Relevanz der Inhalte' (Skala 1) relativ negativ beurteilen. Bei jeweils zwei Veranstaltungen werden Gruppen identifiziert, die den Dozenten negativ und die
'Angemessenheit der Inhalte' (Skala 3) positiv beurteilen. Ebenso bestehen Gruppen, welche die 'Relevanz' (Skala 1) relativ positiv und gleichzeitig die 'Angemessenheit' (Skala 3) relativ negativ zu den übrigen Aspekten beurteilen. Diese ersten Ergebnisse werden durch Analysen weiterer Vorlesungen ergänzt.


Mag. rer. nat. Oliver Vitoch
Coautoren: Claus Lamm, Judith Glück

Titel: Matrix-strukturelle Probleme bei der inferenzstatistischen Analyse von Brain Imaging-Daten

Universität Wien
Institut für Psychologie
Liebiggasse 5
A-1010 Wien, Österreich

oliver.vitouch@univie.ac.at

Beitragszuordnung: Methoden zur Modellierung und Messung kognitiver Leistungen
 

Die rapiden technischen Entwicklungen im Bereich elektrophysiologischer und metabolischer funktionell-bildgebender Verfahren ("brain imaging-Verfahren") ermöglichen eine zunehmend verfeinerte räumliche
Signalauflösung (Zahl simultan erfaßter topographischer/tomographischer Datenpunkte je Person und Meßzeitpunkt). Zugleich geht damit jedoch, vorwiegend aus Aufwands- und Kostengründen, eine krasse Reduzierung der durchschnittlichen Stichprobengrößen einher (Vitouch & Glück, 1997, Hum.
Brain Mapping). Für kognitiv-neurowissenschaftliche Experimentaldesigns (inferenzstatistische Prüfung von Gruppen- und Bedingungsunterschieden) ergeben sich daher, neben schwerwiegenden Stabilitäts-,
Generalisierbarkeits- und Power-Problemen, auch generelle Schwierigkeiten mit der Datenverrechnung: Wir haben es typischerweise mit "strukturell horizontalen" Datenmatrizen, also mit zahlreichen, zusätzlich noch
komplexe Interdependenzmuster aufweisenden Datenpunkten (im Sinne von Meßwiederholungs-Faktorstufen) von nur wenigen Individuen zu tun (n << k).
Prinzipiell vorteilhafte MANOVA-Ansätze können auf diese problematischen Matrizen nicht angewandt werden (oder büßen Teststärke ein); Meßwiederholungs-ANOVAs sind mit einer Reihe von Einschränkungen und
Korrekturen verbunden (starke Spherizitätsverletzungen, limitierte Einzelvergleichs-Möglichkeiten, Software-Beschränkungen auf k = 50). Will man die regional hochspezifisch gemessene Information nicht in oft
fragwürdiger Weise, durch Aggregation oder Selektion, wieder "kollabieren" lassen, sind daher "maßgeschneiderte" Alternativen für kleine Stichproben vonnöten. Hier wurden, teils bereits im Imaging-Kontext, unterschiedliche Zugänge vorgeschlagen: u. a. voraussetzungsfreie Permutationstests (exakte p-Werte; meist Omnibus-Tests), Bootstrapping-Techniken, Sequentialtests (Stichprobenminimierung durch fortgesetzte Prüfung prädefinierter Kontraste) oder meta-analytische Ansätze (beispielsweise anhand kooperativer Internet-Datenbanken). Aktuell wurden auch neue ALM-basierte Lösungsansätze (statistical parametric mapping), ja sogar Strukturgleichungsmodell-Anwendungen ("Netzwerkanalysen") präsentiert, die auf die Stichprobengrößen-Problematik jedoch zumeist nicht explizit eingehen. Der Beitrag diskutiert Vorteile und Beschränkungen dieser verschiedenen Ansätze. Exemplarisch wird anhand eigener DC-EEG-Daten die
Anwendung inhaltlich geleiteter, an lokal spezifische Hypothesen gebundener Sequentialtests demonstriert (primär-motocorticale Aktivitätstopographien von Pianisten).

 


Rainer Westermann
Coautoren: Beate Rockenbauch

Titel: Evaluation der Lehre durch Expertenbegutachtung und Befragung von Studierenden

Ernst-Moritz-Arndt-Universität Greifswald
Institut für Psychologie
Franz-Mehring-Straße 47
17487 Greifswald

westerma@mail.uni-greifswald.de

Beitragszuordnung: Evaluation der Lehre
 

Von maßgeblichen hochschulpolitischen Instanzen wird eine Evaluation der universitären Lehre nach dem niederländischen Modell empfohlen. Sie umfaßt eine Selbstbeschreibung der Fachbereiche, eine Begutachtung durch auswärtige Experten und eine gemeinsame Auswertungskonferenz. Realisiert wird dies beispielsweise im "Nordverbund" von Universitäten aus fünf Bundesländern. Großer Wert wird dabei auf Kommunikation, Konsens und Zielvereinbarungen zwischen den Beteiligten gelegt. Eine Weiterentwicklung zu einem "Total Quality Management System" nach ISO 9000 oder EFQM ist möglich, bedarf aber hochschulspezifischer Modifikationen dieser Normensysteme. Entscheidend für Erfolg und Akzeptanz von Lehrevaluationen und Qualitätssicherungen ist jedoch eine Verbesserung ihrer Valididität. Im Nordverbund werden keine Versuche gemacht, Erhebung, Integration und Interpretation der Informationen wissenschaftlich zu fundieren und potentiell ergebnisverfälschende Faktoren zu kontrollieren. Insbesondere werden die Meinungen der Studierenden entweder gar nicht oder nur durch intuitiv formulierte und zusammengestellte Fragen erhoben. Deshalb ergänzen wir in Greifswald die Nordverbundevaluation durch Befragungen von Studierenden zu ihren Zielen, Überzeugungen und Einstellungen. Dazu werden vorher konstruierte Fragebögen zur Zufriedenheit mit Lehrveranstaltungen und Studienbedingungen durch orts- und fachspezifische Komponenten ergänzt.Die allgemeinen Befragungsergebnisse werden den Fachbereichen, die veranstaltungsspezifischen den Lehrenden zurückgemeldet. Aufgrund dieser Ergebnisse können wir sowohl problematische Lehrveranstaltungen wie unzufriedene Studentengruppen identifizieren und Anregungen zur Verbesserung der Lehre ableiten. Dieses Vorgehen kann an abgeschlossenen Voruntersuchungen in den Fächern Theologie, Nordistik, Biologie, Medizin und Romanistik sowie an der laufenden Evaluation von Psychologie, Rechtswissenschaft und Sportwissenschaft verdeutlicht werden. Außerdem haben wir in diesem Rahmen erste Ergebnisse einer Längsschnittstudie an Medizinstudenten vorliegen, durch die wir der Fakultät Hinweise zur Erklärung der hohen Zahl an Studienabbrechern bzw. Ortswechslern geben wollen.


Andreas Wolf
Coautoren: Christof Nachtigall

Institut für Psychologie der Universität Jena
Steiger 3, Haus 1
07743 Jena

Andreas.Wolf@uni-jena.de

Titel: Modellierung und Erklärung intraindividueller Veränderung am Bsp. des Lernzuwachses im Fach Statistik

Beitragszuordnung: Stukturgleichungsansätze, Analyse von Längsschnittstudien
 

Ein Anwendungsfall für die Messung interindividueller Unterschiede bei intraindividueller Veränderung ist die Erfassung von Lernzuwachs im Bereich
Wahrscheinlichkeitstheorie und Statistik. Das Erlernen dieses Grundwissens im Fach Psychologie ist für Studierende häufig mit nicht unerheblichen Schwierigkeiten verbunden. Vor diesem Hintergrund interessiert uns nicht nur, ob und wieviel die Studierenden in den Lehrveranstaltungen zur
Statistik dazulernen, sondern darüber hinaus möchten wir ermitteln, welche Studierenden viel bzw. wenig dazulernen. Wäre es weiterhin möglich, potentielle Viel- und Weniglerner anhand einiger Kriteriumsvariablen zu identifizieren, könnten gezielte Förderungs- bzw. Nachhilfemaßnahmen
angeboten werden. Aufbauend auf einen Ansatz zur Modellierung wahrer intraindividueller Veränderung als latente Variable, wird in diesem Vortrag eine Untersuchung vorgestellt, bei der in mehreren Wellen das Wissen von Psychologie-Studierenden im Grundstudium im Bereich Wahrscheinlichkeitstheorie gemessen wurde. Die intraindividuelle Veränderung im Wissenstand zwischen den Erhebungszeitpunkten wird auf zusätzlich erhobene Personenvariablen wie z. B. Lernaufwand, Vorwissen, Lernmotivation etc. zurückgeführt.

Dipl. Math. Olivia Wüthrich-Martone
Coautoren: Rolf Steyer

Titel:  Die kausale Analyse in der nicht-orthogonalen Varianzanalyse
 

Friedrch-Schiller-Universität Jena
Institut für Psychologie
Am Steiger 3/ Haus 1
D-07743 Jena
Tel.: 03641- 945236

s6wuol@rz.uni-jena.de

Beitragszuordnung: Kausalanalyse
 

Die Kausalitätstheorie, wie sie von Neyman, Rubin, Holland, Sobel, Steyer u. a. formuliert
worden ist, ist eine theoretische Grundlage für die Analyse von Daten. Mit Hilfe dieser Grundlagen ist es möglich, nicht nur die üblichen statistischen Methoden besser begründen zu koennen, sondern auch bisher noch ungelöste Fragen zu beantworten. Ein Fall, bei dem sich die kausale Analyse als besonders nützlich  erwiesen hat, ist die Analyse von nicht-orthogonalen varianzanalytischen Designs, die oft bei ungleichen Zellenbesetzungen vorliegen. Das Hauptproblem bei solchen Designs besteht darin, dass eine eindeutige Zerlegung der Treatmentquadratsumme als Summe der Faktorenquadratsummen und der Interaktionsquadratsumme, wie bei der Varianzanalyse mit gleichen Zellenbesetzungen, nicht mehr möglich ist. Seit Ende der 60er Jahre wurden unter verschiedenen Zielsetzungen mehrere Wege entwickelt, die Treatmentquadratsumme zu zerlegen. Diese Ansätze führen oft zu unterschiedlichen Ergebnissen, auch  zu unterschiedlichen Berechnungen der Haupteffekte der Faktoren. In der letzten Tagung der Fachgruppen Methoden (Berlin, 1997) und in der DGP Tagung (Dresden, 1998) haben wir die Lösung dieses Problems für den Fall einer zweifaktoriellen Varianzanalyse vorgestellt. Es handelte sich um die Entwicklung eines Verfahrens, welches das Testen von kausalen Effekten ermöglicht. Ziel dieses Beitrages ist, die Verallgemeinerung dieser Resultates für den Fall einer mehrfaktoriellen Varianzanalyse präsentieren. Wir werden eine Methode darstellen, mit der sich auch  bei einer Varianzanalyse mit mehreren Treatmentvariablen und mehreren potentiellen Störvariablen (blocking factors, Kontrollfaktoren) die kausalen Effekte testen lassen.
 


Daniel Zimprich
Coautoren: Mike Martin

Titel: Differentielle längsschnittliche Datenanalyse anhand von latenten Differenzvariablen

Universität Heidelberg
Institut für Gerontologie
Bergheimer Strasse 20
69115 Heidelberg

daniel.zimprich@urz.uni-heidelberg.de

Beitragszuordnung: Analyse von Längsschnittstudien, Strukturgleichungs- und Latent-trait-Ansätze
 

Die Analyse von Längsschnittdaten dient zur Klärung von mindestens zwei Fragen: (1) Treten im Mittel über die Zeit Veränderungen auf? (2) Verändern sich verschiedene Personen unterschiedlich über die Zeit? Diese Fragen
lassen sich im Rahmen von Strukturgleichungsmodellen beantworten, indem man autoregressive Modelle um latente Mittelwerte erweitert und zusätzlich latente Differenzvariablen einführt. Weisen die latenten Differenzvariablen statistisch signifikante Mittelwerte und Varianzen auf, dann kann daraus auf - varianzanalytisch gesprochen - Haupt- und Interaktionseffekte geschlossen werden. Im Vergleich zu manifesten Differenzvariablen lassen sich mit Hilfe dieser Modelle zwei Probleme umgehen: (1) Durch die Überprüfung verschiedener Formen faktorieller Invarianz läßt sich zunächst untersuchen, inwieweit über die Zeit das gleiche Konstrukt gemessen wurde. (2) Durch die Modellierung von Differenzen auf latenter Ebene wird das bei manifesten Differenzen auftretende Reliabilitätsproblem umgangen. Darüber hinaus können mögliche Ursachen von ggf. auftretenden differentiellen Veränderungen genauer untersucht werden, indem die Modelle etwa um konstante oder sich
ihrerseits über die Zeit verändernde Kovariate erweitert werden. Anhand von Datenmaterial zur kognitiven Entwicklung aus der Interdisziplinären Langzeitstudie des Erwachsenenalters (ILSE, N = 218, 2 Meßzeitpunkte) werden verschiedene Modelle mit latenten Differenzvariablen praktisch veranschaulicht.


 


Stand: 7. September 1999
Rico Saupe