Psychologie in Erziehung und Unterricht
3
0342-183X
Ernst Reinhardt Verlag, GmbH & Co. KG München
101
2022
694
Empirische Arbeit: Die Erfassung von Wissen über verschiedene Diversitätsbereiche im Kontext einer inklusionsorientierten Lehrkräftebildung
101
2022
Lisa Tometten
Anke Heyder
Ricarda Steinmayr
Für das Wissen über Diversität, einer Facette pädagogisch-psychologischen Wissens von Lehrkräften, liegen bislang nur wenige deutschsprachige Messinstrumente vor. Deshalb wurde ein Test zum deklarativen Faktenwissen in einer Lang- (DiWi) und Kurzform (DiWi-K) mit den Subskalen Förderschwerpunkte emotionale und soziale Entwicklung und Lernen, Teilleistungsstörungen, Geschlecht und kognitive Hochbegabung entwickelt und in drei unabhängigen Lehramtsstudierendenstichproben evaluiert. Studie 1 bestätigte die 5-faktorielle Struktur des DiWi. Das objektive Wissen korrelierte mit der Abiturnote, dem selbsteingeschätzten Wissen und den behandelten Diversitätsbereichen im Studium. Studierende des Lehramts für sonderpädagogische Förderung wussten mehr als Studierende anderer Lehrämter. Studie 2 bestätigte diese Ergebnisse für den DiWi-K und ergänzte sie um die konvergenten Konstrukte Vorerfahrungen, Einstellungen und Selbstwirksamkeitserwartungen bezüglich schulischer Inklusion. Studie 3 zeigte einen positiven Zusammenhang zum pädagogischen Unterrichtswissen. Diese erwartungskonformen Ergebnisse weisen auf die Eignung des Tests zur Erfassung des Diversitätswissens hin. Sie werden hinsichtlich ihrer Limitationen und Implikationen diskutiert.
3_069_2022_004_0292
n Empirische Arbeit Psychologie in Erziehung und Unterricht, 2022, 69, 292 -304 DOI 10.2378/ peu2022.art23d © Ernst Reinhardt Verlag Die Erfassung von Wissen über verschiedene Diversitätsbereiche im Kontext einer inklusionsorientierten Lehrkräftebildung Lisa Tometten, Anke Heyder und Ricarda Steinmayr Technische Universität Dortmund Zusammenfassung: Für das Wissen über Diversität, einer Facette pädagogisch-psychologischen Wissens von Lehrkräften, liegen bislang nur wenige deutschsprachige Messinstrumente vor. Deshalb wurde ein Test zum deklarativen Faktenwissen in einer Lang- (DiWi) und Kurzform (DiWi-K) mit den Subskalen Förderschwerpunkte emotionale und soziale Entwicklung und Lernen, Teilleistungsstörungen, Geschlecht und kognitive Hochbegabung entwickelt und in drei unabhängigen Lehramtsstudierendenstichproben evaluiert. Studie 1 bestätigte die 5-faktorielle Struktur des DiWi. Das objektive Wissen korrelierte mit der Abiturnote, dem selbsteingeschätzten Wissen und den behandelten Diversitätsbereichen im Studium. Studierende des Lehramts für sonderpädagogische Förderung wussten mehr als Studierende anderer Lehrämter. Studie 2 bestätigte diese Ergebnisse für den DiWi-K und ergänzte sie um die konvergenten Konstrukte Vorerfahrungen, Einstellungen und Selbstwirksamkeitserwartungen bezüglich schulischer Inklusion. Studie 3 zeigte einen positiven Zusammenhang zum pädagogischen Unterrichtswissen. Diese erwartungskonformen Ergebnisse weisen auf die Eignung des Tests zur Erfassung des Diversitätswissens hin. Sie werden hinsichtlich ihrer Limitationen und Implikationen diskutiert. Schlüsselbegriffe: Pädagogisch-psychologisches Wissen von Lehrkräften, Diversität, sonderpädagogischer Förderbedarf, Geschlecht, kognitive Hochbegabung The assessment of knowledge about diversity in the context of an inclusion-oriented teacher training Summary: There are so far just a few German instruments available measuring knowledge about diversity, one facet of teachers’ pedagogical-psychological knowledge. Therefore, a test in a long (DiWi) and short form (DiWi-K) was developed and evaluated in three independent samples of teacher students. It measures declarative factual knowledge with the subscales special educational needs in emotional and social development and learning, partial achievement disorders, gender and cognitive giftedness. In Study 1, the 5-factorial structure of the DiWi was supported. Students’ objective knowledge correlated with their GPA, self-assessed knowledge, and diversity aspects covered in their university courses. Students for special needs education had higher knowledge than students of other teaching professions. These results were confirmed in Study 2 with the DiWi-K and expanded by the convergent constructs experiences, attitudes, and self-efficacy in the context of inclusive education. In Study 3, a positive correlation with pedagogical teaching knowledge was found. The results of the studies indicate the test versions’ ability to capture knowledge about diversity. The studies are discussed in terms of their limitations and implications. Keywords: Teachers’ pedagogical-psychological knowledge, diversity, special educational needs, gender differences, cognitive giftedness Das diesem Artikel zugrunde liegende Vorhaben wurde im Rahmen der gemeinsamen „Qualitätsoffensive Lehrerbildung“ von Bund und Ländern mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01JA1630 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autorinnen. Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 293 Das pädagogisch-psychologische Wissen (engl. pedagogical-psychological knowledge; PPK) von Lehrkräften gilt als Teil ihrer professionellen Kompetenz (z. B. Baumert & Kunter, 2011) und hängt positiv mit beruflichen Erfolgsindikatoren wie weniger Burnoutsymptomen (Lauermann & König, 2016) und einer höheren Unterrichtsqualität (Voss, Kunter & Baumert, 2011) zusammen. Eine Facette davon ist das Wissen über Diversität (z. B. Voss, Kunina-Habenicht, Hoehne & Kunter, 2015), das besonders im Zuge schulischer Inklusion enorme Wichtigkeit erlangt. Dies ist vor allem auf die zunehmende Beschulung von Schülerinnen und Schülern (SuS) mit sonderpädagogischem Förderbedarf (SPF) in inklusiven Klassen durch Regelschullehrkräfte statt an Förderschulen zurückzuführen (KMK, 2018). Doch Diversität in Klassenzimmern entsteht nicht nur durch die inklusive Beschulung dieser SuS. Aus der Vielzahl an möglichen Definitionen verstehen wir schulische Inklusion als die Anerkennung und Förderung aller SuS (Grosche & Lüke, 2020) und Diversität als gesellschaftliche Vielfalt. Die Entwicklung von Kompetenzen für einen positiven Umgang damit ist somit ein wichtiges Ziel. Diese Kompetenzen sind in den Standards für die Lehrkräftebildung verankert und eine zentrale Aufgabe der universitären Lehramtsausbildung (KMK, 2014) - die damit einhergehende Erfassung des PPK über verschiedene Diversitätsbereiche (im Folgenden Diversitätswissen genannt) ist somit ein wichtiges Forschungsdesiderat. Trotz dessen theoretischer Relevanz (Kracke, 2014; Paju, Räty, Pirttimaa & Kontu, 2016) gibt es aktuell kaum Möglichkeiten, das Wissen über mehrere Diversitätsbereiche zu erfassen. Ziel dieser Studie ist es deshalb, einen Test zum deklarativen Faktenwissen über Diversität in einer Lang- und Kurzform vorzustellen und einer ersten Prüfung der Reliabilität und Validität an drei Stichproben aus angehenden Lehrkräften zu unterziehen. Dieser soll der empirischen Bildungsforschung und der stetigen Weiterentwicklung einer inklusionsorientierten Lehrkräftebildung dienen. Erfassung von Diversitätswissen Sowohl Einstellungen (= persönliche Haltung; de Boer, Pijl & Minnaert, 2011) als auch das PPK sind wichtige Inhalte der Lehrkräftebildung (KMK, 2014), doch Einstellungen zu Inklusion sind bislang deutlich weiter erforscht als das Wissen in diesem Bereich. Es gibt aber erste Ansätze, das Diversitätswissen als Subskala des PPK erfassbar zu machen (für einen Überblick s. Voss et al., 2015): Eine Skala zu individuellen Besonderheiten (z. B. sozioökonomischer Status, Lern-/ Entwicklungsstörungen; Hohenstein, Kleickmann, Zimmermann, Köller & Möller, 2017), die im Rahmen eines Leistungstests zum PPK von Lehramtsstudierenden entwickelt wurde, wurde allerdings aufgrund unzureichender Gütekriterien von Hohenstein et al. (2017) aus den Analysen ausgeschlossen. Auch die in der COACTIV- Studie entwickelte Skala zu Heterogenität (z. B. ADHS, Motivation; Voss et al., 2011) muss für zukünftige Erhebungen weiterentwickelt werden. Die beiden Skalen erfassen zwar objektives Wissen, bilden den spezifischen Bereich Diversität allerdings nur mit wenigen Items und deshalb wenig umfassend ab. Andere Tests fokussieren explizit nur einen Diversitätsaspekt (z. B. Hochbegabung: Heyder, Bergold & Steinmayr, 2018; ADHS: Sciutto, Terjesen & Bender Frank, 2000; Dyslexie: Yin, Joshi & Yan, 2019) oder pädagogisches Wissen zu Diagnose und Intervention (König et al., 2017; Klug, Bruder, Kelava, Spiel & Schmitz, 2013) und spiegeln die aktuellen Anforderungen an das Wissen von Lehrkräften nur in Teilen wider. Weitere Studien erfassen außerdem nur selbsteingeschätztes Wissen (z. B. Paju et al., 2016), welches z.T. nicht oder nur moderat mit dem objektiv erfassten Wissen zusammenhängt (Heyder, Bergold et al., 2018; Schmiedeler, 2013). Konzeptionelle Einordnung des Diversitätswissens Auf Basis der vorliegenden Forschung können erste Annahmen über ein nomologisches Netz (Hartig, Frey & Jude, 2012) rund um das 294 Lisa Tometten, Anke Heyder, Ricarda Steinmayr Diversitätswissen formuliert werden. Eine Grundlage zur Einordnung bietet das COACTIV- Modell (z. B. Baumert & Kunter, 2011; Voss et al., 2015), nach dem formale Lerngelegenheiten einen positiven Einfluss auf das Professionswissen haben. Diese Zusammenhänge werden durch empirische Hinweise aus Lehrkräftestichproben gestützt. So hatten Lehrkräfte für sonderpädagogische Förderung ein höheres Wissen in diesem Bereich als Lehrkräfte anderer Lehrämter (Sousa, Dias & Cadime, 2017). Darüber hinaus korrelierte das Wissen über ADHS positiv mit den Vorerfahrungen mit Kindern mit ADHS (Sciutto et al., 2000). Gleichzeitig korrelierte die Häufigkeit des Kontakts zu Hochbegabten zwar mit dem selbsteingeschätzten, nicht aber mit dem objektiven Wissen über Hochbegabung (Heyder, Bergold et al., 2018). Auch die Abiturnote, ein aggregiertes Maß von Schulleistung und bedeutender Prädiktor von Studienerfolg (s. Wolf, 2017), kann im Rahmen der akademischen Grundbildung im COACTIV-Modell verortet werden (Voss et al., 2015). Erwartungsgemäß hing eine bessere Note mit einem höheren PPK allgemein (Hohenstein et al., 2017) und einem höheren PPK speziell für inklusiven Unterricht (König et al., 2017) von Lehramtsstudierenden zusammen. Einstellungen und Selbstwirksamkeitserwartungen (SWE) sind zwei weitere Variablen, die für die konzeptionelle Einordnung des Diversitätswissens bedeutend sind: Das Wissen von Lehrkräften über ADHS hing positiv mit den Einstellungen zum Unterricht von SuS mit ADHS zusammen (Ghanizadeh, Bahredar & Moeini, 2006). Zudem hing das selbsteingeschätzte Wissen über das Unterrichten von SuS mit SPF positiv mit den Einstellungen zum inklusiven Unterricht dieser SuS zusammen (Batsiou, Bebetsos, Panteli & Antoniou, 2008). Auf der anderen Seite korrelierte die Einstellung zur Förderung Hochbegabter zwar mit dem selbsteingeschätzten, nicht aber mit dem objektiven Wissen über Hochbegabung (Heyder, Bergold et al., 2018). Das PPK hing nicht mit den allgemeinen, aber mit den unterrichtsbezogenen SWE von Lehrkräften zusammen (Lauermann & König, 2016). Auch das bereichsspezifische Wissen über ADHS korrelierte positiv mit den SWE im Unterricht dieser SuS (Sciutto et al., 2000). Zusammenfassend deuten die Studien trotz unterschiedlicher Stichproben, Messinstrumente und inhaltlicher Schwerpunkte auf positive Zusammenhänge mit Lerngelegenheiten, Einstellungen und SWE hin. Entwicklung des vorliegenden Wissenstests Das PPK ist in Modellen zur Kompetenz von Lehrkräften verankert (z. B. Baumert & Kunter, 2011). In Bezug auf das Diversitätswissen gibt es bislang jedoch wenige Modelle, aus denen einzelne Diversitätsfacetten abgeleitet werden können (für einen Überblick über deduktiv und induktiv gewonnene Kategorien s. Greiner, Sommer, Czempiel & Kracke, 2019). Für den vorliegenden Wissenstest wurden diese deshalb auf der Basis von bildungswissenschaftlichen Standards (KMK, 2014), einer Expertenbefragung zur Bedeutsamkeit dieser Inhalte in der Lehrkräftebildung (Kunina-Habenicht et al., 2012), Studienergebnissen zu Inklusion (z. B. de Boer et al., 2011) und Prävalenzraten der SPF (KMK, 2018) operational hergeleitet, wie es bei Leistungstests gängig ist (Hartig et al., 2012). Die Auswahl der Diversitätsaspekte (1) Förderschwerpunkt emotionale und soziale Entwicklung (ESE), (2) Förderschwerpunkt Lernen (LE), (3) Teilleistungsstörungen (TLS), (4) Geschlecht (GES) und (5) kognitive Hochbegabung (HB) ist demnach als begründet, nicht jedoch als vollständig anzusehen, weshalb eine langfristige Ergänzung der Skalen wichtig ist (für Details zur Testentwicklung s. Heyder, Vaskova, Hußmann & Steinmayr, 2018). Die Subskalen können abhängig vom Forschungsgegenstand einzeln genutzt werden und ergänzen inhaltlich den Test von König et al. (2017) mit den Dimensionen Diagnose und Intervention im inklusiven Unterricht. Um zu gewährleisten, dass die Items inhaltsvalide und Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 295 repräsentativ für die Menge möglicher Aufgaben sind, arbeiteten im Rahmen des Projekts DoProfiL (Dortmunder Profil für inklusionsorientierte Lehrer/ -innenbildung) Wissenschaftler/ -innen aus der pädagogischen Psychologie und Sonderpädagogik in Kooperation mit an inklusiven Schulen tätigen Lehrkräften an der Itementwicklung. In bestehenden Wissenstests für Lehrkräfte wurden sowohl unterschiedliche Item- (Vignetten: Klug et al., 2013; richtige und falsche Aussagen: Yin et al., 2019) als auch Antwortformate (offen: Voss et al., 2011; richtig-falsch: Ghanizadeh et al., 2006; Multiple Choice: König & Blömeke, 2010) genutzt. Die Antwortoptionen wurden zum Teil um die Kategorie „weiß nicht“ ergänzt (z. B. Sciutto et al., 2000). Der hier evaluierte Test nutzt eindeutig richtige und falsche Aussagen als Items. Das Richtigfalsch-Antwortformat ermöglicht eine objektive, ökonomischere Erfassung und Auswertung von deklarativem Faktenwissen als Vignetten und offene Antworten und ist vergleichbar reliabel wie das Multiple-Choice-Format (Kreiter & Frisbie, 1989; Tasdemir, 2010). Um die Ratewahrscheinlichkeit zu verringern und keine Entscheidung zu erzwingen, wurde die Kategorie „weiß nicht“ hinzugefügt (Sciutto et al., 2000). Dies ermöglicht eine Differenzierung zwischen inkorrekten Antworten (= Fehlannahmen) und mangelndem Wissen, wie sie mit anderen Tests bereits vorgenommen wurde (z. B. Schmiedeler, 2013). In der vorliegenden Evaluation haben wir analog zu einigen der oben genannten Tests (z. B. Yin et al., 2019) die korrekten Antworten als Wissen mit 1 klassifiziert und alle Fehlannahmen und mangelndes Wissen mit 0. Der Mittelwert der Items wurde als Skalenbzw. Gesamtwert genutzt. Die hier vorgestellte Langversion (DiWi) besteht aus 142 Items (26 - 35 pro Diversitätsbereich). Die Kurzversion (DiWi-K) besteht aus 36 Items mit je 6 - 8 pro Bereich (für Beispielitems s. Tab. 1). Zur Zielgruppe gehören (angehende) Lehrkräfte verschiedener Fächer und Schulformen. An Regelschulen sehen wir einen hohen Bedarf an Wissensinhalten in Bezug auf inklusiven Unterricht, sodass der Test nicht nur für Sonderpädagog/ -innen eingesetzt werden sollte. Diversitätsbereich Item (korrekte Antwort) ESE - Angst ist behandlungsbedürftig, wenn sie die Entwicklung und den Alltag des Kindes oder der/ des Jugendlichen beeinträchtigt. ( richtig) - Kinder mit sonderpädagogischem Unterstützungsbedarf im Bereich ESE haben mindestens eine diagnostizierte psychische Störung. ( falsch) LE - Mit sinkender sozialer Schichtzugehörigkeit steigt die Wahrscheinlichkeit einer Lernbeeinträchtigung. ( richtig) - Eine Lernbehinderung hat man seine ganze Schulzeit lang. ( falsch) TLS - Bei der Diagnostik einer Teilleistungsstörung muss ausgeschlossen werden, dass eine unzureichende Beschulung/ Förderung stattgefunden hat. ( richtig) - Schriftsprachliche Schwierigkeiten verschwinden in den meisten Fällen im Laufe des Jugendalters von alleine wieder. ( falsch) GES - Tests der allgemeinen Intelligenz zeigen keine bedeutenden Unterschiede zwischen Jungen und Mädchen auf. ( richtig) - Jungen zeigen bessere Leistungen, wenn sie von einem Lehrer unterrichtet werden als von einer Lehrerin. ( falsch) HB - Kognitive Hochbegabung im engeren Sinne wird durch eine weit überdurchschnittliche Intelligenz definiert. ( richtig) - Wenn jemand viele Einsen und Zweien bekommt, ist er oder sie in der Regel kognitiv hochbegabt. ( falsch) Tab. 1: Beispielitems aus den fünf Diversitätsbereichen. 296 Lisa Tometten, Anke Heyder, Ricarda Steinmayr Studienüberblick Die hier präsentierten Studien untersuchen die Erfassung von deklarativem Faktenwissen über Diversität von Lehramtsstudierenden mit dem DiWi und DiWi-K. Es handelt sich dabei um die erste Evaluation der Tests, der nur eine Publikation zur Testentwicklung voran geht (Heyder, Vaskova et al., 2018). Studie 1 dient der Evaluation des DiWi. Die faktorielle Validität kann als Voraussetzung für die Konstruktvalidität gesehen werden (Hartig et al., 2012). Es wird angenommen, dass sich die fünf inhaltlichen Dimensionen des Tests auch faktoriell abbilden lassen. Analog zu anderen Wissenstests (z. B. Allgemeinwissen im PSB-R 6-13; Horn, Lukesch, Mayrhofer & Kormann, 2004; BilWiss-2.0-Test zum bildungswissenschaftlichen Wissen von (angehenden) Lehrkräften; Kunina-Habenicht et al., 2020) nehmen wir an, dass es neben den Subfaktoren auch einen übergeordneten Wissensfaktor gibt, der die gemeinsame Varianz der inhaltlich unterschiedlichen Skalen abbilden kann. Wird die erwartete Zusammenhangsstruktur der Items gestützt, können empirische Befunde gesammelt werden, um die Validität der Interpretation der Testergebnisse in den Subskalen und im Gesamttest zu untersuchen (vgl. auch Kunina-Habenicht et al., 2020). Als konvergente Konstrukte werden die Abiturnote, das selbsteingeschätzte Wissen und die Anzahl der in Lehrveranstaltungen behandelten Diversitätsbereiche herangezogen. Da nicht alle Konstrukte bereichsspezifisch vorlagen, wird zunächst der Fokus auf den Gesamtwert gelegt und Validitätshinweise für die Subskalen sind Bestandteil zukünftiger Forschung. Des Weiteren werden Studierende des Lehramts für sonderpädagogische Förderung mit Studierenden anderer Lehrämter in ihrem Wissen verglichen. Auf Grundlage von Studie 1 wird eine ökonomische Kurzversion (DiWi-K) entwickelt, die in Studie 2 und 3 weiter evaluiert wird. Ergänzend zu Studie 1 werden die Vorerfahrungen mit Diversität, die Einstellungen zu Inklusion, die SWE in der Gestaltung inklusiven Unterrichts und das pädagogische Unterrichtswissen als konvergente Konstrukte herangezogen. Zusätzlich werden Bachelor- und Master- Studierende miteinander verglichen. Auf Grundlage der standardisierten Faktorladungen des hierarchischen 5-Faktoren-Modells mit Generalfaktor in Studie 1 und 2 wird McDonalds Omega ( ω ) als Reliabilitätsschätzer berechnet (Hayes & Coutts, 2020). Omega gibt in diesem Fall Auskunft über die Messgenauigkeit, mit der ein Gesamtbzw. Skalenwert die Mischung aus dem übergeordneten Konstrukt (= Generalfaktor) und den spezifischen Konstrukten (= Faktoren erster Ordnung), nicht aber ausschließlich das spezifische Konstrukt, abbilden kann (Brunner, Nagy & Wilhelm, 2012). Da es sich beim Wissen um ein theoretisch heterogenes Konstrukt handelt, wurde darüber hinaus in Studie 3 die Retest-Reliabilität (r tt ) über einen Zeitraum von drei Monaten als weiteres Qualitätsmaß berechnet. Die Analysestichproben bestehen aus den Teilnehmenden, die mindestens 80 % der Testitems bearbeitet haben. Dieses Kriterium wurde von 46 Personen in Studie 1 und 54 Personen in Studie 2 nicht erreicht. Studie 1 Methode Stichprobe Die Analysestichprobe bestand aus 395 Lehramtsstudierenden verschiedener Fächer der TU Dortmund (21.5 % Lehramt für sonderpädagogische Förderung). Es handelte sich um 284 Studentinnen und 98 Studenten (13 Personen o. A. zum Geschlecht). 97.2 % waren 18-32 Jahre alt (M= 21.45, SD= 3.10) und 2.8% nutzten die Randkategorie „älter als 32“, die der Anonymität diente. Die Daten wurden im April 2017 während einer Vorlesungssitzung erhoben, die Teil aller Bachelor-Lehramtsstudiengänge der TU Dortmund ist. Messinstrumente Diversitätswissen im Kontext schulischer Inklusion Der DiWi umfasst 142 Items aus den Bereichen Förderschwerpunkt ESE (35 Items) und Lernen (28 Items), Teilleistungsstörungen (27 Items), Geschlecht (26 Items) und kognitive Hochbegabung (26 Items). Die Aussagen wurden mit einem Richtig-falsch-weiß-nicht- Antwortformat beurteilt. Für die statistischen Analysen wurden die korrekten Antworten als Wissen Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 297 klassifiziert (0 = inkorrekt/ weiß nicht, 1 = korrekt). Um darüber hinaus einen Überblick über die Fehlannahmen (0 = korrekt/ weiß nicht, 1 = inkorrekt) und das Nicht-Wissen (0 = korrekt/ inkorrekt, 1 = weiß nicht) zu geben, wurden diese Werte ebenfalls gebildet (s. Tab. 2), aber nicht für die weiteren Analysen verwendet. Abiturnote Die Abiturnote wurde im Selbstbericht erfasst. Niedrige Werte stehen für eine bessere Note. Selbsteingeschätztes Wissen Die Studierenden schätzten ihr Wissen in jedem Bereich auf einer 5-stufigen Skala (1 = sehr gering, 5 = sehr hoch) ein. Der Mittelwert der fünf Items wurde als Indikator für das selbsteingeschätzte Wissen genutzt. Diversität in der Lehre Die Studierenden gaben an, ob der jeweilige Diversitätsaspekt in bisherigen Lehrveranstaltungen bereits behandelt wurde (0 = nein, 1 = ja). Der Mittelwert der fünf Items wurde als Indikator für die Diversität in bisherigen Lehrveranstaltungen genutzt. Analysen Die Analysen wurden mit den Statistikprogrammen IBM SPSS Statistics 26 (Studie 1 - 3: Korrelationen und Varianzanalysen) und Mplus 6.12 (Studie 1 & 2: Konfirmatorische Faktorenanalysen) durchgeführt. Abhängig vom Skalenniveau wurden zur Parameterschätzung die ML- (Maximum Likelihood für intervallskalierte Daten) und WLSMV-Schätzung (Weighted Least Square Mean and Variance für kategoriale Daten) genutzt. Als Indikatoren der Modellpassung wurden der χ 2 -Wert, der Confirmatory Fit Index (CFI), der Root Mean Square Error of Approximation (RMSEA) und der Standardized Root Mean Square Residual (SRMR) herangezogen. Nach Bühner (2011) zeigen folgende Werte eine gute Modellpassung an: CFI ≥ .95, RMSEA < .06, SRMR < .11). Ergebnisse und Diskussion Deskriptive Statistiken Die Studierenden beantworteten 30 % der Items korrekt (= Wissen), 9 % inkorrekt (= Fehlannahmen) und kreuzten bei 62 % die „Weiß-nicht“- Option an (= Nicht-Wissen; s. Tab. 2). Die Subskalen korrelierten positiv miteinander und mit dem Gesamtwert (s. Tab. 3). Langversion (DiWi) Kurzversion (DiWi-K) Studie 1 (N = 394 -395) Studie 1 (N = 394 -395) Studie 2 (N = 461 -462) Studie 3 (N = 113) T1 T2 M ( SD) M ( SD) M ( SD) M ( SD) M ( SD) 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3 ESE LE TLS GES HB .36 (.23) .31 (.23) .24 (.22) .28 (.18) .25 (.19) .07 (.08) .07 (.09) .08 (.11) .09 (.19) .10 (.11) .57 (.28) .62 (.28) .68 (.29) .62 (.25) .65 (.26) .34 (.25) .33 (.28) .23 (.24) .24 (.21) .36 (.25) .08 (.12) .09 (.13) .09 (.14) .09 (.13) .12 (.15) .58 (.30) .58 (.34) .68 (.31) .62 (.29) .51 (.32) .42 (.29) .34 (.27) .38 (.28) .33 (.23) .40 (.27) .08 (.12) .11 (.14) .09 (.12) .09 (.14) .14 (.16) .50 (.33) .55 (.34) .53 (.33) .53 (.31) .46 (.35) .45 (.26) .43 (.29) .43 (.24) .38 (.21) .48 (.20) .10 (.12) .15 (.14) .13 (.13) .12 (.14) .19 (.18) .45 (.30) .42 (.32) .44 (.27) .50 (.26) .34 (.27) .46 (.24) .42 (.26) .44 (.25) .47 (.24) .59 (.24) .12 (.13) .16 (.15) .14 (.13) .10 (.11) .17 (.14) .41 (.28) .41 (.30) .41 (.28) .43 (.27) .23 (.27) Gesamt .29 (.17) .08 (.08) .62 (.22) .30 (.18) .09 (.09) .60 (.24) .37 (.21) .10 (.08) .52 (.27) .43 (.17) .13 (.09) .43 (.21) .47 (.18) .14 (.07) .38 (.22) Tab. 2: Mittelwerte (M) und Standardabweichungen (SD) des Wissens, der Fehlannahmen und des Nicht-Wissens in Studie 1, 2 und 3. Anmerkung: 1 = Wissen, 2 = Fehlannahmen, 3 = Nicht-Wissen. Die Mittelwerte geben den prozentualen Anteil der korrekten/ inkorrekten/ Weiß-nicht-Antworten pro Skala an. 298 Lisa Tometten, Anke Heyder, Ricarda Steinmayr Faktorielle Validität und Reliabilität Zur Überprüfung der Faktorstruktur wurden ein 1-Faktor-Modell und ein hierarchisches 5-Faktoren-Modell mit Generalfaktor anhand der Diversitätsbereiche aufgestellt (s. Abb. 1). Um ein angemessenes Verhältnis von zu schätzenden Parametern zu Versuchspersonen zu erreichen (Bentler & Chou, 1987), wurden für die Modellierung pro Bereich 7 - 10 Item-Parcels bestehend aus je 3 - 4 Items anhand ihrer Faktorladungen gebildet. 1 Das 5-Faktoren-Modell mit Generalfaktor ( χ 2 [735] = 1040.86, p < .001, CFI = .95, RMSEA = .03, SRMR = .05) zeigte im Gegensatz zum 1-Faktor-Modell ( χ 2 [740] = 2841.48, p < .001, CFI = .67, RMSEA = .09, SRMR = .09) eine gute Modellpassung. Auch nach den Informationskriterien AIC und BIC ist das 5-Faktoren-Modell mit Generalfaktor (AIC = -2192.14, BIC = -1698.97) dem 1-Faktor-Modell (AIC = -103.73, BIC = 369.72) vorzuziehen. McDonalds Omega ist für die Subskalen und den Gesamttest im Modell mit Item-Parcels sehr hoch ( ω ≥ .99). Um darüber hinaus Werte auf Grundlage der 1 Als Voraussetzung wurde vorab die Eindimensionalität der einzelnen Subskalen mittels CFA überprüft und nachgewiesen: Dazu wurde pro Subskala eine CFA gerechnet, in der alle einzelnen Items auf dem Subskalenfaktor luden. Die Modelle zeigten einen guten Modelfit (ESE: χ 2 [560]=1046.96, p<.001, CFI=.95, RMSEA=.05; LE: χ 2 [350] = 622.45, p < .001, CFI = .96, RMSEA = .04; TLS: χ 2 [324]= 716.39, p < .001, CFI= .94, RMSEA = .06; GES: χ 2 [299]=531.93, p < .001, CFI= .89, RMSEA= .04; HB: χ 2 [299]= 612.26, p < .001, CFI= .91, RMSEA = .05). Darüber hinaus wurden alternative Parcelbildungen getestet. Auch diese Modelle wiesen einen vergleichbaren Modelfit auf. Skalen 1 2 3 4 5 6 1 ESE 2 LE 3 TLS 4 GES 5 HB - .57 .42 .48 .48 .46 - .57 .60 .53 .31 .44 - .60 .64 .40 .49 .51 - .62 .30 .37 .53 .50 - .68 .77 .76 .77 .69 6 Gesamt .79 .83 .79 .79 .79 - Tab. 3: Bivariate Korrelationen der Subskalen/ des Gesamttests (Wissen) für beide Versionen in Studie 1. Anmerkungen: N = 394 - 395. Die Werte der Langversion sind unterhalb und die Werte der Kurzversion oberhalb der Diagonalen abgebildet. Alle Korrelationen sind signifikant (p < .001). ESE 1 ESE 2 ESE … LE 1 LE 2 LE … TLS 1 TLS 2 TLS … GES 1 GES 2 GES … HB 1 HB 2 HB … Wissen über ESE Wissen über LE Wissen über TLS Wissen über GES Wissen über HB Diversitätswissen .77 / .98 .65 / .86 .81 / .83 .84 / .83 .86 / .85 Abb. 1: Konzeptionelle Darstellung des hierarchischen 5-Faktoren-Modells mit standardisierten Faktorladungen der 5 Subskalen auf dem Diversitätswissen (auf Basis der Item-Parcels [Studie 1]/ Items [Studie 2]). Es sind exemplarisch nur die ersten Item-Parcels/ Items dargestellt. Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 299 Items zu erhalten, wurde McDonalds Omega zusätzlich für die CFAs zur Prüfung der Eindimensionalität der Subskalen berechnet (siehe Fußnote 1). Die Werte lagen in einem sehr guten Bereich (ESE: ω = .97, LE: ω = .96, TLS: ω = .96, GES: ω = .92, HB: ω = .94). Die Fit-Indizes des hierarchischen 5-Faktoren-Modells mit Generalfaktor sprechen dafür, dass die Faktorladungen inhaltlich interpretierbar sind. Die Ladungen der Parcels auf den Diversitätsbereichen waren durchweg signifikant (p < .001) und zufriedenstellend (ESE .70 - .80, LE .70 - .78, TLS .63 - .77, GES .55 - .70, HB .50 - .74). Die Ladungen der fünf Diversitätsbereiche auf dem allgemeinen Diversitätsfaktor lagen bei .65 - .86 (p < .001; Abb. 1). Die Fit-Indizes und Faktorladungen sprechen dafür, dass die Item-Parcels durch fünf inhaltliche Faktoren und einen Generalfaktor adäquat abgebildet werden können. Konstruktvalidität Um Hinweise auf die Validität der Interpretation der Testwerte zu erlangen, wurden Zusammenhänge zwischen dem Ergebnis im Wissenstest (= Mittelwerte auf Basis der Einzelitems) und weiteren Konstrukten herangezogen 2 . Die Korrelation mit der Abiturnote (r = -.10, p < .05) zeigte, dass Studierende mit besseren Abschlussnoten mehr wussten, mit kleinem Effekt. Das objektive Wissen korrelierte zudem positiv mit dem selbsteingeschätzten Wissen (r = .33, p < .001). Je mehr Diversitätsaspekte aus Sicht der Studierenden in Lehrveranstaltungen bereits behandelt wurden, desto größer war ihr Wissen (r = .30, p < .001). Der Gruppenvergleich ergab außerdem, dass Studierende des Lehramts für sonderpädagogische Förderung (M = .37, SD = .15) mehr wussten als Studierende anderer Lehrämter (M = .27, SD = .17), mit mittlerem Effekt (F [1,393] = 27.75, p < .001, η ² part = .06). Das mit dem DiWi gemessene Wissen hing erwartungskonform signifikant mit allen konvergenten Konstrukten zusammen. Um das nomologische Netz an Konstrukten rund um das Diversitätswissen weiter auszubauen, sind weitere Validitätshinweise nötig. Dazu wurde in Studie 2 und 3 die Kurzversion verwendet, die im Folgenden vorgestellt wird. Kurzversion DiWi-K Der DiWi-K wurde auf Grundlage inhaltlicher Überlegungen und psychometrischer Itemkennwerte der Langversion entwickelt. Drei Expertinnen aus Lehrkräftebildung und Schulpraxis bestimmten unabhängig voneinander die inhaltlich wichtigsten Items, von denen diejenigen mit mindestens zwei Nennungen und einer Trennschärfe von > .20 ausgewählt und bei Bedarf geringfügig sprachlich optimiert wurden. Das Wissen, die Fehlannahmen und das Nicht-Wissen waren ähnlich verteilt wie in der Langversion (s. Tab. 2). Innerhalb des DiWi-K korrelierten die Subskalen positiv miteinander und mit dem Gesamtwert (s. Tab. 3). Außerdem korrelierten die Subskalen und der Gesamtwert des DiWi-K mit der Langversion (ESE r = .85; LE r = .89; TLS r = .89; GES r = .83; HB r = .84; Gesamt r = .95; alle p < .001). Der Test wird in den folgenden Studien weiter evaluiert. 2 Die Analysen der Studien 1 - 3 wurden zusätzlich mit einem itemweisen Ausschluss der Weiß-nicht-Antworten des Wissenstests durchgeführt. Die Mittelwerte geben in diesem Fall den prozentualen Anteil der korrekten Antworten an den Items an, bei denen die Studierenden „richtig“ oder „falsch“ angekreuzt haben (ohne Berücksichtigung von „Weiß-nicht“ und fehlenden Antworten). Die Ergebnisse dieser Analysen deuteten in dieselbe Richtung wie die hier berichteten Ergebnisse. Eine Ausnahme bildete ein negativer Zusammenhang zum selbsteingeschätzten Wissen. Dieser ist plausibel, da bei diesem Vorgehen niedrige Werte im Wissenstest dafür sprechen, dass die Studierenden weniger wussten, als sie zu wissen glaubten. Sie überschätzten sich demnach und wer sich überschätzt, gibt tendenziell ein höheres selbsteingeschätztes Wissen an. Die detaillierten Ergebnisse werden hier nicht berichtet, da die Originalauswertungsstrategie die in der Testung dargelegte Instruktion und somit das tatsächliche Verhalten der Proband/ -innen in der Erhebungssituation mit Weiß-nicht-Option berücksichtigte. Es ist davon auszugehen, dass ihr Antwortverhalten bei einem anderen Antwortformat ohne die Weiß-nicht- Kategorie anders gewesen wäre. Eine nachträgliche Umwandlung des Antwortformats durch eine alternative Auswertungsstrategie ist nicht möglich. Alternative Antwortformate werden deshalb abschließend diskutiert. Bei Interesse an den detaillierten Ergebnissen kann die Erstautorin kontaktiert werden. 300 Lisa Tometten, Anke Heyder, Ricarda Steinmayr Studie 2 Methode Stichprobe Die Analysestichprobe (N = 462) bestand aus 332 Studentinnen und 95 Studenten (35 Personen o. A. zum Geschlecht) im Alter von 18 bis 41 Jahren (M = 23.40, SD = 3.90). Es handelte sich um Lehramtsstudierende der TU Dortmund (61 % im Bachelor, 39 % im Master; 25.1 % mit Lehramt für sonderpädagogische Förderung). Die Daten wurden im Rahmen einer Projektevaluation in 8 Lehrveranstaltungen zu Beginn des Wintersemesters 2017 erhoben. Messinstrumente Diversitätswissen im Kontext schulischer Inklusion Der DiWi-K umfasst 36 Items aus den Bereichen Förderschwerpunkt ESE (7 Items) und LE (7 Items), TLS (8 Items), GES (8 Items) und HB (6 Items). Das Antwortformat war äquivalent zu dem in Studie 1. Aufgrund von unbefriedigenden Itemkennwerten wurde ein Item aus dem Bereich Geschlecht aus den Analysen ausgeschlossen und für Studie 3 modifiziert. Das selbsteingeschätzte Wissen und die Diversität in der Lehre wurden wie in Studie 1 erfasst. Vorerfahrungen mit Diversität Es wurden der regelmäßige persönliche Kontakt und die passive und aktive Unterrichtserfahrung mit Menschen mit emotionalen/ sozialen und Lernbeeinträchtigungen, Teilleistungsstörungen und kognitiver Hochbegabung erfasst (0 = nein, 1 = ja). Der Mittelwert der vier Items wurde als Indikator für die Vorerfahrungen genutzt. Einstellungen zum inklusiven Schulsystem Die Einstellungen wurden mit der Professionsunabhängigen Einstellungsskala zum Inklusiven Schulsystem (Lüke & Grosche, 2018) erfasst. Die Zustimmung zu 14 Items (z. B. „Ein inklusives Schulsystem entspricht meinen moralischen Werten“) erfolgte auf einer 4-stufigen Skala (1 = stimme gar nicht zu, 4 = stimme voll zu). Es wurden die drei Subskalen Emotion ( α = .84), Verhaltensintention ( α = .80) und Kognition ( α = .90) gebildet. SWE in der Gestaltung inklusiven Unterrichts Die SWE wurden mit vier leicht angepassten Items ( α = .77) aus den Kurzskalen zur Inklusiven Einstellung und Selbstwirksamkeit von Lehrpersonen (Bosse & Spörer, 2014; z. B. „Ich bin mir sicher, dass ich auch bei großen Leistungsunterschieden für jedes Kind ein angemessenes Lernangebot bereithalten kann“) erfasst. Die Zustimmung wurde auf einer 4-stufigen Skala (1 = lehne voll ab, 4 = stimme voll zu) erhoben. Ergebnisse und Diskussion Faktorielle Validität und Reliabilität Wie in Studie 1 zeigte sich ein guter Modelfit für das hierarchische 5-Faktoren-Modell mit Generalfaktor, diesmal ohne Item-Parcels ( χ 2 [555] = 841.50, p<.001, CFI=.95, RMSEA=.03, SRMR= .08). Die Itemladungen waren durchweg signifikant (p < .001; ESE .60 - .76, LE .44 - .69, TLS .46 - .84, GES .50 - .70, HB .32 - .83). Die Ladungen der fünf Diversitätsbereiche auf den allgemeinen Diversitätsfaktor lagen bei .77 - .98 (p < .001; Abb. 1). McDonalds Omega ist als gut bis sehr gut zu bewerten (ESE: ω = .86, LE: ω = .81, TLS: ω = .85, GES: ω = .80, HB: ω = .82, Gesamt: ω = .95). Konstruktvalidität Das objektive Wissen korrelierte positiv mit dem selbsteingeschätzten Wissen der Studierenden (r = .25, p < .001) und der Anzahl der in der Lehre behandelten Diversitätsaspekte (r = .39, p < .001). Auch alle weiteren Konstrukte korrelierten positiv mit dem Wissen im DiWi-K (Vorerfahrungen r = .31; Einstellungen zu Inklusion: Emotion r = .23, Verhaltensintention r = .24, Kognition r = .18; SWE in der Gestaltung inklusiven Unterrichts r = .26; alle p < .001). Der Gruppenvergleich bestätigte, dass Studierende des Lehramts für sonderpädagogische Förderung (M = 18.83, SD = 6.96) mehr wussten als Studierende anderer Lehrämter (M = 10.97, SD=6.04), mit großem Effekt (F[1,460]=123.74, p < .001, η ² part = .21). Außerdem hatten Master- Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 301 Studierende (M = 14.44, SD = 7.38) ein höheres Wissen als Bachelor-Studierende (M = 12.19, SD = 7.59), mit kleinem Effekt (F [1,462] = 9.95, p < .01, η ² part = .02). Der DiWi-K hing erwartungskonform mit allen konvergenten Konstrukten zusammen, mit mittleren Effektstärken. Die Befunde, dass Studierende des Lehramts für sonderpädagogische Förderung und solche im Master mehr wussten als ihre Vergleichsgruppen, stützen die Annahme, dass Lerngelegenheiten einen Einfluss auf das Diversitätswissen der Studierenden haben. Studie 3 Methode Stichprobe Die Analysestichprobe (N = 113) bestand aus 87 Studentinnen und 22 Studenten (4 Personen o. A. zum Geschlecht) im Alter von 18 bis 35 Jahren (M = 21.37, SD = 3.49). Es handelte sich um Lehramtsstudierende der TU Dortmund (29.2 % mit Lehramt für sonderpädagogische Förderung). Die Daten wurden im April (T1) und Juni 2019 (T2) während zwei Sitzungen einer Vorlesung erhoben, die Bestandteil aller Bachelor-Lehramtsstudiengänge ist. Messinstrumente Das Diversitätswissen wurde zu T1 und T2 analog zu Studie 2 erhoben. Pädagogisches Unterrichtswissen Das Wissen wurde zu T1 mit einem Kurztest zur ersten Phase der Lehrkräfteausbildung (König & Blömeke, 2010) erfasst. Aus Gründen der Ökonomie wurden nur 14 der 18 Items genutzt ( α = .83). Ergebnisse und Diskussion Reliabilität Die Retest-Reliabilität über drei Monate ergab mittlere Zusammenhänge zwischen den beiden Messzeitpunkten (r tt = .55). Da zwischen den Erhebungen eine Vorlesungssitzung zum Thema Hochbegabung lag, wurde diese Skala aus der Berechnung ausgeschlossen. Bei Hinzunahme dieser Skala ergab sich ein etwas niedrigerer Zusammenhang (r tt = .51). Auch für die einzelnen Subskalen mit Ausnahme der Skala Hochbegabung ergaben sich vergleichbare Werte (ESE: r tt = .52, LE: r tt = .54, TLS: r tt = .40, GES: r tt = .53, HB: r tt = .28). Konstruktvalidität Als weiterer Hinweis auf die Validität wurde das pädagogische Unterrichtswissen als konvergentes Konstrukt herangezogen. Das Ergebnis im DiWi-K korrelierte wie erwartet signifikant positiv mit diesem Wissen (r = .46, p < .001). Gesamtdiskussion Trotz der theoretischen Relevanz des Diversitätswissens von (angehenden) Lehrkräften (Kracke, 2014; Paju et al., 2016; Voss et al., 2015) gab es im deutschen Sprachraum kaum geeignete Messinstrumente, die verschiedene Diversitätsbereiche abbilden. Ziel dieser Studie war es deshalb einen entsprechenden Test vorzustellen und in drei Studien zu evaluieren. Da das hierarchische 5-Faktoren-Modell mit Generalfaktor in Studie 1 und 2 eine gute Modellpassung aufwies, ist anzunehmen, dass der Test geeignet für die Erfassung der einzelnen Diversitätsbereiche ist, die Bildung eines Gesamtwerts ist ebenso möglich. Der Test ist aufgrund der theoretischen Heterogenität des Konstrukts vor allem für gruppendiagnostische Zwecke geeignet. McDonalds Omega als Indikator für die Messgenauigkeit wies hohe bis sehr hohe Werte auf, sodass eine individualdiagnostische Verwendung des Tests darüber hinaus in Zukunft denkbar ist. Das ergänzende Maß der Retest-Reliabilität lag bei .55, was die Bedeutung individueller Lerngelegenheiten unterstreicht: Zwischen den beiden Messzeitpunkten besuchten die Studierenden andere Lehrveranstaltungen, in denen sie auch Inhalte des Tests gelernt haben könnten. Lerneffekte können bei Leistungstests zu individuell un- 302 Lisa Tometten, Anke Heyder, Ricarda Steinmayr terschiedlichen Veränderungen in den wahren Werten führen, was wiederum die Retest- Reliabilität senkt und somit die tatsächliche Reliabilität unterschätzt (Schermelleh-Engel & Werner, 2012). Die Ergebnisse von Studie 3 sprechen dafür, dass das Diversitätswissen ein veränderbares Konstrukt ist, das dennoch eine gewisse Stabilität aufweist. Eine Überprüfung der Retest-Reliabilität über einen kürzeren Zeitraum (z. B. eine Woche) ist zukünftig nötig, um die Stabilität des Konstrukts unabhängig von den Lerngelegenheiten der Studierenden abbilden zu können. Darüber hinaus wurden erste Hinweise auf ein nomologisches Netz rund um das Diversitätswissen in Form von konvergenten Konstrukten gewonnen. Wie in vorherigen Studien zu Aspekten des PPK korrelierte das Diversitätswissen mit der Abiturnote (z. B. Hohenstein et al., 2017), den Einstellungen zu Inklusion (z. B. Ghanizadeh et al., 2006) und den SWE in der Gestaltung inklusiven Unterrichts (z. B. Lauermann & König, 2016). Es handelte sich insgesamt um kleine Effekte. Im Gegensatz zu Heyder, Bergold et al. (2018) korrelierten das objektive und selbsteingeschätzte Wissen miteinander, allerdings auch nur mit kleinen bis mittleren Effekten. Zu den Vorerfahrungen und den Diversitätsaspekten in bisherigen Lehrveranstaltungen lagen wie erwartet mittlere Zusammenhänge vor. Diese sprechen dafür, dass formale Lerngelegenheiten mit dem Erwerb von Diversitätswissen zusammenhängen. In Einklang damit wussten Studierende des Lehramts für sonderpädagogische Förderung mehr als Studierende anderer Lehrämter und Master-Studierende mehr als Bachelor-Studierende. Am höchsten korrelierte das Diversitätswissen mit dem pädagogischen Unterrichtswissen (König & Blömeke, 2010), was die Verortung des Diversitätswissens im PPK und seine Relevanz für die praktische Lehrtätigkeit unterstreicht. Aufgrund der relativ kleinen Substichproben aus Studierenden des Lehramts für sonderpädagogische Förderung konnte keine Messinvarianz des Faktormodells über die Gruppen hinweg sichergestellt werden. Dies bedeutet, dass die Werte in den Gruppen unter Umständen unterschiedlich interpretiert werden müssen (Putnick & Bornstein, 2016). Eine Prüfung der Annahme ist in einer größeren Stichprobe unbedingt notwendig. Durch das gewählte Antwortformat können Verzerrungen (z. B. durch unterschiedlich gute Fähigkeiten zur Selbsteinschätzung) nicht gänzlich ausgeschlossen werden. Darüber hinaus gab es einen hohen Anteil an Weiß-nicht-Antworten von 34 - 68 %, welcher sich möglicherweise dadurch erklären lässt, dass die Stichproben größtenteils aus Studierenden der ersten Fachsemester bestanden, die ihr Wissen eher zurückhaltend einschätzten. Der Anteil der Weiß-nicht- Antworten der Master-Studierenden in Studie 2 lag dem gegenüber bei maximal 50 %. Differenziertere Einblicke ermöglicht die Verwendung anderer Antwortformate inklusive einer Einschätzung der Antwortsicherheit (Hasan, Bagayoko & Kelley, 1999) in zukünftigen Studien. Darüber hinaus sind weitere Hinweise auf die Validität des Gesamttests und der Subskalen wünschenswert. Da sich Universitäten hinsichtlich der curricularen Gestaltung der Lehramtsausbildung unterscheiden, gilt es bei der Nutzung des Tests die Spezifika der lokalen Lehramtsausbildung zu berücksichtigen. Der Abiturdurchschnitt ist ein bedeutender Prädiktor des Studienerfolgs, wenngleich er nicht frei von Messfehlern und Urteilsverzerrungen ist (für eine Zusammenfassung s. Wolf, 2017). In Zukunft sollten deshalb weitere Leistungsindikatoren berücksichtigt werden. Die bislang nur an Studierendenstichproben gewonnenen Erkenntnisse können darüber hinaus nicht automatisch auf Lehrkräfte im Beruf generalisiert werden. Eine Erprobung an einer Lehrkräftestichprobe, die Einschätzung der Relevanz der einzelnen Wissensinhalte für die Praxis, die Erhebung von Zusammenhängen zu weiteren Erfolgsindikatoren wie dem Wohlbefinden oder der Leistung der SuS (z. B. Voss et al., 2015) und Längsschnittstudien stehen noch aus. Hierbei gilt es außerdem herauszufinden, ob Drittvariablen (z. B. Intelligenz) die aufgezeigten Zusammenhänge moderiert bzw. mediiert haben könnten. Erfassung von Wissen über Diversitätsbereiche in der Lehrkräftebildung 303 Praktische Anwendungsmöglichkeiten des Tests ergeben sich darüber hinaus im Rahmen der Hochschullehre. So können der Test oder Subbereiche davon beispielsweise als Screening- Instrument zu oder vor Beginn einer Lehrveranstaltung eingesetzt werden, um darauf basierend die Lerninhalte an den spezifischen Wissenstand der Lerngruppe anzupassen. Auch eine Diskussion und Widerlegung von durch den Test identifizierten Fehlkonzepten mithilfe empirischer Evidenz kann durch den Test initiiert werden. Zusammenfassend erscheinen der DiWi und DiWi-K geeignet zur Messung des Diversitätswissens in Lehrevaluationen oder empirischen Studien. Die Gesamttests wiesen eine angemessene Retest-Reliabilität und theoretisch erklärbare Zusammenhänge zu konvergenten Konstrukten auf. Die Ergebnisse stützten die angenommene inhaltliche 5-Faktoren-Struktur mit dem übergeordneten Faktor Diversitätswissen. Beide Versionen können wertvolle Impulse für die Gestaltung forschungsbasierter Reformprozesse in einer inklusionsorientierten Lehrkräftebildung liefern. Literatur Batsiou, S., Bebetsos, E., Panteli, P. & Antoniou, P. (2008). Attitudes and intention of Greek and Cypriot primary education teachers towards teaching students with special educational needs in mainstream schools. International Journal of Inclusive Education, 12 (2), 201 - 219. http: / / doi.org/ 10.1080/ 13603110600855739 Baumert, J. & Kunter, M. (2011). Das Kompetenzmodell von COACTIV. In M. Kunter, J. Baumert, W. Blum, U. Klusmann, S. Krauss & M. Neubrand (Hrsg.), Professionelle Kompetenz von Lehrkräften: Ergebnisse des Forschungsprogramms COACTIV (S. 29 - 53). Münster: Waxmann. http: / / doi.org/ 10.1007/ s35834-011-0017-x Bentler, P. M. & Chou, C. P. (1987). Practical issues in structural modeling. Sociological Methods & Research, 16 (1), 78 - 117. http: / / doi.org/ 10.1177/ 0049124187016001 004 Bosse, S. & Spörer, N. (2014). Erfassung der Einstellung und der Selbstwirksamkeit von Lehramtsstudierenden zum inklusiven Unterricht. Empirische Sonderpädagogik, 4, 279 - 299. Brunner, M., Nagy, G. & Wilhelm, O. (2012). A tutorial on hierarchically structured constructs. Journal of Personality, 80 (4), 796 - 846. http: / / doi.org/ 10.1111/ j.14 67-6494.2011.00749.x Bühner, M. (2011). Einführung in die Test- und Fragebogenkonstruktion (3. Aufl.). München: Pearson. de Boer, A., Pijl, S. J. & Minnaert, A. (2011). Regular primary schoolteachers’ attitudes towards inclusive education: A review of the literature. International Journal of Inclusive Education, 15 (3), 331 - 353. http: / / doi. org/ 10.1080/ 13603110903030089 Ghanizadeh, A., Bahredar, M. J. & Moeini, S. R. (2006). Knowledge and attitudes towards attention deficit hyperactivity disorder among elementary school teachers. Patient Education and Counseling, 63, 84 - 88. http: / / doi.org/ 10.1016/ j.pec.2005.09.002 Greiner, F., Sommer, S., Czempiel, S. & Kracke, B. (2019). Welches Wissen brauchen Lehrkräfte für inklusiven Unterricht? Perspektiven aus der Berufspraxis. Journal für Psychologie, 27 (2), 117 - 142. Grosche, M. & Lüke, T. (2020). Vier Vorschläge zur Verortung quantitativer Forschungsergebnisse über schulische Inklusion im internationalen Inklusionsdiskurs. In C. Gresch, P. Kuhl, M. Grosche, C. Sälzer & P. Stanat (Hrsg.), Schüler*innen mit sonderpädagogischem Förderbedarf in Schulleistungserhebungen - Einblicke und Entwicklungen (S. 29 - 54). Wiesbaden: Springer. http: / / doi. org/ 10.1007/ 978-3-658-27608-9_2 Hartig, J., Frey, A. & Jude, N. (2012). Validität. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (2. Aufl., S. 144 - 171). Berlin, Heidelberg: Springer. http: / / doi.org/ 10.1007/ 978-3-642-20072- 4_7 Hasan, S., Bagayoko, D. & Kelley, E. L. (1999). Misconceptions and the certainty of response index (CRI). Physics Education, 34 (5), 294 - 299. http: / / doi.org/ 10.1088/ 0031-9120/ 34/ 5/ 304 Hayes, A. F. & Coutts, J. J. (2020). Use omega rather than Cronbach’s alpha for estimating reliability. But … Communication Methods and Measures, 14 (1), 1 - 24. http: / / doi.org/ 10.1080/ 19312458.2020.1718629 Heyder, A., Bergold, S. & Steinmayr, R. (2018). Teachers’ knowledge about intellectual giftedness: A first look at levels and correlates. Psychology Learning & Teaching, 17 (1), 27 - 44. http: / / doi.org/ 10.1177/ 14757257177 25493 Heyder, A., Vaskova, A., Hußmann, A. & Steinmayr, R. (2018). Wissen von angehenden Lehrkräften zu Diversität im Kontext schulischer Inklusion: Die Entwicklung eines Wissenstests und erste Ergebnisse. In S. Hußmann & B. Welzel (Hrsg.), DoProfiL - Das Dortmunder Profil für inklusionsorientierte Lehrerinnen- und Lehrerbildung (S. 267 - 278). Münster: Waxmann. http: / / doi.org/ 10.35468/ hblb2020-008 Hohenstein, F., Kleickmann, T., Zimmermann, F., Köller, O. & Möller, J. (2017). Erfassung von pädagogischem und psychologischem Wissen in der Lehramtsausbildung: Entwicklung eines Messinstruments. Zeitschrift für Pädagogik, 63, 91 - 112. Horn, W., Lukesch, H., Mayrhofer, S. & Kormann, A. (2004). PSB-R 6-13, Prüfbildungssystem für Schul- und Bildungsberatung für 6. bis 13. Klassen, Revidierte Fassung. Göttingen: Hogrefe. Klug, J., Bruder, S., Kelava, A., Spiel, C. & Schmitz, B. (2013). Diagnostic competence of teachers: A process model that accounts for diagnosing learning behavior tested by means of a case scenario. Teaching and Teacher Education, 30, 38 - 46. http: / / dx.doi.org/ 10.1016/ j.tate.2012.10.004 KMK - Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2014). Standards für die Lehrerbildung: Bildungswissenschaften. Zugriff am 12. 5. 2020 unter http: / / www. kmk.org/ fileadmin/ veroeffentlichungen_beschluesse/ 2004/ 2004_12_16-Standards-Lehrerbildung-Bildungs wissenschaften.pdf 304 Lisa Tometten, Anke Heyder, Ricarda Steinmayr KMK - Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2018). Sonderpädagogische Förderung in Schulen 2007 bis 2016. Zugriff am 12. 5. 2020 unter http: / / www. kmk.org/ fileadmin/ Dateien/ pdf/ Statistik/ Dokumenta tionen/ Dok_214_SoPaeFoe_2016.pdf König, J. & Blömeke, S. (2010). Pädagogisches Unterrichtswissen (PUW) - Dokumentation der Kurzfassung des TEDS-M Testinstruments zur Kompetenzmessung in der ersten Phase der Lehrerausbildung. Humboldt-Universität Berlin. König, J., Gerhard, K., Melzer, C., Rühl, A. M., Zenner, J. & Kaspar, K. (2017). Erfassung von pädagogischem Wissen für inklusiven Unterricht bei angehenden Lehrkräften: Testkonstruktion und Validierung. Unterrichtswissenschaft, 45 (4), 223 - 242. Kracke, B. (2014). Schulische Inklusion - Herausforderungen und Chancen. Psychologische Rundschau, 65 (4), 237 - 240. http: / / doi.org/ 10.1026/ 0033-3042/ a000228 Kreiter, C. D. & Frisbie, D. A. (1989). Effectiveness of multiple true-false items. Applied Measurement in Education, 2 (3), 207 - 216. http: / / doi.org/ 10.1207/ s153248 18ame0203_2 Kunina-Habenicht, O., Lohse-Bossenz, H., Kunter, M., Dicke, T., Förster, D., Gößling, J., … & Terhart, E. (2012). Welche bildungswissenschaftlichen Inhalte sind wichtig in der Lehrerbildung? Zeitschrift für Erziehungswissenschaft, 15, 649 - 682. http: / / doi.org/ 10. 1007/ s11618-012-0324-6 Kunina-Habenicht, O., Maurer, C., Wolf, K., Holzberger, D., Schmidt, M., Dicke, T.,…& Kunter, M. (2020). Der BilWiss-2.0-Test: Ein revidierter Test zur Erfassung des bildungswissenschaftlichen Wissens von (angehenden) Lehrkräften. Diagnostica, 66 (2), 80 - 92. http: / / doi. org/ 10.1026/ 0012-1924/ a000238 Lauermann, F. & König, J. (2016). Teachers’ professional competence and wellbeing - Understanding the links between general pedagogical knowledge, self-efficacy and burnout. Learning and Instruction, 45, 9 - 19. http: / / doi.org/ 10.1016/ j.learninstruc.2016.06.006 Lüke, T. & Grosche, M. (2018). Konstruktion und Validierung der Professionsunabhängigen Einstellungsskala zum Inklusiven Schulsystem (PREIS). Empirische Sonderpädagogik, 10, 3 - 20. http: / / doi.org/ 10.1007/ s42010-018-00034-3 Paju, B., Räty, L., Pirttimaa, R. & Kontu, E. (2016). The school staff ’s perception of their ability to teach special educational needs pupils in inclusive settings in Finland. International Journal of Inclusive Education, 20 (8), 801 - 815. http: / / doi.org/ 10.1080/ 13603116. 2015.1074731 Putnick, D. L. & Bornstein, M. H. (2016). Measurement invariance conventions and reporting: The state of the art and future directions for psychological research. Developmental Review, 41, 71 - 90. http: / / dx.doi.org/ 10.1016/ j.dr.2016.06.004 Schermelleh-Engel, K. & Werner, C. S. (2012). Methoden der Reliabilitätsbestimmung. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (2. Aufl., S. 120 - 141). Berlin, Heidelberg: Springer. http: / / doi.org/ 10.1007/ 978-3-642-20072- 4_6 Schmiedeler, S. (2013). Wissen und Fehlannahmen von deutschen Lehrkräften über die Aufmerksamkeitsdefizit-/ Hyperaktivitätsstörung (ADHS). Psychologie in Erziehung und Unterricht, 60, 143 - 153. http: / / doi.org/ 10.2378/ peu2013.art12d Sciutto, M. J., Terjesen, M. D. & Bender Frank, A. S. (2000). Teachers’ knowledge and misperceptions of Attention-Deficit/ Hyperactivity Disorder. Psycholog y in the Schools, 37 (2), 115 - 122. http: / / doi.org/ 10.10 02/ (sici)1520-6807(200003)37: 2<115: : aid-pits3>3.0. co; 2-5 Sousa, P., Dias, P. C. & Cadime, I. (2017). Predictors of primary school teachers’ knowledge about developmental dyscalculia. European Journal of Special Needs Education, 32 (2), 204 - 220. http: / / doi.org/ 10.1080/ 08856257.2016.1216635 Tasdemir, M. (2010). A comparison of multiple-choice tests and true false tests. Journal of Instructional Psychology, 37 (3), 258 - 266. Voss, T., Kunina-Habenicht, O., Hoehne, V. & Kunter, M. (2015). Stichwort Pädagogisches Wissen von Lehrkräften: Empirische Zugänge und Befunde. Zeitschrift für Erziehungswissenschaft, 18 (2), 187 - 223. http: / / doi. org/ 10.1007/ s11618-015-0626-6 Voss, T., Kunter, M. & Baumert, J. (2011). Assessing teacher candidates’ general pedagogical/ psychological knowledge: Test construction and validation. Journal of Educational Psychology, 103 (4), 952 - 969. http: / / doi. org/ 10.1037/ a0025125 Wolf, K. (2017). Prädiktive Validität von Schulnoten. In K. Wolf (Hrsg.), Prädiktoren für den multikriterialen Berufserfolg von Lehrkräften (S. 9 - 26). Wiesbaden: Springer. http: / / doi.org/ 10.1007%2F978-3-658-168 19-3_3 Yin, L., Joshi, R. M. & Yan, H. (2019). Knowledge about dyslexia among early literacy teachers in China. Dyslexia, 1 - 19. http: / / doi.org/ 10.1002/ dys.1635 Lisa Tometten Dr. Anke Heyder Prof. Dr. Ricarda Steinmayr Technische Universität Dortmund Institut für Psychologie Emil-Figge-Str. 50 44227 Dortmund E-Mail: lisa.tometten@tu-dortmund.de
