Vierteljahresschrift für Heilpädagogik und ihre Nachbargebiete
5
0017-9655
Ernst Reinhardt Verlag, GmbH & Co. KG München
11
2005
741
Modelle der Evaluationsforschung von sonderpädagogischen Praxisprojekten
11
2005
Mathilde Niehaus
mehr in Großeinrichtungen zentralisiert wohnen zu lassen, sondern ihnen zu einer am Normalisierungsprinzip orientierten Wohnsituation zu verhelfen.
5_074_2005_001_0008
1 Standards für Evaluationsforschung Viele scheinen die Diskussionen um den Begriff der „Evaluation“ nicht mitvollzogen zu haben - hier gehe ich über die Einschätzung von Allgäuer (1997, 15) hinaus, die nur den Kreis der Praktiker in ihr Urteil aufnimmt -, „und so löst die Konfrontation“ mit dem Begriff Evaluation oder gar der Forderung nach Evaluation „nach wie vor […] Angst und Abwehr aus“. Für die einen bedeutet Evaluation noch immer nur summarische Wirksamkeitskontrolle, und für die anderen sind die methodischen Ansätze z. B. aus der Handlungsforschung nicht unter dem Begriff der Begleitforschung/ Evaluationsforschung subsummierbar (vgl. Diskussionen zur Evaluation in der Erziehungswissenschaft, Tenorth 2004). Hier tut Aufklärung Not, insbesondere im Rahmen universitärer Ausbildung. Vor diesem Hintergrund haben wir uns als Evaluationsforscherinnen und -forscher zusammengebündelt (Deutsche Gesellschaft für Evaluationsforschung/ Schweizerische Evaluationsgesellschaft), um anknüpfend an die im angloamerikanischen Sprachraum entwickelten Standards deutschsprachige Forschungsstandards 8 Fachbeitrag Modelle der Evaluationsforschung von sonderpädagogischen Praxisprojekten Ein Beitrag zur Diskussion um Standards in der Aus- und Weiterbildung Mathilde Niehaus Universität zu Köln Zusammenfassung: Das Wissen über zentrale Evaluationsbegriffe und Definitionen sowie ein konzeptionelles Verständnis der historischen Entwicklung der Evaluation mit den entsprechenden theoretischen und methodischen Ansätzen ist für eine angemessene Beurteilung von Evaluationsforschung und deren Durchführung notwendig. Die Deutsche Gesellschaft für Evaluation empfiehlt für die Aus- und Weiterbildung in der Evaluation, Kenntnisse über Theorie und Geschichte der Evaluation zu vermitteln. Mit dem vorliegenden Beitrag soll für die Sonderpädagogik eine Diskussion zu diesem Kompetenzfeld angeregt werden, indem drei Generationen von Evaluationsforschungen vorgestellt und Zielplanung und -kritik als methodische Hauptprobleme der Evaluationsforschung angesprochen werden. Schlüsselbegriffe: Evaluationsforschung, Standards, Evaluationsmodelle, Zielplanung, Zielkritik Models of Evaluation Research in Special Education Practice. A Contribution to the Discussion of Standards in (Continued) Formation Summary: The knowledge of central and basic notions and definitions of evaluation as well as the conceptual comprehension of the historic development of evaluation with the respective theoretical and methodological approaches are essential for an adequate assessment of evaluation research and its implementation. The German Association for Evaluation recommends to impart the knowledge of theory and history of evaluation to the students in basic and continued formation. With this article the author intends to stimulate the discussion in this field of competence by presenting three generations of evaluation research and by discussing the planning and the criticism of goals as one of the main methodological problems of evaluation research. Keywords: Evaluation research, standards, models of evaluation, planning of goals, criticism of goals VHN, 74. Jg., S. 8 - 14 (2005) © Ernst Reinhardt Verlag München Basel aufzustellen (Joint Committee on Standards for Educational Evaluation 1999). Evaluationen sollen 1) nützlich, 2) durchführbar, 3) fair und 4) genau sein. „Die Nützlichkeitsstandards sollen sicherstellen, dass die Evaluation sich an den geklärten Evaluationszwecken sowie am Informationsbedarf der vorgesehenen Nutzer und Nutzerinnen ausrichtet […] Die Durchführbarkeitsstandards sollen sicherstellen, dass eine Evaluation realistisch, gut durchdacht, diplomatisch und kostenbewußt geplant und ausgeführt wird […] Die Fairnessstandards sollen sicherstellen, dass in einer Evaluation respektvoll und fair mit den betroffenen Personen und Gruppen umgegangen wird […] Die Genauigkeitsstandards sollen sicherstellen, dass eine Evaluation gültige Informationen und Ergebnisse zu dem jeweiligen Evaluationsgegenstand und den Evaluationsfragestellungen hervorbringt und vermittelt“ (Deutsche Gesellschaft für Evaluation 2002). Als grundlegend für die Aus- und Weiterbildung in der Evaluation werden das Wissen über zentrale Evaluationsmodelle, die geschichtliche Entwicklung sowie deren theoretische und methodische Ansätze bewertet (Deutsche Gesellschaft für Evaluation 2004). Mit dem vorliegenden Beitrag soll für die Sonderpädagogik eine Diskussion zu diesem Kompetenzfeld angeregt werden. 2 Relevanz der Evaluationsforschung Warum ist das Thema „Modelle der Evaluationsforschung von sonderpädagogischen Praxisprojekten“ überhaupt interessant und relevant trotz des bereits 1993 von Urs Haeberlin diskutierten und geforderten Konzeptes der wissenschaftsgeleiteten Beratung? Diese Frage ist nicht rhetorisch gemeint, sondern scheint heute immer noch aktuell und knüpft an die Tradition der Auseinandersetzungen von beispielsweise Otto Speck in der „Zeitschrift Heilpädagogische Forschung“ an. Er behauptet nämlich unter der Überschrift „Wissenschaft weniger gefragt? “, dass „das Interesse an wissenschaftlichen Klärungen vorgefundener praktischer Problemstellungen […] abzunehmen“ scheint und ein Auseinanderdriften zwischen wissenschaftlicher Theorie und praktischer Arbeit zu verzeichnen sei: „Die praktische Sonderpädagogik verselbständige sich zusehends und verlagere sich dabei ins Irrationale, […] in eine Grauzone gemischter Erkenntnisse [aus] subjektiven Erfahrungen […], Esoterischem und Ideologischem“ (Speck 1997, 11). In ähnlicher Weise kritisch wertet auch Urs Haeberlin die Entwicklungen. Er spricht von einer „beängstigenden Orientierungslosigkeit“ (1996, 169) in der Sonderpädagogik. Ergänzend in diesem Zusammenhang sind wohl ebenso die Ausführungen von Karl Josef Klauer (2000) zu verstehen, wenn er fordert, dass die sonderpädagogisch-psychologische Forschung internationaler, theorieorientierter und methodisch anspruchsvoller betrieben werden muss. Darüber hinaus sind neben der fachinternen Relevanz insbesondere gesellschaftsrelevante Aspekte in den Mittelpunkt zu stellen, die sich in der politikberatenden und institutionenberatenden Funktion sonderpädagogischer Begleitforschung (jenseits der von der Wissenschaft abgekoppelten Supervision oder Organisationsberatung) ausdrückt. Angesicht eines wachsenden gesellschaftspolitischen Problemdrucks und knapper finanzieller Ressourcen besteht die Notwendigkeit, Handlungsmöglichkeiten modellhaft zu erproben und mit Hilfe einer Evaluationsforschung auszuwerten. Dass Begleitforschung ein Prozess ist, bei dem die Gesellschaft, die Institutionen und Beteiligten mehr über sich selbst erfahren und lernen können, ist schon von den international anerkannten Experten aus der Pionierzeit der Evaluationsforschung postuliert worden. Jedes evolutionäre Geschehen ist durch einen „Zyklus von Problemstellung, Generierung tentativer Lösungen, Bewertung und Irrtumelimination charakterisiert“ (in Anlehnung an Popper 1972, zitiert in Brandtstädter 1990, 215). Auf Begleitforschung innovativer Modelle kann also nur verzichten, wer sich seiner Sache schon im Vor- Modelle der Evaluationsforschung 9 VHN 1/ 2005 hinein sicher ist - oder an seinen politischen oder theoretischen Positionen nicht rütteln lassen möchte. „Nicht zufällig ist die Begleitforschung gerade von den Wissenschaftlern propagiert und methodisch vorangetrieben worden, die sich der Idee einer offenen, selbstkritischen und daher experimentierenden Gesellschaft verpflichtet fühlten, und nicht zufällig erscheint sie dort am wenigsten erwünscht und verbreitet, wo geschlossene, dogmatische Wissens- und Entscheidungsstrukturen vorherrschen“ (Brandtstädter 1990, 215 - 216). Die Evaluationsforschung von innovativen Konzepten in der sonder- und heilpädagogischen Praxis, im Bereich sozialer, schulischer und beruflicher Rehabilitation nimmt angesichts knapper Finanzressourcen und drängender Problemlagen einen besonderen Stellenwert ein. Eine Auseinandersetzung mit internationalen Standards für Evaluation von sonderpädagogischen Interventionen und Praxisprojekten kann insofern überaus relevant werden, als sie Orientierungshilfen für Forschende, Studierende und Praktizierende anbieten kann. 3 Was ist Evaluationsforschung? In den unterschiedlichen wissenschaftlichen Disziplinen, die sich den Aufgabenstellungen der Begleitforschung annehmen, ebenso wie in den entsprechenden Publikationen im angloamerikanischen Sprachraum ist die wissenschaftliche Bezeichnung Evaluation/ Evaluationsforschung als sprachliches Pendant zum Begriff „Begleitforschung“ mit einer breiten Diskussionstradition eingeführt. In den Erziehungswissenschaften war der Begriff „wissenschaftliche Begleitung“ zunächst dominant, allerdings wird in der Enzyklopädie Erziehungswissenschaft schon 1984 von „Evaluation“ gesprochen. Begleitforschung heißt in internationale und interdisziplinäre Wissenschaftssprache übersetzt Evaluationsforschung. Die Evaluationsforschung kann mittlerweile auf Erfahrungen aus drei Jahrzehnten zurückgreifen. Als führende Vertreter und Klassikerinnen mit zum Teil kontroversen methodischen Postulaten werden u. a. Donald Campbell, Lee Cronbach, Peter Rossi und Carol Weiss genannt (vgl. Cook 1997). In den deutschen Erziehungswissenschaften sind als Pionier Christoph Wulf und im pädagogisch-psychologischen Bereich insbesondere Heinrich Wottawa zu nennen. Mittlerweile hat sich die Definition von Evaluationsforschung in Anlehnung an Peter Rossi und Howard Freeman (in 7. Auflage 2004) durchgesetzt: „Wir definieren sie einfach als systematische Anwendung sozialwissenschaftlicher Forschungsmethoden zur Beurteilung der Konzeption, Ausgestaltung, Umsetzung und des Nutzens sozialer Interventionsprogramme“ (dt. 1988, 3). Ein Einblick in die Entwicklungen der methodischen Bandbreite und in die Vielzahl der Konzeptfacetten soll im Folgenden vorgenommen werden. 4 Modelle der Konzeption und Durchführung von Evaluationsforschung 4.1 Entwicklungslinien unterschiedlicher Evaluationsmodelle Modelle der Konzeption und Durchführung von Evaluationsforschung können einerseits im Hinblick auf 1) das Einsetzen im Verlauf des Programmes/ der Intervention und 2) im Hinblick auf die Evaluationsobjekte sowie andererseits 3) im Hinblick auf das wissenschaftstheoretische Grundverständnis unterschieden werden. Evaluationen erfordern verschiedene miteinander verzahnte Aktivitäten. Es wird deshalb unterschieden zwischen • Analysen zur Programmentwicklung einschließlich der Konzeptualisierung und Ausarbeitung einer geplanten Intervention, • der Analyse im Sinne einer laufenden Überwachung der Umsetzung und Ausführung eines Programms und • der Abschätzung von Programmwirkungen und -nutzen. Mathilde Niehaus 10 VHN 1/ 2005 Ad 1): Als Prozessevaluation richtet sich die Evaluationsforschung vorwiegend auf die Ablaufbedingungen und Implementationsprobleme, und als summative Evaluation setzt sie erst in der Anwendungsphase des Projektes an. Ad 2): Entsprechend der Vielzahl der Ansatzpunkte sind auch die Evaluationsobjekte vielfältig. Hier ist die Evaluation verschiedener Techniken (z. B. Lehrprogramme) von der Evaluation spezifischer Aktivitäten einzelner Personen (z. B. Lehrer) und die Evaluation von Programmen (z. B. Curricula, integrative Schulversuche) von der Evaluation von Reformen (z. B. Schulsystemvergleiche) zu unterscheiden. Ad 3): Im Hinblick auf das wissenschaftstheoretische Grundverständnis haben sich historisch unterschiedliche Modelle herausgebildet. Zu Beginn der Evaluationsforschung dominierte die Orientierung an einem den Naturwissenschaften entlehnten experimentellen Forschungsparadigma. Als Vordenker der Tradition objektivistischer Evaluationsmodelle sind insbesondere Michael Scriven und Donald T. Campbell zu nennen, denen es besonders um die experimentell ableitbaren und messbaren Effekte von Programmen geht. Im Vordergrund steht das Urteil über den summativen Wert eines Programms, das auf der Grundlage des Einsatzes quantitativer Methoden und deren Logik gefällt wird. Um die Effekte eindeutig auf die Intervention zurückführen zu können, müssen alle Faktoren, die den Zusammenhang zwischen der abhängigen und unabhängigen Variable beeinflussen können, kontrolliert werden. Die Störfaktoren, die die interne Validität beeinträchtigen, sollen durch das Ausschalten der Fehlervarianz oder durch Randomisierung kontrolliert werden. Es liegt ein Evaluationsmodell im Sinne einer „Black-Box“ zugrunde, bei der die Outputs quantitativ in der Regel auf individueller Ebene gemessen werden. Diese Wirkungsanalysen im Prä-Post-Design unterstellen die Realisierung des geforderten Kontroll- und Konstanzprinzips. Die Vielzahl von Störfaktoren der internen und externen Validität, die es zu kontrollieren gilt, verdeutlichen die Schwierigkeiten, experimentelle oder quasi-experimentelle Standards unter Praxisbedingungen aufrechterhalten zu können. Genau an diesem Punkt setzte in den siebziger Jahren die Kritik von Carol Weiss an den Evaluationsmodellen von Scriven und Campbell an. Es entwickelten sich in Abgrenzung von und kritischer Auseinandersetzung mit dem klassischen Evaluationsmodell der Wirkungsanalyse, wie es überspitzt in dem Konzept der „Black-Box“ zum Ausdruck kommt, eine Vielzahl neuer Evaluationsansätze, die den Prozesscharakter der Evaluation, die Komplexität der Abläufe innerhalb der „Black-Box“ und die Heterogenität der Zielsetzungen unterschiedlicher Stakeholder sowie die kontextuellen und institutionellen Bedingungen in den Mittelpunkt des Forschungsinteresses stellten. Zur Analyse der komplexen Prozesse wird qualitativen Methoden der Vorrang gegeben. Sie müssen sich allerdings ebenfalls mit Störfaktoren der Validität und damit mit Gütekriterien wissenschaftlicher Evaluation auseinandersetzen. Eine der radikalsten Alternativen zum traditionellen Design stellte die Aktionsbzw. Handlungsforschung dar, in deren Verlauf sowohl die Trennung zwischen Theorie und Praxis wie zwischen Forschungssubjekt und Forschungsobjekt (Beforschte) grundlegend aufgehoben werden sollte. An die Stelle der Subjekt/ Objekt-Verhältnisse zwischen Forschern und Beforschten soll ein Subjekt/ Subjekt-Verhältnis zwischen beiden treten, für das der gemeinsame Diskurs über praktische wie wissenschaftliche Probleme als herrschaftsfreier Diskurs von konstitutiver Bedeutung ist. Entsprechend geht es ihr nicht darum, generalisierbare Daten zu gewinnen, sondern vielmehr, praxisrelevantes Wissen zu vermitteln, das sich in Lernprozessen der Betroffenen niederschlägt, so dass es zu einer veränderten Praxis kommen kann. Allerdings fehlte es oft an der Bereitschaft - so Heinz Moser (1995, 14), ein Wegbereiter der Aktionsforschung - „die weltdeutende Konstruktion der Praktiker in ihrer Eigenständig- Modelle der Evaluationsforschung 11 VHN 1/ 2005 keit ernst zu nehmen […]; vielmehr glaubte man naiv, über die Systemgrenzen hinweg Veränderungsprozesse einleiten zu können, sofern nur jene Wahrheit, welche die Forscher aufgrund ihrer Gesellschaftsanalyse als richtig erkannt hatten, von den Praktikern im Feld aufgenommen würde“. Die Betroffenen allerdings haben sich oft gegenüber denen verweigert, die in ihrem Interesse zu sprechen glaubten (z. B. Jugendforschung). Moser (1995) erkennt in der Abkehr von überzogenen emanzipatorischen Ansprüchen der Forschung ein Moment von faktisch realisierter Emanzipation und Mündigkeit, indem er nicht von vornherein die Praxis als defizitär und aufklärungsbedürftig wertet. Die Aktionsforschungsbewegung und die „qualitative Bewegung“ als deutliche Abgrenzung zur quantitativ dominierten Richtung wird als zweite Generation in der Evaluationsforschung bezeichnet, die von der dritten Generation, in der eine Triangulation der Forschungsmethoden favorisiert wird, abgelöst wurde. Man hatte erkannt, so Brandtstädter (1990), dass bei der Evaluation komplexer Reform- und Interventionsprojekte, wo sich explorative mit hypothesenprüfenden Problemstellungen mischen, ein dogmatischer experimenteller Rigorismus ebenso unangemessen ist wie ein einseitiger qualitativer Impressionismus oder die Illusion eines herrschaftsfreien Diskurses. Will man Feststellungen über relevante Programmbedingungen und -wirkungen durch ein Gefüge von sich wechselseitig stützenden Evidenzen absichern, so liefert ein multipler methodischer Zugang im Allgemeinen ein reichhaltiges und aussagekräftigeres Bild als ein monomethodischer Ansatz (Brandtstätter 1990). Schon Ende der 70er Jahre wurde diese Position der Triangulationsmöglichkeit im angloamerikanischen Sprachraum insbesondere von Thomas Cook u. a. vertreten. Darüber hinaus zeigte sich, dass auch Elemente des Handlungsforschungskonzepts in bestimmte Phasen der Evaluationsforschung integriert werden können und unter Umständen sollen. Die kontinuierliche Rückmeldung von Zwischenergebnissen ins Feld ist als „eine Form der Integration der Praktiker in den Forschungsprozess zu begreifen, die mit dem Handlungsforschungsansatz auch die Zielsetzung gemein hat, Lernprozesse zu initiieren, die zur Veränderung praktischen Handelns führen […] Dabei wird von der Prämisse ausgegangen, dass die Forschungs- und Beratungsstrategien der Forscher zwar analytisch voneinander trennbar sind, im Forschungsverlauf allerdings einen ständigen gegenseitigen Bezug aufweisen“ (Häußler u. a. 1988, 74, 75). Es bedarf allerdings der Anwendung systematisch begründeter Daten-Feedback-Strategien. Eine Variante dieser Ansätze wird in den 90er Jahren unter den Stichworten „monitoring versus controlling“ und auch unter dem Stichwort „member check“ diskutiert. Diese neueren Entwicklungen nehmen zudem Zieldiskussionen und die Interessenlagen unterschiedlich Beteiligter in den Forschungsprozess auf (Niehaus 1997). 4.2 Zielplanung und -kritik als ein methodisches Hauptproblem der Evaluationsforschung Wenn man im pädagogischen Bereich beispielsweise an die Begleitforschungen in den 70er Jahren zum Vergleich von Gesamtschule und gegliedertem Schulsystem und an die damit verbundenen Diskussionen sowie im sonderpädagogischen Bereich in den 80er Jahren an die wissenschaftliche Begleitung der Schulversuche zur gemeinsamen Erziehung unter der Fragestellung „Geht Integration? “ denkt, wird deutlich, dass die Fragen und Antworten mit Wertentscheidung verbunden sind. Damit ist ein grundsätzliches wissenschaftstheoretisches und methodologisches Problem angesprochen, das insbesondere in der sonderpädagogischen Evaluationsforschung virulent ist: Zum einen ist Sonderpädagogik unaufhebbar in die Spannung zwischen Sein und Sollen, zwischen Wissen und Gewissen, „zwischen dem faktisch Gegebenen und dem Erstrebenswerten gestellt“ Mathilde Niehaus 12 VHN 1/ 2005 (Speck 1996, 87), und zum anderen bestehen evaluative Ergebnisse nicht nur aus validen Informationen, sondern eo ipso darüber hinaus aus begründeten Bewertungen und begründeten Empfehlungen. Von der Evaluationsforschung wird im Allgemeinen erwartet, dass sie zur Frage Stellung nimmt, inwieweit ein Projekt seine Zielbestimmung erreicht hat oder nicht. Das ist aus mehreren Gründen problematisch. Zum einen liegen die normativen Prämissen von Planungsentscheidungen nicht immer explizit vor, sind vage oder explikationsbedürftig. Zum anderen können Zielvorgaben Teil einer politischen Legitimationsrhetorik sein, die mit den faktischen Programmabläufen im Praxisprojekt wenig zu tun haben. Diese Explikationsproblematik kann methodisch in der Evaluationsforschung darüber aufgegriffen werden, dass die Begründungsdiskurse, die im Zusammenhang der Implementierung eines Programms geführt wurden, rekonstruiert werden und dadurch größere Klarheit über die Zielvorhaben gewonnen wird. Diese Diskussionen von Zielperspektiven werden methodisch durch Heike Thierau und Heinrich Wottawa (1990), Jochen Brandtstädter (1990) sowie Werner Greve (1992), von sonderpädagogischen Begleitforschungsprojekten bei Urs Haeberlin (1996) und Mathilde Niehaus u. a. (2002) aufgegriffen. Wie steht es nun mit dem Beitrag der Evaluationsforschung zur Kritik von Projekt- oder Interventionszielen? Nach einer verbreiteten Auffassung kann empirische Forschung zwar Wege zu Zielen darstellen, jedoch zur Beurteilung von Zielen selbst nichts beitragen. Diese Auffassung wird üblicherweise mit dem Hinweis auf den Dualismus von Tatsachen und Normen verteidigt. Nun ist es zwar richtig, dass aus Seinssätzen allein keine Sollsetzungen abgeleitet werden können. Aus dem Verbot solcher sogenannten naturalistischen Fehlschlüsse folgt jedoch keineswegs, dass Seinssätze für die Beurteilung von Zielen irrelevant seien. „Vielmehr stehen Zielentscheidungen gerade dann, wenn sie nicht rein dogmatische Setzungen sind, unter empirischen Restriktionen; hieraus ergeben sich Brücken vom Sein zum Sollen“ (Brandtstädter 1990, 222). Eine dieser Brückenfunktionen könnte so ausgedrückt werden: Sollen impliziert Können. Eine vernünftige Zielplanung beachtet die Realisierbarkeit und berücksichtigt Folgenbeziehungsweise Kostenaspekte sowie Zielkonflikte. Eine zielkritische Evaluation umfasst also die Abschätzung, ob die Ziele überhaupt realisierbar sind, sowie eine Abschätzung, welche Auswirkungen, welche positiven oder negativen Folgen und Nebenwirkungen ein Reformversuch, Programm oder eine Intervention haben. Die Verwendung multipler Kriterien, die sorgfältige Darstellung von Wirkungsmustern auf verschiedenen Analyseebenen sowie die Datensammlung über längere Zeiträume und die Benennung unterschiedlicher Interessenslagen sind methodische Mindestanforderungen einer so angelegten evaluativen Strategie. 5 Schlussfolgerungen Das Wissen über zentrale Evaluationsbegriffe und Definitionen sowie ein konzeptionelles Verständnis der historischen Entwicklung der Evaluation mit den entsprechenden theoretischen und methodischen Ansätzen ist für eine angemessene Beurteilung von Evaluationsforschung und deren Durchführung notwendig. Daraus leitet sich darüber hinaus ab, dass eine solide Methodenausbildung für Etablierte und Nachwuchswissenschaftlerinnen, für Studierende der Lehrämter wie der Diplom-/ Masterstudiengänge Sonder-, Heil- und Rehabilitationspädagogik unerlässlich ist. Wichtig ist dabei aufgrund des skizzierten Forschungsverständnisses im Sinne der 3. Generation, dass die Studierenden mit den verschiedenen methodischen Zugriffen und wissenschaftstheoretischen Grundhaltungen bekannt gemacht werden und Zielplanung und -kritik als methodische Hauptprobleme der Evaluationsforschung reflektieren können. Modelle der Evaluationsforschung 13 VHN 1/ 2005 Literatur Allgäuer, Ruth (1997): Evaluation macht uns stark! Zur Unverzichtbarkeit von Praxisforschung im schulischen Alltag. Erziehungskonzeption und Praxis, Band 33. Frankfurt am Main/ Berlin/ Bern/ New York/ Paris/ Wien: Lang Brandtstädter, Jochen (1990): Evaluationsforschung: Probleme der wissenschaftlichen Bewertung von Interventions- und Reformprojekten. In: Zeitschrift für Pädagogische Psychologie 4, 215 - 227 Cook, Thomas D. (1997): Lessons Learned in Evaluation Over the Past 25 Years. In: Chelimsky, Eleanor; Shadish, William R. (Hrsg.): Evaluation for the 21st Century. Thousand Oaks/ London: Sage, 30 - 54 Deutsche Gesellschaft für Evaluation (Hrsg.) (2002): Standards für Evaluation. Köln: DeGEval Deutsche Gesellschaft für Evaluation (Hrsg.) (2004): Empfehlungen für die Aus-und Weiterbildung in der Evaluation. Köln: DeGEval Greve, Werner (1992): Grenzen der Begründung und Möglichkeiten der Erforschung von Erziehungs- und Interventionszielen. In: Trierer Psychologische Berichte 19, 4 Haeberlin, Urs (1993): Begleitforschung in sonder- und heilpädagogischen Praxisprojekten. Wissenschaftsgeleitete Beratung statt Handlungsforschung. In: Zeitschrift für Heilpädagogik 6, 369 - 374 Haeberlin, Urs (1996): Heilpädagogik als wertgeleitete Wissenschaft. Bern/ Stuttgart/ Wien: Haupt Häußler, Monika; Stößel, Ulrich; von Troschke, Jürgen; Walterspiel, Gabriela; Wetterer, Angelika (1988): Konzepte und Erkenntnisinteressen der wissenschaftlichen Begleitung von Modelleinrichtungen. In: BMJFFG (Hrsg.): Begleitforschung bei staatlich geförderten Modellprojekten - strukturelle und methodische Probleme. Band 216. Stuttgart: Kohlhammer, 31 - 105 Joint Committee on Standards for Educational Evaluation; Sanders, James R. (Hrsg.) (1999): Handbuch der Evaluationsstandards. Opladen: Leske + Budrich Klauer, Karl Josef (2000): Forschungsperspektiven der Sonderpädagogischen Psychologie. In: Borchert, Johann (Hrsg.): Handbuch der Sonderpädagogischen Psychologie. Göttingen/ Bern: Hogrefe, 993 - 999 Moser, Heinz (1995): Grundlagen der Praxisforschung. Freiburg i. B.: Lambertus Niehaus, Mathilde (1997): Probleme der Evaluationsforschung von Modellprojekten in der beruflichen Rehabilitation am Beispiel der Implementation wohnortnaher betrieblicher Umschulungen von Frauen. In: Mitteilungen der Arbeitsmarkt- und Berufsforschung 2, 291 - 304 Niehaus, Mathilde; Kurth-Laatsch, Sylvia; Nolteernsting, Elke (2002): Wohnortnahe berufliche Rehabilitation. Evaluationsforschung zum Modellprojekt für Frauen in der betrieblichen Rehabilitation. Sozialforschung Forschungsbericht 292. Bonn: Bundesministerium für Arbeit und Sozialordnung Rossi, Peter H.; Freeman, Howard E. (1988; 2004, 7. Auflage): Programm-Evaluation: Einführung in die Methoden angewandter Sozialforschung. Stuttgart: Enke Speck, Otto ( 5 2003): System Heilpädagogik: Eine ökologisch reflexive Grundlegung. München/ Basel: Reinhardt Speck, Otto (1997): Integrative Heilpädagogik - Bedingung für die wissenschaftliche Weiterentwicklung. In: Heilpädagogische Forschung 23, 11 - 17 Tenorth, Heinz-Elmar (2004): Wer hat Angst vor den „Evaluationskommissaren“? In: Zeitschrift für Pädagogik 50, 88 - 98 Thierau, Heike; Wottawa, Heinrich (1990): Evaluationsprojekte: Wissensbasis oder Entscheidungshife? In: Zeitschrift für Pädagogische Psychologie 4, 229 - 240 Prof. Dr. Dr. Mathilde Niehaus Lehrstuhl für Arbeit und Berufliche Rehabilitation Universität zu Köln Herbert-Lewin-Straße 2 D-50931 Köln Tel.: ++49 22 14 70 49 55 Fax: ++49 221 470 7722 E-Mail: mathilde.niehaus@uni-koeln.de Mathilde Niehaus 14 VHN 1/ 2005
