unsere jugend
4
0342-5258
Ernst Reinhardt Verlag, GmbH & Co. KG München
10.2378/uj2025.art51d
4_077_2025_10/4_077_2025_10.pdf101
2025
7710
Zwischen Algorithmus und Fachkompetenz: Anforderungen an die Praxis beim Einsatz prädiktiver Analytik in der Kinder- und Jugendhilfe
101
2025
Christina S. Plafky
Prädiktive Analytik, ein Teilbereich der Künstlichen Intelligenz, hat in den vergangenen Jahren international zu einer Vielzahl von Forschungsprojekten in der Sozialen Arbeit geführt, insbesondere im Bereich des Kinderschutzes. Ziel dieser Entwicklungen ist es, durch technologische Unterstützung präzisere Prognosen, fundiertere soziale Diagnosen und eine verbesserte Entscheidungsunterstützung im professionellen Alltag zu ermöglichen.
4_077_2025_10_0005
423 unsere jugend, 77. Jg., S. 423 - 431 (2025) DOI 10.2378/ uj2025.art51d © Ernst Reinhardt Verlag von Prof. Dr. Christina S. Plafky Professorin an der BFH - Berner Fachhochschule im Institut für Fachdidaktik, Professionsentwicklung und Digitalisierung Zwischen Algorithmus und Fachkompetenz: Anforderungen an die Praxis beim Einsatz prädiktiver Analytik in der Kinder- und Jugendhilfe Prädiktive Analytik, ein Teilbereich der Künstlichen Intelligenz, hat in den vergangenen Jahren international zu einer Vielzahl von Forschungsprojekten in der Sozialen Arbeit geführt, insbesondere im Bereich des Kinderschutzes. Ziel dieser Entwicklungen ist es, durch technologische Unterstützung präzisere Prognosen, fundiertere soziale Diagnosen und eine verbesserte Entscheidungsunterstützung im professionellen Alltag zu ermöglichen. Einleitung Prädiktive Analytik - als Teilbereich des maschinellen Lernens - ermöglicht es, aus großen Datenmengen Muster zu erkennen und daraus Vorhersagen über zukünftige Entwicklungen abzuleiten. Im sozialen Bereich kommen dabei verschiedene Verfahren zum Einsatz, wobei besonders Methoden der erklärbaren KI an Bedeutung gewinnen, da sie die Nachvollziehbarkeit maschineller Vorhersagen unterstützen (Plafky/ Badertscher 2025, i. E.). Prädiktive Analytik in der Praxis Sozialer Arbeit Im sozialen Bereich basiert die prädiktive Analytik in der Regel auf bereits vorhandenen Daten, die im Rahmen der täglichen Praxis bspw. durch Tagesdokumentationen, Fallakten, Aktennotizen oder Verlaufsberichte erfasst werden. Diese kontinuierliche Dokumentation erzeugt eine Vielzahl von Datenpunkten, auf die retrospektiv oder prospektiv zugegriffen werden kann. Einrichtungen verfügen dadurch oft über umfangreiche, wenn auch heterogene Datenbestände, die für analytische Zwecke genutzt werden können, auch wenn dies durchaus kritisch gesehen wird (Salganik 2019; Reamer 2023) und durch spezifische Datenschutzerklärungen abgedeckt werden muss. International finden sich im Kinderschutz einige Projekte, die diese Verfahren einsetzen. Dazu gehört u. a. das Allegheny Projekt (USA), das Verwaltungsdaten aus unterschiedlichen 424 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik Kontexten (Gesundheit, Sozialversicherung etc.) zusammenführt, um diese mithilfe von prädiktiver Analytik zur Früherkennung von Risiken im Kinderschutz zu analysieren. Hier wurden wichtige Erkenntnisse für die weitere Anwendung solcher Verfahren entdeckt, bspw. dass die institutionellen, personellen und auch gesellschaftlichen Rahmenbedingungen ausschlaggebender für die Wirkung, Aussagekraft und den Einsatz sind als die verwendeten Verfahren (Vaithianathan et al. 2021). Zugleich zeigt sich, dass die eingesetzten Technologien in bestimmten Fällen eine höhere Vorhersagegenauigkeit aufweisen als menschliche Fachkräfte und damit gezieltere Interventionen ermöglichen können (ebd.). Dieser Vorteil geht jedoch mit der Gefahr einher, dass bestimmte Bevölkerungsgruppen systematisch benachteiligt werden. Eine zentrale Rolle spielen hierbei sog. Verzerrungen (Bias), die sich aus den Trainingsdaten der KI-Anwendungen ergeben (z. B. Chouldechova 2017; Gillingham 2020). Um diesem Risiko wirksam zu begegnen, sind kontinuierliche Prüfungen der Systeme auf Fairness erforderlich. Nur so lässt sich sicherstellen, dass bestehende soziale Ungleichheiten nicht durch algorithmische Entscheidungen verstärkt werden (Chouldechova et al. 2018). Dies wurde in einem Projekt erarbeitet, das im Kontext von Überweisungen an Kinderschutzorganisationen (jedes Jahr werden mehr als 3,6 Millionen solcher Überweisungen in den Vereinigten Staaten vorgenommen) durchgeführt wurde. Die Praxis der Überprüfung von Anrufen wird von jeder Behörde unabhängig voneinander gehandhabt, um lokale Verfahren und Richtlinien zu befolgen, was möglicherweise zu erheblichen Unterschieden bei der Behandlung von Überweisungen im ganzen Land führen kann. Laut Chouldechova et al. (2018) nimmt der Zugang zu verknüpften Verwaltungsdaten zu, aber es ist für Fachkräfte nach wie vor schwierig, systematisch historische Informationen über alle Kinder und Erwachsenen zu verwenden, die an einem einzigen Überweisungsanruf beteiligt sind. Risikovorhersagemodelle, die routinemäßig gesammelte Verwaltungsdaten verwenden, können den Fachkräften der Hotlines dabei helfen, Fälle genauer zu identifizieren, die wahrscheinlich zu unerwünschten Ergebnissen führen. (Chouldechova et al. 2018). Auch das im Broward County eingesetzte Tool zeigt laut Schwartz et al. (2017) vielversprechende Ansätze für die Arbeit im Kinderschutz: Es kann dazu beitragen, die Übereinstimmung zwischen Risikobewertung und tatsächlichem Hilfebedarf zu verbessern - insbesondere dann, wenn Fachkräfte gezielt Fällen zugewiesen werden, da sich die Arbeitsergebnisse einzelner Fachkräfte als deutlich verlässlicher erweisen als die anderer. Gillingham (2019 a, 2019 b) beschreibt die Entwicklung eines sog. Predictive Risk Models (PRM) in Neuseeland. Ziel war es, auf Basis von Daten aus Sozialleistungen und Kinderschutzmeldungen das Risiko für Kindeswohlgefährdung algorithmisch vorherzusagen. Der Algorithmus wurde mit einem umfangreichen Datensatz von etwa 58.000 Kindern trainiert und nutzte 132 prädiktive Merkmale. Obwohl das Modell zunächst technisch überzeugende Ergebnisse lieferte, wurde das Projekt letztlich gestoppt - die verwendeten Daten erwiesen sich als ungeeignet, da sie viele Gruppen einschlossen, die nicht gefährdet waren, was die Aussagekraft der Vorhersagen erheblich einschränkte. In einer weiteren Untersuchung entwickelten Ahn et al. (2021) ein prädiktives Modell, das darauf abzielt, Jugendliche zu identifizieren, die das Pflegesystem verlassen, ohne dass für sie eine dauerhafte Perspektive gefunden wurde. Die Analyse basierte auf umfangreichen Daten des kalifornischen Kinderschutzsystems aus einem Zeitraum von 28 Jahren (1991- 2018). Dabei erzielten die eingesetzten maschinellen Lernverfahren eine Fehlerrate von 39 %. Obwohl Unterschiede in den Fehlerraten zwischen verschiedenen ethnischen Gruppen festge- 425 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik stellt wurden, erfüllten die Modelle zentrale Kriterien im Hinblick auf Kalibrierung und Gleichheit der Vorhersagen. Dies deutet darauf hin, dass prädiktive Modelle - trotz bestehender Herausforderungen - unter bestimmten Fairnessbedingungen einen potenziellen Nutzen für eine gezieltere Verteilung sozialer Ressourcen bieten können. Im deutschsprachigen Raum findet sich bspw. das Projekt von Plafky et al. (2022, 2024) und Plafky und Frischhut (2024). Hier kam ein spezifischer Algorithmus zum Einsatz, der mit Daten aus drei Einrichtungen (zwei aus der Kinder- und Jugendhilfe und eine aus der Sozialpsychiatrie) getestet wurde. Es wurde untersucht, ob und inwieweit es algorithmenbasierte Entscheidungsprozesse in diesen Einrichtungen ermöglichen, Effizienzkriterien zu erfüllen und gleichzeitig ethischen und fachlichen Grundsätzen in adäquater Form Rechnung zu tragen (Plafky et al. 2022). Der Algorithmus zeigte sehr unterschiedliche Prognosemuster, die zu praktischen Entscheidungssituationen herangezogen werden könnten. Hierzu gehören bspw. Ressourcenplanungen, Abschätzung von Risiken, Zusammensetzung von stationären Wohngruppen auf der Grundlage bekannter empirischer Gesetzmäßigkeiten, Entwicklung und Durchführung von zielgerichteten Präventionsmaßnahmen für Adressaten und Adressatinnen mit bestimmten Risikoeinschätzungen (z. B. Prognose eines hohen zukünftigen Drogenkonsums), Schaffung der Möglichkeit, Entgeltverhandlungen mit Kostenträgern auf der Basis objektiver Erkenntnisse führen zu können oder auch Planung von geeigneten Maßnahmen bei der Betreuung von Adressaten und Adressatinnen (Plafky et al. 2024). Die Ergebnisse legen nahe, dass der Einsatz der im Projekt genutzten maschinellen Lernverfahren die praktische Planung und Steuerung in sozialen Einrichtungen unterstützen und zu einem effektiveren sowie langfristigeren Ressourceneinsatz beitragen kann - ein Potenzial, das auch in Studien mit anderen Algorithmen thematisiert wurde (Gillingham 2016). Soziale Diagnostik und prädiktive Analytik Soziale Diagnostik zielt darauf ab, fundierte und methodisch gestützte Grundlagen für professionelles Handeln zu schaffen (Buttner et al. 2018). Ähnlich wie prädiktive Analytik soll sie komplexe Lebenslagen strukturiert erfassen und Handlungsmöglichkeiten aufzeigen, ohne dabei ein universelles Instrument zu beanspruchen. Diese Parallelen zwischen klassischer Diagnostik und KI-gestützter Analyse machen deutlich, warum prädiktive Verfahren als potenzielle Ergänzung diagnostischer Prozesse diskutiert werden. Zusätzlich gilt es zu beachten, dass die in Verfahren zur sozialen Diagnostik gesammelten Daten derzeit neben anderen Dokumentationen die Grundlage für prädiktive Analytik darstellen. Die Herausforderungen in der Praxis Sozialer Arbeit in Entscheidungsfindungsprozessen werden mittlerweile umfassend beforscht und diskutiert (z. B. Taylor et al. 2023) - z. B. angefangen bei der Frage nach dem Stellenwert der Intuition (Sicora et al. 2021) über die Frage nach der Berufserfahrung (Cooper 2018) und den Bestätigungsfehlern (confirmation bias) (Spratt et al. 2015). Der sog. „Risikobewertungskrieg“ im Kontext von Risikoeinschätzungen im Kinderschutz (Johnson 2006; White/ Walsh 2006) spiegelt eine grundlegende Spannung zwischen zwei konkurrierenden Ansätzen wider. Auf der einen Seite zielen standardisierte Instrumente und strukturierte Entscheidungsmodelle darauf ab, Konsistenz, Verantwortlichkeit und evidenzinformierte Praxis bei der Risikobewertung für Kinder zu gewährleisten. Sie werden als Schutz vor Voreingenommenheit, Versehen und Inkonsistenz angesehen. Auf der anderen Seite argumentieren Kritiker und Kritikerinnen, dass ein übermäßiges Vertrauen in diese Instrumente die nuancierte, beziehungsbezogene und kontextspezifische Expertise untergraben kann, die Fachkräfte in komplexe Familiensituationen 426 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik einbringen. Mittlerweile gilt der Risikobewertungskrieg zumindest im internationalen Diskurs als beigelegt (White/ Walsh 2006), im deutschsprachigen Raum ist dies noch nicht endgültig geklärt. Ein professionelles Urteilsvermögen, das auf Erfahrung und Intuition basiert, ist oft unerlässlich, um die Feinheiten des Risikos zu interpretieren, die bei standardisierten Instrumenten übersehen werden können (Taylor et al. 2023; Sicora et al. 2021). Diese Debatte unterstreicht das Ringen um ein Gleichgewicht zwischen der Notwendigkeit objektiver Rahmenbedingungen und menschlicher Erkenntnisse in der Kinderschutzarbeit und steht exemplarisch auch für andere Felder bzw. Instrumente der Sozialen Diagnostik. Studien, die sich mit dem Zusammenhang zwischen Emotionen, Kinderschutzbewertungen und Hausbesuchen befassen (z. B. Cook 2020), versuchen, die komplexe Wechselbeziehung zwischen der emotionalen Beteiligung von Fachkräften und der Entscheidungsfindungspraxis zu entwirren. Die meisten verwendeten Risikobewertungsinstrumente sind nicht wissenschaftlich validiert (Ejrnæs/ Moesby-Jensen 2021). Eine Ausnahme ist das Projekt von Calheiros et al. (2021), die einen Child Maltreatment Severity Questionnaire (MSQ) entwickelt haben, der in einer Studie mit 1.000 Kindern eine statistische Angemessenheit und Zuverlässigkeit bei der Beurteilung von Kindesmisshandlung zeigen konnte. Gleichwohl lassen verschiedene Studien erkennen, dass die Einstellungen der Fachkräfte die Risikobewertung und Entscheidungsfindung im Kinderschutz beeinflussen (z. B. Davidson-Arad/ Benbenishty 2010; Benbenishty et al. 2015). Daher müssen diese Prozesse so strukturiert werden, dass Diskrepanzen zwischen den Fachkräften minimiert werden. Jedoch reduziert zu viel Strukturierung den beruflichen Ermessensspielraum sowie die individuelle Varianz (Munro 2011). Krane und Davies (2000) argumentieren, dass konventionelle Items in Risikobewertungsinstrumenten die Bewertung und Kategorisierung von Eltern, überwiegend Müttern, auf der Grundlage kultureller, sozioökonomischer und geschlechtsspezifischer Vorurteile beschleunigen - im Kontext von prädiktiver Analytik ein Hinweis auf inhärente Verzerrungen. Vor diesem Hintergrund erscheint der Einsatz prädiktiver Analytik zunächst vielversprechend, etwa in der Erwartung, dass Prozesse der Sozialen Diagnostik und Risikoabschätzung objektiver, konsistenter und effizienter gestaltet werden können. Zusätzlich ist prädiktive Analytik in der Lage, eine sehr große Menge an Daten zu analysieren und dadurch Muster zu erkennen, die Menschen vielleicht verborgen bleiben. Gleichzeitig besteht die Gefahr, dass strukturelle Schwächen und blinde Flecken innerhalb der bestehenden Diagnostikpraxis durch datenbasierte Verfahren nicht nur reproduziert, sondern verstärkt werden. Insbesondere die Qualität der Datenerhebung stellt dabei einen kritischen Faktor dar: Welche Informationen erfasst, wie sie dokumentiert und interpretiert werden, ist - wie durch die oben im Text benannten Studien zu Risikoeinschätzungsinstrumenten und Entscheidungsfindungsprozessen dargelegt - oft von institutionellen Routinen, individuellen Perspektiven und impliziten Annahmen geprägt. Hinzu kommen die hohe Komplexität sozialer Problemlagen und eine Vielzahl fall- und kontextspezifischer Einflussfaktoren, die sich nicht ohne Weiteres in standardisierte Datenformate überführen lassen. Auch bei der Nutzung prädiktiver Modelle bleibt daher die sozialarbeiterische Einschätzung auf Basis professioneller Expertise und kontextueller Einordnung unverzichtbar (Plafky/ Badertscher 2025, i. E.). Was bei den zitierten Studien als Gemeinsamkeit herausgearbeitet werden kann, ist die Frage nach Verzerrungen und Bias in den Daten (Varsha 2023; Gillingham 2019 a, 2019 b), aber auch das Design des jeweiligen Algorithmus, das einen Einfluss auf die Genauigkeit der Analysen hat (Gillingham 2019 b). Dies liegt zum einen an der Qualität der vorliegenden Daten 427 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik und der Tatsache, dass diese Daten gemeinhin für den Alltag der sozialarbeiterischen Praxis gesammelt wurden, nicht für die Verwendung mit einem Algorithmus. Im deutschsprachigen Raum zeigt das Modellprojekt KIEPA (Plafky et al. 2022, 2024; Plafky/ Frischhut 2024), dass nicht nur die Trainingsdaten Verzerrungen aufweisen, sondern auch jene Daten, mit denen die KI später tatsächliche Analysen durchführt - oft ohne dass Fachkräfte sich dessen bewusst sind (Plafky et al., eingereicht). Klassische Fairness-Metriken reichen nicht aus, um diese Verzerrungen sichtbar zu machen. So kritisiert Gillingham (2019 a) die Studie von Wijenayake et al. (2018), die ein Prognosemodell zur Rückfälligkeit bei häuslicher Gewalt entwickelte. Obwohl das Modell mit einer Genauigkeit von etwa 70 % solide abschneidet, stellt Gillingham infrage, ob der Einsatz in der Praxis angesichts möglicher Fehlentscheidungen verantwortbar sei. Interessant sei zudem, dass fast die gleiche Vorhersagekraft mit nur drei anstelle von elf Faktoren erreicht wurde, zusätzliche demografische oder verhaltensbezogene Daten erhöhten die Genauigkeit kaum. Dies relativiere den Nutzen großer Datenmengen in sensiblen sozialen Kontexten. Einsatz von prädiktiver Analytik in der Kinder- und Jugendhilfepraxis Selbst wenn also ein optimal designter Algorithmus mit einer hohen Genauigkeit und möglichst verzerrungsfreien Daten vorliegt, bleibt die Einbindung von KI-Systemen in Entscheidungsprozesse der Sozialen Arbeit herausfordernd. Es gilt, die algorithmisch generierten Empfehlungen sinnvoll mit der professionellen Urteilskraft der Fachkräfte zu verknüpfen. Dabei ist insbesondere der rechtliche Rahmen zu beachten: Nach der EU-KI-Verordnung kann prädiktive Analytik also unterstützend wirken, ersetzt jedoch nicht die fachliche und ethische Beurteilung - die Verantwortung für die Entscheidung liegt bei der Fachkraft. Hierzu gibt es eine Reihe von Fragen, die sowohl in der Praxis als auch in der Forschung beantwortet werden müssen: ➤ Besteht die Einwilligung der beteiligten Personen zur Nutzung ihrer Daten in einer KI-Anwendung? Wie kann diese auf ethisch vertretbare Weise sichergestellt werden? ➤ Wie kann eine gute Datenbasis für die KI-Nutzung sichergestellt werden? Wie können Verzerrungen in den Datensätzen vermieden werden? Ist eine kritische Bewertung der Datenerhebungspraktiken mit Unterstützung spezifischer KI-Algorithmen durchgeführt worden? ➤ Wie sollte der Workflow der KI-Analyse, -Bewertung und -Entscheidungsfindung gestaltet sein? ➤ Sind Überlegungen zum Datenschutz bei der Verwendung einer Server-/ Cloud-Lösung durchgeführt worden? ➤ Gibt es Richtlinien für den Einsatz von KI-Algorithmen, die Machtasymmetrien gegenüber den Adressaten und Adressatinnen im Kontext von prädiktiver Analytik thematisieren, um Partizipation und Transparenz zu gewährleisten? Dabei bleibt die Frage offen, was Transparenz gegenüber Fachkräften und Adressaten und Adressatinnen in diesem Kontext bedeutet: Müssen alle technischen Details im Einzelnen vermittelt werden? Oder steht vielmehr eine verständliche Aufbereitung zentraler Informationen im Vordergrund, bei der nachvollziehbar ist, dass ein algorithmisches Verfahren Teil des Entscheidungsprozesses war, welche Daten einbezogen wurden und wie die Rolle der KI im Verhältnis zur professionellen Verantwortung der Fachkraft zu bewerten ist? Außerdem gibt es eine Reihe von grundlegenden Fragen, die bisher noch nicht umfassend beantwortet wurden: ➤ Welche Auswirkungen hat KI auf die fachliche Expertise? 428 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik ➤ Erwarten Kostenträger in Zukunft KI-Analysen und ist dies im Sinne der Sozialen Arbeit und der Adressaten und Adressatinnen? ➤ Werden Entscheidungsfindungsprozesse durch den Einsatz von prädiktiver Analytik transparenter als ohne? ➤ Wie kann eine regelmäßige Zusammenarbeit mit KI-Spezialisten und -Spezialistinnen sichergestellt werden? Wie könnte diese aussehen? Wer ist hierfür verantwortlich? Anforderungen an die Praxis und notwendige Kompetenzen von Fachkräften Vor diesem Hintergrund stellt sich die grundlegende Frage, wie, warum und unter welchen Bedingungen prädiktive Analytik in die Praxis der Kinder- und Jugendhilfe integriert werden kann. Die Technologie verspricht zwar Unterstützung bei komplexen Entscheidungen, führt jedoch nicht automatisch zu einer Reduktion dieser Komplexität. Vielmehr bringt sie neue Anforderungen mit sich - etwa die Notwendigkeit, algorithmische Empfehlungen kritisch einzuordnen, Verantwortung klar zu definieren und mit potenziellen Verzerrungen in den Daten reflektiert umzugehen. Eine unreflektierte Delegation von Verantwortung an die Technologie wäre weder ethisch vertretbar noch mit der EU-KI-Verordnung vereinbar. Erforderlich sind daher kognitive, ethische und professionelle Kompetenzen, die kritisches und reflexives Handeln ermöglichen. Zentral ist eine reflexive Professionalität (z. B. Heiner 2012; Schön 1983), die das Verstehen und Einordnen von algorithmischen Prognosen und die Integration von KI-gestützten Verfahren in diagnostische Prozesse umfasst. Besonders wichtig sind die Abwägung zwischen Effizienz und professioneller Verantwortung sowie die Transparenz gegenüber den Adressaten und Adressatinnen (siehe hierzu Gillingham 2019 a, 2019 b; Gutwald et al. 2021; Ghanem et al. 2022; Görder 2021; Plafky/ Badertscher 2025). Dabei betonen Brown et al. (2019) besonders die Bedeutung der „algorithmischen Verantwortlichkeit“. Basierend auf dem europäischen Rahmen für digitale Kompetenzen DigComp 2.2 (Vuorikari et al. 2022) haben Plafky und Badertscher (2025, i. E.) zentrale Kompetenzfelder für den KI-Einsatz in der Sozialen Arbeit identifiziert. Diese umfassen: ➤ Analytische und methodische Kompetenzen zur Interpretation von KI-Prognosen und deren Integration in die soziale Diagnostik ➤ Daten- und Informationskompetenz für den verantwortungsvollen Umgang mit digitalen Werkzeugen ➤ Reflexive Kompetenz zur kritischen Bewertung algorithmischer Empfehlungen ➤ Organisationale Kompetenz zur Gestaltung veränderter Entscheidungsprozesse Die erfolgreiche Implementierung von KI-Systemen erfordert eine Berücksichtigung unterschiedlicher Kompetenzansprüche auf verschiedenen organisationalen Ebenen. Plafky und Badertscher (2025, i. E.) beschreiben zusätzliche Kompetenzen, die besonders für Führungs- und Leitungskräfte erforderlich sind. Denn basierend auf der EU-KI-Verordnung tragen auch Organisationen eine Verantwortung bei der Umsetzung, Implementierung und Nutzung von KI-Anwendungen im Bereich der Sozialen Arbeit bzw. im Bereich öffentlicher Dienstleistungen. Zusätzlich dazu benötigt es spezifische Kompetenzen für die interdisziplinäre Zusammenarbeit mit Data Scientists und KI-Spezialisten und -Spezialistinnen, die nicht nur eine andere Sprache sprechen, sondern auch eine andere Arbeitskultur haben. Hier braucht es nicht nur praktische Ansätze, sondern auch weitere Forschung, um daraus konkrete Empfehlungen abzuleiten. Die Rolle der Schulung für Adressaten und Adressatinnen muss ebenfalls berücksichtigt 429 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik werden. Für die KI-Nutzung braucht es nicht nur Transparenz, sondern vor allem eine ethische Auseinandersetzung, wie diese möglichst gut und umfassend geleistet werden kann, um potenzielle Machtasymmetrien nicht weiter zu verstärken. Forschungs- und Praxisentwicklungsprojekte sind gefordert, durchdachte Implementierungsstrategien für Organisationen zu entwickeln. Erforderlich sind Richtlinien für den Einsatz von KI-Algorithmen, um eine ethische Nutzung sicherzustellen (Reamer 2023). Schlussfolgerung Die Erfahrungen mit Risikoeinschätzungsinstrumenten im Kinderschutz zeigen grundlegende Herausforderungen auf: White und Walsh (2006) konstatieren, dass solche Modelle oft nicht konsequent in Entscheidungsprozesse eingebunden werden. Systemische Schwächen wie problematische Organisationskulturen, mangelhaftes Fehlermanagement und fehlende Evaluationen (Gambrill/ Shlonsky 2000) beeinträchtigen dabei die Qualität der Entscheidungen. Diese Erkenntnisse sind für die Einführung prädiktiver Analytik hochrelevant. Die Implementation erfordert eine sorgfältige organisationale Einbettung durch verbindliche Strategien und Qualifizierungskonzepte. Fachkräfte müssen befähigt werden, statistische Vorhersagen einzuordnen und kritisch zu bewerten. Führungskräfte benötigen Kompetenzen für Veränderungsprozesse und neue Unterstützungsformate wie fallbezogene Supervision. Zentral sind kontinuierliche Fortbildungen zur ethischen Reflexion und regelmäßige Teamformate sowie die Überwindung einer „Entwederoder-Logik“ zwischen technischer Unterstützung und professionellem Urteilsvermögen (Tomison 1999). Wie White und Walsh (2006) zitieren, besteht in der Literatur breite Einigkeit darüber, dass die Wirksamkeit jeder Methode - unabhängig vom Ansatz - stark von der Kompetenz, Ausbildung und Unterstützung der Fachkräfte abhängt (Doueck et al. 1993). Diese Erkenntnisse sind übertragbar auf den Einsatz von KI-gestützten Verfahren im Bereich der Kinder- und Jugendhilfe. Wenn also über einen Einsatz von prädiktiver Analytik nachgedacht wird, kann dies nur vor dem Hintergrund dieser Themen, Kritikpunkte und Anforderungen sowohl an die Praxis als auch an die Kompetenzen der einzelnen Fach- und Führungskräfte gesehen werden. Entscheidend ist, wie diese Werkzeuge sinnvoll und verantwortungsvoll in bestehende Entscheidungsprozesse eingebettet werden und welche Datengrundlage verwendet wird. Dies erfordert eine grundlegende Weiterentwicklung und Anpassung der professionellen Praxis. Gleichzeitig müssen Fach- und Führungskräfte berücksichtigen, dass viele der bereits bekannten Herausforderungen weiterhin bestehen bleiben und sich die Komplexität der Fälle durch die Integration prädiktiver Systeme sogar erhöhen kann, was wiederum neue Anforderungen an ihre Kompetenzen mit sich bringt. Denn was aus den unterschiedlichen Studien abgeleitet werden kann, erfordert der Einsatz von KI paradoxerweise nicht weniger, sondern mehr menschliche Expertise und professionelles Urteilsvermögen (z. B. Gillingham 2019 b). Fachkräfte müssen nun nicht nur ihre klassischen sozialarbeiterischen Kompetenzen einbringen, sondern zusätzlich algorithmische Prognosen verstehen, einordnen und kritisch bewerten können. Sie müssen in der Lage sein, die Grenzen und Möglichkeiten der Technologie zu erkennen und deren Ergebnisse im Kontext der individuellen Fallsituation zu interpretieren. Diese erweiterten Anforderungen machen deutlich, dass KI keine Arbeitserleichterung oder schnelle Lösung für die komplexen Herausforderungen der Praxis darstellt, sondern vielmehr eine zusätzliche Ebene der fachlichen Auseinandersetzung einführt. 430 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik Prof. Dr. Christina S. Plafky BFH - Berner Fachhochschule Hallerstr. 10 3012 Bern Schweiz Literatur Ahn, E., Gil, Y., Putnam-Hornstein, E. (2021): Predicting youth at high risk of aging out of foster care using machine learning methods. Child Abuse & Neglect 117, 105059, https: / / doi.org/ 10.1016/ j.chiabu.2021. 105059 Benbenishty, R., Davidson-Arad, B., López, M., Devaney, J., Spratt, T., Koopmans, C., Knorth, E. J., Witteman, C. L. M., Del Valle, J. F., Hayes, D. (2015): Decision making in child protection: An international comparative study on maltreatment substantiation, risk assessment and interventions recommendations, and the role of professionals’ child welfare attitudes. Child Abuse & Neglect 49, 63 - 75 Brown, A., Chouldechova, A., Putnam-Hornstein, E., Tobin, A., Vaithianathan, R. (2019): Toward algorithmic accountability in public services: A qualitative study of affected community perspectives on algorithmic decision-making in child welfare services. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 1 - 12 Buttner, P., Gahleitner, S. B., Freund, U. H., Röh, D. (Hrsg.) (2018): Handbuch Soziale Diagnostik. Perspektiven und Konzepte für die Soziale Arbeit. Bd. 24. Lambertus-Verlag, Freiburg im Breisgau Calheiros, M. M., Silva, C. S., Magalh-es, E. (2021): Child Maltreatment Severity Questionnaire (MSQ) for professionals: Development, validity, and reliability evidence. Assessment 28 (5), 1397 - 1417 Chouldechova, A. (2017): Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big data 5 (2), 153 - 163 Chouldechova, A., Putnam-Hornstein, E., Benavides- Prado, D., Fialko, O., Vaithianathan, R. (2018): A case study of algorithm-assisted decision making in child maltreatment hotline screening decisions. Proceedings of Machine Learning Research 81, 1 - 15 Cooper, J. (2018): Social workers relying too much on experience rather than research to make decisions. Community Care, Social work leaders. In: https: / / www.communitycare.co.uk/ 2018/ 12/ 18/ social-wor kers-rely-experience -research-make -decisions, 22. 7. 2025 Cook, L. L. (2020): The home visit in child protection social work: Emotion as resource and risk for professional judgement and practice. Child & Family Social Work 25 (1), 18 - 26 Davidson‐Arad, B., Benbenishty, R. (2010): Contribution of child protection workers’ attitudes to their risk assessments and intervention recommendations: A study in Israel. Health & Social Care in the Community 18 (1), 1- 9 Doueck, H. J., English, D. J., DePanfilis, D., Moote, G. T. (1993): Decision-making in child protective services: A comparison of selected risk-assessment systems. Child Welfare 72 (5), 441- 452 Dötterl, S. (2025, i. E.): EU AI Act und Soziale Arbeit: Die KI-Verordnung und ihre Auswirkungen. In: Linnemann, G., Löhe, J., Rottkemper, B. (Hrsg.): KI in der Sozialen Arbeit. Beltz Juventa, Weinheim/ Basel Ejrnæs, M., Moesby-Jensen, C. K. (2021): Social workers’ risk assessment in child protection: the problem of disagreement and a lack of a precise language about risk. European Journal of Social Work 24 (5), 802 - 814 Gambrill, E., Shlonsky, A. (2000): Risk assessment in context. Children and Youth Services Review 22 (11-12), 813 - 837 Ghanem, C., Eckl, M., Lehmann, R. (2022): Big Data und Forschungsethik in der Sozialen Arbeit. Ethik- Journal 8(1) Gillingham, P. (2016): Predictive Risk Modelling to Prevent Child Maltreatment and Other Adverse Outcomes for Service Users: Inside the ‘Black Box’ of Machine Learning. British journal of social work 46 (4), 1044 - 1058 Gillingham, P. (2019 a): Can predictive algorithms assist decision‐making in social work with children and families? Child abuse review 28 (2), 114 -126 Gillingham, P. (2019 b): Decision Support Systems, Social Justice and Algorithmic Accountability in Social Work: A New Challenge. Practice 31 (4), 277 - 290, https: / / doi.org/ 10.1080/ 09503153.2019.1575954 Gillingham, P. (2020): Algorithmically Based Decision Support Tools: Skeptical Thinking about the Inclusion of Previous Involvement. Practice 33 (1), 37 - 50, https: / / doi.org/ 10.1080/ 09503153.2020.1749584 Gutwald, R., Burghardt, J., Kraus, M., Reder, M., Lehmann, R., Müller, N. (2021): Soziale Konflikte und Digitalisierung Chancen und Risiken digitaler Technologien bei der Einschätzung von Kindeswohlgefährdungen. EthikJournal 7 (2), 1- 20 431 uj 10 | 2025 Anforderungen an die Praxis beim Einsatz prädiktiver Analytik Görder, B. (2021): Die Macht der Muster. Die Ethik der Sozialen Arbeit vor professionsbezogenen und gesellschaftlichen Herausforderungen durch ,künstliche Intelligenz’. EthikJournal 7 (2), 1 - 22 Goddard, C. R., Saunders, B. J., Stanley, J. R., Tucci, J. (1999): Structured risk assessment procedures: Instruments of abuse? Child Abuse Review: Journal of the British Association for the Study and Prevention of Child Abuse and Neglect 8 (4), 251- 263 Heiner, M. (2012): Handlungskompetenz und Handlungstypen. In: Thole, W. (Hrsg.): Grundriss Soziale Arbeit. VS Verlag für Sozialwissenschaften, Wiesbaden, 611- 624 Johnson, W. (2006): The risk assessment wars: A commentary response to Evaluating the effectiveness of actuarial risk assessment models by Donald Baumann, J. Randolph Law, James Sheets, Grant Reid and J. Christopher Graham. Children and Youth Services Review 28 (6), 704 - 714 Krane, J., Davies, L. (2000): Mothering and child protection practice: Rethinking risk assessment. Child & Family Social Work 5 (1), 35 - 45 Munro, E. (2011): The Munro review of child protection: Final report. A child-centred system. The Stationery Office, London Plafky, C. S., Badertscher, H. (2025, i. E.): Transformation der Sozialen Arbeit durch Künstliche Intelligenz. Möglichkeiten, Grenzen und professionsethische Überlegungen. Springer VS, Wiesbaden Plafky, C. S., Frischhut, H. (2024): Einsatz von künstlicher Intelligenz zu Prognosezwecken in der Kinder- und Jugendhilfe. In: Macsenaere, M. (Hrsg.): Künstliche Intelligenz in der Kinder- und Jugendhilfe. Ernst Reinhardt, München, 67 - 73 Plafky, C. S., Kratz, N., Kuck, A. Frischhut, H. (2022): KI-basierte Entscheidungsunterstützung in der Praxis Sozialer Arbeit. unsere jugend 74 (3), 115 - 121 Plafky, C. S., Kuck, A., Kratz, N., Frischhut, H. (2024): KI als Instrument für die Ressourcen- und Maßnahmenplanung in sozialen Einrichtungen. unsere jugend 76 (7), 311 - 327 Plafky, C. S., Kuck, A., Kratz, N., Frischhut, H. (eingereicht): AI as a Mirror: Using Boundary Objects Theory to Reveal Hidden Documentation Practices in Social Work Reamer, F. (2023): Artificial Intelligence in Social Work: Emerging Ethical Issues. International Journal of Social Work Values and Ethics 20 (2), 52 - 71 Ryan, S., Wiles, D., Cash, S., Siebert, C. (2005): Risk assessments: Empirically supported or values driven? Children and Youth Services Review 27 (2), 213 - 225 Salganik, M. J. (2019): Bit by bit: Social research in the digital age. Princeton University Press. Schön, D. A. (1983): The reflective practitioner. Basic Books, New York Schwartz, I. M., York, P., Nowakowski-Sims, E. & Ramos- Hernandez, A. (2017): Predictive and prescriptive analytics, machine learning and child welfare risk assessment: The Broward County experience. Children and Youth Services Review, 81, 309 - 320. Sicora, A., Taylor, B. J., Alfandari, R., Enosh, G., Helm, D., Killick, C. et al. (2021): Using intuition in social work decision making. European Journal of Social Work 24 (5), 772 - 787 Spratt, T., Devaney, J., Hayes, D. (2015): In and out of home care decisions: The influence of confirmation bias in developing decision supportive reasoning. Child Abuse Negl. 49, 76 - 85 Taylor, B., Fluke, J., Graham, C., Keddell, E., Killick, C., Shlonsky, A., Whitaker, A. (2023): The Sage Handbook of Decision Making, Assessment and Risk in Social work. Sage Publishing, New York Tomison, A. M. (1999): Ensuring the protection of children: The role of child protection services in the identification, assessment and treatment of maltreated children. NSW Department of Community Services, Sydney Vaithianathan, R., Benavides Prado, D., Dalton, E., Chouldechova, A., Putnam-Hornstein, E. (2021): Using a machine learning tool to support high-stakes decisions in child protection. AI Magazine 42 (1), 53 - 60 Varsha, P. S. (2023): How can we manage biases in artificial intelligence systems - A systematic literature review. International Journal of Information Management Data Insights 3 (1), 100165 Vuorikari, R., Kluzer, S., Punie, Y. (2022): DigComp 2.2: The Digital Competence Framework for Citizens - With new examples of knowledge, skills and attitudes. Publications Office of the European Union, Luxembourg White, S., Walsh, D. (2006): Risk assessment in child welfare. In: https: / / dcj.nsw.gov.au/ documents/ aboutus/ facsiar/ past-research-reports/ child-protection/ risk-assessment-in-child-welfare-research-reportseptember-2006.pdf, 24. 7. 2025 Wijenayake, S., Graham, T., Christen, P. (2018): A decision tree approach to predicting recidivism in domestic violence. Pacific-Asia Conference on Knowledge Discovery and Data Mining. Springer International Publishing, Cham, 3 -15
