eJournals unsere jugend77/10

unsere jugend
4
0342-5258
Ernst Reinhardt Verlag, GmbH & Co. KG München
10.2378/uj2025.art49d
4_077_2025_10/4_077_2025_10.pdf101
2025
7710

Künstliche Intelligenz: Was kommt auf die Kinder- und Jugendhilfe zu und wie kann/sollte sie darauf reagieren?

101
2025
Michael Macsenaere
Monika Feist-Ortmanns
KI wird zu massiven und zum Teil disruptiven Veränderungen in der Kinder- und Jugendhilfe führen. Der Beitrag skizziert, was in den nächsten Jahren zu erwarten ist und welche Möglichkeiten Fach- und Führungskräfte haben, darauf nicht nur adäquat zu reagieren, sondern auch proaktiv und nachhaltig zu handeln.
4_077_2025_10_0003
402 unsere jugend, 77. Jg., S. 402 - 411 (2025) DOI 10.2378/ uj2025.art49d © Ernst Reinhardt Verlag Künstliche Intelligenz: Was kommt auf die Kinder- und Jugendhilfe zu und wie kann/ sollte sie darauf reagieren? KI wird zu massiven und zum Teil disruptiven Veränderungen in der Kinder- und Jugendhilfe führen. Der Beitrag skizziert, was in den nächsten Jahren zu erwarten ist und welche Möglichkeiten Fach- und Führungskräfte haben, darauf nicht nur adäquat zu reagieren, sondern auch proaktiv und nachhaltig zu handeln. von Prof. Dr. Michael Macsenaere Johannes Gutenberg-Universität Mainz, Wissenschaftlicher Direktor des Instituts für Kinder- und Jugendhilfe (IKJ) Monika Feist-Ortmanns Geschäftsführende Direktorin des Instituts für Kinder- und Jugendhilfe (IKJ) Mit diesem einführenden Beitrag werden drei Fragestellungen behandelt: 1. Welche Potenziale und Herausforderungen bietet KI für die Kinder- und Jugendhilfe und in welchen Bereichen wird sie bis 2027 Einzug halten? Hier werden sowohl die inhärenten Chancen als auch die potenziellen Risiken dieser Entwicklung aufgezeigt. Ziel ist es, Risiken zu minimieren und Chancen von KI aktiv zu nutzen, um Fachkräfte zu entlasten und gleichzeitig fachliche Prozesse weiterzuentwickeln. 2. Wie kann KI in sozialen Organisationen erfolgreich implementiert werden? Im zweiten Teil dieses Beitrags wird detailliert beschrieben, welche Voraussetzungen im Sinne eines umfassenden Change Managements geschaffen werden müssen, um die anstehende digitale Transformation erfolgreich zu gestalten. Ein Stufenmodell zeigt hier einen systematischen und bewältigbaren Weg auf. 3. Wie kann sich Kinder- und Jugendhilfe heute schon zielgerichtet auf den Weg in die Zukunft machen? Abschließend wird am Beispiel eines großen Projektes skizziert, wie Einrichtungen und Jugendämter die beschriebenen Herausforderungen in der Praxis konkret angehen. Künstliche Intelligenz (KI) wird aktuell (Stand Juli 2025) in der Kinder- und Jugendhilfe noch nicht systematisch und in Arbeitsabläufe eingebettet genutzt (Meinhardt-Injac/ Macsenaere 2025). 1 Dies wird sich allerdings bis 2027 drastisch ändern. Die nachfolgende Abbildung ermöglicht eine Übersicht, in welchen Bereichen bzw. Aufgabenfeldern der Kinder- und Jugendhilfe KI in den nächsten drei Jahren Einzug halten wird. 1 Siehe Beitrag im aktuellen Heft. 403 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? Die erste Welle (2025): „Text-Assistenten“ für die Erstellung von Dokumentationen, Berichten und Protokollen Den Auftakt der zu erwartenden KI-Wellen bildet die Textgenerierung mittels Large Language Models (LLMs). Diese Sprachmodelle sind in der Lage, unterschiedliche Texte im Dialog mit den Fachkräften zu generieren. Damit müssen zeitraubende und oft ungeliebte Aufgaben wie die Erstellung von Dokumentationen, Protokollen und Berichten nicht mehr ausschließlich manuell erfolgen, sondern können KIgestützt als Entwürfe vorformuliert werden. Dies ist nicht als Substitution von Fachkräften zu verstehen, sondern als potenzieller Bürokratie-Optimierer, der administrative Lasten reduziert und somit zeitliche Ressourcen für die direkte Arbeit mit den jungen Menschen freisetzen kann. In diesem Kontext ist die „Multimodalität“ von KI-Systemen für die Kinder- und Jugendhilfe von großer Bedeutung: Aktuelle LLMs wie ChatGPT oder Gemini 2.5 können nicht nur Texte verarbeiten und generieren, sondern sind auch in der Lage, Informationen aus verschiedenen Input-Medien wie Sprache, Bilder und Videos integrativ zu verarbeiten (Huang et al. 2023). Dies eröffnet die Chance, komplexe Fallinformationen - die beispielsweise in Form von Gesprächen, Telefonaten, Schriftverkehr und Dokumentationen unterschiedlicher Art vorliegen - durch die KI vorstrukturieren und analysieren zu lassen. Der entscheidende Vorteil dieser multimodalen Fähigkeit liegt im adressatengerechten Output. LLMs sind in der Lage, Informationen nicht nur in Fachsprache zu generieren, sondern diese auch an die spezifischen Bedürfnisse und den Kenntnisstand der jeweiligen Zielgruppe anzupassen. Dies umfasst: ➤ Verständlichkeit: Reduktion von Fachjargon und Komplexität für Laien. ➤ Fremdsprachen: Übersetzung von Inhalten in diverse Sprachen, um Sprachbarrieren abzubauen. ➤ Unmittelbarkeit und 24/ 7-Verfügbarkeit: Bereitstellung von Informationen sofort und zu jeder Zeit. Abb. 1: Zu erwartende „KI-Wellen“ in der Kinder- und Jugendhilfe bis 2027 404 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? ➤ Lebensweltorientierung: Anpassung der Sprache und Beispiele an die spezifische Lebenswelt und Interessen der Hilfeadressat: innen, also der jungen Menschen und ihren Familien. ➤ Medium: Ausgabe der Informationen nicht nur als Text, sondern je nach Präferenz auch als Audio (z. B. Sprachausgabe) oder in visuellen Formaten. Diese Potenziale unterstützen die Anforderungen des Kinder- und Jugendstärkungsgesetzes (KJSG), welches die Kommunikation der Fachkräfte als „verständlich, nachvollziehbar, wahrnehmbar“ fordert. Dies stellt für die Kinder- und Jugendhilfe eine Chance zu mehr Adressatengerechtigkeit, Partizipation und Empowerment dar (Feist-Ortmanns / Macsenaere 2020). Herausforderungen: Die aktuelle Forschung zur Anwendung von LLMs in sensiblen Kontexten (z. B. Crawford 2021; Floridi/ Chiriatti 2020) weist auf diverse Herausforderungen hin. Dazu gehört das Risiko der Verstärkung von modellspezifischem Bias (Verzerrungen), die mangelnde Fähigkeit zur Erfassung menschlicher Nuancen und die Komplexität des Datenschutzes bei generativen KI-Systemen. Eine kontinuierliche menschliche Supervision und ein tiefes Verständnis für die Limitationen der Technologie sind unerlässlich, um eine hohe Qualität der Dokumentation zu gewährleisten. Die Sicherstellung der Datensouveränität und der Schutz sensibler Klient: innendaten bei multimodalen Inputs und Outputs ist hierbei von hoher Priorität. Die zweite Welle (2026): Wissensmanagement 2.0 - ein dialogischer „Wissens-Lotse“ Aufbauend auf die erste Welle wird sich die zweite entwickeln: KI wird hier zum „Wissens-Lotsen“, der interne und externe Datenbanken, Leitfäden und Best-Practice-Sammlungen nicht nur verwaltet, sondern intelligent vernetzt und somit allen Nutzer: innen einen dialogischen und kontextbezogenen Zugriff darauf ermöglicht. Aufwendiges und oft nicht zielführendes Suchen nach relevanten Informationen kann damit minimiert werden, da die KI alle wichtigen Daten bereitstellt. Abb. 2: Multimodalität des Inputs und des Outputs aktueller LLMs und daraus resultierende Chancen einer adressat: innengerechteren Kommunikation („verständlich, nachvollziehbar, wahrnehmbar“) 405 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? Die Implementierung von KI im Wissensmanagement bietet mehrere konkrete Mehrwerte, die zur Entlastung und Qualifizierung von Fachkräften beitragen können: ➤ Qualitätssicherung: KI-gestützte Systeme ermöglichen einen besseren und schnelleren Zugriff auf gesammeltes Fachwissen und interne Dokumente. Dies kann die Konsistenz in der Fallbearbeitung erhöhen und die Einhaltung von Standards unterstützen (Davenport/ Prusak 1998). ➤ Entscheidungsunterstützung: Durch die Analyse großer Datenmengen können KI-Systeme evidenzbasierte Fallanalysen durch vergleichende Simulation von Szenarien („Was-wäre-wenn-Analysen“) für Interventionsstrategien ermöglichen. Dies unterstützt Fachkräfte bei der fundierten Entscheidungsfindung, ohne die Autonomie der menschlichen Beurteilung zu ersetzen (Chen et al. 2012). ➤ Wissenstransparenz: KI kann dazu beitragen, Informationsdefizite zwischen verschiedenen Bereichen und Standorten abzubauen. Durch die intelligente Verknüpfung von Wissen wird eine einheitlichere Informationsbasis geschaffen, was die Zusammenarbeit und den Austausch fördert. ➤ Dokumentations- und Reporting- Unterstützung: Über die reine Textgenerierung hinaus kann KI im Wissensmanagement auch die automatische Protokoll- und Berichterstellung unterstützen, beispielsweise bei Fallübergaben, Zwischenberichten oder Förderplänen. Hierbei geht es um die Strukturierung und Zusammenführung bereits vorhandener Informationen. ➤ Fort- und Weiterbildung: KI-Systeme können die Generierung individueller Lernpfade basierend auf den Rollen und Bedarfen der Nutzer: innen ermöglichen. Dies schließt „Just-in-time“-Lernhäppchen (Microlearning) direkt im Arbeitskontext ein, was eine kontinuierliche Qualifizierung der Fachkräfte fördert und den Wissenstransfer optimiert (Spector et al. 2014). ➤ Onboarding: Für neue Mitarbeitende kann KI eine personalisierte Wissensvermittlung und gezielte Antworten auf typische Onboarding Fragestellungen bieten. Dies beschleunigt den Einarbeitungsprozess und stellt sicher, dass relevante Informationen bedarfsgerecht zugänglich sind. Herausforderungen: Die Integration heterogener Datenquellen und die Gewährleistung der Datensicherheit stellen hier zentrale technische und organisatorische Hürden dar (Manyika et al. 2011). Zudem muss sichergestellt werden, dass die KI nicht auf veraltete oder fehlerhafte Informationen zugreift. Hierfür ist die menschliche Expertise unersetzlich. Die notwendige Akzeptanz der Fachkräfte für neue, KI-gestützte Wissensmanagement-Systeme sollte durch transparente Kommunikation und partizipative Gestaltung gefördert werden. Die dritte Welle (2026): „Predictive Analytics“ - ein Kompass für Diagnosen und Prognosen Mit „Predictive Analytics“ sind KI-gestützte Anwendungen (hier keine LLMs, sondern Neuronale Netze) zur Diagnostik, Prognose, Indikation und Risikoeinschätzung zu verstehen (Plafky 2025). 2 Die KI agiert als „Muster-Erkenner“ und identifiziert in umfangreichen Datensätzen Zusammenhänge, die Hinweise auf zukünftige Entwicklungen oder potenzielle Risiken ermöglichen. Dies darf nicht als „Algorithmus-Diktatur“ angewendet werden, sondern sollte als eine ergänzende Information Fachkräfte dabei unterstützen, präventiv und zielgerichtet handeln zu können. 2 Siehe Beitrag im aktuellen Heft. 406 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? Konkrete Anwendungsoptionen von „Predictive Analytics“ in der Kinder- und Jugendhilfe umfassen: ➤ Unterstützung bei der Erstellung von sozialpädagogischen Diagnosen (Plafky 2025): KI kann dabei helfen, relevante Informationen aus Fallakten zu extrahieren und Muster zu erkennen, die zur Formulierung einer Diagnose beitragen. Dies kann die Konsistenz und Objektivität der Diagnoseprozesse verbessern. ➤ Frühere Identifizierung von Risikofaktoren und Gefährdungen: Durch die Analyse von Daten können KI-Modelle Risikofaktoren (z. B. Krisen im familiären Umfeld, Kindeswohlgefährdung) vorhersagen. Dies kann eine proaktive und frühzeitigere Intervention ermöglichen, bevor Situationen eskalieren. ➤ Optimierung von Entscheidungen: KI kann Fachkräfte bei der Auswahl der besten Handlungsstrategie unterstützen, basierend auf den prognostizierten Ergebnissen verschiedener Interventionsansätze. Dies ermöglicht eine evidenzbasierte Planung und erhöht die Erfolgsaussichten von Maßnahmen. ➤ Erhöhung der Indikationsgüte: Durch die Vorhersage, welche Hilfe für eine bestimmte Ausgangslage am geeignetsten ist, kann KI dazu beitragen, die Passgenauigkeit von Interventionen zu verbessern und somit die Effektivität der Jugendhilfe zu fördern. Herausforderungen: 1) O’Neil (2016) und Buolamwini/ Gebru (2018) warnen vor der Gefahr, dass bestehende gesellschaftliche Ungleichheiten durch Algorithmen reproduziert oder gar verstärkt werden können. 2) Das sogenannte „Black-Box-Problem“ - die mangelnde Transparenz und Nachvollziehbarkeit von KI-Entscheidungen - erfordert transparente Erklärungsansätze (Pasquale 2015). 3) Eine robuste „Ethik-Firewall“ und eine umfassende „Datenschutz-Architektur“ sind unerlässlich, damit Daten nicht zu „gläsernen Klienten“ führen und die menschliche Autonomie in der Entscheidungsfindung gewahrt bleibt. 4) Zudem muss eine hohe Komplexität und Qualität der Daten gewährleistet sein. 5) Last but not least stellt dieses Vorgehen hohe Anforderungen an die Praxis und die KI-Kompetenzen von Fachkräften (Plafky 2025). Die vierte Welle (2027): Chatbots - die „Kommunikations- Assistent: innen“ Junge Menschen nutzen längst Chatbots über ihr Handy, wenn sie Rat suchen (Löhe/ Stieler 2025). 3 Aber auch in der Kinder- und Jugendhilfe werden uns Chatbots für Beratung oder auch Telefonie erreichen. Das komplexe Interaktionsvermögen einer menschlichen Fachkraft werden sie zwar nicht ersetzen können - dennoch werden sie als „Kommunikations-Assistent: innen“ fungieren, die erste Anfragen filtern, Standardfragen beantworten und somit Fachkräfte entlasten können. Ein „digitaler Erstkontakt“ könnte die Verfügbarkeit erhöhen und Wartezeiten reduzieren. Virtuelle Assistenten können rund um die Uhr als Ansprech- und Dialogpartner dienen. Sie können auch grundlegende Beratungsleistungen anbieten und Fachkräfte unterstützen, indem sie Informationen bereitstellen und häufig gestellte Fragen beantworten (Lehmann 2024). Dies kann dazu beitragen, die Zugänglichkeit Sozialer Arbeit zu verbessern und die Fachkräfte von routinemäßigen Anfragen zu entlasten. Eine aktuelle Studie von Ayers et al. (2023) zur ärztlichen Beratung zeigt bemerkenswerte Ergebnisse: Der Chatbot wurde in Bezug auf die Qualität der Antworten wie auch überraschenderweise auf die Empathie erheblich besser bewertet als die Ärzt: innen. Diese Ergebnisse deuten auf ein Potenzial hin, das auch für die Kinder- und Jugendhilfe relevant sein 3 Siehe Beitrag im aktuellen Heft. 407 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? könnte, insbesondere im Bereich der niedrigschwelligen Informationsvermittlung und der initialen Kontaktaufnahme. Herausforderungen: 1) Studien im Bereich Mensch-Maschine-Interaktion (Bickmore/ Picard 2005) zeigen, dass in komplexen oder emotional aufgeladenen Situationen der menschliche Kontakt unverzichtbar bleibt. 2) Der Datenschutz bei sensiblen Gesprächsinhalten und die Gefahr einer „Entmenschlichung“ sind kritische Punkte, die eine sorgfältige Konzeption und Implementierung erfordern. 3) Die ethische Frage, inwieweit Empathie durch Algorithmen simuliert werden darf und welche Erwartungen dies bei Klient: innen weckt, muss ebenfalls noch intensiv diskutiert werden. Die fünfte Welle (2027): Autonomes Bearbeiten ganzer Handlungsketten - die „KI-Agenten“ Gleichzeitig mit den Chatbots werden „KI-Agenten“ in Erscheinung treten. Dies sind Systeme, die nicht nur auf Anweisung eine Aufgabe bewältigen, sondern selbstständig ganze Handlungsketten ausführen, also bspw. Informationen beschaffen, auf dieser Basis Aufgaben ausführen, eine Prüfung der daraus resultierenden Ergebnisse und komplexe Anschlussprozesse anstoßen können. Sie können als „digitale Assistenz mit deutlich erweiterten Kompetenzen“ verstanden werden. Hier wird die Phase der „automatisierten Unterstützung“ in der Kinder- und Jugendhilfe beginnen, die nicht technisches Know-how, sondern auch eine intensive „Regelwerk-Reflexion“ und „Verantwortungs-Klärung“ erfordert. Herausforderungen: 1) Die Frage der Verantwortlichkeit bei autonomen Systemen ist juristisch und ethisch noch weitgehend ungeklärt (Etzioni/ Etzioni 2017; Gasser/ Almeida 2017). 2) Die Transparenz der Entscheidungsfindung und die Notwendigkeit, robuste menschliche Kontrollmechanismen zu implementieren, sind essenziell, um Fehlentwicklungen zu vermeiden. 3) Ein Change Management zur Neustrukturierung von Arbeitsabläufen und zur Neudefinition von Rollenprofilen ist notwendig (Macsenaere 2025). Implementierung von KI in sozialen Organisationen: Der Weg zur nachhaltigen Nutzung Die Einführung von Künstlicher Intelligenz in Organisationen ist kein triviales Unterfangen. Studien zeigen, dass ein erheblicher Anteil von KI-Implementierungen scheitert oder die erwarteten Ziele nicht erreicht (IBM 2021). Dies unterstreicht, dass es sich um einen komplexen Prozess handelt, der weit über die bloße technische Integration hinausgeht. Eine erfolgreiche Implementierung erfordert die parallele und verzahnte Bewältigung von mindestens vier zentralen Dimensionen: 1. Technik und KI-Tools: Die Auswahl, Anpassung und Integration der passenden technologischen Lösungen. 2. Datenschutz und Datennutzung: Die Sicherstellung rechtlicher Konformität und ethischer Standards im Umgang mit sensiblen Daten. 3. Anpassung von Organisationsstrukturen und Arbeitsprozessen: Die Neugestaltung bestehender Abläufe und Hierarchien, um die Potenziale der KI optimal zu nutzen. 4. Gewinnung und Qualifizierung der Menschen in der Organisation: Die Förderung von Akzeptanz, Kompetenzaufbau und die Bewältigung von Ängsten und Widerständen bei den Mitarbeitenden. Um diese Komplexität systematisch anzugehen, haben wir ein 6-Stufen-Modell zur nachhaltigen KI-Implementierung entwickelt, das als Leitfaden für soziale Organisationen dienen kann (s. Abb. 3). 408 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? 1. Stufe: In dieser initialen Phase werden die spezifischen Bedarfe der Organisation identifiziert und eine umfassende Bestandsanalyse durchgeführt. Dabei werden die vorhandenen Technologien, Daten und Prozessabläufe gesichtet und bewertet. Parallel dazu werden technische, organisatorische und ethische Herausforderungen identifiziert. Eine Marktanalyse und die präzise Definition der mit KI verbundenen Ziele schließen diese Stufe ab. Transparenz und die frühzeitige Einbeziehung aller Stakeholder sind hierbei essenziell. 2. Stufe: Hier rückt der Mensch in den Mittelpunkt. Es geht um den Aufbau von Kompetenzen im Umgang mit KI, die Förderung von Akzeptanz und die Entwicklung einer einheitlichen Haltung zur KI-Nutzung. Dies beinhaltet die Vermittlung von KI-Grundlagen, die Sensibilisierung für Datenqualität und Bias sowie die Verankerung des „Human-in-the-Loop“-Konzepts. Gemäß des „Technology Acceptance Model“ (TAM) (Davis 1989; Granić/ Marangunić 2019) sollen Hemmschwellen durch erfahrbare Nützlichkeit und Benutzerfreundlichkeit abgebaut werden. Zudem werden verbindliche Leitlinien zu ethischen Fragen erarbeitet und kontinuierliche Weiterbildung ermöglicht. 3. Stufe: Der Fokus liegt hier auf der Planung und Durchführung von Pilotprojekten in begrenzten, klar definierten Bereichen. Ziel ist es, erste Erfahrungen mit KI zu sammeln und Prototypen zu entwickeln, die den identifizierten Anforderungen entsprechen. Nach Testläufen und Anpassungen werden diese Prototypen eingeführt, wobei ein kontinuierliches Monitoring der Leistung und Wirkung erfolgt. Die Ergebnisse werden kritisch reflektiert, um eine mögliche Skalierung zu bewerten. 4. Stufe: Jetzt werden die zuvor getesteten Prototypen in den regulären Betrieb und damit in die bestehenden Arbeitsprozesse eingebunden. Ein detaillierter Plan zur systematischen Einführung ist hierbei empfehlenswert, der auch die Erwei- © Institut für Kinder- und Jugendhilfe (IKJ) 6. STUFE 5. STUFE 4. STUFE 3. STUFE 2. STUFE 1. STUFE WEITERENTWICKLUNG UND NACHHALTIGKEIT ÜBERWACHUNG UND EVALUATION INTEGRATION UND ANPASSUNG PILOTPROJEKTE UND PROTOT YPEN KOMPETENZ, AKZEPTANZ UND HALTUNG BEDARFE, HERAUSFORDERUNGEN UND ZIELDEFINITION Bedarfsanalyse · Bestandsaufnahme · Identifikation von Herausforderungen Marktanalyse KI · Zieldefinition Wissensaufbau · Human in the Loop · Förderung der Akzeptanz Unternehmenshaltung zu KI Pilotprojekt-Planung · Durchführung der Pilotprojekte Kritische Reflexion und ethische Verantwortung Schrittweise Integration Integration in die Arbeitsprozesse Technische Integration Kontinuierliches Monitoring Evaluation der Ergebnisse Anpassung und Optimierung Abb. 3: KI-Implementierung in sozialen Organisationen: In 6 Schritten zur nachhaltigen KI-Nutzung 409 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? terung auf andere Organisationsbereiche berücksichtigt. Um eine reibungslose Integration zu gewährleisten, sind gezielte Schulungen der Fachkräfte und eine technische Integration - die Kompatibilität mit der IT-Infrastruktur und die Einhaltung von Datenschutzanforderungen sicherstellt - entscheidend. 5. Stufe: Nach der Integration sollten die KI-Lösungen systematisch auf Alltagstauglichkeit und -nutzen überprüft werden. Anpassungen erfolgen auf Grundlage des Feedbacks der Fachkräfte und Klient: innen. Es wird systematisch geprüft, ob die auf Stufe 1 definierten Ziele erreicht wurden und welche Optimierungen notwendig sind. 6. Stufe: Sie betrifft die langfristige Weiterentwicklung und Nachhaltigkeit der KI-Integration. Eine systematische Strategie berücksichtigt kontinuierliche Schulungen und regelmäßige Überprüfungen zur Anpassung an neue technologische Entwicklungen. Ziel ist es sicherzustellen, dass die KI-Lösungen langfristig den Anforderungen der Organisation und den Bedarfen der betreuten Personen gerecht werden. Die in diesem Modell skizzierten sechs Stufen der KI-Implementierung verdeutlichen die Komplexität einer nachhaltigen Nutzung von Künstlicher Intelligenz in sozialen Organisationen. Eine sorgfältige, systematische Planung ist unerlässlich, um die Chancen einer solchen Integration zu erhöhen und die Risiken zu begrenzen. Dabei ist es von zentraler Bedeutung, sowohl technologische als auch menschliche Aspekte gleichermaßen zu berücksichtigen. Nur mit einer solchen ausbalancierten Herangehensweise kann KI zu einem substanziellen und langfristigen Mehrwert für alle beteiligten Akteur: innen beitragen. Erste Erfahrungen zeigen, dass aufgrund des schrittweisen Vorgehens dieses Modells die KI-Implementierung mit einem leistbaren Aufwand in der Praxis zu bewältigen ist. Bedarfsgerechte KI für die Kinder- und Jugendhilfe: Die Praxis macht sich gemeinsam auf den Weg Die in den vorangegangenen Abschnitten skizzierten KI-Wellen und das 6-Stufen-Modell zur Implementierung münden in einem konkreten und ambitionierten Vorhaben: dem Projekt „Bedarfsgerechte KI für die Kinder- und Jugendhilfe“ des Instituts für Kinder- und Jugendhilfe (IKJ). Dieses Projekt setzt direkt an den Bedarfen der Einrichtungen und Jugendämter an: Gemeinsam werden jugendhilfetaugliche KI- Lösungen entwickelt, die Fachkräfte gezielt entlasten, aber auch Qualität weiterentwickeln. Dabei stehen folgende Ziele im Vordergrund: ➤ Praxistaugliche KI-Lösungen: Die entwickelten Anwendungen sind nicht generisch, sondern auf die pädagogischen und organisatorischen Workflows der Kinder- und Jugendhilfe zugeschnitten. Sie sind das Ergebnis einer gemeinsamen Entwicklung, die sich an den realen Bedarfen der Fachkräfte orientiert. ➤ Mitgestalten statt nur Anwenden: Die spezifischen Bedarfe und Erfahrungen der Praxis fließen partizipativ direkt in die Konzeption und Entwicklung der KI-Lösungen ein. Dies gewährleistet eine hohe Akzeptanz und Praxistauglichkeit der entstehenden Tools (Stieger et al. 2025). 4 ➤ Agile Entwicklung: Erste Prototypen für den Bereich der Textgenerierung werden bereits im 4. Quartal 2025 nutzbar sein. ➤ Nachhaltige Implementierung: Die beteiligten Einrichtungen und Jugendämter erhalten nicht nur jugendhilfespezifische KI-Tools, sondern auch umfassende Unterstützung für eine Integration in ihre Organisation, basierend auf dem oben dargestellten 6-Stufen-Modell. Ein praxisnahes „Playbook“ erleichtert dabei die Einführung. 4 Siehe Beitrag im aktuellen Heft. 410 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? ➤ Höchste Datenschutzstandards: Die KI- Tools erfüllen die strengen DSGVO-Anforderungen und werden auf sicheren deutschen Servern betrieben. Die Vorgaben des EU-AI-Acts 5 werden gleichermaßen erfüllt. ➤ Kostengünstige Nutzung: Die entwickelten Lösungen stehen den teilnehmenden Organisationen nicht profit-, sondern gemeinwohlorientiert kostenreduziert zur Verfügung. ➤ Wissenschaftliche Fundierung und Begleitung: Dieses Projekt wird in Zusammenarbeit mit dem DIWAG-Promotionskolleg und weiteren Hochschulen wissenschaftlich begleitet. So sichern wir eine evidenzbasierte Entwicklung und nachhaltige Implementierung der KI-Anwendungen, die den wissenschaftlichen Ansprüchen der Zielgruppe gerecht wird. Bereits jetzt beteiligen sich bundesweit über 70 Träger der freien und öffentlichen Kinder- und Jugendhilfe aktiv an diesem Projekt mit insgesamt über 10.000 KI-bezogenen Arbeitsplätzen. Diese hohe Beteiligung unterstreicht, dass zahlreiche Akteure der Kinder- und Jugendhilfe nicht nur das immense Potenzial von KI erkennen, sondern auch die Notwendigkeit, diese aktiv mitzugestalten und an den Bedarfen der Praxis vor Ort auszurichten. Prof. Dr. Michael Macsenaere Monika Feist-Ortmanns IKJ Institut für Kinder- und Jugendhilfe gGmbH Altendorfer Str. 237 45143 Essen E-Mail: institut@ikj-online.de 5 Siehe: https: / / artificialintelligenceact.eu/ Literatur Ayers, J. W., Leas, E. C., Zhu, Z., Poliak, A., Marks, R. S., Dredze, M.,… Conway, M. (2023): Performance of a large language model in answering health questions. JAMA Internal Medicine 183 (1), 1 - 8 Bickmore, T. W., Picard, R. W. (2005): Establishing and maintaining long-term relationships with relational agents. ACM Transactions on Computer-Human Interaction (TOCHI) 12 (4), 595 - 621 Buolamwini, J., Gebru, T. (2018): Gender Shades: Intersectional Phenotypic Demographics for Darker- Skinned Females. Proceedings of the 1st Conference on Fairness, Accountability, and Transparency, 77 - 91 Chen, Y., Li, S., Zhang, D. (2012): A survey of decision support systems for social services. Expert Systems with Applications 39 (3), 3290 - 3300 Crawford, K. (2021): Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, New Haven Davenport, T. H., Prusak, L. (1998): Working knowledge. How organizations manage what they know. Harvard Business School Press, Boston Davis, F. D. (1989): Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly 13 (3), 319 - 340 Etzioni, A., Etzioni, O. (2017): Should artificial intelligence be regulated? AI & Society 32 (3), 347 - 352 Feist-Ortmanns, M., Macsenaere, M. (2020): Ergebnisbericht der wissenschaftlichen Begleitung. Mitreden - Mitgestalten: Die Zukunft der Kinder- und Jugendhilfe. BMFSFJ, Berlin, https: / / www.ikj-online.de/ wp-content/ uploads/ sites/ 3/ 2020/ 10/ IKJ-Ergebnisbericht-Wiss.- Begleitung_gesamt.pdf Floridi, L., Chiriatti, M. (2020): GPT-3. Its nature, scope, limits, and consequences. Minds and Machines 30 (4), 681 - 694 Gasser, U., Almeida, V. A. F. (2017): A Layered Approach to AI Governance. IEEE Internet Computing 21 (6), 58 - 62, https: / / doi.org/ 10.1109/ mic.2017.4180835 Granić, A., Marangunić, N. (2019): Technology acceptance model in social sciences. A systematic literature review. Universal Access in the Information Society 18 (4), 815 - 838 Huang, L., Yu, D., Li, Y., Hou, Y., Li, J. (2023): A Survey on Multimodal Large Language Models, https: / / arxiv.org/ pdf/ 2306.13549 IBM (2021): The AI Ladder: A practitione’s guide to scaling AI. In: https: / / www.ibm.com/ analytics/ journeyto-ai/ embark/ 411 uj 10 | 2025 Was kommt auf uns zu und wie können wir darauf reagieren? Lehmann, R. (2024): Herausforderungen der künstlichen Intelligenz in der Sozialwirtschaft. In: Kolhoff, L. (Hrsg.): Aktuelle Diskurse in der Sozialwirtschaft V. Perspektiven Sozialwirtschaft und Sozialmanagement. Springer VS, Wiesbaden Löhe, J., Stieler, M. (2025): „Du verstehst mich besser als alle anderen“ - Junge Menschen, KI und der Wunsch nach Beziehung. [Im aktuellen uj-Heft] Macsenaere, M. (2025): Künstliche Intelligenz in der Kinder- und Jugendhilfe. Reinhardt, München Manyika, J., Chui, M., Brown, B., Bughin, J., Dobbs, R., Roxburgh, P., Byers, A. H. (2011): Big data: The next frontier for innovation, competition, and productivity. McKinsey Global Institute. In: https: / / www.mckinsey. com/ ~/ media/ mckinsey/ business%20functions/ mck ins ey%20digital/ our%20insights/ big%20 data%20the%20next%20frontier%20for%20innova tion/ mgi_big_data_exec_summary.pdf, 31. 7. 2025 Meinhardt-Injac, B., Macsenaere, M. (2025): Künstliche Intelligenz (KI) in der Kinder- und Jugendhilfe: Erkenntnisse aus einer Umfrage zu Nutzerverhalten und KI-Kompetenzen der Fachkräfte [Im aktuellen uj-Heft] O’Neil, C. (2016): Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing, New York Pasquale, F. (2015): The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, Cambridge Plafky, C. S. (2025): Zwischen Algorithmus und Fachkompetenz: Anforderungen an die Praxis beim Einsatz prädiktiver Analytik in der Kinder- und Jugendhilfe [Im aktuellen uj-Heft] Spector, J. M., Merrill, M. D., Elen, J., Bishop, M. J. (Hrsg.). (2014): Handbook of Research on Educational Communications and Technology (4. Aufl.). Springer, New York/ Heidelberg Stieler, M., Burghardt, J., Poltermann, A., Lehmann, R. (2025): Mitreden, Mitgestalten: Digitale Partizipation in der KI-Entwicklung für die Kinder- und Jugendhilfe [Im aktuellen uj-Heft] a www.reinhardtverlag.de Der „Grundkurs Kinder und Jugendhilferecht für die Soziale Arbeit“ vermittelt die elemen taren Kenntnisse des Kinder und Jugendhilfe rechts. Er gibt Studierenden einen Überblick über die rechtlichen Regelungen im SGB VIII, die Leistungen und anderen Aufgaben in der Kinder und Jugendhilfe sowie über deren Trä gerstrukturen und Behörden. Behandelt wer den die vielfältigen Hilfs und Förderangebote, u. a. die Förderung der Erziehung in der Familie, Kindertagesbetreuung, Kinder und Jugendarbeit, Hilfen zur Erziehung und Schutzaufgaben zu Gunsten von Kindern und Jugendlichen. Die 7. Auflage wurde gründlich aktualisiert, u. a. bzgl. des sogenannten Kinder und Jugendstär kungsgesetzes (KJSG). SGB VIII verständlich erklärt Reinhard J. Wabnitz Grundkurs Kinder- und Jugendhilferecht für die Soziale Arbeit 7., aktual. Aufl. 2021. 184 Seiten. utb-S (978-3-8252-5782-8) kt