| Aktuelles | Porträt | Wie kann KI die Soziale Arbeit unterstützen?

Wie kann KI die Soziale Arbeit unterstützen?

Kann ein Algorithmus den Mitarbeitenden im Jugendamt helfen, ethisch zu handeln? Diese Frage untersuchen die Praktischen Philosophen Michael Reder und Christopher Koska am Beispiel der Kindeswohlgefährdung – gemeinsam mit Forschenden aus der Sozialen Arbeit und der Informatik.

© vejaa / stock.adobe.com

Kinder haben ein Recht auf gewaltfreie Erziehung. Körperliche und seelische Verletzungen, Vernachlässigung und Misshandlung gelten in Deutschland rechtlich als Kindeswohlgefährdung. Verursacht werden kann diese durch ein bestimmtes Verhalten oder Unterlassen der Sorgeberechtigten. Im Jahr 2021 wurden laut Destatis 197.800 Gefährdungseinschätzungen angeregt. Die meisten von Polizei und Justizbehörden, viele von Verwandten, Nachbarn oder über anonyme Hinweise. Mitarbeitende in deutschen Jugendämtern prüften diese Hinweise: In 30 Prozent der gemeldeten Fälle bestätigte sich der Verdacht auf Kindeswohlgefährdung.

„Fachkräfte in Jugendämtern stehen unter dem Druck, Elternrecht und Kindeswohl abzuwägen. Sie müssen ethisch sowie rechtlich begründete Entscheidungen treffen in moralisch und emotional aufgeladenen Situationen. Innerhalb kurzer Zeit, mit begrenzten Ressourcen”, erklärt Professor Michael Reder von der Hochschule für Philosophie München. Er ist Leiter des vom bidt geförderten Projekts „Kann ein Algorithmus im Konflikt moralisch kalkulieren?“ kurz KAIMo.

Kindeswohlgefährdung: eine schwierige Entscheidung

Beim Entscheidungsprozess über eine mögliche Kindeswohlgefährdung sind die fachliche Kompetenz und Erfahrung der Mitarbeitenden in der Kinder- und Jugendhilfe essenziell. Es geht um die Frage: Wird ein Kind vorübergehend in Obhut genommen? Ein eklatanter Eingriff in die Familie, der dem Schutz des einzelnen Kindes dient. Zur Unterstützung dieser Arbeit sind klare Leitfäden und Checklisten unentbehrlich, ebenso wie der Austausch der Sozialarbeiterinnen und Sozialarbeiter untereinander. Die Entscheidung des Jugendamtes über die Inobhutnahme muss in letzter Instanz gerichtlich bestimmt werden.

Doch wie kann Künstliche Intelligenz (KI) die anspruchsvolle Arbeit der Jugendämter unterstützen? Projektkoordinator Dr. Christopher Koska von der Hochschule für Philosophie München erklärt: „Fachkräfte in der Sozialen Arbeit kennen die Historie eines Einzelfalls, die Hintergründe, das Akteursnetzwerk. Ein KI-basiertes Assistenzsystem kann sowohl die Aufbereitung expliziter Informationen aus den Fallakten erleichtern als auch implizites Wissen der Fachkräfte abfragen.” Denn mit jeder neuen Information verändert sich die Sachlage im individuellen Fall des Kindes. Deshalb fokussiert das interdisziplinäre bidt-Projektteam auf ein digitales Verfahren, mit dessen Hilfe blinde Flecken lokalisiert werden können: Gibt es in der Fallakte eines Kindes zu bestimmten Aspekten gar keine Informationen?

Akzeptanz von KI in der Sozialen Arbeit

Jugendämter sind grundsätzlich offen für den Einsatz unterstützender Software, betrachten KI-Technologien aber kritisch. Christopher Koska berichtet: „Wir haben in der ersten Projektphase bereits existierende Tools evaluiert. Viele sind zu eng konzeptualisiert und gehen sehr in Richtung: Entscheidung abnehmen.” Michael Reder ergänzt: „Es sind Systeme auf dem Markt, bei denen man einige Merkmale eingibt und sie empfehlen: Kind aus der Familie nehmen. KI-Technologien in solch sensiblen Feldern sollten nicht naiv entwickelt und eingesetzt werden.” Deshalb strebt das Projektteam ausdrücklich nach einem reflektierten KI-System, das Informationen systematisch erhebt, auswertet, aufbereitet und damit Entscheidungsprozesse in Jugendämtern unterstützt.

Ein Assistenzsystem muss zudem sinnvoll in die Workflows im Jugendamt eingepasst werden. „Wir fragen: Was steigert die Akzeptanz im Arbeitsalltag”, so Michael Reder. „Deshalb haben wir uns z.B. mit der systematischen Visualisierung beschäftigt.” Diesen Aspekt meldeten die Fachkräfte im Jugendamt selbst zurück: Eine optische Hervorhebung, z.B. von Textabschnitten in Fallakten, helfe bei der Informationsverarbeitung und stütze die kollegiale Zusammenarbeit. „Sozialarbeiterinnen und Sozialarbeiter sagten auch, es wäre hilfreich, wenn die Maschine mit ihnen sprechen könnte, also Informationen auditiv vermittelt”, berichtet Christopher Koska.

Je anthropomorpher die KI-Systeme, desto besser ist die Akzeptanz im Arbeitsalltag.

Dr. Christopher Koska Zum Profil

Aufbau des bidt-Projekts

Konzeptualisierung: Was passiert in den Jugendämtern?

„In der ersten Projektphase haben wir uns die Abläufe in ausgewählten Jugendämtern angeschaut”, so Michael Reder. „Wir wollten verstehen, welche Instrumente die Soziale Arbeit einsetzt. Zudem war uns wichtig, den Konflikt in der Kinder- und Jugendhilfe nachzuvollziehen: das Bild von Familie als zu schützendem System und das Verständnis vom Staat, als ‘Eingreifender’ in dieses System.”

Programmierung: Assistenzsystem entwickeln

Aktuell programmieren die Forschenden ein KI-basiertes Assistenzsystem, das am Alltag der Fachkräfte in Jugendämtern ansetzt. Bald soll ein Instrument zur Verfügung stehen, mit dem Informationen besser visualisiert werden können. Am bidt-Projekt sind auch Professor Nicholas Müller und Maximilian Kraus vom Lehrstuhl für Sozioinformatik und gesellschaftliche Aspekte der Digitalisierung an der Hochschule für Angewandte Wissenschaften Würzburg-Schweinfurt beteiligt. Gemeinsam stellt sich das Forschungsteam die Frage: Wie können wir die KI am besten trainieren?

Implementierung: KI-System in der Nutzung

Im dritten und letzten Projektschritt werden die Wissenschaftlerinnen und Wissenschaftler ihr Assistenzsystem in Jugendämtern implementieren und dessen Nutzung auswerten.

Digitalisierung der Sozialen Arbeit – ein spezielles Feld

Das Besondere an der Sozialen Arbeit: Künstliche Intelligenz kommt bisher eher selten in einem solch moralisch, rechtlich und emotional hoch konfliktiven Feld zum Einsatz. „Wir fragen, ob es unter diesen Bedingungen überhaupt sinnvoll ist, KI-Technologien einzusetzen”, sagt Michael Reder. „Natürlich läuft die Angst in den Jugendämtern mit: Will die Maschine uns festlegen? Soll sie Vorhersagen treffen?” Dem Forschungsteam des bidt-Projekts gehe es aber keinesfalls darum, „dass eine Maschine irgendwann die Jugendämter übernimmt”.

Unser Ziel ist es, Chancen und Herausforderungen von KI-gestützten Entscheidungssystemen in hoch konfliktiven Situationen auszuloten. Um besser zu verstehen, welche Software-Applikationen wir sinnvollerweise wollen können.

Prof. Dr. Michael Reder Zum Profil

Die Perspektive der Sozialen Arbeit bringen Professor Robert Lehmann und Jennifer Burghardt vom Institut für E-Beratung an der Technischen Hochschule Nürnberg ein. Das interdisziplinäre Projektteam möchte herausfinden: An welcher Stelle im Entscheidungs- und Arbeitsprozess ist der Einsatz von KI-Technologie in Jugendämtern sinnvoll?

Sensible Daten schützen, synthetische Daten nutzen

Das Forschungsteam steht vor einigen Herausforderungen: Datenschutz ist sowohl bei der KI-Forschung als auch bei der Programmierung von KI-Systemen wichtig. Zumal, wenn es um den Schutz persönlicher Daten von Familien und Kindern geht. Doch um eine KI zu trainieren, sind Entwicklerinnen und Entwickler auf ausreichend Datensätze angewiesen. „Bei unserer Zusammenarbeit mit Jugendämtern stellten wir fest: Die Datengewinnung ist enorm komplex”, berichtet Christopher Koska. „Deswegen haben wir Jugendämter bundesweit gebeten, uns bei der Erstellung synthetischer Daten zu unterstützen.”

Synthetische Daten sind generierte, künstlich erstellte Fallakten. Dafür schickten die Forschenden Kurzbeschreibungen fiktiver Fälle von Kindeswohlgefährdung an Jugendämter. „Wir wollten wissen: Was schreibt eine Sozialarbeiterin, ein Sozialarbeiter an dieser Stelle? Wie formulieren sie etwas?” so Christopher Koska. „Diese synthetischen Daten nutzen wir in Kombination mit echten, anonymisierten Fallakten, um die KI zu trainieren.” Dabei sei der Vergleich der Daten spannend: Kann man Normativität über synthetische Daten erzeugen und gezielt einem Bias entgegenwirken?

Algorithmische Vorurteile: dem Bias entgegenwirken

Synthetische Daten, wie die im bidt-Projekt künstlich erstellten Fallakten, könnten eine algorithmische Voreingenommenheit (Algorithmic Bias) hemmen. Algorithmische Vorurteile entstehen etwa durch fehlerhafte Daten, die eine Diskriminierung bestimmter Personengruppen verursachen. Bei der Erstellung synthetischer Daten kann direkt darauf geachtet werden, diesen Bias auszuschließen.

„Wir müssen in diesem Zusammenhang fragen: Gibt es Voreingenommenheiten bei den Sozialarbeiterinnen und Sozialarbeitern? Das ist wichtig, denn die Fallakte, die wir zum Training der KI nehmen, ist schon aus einer bestimmten Perspektive heraus entstanden. Möglicherweise hat die Fachkraft bereits eine implizite Entscheidung formuliert”, sagt Christopher Koska. Selbstverständlich lernen Sozialarbeiterinnen und Sozialarbeitern die Awareness für implizite Vorurteile in Studium und Ausbildung. Wenn trotzdem Vorurteile ins Spiel kommen, könnte ein technisches System helfen, sie sichtbar zu machen.

Digitalisierung der Kinder- und Jugendhilfe: Chancen und Grenzen

Als Zwischenfazit des bidt-Projekts stellt Michael Reder fest: „Die Konzeptualisierung von KI-Systemen muss in konfliktiven Feldern viel stärker an die Praxis rückgebunden und mit den Menschen, die sie anwenden, entwickelt werden. In unserem Fall den Sozialarbeiterinnen und Sozialarbeitern. Eigentlich auch mit den Familien.” Besonders in hoch konfliktiven Feldern wie der Kinder- und Jugendhilfe sei es zudem wichtig, technische Entwicklungen „nicht vorschnell auf den Markt zu bringen”. KI-Technologie sollte als Assistenz- und nicht als Entscheidungssystem verstanden werden. „Dafür ist die interdisziplinäre Perspektive wertvoll”, fasst Michael Reder zusammen. „Denn betrachten wir solche Anwendungen rein ökonomisch, stellen wir wichtige Fragen nicht. Zum Beispiel: Wie wollen wir die digitale Welt von morgen gestalten? Auch im Mikrokosmos Jugendamt.”