Die Erklärbarkeit von KI als normative Anforderung in der Sozialen Arbeit mit Kindern
Von Gottfried Schweiger (Salzburg) –
In der Kinder- und Jugendhilfe können KI-gestützte Entscheidungen das Leben von Kindern tiefgreifend beeinflussen. Dabei ist es entscheidend, dass diese Entscheidungen für die betroffenen Kinder und ihre Familien transparent und nachvollziehbar sind. Die Erklärbarkeit von KI-Systemen ist eine zentrale ethische Verantwortung und Aufgabe, um sicherzustellen, dass Kinder in die Entscheidungen, die sie betreffen, einbezogen werden, Machtungleichgewichte ausgeglichen und ihre Rechte gewahrt werden.
Macht in der Kinder- und Jugendhilfe
In der Kinder- und Jugendhilfe treffen Sozialarbeiter:innen weitreichende Entscheidungen, die das Leben von Kindern und ihren Familien entscheidend beeinflussen können. Ob es um den Entzug des Sorgerechts, die Unterbringung in Pflegefamilien oder schützende Maßnahmen geht – Sozialarbeiter:innen verfügen in diesen Situationen über eine erhebliche Machtposition. Für die betroffenen Kinder, die sich oft in besonders verletzlichen Lebenslagen befinden, sind diese Entscheidungen oft nur schwer zu verstehen und nachzuvollziehen.
Der Einsatz von KI-gestützten Systemen fügt dieser bereits bestehenden Machtungleichheit eine weitere Dimension hinzu. KI-Systeme, die auf umfangreichen Datensätzen basieren, analysieren und bewerten Informationen oft auf eine Weise, die für Kinder und ihre Familien schwer verständlich ist. Dadurch kann ein Gefühl der Ohnmacht entstehen, wenn nicht klar ist, warum bestimmte Entscheidungen getroffen wurden. Gerade in der sozialen Arbeit, wo Vertrauen eine zentrale Rolle spielt, ist es essenziell, dass die Gründe für Entscheidungen offen und nachvollziehbar kommuniziert werden.
Erklärbarkeit als ethische Bedingung
Die Erklärbarkeit von KI bezieht sich darauf, dass die Entscheidungswege und -gründe für alle Beteiligten verständlich gemacht werden. Dies ist insbesondere in der Kinder- und Jugendhilfe von zentraler Bedeutung, da hier nicht nur technologische Effizienz, sondern vor allem die Rechte der Kinder im Vordergrund stehen. Kinder haben das Recht, in alle Entscheidungen, die sie betreffen, einbezogen zu werden. Sie müssen die Möglichkeit haben, die Entscheidungen zu verstehen und ihre Meinung dazu äußern zu können (Kosher, Ben-Arieh, und Hendelsman 2016).
Eine transparente Erklärbarkeit von KI-Systemen ist daher nicht nur eine technische, sondern vor allem eine normative Anforderung. Die Entscheidungen, die von diesen Systemen getroffen werden, müssen so kommuniziert werden, dass auch Kinder und ihre Familien sie nachvollziehen können. Nur so kann gewährleistet werden, dass die Betroffenen die Entscheidungen akzeptieren und Vertrauen in das System aufbauen. Ohne diese Transparenz besteht die Gefahr, dass die Betroffenen sich von den Entscheidungen ausgeschlossen fühlen und auch das Vertrauen in die Institutionen der Kinder- und Jugendhilfe verlieren (Rodriguez, DePanfilis, und Lanier 2019).
Verzerrungen in KI-Systemen und ihre ethischen Implikationen
Ein großes Risiko beim Einsatz von KI in der Kinder- und Jugendhilfe ist die Möglichkeit von Verzerrungen in den Algorithmen. KI-Systeme werden in der Regel auf der Basis historischer Daten trainiert. Diese Daten können jedoch bestehende gesellschaftliche Ungleichheiten widerspiegeln und damit Verzerrungen in den Entscheidungsprozessen verstärken. Wenn beispielsweise Daten verwendet werden, die höhere Interventionsraten in einkommensschwachen oder marginalisierten Bevölkerungsgruppen aufzeigen, besteht die Gefahr, dass diese Gruppen auch in Zukunft überproportional oft als „Risikofälle“ eingestuft werden.
Diese Form der Verzerrung hat tiefgreifende ethische Implikationen., weshalb Entscheidungen der KI-Systeme nicht unreflektiert übernommen werden dürfen. Sozialarbeiter:innen müssen vielmehr sicherstellen, dass die Empfehlungen der Systeme kritisch hinterfragt und auf mögliche Verzerrungen überprüft werden. Nur durch eine transparente Darstellung der Entscheidungsprozesse können potenzielle Ungerechtigkeiten identifiziert und vermieden werden (Gillingham 2019).
Für die betroffenen Kinder und ihre Familien ist es besonders wichtig, dass sie die Möglichkeit haben, Entscheidungen zu hinterfragen, die sie als ungerecht empfinden. Ohne Erklärbarkeit besteht die Gefahr, dass KI-Entscheidungen von ihnen in noch stärkerem Maße als die Entscheidungen von Sozialarbeiter:innen als unanfechtbar wahrgenommen werden, was zu einer weiteren Verschärfung von Ungleichheiten führen könnte.
Kindgerechte Erklärungen: Eine besondere Herausforderung
Die Erklärbarkeit von KI-Systemen ist nicht nur eine technische Frage. Es geht auch darum, die Entscheidungsprozesse so zu vermitteln, dass sie für die betroffenen Kinder verständlich sind. Kinder in verschiedenen Altersstufen haben unterschiedliche kognitive Fähigkeiten und benötigen daher unterschiedliche Formen der Erklärung. Jüngere Kinder können komplexe Zusammenhänge oft nur schwer verstehen, während ältere Kinder in der Lage sind, auch detailliertere Informationen zu verarbeiten (Fives 2016). Sozialarbeiter:innen stehen hier vor einer besonderen Herausforderung: Sie müssen die Ergebnisse der KI-Systeme so erklären, dass sie für Kinder verständlich sind und gleichzeitig deren Entwicklungsstand berücksichtigen. Dies erfordert nicht nur technisches Wissen über die Funktionsweise der KI, sondern auch ein tiefes Verständnis der kindlichen Entwicklung und der Bedürfnisse der betroffenen Kinder. Das Ziel ist es, die Kinder so weit wie möglich in die Entscheidungsprozesse einzubeziehen. Das bedeutet, dass Entscheidungen nicht nur erklärt, sondern auch in den Lebenskontext der Kinder gestellt werden müssen. Nur so kann sichergestellt werden, dass die Kinder die Entscheidungen verstehen und sich aktiv am Prozess beteiligen können.
Die Rolle der Sozialarbeiter:innen als Vermittlerinnen zwischen Mensch und Maschine
Sozialarbeiter:innen übernehmen eine Schlüsselrolle, wenn es darum geht, die von KI-gestützten Systemen gelieferten Empfehlungen in den Alltag der betroffenen Kinder und Familien zu übersetzen. Sie sind es, die die Daten interpretieren und die KI-Entscheidungen so aufbereiten, dass sie für die betroffenen Personen verständlich und nachvollziehbar sind. In dieser Vermittlerrolle tragen sie eine immense ethische Verantwortung, da sie sicherstellen müssen, dass die Entscheidungen im Einklang mit den Rechten und dem Wohl der Kinder stehen (Hall u. a. 2023). Letztlich muss die Entscheidung von den Sozialarbeiter:innen getroffen und gegenüber den betroffenen Kindern und Familien gerechtfertigt werden. Es ist ihre Aufgabe, die Empfehlungen der KI kritisch zu hinterfragen und sie in den Kontext der individuellen Lebenssituation der betroffenen Kinder zu stellen.
Zusammenfassend lässt sich sagen, dass die Erklärbarkeit von KI in der sozialen Arbeit mit Kindern weit mehr als nur ein technisches Detail ist. Sie ist eine ethische Anforderung, um die Rechte der Kinder zu schützen, ihre aktive Beteiligung zu ermöglichen und Machtungleichgewichte auszugleichen. Sozialarbeiter:innen spielen eine entscheidende Rolle dabei, die KI als Werkzeug der Gerechtigkeit zu nutzen und sicherzustellen, dass die Entscheidungen nachvollziehbar und zu einem besseren Leben für die betroffenen Kinder und ihre Familie beitragen.
Fives, Allyn. 2016. „Who Gets to Decide? Children’s Competence, Parental Authority, and Informed Consent“. In Justice, Education and the Politics of Childhood, herausgegeben von Johannes Drerup, Gunter Graf, Christoph Schickhardt, und Gottfried Schweiger, 1. Aufl., 1:35–47. Philosophy and Politics – Critical Explorations. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-27389-1_3.
Gillingham, Philip. 2019. „Can Predictive Algorithms Assist Decision‐Making in Social Work with Children and Families?“ Child Abuse Review 28 (2): 114–26. https://doi.org/10.1002/car.2547.
Hall, Seventy F., Melanie Sage, Carol F. Scott, und Kenneth Joseph. 2023. „A Systematic Review of Sophisticated Predictive and Prescriptive Analytics in Child Welfare: Accuracy, Equity, and Bias“. Child and Adolescent Social Work Journal, Mai. https://doi.org/10.1007/s10560-023-00931-2.
Kosher, Hanita, Asher Ben-Arieh, und Yael Hendelsman. 2016. Children’s Rights and Social Work. SpringerBriefs in Rights-Based Approaches to Social Work. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-43920-4.
Rodriguez, M. Y., D. DePanfilis, und P. Lanier. 2019. „Bridging the gap: Social work insights for ethical algorithmic decision-making in human services“. IBM Journal of Research and Development 63 (4/5): 8:1-8:8. https://doi.org/10.1147/JRD.2019.2934047.