| KI | Mangelnde Transparenz und Nachvollziehbarkeit von KI-Anwendungen

Mangelnde Transparenz und Nachvollziehbarkeit von KI-Anwendungen

Die Entwicklung von nachvollziehbarer und erklärbarer KI erfordert konkrete Anreize für die Entwicklung transparenterer Systeme.

Für den verantwortungsvollen Einsatz von künstlicher Intelligenz (KI) ist Transparenz im Hinblick auf die Gründe für KI-gestützte algorithmische Entscheidungen eine notwendige Voraussetzung. Vor dem Hintergrund bevorstehender Regulierungsmaßnahmen wie beispielsweise der KI-Verordnung in Europas AI Act untersucht eine Studie der Mozilla Foundation verschiedene aktuelle Ansätze für KI-Transparenz sowie deren Einschränkungen.

Zu diesem Zweck wurden Interviews mit 59 Experten für Transparenz aus verschiedenen Organisationen und Bereichen durchgeführt. Dabei stellt sich heraus, dass es für die Schaffung von mehr KI-Transparenz bisher sowohl für Entwicklerinnen und Entwickler als auch für Führungskräfte zu wenige Anreize gibt. So wird bei der Entwicklung von KI-Systemen der Fokus vorwiegend auf Akkuratheit und Debugging gelegt und nicht auf die Transparenz und Nachvollziehbarkeit von deren Entscheidungen.

Hierfür gibt es der Studie zu Folge mehrere Gründe. So ist das Vertrauen in bestehende Ansätze für erklärbare KI (XAI) nur sehr schwach ausgeprägt. Zwar ist XAI ein wachsendes und aktives Forschungsfeld, allerdings ist ein Großteil der Forschung der Grundlagenforschung zuzuordnen. Entsprechend werden XAI-Ansätze nur selten effektiv in Produkten angewendet. Aus Unternehmensperspektive stellt sich ein Fokus auf Erklärbarkeit und Transparenz daher nur selten als lohnend dar.
Neben des prinzipiellen Problems algorithmischer Erklärbarkeit und der weiterhin bestehenden Dominanz von nicht-erklärbaren Blackbox-Modellen, gibt es weitere potenzielle Gründe für fehlende Transparenz von KI-Anwendungen. Hierunter fallen Bias in den Trainingsdaten und die dem Algorithmus zugrundeliegende Metrik. Wie die Studie jedoch feststellt, sind bestehende Bias und die Algorithmus-interne Zielsetzung eines KI-Systems auf der Nutzerebene nahezu immer verborgen.

Diese Probleme werden dadurch verstärkt, dass die vom Gesetzgeber eingeforderten Standards in Bezug auf die Nachvollziehbarkeit von KI-gestützten Entscheidungen meist nur relativ ungenau sind, weshalb KI-Transparenz in all seinen Facetten nur selten Priorität bei der Entwicklung von KI-System hat.

Zusammenfassend hebt der Bericht die Notwendigkeit einer größeren Sensibilisierung und Betonung der KI-Transparenz hervor und bietet praktische Anleitungen für eine effektive Transparenzgestaltung. Im Falle des Fehlens angemessener Erklärungslösungen werden Entwickler dazu ermutigt, interpretierbare Modelle anstelle von Blackbox-Lösungen für Anwendungen zu verwenden, bei denen Rückverfolgbarkeit eine Designanforderung darstellt. Sinnvolle Transparenz zielt dabei darauf ab, sicherzustellen, dass jeder Interessengruppe eine ausreichende und verständliche Erklärung zur Verfügung steht, indem nützliche und handlungsorientierte Informationen bereitgestellt werden, um fundierte Entscheidungen zu ermöglichen.