| KI | Forschung zu erklärbarer KI steckt noch in den Kinderschuhen

Forschung zu erklärbarer KI steckt noch in den Kinderschuhen

Die Studie untersucht den aktuellen Einsatz von erklärbarer KI und identifiziert einen Nachholbedraf bei der Forschung zur erklärbaren KI.

Im Jahr 2025 sollen in Deutschland Schätzungen zufolge Umsätze in Höhe von 488 Milliarden Euro durch den Einsatz von Künstlicher Intelligenz (KI) erzielt werden. Dadurch gewinnt die Erklärbarkeit von KI-gestützten Entscheidungen an Bedeutung. Die Studie untersucht den Einsatz von erklärbarer KI (Explainable Artificial Intelligence) und erläutert diese an praxisnahen Use Cases. Dafür wurden 209 Vertreterinnen und Vertreter aus Wirtschaft und Wissenschaft mit Bezug zu KI nach ihrer Einschätzung zur Erklärbarkeit von KI befragt.

In der Forschung werde grob zwischen zwei KI-Methoden unterschieden: Es gebe die White-Box-Modelle, die in ihren algorithmischen Zusammenhängen grundsätzlich nachvollziehbar seien, und die Black-Box-Modelle, bei denen die Funktionsweise nicht mehr nachvollziehbar sei. Dabei nehme der Einsatz von Black-Box-Modellen in den letzten Jahren deutlich zu, obwohl nicht eindeutig nachvollzogen werden könne, wie die KI zu einem Ergebnis gekommen ist.
Die Forschung zu erklärbarer KI stecke noch in den Kinderschuhen, einheitliche Verfahren für erklärbare KI gebe es noch nicht. Dies sei aber wichtig, um die Ergebnisse eines KI-Modells nachvollziehbar zu machen. Auch für Nichtexperten solle verständlich werden, auf welcher Grundlage die KI-Anwendung Entscheidungen fälle.

Die Studie richtet sich mit konkreten Handlungsempfehlungen an die Politik, die regulatorische Vorgaben entwickeln soll.