| Aktuelles | Nachbericht | Lessons Learned: Ethisches Design von Software und Künstlicher Intelligenz

Lessons Learned: Ethisches Design von Software und Künstlicher Intelligenz

Künstliche Intelligenz ist eine der Schlüsseltechnologien der digitalen Transformation. Ihr Einsatz hat weitreichende Auswirkungen auf Wirtschaft und Gesellschaft. Wie positioniert sich Europa bei der Technologie und welche Herausforderungen ergeben sich aus dem ethischen Einsatz Künstlicher Intelligenz?

© Die Moderatorin Lina Rusch mit den bidt-Direktoren und Keynote-Speakern Julian Nida-Rümelin und Alexander Pretschner.

Zum Thema Ethisches Design von Software und Künstlicher Intelligenz diskutierten am 24. März 2021 Vertreterinnen und Vertreter aus Politik, Wirtschaft und Wissenschaft bei einer Veranstaltung des bidt in Kooperation mit der Vertretung des Freistaates Bayern bei der EU und dem Bayerischen Staatsministerium für Digitales. Die Diskussion leitete Lina Rusch, Journalistin beim Tagesspiegel Background Digitalisierung & KI.

In ihrem Grußwort betonte Judith Gerlach, Bayerische Staatsministerin für Digitales, die Führungsrolle Europas beim Schutz von Grundrechten und Privatsphäre. Es gehe darum, die europäischen Werte und das hohe Schutzniveau in der Onlinewelt durchzusetzen. Das sei nur mit strengen, aber sinnvollen Vorgaben an Digitalkonzerne machbar. Ein wesentlicher Bestandteil sei eine transparente, nachhaltige Digitalethik, die tief in der Entwicklung der Software verankert werde.

YouTube

By loading the video, you agree to YouTube’s privacy policy.
Learn more

Load video

Engineering Responsibility

Ihre Keynotes stellten die bidt-Direktoren Julian Nida-Rümelin und Alexander Pretschner unter das Thema „Engineering Responsibility“. Nida-Rümelin, Professor für Philosophie und politische Theorie, begrüßte es, dass die EU inhaltlich und konzeptionell bei der digitalen Transformation einen eigenen europäischen Weg eingeschlagen habe. Damit setze sie sich vom kommerziell getriebenen Silicon-Valley-Modell und vom Staatskapitalismus Chinas ab. Doch die EU müsse weiter aufholen und eigene Akzente setzen. Zentral dabei: der Begriff der Verantwortung, der die Grundlage eines digitalen Humanismus bilde. Mit dem Verständnis von Eigenverantwortung grenzt sich der digitale Humanismus einerseits gegen mechanistische Vorstellungen ab, die den Menschen als eine Art Softwaresystem sehen. Andererseits wendet er sich gegen die Vermenschlichung der Maschine und die Erhebung des Menschen durch die Technik zu einem gottähnlichen Wesen: „Technik bleibt Technik. Sie ist nichts weiter als ein Instrument. Wir sollten Maschinen nicht vermenschlichen.“

Nida-Rümelin wies darauf hin, wie wichtig ein ethisches Fundament in der Gesellschaft sei. Je besser unser Gespür für anständiges und inakzeptables Verhalten sei, desto weniger Regulierung sei notwendig.

Verantwortung in der Softwareentwicklung verankern

Doch wie lässt sich Verantwortung im Prozess der Softwareentwicklung verankern? Und wie kann man verhindern, dass am Ende niemand mehr Verantwortung trägt, so wie das etwa beim VW-Dieselskandal der Fall war? In seiner Keynote sprach sich Alexander Pretschner, Professor für Software und Systems Engineering, dagegen aus, die ethische Qualität einer Software anhand des Produkts zu beurteilen. Durch Updates und neue Daten änderten sich die Grundlagen ständig, zudem lasse sich Software nur in ihrem Gesamtkontext betrachten. „Eine Zertifizierung von Software muss sich daher nicht auf das Produkt, sondern auf den Prozess beziehen. Softwareentwickler sollen die Chance haben, selbst Verantwortung zu übernehmen“, so Pretschner. Um abstrakte Werte wie etwa Transparenz und Fairness in den Entwicklungsprozess zu integrieren, brauche der Entwickler entsprechende Freiheiten. Dazu sei eine entsprechende Kultur im Unternehmen nötig, die Gestaltungsspielräume zulasse, und eine Haltung der Entwicklerinnen und Entwickler, diese Freiheiten auch verantwortungsvoll zu nutzen. Das bidt untersucht in seinem Forschungsprojekt „Ethik in der agilen Softwareentwicklung“ die Rahmenbedingungen, mit denen ethische Werte in die Programmierung einfließen können.

Statements der Podiumsgäste

Unsere Regulierungsvorschläge für Künstliche Intelligenz sind eine Art Grundgesetz für die digitale Transformation. Es geht darum, die richtige Balance aus Innovationsförderung und rechtlichen Schranken zu finden. Mit unserem risikobasierten Ansatz soll Europa eine führende Rolle bei ethischer KI einnehmen.

Renate Nikolay, Kabinettschefin von Věra Jourová, der EU-Kommissarin für Werte und Transparenz

Der Vorschlag zur KI-Regulierung der Europäischen Kommission ist sehr vielversprechend. Er schafft die Grundlage für einen einheitlichen europäischen Rechtsrahmen und stärkt den Binnenmarkt. Die große Herausforderung wird sein, praxisbezogen zu regulieren und die richtigen Kompromisse zu finden.

Axel Voss, Europaabgeordneter und Mitglied im Sonderausschuss Künstliche Intelligenz im digitalen Zeitalter

Das Zusammenspiel von Künstlicher Intelligenz und Ethik ist tief in den Strukturen von IBM verwurzelt. Vertrauen und Transparenz spielen bei der Entwicklung von Anwendungen eine große Rolle. Dafür sorgen wir unter anderem mit einem Ethik-Leitfaden, der diversen Zusammensetzung der Entwicklungsteams und durch ein internes Ethik-Board für Künstliche Intelligenz.

Nils Hullen, Programmdirektor für Global Privacy Policy bei IBM