| Aktuelles | Interview | Digitaler Humanismus: „Wir erschaffen keine Personen – digitale Maschinen sind unsere Werkzeuge“

Digitaler Humanismus: „Wir erschaffen keine Personen – digitale Maschinen sind unsere Werkzeuge“

Anfang 2023 hat ein neues Vernetzungsvorhaben des bidt zum Digitalen Humanismus Fahrt aufgenommen. Wir haben mit den beiden Ansprechpartnern – Professor Julian Nida-Rümelin und Klaus Staudacher – gesprochen. Erfahren Sie in unserem Interview, was sich hinter dem Begriff Digitaler Humanismus verbirgt und warum Forschung hierzu zu aktuellen Debatten rund um die Mensch-Maschine-Interaktion wichtige Impulse gibt – in Bayern und darüber hinaus.

© Julien Tromeur / Unsplash

Was versteht man unter dem Begriff Humanismus?

Julian Nida-Rümelin: Den Humanismus gibt es als geistige Bewegung seit der Antike – man denke an Platon, Aristoteles oder den Stoizismus. Über Europa hinaus findet er mit dem Konfuzianismus und Buddhismus in Ost- und Südasien Anwendung. Im Zentrum steht die Frage, was das Humanum – also das Menschliche – ausmacht. Dabei müssen die historischen Epochen, die als humanistisch bezeichnet werden – etwa der italienische Renaissance-Humanismus oder der Neu-Humanismus des 19. Jahrhunderts – vom Humanismus als philosophische, ethische und politische Konzeption unterschieden werden. Im Zentrum humanistischer Philosophie und humanistischer Praxis steht meines Erachtens die Idee menschlicher Autorschaft. Menschen sind Autorinnen und Autoren ihres Lebens, sie tragen als solche Verantwortung und sind frei. Ich habe im Rahmen meiner Forschung versucht, die philosophische Substanz des Humanismus systematisch zu rekonstruieren und zu erneuern (Nida-Rümelin 2016; 2021; 2023).

Inwiefern findet das Prinzip menschlicher Autorschaft Eingang in unsere Rechtsordnung?

Julian Nida-Rümelin: Die Rechtsordnungen der liberalen westlichen Staaten haben ein humanistisches Fundament. So sind beispielsweise in der „Universal Declaration of Human Rights“ von 1948 Normen und Kriterien verankert, die menschliche Autorschaft garantieren sollen. Das deutsche Grundgesetz präsentiert eine eng verwandte Fassung dieser Normen in seinen ersten 19 Artikeln. Menschen sollten ihr Leben nach ihren eigenen Vorstellungen gestalten können, wenn sie andere nicht behindern. Es bedarf aber auch politischer Rahmenbedingungen, um allen ihre Lebensautorschaft zu ermöglichen. Dazu gehören eine entwickelte Bildungs- und Sozialstaatlichkeit.

Und wie hängen Humanismus und Digitalisierung nun zusammen?

Klaus Staudacher: Der Digitale Humanismus (Nida-Rümelin/Weidenfeld 2022) versteht sich als Ethik für das digitale Zeitalter, die den Prozess der digitalen Transformation nach den Kerngedanken humanistischer Philosophie und Praxis interpretiert und gestaltet. Eine Botschaft ist dabei zentral: An der „conditio humana“ ändert sich nichts Grundlegendes. Wir erschaffen durch den Einsatz von Technik keinen neuen Menschen. Wir setzen technologische Tools für menschliche Zwecke ein. Wir bleiben uns in Grundmustern gleich und dazu gehört, dass wir Verantwortung für unser Handeln übernehmen.

Können Maschinen nicht auch Verantwortung übernehmen?

Julian Nida-Rümelin: Tatsächlich tragen wir als Menschen die Verantwortung – und zwar allein. Wir erschaffen keine Personen, sondern Maschinen sind unsere Werkzeuge. Maschinen verstehen die Bedeutung von Begriffen nicht. Vielmehr reproduzieren sie diese auf der Basis der Daten, die man ihnen gibt. Wir sind aktuell alle wahnsinnig beeindruckt von ChatGPT. Aber das System „versteht“ nichts, sondern es zieht sich als Plagiatsmaschine die Informationen aus Quellen heraus.

Das heißt, keine Vermenschlichung von Maschinen?

Julian Nida-Rümelin: Genau! In der Menschheitsgeschichte war die dominierende Weltsicht, dass das Unbeseelte beseelt ist. Ein Beispiel: Wenn in der Antike irgendwo ein Blitz einschlug, dann wurde das als Strafe von Zeus verstanden. So ähnlich reagieren heute Leute auch auf menschenähnlich gestaltete Roboter. Einerseits schafft die Ähnlichkeit zum Menschen Vertrauen, andererseits geht damit vielleicht auch etwas Unheimliches einher und die Frage: Wird die Maschine zu einer Person mit all ihren Rechten? Der Digitale Humanismus widerspricht dieser Auffassung und positioniert sich hier eindeutig – also kein Animismus, keine Mystifikation von Dingen.

Aber entscheiden nicht Maschinen manchmal doch?

Klaus Staudacher: Maschinen entscheiden tatsächlich nichts. Bei „echten“ Entscheidungen steht ja das Ergebnis der Entscheidung nicht schon von vornherein fest, denn sonst gäbe es ja gar nichts zu entscheiden. Bei Algorithmen hingegen sind die Regeln, nach denen sie operieren, entweder schon vorab durch einen Programmierer oder eine Programmiererin festgelegt worden, oder diese Regeln haben sich – wie beim Machine Learning – aufgrund von Input-Output-Vorgaben entwickelt. Formulierungen wie „Das Spamfilterprogramm hat entschieden, dass es sich bei dieser E-Mail um Spam handelt“, sind unproblematisch, wenn sie rein metaphorisch gemeint sind.

Es muss uns allerdings auch bewusst sein, dass wir es hier lediglich mit einem übertragenen und bildhaften Sprachgebrauch zu tun haben. Denn ansonsten könnten wir dazu verleitet werden, Algorithmen-basierter KI vorschnell Fähigkeiten zuzusprechen, die sie zumindest heute definitiv noch nicht hat. So hat etwa das Spamfilterprogramm aus dem Beispielsatz sicher nicht „entschieden“, dass eine bestimmte E-Mail als Spam zu qualifizieren ist. Vielmehr ist bereits vorher bei der Programmierung und möglicherweise zusätzlich durch Training von menschlichen Akteuren entschieden worden, nach welchen Kriterien eine E-Mail dem Spamordner zugewiesen wird.

YouTube

By loading the video, you agree to YouTube’s privacy policy.
Learn more

Load video

Worauf basieren denn Entscheidungen?

Julian Nida-Rümelin: Entscheidungen sind Ausdruck von Intentionen der handelnden Person. Sie bringen die Abwägung von Gründen, die für oder gegen eine Handlung sprechen, zum Abschluss und werden zu einem späteren Zeitpunkt durch eine geeignete Handlung realisiert. Für die Abwägung von Gründen, die jeweils Kriterien einer guten Entscheidung bereitstellen, gibt es kein ethisches Metaprinzip, das uns diese Abwägung abnimmt. Das Verhältnismäßigkeitsprinzip im Recht hat eine Analogie in der Moral. Wenn wir vor Konflikten stehen, dann lösen wir sie im Sinne von menschlicher Autorschaft so, dass möglichst wenig an moralischen Werten und Normen eingeschränkt werden muss.

Klaus Staudacher: Und diese Abwägung nimmt uns keine Maschine ab, zumindest solange die Künstliche Intelligenz auf Algorithmen basiert. Wenn wir von Autorschaft sprechen, ist sie an menschliche Trägerschaft und an den Personenstatus gebunden.

Was ist Ihre Motivation für die Umsetzung des Vernetzungsvorhabens?

Julian Nida-Rümelin: Als Urheber des Begriffs Digitaler Humanismus freut es mich, dass dieser innerhalb des internationalen Diskurses so prominent geworden ist. Er hat in den letzten zehn Jahren eine gewaltige Eigendynamik bekommen. Aber wie es so ist, verändern sich damit auch oft die Konnotationen. Man muss ein bisschen aufpassen, dass die zentralen Inhalte dabei nicht verloren gehen.

Klaus Staudacher: Genau hier setzen wir an. Wir möchten die Position des Digitalen Humanismus in Bayern und Europa stärken. Das gelingt uns, indem wir selbst eigene Forschung betreiben und Impulse für Debatten geben. Wir möchten einzelne Akteure miteinander in Europa vernetzen und so den Diskurs stärken. Eines unserer wichtigsten Ziele ist die Einrichtung eines europäischen Graduiertenkollegs zum Themenbereich „Digitaler Humanismus“.

Gibt es schon erste Erfolge?

Klaus Staudacher: Aktuell besteht beispielsweise eine Kooperation des bidt mit der TU Wien im Rahmen der Ringvorlesung „DigHum Lecture Series“. Die Onlinevorlesung dient dazu, interdisziplinäre Forschungspositionen zum Digitalen Humanismus vorzustellen und Beiträge zu aktuellen Entwicklungen wie ChatGPT zu geben.

Darüber hinaus sind wir beteiligt an der Open-Access-Veröffentlichung einer „Introduction to Digital Humanism“, zu der auch das bidt mehrere Beiträge beisteuert. Außerdem haben wir uns zusammen mit der TU Wien und weiteren europäischen Kooperationspartnern vor Kurzem bei einem EU-Horizont-Projekt beworben, das ebenfalls im Zusammenhang mit dem Themenbereich „Digitaler Humanismus“ steht. Auch in Zukunft wollen wir die internationale Vernetzung und die Kooperationen mit anderen Institutionen weiter ausbauen – da ergeben sich noch viele spannende Gestaltungs- und Entwicklungsmöglichkeiten.

Julian Nida-Rümelin: In der jüngsten Regierungserklärung des Bayerischen Wissenschaftsministers Markus Blume vom 26. April 2023 heißt es zudem: „Wir brauchen eine neue Aufklärung: Bayern wird vorangehen und sich des Themas Digitaler Humanismus annehmen. Wir wollen eine Allianz kompetenter Größen und Einrichtungen in Bayern schmieden, die sich die ethischen Fragestellungen des Fortschritts gemeinsam vornimmt.“ Die Weichen sind folglich gestellt.

Herzlichen Dank für das Gespräch!

Das Gespräch führte Nadine Hildebrandt.

Literatur

Nida-Rümelin, J. (2016). Humanistische Reflexionen. Berlin.

Nida-Rümelin, J. (2021). Per un nuovo umanesimo cosmpolitico. Milano.

Nida-Rümelin, J. (2022). „Über die Verwendung der Begriffe starke & schwache Intelligenz“ in: Chibanguza K. et al. (Eds.), Künstliche Intelligenz. Recht und Praxis automatisierter und autonomer Systeme, Nomos Verlagsgesellschaft, 75–90.

Nida-Rümelin, J. (2023). A Theory of Practical Reason. Basingstoke, Hampshire.

Nida-Rümelin, J./Weidenfeld, N. (2018). Digitaler Humanismus. München. (Englische Open-Access-Ausgabe 2022).

Nida-Rümelin, J./Weidenfeld, N. (2023). WAS KANN UND DARF KÜNSTLICHE INTELLIGENZ. Ein Plädoyer für Digitalen Humanismus, München. [Veränderte Neuauflage des Buchs aus dem Jahr 2018].

Nida-Rümelin, J./Staudacher, K. (2023). “Philosophical Foundations of Digital Humanism” in: Werthner et al., Introduction to Digital Humanism. A Textbook, Springer Book, Open Acces, 17-30.

Staudacher, K./Nida-Rümelin, J. (2020). Philosophische Überlegungen zur Verantwortung von KI: Eine Ablehnung des Konzepts der E-Person. bidt-WORKING PAPER, Open Access Dezember 2020. München.