forschungsschwerpunkt Mensch und generative Künstliche Intelligenz: Trust in Co-Creation
Der Forschungsschwerpunkt „Mensch und generative Künstliche Intelligenz: Trust in Co-Creation“ widmet sich der Frage, unter welchen Bedingungen Menschen in die Interaktion mit generativer KI und den daraus resultierenden Produkten vertrauen bzw. vertrauen könnten – und wann nicht.
Forschungsschwerpunkt: Generative KI
Als generative Künstliche Intelligenz (KI) werden technische Systeme bezeichnet, die als Reaktion auf bestimmte Eingaben Texte und multimediale Inhalte autonom erstellen können. Generative KI hat das Potenzial, unser Leben zu transformieren, von Kunst und Software-Engineering über Arbeitsprozesse und Berufsbilder bis hin zu Medizin, Bildung und Wissenschaft. Gleichzeitig stellt generative KI uns vor vielfältige Herausforderungen, etwa im Hinblick auf die Qualität oder den Wahrheitsgehalt der entstandenen Produkte.
Wenn generative KI als Assistenzsystem verwendet wird, haben Mensch und Technik drei potenzielle Berührungspunkte: Sie können gemeinsam etwas produzieren und z. B. Bilder und Texte erschaffen. Sie können mit KI interagieren und durch die Interaktion selbst einen Wert schaffen, z. B. in der Therapie oder Lehre. Wenn Menschen von der KI erzeugte Produkte konsumieren oder nutzen, liegt der Fokus auf der Rezeption. In allen Fällen sehen wir den Begriff des Vertrauens als essenziell für das Gelingen dieser Unternehmungen an.
News
Prof. Dr. Ute Schmid, Sonja Niemann sowie Nick Naujoks-Schober beim Dresdner Symposium „The Answering Machine“ (25-26. März 2026)
Prof. Dr. Ute Schmid hält beim Dresdner Symposium „The Answering Machine“ eine Keynote zu Anforderungen an Human‑AI‑Alignment in gemeinsamen Entscheidungs‑ und Problemlösungsprozessen. Im Fokus ihres Vortrags stehen Ansätze für stärker menschenzentrierte Erklärbarkeit sowie Methoden, die menschliche Agency und Aufsicht in kollaborativen KI‑Systemen gezielt unterstützen sollen. Sonja Niemann stellt auf zwei Ständen des interaktiven KI-Playgrounds einen Prototyp für ein Tutor System mit LLM Schnittstelle vor, das Studierende unterstützt programmieren zu lernen. Der Prototyp wird im Rahmen des gemeinsamen Projekts pAIrProg entwickelt, aktuell mit dem Fokus auf Rekursionen und Code Qualität. Nick Naujoks-Schober stellt außerdem ein Poster mit Ergebnissen aus dem Projekt SekoKI vor, in dem es um selbstreguliertes Lernen mittels generativer KI geht. Weitere Informationen.
Prof. Dr. Marion Händel im Interview im XPLR: MEDIA Magazin über die Mediennutzung der jungen Generation
Im Gespräch mit XPLR: MEDIA erläutert Marion Händel (Professorin für Medienpsychologie an der Hochschule Ansbach), wie sich die Medienwelt wandelt und welchen Einfluss diese Entwicklungen auf die „Generation Digital“ haben. Sie beschreibt, warum junge Menschen Inhalte verstärkt über Social Media konsumieren und welche Erwartungen sie an Glaubwürdigkeit und Relevanz stellen. Zudem werden die Bedeutung von Medienkompetenz im Umgang mit digitalen und KI-generierten Informationen thematisiert. Zum Interview.
bidt-Workshop zum Themenkomplex „Vertrauen“ am 3. Februar 2026
Im bidt-Forschungsschwerpunkt „Mensch und generative KI: Trust in Co-Creation“ haben wir in einem internen Workshop diskutiert, was „Vertrauen“ im KI-Kontext eigentlich bedeutet – und warum zwischenmenschliches Vertrauen dafür eher heuristischer Ausgangspunkt als Blaupause ist. Während wir Personen Intentionalität, Verantwortungsfähigkeit und Wohlwollen zuschreiben können, wird „Vertrauen“ in KI oft auf die Verlässlichkeit von Outputs und das faktische Sich-Verlassen in Entscheidungen reduziert. Zentral bleibt dabei: Vertrauen sollte in einem angemessenen Verhältnis zur (wahrgenommenen) Vertrauenswürdigkeit eines Systems stehen. Mehr dazu im ausführlichen LinkedIn-Post.
Dr. Nick Naujoks-Schober gewinnt den 1. Ansbacher Science Slam
Beim ersten Science Slam in den Ansbacher Kammerspielen, bei dem Wissenschaftlerinnen und Wissenschaftler der Hochschule Ansbach ihre Forschungsfelder auf kreative Weise präsentierten, überzeugte Dr. Nick Naujoks-Schober (Hochschule Ansbach) mit einer humorvollen Performance über Lernstile – inklusive Ukulele und Gesang. Zum Artikel.
Aktuelles
Ansprechpartnerinnen
Prof. Dr. Hannah Schmid-Petri
Mitglied im bidt-Direktorium | Professorin für Wissenschaftskommunikation, Universität Passau
Interne Forschungsprojekte
Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen

Das interdisziplinäre Projekt „Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen: Effekte auf Performanz und Vertrauen“ erforscht den Co-Creation-Prozess von Mensch und KI im Kontext der Erstellung von Programmcode. Der Fokus liegt auf der Gestaltung vertrauenswürdiger Schnittstellen für die Nutzung von Cogeneratoren in der Programmierausbildung und der professionellen Softwareentwicklung.
Projektteam
Prof. Dr. Ute Schmid
Mitglied im bidt-Direktorium und im Geschäftsleitenden Ausschuss | Professorin für Kognitive Systeme, Otto-Friedrich-Universität Bamberg
KI im Journalismus: Der Einfluss generativer KI auf Objektivität und Dialogbereitschaft in der Debatte um Klimaschutz

Das Projekt „KI im Journalismus: Der Einfluss generativer KI auf Objektivität und Dialogbereitschaft in der Debatte um Klimaschutz“ erforscht, inwiefern KI im Bereich Klimaschutz dazu beitragen kann, die Annahmebereitschaft von Botschaften zu erhöhen und die sachliche Auseinandersetzung mit Gegenargumenten zu befördern.
projektteam
Prof. Dr. Hannah Schmid-Petri
Mitglied im bidt-Direktorium | Professorin für Wissenschaftskommunikation, Universität Passau
Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen

Neben der rechtlichen Analyse im Hochschul- und Prüfungsrecht geht es in dem Projekt „Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen“ auch um die Frage, wie Hochschulen in der Praxis reagieren und sich anpassen könnten oder sollten.
projektteam
Prof. Dr. Dirk Heckmann
Mitglied im bidt-Direktorium | Lehrstuhlinhaber für Recht und Sicherheit der Digitalisierung, Technische Universität München

