Mensch und generative Künstliche Intelligenz: Trust in Co-Creation

Der Forschungsschwerpunkt „Mensch und generative Künstliche Intelligenz: Trust in Co-Creation“ widmet sich der Frage, unter welchen Bedingungen Menschen in die Interaktion mit generativer KI und den daraus resultierenden Produkten vertrauen bzw. vertrauen könnten – und wann nicht.

Forschungsschwerpunkt: Generative KI

Als generative Künstliche Intelligenz (KI) werden technische Systeme bezeichnet, die als Reaktion auf bestimmte Eingaben Texte und multimediale Inhalte autonom erstellen können. Generative KI hat das Potenzial, unser Leben zu transformieren, von Kunst und Software-Engineering über Arbeitsprozesse und Berufsbilder bis hin zu Medizin, Bildung und Wissenschaft. Gleichzeitig stellt generative KI uns vor vielfältige Herausforderungen, etwa im Hinblick auf die Qualität oder den Wahrheitsgehalt der entstandenen Produkte.

Wenn generative KI als Assistenzsystem verwendet wird, haben Mensch und Technik drei potenzielle Berührungspunkte: Sie können gemeinsam etwas produzieren und z. B. Bilder und Texte erschaffen. Sie können mit KI interagieren und durch die Interaktion selbst einen Wert schaffen, z. B. in der Therapie oder Lehre. Wenn Menschen von der KI erzeugte Produkte konsumieren oder nutzen, liegt der Fokus auf der Rezeption. In allen Fällen sehen wir den Begriff des Vertrauens als essenziell für das Gelingen dieser Unternehmungen an.

Forschungsprojekte

Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen

Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen

Das interdisziplinäre Projekt „Mensch-KI-Co-Creation von Programmcode bei unterschiedlichen Vorkenntnissen: Effekte auf Performanz und Vertrauen“ erforscht den Co-Creation-Prozess von Mensch und KI im Kontext der Erstellung von Programmcode. Der Fokus liegt auf der Gestaltung vertrauenswürdiger Schnittstellen für die Nutzung von Cogeneratoren in der Programmierausbildung und der professionellen Softwareentwicklung.

Prof. Dr. Ute Schmid

Mitglied im bidt-Direktorium und im Geschäftsleitenden Ausschuss | Mitglied im Bayerischen KI-Rat & Professorin für Kognitive Systeme, Otto-Friedrich-Universität Bamberg

Sonja Niemann

Wissenschaftliche Referentin Forschung, bidt

KI als vertrauenswürdiger Journalist? Effekte KI-generierter Botschaften

KI als vertrauenswürdiger Journalist? Effekte KI-generierter Botschaften

Das Projekt „Künstliche Intelligenz als vertrauenswürdige:r Journalist:in? Effekte KI-generierter Botschaften auf (skeptische) Bürger:innen am Beispiel der Berichterstattung über Klimaschutz und Energiewende“ erforscht, inwiefern KI im Bereich Klimaschutz dazu beitragen kann, die Annahmebereitschaft von Botschaften zu erhöhen und die sachliche Auseinandersetzung mit Gegenargumenten zu befördern.

Prof. Dr. Hannah Schmid-Petri

Mitglied im bidt-Direktorium | Professorin für Wissenschaftskommunikation, Universität Passau

Daria Kravets-Meinke

Daria Kravets-Meinke

Wissenschaftliche Referentin Forschung, bidt

Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen

Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen

Neben der rechtlichen Analyse im Hochschul- und Prüfungsrecht geht es in dem Projekt „Rechtsunsicherheit durch generative KI? Reformüberlegungen zur Förderung von Systemvertrauen an Hochschulen“ auch um die Frage, wie Hochschulen in der Praxis reagieren und sich anpassen könnten oder sollten.

Prof. Dr. Dirk Heckmann

Mitglied im bidt-Direktorium | Lehrstuhlinhaber für Recht und Sicherheit der Digitalisierung, Technische Universität München

Im Fokus

Aktuelles

Veranstaltungen

Publikationen