In einem in der Frankfurter Allgemeinen Zeitung veröffentlichten Gastbeitrag gehen Prof. Alexander Pretschner, Prof. Eric Hilgendorf, Prof. Ute Schmid und Prof. Hannah Schmid-Petri aus dem bidt-Direktorium der Frage nach, welche Chancen und Risiken die Sprach-KI ChatGPT mit sich bringt und wie die Mensch-Maschine-Interaktion gelingen kann.
Eines steht fest: Das Sprachsynthese-System ChatGPT erzeugt Texte von bemerkenswerter Qualität. ChatGPT und ähnliche Sprach-KI-Modelle sind weitere Assistenzsysteme für den Menschen, die vergleichbar mit einer maschinellen Übersetzung, einer Rechtschreibprüfung oder auch der manuellen Internetsuche seien. Das führe zu vielen Fragen für den Einsatz – beispielsweise in Schulen und Universitäten, in der Medizin oder etwa im Journalismus.
Laut den Autorinnen und Autoren läge das echte Potenzial von ChatGPT – wie übrigens der meisten Anwendungen des maschinellen Lernens – eher im Bereich der Assistenz des Menschen. Es komme daher darauf an, den Einsatz des neuen Systems zu gestalten.
Verantwortung können Maschinen nicht übernehmen, sie bleibt vielmehr Menschen vorbehalten.
Probleme, die während der Verwendung der neuen Technik auftreten können, seien zudem schon aus anderen Kontexten der Kooperation von Menschen mit Maschinen bekannt. Dazu gehörten „fehlende Transparenz, unkritisches Vertrauen in die Leistungsfähigkeit und Entscheidungsfindung der Technik und der selbst verschuldete Verlust eigener Fähigkeiten“. Speziell für den Umgang mit ChatGPT nennen die Autorinnen und Autoren als besondere Herausforderungen den Verzicht auf Quellenangaben und „ein bedenklicher Umgang mit fremdem geistigem Eigentum, was die Technik zu einer leistungsfähigen Software zur Plagiatsherstellung macht“.
Im Mittelpunkt der Aufmerksamkeit sollte daher zunächst die Frage stehen, „wer die KI-generierten Text- oder Codevorschläge zu prüfen hat: auf Korrektheit und Vollständigkeit, auf die Abwesenheit inadäquater Textstellen und Angabe relevanter Quellen und gegebenenfalls auch auf sprachliche Klarheit“. Um dies zu klären, könnten neue Verantwortungszuweisungen erforderlich werden. Falls ein KI-generierter Text nicht mehr sorgfältig von Menschen geprüft werde, könne sich daraus „das Problem einer zivil- oder sogar strafrechtlichen Haftung ergeben“.
Daher sei es wichtig, „kontextabhängig der eigenen Verantwortung gerecht zu werden, Chancen und Risiken abzuwägen und Regularien – von bloßer Etikette über Selbstverpflichtungen und bereichsspezifische Verhaltensstandards bis hin zu neuen rechtlichen Vorgaben – sowie eine neue Digital- und Medienkompetenz zu entwickeln“.
ZUM BEITRAG (Bezahl-inhalt)