| Aktuelles | Interview | Deepfakes – Was ist noch echt?

Deepfakes – Was ist noch echt?

Mithilfe technischer Manipulation ist es möglich, täuschend echt wirkende Videos zu machen, die mit der Realität nichts zu tun haben. Ein Interview über die Herausforderungen von Fälschungen, die mit Künstlicher Intelligenz hergestellt werden.

© Christian / stock.adobe.com

Die bidt Werkstatt digital am 20. Oktober 2020 hat einen Blick hinter die Kulissen von Deepfakes und Medienmanipulationen ermöglicht. Worum es bei Deepfakes geht und wie verbreitet sie sind, erklärt Informatikprofessor und bidt-Direktor Felix Freiling im Interview.

Was ist ein Deepfake?

Das Wort Deepfake ist eine Kombination aus „Deep Learning“ und „Fake“. Es sind also Medienmanipulationen (Fakes), die mithilfe von künstlichen (tiefen) neuronalen Netzen, also Künstlicher Intelligenz, erzeugt wurden.

Wie trägt KI zu einem Deepfake bei? Was passiert da?

Sehr anschaulich zeigt das die Webseite thispersondoesnotexist.com. Hier sieht man Gesichter von Menschen, die echt aussehen, die es aber gar nicht gibt. Das sind künstlich generierte Gesichter. Der Algorithmus, der diese Bilder macht, ist dafür mit Bildern von Prominenten gefüttert worden. Anhand dieser Bilder hat das System gelernt, Gesichter zu erstellen.

Wenn man genauer hinschaut, sieht man bei manchen Bildern seltsame Artefakte, zum Beispiel fehlen manchmal die Ohren. Aber ansonsten kann man die Bilder mit dem bloßen Auge nicht von echten Prominentenfotos unterscheiden.

Wie kann man solche Deepfakes dann überhaupt als Täuschung enttarnen?

Als normaler Benutzer im Web sieht man das nicht, da hat man keine Möglichkeit, ein Deepfake zu erkennen, es sei denn, die Fälscher haben grobe Fehler gemacht.

Das kann inhaltlich sein: Ist es überhaupt plausibel, was zu sehen ist, oder kommt zum Beispiel das Licht der Sonne aus verschiedenen Richtungen? Die Einstrahlungsrichtung des Lichts lässt sich ja nicht nur an Schatten, sondern zum Beispiel auch daran erkennen, wie stark Gesichter glänzen. Dafür gibt es Software, die bei der Auswertung hilft und beispielsweise den Einstrahlungswinkel des Lichts abschätzt. Außerdem lassen sich die internen Informatikstrukturen der Bilder technisch auswerten, sodass sich zum Beispiel nachvollziehen lässt, ob ein Bild mehrfach komprimiert wurde. Mehrfachkompression ist auch ein Indiz für Veränderung.

Sind Deepfakes ein neues Phänomen?

Deep-Learning-Verfahren sind eine Entwicklung der letzten fünf bis zehn Jahre. Man hat gelernt, die Komplexität dieser tiefen Netzwerke zu beherrschen, was viele Anwendungsmöglichkeiten eröffnet und den KI-Schub ausgelöst hat.

Aber Medienmanipulation gibt es seit Anbeginn der Medien. Manche Manipulationen sind für uns inzwischen erwartbar, zum Beispiel wenn für Titelbilder von bestimmten Magazinen Fotos zusammenmontiert werden. Aber angesichts von Deepfakes hinkt die Öffentlichkeit in ihrem Verständnis von Echtheit noch dem hinterher, was man heute an Echtheit erwarten sollte.

Fotos und Bilder haben in der Öffentlichkeit noch den Ruf, authentisch zu sein. Man glaubt das, was man sieht. Das ist noch sehr geprägt von der klassischen Fotografie.

Ist diese Gutgläubigkeit ein Problem?

Medienmanipulation und die Deepfake-Ansätze sind definitiv ein Problem, gerade im Bereich der politischen Propaganda. Die Beeinflussung durch Deepfakes erfolgt vor allem über soziale Medien. Dahinter steht interessengeleitete Manipulation von Staaten oder von politischen Parteien, die Debatten durch tendenziöse Berichterstattung befeuern wollen. Das passiert jedoch eher in separaten Kommunikationskanälen, zum Beispiel über Social Media.

Die Erwartung von Echtheit beim Betrachter wird dadurch zunehmend verwässert, es entsteht das Gefühl, dass man gar nichts mehr glauben kann, was man sieht.

Ist dieses Gefühl gerechtfertigt: Kann man denn im Web überhaupt noch glauben, was man sieht?

Das kommt darauf an, auf welchen Medienportalen man unterwegs ist. Bei den Qualitätsmedien gehört es ja zu den journalistischen Standards, Quellen zu prüfen, und das ist nicht erst seit Deepfakes so. Man traut also eher dem Webportal, dem Verlag oder einer bestimmten Zeitung als einem einzelnen Bild oder Video.

Man muss aber wissen, dass die Prüfung von Echtheit durchaus aufwendig ist. Das können Privatpersonen kaum sinnvoll machen. Allerdings sind es gerade Privatpersonen, die über die sozialen Medien stark zur Verbreitung von Deepfakes beitragen.

Wie wird sich das wohl weiterentwickeln?

Ich glaube, wir sind gerade in der Phase der Adaption der Gesellschaft an die neuen Manipulationsmöglichkeiten. Gleichzeitig haben wir die Adaption an die neuen Kommunikationsmöglichkeiten der sozialen Medien noch nicht abgeschlossen.

Das ist eine brisante Gemengelage, die sehr spannend ist und wo die Wissenschaft einen Beitrag leisten kann, etwa im Rahmen von Veranstaltungen wie der Werkstatt am bidt. Wir können dadurch dazu beitragen, die Fähigkeiten von Journalisten, der Politik und auch der Gesellschaft zu stärken, mit Deepfakes umzugehen. In der Informatik müssen wir natürlich auch technische Methoden entwickeln, um Fälschungen zu erkennen.

Es mag paradox klingen, aber dazu müssen Wissenschaftlerinnen und Wissenschaftler selbst fälschen. Ich weiß aus der Vergangenheit, dass Systeme erst dann richtig sicher geworden sind, als eine öffentliche Erforschung ihrer Schwächen entstand. Beispiele sind etwa die Kryptografie und auch die Betriebssystemsicherheit.

Gibt es auch positive Anwendungsbeispiele von Deepfakes?

Wenn man heute ein Foto mit einem Smartphone macht, wird bei manchen Modellen gleich ein kleines Video aufgenommen. Ein Filter macht daraus, in der optimalen Kombination der Aufnahmen, das bestmögliche Foto. Oder wenn ich zu Hause meine Webcam anmache, sorgt ein Filter dafür, dass ich wacher aussehe als ich bin. Da kann man sich auch fragen: Ist das Bild echt?

Es ist gar nicht immer so klar, was Manipulation ist und was nicht. Am Ende ist eine Manipulation nicht eine technische Sache. Erst wenn die Absicht dazukommt zu täuschen, wird eine Bildveränderung zur Manipulation.