Dass Deep Fakes ein Problem darstellen werden, habe ich bereits an anderer Stelle ausführlicher beschrieben. Mit meiner Einschätzung bin ich nicht ganz alleine. Mittlerweile sind auch durch Medien mit großer Reichweite auf diese Problematik gestoßen. Claire Wardle von der New York Times erklärt in einem YouTube-Video sehr gut, worin die eigentliche Herausforderung liegt:

Ihre Kernaussage ist, dass man keine Deep Fakes benötigt um zu manipulieren oder Stimmung zu machen. Damit hat sie recht. Dennoch unterstützen Deep Fakes die sogenannten Shallow Fakes auf einem ganz anderem Level. Entscheidend ist, dass es immer schwieriger wird, zu unterscheiden, was real ist, und was nicht. Und ihr Schlussappell kann man gar nicht besser auf den Punkt bringen:

Wenn man unsicher ist, ob etwas real ist oder nicht, bitte teilt das nicht!

Es gibt bereits einige Initiativen, die sich dem Kampf, bzw. der Erkennung von Manipulationen verschrieben haben. Interessant ist, dass sich darin auch Unternehmen wie Google befinden, die viele gruseligen KI-Themen aktiv vorantreiben und erforschen. Lässt einen etwas verwirrt zurück.

Oder etwa Adobe, Hersteller der wohl bekanntesten Software zu Bildmanipulation, die sich der Erkennung von Manipulationen in Gesichtern verschrieben haben. Wirk manchmal wie Frankenstein, der sein eigenes Monster nicht mehr kontrollieren kann.

Es ist ein bisschen vergleichbar mit dem Katz’ und Maus Spiel zwischen Crackern und Herstellern von Kopierschutzmechanismen bei Computerspielen. Die Software zu Erstellung von Deep Fakes wird immer einen kleinen Schritt voraus sein. Und wir werden immer bessere Deep Fakes sehen. Ich bin weiterhin der Meinung, es gibt keinen guten Anwendungsfall für Deep Fakes, abseits von Mobbing, Belästigung und gezielter Desinformation. Und für mich ist ein neuer Film mit James Dean kein wirklicher Grund.

Photo by Max Muselmann on Unsplash