Deep Fakes machen Deep Problems

Wir leben in einer Zeit, in der manche Menschen es kaum noch schaffen, zwischen realen Nachrichten und so genannten Fake News zu unterscheiden. Gefühlt hat sich diese Herausforderung seit 2015 erheblich verschlimmert. Im Wahlkampf zur Präsidentschaft der USA wurden Journalisten mit „You are Fake News“ beschimpft, wenn die Meinungen oder Tatsachen nicht in das Bild passten.

In den Sozialen Medien werden Bilder zu schrecklichen Ereignissen gezeigt, die nach kurzer Recherche nachweislich nichts damit zu tun haben. Die Menschen glauben es. Sie glauben auch auf Twitter, Facebook oder anderen Kanälen geäußerte Verdächtigungen gegenüber nicht klar identifizierten Tätern. Ganz schnell wird Unruhestiftern Migrationshintergrund zugeordnet, noch bevor die Ermittlungen abgeschlossen sind. Nachrichten verbreiten sich wie Lauffeuer und niemand prüft die Echtheit. Wird eine Fake News entlarvt, folgt meist das beschwichtigende „Das haben sie falsch verstanden/Das habe ich so nicht gemeint“. Alles wieder gut.

Leider liest das niemand, die Aussage verbreitet sich nicht annähernd so schnell wie die Falschaussage. Ganze Parteien agieren so und gewinnen erschreckend viele Wähler. Selbst ernannte Volksparteien nutzen ähnliche Rhetorik. Ich gehe jetzt nicht tiefer darauf ein, dass Weltmächte mit einer nicht unerheblich großen Armee, per Twitter(!) globale Bedrohungen und Unruhen auslösen können. What a time to be alive!

Wenn man nun den jüngsten Hack (der keiner war) des Twitterkontos von Jack Dorsey – Gründer von Twitter – sieht, möchte man sich nicht ausmalen, was mit 240 Zeichen Kurznachricht angerichtet werden kann. Und das sind nur ein paar Textzeichen.

Was würde passieren, wenn eine mächtige Person plötzlich in einer Videoansprache andere Staaten provoziert und Aussagen trifft, die zu einem globalen Konflikt führt?

Dank der Rechenleistung heutiger Computer, kann so etwas nahezu jedermann. Die passende Software ist frei erhältlich und die Ergebnisse sind verblüffend.

Jetzt ist dieses Beispiel noch relativ lustig anzuschauen, doch sind auch erheblich authentischere Deep Fakes möglich:

Wer kann die Echtheit überprüfen? Stimme und Aussehen? Passt! Warum sollte das ein Fake sein? Menschen haben bereits Probleme eine Textnachricht zu verifizieren, bzw. glauben sie dem Inhalt von 240 Zeichen mehr, als einem gut recherchiertem Artikel. Das Schlimme: Die Videos werden in den nächsten Jahren nicht schlechter werden, jedermann wird solche Videos mit einem einfachen Smartphone erstellen können. Mobbing auf den Schulhöfen, in Firmen und im Internet wird eine neue Dimension erfahren. Früher hat man Köpfe aus Fotos geschnitten und wo anders draufgeklebt. Dann kam Photoshop. Videos sind die logische Weiterentwicklung. Wozu Deep Fakes abseits von Meinungsmache oder Denunzierung wirklich sinnvoll genutzt werden kann, ist mir ehrlich gesagt schleierhaft.

Mehr denn je muss gehofft werden, dass Menschen ihren Verstand einsetzen, bevor etwas als echt anerkannt wird. Mit Blick nach Amerika, Großbritannien und in große Teile von Deutschland, überkommt mich das Gefühl, dass das nicht jeder machen möchte. Deep Fakes werden Deep Problems zur Folge haben.

Photo by Franki Chamaki on Unsplash

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.