Deepfakes als Steigerung von Fake News: Wenn alles Lüge wird
Videos fälschen, Stimme und Mimik von Personen manipulieren: Die Deepfakes-Technik wird immer besser. Zeit, sich gegen eine neue Lügenwelt zu wappnen. Eine Kolumne.
Auch drei Jahre nach den Wahlerfolgen von Donald Trump und dem Brexit-Lager herrscht weiter Uneinigkeit darüber, wie viel Anteil Fake-News-Kampagnen am Machtgewinn beider Seiten hatten. Klar ist jedoch, dass durch diese beiden Zäsuren eine neue Art der gezielten Desinformation in den Fokus der Medien und Politik rückte, die auch weiterhin demokratische Wahlen gefährden könnte. Denn Fake News haben ihre nächste Evolutionsstufe erreicht. Sogenannte Deepfakes sind Videos oder Audiomitschnitte, die mithilfe von Künstlicher Intelligenz manipuliert werden, in dem beispielsweise die Gesichtsmimik oder Stimme einer Person verändert oder imitiert wird. Wurde diese Technik anfangs genutzt, um die Gesichter prominenter Schauspielerinnen auf die Körper von Pornodarstellerinnen zu verpflanzen, ist sie längst zum Instrument der politischen Wahrheitsverzerrung avanciert
Neuronale Netzwerke werden anhand von digitalen Bildern oder Sprachmitschnitten einer Person darauf trainiert, deren Eigenschaften zu replizieren. Deepfakes-Apps wie Zao aus China haben die Technologie massentauglich und zum Social Media Phänomen gemacht. Die resultierenden Videos werden aufgrund ihrer vergleichsweise primitiven Qualität oft als Dumbfakes bezeichnet – eine Verniedlichung.
Den eigenen Sinnen misstrauen ist schwer
Denn abseits der Amateurvideos entwickelt sich die Technologie weiter und schafft neue Herausforderungen. Deepfakes haben das Potenzial, die Effekte der Fake-News-Kampagnen nicht nur zu verstärken, sondern sie zu übersteigen. Einer Falschmeldung zu misstrauen und sie auf ihren Wahrheitsgehalt zu prüfen ist bereits schwer genug, doch die eigenen Sinne und die eigene Wahrnehmung anzuzweifeln, ist noch um ein Vielfaches schwieriger
In Kanada wird Ende Oktober gewählt, und in den sozialen Netzwerken tauchen vermehrt Deepfakes-Videos von Premierminister Justin Trudeau und seinem Kontrahenten Andrew Scheer auf. Die kanadische Agentur für Cybersecurity (CSE) warnte jüngst, dass solche Videos eine Gefahr für die Parteien und die Demokratie des Landes darstellen, und man frühzeitig auf diese reagieren müsse.
Im Nachbarland USA kursieren im Mai zwei Videos der demokratischen Politikerin und Sprecherin des Repräsentantenhauses, Nancy Pelosi, in den sozialen Medien. Das Tempo und die Stimmlage eines Mitschnitts wurden manipuliert, um den Anschein zu erwecken, Pelosi sei betrunken. Die angebliche Trunkenheit der Politikerin sorgte für einen Skandal, die Videos wurden millionenfach geklickt, und von Trump und seiner Gefolgschaft als Propaganda geteilt. Experten sahen darin einen Vorgeschmack auf das, was noch alles kommen könnte.
Worst Case: Ein Video, in dem Trump den Krieg erklärt
Der Bildforensiker und Professor Hany Farid arbeitet an einem Modell, das sich die Mimik und Stimmen der Spitzenkandidaten einprägt und darauf basierend Deepfakes erkennen soll. In einem Interview mit dem Sender PBS erklärte Farid, das Worst-Case-Szenario, das sich einige ausmalen, sei ein manipuliertes Video, in dem Donald Trump Nordkorea den Nuklearkrieg erklärt, und das anschließend zu einer Kettenreaktion führt. Farids Fazit: “Ich glaube ein solches Szenario ist sehr unwahrscheinlich, aber nicht unmöglich, und das sollte uns Respekt einflößen.”
Nur weil die Mehrzahl der Deepfakes derzeit noch hölzern und plump wirken und relativ einfach als solche zu entlarven sind, sollte deren potentielle Gefahr nicht banalisiert werden. Die Technologie steckt noch in den Kinderschuhen, doch schon jetzt überlappen die Trennlinien zwischen Realem und Fabriziertem zunehmend, besonders wenn die Videos mithilfe professioneller Software entstehen.
Die Nachrichtenagentur Reuters etwa trainiert einige Mitarbeiter darauf, Deepfakes zu erkennen, und testete ihr Urteilsvermögen mittels eines eigens erstellten Videos. Selbst die geschulten Augen einiger Reporter fielen trotz Sensibilisierung auf das Video herein, oder konnten nicht klar benennen, was am Video irritierend wirkt.
Wie kann die Öffentlichkeit immunisiert werden?
Es ist nur ein Frage der Zeit, bis die Deepfakes-Trickkiste perfektioniert wird und die Differenzierung zwischen Real und Fake erheblich erschwert. Wie kann angesichts dessen, eine Immunisierung der Öffentlichkeit gegen diese Desinformationstaktiken in den sozialen Medien gelingen?
Einer Studie des US-amerikanischen Pew Meinungsinstituts zufolge, gaben 63 Prozent der befragten AmerikanerInnen an, dass Deepfakes Verwirrung über Fakten und die Nachrichtenlage zur Folge haben, und 77 Porzent sprechen sich für eine striktere Regulierung in den sozialen Medien aus. Damit tun sich die Plattformen noch schwer.
Im Zuge des Pelosi-Mitschnitts wuchs der Druck auf Facebook, das Video zu sperren, was das Unternehmen in bester Tradition erst einmal ignorierte. Später folgte eine Entschuldigung von Mark Zuckerberg, der eingestand, dass sein Unternehmen zu langsam und passiv auf das Video reagiert hätte. Der Grund: Man sei noch im Findungsprozess, was das Regelwerk zu Deepfakes angeht. Eine Ausrede, die sehr an Facebooks Widerwillen und Untätigkeit beim Thema Fake News erinnert. Die gefährliche Latenz zwischen Problemerkennung und -lösung, die sich schon damals manifestierte, droht sich zu wiederholen.
Es braucht technologische Antworten
Mit Hochdruck arbeiten Firmen an Programmen und Filtern, die Deepfakes erkennen können. Doch die Frage, wer Verantwortung übernehmen muss und wie, bleibt weiterhin unbeantwortet. Ein Uploadfilter für Plattformen wie Facebook und Twitter wäre denkbar, doch die jüngste in Debatte in Europa um Artikel 13 und die Netzfreiheit, lassen erahnen, auf welche Opposition eine solche Maßnahme treffen könnte.
Deepfakes sind ein technologisches Problem und müssen auch mit technologischen Mitteln bekämpft werden. Filter und Erkennungsprogramme werden unabdingbar sein. Doch auch dann braucht es immer noch die menschliche Ratio, um zu entscheiden, ab welchem Punkt ein Deepfake eine Gefahr darstellt, und wie viel kreativen Freiraum man den Schöpfern dieser Videos lassen darf.
Das Desinformations-Potenzial von Deepfakes ist groß, aber momentan noch kein Grund zur Hysterie. Neben den technologischen Fortschritten wird es auch darauf ankommen, einen menschlichen Schutzmechanismus zu stärken. Deepfakes stellen unsere Sinne in Frage, und erfordern ein Höchstmaß an kritischem Denken und kognitivem Scharfsinn: Kann ich mich auf das verlassen, was ich zu sehen oder hören glaube?
Ohne diese Selbstreflexion, werden Deepfakes die Polarisierung der öffentlichen Meinung weiter vorantreiben. Das ist die Gefahr, wenn künstliche Intelligenz auf menschliche Ignoranz trifft.