Mit Algorithmen gegen den "Islamischen Staat": Minority Report im Anti-Terror-Kampf
Mit Gräuelvideos geht der "Islamische Staat" im Netz auf Rekrutenfang. Ein Algorithmus verrät nun, ob jemand in Zukunft den IS unterstützen wird. Kann die Terrororganisation so geschwächt werden?
Eine Welt ohne Verbrechen. Eine Welt, in der Prophezeiungen jeden Mord vorhersagen und zukünftige Verbrecher vorab verhaftet werden. So stellte sich der Kinofilm „Minority Report“ aus dem Jahr 2002 die ferne Zukunft vor. Tom Cruise bekam dann Probleme, weil er, der Vollstrecker der schönen neuen Welt, plötzlich selbst auf der Abschussliste stand. Hollywood, Science Fiction und ein bisschen Liebe.
Die Gegenwart ist weniger romantisch. Die Orakelsprüche kommen nicht von nackten Frauen im Silikontank. Ansonsten ist die Gegenwart jedoch dabei, die Zukunft einzuholen: Prophezeiungen, Verbrechen, Massenüberwachung. Das volle Programm.
Im Minority Report von heute geht es nicht um Kriminalität, sondern um Terrorismus. Es sollen keine zukünftigen Mörder gefunden werden, sondern IS-Überläufer. Auch das Schlachtfeld ist weniger actiongeladen – die sozialen Medien sind das Einsatzgebiet der Gegenwart.
Forscher des Computer Research Institutes aus Katar haben einen Computeralgorithmus entwickelt, der mit fast 90-prozentiger Sicherheit vorhersagen kann, welche Twitter-Nutzer sich zu IS-Sympathisanten entwickeln werden – ohne dass diese den IS überhaupt jemals erwähnt hätten. Einmal entdeckt, könnten die Betreiber des Kurznachrichtendienstes diese Accounts leicht minutiös beobachten und im Fall einer Radikalisierung sofort sperren. Nicht ohne Grund konzentrieren sich Big-Data-Ansätze bei der Terrorismusbekämpfung auf die sozialen Medien. Sie sind anarchisch, schwer zu zensieren und bieten, was die Terrorismus-Propaganda braucht: Viralität, die ganz große Bühne.
Das ist ein Problem: vor allem für Twitter, Facebook und Youtube selbst. Denn nicht zuletzt schadet es dem Geschäftsmodell, wenn der User jederzeit über Gräuelvideos stolpern kann. Außerdem haben soziale Medien einen taktischen Nachteil: Videos oder ganze Nutzeraccounts können erst gesperrt werden, wenn das Propagandamaterial bereits gesendet wurde und die ersten User erreicht hat. Facebook und Co. sind immer einen Schritt hinterher.
Es braucht eine Strategie gegen den "Cyber-Dschihad"
Zumindest bei Twitter könnte sich das nun ändern. Das #MinorityProgramm2015 ist in der Entwicklungsphase. 3,1 Millionen Tweets in arabischer Sprache von 250 000 Nutzern wurden für das Forschungsprojekt ausgewählt. Sie alle hatten den "Islamischen Staat" in irgendeiner Form erwähnt. Eine Stichprobe von 1000 Tweets wurde von einem arabischen Muttersprachler daraufhin eingeteilt, ob sie den "Islamischen Staat" positiv, neutral oder negativ bewerteten. Dabei ergab sich, dass User, die den "Islamischen Staat" als „Aldawla Alislamiya“ („Islamischer Staat“) oder „Aldawla Alislamiya fi Aliraq walsham“ („Islamischer Staat im Irak und der Levante“) bezeichneten, zu 93 Prozent positiv gegenüber der Terrormiliz eingestellt waren. Die Bezeichnung „Da’esh“ („IS“) wiederum wurde zu 77 Prozent von Kritikern des IS genutzt.
Knapp zwei Drittel der Pro-IS-User wiesen dabei eine Radikalisierung nach einer anfänglich neutralen Haltung auf. Ihre nicht mit dem IS zusammenhängenden Tweets wurden von den Forschern auf Gemeinsamkeiten in Ausdruck, Häufigkeit und Kontext untersucht. Spätere IS-Unterstützer verlinkten beispielsweise signifikant häufiger zu Berichten über fehlgeschlagene Aufstände des Arabischen Frühlings. Am Ende steht nun ein intelligenter Algorithmus, der anhand des Tweet-Verhaltens vorhersagen kann, ob ein User später zum Sympathisanten des Islamischen Staates wird. Zur Kontrolle überprüften die Wissenschaftler den Algorithmus an diversen Twitter-Nutzern. Die Erfolgswahrscheinlichkeit: 87 Prozent. Und damit genug, um aus den 288 Millionen Nutzern eine ausreichend kleine Gruppe herauszufiltern, die dazu neigen wird, IS-Propaganda zu verbreiten.
Twitter war vor allen anderen Netzwerken in der Vergangenheit kritisiert worden, zu passiv gegen die Verbreitung von IS-Propaganda vorgegangen zu sein. Erst Anfang März hatten Mitglieder des US-Kongresses Twitter-CEO Dick Costolo in einem offenen Brief zu einer aggressiveren Strategie gegen den „Cyber-Dschihad“ aufgefordert. Zuvor war bekannt geworden, dass etwa 46 000 IS-Unterstützer-Accounts auf Twitter aktiv sind. Der Kurznachrichtendienst sperrt derzeit rund 2000 terroraffine Accounts – pro Woche.
Den Algorithmen fehlt noch etwas an Präzision
Eine Politik, die Twitter-Chef Costolo bereits viele Morddrohungen von IS-Aktivisten eingebracht hat. Dennoch will man derzeit nicht auf automatisierte User-Scans setzen, um Terrorunterstützer zu identifizieren. Twitter spekuliert auf die Selbstreinigungskräfte der Community. Die hat bereits eine Online-Miliz aufgebaut. Vor allem Anonymous macht Jagd auf IS-Accounts und veröffentlicht Schwarze Listen. Man wolle die Möglichkeiten der freien Meinungsäußerungen nicht zu leicht durch Big-Data-Filterungen einschränken, twitterte Vijaya Gadde, Unternehmensjuristin von Twitter. Problematisch ist die Jagd auf unliebsame politische Überzeugungen auch in anderer Hinsicht. Vor allem in den USA wächst seit Kurzem eine kleine, aber prominente Bewegung von Tweet-Löschern. Zu häufig haben in der Vergangenheit 140 Zeichen ausgereicht, um Karrieren und ganze Leben zu zerstören. Das jüngste Beispiel ist der neue Technologieberater Ethan Czahor von Präsidentschaftsanwärter Jeb Bush.
Er hatte sich auf Twitter homophob geäußert und Frauen mehrmals als „sluts“, „Schlampen“, bezeichnet. Allerdings lagen einige dieser Tweets schon Jahre zurück. Kurz nach Bekanntwerden seines neuen Arbeitgebers im Februar begann er diese zu löschen. Doch zu spät. Die Presse hatte schon eifrig Screenshots angefertigt. Czahor trat daraufhin zurück.
Die Technologie könnte auch missbraucht werden
Die Tweet-Löscher-Bewegung sieht Twitter vordergründig als Debattenmittel. Standpunkte können sich ändern. Menschen lernen dazu. So schrieb Ethan Czahor kurz vor seinem Rücktritt: „Ich habe einige alte Witze gelöscht, die ich vor Jahren gemacht habe und nun nicht mehr lustig oder angemessen finde. #gelernt #gereift“. Unabhängig davon, wie ernst es Czahor mit dem Sinneswandel gewesen ist: Die zeitlosen Archive von Twitter sind ein Problem. Denn noch mehr als Facebook und Youtube versteht sich der Kurznachrichtendienst als überaus politisches Diskussionsmedium.
Mit Big-Data-Algorithmen könnten theoretisch nicht nur IS-Aktivisten vorab enttarnt werden, sondern auch massenhaft User in autoritär regierten Ländern identifiziert werden, die oppositionelle Meinungen vertreten werden – lange bevor der Nutzer überhaupt seinen ersten kritischen Tweet schreibt. In diesem Fall endet die Geschichte wohl kaum mit der Löschung des Twitter-Accounts. Und auch Unternehmen und die Werbeindustrie dürften ein großes Interesse daran haben, zu erfahren, was ein User eines Tages mögen wird.
Die einzige Option, sich gegen die Überwachung aus der Zukunft zu schützen, ist das automatische Löschen von Tweets nach einem festgelegten Zeitraum. Sind nicht genügend Tweets vorhanden, sinkt die Aussagekraft der Algorithmen. Weil Twitter die Option selbst nicht anbietet, haben erste Start-ups das Geschäftsmodell für sich entdeckt. Auf der Entwicklerplattform Github bieten einige Vorkämpfer der Bewegung zudem kostenlose Programme an.
Bis zur kompletten Umsetzung der „Minority Report“-Welt von Tom Cruise fehlt es den Algorithmen noch etwas an Präzision. Aber es wäre eine Illusion, zu glauben, es würde nicht – jetzt, gerade, in dieser Minute – daran gearbeitet, diese Zukunft möglich zu machen.
Michel Penke