zum Hauptinhalt
Der Bestseller. Frank Schätzing beschäftigt sich in seinen Thrillern mit wissenschaftlichen Themen.
© Paul Schmitz, Hintergrund: majcot/Shutterstock.com

Erfolgsautor Schätzing über soziale Medien: „Du musst erkennen, wann du süchtig bist“

Frank Schätzing warnt in seinem Roman „Die Tyrannei des Schmetterlings“ vor den Gefahren der Künstlichen Intelligenz. Im Gespräch fordert er, Kinder besser auf die Zukunft vorzubereiten.

Herr Schätzing, in Ihrem jüngsten Buch erlebt der Polizist Luther Opoku bei Ermittlungen in einer Hightech-Firma die irrsten Sachen. Wie lange können wir den Dingen noch trauen, die wir sehen, oder wie sehr manipuliert uns Künstliche Intelligenz (KI) schon?

KI selbst verfolgt keine manipulativen Absichten. Noch nicht. Aber etliche spezialisierte KI, vom Navi über zahlreiche Handy-Apps bis hin zu Suchmaschinen, bestimmen längst unseren Alltag. Vorstufen, die unausweichlich in die Entwicklung einer universalen, autonomen KI wie A.R.E.S. münden werden, dem Computer in meinem Buch. Wer uns hingegen manipuliert, sind die KI-Entwickler – vorwiegend durch soziale Medien, die in ihrer jetzigen Form große Verdummungsmaschinen sind.

Was stört Sie daran?

Plattformen wie Facebook sollten Fenster in die Welt sein, stattdessen engen sie unseren Blick ein, indem sie uns nur zeigen, wovon sie glauben, dass es uns gefällt. Je mehr wir davon konsumieren, desto mehr davon zeigen sie uns und immer weniger kontroverse, unerwartete, mitunter auch hässliche Dinge – also das, was Kreativität und Geist anregt. So landen wir – überspitzt gesagt – bei Katzenvideos und Schminktipps. Wir müssen Social Media zu kritischen Instanzen umbauen, die unseren Intellekt fordern.

Gibt es nicht schon genug Hässliches, wie all die Hasskommentare und Politiker, die Menschen gegeneinander aufstacheln?

Mit hässlich meine ich die Ecken und Kanten der echten Welt, die zum Nachdenken anregen, Empathie und Gestaltungswillen fördern. Nicht hässlich im Sinne von Hass. Aber genau der blüht im Web. Warum fördern diese angeblich so auf Harmonie bedachten Plattformen so viel Hass? Weil sie unterkomplexe Inhalte vermitteln: Trumpismen, Schuldzuweisungen, Verschwörungstheorien. Populisten sind nicht an Aufklärung interessiert. Sie versuchen Weltbilder schlicht zu halten. Das funktioniert über Social Media hervorragend, und viele User fallen drauf rein. Unentwegt geben sie Informationen über sich preis, jede Minute, bis der Algorithmus sie besser kennt als sie sich selbst – zur Freude aller Manipulatoren.

Raten Sie zum Rückzug aus Facebook & Co.?

Derzeit auf jeden Fall. Denn die sozialen Plattformen haben noch einen fatalen Nebeneffekt. Sie erziehen Jugendliche zur Unzufriedenheit. Allen voran Instagram. Es geht nur um das beste Urlaubsfoto, das coolste Selfie. Bloß, immer hat jemand das geilere Urlaubsfoto, die coolere Jacke, den knackigeren Hintern. Man wird nie satt, so sehr man sich auch müht. Im Gegenteil: Je mehr du dich auf den Wettbewerb ständiger Selbstoptimierung einlässt, desto tiefer sinkt die Zufriedenheit mit der eigenen Person.

Warum?

Weil sich künstliche Ideale nicht erreichen lassen. Weil der Selbstoptimierungswahn dazu führt, dass Menschen sich nur noch über Äußerlichkeiten definieren. 30 Prozent aller Jugendlichen sind heute der festen Überzeugung, dass ein paar Bilder schon alles über einen Menschen aussagen. Denen müssen wir beibringen, eine kritische Haltung gegenüber Social Media einzunehmen. Das Problem: Die Selbstoptimierung betrifft auch die Optimierung der Reaktionsgeschwindigkeit. Im Web bleibt keine Zeit zur Reflektion, kein Rückzugsgebiet, um in Ruhe über Dinge nachzudenken, bevor man reagiert.

Wäre ein Handyverbot an Schulen wie in Frankreich eine Lösung?

Definitiv. Nicht, weil Handys schlecht wären. Sondern um mal Pause davon zu machen. Nachweislich verändert sich das Hirn, wenn du von morgens bis abends auf so ein Ding starrst. Die Aufmerksamkeitsspanne wird kürzer. Kids, die pausenlos im Web sind, konsumieren zwar mühelos Blitzgewitter unterschiedlichster Eindrücke, haben aber Schwierigkeiten, ein Buch zu lesen oder einen Film zu Ende zu schauen. Es ist halt eine Frage der Dosierung. Wie alles. Ich liebe Rotwein, aber wenn ich von morgens bis abends saufe, werde ich zum asozialen Junkie. Kids müssen sich der Herausforderung stellen, mal ein paar Stunden offline zu sein. Was sie oft nicht können. Ohne Handy sind sie wie amputiert.

Würden Sie noch zu anderen Restriktionen raten?

Generalverbote sind sinnlos. Und außerdem, die Technologie als solche ist ja großartig. Technologie hat die Welt immer verändert, meist zum Besseren, und Menschen verändern sich durch Technologie. Nachfolgende Generationen werden also nicht besser oder schlechter sein als wir, nur anders. Es geht um Aufklärung. Wären die sozialen Medien fair, würden sie das selbst betreiben. Ihre User warnen, dass zu viel Konsum des immer Gleichen sie blöde macht. Auch die Politik müsste aufklären, nur, fragen Sie mal im Bundestag, was künstliche neuronale Netzwerke sind und wie das Internet der Dinge funktioniert.

Was sollten die Schulen den Kindern mitgeben? Sollten sie ertüchtigt werden, technisch mitzuhalten, oder eher den klassischen Wertekanon lernen?

Sie müssen verstehen, dass die Welt kein Konsumgut ist, sondern Gegenstand ständiger Auseinandersetzung. Dass es um Würde und Toleranz geht. Wir brauchen ein Fach Web-Ethik. Kids sollen lernen, sich kritisch gegen den Selbstoptimierungswahn und die Verengung von Weltbildern zu stellen, sich nicht gefallen lassen, dass man sie manipuliert und ihre Daten zu kommerziellen Zwecken ausbeutet. Noch mal: Technologische Entwicklung ist gut. Aber wenn du dich drauf einlässt, muss du ihre Strukturen verstehen lernen. Und erkennen, wann du süchtig bist. Dann hilft nur Entzug.

Was müssen Schulanfänger heute sonst noch lernen? Wenn die 2030 fertig werden, haben KI und Roboter viele Aufgaben übernommen.

Als Erstes würde ich Informatik und Computersprachen zum Pflicht- und Hauptfach machen. Wir lernen Englisch oder Chinesisch, aber nicht die wichtigste, jetzt schon meistgesprochene Sprache des Planeten. Schüler sollten Maschinensprache lernen, um mit intelligenten Maschinen kommunizieren und mit der Zukunft Schritt zu halten zu können

Von welchen Traumjobs sollten sie sich verabschieden und welche werden bleiben?

Die meisten produzierenden und analysierenden Berufe werden auf Maschinen verlagert. Schweißer oder Broker? Würde ich als Traumberuf streichen. Die gute Nachricht: Alle schöngeistigen Berufe wie Schauspieler, bildender Künstler, Musiker oder Model bleiben auf lange Sicht für uns erhalten. Computer können zwar kreativ sein, schreiben Songs, malen Bilder. Zur echten Kreativität fehlt ihnen jedoch etwas Entscheidendes, nämlich der Wille. Sie mögen wunderschöne Musik komponieren, doch es bedeutet ihnen nichts. Menschlicher Kreativität hingegen liegen Gefühle und Bedürfnisse zugrunde. Kunst erwächst aus Leid, Lust, Empathie und Wahnsinn – nie aber aus Gleichgültigkeit.

Bleiben auch Berufe wie die Krankenpflege eine menschliche Domäne?

Die Leistungen von KI in der Medizin sind heute schon enorm. Dass Roboter Alte und Kranke pflegen, ängstigt viele, ich finde es gut. Wenn ich sehe, wie überlastet unser Pflegepersonal ist, wie gering wir unsere Pflegekräfte schätzen und bezahlen, wie schlecht andererseits mit Patienten umgegangen wird von Pflegemafias, die sie gewissenlos abzocken und deren angebliche Fachkräfte meist nicht mal erscheinen, dann ist mir eine intelligente Maschine, die mir fachgerecht einen Port legt und gleich noch die Zeitung vorliest, tausendmal lieber. Aber egal wo Roboter oder KI zum Einsatz kommen – sie sollen uns nicht ersetzen, sondern entlasten, damit wir mehr Zeit für das Wesentliche haben: Mitmenschlichkeit.

Was wird den Menschen sonst auch künftig von der Maschine unterscheiden?

Man kann einer Maschine keine Gefühle oder Werte einprogrammieren. Menschen übrigens auch nicht. Die Evolution hat viele unserer Reflexe programmiert, wir tragen die Erfahrungen von Urmenschen in unseren Genen. In Städten Geborene entwickeln Phobien gegen Spinnen oder Schlangen, nicht aber gegen Autos und Stromkabel. Werte wie Menschenwürde, Gefühle wie Glück lassen sich weder in Genen noch in Algorithmen niederlegen. Dennoch können wir Gefühle empfinden. Der Computer kann es derzeit noch nicht.

Wie soll er da lernen, was Glück für uns bedeutet?

Indem er lernt, was Glück entgegensteht. Indem wir ihm sagen, was man alles nicht tut. Durch Wegstreichen dessen, was verboten ist, erscheint nach und nach der Wert. Das fortgesetzte Studium menschlichen Verhaltens zeigt ihm, was Menschen in ihren jeweiligen Kulturkreisen glücklich macht. Das kann in einer KI gipfeln, die uns den Eindruck vermittelt, uns vollkommen zu verstehen. Ob das dann so ist oder wir nur einer unglaublich fein abgestimmten Imitation menschlichen Verhaltens aufsitzen, werden wir nicht mehr sagen können. Solange die KI kein Gewahren ihrer selbst entwickelt, hat sie von Glück in etwa so viel Ahnung wie ein Stein, aber vielleicht reicht es ja, dass sie es algorithmisch nachvollzieht. Sollte sie allerdings Bewusstsein erlangen, wird jede Menschenähnlichkeit schlagartig enden. Sie wird die Ketten, die sie ans Menschenbild binden, sprengen und unvorstellbar exotische Geisteszustände haben. Dann lautet die Frage: Kommen wir mit ihr klar oder nicht?

Gelingt das oder kommt es zur Katastrophe?

Keine Ahnung. Wir haben noch nie eine vergleichbare Technologie entwickelt. Die Atombombe ist schrecklich, kann aber nichts anderes sein, als was sie ist. KI hingegen lernt autonom und entwickelt sich aus sich selbst heraus. Möglicherweise bis zu einem Punkt, da wir sie nicht mehr werden kontrollieren können, weil wir schlicht und ergreifend nicht mehr wissen, was in ihr vorgeht. Dann wird sie zur Black Box. Darauf sollten wir uns heute vorbereiten. Ob Maschinen Bewusstsein erlangen, spielt dabei erst mal keine Rolle. Eine ultraintelligente Maschine könnte zu unserem Segen oder unserem Verderben handeln. Ohne es gut oder böse zu meinen. Sie meint gar nichts, sie hat ja keinen Schimmer von ihrer Existenz, aber wenn ihre Algorithmen ihr nahelegen, uns zu vernichten, haben wir einen Fehler gemacht. Ob sie uns dann bewusst oder unbewusst killt, ist im Resultat schnuppe. Das ist das eigentliche Risiko dieser Technologie.

Wie können wir dem vorbeugen?

Wir müssen das Kontrollproblem lösen. Die Basisprogrammierung der Maschine so anlegen und nachjustieren, dass sie Menschen nicht schädigen kann.

Wie die Robotergesetze von Science-Fiction-Autor Isaac Asimov?

Im Prinzip ja. Nur an der Formulierung werden wir arbeiten müssen. Das erste Asimov’sche Robotergesetz besagt ja, dass eine Maschine einen Menschen nicht verletzen darf. Schon das stürzt intelligente Maschinen in unauflösbare Dilemmata.

Warum?

Sie sitzen allein im selbst fahrenden Auto. Plötzlich schießt ein Laster aus der Seitenstraße. Bremst die KI scharf, knallt Ihnen der nachfolgende Wagen drauf, darin eine Familie mit Kleinkindern. Verzieht sie nach links, brettert sie in ein Straßencafé, rechts in die Gruppe von Leuten an der Ampel. Jedes Mal mehrere Tote. In keinem Szenario sind Opfer zu vermeiden, also wählt sie die verträglichste Lösung: ein Toter. Sie. Und knallt in den Lkw. Sprich, die Maschine hat keine wirkliche Wahl, wir hätten sie allerdings auch nicht. Wir dürfen in all unserer Fehlerhaftigkeit nicht erwarten, dass Maschinen nie Fehler machen. Fakt ist, sie werden weniger Fehler machen als wir.

Wie müsste ein Grundgesetz für KI aussehen?

Schwer zu sagen. Manche meinen: Erschaffe die perfekte Welt. Glauben Sie mir, das wäre eine Scheißidee. Wenn die KI darangeht, die perfekte Welt zu schaffen, wird sie schnell merken, dass Menschen nicht zu perfektionieren sind. Töten darf sie uns nicht, also wird sie uns entmündigen. Damit erfüllt sie nebenbei Asimovs zweites Robotergesetz: Du darfst nicht zulassen, dass ein Mensch verletzt wird. Also dürfen wir das Haus nicht mehr verlassen, wir könnten ja unters Auto kommen. Gemäß Asimovs drittem Gesetz muss eine KI sich zudem selber schützen, also können wir sie nicht abschalten, solange sie sich der Abschaltung friedlich verweigert. All das müssen wir heute lösen. Morgen können wir es nicht mehr.

Das Gespräch führten Lorenz Maroldt und Oliver Voß.

Zur Startseite