Berliner KI-Forscher Markl: „Daten sind nicht das neue Öl“
Volker Markl leitet das Berliner Kompetenzzentrum für Künstliche Intelligenz. Im Interview erklärt er, was Europa dabei vom Profifußball lernen kann.
Europa hat große Ambitionen bei der Förderung von Künstlicher Intelligenz. Was sind ihre Erwartungen an die KI-Politik?
Markl: Wir müssen in Europa auf drei Feldern vorankommen. Das ist zum einen Forschung im Bereich Big Data Management und Machine Learning. Zum Zweiten die Ausbildung in diesem Bereich und drittens benötigen wir Innovationen in der Breite. Bei der Forschung müssen wir durch eine Konzentration auf die wesentlichen Zentren Innovationsökosysteme schaffen.
Was stellen Sie sich da vor?
In Deutschland machen wir das im Bereich der Grundlagenforschung durch die KI-Kompetenzzentren und die Stärkung des DFKI bei der angewandten Forschung schon ganz gut. Solch eine Vernetzung wäre auch in Europa wünschenswert, um attraktive Standorte mit kritischer Masse und Schlagkraft zu schaffen. Wir müssen die Kompetenz ballen. Das ist wie beim Fußball, da wollen die besten Leute auch mit Messi oder Lewandowski spielen.
Kann das mit neuen Forschernetzwerken wie CLAIRE und ELLIS gelingen?
Das sind gute Initiativen, was mir da noch fehlt ist die Komponente des Big Data Managements, die man noch stärker in diese Netze einbringen muss. CLAIRE und ELLIS kommen ja aus der klassischen KI-Forschung, da muss die Datenseite etwas mehr berücksichtigt werden, aber ich denke das passiert auch.
Ihr zweiter Punkt war die Ausbildung, wie sollte die verbessert werden?
Informatik und der algorithmische Umgang mit Daten müssen als Fach an Schulen und Universitäten eingeführt oder gestärkt werden. Man kann nicht früh genug damit anfangen, im angelsächsischen Raum werden schon an der Grundschule Grundlagen der Datenkompetenz vermittelt. Das andere ist, dass man später den Umgang mit Daten nicht nur in der Theorie sondern an konkreten Beispielen vermittelt. Da gibt es auch in den USA beispielsweise an der Uni Berkeley Ansätze, wo Schüler und Studenten Datenprogrammierung lernen und zwar in allen Fächern, auch in den Geisteswissenschaften. Einen solchen Kurs haben wir an der TU Berlin wohl erstmals in Deutschland adaptiert.
Und wie schafft man dann Innovationen in der Breite?
In den USA und Asien entstehen viele Innovationen und neue Unternehmen aus der Forschung und den Universitäten. Hier müssen wir bürokratische Hürden abbauen und Anreizsysteme schaffen, so dass Gründungen für Professoren und Mitarbeiter in den internen Leistungsbewertungen auch belohnt werden. Zudem sollten Universitäten die Ansprüche an das geistige Eigentum weniger komplex gestalten. Es gibt dort oft Patentverwertungsansprüche aber gerade in der Informatik wird durch Patente wenig Geld verdient – mit Ausnahme der Rechtsanwälte. Eine bessere Lösung wären fixe Beträge, die man im Falle eines erfolgreichen Exits dann zurückzahlen muss.
Es wird auch diskutiert, ob hiesige Start-ups genug Daten haben, um mit den Amerikanern und Chinesen mithalten zu können. Wie sehen sie das?
Für KI-basierte Anwendungen sind Daten tatsächlich der wichtigste Produktionsfaktor. Viele sagen ja, Daten sind das neue Gold oder Öl, wobei der Vergleich nicht sinnvoll ist. Denn sie werden ja nicht verbraucht und sind daher nicht mit einem Rohstoff vergleichbar, sondern mit einem Produktionsfaktor wie Kapital, Arbeit oder Boden. Auf Englisch sage ich gern: data is not the new oil, but the new soil, also der neue Boden. Denn so wie aus dem Boden neues Getreide entsteht, können aus Daten neue Informationen gewonnen werden. Und so wie ich den Boden düngen oder gießen muss, muss ich auch Daten pflegen, reinigen und aktualisieren. Vor allem aber kann man Rohstoffe importieren, einen Produktionsfaktor muss man dagegen im eigenen Land haben, deswegen ist Souveränität in diesem Bereich so wichtig.
Wie kann Datensouveränität erreicht werden?
Es kann nicht einfach nur darum gehen, Daten irgendwie bereit zu stellen, sonst produziert man am Ende Datenmüll. Das ist wie Boden der brach liegt oder verkommt. Sondern wir brauchen Souveränität bezüglich der cloudbasierten Plattformen, die das Datenmanagement betreiben. Nur wenn wir diese Schlüsselkompetenz in Europa haben, können wir auch Anwendungen entwickeln und die Wertschöpfung in Europa durchführen. Sonst gefährden wir mittelfristig unsere Wirtschaft und geraten in eine immer größere Technologieabhängigkeit von den USA und China. Wir brauchen daher eigentlich einen großen Player, der die Ressourcen für die Verarbeitung und Analyse großer Datenmengen hat und mit Amazon, Microsoft oder Alibaba mithalten kann.
Dafür hat die Regierung das Cloudprojekt Gaia-X gestartet, allerdings als Netzwerk aus vielen Playern. Ist das der falsche Ansatz?
Es ist ein Versuch, so ein Ökosystem zu schaffen, aber aus meiner Sicht ist der leider halbherzig. Statt einen Anbieter mit großer Schlagkraft und klarer Zielsetzung zu schaffen, entsteht nun ein vielstimmiges Konsortium mit vielen und nicht immer übereinstimmenden Zielen der Partner. Da so viele Köche dabei sind, entstehen auch komplizierte Abstimmungsprozesse und man ist wahrscheinlich langsamer am Markt als nötig. Ich persönlich hätte es daher besser gefunden, wenn die Ideen zu Gaia-X in der Gründung eines neuen Unternehmens gemündet hätten, dass als Start-up mit klarem Ziel auch aggressiv die besten Experten der Marktführer abwerben kann. Ich hoffe aber trotzdem inständig, dass Gaia-X erfolgreich sein wird, denn wir brauchen für unsere Wettbewerbsfähigkeit so ein technisches Ökosystem.
Und was können Datenräume leisten, wie sie die EU plant?
Das kann punktuell etwas bringen aber die große Wertschöpfung entsteht oft durch die Verknüpfung von verschiedenen Daten und die Nutzung von Algorithmen über unterschiedliche Domänen hinweg. Ein Algorithmus aus dem Automobilbereich kann ja unter Umständen auch in der Gesundheit eingesetzt werden. Und Amazon ist es egal ob Netflix-Videos oder Bilder der Polizei aus Überwachungskameras analysiert werden sollen, so ist es letztlich mit allen Datenbanksystemen. Wenn man so ein allgemeines System baut, hat man natürlich ganz andere Kosten und Skaleneffekte. Einzelne kleine Nischen werden da nicht mithalten. Man braucht einen großen Wurf und nicht hundert kleine, die alles replizieren. Man muss das ja jeweils managen und mit den entsprechenden Sicherheitsanforderungen betreiben. Die Anzahl der Experten, die das können ist auch nicht so groß. Wenn einer alles nur einmal macht, mit größerer kritischer Masse, hat der einen großen Wettbewerbsvorteil.
Was kann EU sonst tun, um den Produktionsfaktor Daten ähnlich zu fördern wie die Landwirtschaft?
Ein ganz wichtiger Aspekt ist die Ausbildung. Wir müssen die Kenntnisse im Bereich KI erheblich stärken und brauchen da auch größere Investitionen. Der Bedarf den wir haben bringt uns schon jetzt an die Grenzen. In unsere Veranstaltungen zu Big Data und Machine Learning kommen bis zu 1000 Studierende. Es ist nicht sinnvoll, dass die Spitzenforscher auch noch die große Last der Ausbildung in der Breite tragen. Wir müssen daher neue Stellen schaffen, die einen Fokus auf Ausbildung in KI haben. Die Forderung geht eher an Deutschland: Ich würde mir wünschen, dass man so etwas wie Tenure-Track-Dauerstellen einführt, die vergleichbar sind mit einem Lecturer im englischen System. Also jemand, der sich mehr um die Ausbildung kümmert und dafür vielleicht auch besser geeignet ist, in der Breite zu unterrichten, als mancher Spitzenforscher. Die können dann wiederum tiefe und komplexere Themen in kleineren Gruppen vermitteln. Doch bei denen befinden wir uns in einem globalen Wettbewerb um die besten Köpfe. Und da sind die starren Gehaltsstrukturen und das Besserstellungsverbot im öffentlichen Bereich ein weiteres Problem.
Volker Markl ist Co-Direktor des KI-Kompetenzzentrums BIFOLD (Berlin Institute for the Foundations of Learning and Data). Er leitet zudem das Fachgebiet „Datenbanksysteme und Informationsmanagement“ an der TU Berlin und die Forschungsgruppe „Intelligente Analytik für Massendaten“ am DFKI.