„Sollen uns Computer zwingen, oder können wir auch künftig noch selbst entscheiden?“
Timo Rademacher (Jahrgang 1984) ist Juniorprofessor für das Recht der neuen Technologien an der Leibniz Universität Hannover. Im Interview mit Rundblick-Redakteur Niklas Kleinwächter erläutert er, welche Auswirkungen es haben kann, wenn der Staat zunehmend auf künstliche Intelligenz (KI) in der Strafverfolgung setzt.
Rundblick: Prof. Rademacher, Sie haben die Juniorprofessur für das Recht der neuen Technologien inne. Womit beschäftigen Sie sich da?
Prof. Rademacher: Bei diesen neuen Technologien, die meine Professur abdecken soll, ist künstliche Intelligenz ein zentrales Thema. Gemeint ist damit alles, wo Bild- und Tonerkennungs-Software in Verbindung mit lernenden Algorithmen verwendet wird, um große Datenmengen zu analysieren. Fast alle diese künstlich-intelligenten Anwendungen berühren in irgendeiner Form personenbezogene Daten. Der Datenschutz spielt daher eine besonders große Rolle. Meine Spezialisierung ist dabei der Einsatz künstlicher Intelligenz durch den Staat. Mich beschäftigt also weniger die Frage, was Amazon und Facebook mit KI machen, sondern ob zum Beispiel die Polizei oder die Steuerbehörden künstliche Intelligenz einsetzen dürfen.
„Die Form und auch die Regeln der Überwachung bleiben im Grunde die gleichen wie bisher, sie ist aber unglaublich viel effektiver, schneller, zugriffsintensiver.“
Rundblick: Wie muss man sich das vorstellen, wenn der Staat KI einsetzt?
Prof. Rademacher: Die Idee von KI ist es, die Form der Überwachung, die wir jetzt schon haben, noch zu optimieren. Dann müssen nicht mehr irgendwo in Wiesbaden im Bundeskriminalamt tausend Leute sitzen und sich Tonbänder anhören. Sondern die KI ist in der Lage zu sagen, wo gerade etwas Relevantes passiert ist oder gesagt wurde. Die Form und auch die Regeln der Überwachung bleiben im Grunde die gleichen wie bisher, sie ist aber unglaublich viel effektiver, schneller, zugriffsintensiver.
Rundblick: Worin besteht denn aus juristischer Perspektive der Unterschied, ob da jetzt tausend Menschen sitzen und Material sichten, oder ob da ein Computerprogramm eingeschaltet ist und auswertet?
Lesen Sie auch:
Wie Computerprogramm die Polizei beim Sichten von Kinderpornos entlasten sollen
Künstliche Intelligenz: Dumm ist das neue Schlau
Prof. Rademacher: Bis vor kurzem war die Auffassung des Bundesverfassungsgerichts noch, dass es grundrechtlich sogar besser ist, wenn ein Computer das Datenmaterial auswertet, weil sich dann kein Mensch mit den privaten Dingen anderer Bürger befasst. Und wenn der Computer effektiv all die Dinge herausfiltert, die ungefährlich und nicht verboten sind, ist das ein besserer Schutz der betroffenen Grundrechteträger, als wenn da eben tausend Menschen sitzen und zuhören oder zusehen. Auf der anderen Seite, und deshalb ist es so kompliziert, würde der Staat diese tausend Menschen erst gar nicht einsetzen können. Durch KI wird also die faktische Schwelle zur Massenüberwachung erst derart abgesenkt, dass sie überhaupt möglich wird. In dieser Abwägung gibt es noch keine richtige Antwort. Aber die Besorgnis ist: Je billiger und je flächendeckender KI-basierte Überwachung eingesetzt werden kann, desto mehr wird einfach auch eingesetzt.
Rundblick: Haben Sie ein Beispiel, wo der Staat bereits künstliche Intelligenz verwendet?
Prof. Rademacher: Im Finanzmarkt ist die Überwachung durch KI zum Beispiel schon sehr weit vorangeschritten. Jede Steuererklärung wird mittlerweile durch Risikoerkennungssysteme überprüft. Das ist nichts anderes als mustergestützte automatisierte Gefahrerkennung. Wo es etwas heikler wird, ist der Flugverkehr. Jeder Fluggast wird momentan mit Mustern abgeglichen, die auf Terrorismus hindeuten sollen. Das liegt gerade bei den Gerichten, um zu entscheiden, ob das zulässig ist. Ein Beispiel aus dem Bereich der Bilderkennung wird gerade in Frankfurt diskutiert: Man überlegt, am Bahnhof intelligente Videoüberwachung einzusetzen, nachdem dort im vergangenen Jahr ein Junge auf die Gleise gestoßen wurde. Denn da hat man festgestellt, dass der mutmaßliche Täter sich vorher auffällig verhalten hat – er ist immer im Kreis gelaufen und mehrmals an derselben Stelle stehengeblieben. KI hätte das eventuell erkennen und Alarm schlagen können.
„Wollen wir noch selbst entscheiden, ob wir uns ans Recht halten, oder wollen wir von Strukturen umgeben sein, die uns zur Rechtsbefolgung zwingen?“
Rundblick: Das klingt doch nach einer guten Sache, wenn Videoaufzeichnungen nicht mehr nur im Nachhinein helfen, sondern Taten vorab verhindern können.
Prof. Rademacher: In diesem Fall stimmt das. Die große Frage, die damit zusammenhängt, ist allerdings: Wollen wir noch selbst entscheiden, ob wir uns ans Recht halten, oder wollen wir von Strukturen umgeben sein, die uns zur Rechtsbefolgung zwingen? Was wir anerkennen sollten, ist, dass unser Rechtssystem relativ gut funktioniert hat, in einer Realität, in der wir selber noch ganz viel entscheiden konnten. Wir können entscheiden, ob wir uns an Regeln halten, oder ob wir eventuell die Konsequenzen tragen wollen, wenn wir uns einmal nicht an die Regeln gehalten haben. Und KI wird immer mehr dazu führen, dass wir uns mit Technologie umgeben, die uns bereits in dem Moment stoppen kann, wo wir anfangen uns gegen das Gesetz zu wenden. Es gibt aber in der Bevölkerung so eine Art gefühlte Legitimität, selbst über den Rechtsverstoß entscheiden zu können. Die Beantwortung der Frage wird letztlich unterschiedlich ausfallen – je nach dem, um was für ein Recht es geht. Wenn Sie die Entscheidung treffen können wollen, ob Sie über eine rote Ampel fahren oder nicht, würden viele von uns sagen: Ja, die möchte ich treffen können. Wenn sie die Frage anders formulieren, zum Beispiel ergänzen, dass ein Kind auf der Mitte der Kreuzung steht, würden die meisten sagen: Auf gar keinen Fall habe ich das Recht über diese rote Ampel zu fahren.
Rundblick: Wie weit sind wir denn eigentlich schon? Was ist da technisch möglich?
Prof. Rademacher: Ich glaube, dass alles, was mit Bild- und Texterkennung zu tun hat, in absehbarer Zeit sehr gut funktionieren wird. Ein kleines Start-Up in den USA hat jetzt beispielsweise eine Gesichtserkennungs-Software anhand von Social-Media-Bilddateien trainiert und das funktioniert offenbar sehr gut. Von der sogenannten starken KI, die nicht mehr nur auf ein bestimmtes Ziel trainiert ist, sondern zum Beispiel selbstständig entscheidet, sich neue Erkenntnisquellen zu erschließen, davon sind wir noch weit weg. Auch Geruchs- und Geräuscherkennung sind noch am Anfang. Und erst recht, wenn es um das Beurteilen und Abwägen geht, wird KI noch lange brauchen.
„Schauen wir mal, ob die Technologie überhaupt in der Lage ist, solche widerstreitenden legitimen Positionen aufzulösen. Und da habe ich Zweifel.“
Rundblick: Künstliche Intelligenz kann also noch nicht den Staatsanwalt oder Richter ersetzen?
Prof. Rademacher: Das vollautomatisierte Urteil, das ja auch im Justizbereich an die Wand gemalt wird, ist noch ganz, ganz weit weg. Wir haben in vielen Bereichen Situationen, in denen wir abwägen müssen zwischen zwei Positionen, die beide irgendwie legitim sind. Bislang reden wir immer über Extrempositionen, dass zum Beispiel jemand mit einem Auto in eine Menschenmenge fahren möchte. Dabei gibt es aber in aller Regel keine legitimen Abwägungsgüter, der Fall ist eindeutig. Anders ist das im Bereich von Beleidigung, antisemitischen oder rassistischen Äußerungen. Upload-Filter könnten zum Beispiel eingesetzt werden, um diese zu blockieren. Wenn jemand nun aber nur pointiert seine Meinung äußern möchte und das tut vielleicht einer anderen Person weh, sind das zwei unterschiedliche Positionen, die zunächst einmal beide legitim sein können und daher gegeneinander abgewogen werden müssen. Spannend wird das nun erstmals im Bereich von Urheberrecht und Kunstfreiheit, denn da kriegen wir demnächst eine erste Abwägungssituation, in der sich künstlich-intelligente Upload-Filter beweisen können. Nach der neuen EU-Urheberrechtsrichtlinie muss überprüft werden, ob ein ins Internet gestellter Inhalt urheberrechtlich geschützt ist. Aber das Urheberrecht kennt ganz viele Ausnahmen. Schauen wir mal, ob die Technologie überhaupt in der Lage ist, solche widerstreitenden legitimen Positionen aufzulösen. Und da habe ich Zweifel.