Interview zur KI-Regulierung - "Die KI-Verordnung hat schon ziemlich Zähne, wenn sie denn kommt"

Do 07.12.23 | 17:43 Uhr
  1
Symbolbild:Künstliche Frauengesichter.(Quelle:picture alliance/CHROMORANGE/C.Ohde)
Audio: Antenne Brandenburg | 07.12.2023 | Philipp Hacker | Bild: picture alliance/CHROMORANGE/C.Ohde

Die Europäische Union debattiert derzeit über den "AI Act" - Gesetze zur Regulierung von Künstlicher Intelligenz. Der Frankfurter KI-Experte Philipp Hacker ist davon überzeugt, dass eine derartige Regulierung notwendig ist und auch kommen wird.

rbb24: Herr Hacker, der Fachbereich Recht und Technologie ist ja recht neu an der Viadrina, womit beschäftigen Sie sich?

Philipp Hacker: Die ENS (Anm. d. Red.: European New School of Digital Studies) ist eine zentrale wissenschaftliche Einrichtung der Viadrina, die sich fachübergreifend mit Fragen der Digitalisierung beschäftigt, also solchen Sachen wie Fake News. Aber auch: Wie gehen wir mit KI um? Was macht das mit dem Recht und auch der Gesellschaft?

Wie sind Sie dazu gekommen? Recht und Informatik ist ja eine eher seltene Kombination.

Das ist zum einen persönliche Motivation. Es macht mir einfach besonders Spaß, in diesen Schnittstellen unterwegs zu sein. Zum anderen ist es auch ein sehr fruchtbares Forschungsfeld, gerade weil es dazu bisher noch nicht so besonders viel gibt. Da gibt es noch viel zu entdecken und zu erforschen. Das Interesse aus der Politik ist auch riesig groß, denn gerade jetzt wird auf EU-Ebene der AI-Act verhandelt, also die KI-Verordnung. Da bin ich auch vielfach als Berater tätig, sowohl für die Bundesregierung als auch für das Europäische Parlament.

Stichwort Regulierung: Microsoft, Google und seit März auch xAI von Elon Musk - das sind alles Konzerne, die ausreichend finanzielle Mittel haben, um KI weiterzuentwickeln und daran auch intensiv arbeiten. Lassen die sich noch kontrollieren?

Die lassen sich in dem Bereich schon mehr kontrollieren als in anderen. Das ist etwas, wo die Unternehmen tatsächlich ja selbst hin- und hergerissen sind zwischen Profitstreben einerseits – das ist ja als Unternehmen zunächst mal auch legitim – und andererseits der Verantwortung für die Gesellschaft.

Wir hatten neulich eine hohe Entwicklerin von OpenAI und Entwickler von Google in Berlin zu Gesprächen, wo ich auch dabei war. Die sind sich ihrer Verantwortung sehr bewusst. Sie haben auch schon einen Club gegründet, wo sie selbst Best Practices aufsetzen und versuchen, dafür zu sorgen, dass gerade die, die führend sind, ihrer Verantwortung gerecht werden.

Trotzdem: Es ist immer schwierig, solche großen Tanker irgendwie in die richtige Richtung zu bewegen. Aber die KI-Verordnung hat schon ziemlich Zähne, wenn sie denn kommt. Bis zu sechs Prozent des globalen Jahresumsatzes kann da für ein einzelnes Vergehen verhängt werden. Das ist auch für Microsoft eine hohe Summe.

Wir haben das gesehen, die italienische Datenschutzaufsicht hat ChatGPT für ein paar Wochen gesperrt. Das war schon mal ein Warnschuss, und das ist für diese Unternehmen dann doch die absolute Katastrophe. Gerade weil es so integriert ist in viele andere Anwendungen, wäre das für die schon ziemlich schädlich.

Deshalb glaube ich, dass wir da eigentlich schon einen ganz guten Hebel haben, um die Unternehmen auch in die richtige Richtung zu bewegen, auch weil sie eben selbst wissen, dass man mit dem mit der KI schon das eine oder andere anstellen kann, was wir gerne verhindern würden.

Seit Mittwoch wird in Brüssel über einen Gesetzentwurf für die einheitliche Regulierung von KI diskutiert. Woran könnte die KI-Verordnung scheitern?

Wir sind auf der Zielgeraden, was die Verhandlungen zu der KI-Verordnung anbelangt. Es gibt noch zwei große Streitpunkte. Das eine ist tatsächlich die Regulierung von sogenannten Foundation Models, das sind also die besonders potenten Modelle wie ChatGPT oder Google Bard. Die können für alle mögliche Dinge eingesetzt werden. Da ist man sich noch nicht klar, an welche Regeln die sich dann halten soll, weil die so generell aufgestellt ist.

Da gab es einen Vorstoß von Deutschland, Frankreich und Italien, der sich sehr stark gegen Regulierung gewandt hat. Ich habe da relativ stark gegengehalten und das Europäische Parlament auch. Da bin ich vorsichtig optimistisch, dass wir zu einem Kompromiss kommen werden. Da bin ich auch in die Beratungen jetzt gerade so ein bisschen eingespannt.

Der zweite, noch größere Streitpunkt ist die Frage der biometrischen Gesichtserkennung im öffentlichen Raum. Da wiederum hat Deutschland auch eine sehr bürgerrechtsfreundliche Position und will das im Grunde komplett verbieten, jedenfalls Live-Überwachung. Viele Mitgliedstaaten sehen das anders, gerade Frankreich. Warum? Die Olympischen Spiele kommen und sie wollen das natürlich gerne zur Verbrechensbekämpfung einsetzen.

Gewisse Ausnahmeregelungen, sehr eng umgrenzt, mit ganz klarem Monitoring, halte ich schon auch für sinnvoll. Man denkt da an Sachen eben wie Terrorismus. Oder solche Fälle wie Kindesentführung. Auch das in engen Grenzen, würde ich für sinnvoll halten. Da müssen wir mal sehen, ob wir überhaupt zu einer Einigung kommen. Das kann im Zweifelsfall auch noch bis Januar oder Anfang Februar gehen.

Zur Person

Der Rechtswissenschaftler Philipp Hacker. (Quelle: Viadrina Universität)
Viadrina Universität

Der Rechtswissenschaftler Philipp Hacker ist Inhaber des Lehrstuhls für Recht und Ethik der digitalen Gesellschaft an der European New School of Digital Studies (ENS) der Europa-Universität Viadrina in Frankfurt (Oder). Seit drei Jahren ist er Professor am Fachbereich Recht und Technologie. Außerdem hat er ein neues Netzwerk zur Regulierung Künstlicher Intelligenz mitgegründet.

Aber es wird irgendwann eine KI-Verordnung geben, mit größeren Ausnahmen oder auch nicht?

Mit einer Wahrscheinlichkeit von 80 oder sogar 85 Prozent würde ich sagen, dass wir eine KI-Verordnung bekommen. Das ganze Projekt jetzt daran scheitern zu lassen, wäre ein massiver Rückschlag für alle Beteiligten, auch für die Politikerinnen und Politiker und für Europa als Technologie-Regulierungsinstanz insgesamt. Man würde sich auch ein bisschen angreifbar und lächerlich machen. Deshalb glaube ich schon, dass das kommt. Aber der Inhalt, wie groß die Ausnahmen sein werden, bei der Gesichtsüberwachung, wie genau die Regeln aussehen, bei den Foundation Models, da wage ich keine Prognose.

Sie haben erwähnt, dass Sie die Bundesregierung und auch die EU beim Thema KI-Regulierung beraten. Wer sind da Ihre Ansprechpartner?

In der deutschen Regierung gibt es verschiedene Ministerien, die zuständig sind. Das ist auch ein bisschen Problem, weil Deutschland da nur schwer mit einer Stimme sprechen kann. Anders als beispielsweise Frankreich oder andere Mitgliedstaaten. Aber die deutsche Regierung ist eigentlich sehr offen, was Expertenrat anbelangt. Ich bin ja nicht die einzige Person, mit der man da spricht, sondern es sind natürlich KI-Experten aller Couleur dabei, auch welche, die selbst Techniker und Informatiker sind. Es gibt immer wieder breite Runden, wo das diskutiert wird.

Ich habe auch Einzelgespräche, auch mal mit Abgeordneten aus dem Europäischen Parlament oder mit Leuten, die diese Abgeordneten beraten. Das ist relativ fluide und geht häufig auch relativ schnell über Mail oder andere Telefonanrufe. Welchen Einfluss ich persönlich habe, vermag ich jetzt nicht zu sagen, aber das ist natürlich alles begrenzt. Aber es ist schon so: Wenn man einen konkreten Vorschlag hat und sagt "Guck mal, da gibt es diesen jenes Problem, das könnte man auch so und so lösen" - das wird schon angehört. Und wenn es gut kommt, dann kommt das vielleicht auch irgendwie in den Text rein.

Sie sind auch Gründungsmitglied eines neuen Konsortiums zur Regulierung Künstlicher Intelligenz. Warum brauchen wir so ein Netzwerk?

Das ist eigentlich aus drei Gründen notwendig. Das Erste ist, dass wir Leute zusammenbringen, die bisher wenig miteinander sprechen, um neue Forschung aufzuziehen. Die zweite Sache ist, dass wir Politikberaterinnen und -berater zusammenbringen, über den Atlantik hinweg und global. Und die dritte Sache ist, dass wir große Konferenzen veranstalten, auf denen sich sozusagen die Szene treffen kann, wo sich Forschende, Industrieführer und gleichzeitig Politikerinnen und Politiker austauschen können zu diesen Themen, um im Gespräch zu bleiben, um letztlich in diesem sehr dynamischen Feld auch die Regulierung möglichst weiter anpassen zu können.

Wie international ist dieses Netzwerk?

Also die ursprüngliche Idee kam zustande durch eine Kooperation, die ich mit der Wharton School der University of Pennsylvania habe. Und natürlich ist es schon so, dass die USA und Europa einfach zwei Zentren der KI-Entwicklung sind. Da hält eigentlich nur noch China mit.

Aber wir haben ganz bewusst aus allen Kontinenten und Weltregionen Expertinnen und Experten dabei, aus Brasilien, aus Afrika, Südafrika, Australien und aus Südostasien. Uns ist gerade unheimlich wichtig zu sehen: Wie wird das in diesen Ländern gesehen und welche Effekte hat die KI auf die Gesellschaften dort?

Denn das sind ja durchaus nicht immer die gleichen wie hier. Da gibt es teilweise ganz andere Chancen, aber auch andere Risiken. Und das wollen wir auf jeden Fall mit einspielen und gerade da gucken, können wir vielleicht einen Beitrag leisten zu einer internationalen KI-Regulierung auf Ebene der UN oder zum Beispiel Frameworks bei der OECD gerade im Rahmen der UN.

Sie forschen und beraten zum Thema KI – aber welche Rolle spielt KI in Ihrem beruflichen Alltag?

Ich bin ja Wissenschaftler und schreibe Texte. Auch ich versuche das jetzt zunehmend mit KI als Sparringspartner zu machen. Das klappt ziemlich gut, finde ich. Und wir wissen schlicht nicht, was die nächste Dimension von KI sein wirdUnd sicherlich, das kann noch sehr weitgehende soziale Veränderungen mit sich bringen.

Sicher ist: Es ist nicht zu stoppen. Wir müssen da irgendwie mitgehen. Und wir müssen versuchen, das rechtliche Rahmenwerk so zu gestalten, dass es am Ende verantwortungsvoll und nachhaltig eingesetzt wird; und zwar auch nachhaltig, auch in der ökologischen Dimension.

Wenn ich veröffentlichte Texte von Inen lese – stecken da Sie oder die KI dahinter?

Es ist jetzt nicht so, dass sich der KI sage, schreibt mir mal den Aufsatz über XY. Es ist vielmehr so, dass ich Ideen teste. Ich gebe so ein paar Bulletpoints rein, das und das wäre vielleicht mal eine Idee, was sagst du dazu? Und dann – wie mit einem Gesprächspartner – kann man dann so Sachen entwickeln. Den Text am Ende, den schreibe ich schon selbst oder ich diktiere das eigentlich immer. Das macht dann natürlich auch die KI, die Übersetzung von der Sprache in den Text.

Es gibt an manchen Universitäten schon die Überlegung, Bachelorarbeiten abzuschaffen, weil diese im Grunde genommen durch KI obsolet geworden sind. Würden Sie auch so weit gehen, dass das sinnvoll ist?

Nein. Wir arbeiten auch gerade an einer Leitlinie im Rahmen der Viadrina, wo wir genau solche Fragestellungen angehen. Ich selbst habe für die ENS schon sehr früh die KI-Leitlinie geschrieben. Da gehen wir davon aus, dass wir das den Dozenten und Dozentinnen freistellen, ob sie KI erlauben oder nicht.

Meines Erachtens bringt es wenig, das zu verbieten, denn es gibt schlicht keine funktionierenden Werkzeuge, um KI nachzuweisen. Letztlich geht es jetzt vielmehr darum zu gucken, können die Studierenden sinnvoll damit umgehen. Nutzen sie es in einer Weise, die dazu führt, dass der Inhalt besser wird. Machen sie einen guten Fakten-Check, können Sie die Ideen gut verbinden? Es kommt jetzt darauf an, dass sie nicht jeden Quatsch übernehmen. Ich sage den Studenten immer als Erstes: "Vertraue keiner KI" - und davon müssen sie ausgehen.

Herr Hacker, vielen Dank für das Gespräch.

Das Interview führte Stefan Kunze für Antenne Brandenburg.

Es handelt sich um eine redigierte und gekürzte Fassung.

1 Kommentar

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 1.

    "Vertraue keiner KI" muss ja nicht zu einem grundsätzlichen Misstrauen führen, aber zu einer wohltuenden Distanz gegenüber allem, was Programmen entspringt und mit der Wirklichkeit in all ihren Ausformungen deshalb nur sehr bedingt übereinstimmen muss.

    "Machen Sie nicht, was der Computer will; sorgen Sie dafür, dass der Computer das macht, was Sie wollen" ist beinahe schon eine Binsenweisheit von Programmierern, die sie den Anwendern zuraten.

    Das Wichtigste wird das Nichterliegen einer großen Verführung sein, sprich: dass sich künftig nicht noch weiter standardisierte Sätze durchsetzen, die ja am Allerersten computer-programmgemäß sind. Dann bleibt das Hilfsmittel Hilfsmittel und um den weiteren Werdegang bräuchte niemanden bange zu sein. ;-

Nächster Artikel