Interview | Gefahren der künstlichen Intelligenz - "Wollen wir eine KI erschaffen, die wir nicht verstehen?"

Di 04.04.23 | 15:02 Uhr
  9
Menschliches Model dreidimensional dargestellt, Bild: imago-images
Menschliches Model dreidimensional dargestellt | Bild: www.imago-images.de

Führende Tech-Experten haben eine Pause bei der Entwicklung künstlicher Intelligenzen gefordert. Im Interview erklärt der Cottbuser KI-Experte Michael Zerna, wo das Problem liegt und warum er eine europäische KI für dringend geboten hält.

Als das Unternehmen OpenAI Ende 2022 seine Künstliche Intelligenz "ChatGPT" öffentlich zugänglich machte, war das für die digitale Welt ein Meilenstein. Erstmals stand die Technologie der breiten Öffentlichkeit zur Verfügung. Nun hat ein offener Brief führender Köpfe der Technologiewelt Aufsehen erregt. Die Unterzeichner, darunter Tesla-Chef Elon Musk und der Apple-Mitgründer Steve Wozniak, fordern darin eine Pause bei der Entwicklung künstlicher Intelligenzen. Sie kritisieren, dass die Technologie in der Hand weniger privater Konzerne liegt, dass nicht bekannt ist, wie genau die KI etwa von OpenAI arbeitet, und befürchten, dass eine Kontrolle der KI durch den Menschen bald nicht mehr möglich sein könnte.

rbb24: Herr Zerna, führende Köpfe der Technologiebranche haben einen Brief veröffentlicht, in dem auf die Gefahren der KI hingewiesen wird. Was ist der Grund für diese Aufregung?

Michael Zerna: Das große Problem ist, dass man überschätzt hat, wie gut man die KI, die aktuell zur Verfügung steht, versteht: wie sie agiert, was sie tut und wie sie Informationen verarbeitet. Das versteht man nicht zu 100 Prozent. Das hat technologische Gründe, aber hauptsächlich liegt es daran, dass eine KI mittlerweile auf so viele Daten zugreifen kann und sogenannte neuronale Netzwerke bilden kann, die nicht mehr untersuchbar sind.

Das kann zu großen Problemen führen, weil die Künstliche Intelligenz zu den größten Errungenschaften der Menschheit gehören wird. Für die, die sich damit beschäftigen, ist das jetzt schon der Fall. Man sieht jetzt schon, welche unglaubliche Leistung die KI in unterschiedlichen Bereichen erzielen kann. Die Frage ist aber: Wollen wir eine Künstliche Intelligenz erschaffen, die wir zum einen nicht verstehen und von der wir nicht wissen wie sie gesteuert wird? Eine KI hat immer einen Besitzer und dieser Besitzer kann steuern, worauf die KI reagiert oder auch was sie bestraft. Dazu gehört etwa Rassismus, was für die meisten Menschen wichtig ist. Sie könnte aber auch konservatives oder liberales Denken befürworten, wenn man sich auf die politische Ebene bewegt, und dafür andere Sachen abstreiten.

Das sind Bedingungen, die von dem Unternehmen, dem die KI gehört, gesteuert werden können. Es gibt da also eine Intransparenz, die ein großes Problem ist. Die wissenschaftlichen Grundlagen hinter dem offenen Brief beziehen sich größtenteils auf diese Bedingungen, das sogenannte Alignment der KI, also wie wird die KI gesteuert, was passiert da genau. Die Frage der Steuerung könnte man vermutlich noch lösen, aber wie genau die KI agiert, diese Black Box, die schon vorhanden ist, versteht man mittlerweile nicht mehr. Selbst der CEO von OpenAI, Sam Altman, hat in einem Podcast gesagt, dass er Menschen verstehen kann, die sehr große Angst haben, dass wir zu einer Künstlichen Intelligenz kommen, die nicht mehr steuerbar ist. Das ist der Chef der aktuell beliebtesten KI, "ChatGPT". Und auch der Cheftechniker von OpenAI befürchtet, dass das Problem des Alignments nicht ernstgenommen wird und welche Auswirkungen das haben kann.

Zur Person

Michael Zerna, Jahrgang 1984, stammt aus Peitz (Spree-Neiße) und schloss sein Informatikstudium mit der Vertiefung Verteilte Systeme und Künstliche Intelligenz ab. Als leitender Entwickler arbeitete er in mehreren Unternehmen und Ländern und machte sich 2016 mit der Entwicklung verteilter Systeme und Künstlicher Intelligenzen selbstständig. Aus familiären Gründen ist er mit seinem Unternehmen in die Lausitz zurückgekehrt.

Was kann denn jetzt getan werden, damit uns als Gesellschaft die Technologie nicht völlig entgleitet?

Meiner Meinung nach müssen wir sehr stark auf die Politik eingehen. Die Politik muss aktiv werden, weil wir eine sehr mächtige Technologie erschaffen haben und die Politik muss Transparenz darüber einfordern, wie KIs gesteuert werden. Damit wir wissen, wenn so etwas wie "ChatGPT" lernt und auch mit Menschen interagiert, worauf es trainiert wurde.

Es findet immer eine gewisse Manipulation statt. Damit meine ich nicht unbedingt eine negative Manipulation. Eine KI ist eben programmiert und dementsprechend wird sie immer in eine gewisse Richtung Ergebnisse liefern. Die Lösung für das aktuelle Problem wären also transparente Regeln, wie diese KI gesteuert wird. Und zusätzlich muss die Politik Druck auf die Unternehmen machen, damit dieses Problem, dass man kein hundertprozentiges Verständnis von dem Alignment bekommen wird, gelöst wird.

Wir wollen alle kein System, das sehr wahrscheinlich in ein bis zwei Jahren in allen Bereichen stärker sein wird als der Mensch und das wir in seiner Datengrundlage und in seinen Entscheidungen nicht mehr erkennen und beeinflussen können. Hier muss gehandelt werden, bevor es zu spät ist. Bei "zu spät" reden wir hier nicht von Jahren. Der Nvidia-CEO Jen-Hsun Huang hat in einer Keynote vor Kurzem gesagt, man befinde sich jetzt in einem iPhone-Moment der Technologie. Er meint damit dieses Aha-Erlebnis. Wir wissen alle, wohin wir gekommen sind, seitdem das IPhone erschienen ist. Aber in Sachen KI geht es jetzt sogar erst los. Wir sehen jetzt schon einige sehr starke Systeme, die sehr mächtig sind, aber die Forschung erlebt gerade einen exponentiellen Anstieg an Veröffentlichungen, Hardware-Optimierungen und mächtigere Algorithmen. Die Technologien hinter KIs werden immer besser, aber damit auch die Black Box größer.

Das klingt alles sehr negativ. Wir erschaffen etwas, das wir nicht mehr kontrollieren können. Warum wird denn überhaupt weiter an Künstlichen Intelligenzen gearbeitet? Was ist der Vorteil?

Ich bin persönlich Techniker, aber vor allem ein riesiger Nerd, ein Web-Nerd. Ich kann mich für Technologien im Web-Bereich sehr begeistern. Als ich vor etwa drei Monaten das erste Mal mit "ChatGPT" arbeiten konnte, war das ein Moment, den ich ganz schwer beschreiben kann. Ich habe schon 2017 mit meiner Firma erste KIs programmiert, natürlich auf einer ganz anderen Grundlage. Obwohl ich seit 30 Jahren mit dem Internet arbeite, hatte ich eine Begeisterung, die ich so selten hatte.

Die Möglichkeiten, die KIs bieten, sind gefühlt unendlich. Mit dem Internet haben wir die Möglichkeit erhalten, Wissen zugänglich zu machen, noch zugänglicher als zuvor. Mit KIs, nur als ein Beispiel, haben wir die Möglichkeit, dass wir mit diesem Wissen reden können. Wir haben in Echtzeit immer einen Experten zur Verfügung, für jedes Wissen, das im Internet zur Verfügung steht. Und dieser Experte ist nicht abgehoben und erklärt komplexe Dinge nicht auf einem Level, auf dem wir sie nicht verstehen können. Wir können diesem Experten auch sagen, dass er etwas so erklären soll, als wäre der Nutzer fünf Jahre alt oder zehn Jahre oder auf einem detailierten Hochschulniveau.

Wir können uns also nicht nur das Wissen erklären lassen, sondern es auch so erklären lassen, wie wir es am besten empfinden. Die KI kann auch auf die unterschiedlichen Lernbedarfe von Schülern und Studenten eingehen. Und das ist nur ein Punkt in dem bereich Pädagogik und Wissensvermittlung. Hinzu kommen viele Bereiche, in denen man KI nutzen kann, die man sich heute noch gar nicht vorstellen kann. Allein für die Energiewende, bei riesigen komplexen Daten zur Steuerung von Stromnetzen oder bei der Optimierung von Speichersystemen. Im Prinzip bleibt kein Bereich unberührt. Und das ist in meinen Augen förderbar. Für mich am wichtigsten ist aber nach wie vor, dass wir nicht nur enorm viel Wissen haben, sondern auch mit diesem Wissen interagieren können.

Der Cottbuser KI-Experte Michael Zerna (Bild: Michael Zerna)Der Cottbuser KI-Experte Michael Zerna

Ein großer Kritikpunkt ist, dass die KIs in den Händen weniger Tech-Konzerne liegen. Wie sollte man damit umgehen?

Es spricht erstmal nichts dagegen, dass Privatfirmen KIs besitzen. Wir werden ohnehin mehrere KIs haben, die öffentlich zugänglich sind. Es gibt schon jetzt ein paar, die bekannteste ist sicherlich "ChatGPT". Jetzt wird die KI auch in die Suchmaschine Bing von Microsoft integriert. Wir werden also mehrere und unterschiedliche KIs haben. Und die unterliegen alle ihrem eigenen Alignment. Das ist der Punkt: Wie sieht das Alignment aus?

Wir befinden uns in einer Demokratie, in der Europäischen Union. Die EU hat Werte, die sie vertritt und die sich aus meiner Sicht leicht auf das Alignment einer KI übertragen lassen. Möchte ich als Europäische Union unterbinden, dass KIs genutzt werden oder möchte ich es fördern, weil die Möglichkeiten natürlich enorm sind? Wenn ja, möchte ich, dass Nutzer Künstliche Intelligenzen von Konzernen nutzen, bei denen ich das Alignment aktuell nicht einsehen kann und bei der ich nicht weiß, wie groß die Black Box hinter dieser KI ist? Oder kann ich als EU nicht eine KI bereitstellen, die die Werte der EU vertritt und die zusätzlich aufgrund der Mittel, die der Union zur Verfügung stehen, noch viel stärker ist? Dann kämen Nutzer gar nicht mehr auf die Idee, private KIs zu nutzen. Aus meiner Sicht ist es eine Pflicht, dass wir eine europäische KI bekommen, die nach unseren Werten programmiert wurde.

Ein weiteres Problem sehen wir gerade in Italien, wo "ChatGPT" aktuell nicht zur Verfügung steht: Wie wird mit den Daten umgegangen, die während der Interaktion mit der KI entstehen? Der Nutzer stellt Fragen, vielleicht auch medizinische oder psychologische. Was passiert damit? Das weiß aktuell niemand. Wenn die Technologie hinter der KI zur Black Box geworden ist, bei der ich nicht mehr weiß, wie sie funktioniert, woher soll ich wissen, was mit den übermittelten Daten passiert? Daher denke ich, dass wir hier handeln müssen. Je länger wir warten, desto mächtiger werden die Systeme. Die neueste Version von "ChatGPT" steht bevor. Wieviel Zeit wollen wir uns lassen, bevor es keinen Weg zurück mehr gibt?

Vielen Dank für das Gespräch!

Das Interview führte Florian Ludwig für Antenne Brandenburg.

Sendung: Antenne Brandenburg, 04.04.2023, 15:10 Uhr

9 Kommentare

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 9.

    Die nichtdigitalen Strukturen wachsen in die Ausformung der Digitalisierung hinein. Da, wo es bei Diplom- und Doktorarbeiten darauf ankommt, möglichst viele Quellen im Verzeichnis zu nennen, nicht aber, sie tatsächlich gelesen zu haben, wird sich dieser Umstand durch Digitalisierung noch zehnfach erhöhen.

    Wissen, wo was steht, die technischen Gerätschaften fassen dann komprimiert zusammen, was der Inhalt dessen ist. Derart gewappnet, schlagen sich Menschen die Realitäten um die Ohren.

    Anders sähe es aus, wenn die Techniken, die digitalen Gerätschaften, wirklich als verlängerter Arm des Menschen begriffen würden: Das Wesentliche, d. h. unsere unmittelbare Anschauung und unsere Empfindung, kann uns niemand nehmen. Das andere, das dazu hinzugefügte abstrakte Wissen, kann dann per Digitalisierung beigefügt werden.

    Ich sehe kaum einen, der das nüchtern sieht. Bei den einen ein Hype, bei den anderen Ablehnung.

  2. 8.

    Es wird so kommen wie es kommen muss. Schlaue Menschen und Visionäre haben in Science-Fiction das ganze Thema "KI" (und nicht nur das) in sämtlichen Facetten einer möglichen Zukunft bereits durchgespielt, da der Mensch so tickt wie er tickt, ist es nicht sonderlich schwierig, sich die Welt in 20-50 J. vorzustellen, bei der Lernkurve von Homosapiens sapiens.

  3. 7.

    Gut, wir wissen, das für uns Deutsche "Das Internet . ..Neuland“ ist, ich fürchte, für den Nachfolger nebst Brandenburgischer Bildungsministerin auch. Wir wissen, dass wir völlig un-digital unterwegs sind (Verwaltung, oder das Zusammenführen der Daten bei der Grundsteuer durch die Bürger), WIE also soll jetzt eine Regierung oder Union da regelnd eingreifen? Wer schon heute Google alles glaubt und es nicht schafft, Quellenangaben in Dissertationen aufzuführen, weil es "ja keiner merkt", der beschäftig sich sicherlich lieber mit dem Zwang, Wärmepumpen einzubauen, als damit, mal AI zu befragen, ob das sinnvoll, machbar und finanzierbar für die Bürger ist und wie damit die nächste Wahl ausgeht...
    Schon wenn bei Banalitäten wie medizinischen Fragen die Antwort z.B. immer "das ist psychosomatisch" oder "ich hab da was von Ratiopharm" heißen, würde doch den allermeisten gar nix auffallen *~*

  4. 6.

    Es wird so kommen wie es kommen muss. Schlaue Menschen und Visionäre haben in Science-Fiction das ganze Thema "KI" (und nicht nur das) in sämtlichen Facetten einer möglichen Zukunft bereits durchgespielt, da der Mensch so tickt wie er tickt, ist es nicht sonderlich schwierig, sich die Welt in 20-50 J. vorzustellen, bei der Lernkurve von Homosapiens sapiens.

  5. 5.

    Hoffentlich wartet man nicht zu lange bzw. legt eine "Ki-Pause", wie von zahlreichen Experten gefordert, ein.
    Das Ganze kann einem schon etwas Angst einjagen.

  6. 4.

    Jede Technologie hat zwei Seiten, und wo Menschen ihre Vorteile sehen, kann es zu Missbrauch kommen. Ich habe Bedenken, dass der Mensch sich zurück entwickelt. Denken lassen ist bequem und gefährlich.
    Dazu kommt, dass bisher jede Technologie unser Leben vereinfachen sollte, im Endeffekt aber vieles in falsche Bahnen läuft und/oder die Menschen mit ihrer freien Zeit nichts sinnvolles anfangen.
    Nebenspielplatz: Wieviel Energie wird durch die Rechenleistung verbraucht?

  7. 3.

    Solange die Parole herrscht "Der Erfolg gibt Recht", wird passieren, was immer mit ambivalenten Technologien passiert ist: Sie werden nicht "eingehegt", es wird nicht die Frage nach einem adäquaten Mensch-Maschine-Verhältnis gestellt, sondern sie werden nach ihrem dingfesten Nutzen abgeklopft.

    Zehnmal früher als der Mensch können bspw. Drohnen Bewegungen am Boden ausmachen; gilt die schnellste Art der Reaktion, wird der Mensch der verlängerte Arm dessen werden, weil er sich keine Zeit nehmen will, etwas zu überprüfen. Analog bei ChatGPT: Das KANN Unterstützung des Menschen sein - vorausgesetzt, der Mensch hat eine Wertschätzung auch und gerade für seine Unvollkommenheit und dafür, dass die daraus entstehende authentische Emotion wichtig ist.

    Kein techn. Gerät könnte dies leisten. - Nur so kann´s was werden.

  8. 2.

    Wenn man die unterschiedlichen KIs einfach laufen lässt, ohne sie mit einem Werte-Konsens auszustatten, kann uns auch kein Gott mehr helfen. Die Politik muss sich daher einmischen.

  9. 1.

    Die Büchse der Pandora ist offen. Sperrangelweit. Und die kriegt auch keiner mehr zu.
    Wenn sich da jetzt auch noch die woke Politik einmischt, Gnade uns Gott...

Nächster Artikel