Desinformation - Wie sinnvoll ist eine Kennzeichnung von KI?
KI-Werkzeuge machen es einfach, Fotos und Videos zu bearbeiten - und sogar komplett neu zu generieren. Bundesjustizminister Buschmann will deshalb eine Kennzeichnung KI-erzeugter Inhalte. Ob das wirklich hilft, ist aber fraglich. Von Linh Tran
Einen Satz in einen Generator eingetippt, ein Klick. Nach wenigen Sekunden ist es fertig: Ein Bild mit neuartigem, blauem Spargel. Oder ein Bild von der ehemaligen Bundeskanzlerin Angela Merkel im Hawaii-Kleid am Ostseestrand. Oder vom Papst im weißen Daunenmantel. Suchen Sie sich etwas aus.
Mit künstlicher Intelligenz lässt sich schnell ein Bild, ein Video, ein Ton erzeugen - von vermeintlichen Geschehnissen, die so nie passiert sind. Vor dem Hintergrund der anstehenden Wahlen stellt sich die Frage, ob solche Inhalte dafür nicht auch gefährlich werden können.
Bundesjustizminister Marco Buschmann (FDP) sprach sich in einem Interview mit dem Redaktionsnetzwerk Deutschland [rnd.de] nun für eine Kennzeichnungspflicht für alle Fotos und Videos aus, die mit Künstlicher Intelligenz hergestellt werden. Bilder vermittelten das Gefühl von Authentizität, sagt er. Das könne missbraucht werden: "Eine Kennzeichnung steht kreativer Arbeit nicht im Weg. Aber es würde einfacher, zu erkennen, ob es sich bei einem Bild eher um ein Kunstwerk oder um eine Abbildung der Wirklichkeit handelt."
Dabei hatte das Europäische Parlament bereits im März ein Gesetz für die Künstliche Intelligenz beschlossen [arcitifialintelligenceact.eu]. Im Februar hat das EU-Parlament der KI-Verordnung zugestimmt [bmwk.de]. In zwei Jahren wird die KI-Verordnung in Kraft treten. Die "Forderung" Buschmanns, wie einige Medien berichten, wird nicht nur schon lange diskutiert, sie ist längst beschlossen.
Verboten werden sollen damit unter anderem nicht gekennzeichnete "Deep Fakes", also KI-generierte Bild-, Audio- oder Videoinhalten, die echten Orten oder Personen täuschend ähnlich sind. Aber reicht das?
KI-generierte Fotos haben bereits für Täuschung gesorgt
Vor allem in sozialen Netzwerken sind KI-generierte Inhalte schon häufig missbraucht worden. Erst im März ging ein manipuliertes Tagesthemen-Video viral, in dem die öffentlich-rechtlichen Medien in Deutschland als parteiisch und staatsnah dargestellt worden sind, berichtete tagesschau.de. In Wahrheit ging es in dem eigentlichen Video um den Machtwechsel in Polen. Auch Politiker und Politikerinnen sind schon Opfer von Deep Fakes geworden: Franziska Giffey wurde im vergangenen Jahr durch eine manipulierte Videoschalte mit Vitali Klitschko getäuscht.
Kritiker von Künstlicher Intelligenz warnen schon länger vor Missbrauch: Vor allem bei den voranstehenden Wahlen könnten generierte Inhalte zur Verbreitung von Falschinformationen missbraucht werden. Dies könnte unter anderem die Diffamierung von Politikern zur Folge haben, Menschen könnten bei einer unreflektierten Social Media Nutzung getäuscht werden.
Katz- und Mausspiel
Dorothea Kolossa, Professorin für Elektronische Systeme der Medizintechnik an der Technischen Universität Berlin, arbeitet zusammen mit dem Correktiv Faktenforum an dem Projekt "noFake". Das Team an der TU Berlin generiert dafür auch selbst Bilder und Fotos, die täuschend echt scheinen - um wiederum herauszufinden, wie solche gefälschten Inhalte identifiziert werden können.
Laut Kolossa werde es immer schwieriger, die generierten Inhalte von echten zu unterscheiden: "Heute kann man noch zu einem gewissen Grad ausfindig machen, welcher Generator hinter einem Bild steckt. In absehbarer Zeit wird das aber sehr schwer." Auch, weil die dahinter stehenden Modelle auf mathematischer Ebene komplexer zu entschlüsseln seien.
Es sei ein Katz- und Mausspiel, sagt Kolossa. Während man gerade noch den Ist-Zustand der KI-Systeme untersuche, werden schon neue bessere Techniken entwickelt, die schon einen Schritt weiter seien.
Kennzeichnung gibt nur eine Orientierung
Vor den anstehenden Wahlen - im Juni steht die Europawahl an, im Herbst mehrere Landtagswahlen, unter anderem in Brandenburg - wächst die Befürchtung vor Missbrauch von generativen KI-Systemen. "Wir haben alle großes Interesse daran, dass Wahlentscheidungen auf einer guten faktenbasierten Informationslage getroffen werden", sagt Caroline Lindekamp im Interview mit rbb24 Brandenburg Aktuell. Sie ist Journalistin beim Recherchenetzwerk Correktiv und leitet zusammen mit Kolossa das Forschungsprojekt "noFake". "Da ist das Risiko, dass Desinformationskampagnen Schaden anrichten, natürlich sehr präsent. Und das kann uns alle betreffen. Das kann sowohl auf lokalem Niveau als auch auf internationaler Ebene passieren", sagt Lindekamp.
Dass eine Kennzeichnungspflicht für KI-generierte Inhalte vor Missbrauch und Desinformation schützen könne, hält sie trotz der realen Gefahr für fraglich. "Es wird die Akteure geben, die ohnehin verantwortungsvoll handeln, die auch bereit sind, solche Tools oder Vorgaben anzunehmen", so Lindekamp. "Wenn wir das Ganze aber im Kontext von Desinformation betrachten, gibt es nun mal auch die Akteure, die das bewusst manipulativ einsetzen. Und ob ich die mit einem Regulierungsansatz erwische, halte ich unterm Strich für fraglich."
KI-generierte Bilder seien nur ein ganz kleiner Teil davon, was im Bereich Falschinformation möglich sei, so Lindekamp. "Ich kann auch auf eine ganz andere Weise falsche Behauptungen in die Welt setzen und großen Schaden anrichten. Es muss nicht gleich das KI-generierte Bild sein, es kann auch einfach ein gephotoshoptes [bearbeitetes] Bild sein, es kann auch ein Post bei Social Media sein." Selbst wenn eine Kennzeichnung für Generiertes genutzt werden würde, es wäre nur eine Orientierungsmöglichkeit. Vollkommen vor Missbrauch und Desinformation schützen könnte eine Pflicht nicht.
KI-generierte Bilder sprächen Emotionen an
Am Ende komme es darauf an, was Menschen daraus machen, sagt der Journalist Sebastian Meineck. Er schreibt für Netzpolitik.org vor allem über digitale Medien und Künstliche Intelligenz und sieht die Gefahr in gefälschten Bildern und Videos vor allem in ihrer Suggestivkraft: "Das ist schon noch mal krasser als ein Text, in dem man versucht, durch Worte Emotionen zu erzeugen. Wenn man so eine Aufnahme sieht, glaube ich, spricht sie zuerst Emotionen an", so Meineck. "Und erst dann kommt, zumindest bei einigen vielleicht, die Frage, Moment, kann das überhaupt stimmen? Ist das Bild echt oder künstlich?"
"Es braucht seriösen Journalismus"
Meineck spricht sich für eine erweiterte Medienkompetenz aus, die für den Umgang mit KI-Genierungen stark macht. Dazu gehöre auch der kritische Umgang mit Quellen und Inhalten auf Sozialen Netzwerken: Viele hätten nicht den Impuls, das was sie sehen, mit anderen ernstzunehmenden Quellen zu vergleichen: "Um damit gut klarzukommen, braucht man nicht nur ein bisschen Medienkompetenz, sondern eine ziemlich aktuelle, also auch für generative KI upgedatete Medienkompetenz, um damit kritisch umzugehen."
Zudem müsse das Vertrauen in die Nachrichtenmedien wieder aufgebaut werden, das verloren gegangen ist. "Es braucht seriösen Journalismus, das ist letztlich das beste Bollwerk gegen Desinformation und Propaganda", so Meineck.
Viele vertrauten nicht mehr darauf, was seriöse Journalisten erarbeiteten. "Das macht Leute anfällig für andere Nachrichtenquellen, die gezielt mit Desinformation und Propaganda arbeiten und eben nun auch mit beispielsweise höchst irreführenden realistischen KI-Erzeugnissen", so Meineck.
KI-generierte Fotos sind identifizierbar - aber wie lange noch?
Noch sind viele KI-generierte Inhalte fehlerhaft, wenn man sie genauer betrachtet. „KI-Generatoren haben heute noch Schwierigkeiten, eine zugrunde liegende Anatomie wirklichkeitsgetreu abzubilden“, sagt Kolossa. Ein Fuß hätte auch mal plötzlich mehr Zehen.
Normalbürger könnten, wenn sie genauer hinschauen, noch immer KI-generiertes Material erkennen. Typische Anzeichen neben anatomisch nicht korrekten Körperteilen seien laut Kolossa auch Symmetrieprobleme: Wenn an dem linken Ohr zum Beispiel ein anderer Ohrring hängt als am rechten, könnte man stutzig werden.
Oft werden Bilder auch einfach aus dem Kontext gezogen. Da könnte man eine Bilder-Rückwärtssuche nutzen, um zu überprüfen, ob das Bild vielleicht aus einem anderen Zusammenhang stammt.
Wenn also demnächst ein Bild von Olaf Scholz in Unterhosen und dreizehn Zehen im Bundestag auftauchen sollte: Daran erinnern, dass das mit einem Klick ganz leicht zu generieren war.
Sendung: rbb24 Brandenburg Aktuell, 02.04.2024, 19.30 Uhr