Desinformation - Wie sinnvoll ist eine Kennzeichnung von KI?

So 07.04.24 | 08:21 Uhr | Von Linh Tran
  17
Archivbild: Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD). (Quelle: dpa/Senatskanzlei Berlin)
Video: rbb24 Brandenburg aktuell | 02.04.2024 | R. Bachofer/J. Gühlholtz | Bild: dpa/Senatskanzlei Berlin

KI-Werkzeuge machen es einfach, Fotos und Videos zu bearbeiten - und sogar komplett neu zu generieren. Bundesjustizminister Buschmann will deshalb eine Kennzeichnung KI-erzeugter Inhalte. Ob das wirklich hilft, ist aber fraglich. Von Linh Tran

Einen Satz in einen Generator eingetippt, ein Klick. Nach wenigen Sekunden ist es fertig: Ein Bild mit neuartigem, blauem Spargel. Oder ein Bild von der ehemaligen Bundeskanzlerin Angela Merkel im Hawaii-Kleid am Ostseestrand. Oder vom Papst im weißen Daunenmantel. Suchen Sie sich etwas aus.

Mit künstlicher Intelligenz lässt sich schnell ein Bild, ein Video, ein Ton erzeugen - von vermeintlichen Geschehnissen, die so nie passiert sind. Vor dem Hintergrund der anstehenden Wahlen stellt sich die Frage, ob solche Inhalte dafür nicht auch gefährlich werden können.

Bundesjustizminister Marco Buschmann (FDP) sprach sich in einem Interview mit dem Redaktionsnetzwerk Deutschland [rnd.de] nun für eine Kennzeichnungspflicht für alle Fotos und Videos aus, die mit Künstlicher Intelligenz hergestellt werden. Bilder vermittelten das Gefühl von Authentizität, sagt er. Das könne missbraucht werden: "Eine Kennzeichnung steht kreativer Arbeit nicht im Weg. Aber es würde einfacher, zu erkennen, ob es sich bei einem Bild eher um ein Kunstwerk oder um eine Abbildung der Wirklichkeit handelt."

Dabei hatte das Europäische Parlament bereits im März ein Gesetz für die Künstliche Intelligenz beschlossen [arcitifialintelligenceact.eu]. Im Februar hat das EU-Parlament der KI-Verordnung zugestimmt [bmwk.de]. In zwei Jahren wird die KI-Verordnung in Kraft treten. Die "Forderung" Buschmanns, wie einige Medien berichten, wird nicht nur schon lange diskutiert, sie ist längst beschlossen.

Verboten werden sollen damit unter anderem nicht gekennzeichnete "Deep Fakes", also KI-generierte Bild-, Audio- oder Videoinhalten, die echten Orten oder Personen täuschend ähnlich sind. Aber reicht das?

KI-generierte Fotos haben bereits für Täuschung gesorgt

Vor allem in sozialen Netzwerken sind KI-generierte Inhalte schon häufig missbraucht worden. Erst im März ging ein manipuliertes Tagesthemen-Video viral, in dem die öffentlich-rechtlichen Medien in Deutschland als parteiisch und staatsnah dargestellt worden sind, berichtete tagesschau.de. In Wahrheit ging es in dem eigentlichen Video um den Machtwechsel in Polen. Auch Politiker und Politikerinnen sind schon Opfer von Deep Fakes geworden: Franziska Giffey wurde im vergangenen Jahr durch eine manipulierte Videoschalte mit Vitali Klitschko getäuscht.

Kritiker von Künstlicher Intelligenz warnen schon länger vor Missbrauch: Vor allem bei den voranstehenden Wahlen könnten generierte Inhalte zur Verbreitung von Falschinformationen missbraucht werden. Dies könnte unter anderem die Diffamierung von Politikern zur Folge haben, Menschen könnten bei einer unreflektierten Social Media Nutzung getäuscht werden.

Katz- und Mausspiel

Dorothea Kolossa, Professorin für Elektronische Systeme der Medizintechnik an der Technischen Universität Berlin, arbeitet zusammen mit dem Correktiv Faktenforum an dem Projekt "noFake". Das Team an der TU Berlin generiert dafür auch selbst Bilder und Fotos, die täuschend echt scheinen - um wiederum herauszufinden, wie solche gefälschten Inhalte identifiziert werden können.

Laut Kolossa werde es immer schwieriger, die generierten Inhalte von echten zu unterscheiden: "Heute kann man noch zu einem gewissen Grad ausfindig machen, welcher Generator hinter einem Bild steckt. In absehbarer Zeit wird das aber sehr schwer." Auch, weil die dahinter stehenden Modelle auf mathematischer Ebene komplexer zu entschlüsseln seien.

Es sei ein Katz- und Mausspiel, sagt Kolossa. Während man gerade noch den Ist-Zustand der KI-Systeme untersuche, werden schon neue bessere Techniken entwickelt, die schon einen Schritt weiter seien.

Ki-System
Bild: rbb

Kennzeichnung gibt nur eine Orientierung

Vor den anstehenden Wahlen - im Juni steht die Europawahl an, im Herbst mehrere Landtagswahlen, unter anderem in Brandenburg - wächst die Befürchtung vor Missbrauch von generativen KI-Systemen. "Wir haben alle großes Interesse daran, dass Wahlentscheidungen auf einer guten faktenbasierten Informationslage getroffen werden", sagt Caroline Lindekamp im Interview mit rbb24 Brandenburg Aktuell. Sie ist Journalistin beim Recherchenetzwerk Correktiv und leitet zusammen mit Kolossa das Forschungsprojekt "noFake". "Da ist das Risiko, dass Desinformationskampagnen Schaden anrichten, natürlich sehr präsent. Und das kann uns alle betreffen. Das kann sowohl auf lokalem Niveau als auch auf internationaler Ebene passieren", sagt Lindekamp.

Dass eine Kennzeichnungspflicht für KI-generierte Inhalte vor Missbrauch und Desinformation schützen könne, hält sie trotz der realen Gefahr für fraglich. "Es wird die Akteure geben, die ohnehin verantwortungsvoll handeln, die auch bereit sind, solche Tools oder Vorgaben anzunehmen", so Lindekamp. "Wenn wir das Ganze aber im Kontext von Desinformation betrachten, gibt es nun mal auch die Akteure, die das bewusst manipulativ einsetzen. Und ob ich die mit einem Regulierungsansatz erwische, halte ich unterm Strich für fraglich."

KI-generierte Bilder seien nur ein ganz kleiner Teil davon, was im Bereich Falschinformation möglich sei, so Lindekamp. "Ich kann auch auf eine ganz andere Weise falsche Behauptungen in die Welt setzen und großen Schaden anrichten. Es muss nicht gleich das KI-generierte Bild sein, es kann auch einfach ein gephotoshoptes [bearbeitetes] Bild sein, es kann auch ein Post bei Social Media sein." Selbst wenn eine Kennzeichnung für Generiertes genutzt werden würde, es wäre nur eine Orientierungsmöglichkeit. Vollkommen vor Missbrauch und Desinformation schützen könnte eine Pflicht nicht.

Zur Person

Caroline Lindekamp vom CORRECTIV Faktenforum. (Quelle: rbb)
rbb

Caroline Lindekamp ist Journalistin und Medienanalystin. Beim CORRECTIV Faktenforum leitet sie seit März 2022 das Forschungsprojekt "noFake", das zusammen mit der Technischen Universität Berlin arbeitet. Ziel ist es, ein Assistenzsystem zu entwickeln, dass Desinformation schnell erkennt.

KI-generierte Bilder sprächen Emotionen an

Am Ende komme es darauf an, was Menschen daraus machen, sagt der Journalist Sebastian Meineck. Er schreibt für Netzpolitik.org vor allem über digitale Medien und Künstliche Intelligenz und sieht die Gefahr in gefälschten Bildern und Videos vor allem in ihrer Suggestivkraft: "Das ist schon noch mal krasser als ein Text, in dem man versucht, durch Worte Emotionen zu erzeugen. Wenn man so eine Aufnahme sieht, glaube ich, spricht sie zuerst Emotionen an", so Meineck. "Und erst dann kommt, zumindest bei einigen vielleicht, die Frage, Moment, kann das überhaupt stimmen? Ist das Bild echt oder künstlich?"

"Es braucht seriösen Journalismus"

Meineck spricht sich für eine erweiterte Medienkompetenz aus, die für den Umgang mit KI-Genierungen stark macht. Dazu gehöre auch der kritische Umgang mit Quellen und Inhalten auf Sozialen Netzwerken: Viele hätten nicht den Impuls, das was sie sehen, mit anderen ernstzunehmenden Quellen zu vergleichen: "Um damit gut klarzukommen, braucht man nicht nur ein bisschen Medienkompetenz, sondern eine ziemlich aktuelle, also auch für generative KI upgedatete Medienkompetenz, um damit kritisch umzugehen."

Zudem müsse das Vertrauen in die Nachrichtenmedien wieder aufgebaut werden, das verloren gegangen ist. "Es braucht seriösen Journalismus, das ist letztlich das beste Bollwerk gegen Desinformation und Propaganda", so Meineck.

Viele vertrauten nicht mehr darauf, was seriöse Journalisten erarbeiteten. "Das macht Leute anfällig für andere Nachrichtenquellen, die gezielt mit Desinformation und Propaganda arbeiten und eben nun auch mit beispielsweise höchst irreführenden realistischen KI-Erzeugnissen", so Meineck.

KI-generierte Fotos sind identifizierbar - aber wie lange noch?

Noch sind viele KI-generierte Inhalte fehlerhaft, wenn man sie genauer betrachtet. „KI-Generatoren haben heute noch Schwierigkeiten, eine zugrunde liegende Anatomie wirklichkeitsgetreu abzubilden“, sagt Kolossa. Ein Fuß hätte auch mal plötzlich mehr Zehen.

Normalbürger könnten, wenn sie genauer hinschauen, noch immer KI-generiertes Material erkennen. Typische Anzeichen neben anatomisch nicht korrekten Körperteilen seien laut Kolossa auch Symmetrieprobleme: Wenn an dem linken Ohr zum Beispiel ein anderer Ohrring hängt als am rechten, könnte man stutzig werden.

Oft werden Bilder auch einfach aus dem Kontext gezogen. Da könnte man eine Bilder-Rückwärtssuche nutzen, um zu überprüfen, ob das Bild vielleicht aus einem anderen Zusammenhang stammt.

Wenn also demnächst ein Bild von Olaf Scholz in Unterhosen und dreizehn Zehen im Bundestag auftauchen sollte: Daran erinnern, dass das mit einem Klick ganz leicht zu generieren war.

Sendung: rbb24 Brandenburg Aktuell, 02.04.2024, 19.30 Uhr

Beitrag von Linh Tran

17 Kommentare

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 17.

    Was für Humbug-Ausdenkereien! 1. wird es nicht krontrollierbar sein 2. ist KI perfekt in der Lage, möchtegern-authentisches vorzutäuschen 3. Lügner/innen gab es schon immer.

  2. 16.

    Ich will Ihnen im Grunde zustimmen, denke aber, dass gerade beim Gebrauch aller technischen Hilfsmittel noch ein Aspekt hinzutritt, je ausgefeilter dieses technischen Hilfsmittel sind. Das ist derjenige der Abstraktion und des Vermögens dazu.

    Abstraktion bedeutet m. E., sich aus einer "Verwicklung" einer Situation zu entfernen, anstatt von ihr überschwemmt zu werden. Ich glaube, hier gäbe es einen Zwiespalt, sich einer Situation völlig hinzugeben / hingeben zu können, andererseits aber sich das Vermögen zu erwerben, dies gerade bei Medien immer nur ausschnitthaft zu tun und den eigenen Sinnen zu trauen.

    Es mag sein, dass das Stichwort der "Kolonisierung der Sinne" sehr zugespitzt klingt, falsch ist es m. E. nicht.



  3. 15.

    Die Seriösen, die Ki nutzen werden diese dann kennzeichnen.
    Aber ob mit so einem Gesetz das Gespräch Giffey / Klitschko nicht stattgefunden hätte ? Das Gesetz hätte da wohl nichts verhindert.
    Ist wie der Nachtrag bei Medikamenten… fragen sie ihren Arzt oder Apotheker… ist ganz doll wichtig das dies permanent runtergeleiert wird.

  4. 13.

    Unter der Voraussetzung der körperlichen und geistigen Unversehrtheit, ist in jedem Menschen die Möglichkeit - Kompetenz - angelegt, medienkompetent, sprachfähig, blitzgescheit, artistisch, umweltbewusst, usw. usf. zu werden. Die Ermöglichung diese Kompetenzen quasi aufzuwecken, zu hegen und zu pflegen, ist Aufgabe der Sozialisationsinstanzen und aller an der Entwicklung Beteiligten.

  5. 12.

    Mir scheint das Grundrecht auf Informationelle Selbstbestimmung eh allmählich ausgehebelt.

  6. 11.

    Das ist der größte Quatsch!
    Menschen täuschen analog ihr ganzes Leben Dinge vor.
    Sei es durch Schminke, Lügen, Kleidung, Angeberei, Hochstaplerei usw.
    Auf politischer Ebene wird durch falsche Wahlversprechungen und Framing getäuscht.
    Kommen dann auch automatische Warnhinweise?
    Womit befasst man sich?
    Sind das neue Ersatzprobleme?
    Entweder verbietet man diese ganze KI, die für Otto Normalverbraucher meiner Meinung eh keinerlei Nutzen hat, oder man macht klar, dass das eine bunte Spielwiese wie ein Videospiel o. ä. ist, und lässt das laufen.
    Diese ganze Kontrolle und Regulierung mit Konsequenzen wird doch eh nicht gelingen. Muss man sich doch nur auf anderen Politikfeldern anschauen.

  7. 10.

    Die deutsche Regulierungswut kennt mal wieder keine Grenzen.
    Solche Gesetze sind doch gar nicht umsetzbar.
    Viel wichtiger ist, dass die Menschen nicht ständig Angst vor neuer Technologie haben, sondern versuchen, sie zu verstehen. Dann werden sie auch die Desinformation lernen zu erkennen.

    Ansonsten ist die KI ja gar nicht so umwerfend, wie alle denken. Es ist ja nur ein Computerprogramm, was aus einem grossen Wissens-Arsenal Antworten heraussucht oder etwas kreiert.

  8. 9.

    >"Man kann Medienkompetenz nicht erwerben, sondern die immer vorhandene nur ausweiten."
    Na doch. Medienkompetenz muss schon erworben werden. Von Anfang an. Wie Sprache auch. Sprache ist auch nicht angeboren. Das ist dann aber auch Sache der Eltern durch das Vorleben von Verhaltensweisen. Das Bildungssystem (Schule) kann hier erst ab vielleicht der 4. Klasse bildungstechnisch nachhaltig aktiv werden. Aber Medienkompetenz ist in unserem althergebrachten Bildungssystem noch kein Thema.

  9. 8.

    "Man kann Medienkompetenz nicht erwerben, sondern die immer vorhandene nur ausweiten"

    Sie meinen, Medienkompetenz ist eine natürlich angeborene Gabe?

  10. 7.

    Wenn ich unter einem News Artikel den Satz mit "wurde unter Zuhilfenahme von KI erstellt" lese, streiche ich eben gelesenes im Hirn als "blablabla". Fertig. Dereinst ohne KI erstellte "man" (Mann) ein Bild der "Idealen Frau". Vielleicht erinnert sich jemand? Ne? Ist ok, weil es eine absolute durch Durchschnittsfrau war ;-) und so läuft es auch mit KI.

    Muss man halt sehen, wie man SELBER damit umgeht, Glaubwürdigkeit zu überprüfen.

  11. 6.

    private Konzerne (eine Handvoll, die "KI-Programme" entwickeln, patentieren, vertreiben, verkaufen) nutzen millionenfach "Daten", "Dokumente", "Fotos", "Texte", "Quellen, "geistiges Eigentum" anderer, uneigeschränkt (!!!)

    Persönlichkeitsrechte, Urheberrechte, Verwertungsrechte, Informationsrechte, werden millionen verletzt
    bei "KI" ist die "Verletzung" selbst GRUNDLAGE neuer hochintegrativer "Produkte", "Anwendungen", ja Voraussetzung der Etablierung der Geschäftsmodelle
    (fast) ohne Regulierung, Reglementierung, rechtliche Schranken
    oder etwas überhöht: das Wissen der Menschheit wird entgültig kapitalisiert, privatisiert, konzentriert, monopolisiert

    "Was ist ein Einbruch in eine Bank gegen die Gründung einer Bank?"

  12. 5.

    Ich teile in jedem Fall den kritischen Blick auf die technologischen Möglichkeiten und sehe das Missbrauchspotenzial durchaus. Allerdings tut man so, als bräuchte es erst ein technologisches Schreckgespenst, damit Menschen Desinformationen anhängen.

    Selbst in den 'Tagesthemen' wird von "irregulärer Migration" gesprochen - eine aus dem rechtsextremen Spektrum stammende Falschbehauptung. Es werden Menschen als "Flüchtlingsströme" entmenschlicht. Ein von Fallois schwadroniert in phoenix davon, dass die Asylanerkennungsquote bei 50% läge - sie liegt aber tatsächlich bei 87%. Das sind Falschinformationen durch den ÖRR. Das, was in der Regel fehlt, ist die kritische Einordnung der Nachrichten selbst. Das geht komplett verloren, wird ausgelagert: Man solle ins Internet, wenn man mehr wissen möchte. Nein! Der ÖRR hat seine Verpflichtung zu kritischer Berichterstattung nicht erst im Internet zu erfüllen. 'Kontraste' und Co. haben nicht die nachtschlafene Ausnahme zu sein!

  13. 4.

    Ine Kennzeichnungspflicht ist seeeeeehr sinnvoll! Nur so erkenne ich als Laie was real ist und was künstlich oder gar Fake ist.

    Das das nicht vor Missbrauch schützt ist klar. Erwartet auch keiner, wäre naiv.

  14. 3.

    Ki ist wie eine Krake. Ist sie da, wird es sehr schwer werden sie los zu werden. Der Zeitpunkt wird kommen, wo man es sich wünscht das es KI nie gegeben hätte.
    KI - Kennzeichnung sollte Pflicht sein.

  15. 2.

    Man kann Medienkompetenz nicht erwerben, sondern die immer vorhandene nur ausweiten. Nicht einfach, da wir nicht nur unmittelbare, sondern auch mittelbare Wahrnehmungen wie Erlebnisse „abspeichern“ und damit unser Urteilsvermögen und unsere Sicht der Welt speisen. Es hilft erstmal vermutlich eine riesengroße Aufklärungskampagne auf allen erdenklichen Terrains und Kanälen und eine uneingeschränkte Unterstützung der öffentlich-rechtlichen Medien. Es sei an den Bericht an den Club of Rome erinnert, der nicht den Klimawandel als größte Bedrohung der Menschheit sieht, sondern die Unfähigkeit, zwischen
    Fakten und Fiktion zu unterscheiden.

  16. 1.

    Was m. E. fehlt, ist eine kritische Distanz zu Medien, was nichts mit einem grundsätzlichen Misstrauen zu tun hat, aber sehr viel mehr mit der Wertschätzung der eigenen Sinne: Als "Parallelfilm" sollte ein Mensch sich immer die eigenen Erfahrungen gönnen, die gemacht wurden und das Gesehene und Gelesene dann parallel dazu "abgleichen". Das kann dann auch recht routiniert werden.

    Wer sich abgehetzt von einer Sekunde auf die andere zwischen Baum und Borke drängen lässt, schafft das nicht, der wird immer nur im Handumdrehen REagieren. Wer sich dieses Quäntchen Zeit nimmt zur Reflexion, hat bessere Chancen dazu.

    Ich will nicht nur von Fälschung reden, was Bilder angeht, doch es ist das oftmals spektakuläre, effekthaschende Aufbauschen von Bildmaterial, wohinter dann der Sinngehalt von Texten oftmals verschwindet. Menschen reagieren immer zuerst auf Bilder, dann auf Texte. Wer einschlägig "unterwegs" ist, macht sich das zunutze, ob nun - arbeitserleichternd - mit K I oder ohne sie.

Nächster Artikel