rbb24
  1. rbb|24
  2. Panorama
Quelle: dpa/Senatskanzlei Berlin

Gefahr durch Künstliche Intelligenz

"Deepfakes sind wie Messer - man kann sie missbrauchen oder gebrauchen"

Text-, Audio- oder Video-Deepfakes - mit Künstlicher Intelligenz lassen sich mediale Inhalte im Netz manipulieren. Deshalb sind sie anfällig für Missbrauch, sagen Experten. Schützen kann man sich am besten mit dem Wissen darüber. Von Anna Bordel

An sich nichts Ungewöhnliches - der Bürgermeister von Kiew, Vitali Klitschko, hatte um ein Video-Call mit der damaligen Regierenden Bürgermeisterin Franziska Giffey (SPD) gebeten. Das ganze wurde organisiert und Ende Juni 2022 quatschten sie dann miteinander, gesehen haben sie sich via Bildschirm. Zuvor persönlich getroffen, hatten sie sich laut Giffey nie. Trotzdem merkte sie nach ein paar Minuten, dass etwas nicht stimmte. Die Fragen hätten sie stutzig gemacht, sagte Giffey später. Sie brach das Telefonat ab.

Hinterher wurde klar, dass es niemals Vitali Kltischko gewesen ist, der um das Telefonat gebeten oder mit ihr telefoniert hatte. Dass sie ihn trotzdem in Bewegung sehen und dazu mit seiner Stimme sprechen hörte, ist vermutlich einer Technologie geschuldet, die mittlerweile als Deepfake bekannt ist: Video-, Audio oder Textmaterial, das mittels Künstlicher Intelligenz (KI) manipuliert wurde.

Die Ermittlungen zu dem bislang in Berlin beispiellosen Fall laufen noch. Ein Stand könne wegen Gefährdung der Ermittlungen nicht öffentlich gemacht werden, teilte die Staatsanwaltschaft auf rbb|24-Nachfrage mit.

Künstliche Intelligenz

Großer Ansturm auf KI-Studiengänge der BTU Cottbus-Senftenberg

Seit einem Jahr kann in Cottbus Künstliche Intelligenz studiert werden. Einer der Studiengänge hat sich zu einem der begehrtesten der BTU entwickelt. Nun muss das Zulassungsverfahren angepasst werden. Von Aline Anders-Lepsch und Daniel Mastow

Wie viele Straftaten bislang durch Deepfakes begangen wurden, ist für die Berliner Polizei nicht leicht zu ermitteln. Die Polizei erfasst KI-Straftaten nicht gesondert, daher müssen die Bereiche einzeln danach durchkämmt werden. Kriminelle Handlungen in den Bereichen Pornografie, Betrugsmaschen und gefälschte Medieninformationen in Verbindung mit Künstlicher Intelligenz seien der Berliner Polizei nicht bekannt, erklärte Pressesprecher Martin Stralau. Auch in Brandenburg seien bis Ende Juni keine Betrugsfälle mit Verdacht auf KI-Einsatz zur Anzeige gebracht worden, teilte das Polizeipräsidium Brandenburg rbb|24 auf Nachfrage mit.

Und doch kann jeder, der möchte, ein Deepfake erstellen. Im Netz finden sich zahlreiche, auch kostenpflichtige, Anwendungen, die für jeden zugänglich sind. Ein paar Klicks und häufig nur wenige Euro weiter lassen sich mit Fotos einer Person, Videomaterial oder wenigen Sekunden Audiospuren Fälschungen herstellen. "Früher brauchte man einen großen Computer mit sehr viel Rechenpower, heute reicht ein Smartphone“, meint Thomas-Gabriel Rüdiger, Leiter des Instituts für Cyberkriminologie an der Hochschule des Landes Brandenburg. "Die Hersteller dieser Tools verdienen damit Geld, aber öffnen möglicherweise Tor und Tür für Betrug", so Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit.

Chatbots in der Arbeitswelt

"ChatGPT vertritt wortgewandt auch Argumente, die falsch sind"

Die Chancen und Risiken von ChatGPT werden auch in der Arbeitswelt debattiert und ausgetestet. Wo kann der Einsatz von künstlicher Intelligenz hilfreich sein, wo ist er problematisch? Wolf Siebert hat sich umgeschaut.

Was sind Deepfakes?

Text-Deepfakes fragen Informationen ab oder übermitteln Fakten in einem Layout, das von einem Unternehmen bekannt ist. In einem Audio-Deepfakes simulieren die Stimme von Menschen, die dann etwas sagen, was sie so nie gesagt haben. "Die grundlegende Idee eines Audio-Deepfakes ist, dass die KI den Zusammenhang zwischen der menschlichen Stimme und der Schrift lernt", so Müller. "Das bedeutet, die Anwendung wird sozusagen mit ganz vielen Audio-Sätzen gefüttert und kriegt das entsprechende Transkript dazu." Dann lerne sie, wie dieser Text klingt, zum Beispiel mit der Stimme von Frau Merkel. "Und dann kann ich das nutzen, um einen neuen von mir gewählten Text einzugeben, den die Anwendung dann in der Stimme von Frau Merkel wiedergibt", erklärt Müller.

Bei einem Video- oder Foto-Deepfake ist der vermeintlich bekannte Mensch nicht nur zu hören, sondern sogar zu sehen. Beim Video gibt es laut Müller verschiedene Technologien - etwa, die Lippenbewegungen zu ändern. "Man erstellt zunächst Audio-Fakes und trainiert damit ein KI-Modell, das die Lippenbewegungen rekonstruiert. Mithilfe der Fake-Audiospur rekonstruiert dieses Ki-Modell dann die Lippenbewegung des Fake-Audios". Bei der zweiten Methode müsse man dem Wissenschaftler zufolge von einem existierenden Video das Gesicht austauschen. "Das heißt, man stellt sich vor die Kamera, man spricht einen Satz, und dann wird im Nachhinein das Gesicht ausgetauscht", so Müller.

Deepfake-Technologien bieten auch Chancen

Müllers Job beim Fraunhofer-Institut ist es, die Gefahren, die mit der neuen Technnik einhergehen, zu minimieren - damit ihre positiven Bereiche die Tech-Welt bereichern können. Kranke, die dadurch weiterhin mit ihrer eigenen Stimme sprechen könnten, würden davon etwa profitieren.

Da die Anwendungen in diesen Bereichen immer besser werden, sind Fakes auch immer schwerer von realen Inhalten zu unterscheiden. Das macht sie anfällig für Missbrauch. "Es gibt aus meiner Sicht kein Deliktfeld, wo Deepfakes keine Rolle spielen", so Rüdiger von der Polizeihochschule Brandenburg. Er bezieht sich mit seinen Angaben nicht auf die Region Brandenburg, sondern auf die gesamte digitale Welt. Die gängigsten Beispiele sind ihm zufolge Betrugsdelikte wie der Enkeltrick. Ein älterer Mensch wird vermeintlich von einem seiner Kinder angerufen, das in großer Not ist und nur durch die Überweisung einer großen Summe gerettet werden kann. Durch KI-Manipulation stimmt die Stimme unverwechselbar mit der des Kindes überein. Im politischen Bereich betreffe es Fake News, also Politiker:innen, die in einer Audio- oder Videoaufnahme etwas sagen, was sie so nie in Wirklichkeit gesagt haben. Ein großes Feld sei laut Rüdiger auch die Pornografie: "Schon seit einigen Jahren ist es möglich von jedem ein Bild zu nehmen und dann zum Beispiel täuschend echte Nacktaufnahmen generieren zu lassen".

Wissen über Möglichkeiten als Schutz

Das Europaparlament möchte bis Ende des Jahres ein Gesetz beschließen, das jeglichen Umgang mit Künstlicher Intelligenz reguliert. Laut einem Entwurf von Juni 2023 müssen bei Deepfakes generierenden KI-Tools die Nutzer:innen vor der Anwendung informiert werden, dass sie Künstliche Intelligenz nutzen werden.

Ein generelles Verbot solcher Technologien sei eher schwierig, meint Müller vom Fraunhofer Institut. "Die Technologie ist da, die Beschreibungen sind publiziert, der Code davon ist öffentlich zu finden", so Müller.

Interview | Betrug durch Künstliche Intelligenz

Die KI lernt jetzt den Enkeltrick

Beim Enkeltrick versuchen sich Betrüger als Verwandte auszugeben, um älteren Menschen Geld abzunehmen. Nun gibt es eine Möglichkeit, bei der die Stimmen der echten Enkel eingesetzt werden. Verantwortlich dafür ist die Künstliche Intelligenz.

Müller wie auch Rüdiger setzen beide vielmehr darauf, Menschen bewusst zu machen, was mittlerweile alles möglich ist und dass nicht alles, was im Netz kursiert oder einen über das Telefon erreicht, wahr ist.

"Ich wünsche mir die verpflichtende Vermittlung von Medienkompetenz ab der ersten Klasse an jeder Schule in ganz Deutschland. Für mich ist die Vermittlung von Medienkompetenz auch eine Art von Kriminalprävention", so Rüdiger von der Polizeihochschule. Weil seiner Meinung nach an der Stelle zu wenig passiert, nutzt er seinen privaten Instagramm-Account, um zu zeigen, was KI alles möglich machen kann. Er präsentiert sich seinen knapp 25.000 Followern dort als Frau, als Teenie und alter Mann. "Einfach um zu zeigen, dass nicht alles echt ist, was man so sieht". Ihm sei es dabei vor allem wichtig, Kinder und Jugendliche zu erreichen.

Künstliche Intelligenz am Arbeitsplatz

Ist das schon Arbeit oder kann das weg?

Apokalypse oder Erlösung: Wenn über künstliche Intelligenz geredet wird, existieren meist keine Grautöne. Insbesondere wenn es um das Ersetzen von Arbeitskräften geht. Andererseits ist es auch irgendwie anstrengend, sich Sorgen zu machen. Von Oliver Noffke

Täglich neue Anwendungen auf dem Markt

Auch das Fraunhofer-Institut versucht Menschen die Möglichkeit bewusst zu machen, dass etwas fake sein könnte. So ist auf der Website demonstriert, wie ein von ihnen gewählter Text von Angela Merkels Stimme nachgesprochen wird. Aber auch Künstliche Intelligenz kann vor Künstlicher Intelligenz schützen. Daran arbeitet unter anderem Nicolas Müller: "Wir entwickeln KI-Modelle, die Fakes gut und zuverlässig erkennen können, und mit einer hohen Trefferquote. Das ist eine große Herausforderung, weil sich das Feld sehr stark entwickelt und täglich neue Fake-Modelle auf den auf den Markt kommen".

Den Schaden, den Deepfakes anrichten können zu schmälern, findet er wichtig, denn er sieht auch die Chance, die diese Technologien bieten: "Die Technologie als solche ist nicht unbedingt zu verteufeln, sondern sie ist mehr als Werkzeug zu verstehen. So ein bisschen wie ein Messer - das kann man missbrauchen, aber eben auch gebrauchen".

Sendung: rbb24 Inforadio, 04.10.2023, 07:10 Uhr

Beitrag von Anna Bordel

Artikel im mobilen Angebot lesen