Jetzt anmelden
Ausgabe Nr. 05/2024 vom 30.01.2024, Fotos: picturedesk.com, Deutsche Welle (dw), Youtube
Artikel-Bild
Artikel-Bild
Wolodymyr Selenskyj wurde ebenso „Deepfake“-Opfer wie Wladimir Putin .
Artikel-Bild
Ein gefälschtes Video von Olaf Scholz zum angeblichen AfD-Verbot erhitzte die Gemüter.
Intelligent getäuscht
Jetzt neu: Hier klicken
und Artikel an Freunde verschenken.
Wolodymyr Selenskyj ruft seine Truppen zur Kapitulation auf. Olaf Scholz verkündet einen Antrag für ein AfD-Verbot. Zwei Videos, die eines gemeinsam haben – sie sind täuschend echte Fälschungen, die mit Hilfe künstlicher Intelligenz (KI) hergestellt und verbreitet wurden.
Auf Play drücken
um Artikel vorlesen
zu lassen.
Im deutschen Bundeskanzleramt war der Ärger groß. „Das Video ist nicht echt.“ Solche lebensechten Fälschungen seien „kein Spaß. Sie schüren Verunsicherung und sind manipulativ“, warnte der Regierungssprecher im November.

Der Grund der Aufregung war ein gefälschtes Video der Satire- und Politikinitiative „Zentrum für Politische Schönheit“ im Internet. Darin teilte der angebliche Bundeskanzler Olaf Scholz, den „lieben Mitbürgerinnen und Mitbürgern“ mit, dass seine Regierung im Juni „beim Bundesverfassungsgericht ein Verbot der Partei Alternative für Deutschland beantragen“ werde.

Lebensechte Fälschungen beeinflussen die Wähler.

Die Stimme und das Bild des falschen Scholz-Videos wirkten täuschend echt, dank künstlicher Intelligenz (KI). Sogenannte „Deepfakes“ sind realistisch scheinende Fotos, Videos oder Tonaufnahmen, die mit KI-Programmen rasch und wirklichkeitsnah erzeugt werden können.

Der Begriff stammt aus dem Englischen und ist aus „Deep Learning“ (eine Methode des maschinellen Lernens) und „Fake“ (Fälschung) zusammengesetzt.

Die KI-Modelle dafür werden schnell besser, immer mehr Menschen können sie benutzen. In einem Superwahljahr wie heuer, wo auf der halben Welt Urnengänge anstehen, könnte das problematisch werden.

Selbst die Vorreiter der neuen Technologie warnen. Sam Altman, der Chef der KI-Firma OpenAI, stand im vergangenen Jahr amerikanischen Volksvertretern Rede und Antwort. Dass die Möglichkeiten der künstlichen Intelligenz genutzt werden könnten, um Wähler zu manipulieren und gezielt Desinformationen zu verbreiten, gehöre zu „meinen Bereichen, die mir am meisten Sorgen bereiten“, erklärte er dort. Er rief grundsätzlich nach einer KI-Regulierung. „Wenn diese Sache schiefgeht, dann kann sie völlig schiefgehen.“

Falscher Joe Biden rief zur Wahlenthaltung auf.

Einen Vorgeschmack darauf, was Unruhestifter vor den Wahlen mittels KI anstellen können, gab es vor ein paar Tagen in den USA. Kurz vor den ersten Vorwahlen der Demokraten erhielten Parteigänger gefälschte Anrufe mit der nachgeahmten Stimme von Präsident Joe Biden, um sie von der Stimmabgabe abzuhalten. „Es ist wichtig, dass Sie Ihre Stimme für die Wahlen im November aufheben“, mahnte der angebliche Präsident in dem automatisierten Anruf.

Verwirrung stiften, das ist das Hauptziel der meisten „Deepfake“-Videos. Vor zwei Jahren verbreitete sich eine manipulierte Aufnahme des ukrainischen Präsidenten Wolodymyr Selenskyj, in der er sich verabschiedet und seinen Truppen rät, „die Waffen niederzulegen und zu euren Familien zurückzukehren“. Ähnliches gab es auch vom russischen Präsidenten Wladimir Putin. Beide Videos waren nicht echt, wurden aber tausende Male im Internet angeklickt.

Eine Rede des neugewählten argentinischen Staatschefs Javier Milei brachte es vor Kurzem sogar zum Internetphänomen. Rund 25 Millionen Mal wurde das Video gesehen, obwohl es gar nicht das Original ist. Denn Milei sprach beim Weltwirtschaftsforum in Davos spanisch, in dem rasend schnell verbreiteten Video aber englisch, mit seiner Stimme und mit argentinischem Akzent. Es handelt sich um eine KI-erstellte Übersetzung. Nur ein manchmal leicht monotoner Sprachstil verrät laut Beobachtern noch die künstliche Intelligenz dahinter.

Solche Fehler sind wohl bald behoben, die Fortschritte bei der KI sind enorm und faszinierend. Für die Bürger und normalen Internet-Nutzer wird es dann schwieriger, Fälschungen zu erkennen. Noch sind unscharfe „verwaschene“ Gesichter, Mundbewegungen, die nicht hundertprozentig zu den gesprochenen Sätzen passen oder ungewöhnlich ausgesprochene Worte Indizien für eine mögliche KI-Fälschung.

Gefahr oder Einschränkung der Meinungsfreiheit

In den USA haben sich große Tech-Konzerne und KI-Anbieter derzeit zu einer freiwilligen Kennzeichnung verpflichtet. Brüssel setzt auf Vorschriften. Frühestens 2026 soll ein EU-„KI-Gesetz“ in Kraft treten.

In unserem Land will die Regierung noch heuer eine nationale Kennzeichnungspflicht einführen. „Wie bei den Inhaltsstoffen bei Lebensmitteln, soll den Menschen klar sein, wo KI drin ist“, sagt Digitalisierungs-Staatssekretär Florian Tursky (ÖVP). Ob das noch vor der Nationalratswahl passiert, ist aber unklar.

Die hiesigen Parteien beurteilen die Manipulations-Gefahr im Wahljahr 2024 unterschiedlich. „Es ist zu befürchten, dass KI-generierte Falschinformationen im Wahlkampf eingesetzt werden“, heißt es bei der SPÖ. „Zuletzt wurde in Deutschland ein russisches Bot-Netzwerk aufgedeckt, das Falschinformationen“ auf der Plattform X, früher Twitter, verbreitet habe. Ein Bot ist eine Art von Computerprogramm, das automatisierte Aufgaben durchführt.

Der FPÖ-Mediensprecher Christian Hafenecker hingegen sieht in der Debatte über mögliche Wahlbeeinflussungen „nur zwei Ziele“, die verfolgt werden: „Zum einen, damit die selbsternannten Eliten nicht genehme Wahlergebnisse im Rückblick als ,beeinflusst‘ oder ,manipuliert‘ darstellen können, um so deren Legitimität anzugreifen und zum anderen, um die Meinungsfreiheit immer weiter einzuschränken.“

Manchmal kann eine Fälschung jedenfalls gewollt sein. Wie im Fall des pakistanischen Ex-Premierministers Imran Khan. Er wurde wegen Korruption schuldig gesprochen und sitzt im Gefängnis. Kontakt nach außen hat er kaum. Für politische Ämter ist er gesperrt, das gilt auch bei der Parlamentswahl im Februar.

Dank der künstlichen Intelligenz konnte er sich aber vor ein paar Wochen mit einer vierminütigen Rede an seine Anhänger wenden. Die Ansprache schrieb er selbst. Das Video zeigt einen „Stellvertreter“, seine Stimme wurde nachgestellt.
Weitere Inhalte dieser Ausgabe:
Ihre Meinung
Ihre Meinung ist uns wichtig.

Schreiben Sie Ihren Kommentar zu diesem Artikel, den wir dann prüfen und veröffentlichen werden.
Bitte melden Sie sich an, um einen Kommentar zu verfassen.
Werbung