KI-generierte gefälschte Kriegsbilder überfluten das Netz: Wie Desinformation über den Iran-Konflikt in sozialen Medien um sich greift

ChainNewsAbmedia

Im Jahr 2022, als der Krieg zwischen Russland und der Ukraine ausbrach, waren auf sozialen Medien minderwertige Fake-Bilder weit verbreitet – sei es durch Photoshop zusammengesetzte Bilder oder falsch markierte Szenen aus Videospielen, Filmen oder alten Nachrichten. Heute tauchen dieselben Methoden erneut im Zusammenhang mit dem Iran-Krieg auf, doch diesmal gibt es ein neues, im Jahr 2022 noch nicht verbreitetes Betrugswerkzeug: KI-Tools, die jeder leicht bedienen kann und mit denen hochqualitative, täuschend echte Videos und Bilder generiert werden.

Hany Farid, Professor für digitale Forensik an der University of California, Berkeley, erklärt, dass vor zehn Jahren ähnliche Fake-Nachrichten höchstens ein oder zwei waren und schnell entlarvt wurden; heute sind es Hunderte, und die Realitätsnähe ist erstaunlich. „Nicht nur realistisch, sondern auch tiefgreifend verfälschend – das beeinflusst die Menschen stark. Viele glauben es und teilen es weiter.“

Verbreitung generativer KI senkt die Schwelle zur Fälschung erheblich

Shayan Sardarizadeh, leitender Reporter bei BBC Verify und langjähriger Beobachter von Kriegs-Desinformation, sagt, dass die bedeutendste Veränderung im letzten Jahr darin besteht, dass die Zugänglichkeit zu generativer KI stark gestiegen ist. „Jetzt kann jeder überzeugende Videos und Bilder erstellen, die wie große Kriegsszenen aussehen und mit bloßem Auge oder unprofessionellem Blick kaum von echten unterscheiden lassen.“

Weniger als zwei Wochen nach Beginn des Iran-Kriegs haben Sardarizadeh und andere Experten bereits mehrere KI-generierte Fake-Videos auf sozialen Plattformen mit Millionen von Aufrufen bestätigt.

Welche Fake-Bilder kursieren?

Die bisher identifizierten KI-gestützten Fälschungen sind äußerst vielfältig, darunter:

Fiktive Szenen iranischer Raketenangriffe auf Tel Aviv

Panik-Szenen, bei denen Menschen vor Angriffen am Flughafen Tel Aviv fliehen

Videos, in denen US-Spezialkräfte von iranischen Soldaten mit Waffen festgenommen werden

„Überwachungsvideos“, die angeblich die Zerstörung iranischer Militäranlagen zeigen (drei davon sind KI-generiert, eines basiert auf einem echten Vorfall vom letzten Jahr)

US-Militärfahrzeuge bei Bodenoperationen im Iran

Trümmer eines US-Helikopterabsturzes, die in Teheran durch die Straßen ziehen

Bei statischen Fake-Bildern sind Szenen im Umlauf, die US-Militärbasen und die US-Botschaft nach iranischen Angriffen in Flammen zeigen, sowie Bilder von iranischen Oberhäuptern, die unter Trümmern liegen, oder Szenen, in denen iranische Zivilisten Trauer um die Opfer zeigen. Sogar Medien, die mit der iranischen Regierung verbunden sind, haben gefälschte Satellitenbilder veröffentlicht, die angeblich Schäden an US-Basen in Bahrain zeigen.

Dies ist nur die Spitze des Eisbergs der im Umlauf befindlichen iranbezogenen Fake-Nachrichten.

Schwache Plattformkontrollen erschweren die Bekämpfung von Fake-News

Obwohl Sardarizadeh und andere täglich Fake-Nachrichten entlarven, tauchen ständig neue, noch überzeugendere Fälschungen auf, die für den Durchschnittsnutzer schwer zu erkennen sind, wenn er durch Feeds scrollt.

Viele weit verbreitete Fake-Nachrichten stammen offensichtlich von pro-iranischen Konten mit Propagandazwecken. Doch die Motivation hinter vielen anderen Fälschungen ist schwer zu bestimmen – sie könnten für Traffic, Einfluss oder Profit erstellt worden sein, oder einfach, weil es so leicht ist.

Farid beschreibt die aktuelle Lage so: „Inhalte werden immer realistischer, die Mengen steigen, und die Durchdringung ist tief – das ist unsere gegenwärtige Realität, und sie ist äußerst chaotisch.“

Letzte Woche kündigte die Plattform X an, dass bezahlte Creator, die unmarkierte KI-generierte Kriegsszenen posten, für 90 Tage keine Einnahmen mehr erhalten. Bei Wiederholung wird das Konto dauerhaft gesperrt. Farid bezweifelt jedoch die Wirksamkeit dieser Maßnahme, da die meisten X-Nutzer nicht Teil des Bezahlprogramms sind. TikTok und Meta (Eigentümer von Facebook und Instagram) haben auf CNN-Anfrage keine Stellung genommen.

Besorgniserregend ist auch, dass Sardarizadeh mehrfach auf den eigenen KI-Chatbot Grok von X hingewiesen hat, der bei Faktenchecks eher schadet – er informiert Nutzer fälschlicherweise, dass mehrere KI-generierte Videos echt seien.

Wie kann man sich vor Fake-News schützen?

Farid gibt offen zu, dass selbst die vor Monaten kursierenden „Techniken zur Erkennung von KI-Falschbildern“ heute kaum noch funktionieren. Früher konnte man an Fingeranzahl oder Proportionen erkennen, ob ein Bild echt ist; moderne KI korrigiert solche offensichtlichen Fehler bereits.

Sein grundlegender Rat lautet: Informationen aktiv aus vertrauenswürdigen Medien beziehen, nicht von unbekannten Konten in sozialen Medien. „In Zeiten globaler Konflikte sind soziale Medien kein verlässlicher Ort für Informationen.“

Für Nutzer, die regelmäßig soziale Medien nutzen, empfiehlt er:

Langsamer vorgehen: Bei schockierenden Kriegsszenen erst einige Sekunden recherchieren, bevor man sie teilt oder glaubt

Details prüfen: Stimmen Ton und Bild überein? Entsprechen die Szenen der Realität? KI-Fehler sind noch vorhanden, manche Inhalte tragen Wasserzeichen

Fakten durch professionelle Quellen überprüfen: Gibt es Faktenchecks oder Experten, die die Szenen kommentieren?

Kommentare beobachten: Nutzer können manchmal hilfreiche Hinweise geben

KI-Detektions-Tools verwenden: Zwar nicht perfekt, aber hilfreich

Besorgniserregende Trends, größere Herausforderungen in der Zukunft

Sardarizadeh ruft die Öffentlichkeit auf, „die eigenen Augen zu schulen“ und KI-Spuren zu erkennen. Er gibt jedoch auch zu: „Das Erkennen von KI-generierten Inhalten wird immer schwieriger, und die Tendenz zeigt, dass es in Zukunft noch schwerer wird.“

Unter dem Druck, dass generative KI-Technologien sich weiterentwickeln und Plattformkontrollen nachlassen, wächst die digitale Fake-News-Kriegslandschaft rasant. Jeder Smartphone-Nutzer steht an vorderster Front dieses Informationskriegs.

Dieser Artikel über die Flut von KI-generierten Kriegsbildern: Wie Fake-Nachrichten zum Iran-Krieg die sozialen Medien erobern, erschien zuerst bei ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare