X Twitter verhängt harte Strafen für KI-generierte Fake-Videos, Kriegsvideo-Ersteller könnten dauerhaft vom Monetarisieren ausgeschlossen werden

MarketWhisper

X推特AI假影片新規

X, die Community-Plattform unter Elon Musk, kündigte eine Aktualisierung der Monetarisierungsrichtlinien für Creator an. Demnach werden Creator, die AI-generierte Videos zu bewaffneten Konflikten veröffentlichen, ohne die Quelle deutlich zu kennzeichnen, für 90 Tage vom „Creator Revenue Sharing“-Programm ausgeschlossen. Wiederholte Verstöße führen zur dauerhaften Eliminierung aller Monetarisierungsrechte. Nikita Bier, Produktverantwortlicher bei X, erklärte, dass diese Richtlinienänderung dazu dient, die Echtheit der Inhalte in der Timeline zu wahren.

Kernpunkte der neuen Regelung: Stufenbasierte Sanktionen und Auslöser

Das Creator Revenue Sharing-Programm bei X erlaubt qualifizierten Konten, Einnahmen basierend auf Interaktionen mit Beiträgen und Abonnements zu erzielen. Die Einnahmen stammen hauptsächlich von Interaktionen zahlender X Premium-Nutzer, nicht von herkömmlichen Werbeeinnahmen. Die neue Regelung macht die Offenlegung von AI-generierten Videos zur Bedingung für die Monetarisierung:

Erster Verstoß: 90-tägige Sperre bei Teilnahme am Revenue Sharing-Programm

Wiederholter Verstoß: Dauerhafte Entfernung aller Monetarisierungsrechte auf X

Auslöser: Veröffentlichung von als AI-generiert anerkannten Videos zu bewaffneten Konflikten oder Kriegen, ohne aktiv die AI-Quelle offenzulegen

Nikita Bier betonte, dass in Kriegs- und Konfliktzeiten der Zugang zu authentischen Echtzeitinformationen äußerst wichtig ist. Mit der Verbreitung generativer KI-Tools sinken die Kosten für die Produktion hochrealistischer fiktiver Kriegsszenarien erheblich. Das Plattformmanagement will durch direktes Eingreifen in die Einnahmequellen der Creator die Einhaltung der Regeln stärken.

Hintergrund des Auslösers: Massenhafte Verbreitung von AI-Falschvideos im Nahost-Konflikt

Der unmittelbare Anlass für die Richtlinienänderung ist die jüngste Eskalation im Nahost-Konflikt, bei der zahlreiche Videos, die angeblich vom Schlachtfeld stammen, schnell auf X und anderen Plattformen kursierten. Einige wurden später als AI-generierte Inhalte bestätigt.

Ein Video, das den Angriff auf den Burj Khalifa in Dubai zeigt, wurde auf X über 8 Millionen Mal angesehen. Eine andere Version desselben Inhalts wurde auf Instagram etwa 42.000 Mal aufgerufen. Beide wurden als AI-generierte Bilder entlarvt und sind keine echten Aufnahmen vom Schlachtfeld.

Solche Vorfälle sind nicht neu. Während des russischen Angriffs auf die Ukraine kursierte ein Deepfake-Video, in dem Präsident Zelensky zur Kapitulation aufruft. Das Video wurde später als Deepfake entlarvt, Zelensky veröffentlichte eine Gegendarstellung. Die Vereinten Nationen warnten ausdrücklich, dass Deepfakes und AI-generierte Medien die globale Informationsqualität ernsthaft bedrohen, insbesondere in Konfliktregionen, wo gefälschte Bilder Hass schüren oder die öffentliche Meinung manipulieren können.

Erkennungssysteme: Metadaten, technische Spuren und Community Notes

Zur Durchsetzung der neuen Richtlinien integriert X verschiedene Technologien und Community-Signale zur Erkennung von Verstößen: Metadaten in Videos, technische Spuren, die durch generative KI hinterlassen werden, sowie das „Community Notes“-System zur Faktenprüfung. Wenn ein Beitrag von der Community als AI-generiert markiert wird, der Creator jedoch die Quelle nicht offenlegt, kann die Plattform eine Untersuchung einleiten und entsprechende Maßnahmen ergreifen.

Nikita Bier betonte, dass die direkte Verknüpfung der Sanktionen mit den Monetarisierungsrechten darauf abzielt, die Motivation der Creator zu verringern, gefälschte Bilder für mehr Traffic und Einnahmen zu nutzen. X plant, die Richtlinien kontinuierlich anzupassen, um die Glaubwürdigkeit der Plattform während großer Konflikte oder unerwarteter Ereignisse zu sichern.

Häufig gestellte Fragen

Was sind die konkreten Konsequenzen bei AI-generierten Kriegsvideos auf X?

Laut den neuesten Richtlinien für Creator bei X führt der erste Verstoß (Veröffentlichung eines AI-generierten Kriegsvideos ohne Quellenangabe) zu einer 90-tägigen Sperre bei der Teilnahme am „Creator Revenue Sharing“-Programm. Bei wiederholtem Verstoß wird die Monetarisierung auf der Plattform dauerhaft entzogen.

Wie erkennt X nicht offengelegte AI-generierte Kriegsvideos?

X nutzt drei Erkennungsmethoden: Metadaten im Video, technische Spuren durch generative KI sowie das „Community Notes“-System. Beiträge, die von der Community als AI-generiert markiert werden und bei denen der Creator die Quelle nicht offenlegt, können zu Untersuchungen und Sanktionen führen.

Was ist die Einnahmequelle des Creator Revenue Sharing-Programms bei X?

Das Programm erlaubt qualifizierten Konten, Einnahmen basierend auf Interaktionen mit Beiträgen und Abonnements zu erzielen. Die Hauptquelle sind Interaktionen zahlender X Premium-Nutzer, nicht klassische Werbeeinnahmen. Creator müssen bestimmte Voraussetzungen erfüllen, um teilnehmen zu können. Verstöße gegen die Offenlegungspflichten führen zum Verlust der Monetarisierungsrechte.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare