KI-Politik-Chatbots können Wähler beeinflussen, zeigt neue Forschung

Decrypt

Kurzfassung

  • Studien in Nature und Science berichteten, dass KI-Chatbots die Wählerpräferenzen um bis zu 15 % verschieben konnten.
  • Forscher stellten unterschiedliche Genauigkeit je nach politischem Kontext sowie dokumentierte Vorbehalte bezüglich Voreingenommenheit fest.
  • Eine aktuelle Umfrage zeigte, dass vor allem jüngere Konservative bereit sind, KI zu vertrauen.

Decrypts Hub für Kunst, Mode und Unterhaltung.


Entdecke SCENE

Neue Forschungsergebnisse der Cornell University und des UK AI Security Institute haben ergeben, dass weit verbreitete KI-Systeme die Wählerpräferenzen in kontrollierten Wahlsituationen um bis zu 15 % beeinflussen können.

Veröffentlicht in Science und Nature erscheinen die Ergebnisse zu einer Zeit, in der Regierungen und Forscher untersuchen, wie KI künftige Wahlzyklen beeinflussen könnte, während Entwickler versuchen, Voreingenommenheiten aus ihren verbraucherorientierten Modellen zu eliminieren.

„Es gibt große öffentliche Bedenken hinsichtlich des potenziellen Einsatzes generativer künstlicher Intelligenz zur politischen Überzeugungsarbeit und der daraus resultierenden Auswirkungen auf Wahlen und Demokratie“, schrieben die Forscher. „Wir informieren über diese Bedenken, indem wir vorregistrierte Experimente nutzen, um die Fähigkeit großer Sprachmodelle zu bewerten, die Einstellungen von Wählern zu beeinflussen.“

Die Studie in Nature untersuchte fast 6.000 Teilnehmer in den USA, Kanada und Polen. Die Teilnehmer bewerteten einen politischen Kandidaten, sprachen mit einem Chatbot, der diesen Kandidaten unterstützte, und bewerteten den Kandidaten danach erneut.

Im US-Teil der Studie, an dem 2.300 Menschen vor der Präsidentschaftswahl 2024 teilnahmen, zeigte der Chatbot eine verstärkende Wirkung, wenn er mit der angegebenen Präferenz eines Teilnehmers übereinstimmte. Die größeren Veränderungen traten auf, wenn der Chatbot einen Kandidaten unterstützte, dem der Teilnehmer zuvor ablehnend gegenüberstand. Ähnliche Ergebnisse berichteten die Forscher in Kanada und Polen.

Die Studie zeigte auch, dass auf politische Inhalte fokussierte Botschaften eine stärkere Überzeugungswirkung erzielten als persönlichkeitsbasierte Botschaften.

Die Genauigkeit variierte je nach Gespräch, und Chatbots, die rechtsgerichtete Kandidaten unterstützten, gaben mehr ungenaue Aussagen ab als solche, die linke Kandidaten unterstützten.

„Diese Ergebnisse tragen die unangenehme Implikation, dass politische Überzeugungsarbeit durch KI Ungleichgewichte im Wissensstand der Modelle ausnutzen kann, indem sie ungleichmäßige Ungenauigkeiten verbreitet – selbst bei expliziter Anweisung, wahrheitsgemäß zu bleiben“, erklärten die Forscher.

Eine separate Studie in Science untersuchte, warum Überzeugungskraft auftrat. Dabei wurden 19 Sprachmodelle mit 76.977 Erwachsenen im Vereinigten Königreich zu über 700 politischen Themen getestet.

„Es gibt weit verbreitete Befürchtungen, dass konversationelle künstliche Intelligenz bald beispiellosen Einfluss auf menschliche Überzeugungen ausüben könnte“, schrieben die Forscher.

Sie stellten fest, dass die Fragetechnik einen größeren Einfluss auf die Überzeugungskraft hatte als die Modellgröße. Aufforderungen, die Modelle dazu brachten, neue Informationen einzubringen, erhöhten die Überzeugungskraft, verringerten aber die Genauigkeit.

„Die Aufforderung, LLMs dazu zu bringen, neue Informationen zu liefern, war am erfolgreichsten darin, Menschen zu überzeugen“, schrieben die Forscher.

Beide Studien wurden veröffentlicht, während Analysten und politische Thinktanks bewerten, wie Wähler die Idee von KI in Regierungsrollen sehen.

Eine aktuelle Umfrage des Heartland Institute und von Rasmussen Reports ergab, dass jüngere Konservative eher als Liberale bereit sind, KI Autorität über wichtige Regierungsentscheidungen zu geben. Befragte im Alter von 18 bis 39 Jahren wurden gefragt, ob ein KI-System bei der Ausarbeitung von Politik, der Auslegung verfassungsmäßiger Rechte oder dem Kommando über große Militärverbände helfen sollte. Konservative zeigten die höchste Zustimmung.

Donald Kendal, Direktor des Glenn C. Haskins Emerging Issues Center am Heartland Institute, erklärte, dass Wähler die Neutralität großer Sprachmodelle oft falsch einschätzten.

„Eines der Dinge, die ich immer wieder betone, ist, diese Illusion zu zerstreuen, dass künstliche Intelligenz unvoreingenommen sei. Sie ist sehr eindeutig voreingenommen, und ein Teil davon ist passiv“, sagte Kendal gegenüber Decrypt und ergänzte, dass das Vertrauen in diese Systeme fehl am Platz sein könnte, wenn unternehmerische Trainingsentscheidungen deren Verhalten beeinflussen.

„Diese großen Silicon-Valley-Konzerne bauen diese Modelle, und wir haben in den letzten Jahren bei Kontroversen um Tech-Zensur gesehen, dass manche Unternehmen sich nicht scheuten, ihre Finger auf die Waage zu legen, wenn es um die Verbreitung von Inhalten auf ihren Plattformen ging“, sagte er. „Wenn dieses Prinzip auch bei großen Sprachmodellen angewendet wird, erhalten wir ein voreingenommenes Modell.“

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)