OpenAI hat eine Gruppe von Accounts gesperrt, die an einer iranischen Kampagne zur Beeinflussung der US-Präsidentschaftswahlen beteiligt waren, bei der ChatGPT zur Erstellung von Inhalten genutzt wurde.
Am 16. August behauptete OpenAI, kürzlich eine Gruppe von Konten identifiziert und gesperrt zu haben, die an einer verdeckten iranischen Beeinflussungsaktion beteiligt waren.
Laut dem Blogeintrag des Unternehmens nutzte die Operation ChatGPT, um Inhalte zu verschiedenen Themen zu erstellen, darunter auch zu den US-Präsidentschaftswahlen. Trotz der Bemühungen der Operation gibt es keine Hinweise darauf, dass die Inhalte ein großes Publikum erreicht haben.
Die Operation mit dem Namen Storm-2035 wurde im Rahmen der OpenAI-Initiative aufgedeckt, die darauf abzielt, den Missbrauch von KI für Einflussnahme zu verhindern, insbesondere im Zusammenhang mit den US-Wahlen 2024.
Die Accounts sollen in sozialen Medien lange Artikel und kürzere Kommentare zu Themen wie der US-Politik, dem Gaza-Konflikt und anderen verfasst haben. Diese wurden über Social-Media-Plattformen und Websites verbreitet, die sich als Nachrichtenagenturen ausgaben und sich an ein englisch- und spanischsprachiges Publikum richteten.
Trotz des Ausmaßes der Aktion behauptet OpenAI, dass die Auswirkungen minimal waren und die tatsächlichen Nutzer wenig oder gar nicht auf den Social-Media-Plattformen aktiv waren.
Angst vor KI-Missbrauch im US-Wahlkampf
Das Aufkommen von generativen KI-Technologien wie Deep Fakes und KI-generierten Bildern hat die politische Landschaft stark beeinflusst, insbesondere vor wichtigen Wahlen.
OpenAI arbeitet mit der US-Regierung und Partnern aus der Industrie zusammen, um solche Aktivitäten zu überwachen und zu bekämpfen. Das Unternehmen betont, wie wichtig Transparenz und Sicherheit bei der Nutzung von KI-Technologien sind.
Vor kurzem löste ein Deepfake-Video der US-Vizepräsidentin Kamala Harris, das von Elon Musk geteilt wurde, eine breite Online-Kontroverse aus. Dieser Vorfall zeigt die wachsende Besorgnis über den Einsatz von KI zur Verbreitung von Fehlinformationen. Er ist nur ein Beispiel dafür, wie KI-generierte Inhalte als Waffe eingesetzt werden können, um die öffentliche Meinung zu manipulieren und möglicherweise politische Ergebnisse zu beeinflussen.
This is amazing 😂
pic.twitter.com/KpnBKGUUwn— Elon Musk (@elonmusk) July 26, 2024
Darüber hinaus hat Midjourney im Vorfeld der US-Wahlen die Erstellung von Bildern blockiert, die wichtige politische Persönlichkeiten wie Joe Biden und Donald Trump zeigen. Dies spiegelt das wachsende Bewusstsein und die Verantwortung von Technologieunternehmen wider, den möglichen Missbrauch von KI in der Politik einzudämmen.