Russland nutzt die KI von OpenAI für Desinformation gegen die Ukraine – FT

Während der Operationen Doppelganger und Bad Grammar versuchten die Russen, der Ukraine die Unterstützung ihrer Partner zu entziehen, indem sie Inhalte mit Hilfe neuronaler Netze erstellten.

Einrichtungen, die mit Russland, China, dem Iran und Israel in Verbindung stehen, nutzen Werkzeuge der künstlichen Intelligenz von OpenAI, um Desinformationen zu erstellen und zu verbreiten, insbesondere über den Krieg in der Ukraine, schreibt Financial Times.

In dem Bericht von OpenAI heißt es, dass ihre KI-Modelle in fünf verdeckten Operationen eingesetzt wurden. Inhaltlich ging es um den Krieg in der Ukraine, den Konflikt im Gaza-Streifen, die Wahlen in Indien sowie um die Politik in Europa, den USA und China. KI wird auch zur Produktivitätssteigerung eingesetzt, z. B. bei der Code-Fehlersuche und der Erforschung von Aktivitäten in sozialen Medien.

Die russische Operation Doppelganger zielte darauf ab, die Unterstützung für die Ukraine zu untergraben, während die Operation Bad Grammar OpenAI-Modelle nutzte, um Code für einen Telegram-Bot zu debuggen und kurze Kommentare zu politischen Themen zu erstellen, die auf Telegram geteilt werden sollten.

Das chinesische Spamflag-Netzwerk verwendete OpenAI-Tools zur Erstellung von Texten und Kommentaren im sozialen Netzwerk X, um Pekings Interessen im Ausland zu fördern. Das israelische Unternehmen STOIC nutzt KI, um Artikel und Kommentare auf Instagram, Facebook und X zu erstellen.

Die Politik von OpenAI verbietet die Verwendung ihrer Modelle zur Täuschung oder Irreführung. Das Unternehmen erklärte, es arbeite daran, Desinformationskampagnen zu erkennen und Instrumente zu deren Bekämpfung zu entwickeln. OpenAI-Vertreter wiesen darauf hin, dass sie die Arbeit der Angreifer bereits erschwert haben und ihre Modelle sich wiederholt geweigert haben, die gewünschten Inhalte zu generieren.

Ben Nimmo, OpenAIs leitender Forscher in der Abteilung Intelligence and Investigations, sagte, dass der Einsatz von OpenAI-Modellen in Desinformationskampagnen “leicht” zugenommen habe, aber die Geschichte zeige, dass Beeinflussungsoperationen plötzlich zunehmen können, wenn niemand nach ihnen sucht.

Das könnte dir auch gefallen
Bemerkungen
Loading...

Diese Website verwendet Cookies, um Ihr Erlebnis zu verbessern. Wir gehen davon aus, dass Sie damit einverstanden sind, aber Sie können sich dagegen entscheiden, wenn Sie es wünschen. Akzeptieren Mehr lesen