OpenAI hat einen Dipfake-Detektor entwickelt, der DALL-E 3-Bilder mit 98%iger Genauigkeit identifiziert

Das Unternehmen, das ChatGPT und DALL-E entwickelt hat, hat ein Tool zur Erkennung von Bildern entwickelt, die von künstlicher Intelligenz erzeugt wurden.

Derzeit funktioniert der Klassifikator nur mit Ergebnissen, die von OpenAIs eigenem DALL-E 3 Bildgenerator erstellt wurden – aber mit hoher Genauigkeit.

OpenAI hat einen Deepfake-Detektor entwickelt, der die Bilder von DALL-E 3 mit 98%iger Genauigkeit erkennt.

Bei internen Tests hat das Tool “künstliche” Bilder in 98% der Fälle korrekt identifiziert. Der Klassifikator soll auch in der Lage sein, typische Modifikationen mit geringer Auswirkung wie Komprimierung, Beschneidung und Sättigungsänderungen zu erkennen.

OpenAI hat einen Deepfake-Detektor entwickelt, der die Bilder von DALL-E 3 mit 98%iger Genauigkeit erkennt.

Ab heute nimmt OpenAI im Rahmen des Researcher Access Programme Bewerbungen für den Zugang zum Klassifikator für die erste Gruppe von Testern entgegen, darunter Forschungslabore und wissenschaftsorientierte journalistische Non-Profit-Organisationen.

OpenAI plant außerdem, Wasserzeichen hinzuzufügen, um digitale Inhalte (Fotos oder Audio) zu markieren, die “nicht gelöscht werden können”. OpenAI wird sich der Industriegruppe C2PA anschließen, der bereits Google, Microsoft und Adobe angehören.
Vor dem Hintergrund der Wahlen in den USA und weltweit nimmt der Missbrauch von Tools der künstlichen Intelligenz zu – allein im April gingen beispielsweise gefälschte Videos von zwei Bollywood-Schauspielern, die Premierminister Narendra Modi kritisierten, online viral.
Quelle itc
Das könnte dir auch gefallen
Bemerkungen
Loading...

Diese Website verwendet Cookies, um Ihr Erlebnis zu verbessern. Wir gehen davon aus, dass Sie damit einverstanden sind, aber Sie können sich dagegen entscheiden, wenn Sie es wünschen. Akzeptieren Mehr lesen