defame Fakes

Erforschung und Entwicklung von Assessment-Werkzeugen zur Erkennung von Deepfakes

Konzeptionierung und Initiierung von gesamtgesellschaftlichen Awareness-Maßnahmen

Analyse von Bedrohungsszenarien, gesellschaftlichen, ethischen und rechtlichen Implikationen

Ob DALL E 3, Gesichtsfilter auf TikTok und Instagram oder DeepFaceLab: Technologien, die die Manipulation von Videos und Bildern ermöglichen, boomen, sind zunehmend einfacher zugänglich und markieren für viele Menschen einen Wendepunkt, wenn es um das Vertrauen in digitale Inhalte geht. Wie erkennen, was echt ist, wenn die Fakes immer realistischer sind? Von Behörden und Verwaltung über Medienorganisationen und der Privatwirtschaft bis hin zur Zivilgesellschaft sind alle mit den Herausforderungen und Gefahren durch Deepfakes konfrontiert – zum Beispiel als Bedrohung im Bereich Cybercrime , aber auch wenn es um demokratische Prozesse geht.

Im kooperativen F&E-Vorhaben defame Fakes beschäftigen wir uns daher mit der Erkennung von Deepfakes und Manipulationen in digitalen Bild- und Videoinhalten und initiieren Awareness-Maßnahmen. Ziel ist es, der kontinuierlichen Aushöhlung des Vertrauens in digitale Inhalte entgegenzuwirken, die technologischen Fähigkeiten zur Erkennung von Bild- und Videomanipulationen zu stärken und dadurch Unternehmen und die Gesellschaft zu schützen.

Die Aktivitäten des Forschungsprojekts reichen von der Generierung einer Datensammlung für die Erforschung von Assessment-Werkzeugen, über die Bewertung der Bedrohungsszenarien und daraus resultierenden Anforderungen, hin zur iterativen Konzeption von präventiven sowie reaktiven Maßnahmen. Der Fokus liegt auf den folgenden drei Kernbereichen:

Nach oben scrollen