Welche Gefahren für Gesellschaft und Wirtschaft gehen von Deepfakes aus und welche Ansätze gibt es, diesen zu begegnen?

Bei unserem gemeinsam mit dem Fraunhofer AISEC veranstalteten Networking-Abend zeigten Hans Brorsen (Valid Technologies GmbH), Parya Lotfi (DuckDuckGoose), Nicolas Müller (Fraunhofer AISEC) und Kerstin Stricker (Google Deutschland GmbH), ob und wie die Erkennung von Deepfakes mit Hilfe von Technologien in Zukunft gelingen kann.

Unsere Key Take-aways:
·  War es vor einigen Jahren nur einem Expertenteam mit Hilfe von KI möglich, überzeugende DeepFakes zu entwickeln, so ist dies heute mit öffentlich zugänglichen und mittlerweile weit verbreiteten Tools wie ElevenLabs für Voice Cloning für jeden möglich.
·  DeepFakes können demokratiegefährdend wirken und die öffentliche Meinungsbildung beeinflussen, wie das Beispiel des durch einen DeepFake generierten Bildes des brennenden Pentagon zeigt, das in den USA zu einem Einbruch des Aktienmarktes führte.
·  Für den Umgang mit Deepfakes gibt es verschiedene Möglichkeiten, die kombiniert vor den negativen Anwendungsfällen von Deepfakes schützen können und einen multidisziplinären Lösungsansatz erfordern.
·  Wichtig sind Medienkompetenzen, KI-gestützte Deepfake-Erkennungssoftware oder Signaturverfahren zur Verifizierung von Inhalten mit Hilfe sogenannter Data Provenances. Letztere ermöglichen die Identifizierung digital synthetisierter Inhalte.
·  Obwohl KI-gestützte Deepfake-Erkennungssysteme viel Potenzial haben, sind sie je nach Komplexität der Deepfakes nicht fehlerfrei und funktionieren wie ein Virenscanner – ein Schutz vor gängigen Deepfake-Technologien ist besser gewährleistet als vor neuesten State-of-the-Art-Modellen.
·  Auch wenn KI mit der Entwicklung von DeepFakes zur Verbreitung von Des- und Fehlinformationen führen kann, bietet sie diverse gute Anwendungsfälle wie den Google Flood Hub oder Gemini. Sie können nur dann zum Tragen kommen, wenn die negativen Anwendungsfelder reduziert werden.