Deepfakes sind mit Hilfe von Künstlicher Intelligenz (KI) manipulierte audio-visuelle Medieninhalte, die jedoch täuschend realistisch wirken und die Darstellung von Personen, Objekten oder der Umwelt ermöglichen. Bisher existierten Deepfakes vor allem in internetpornografischen Kontexten, allerdings migrieren sie zunehmend in neue gesellschaftliche Bereiche wie die Politik.
Laut dem Centre for Data Ethics and Innovation (2019) können vier Typen von Deepfakes unterschieden werden:
- Face swapping/Face replacement: Die Aufnahme des Gesichts einer Person (Ursprung) wird auf das Gesicht einer anderen Person (Ziel) übertragen
- Face re-enactment: Das Gesicht bzw. Gesichtszüge einer Person werden verändert
- Face generation: Neue Gesichter werden kreiert, die keine real existierende Person darstellen
- Speech synthesis: Eine reale Stimme wird hinsichtlich ihrer Tonalität und Frequenz nachgestellt, imitiert
Der Begriff „Deepfake“ wurde 2017 erstmals auf Reddit durch einen anonymen User geprägt. Dieser teilte auf der Plattform pornografische Inhalte, die mittels Face-Swapping-Technologie verändert worden waren. Die Vermehrung und Verbesserung von Deepfake-Technologie wird seitdem durch die fortschreitende Entwicklung von auf KI basierenden Verfahren begünstigt. Mittlerweile können Zehntausende von Videos im Internet als Deepfakes identifiziert werden. So sind sie sowohl auf einschlägigen pornografischen als auch auf weit verbreiteten Internetseiten und sozialen Medien wie beispielsweise YouTube, Vimeo, LiveLeak oder Dailymotion verfügbar. Seither haben vorrangig Akteure der Informatik und Rechtswissenschaft damit begonnen, sich mit dem Phänomen zu beschäftigen und Vorschläge zum Umgang mit der Technologie zu formulieren.