Springender Mann mit Cap im orangenen T-Shirt
Springender Mann mit Cap im orangenen T-Shirt
Bislang vor allem Prominente Opfer

"FakeApp": Künstliche Intelligenz fügt jedes beliebige Gesicht in pornografisches Material ein

Stell Dir vor, Dein Gesicht prangt auf dem Körper einer Porno-Darstellerin und Menschen weltweit sehen Dich bei Handlungen, die Du niemals vollziehen würdest. Die "FakeApp" macht es möglich. Derzeit leiden vor allem Prominente unter dieser Software - doch auch Normalos sind nicht gefeit.

Stell Dir vor, Dein Gesicht prangt auf dem Körper einer Porno-Darstellerin und Menschen weltweit sehen Dich bei Handlungen, die Du niemals vollziehen würdest. Die "FakeApp" macht es möglich. Derzeit leiden vor allem Prominente unter dieser Software - doch auch Normalos sind nicht gefeit. 

Springender Mann mit Cap im orangenen T-Shirt
Springender Mann mit Cap im orangenen T-Shirt

Digitalisierung ist notwendig, auch wenn viele Menschen genau diese Thematik und einhergehende Problematiken unterschätzen. Wer sich etwa in sozialen Netzwerken anmeldet, hakt nicht selten die AGBs ab, ohne auch nur ein Wort gelesen zu haben. Was mit den Daten, Fotos und Videos eines jeden Nutzers passiert, ist demnach etlichen nicht klar oder schlichtweg egal. Wundert es daher, dass ein "Reddit"-User namens "Deepfakes" bereits vergangenes Jahr eine Software entwickelt hat, die es jedem ermöglicht, das Gesicht des besten Freundes, des Nachbarn, eines willkürlichen ausgewählten Instagram-Nutzers, des Chefs oder eines Prominenten in bestehende Videofrequenzen einzubauen? Nun sorgt diese Software für Furore, da in einem eigenen "Subreddit" Aufnahmen aufgetaucht sind, die Stars wie Taylor Swift oder die "Star Wars"- Schauspielerin Daisy Ridley im Handumdrehen in täuschend echte Porno-Darstellerinnen verwandeln. 

FakeApp

Das Prinzip Faceswap 

Apps wie Snapchat haben es vorgemacht und gezeigt, wie beliebt sogenannte Faceswaps sind. Dabei erkennt ein Algorithmus das Gesicht der Person, die auf einem Foto oder in diesem Fall in einem Video zu sehen ist und ersetzt dieses durch ein von "FakeApp"-Nutzern beliebig ausgewähltes. Heraus kommt Bildmaterial, das so gut gefakt ist, dass es sich für Laien auf den ersten Blick fast nicht als eine Täuschung entlarven lässt - wie etwa dieses Beispiel der Schauspielerin Daisy Ridley zeigt. 
 

Entwickler gibt Statement ab

Das österreichische Tech-Magazin "Futurezone" erklärt, wie denkbar einfach die Nutzung dieser "FakeApp" ist: "Der Aufwand für derartige Videos ist vergleichsweise gering. Man benötigt lediglich eine aktuelle Nvidia-GPU [Herstellerfirma für Grafikprozessoren, Ann. d. Red.], drei bis vier Gigabyte an freiem Speicherplatz sowie möglichst viele Aufnahmen einer Person, sodass die Algorithmen diese erkennen und in den passenden Situationen platzieren können". Was anfänglich vielleicht wie ein lustiger Zeitvertreib wirkt, kann sich für betroffene Menschen schnell zu einem Martyrium entwickeln - denn auch Kinder können Zielscheibe der perfiden Verleumdung werden. Mittlerweile weist der "Subreddit" mehrere Zehntausend Follower auf, untereinander tauschten diese bisher über 17.000 Fake-Videos aus. Gegenüber des britischen Online-Magazins für technische News, "The Register", erklärt der Entwickler der Software lapidar: "Letztendlich - man mag das nun gut oder schlecht finden - ist es unmöglich, Nutzer davon abzuhalten, mit der Software zu machen, was sie wollen. Leider heißt das auch, dass es irgendjemand missbrauchen wird".