im vergangenen Newsletter hatten wir auf eine KI hingewiesen,
die die Mona Lisa zum Sprechen bringt. Eine lustige Spielerei, denkt man vielleicht leichtfertig. Dass die Möglichkeit, Videos zu manipulieren, echte Herausforderungen bringt, war fast zeitgleich zu beobachten, als ein Film der amerikanischen Politikerin Nancy Pelosi erschien. Sie spricht in dem Video langsam, wirkt betrunken. Das Video ist manipuliert und ein Vorgeschmack auf sogenannte Deepfakes – Videos, in denen Menschen Dinge in den Mund gelegt werden, die sie nie gesagt haben.
Das kann eine Herausforderung für Politik und Gesellschaft werden. Vor allem, wenn etwa Facebook sich wie in dem Pelosi-Fall weigert,
das gefälschte Video zu löschen. Die Nutzer könnten ja selbst entscheiden, was sie für falsch oder echt halten, so die Argumentation. Youtube hingegen ließ das Video löschen.
New Yorker Forscher haben diese Woche immerhin eine Echtheitsprüfung von Bildern mithilfe von KI vorgestellt,
schreibt Science Daily. Dabei setzten die Wissenschaftler beim Fotografieren mit Hilfe eines neuronalen Netzwerks ein digitales Wasserzeichen in das Bild. An einer entsprechenden Lösung für Videos haben die Forscher noch nicht gearbeitet,
berichtet WIRED, theoretisch sei dies allerdings auch machbar.
Es bliebe sowieso die Herausforderung, dass eine solche Sicherheitsfunktion in allerlei Kameras eingebaut werden müsste. Demnach ist eine schnelle Lösung für das Deepfake-Problem bisher nicht in Sicht.
Bleiben Sie also schlau, beste Grüße, Nikolaus Röttger