Deepfakes (was ich von der re:publica mitgenommen habe #1)
Ich habe am letzten Feiertag meine Erkenntisse im Anschluss an die rp24 runtergeschrieben und werde sie nun Stück für Stück mit euch teilen. Heute geht es um Deepfakes.
Die digitale Gesellschaft bereitet sich auf den Einschlag von Deepfakes im großen Stil vor
Deepfakes sind realistisch wirkende Medieninhalte, die durch KI abgeändert, erzeugt oder verfälscht worden sind. Deepfakes können Text, Audio, Bilder und Video betreffen. Und sie werden immer mit dem Vorsatz der Täuschung erzeugt. Deepfakes entstehen also nicht ausversehen. Die Motivation dafür können Betrug, Erpressung, Desinformation, Manipulation aber auch Kunst oder Unterhaltung sein.
Je nach Medium sind Deepfakes schon jetzt extrem schwer zu erkennen. Es bedarf etwa nur wenige Minuten Audioaufnahme um eine Stimme mit KI nachzumachen. Und um zu beweisen, dass ein Text von einem bestimmten LLM erzeugt wurde, braucht man aktuell 40.000 Seiten dieses Textes zur Erkennung. In der ersten Folge vom Podcast “Autonomie und Algorithmen” sprechen Benjamin und Christiane unter anderem auch darüber, dass es aktuell kein zuverlässiges Mittel gibt, um Texte zu erkennen, die von einem LLM erzeugt wurden:
Was kann ich tun, um Deepfakes zu erkennen?
Da Widerlegen aufgrund von formalen Eigenschaften schwer bis unmöglich ist, müssen wir uns im Augenblick in unseren Bestrebungen zur Aufdeckung von Deepfakes auf den Inhalt konzentrieren (ist er realistisch? Gibt es andere Quellen dafür?) und den Kontext betrachten (Ist die Quelle zuverlässig? Ist der Fake schon einmal in der Vergangenheit woanders aufgetaucht – denn 30 % aller Fakes sind wiederkehrend).
Ich arbeite im Community Management für Samsung und bei uns im ist es schon heute so, dass User*innen uns als Autorität betrachten, um Gewinn-Benachrichtigungen, Sonderangebote, Pressemeldungen und Co. über Samsung für sie einzuordnen. Es ist absehbar, dass diese Aufgabe, falsch von echt zu unterscheiden, zukünftig noch mehr Gewicht bei uns bekommen wird.
Viele Infos habe ich aus diesem Talk (die anderen relevanten Talks zum Thema wurden nicht aufgezeichnet):
Falsche Bilder erkennnen
Insbesondere bei Bildern sind Deep Fakes im Augenblick noch nicht das große Problem. Ganz einfach, weil es noch recht kompliziert ist, den richtigen Prompt für einen guten Deep Fake zu finden. Daher wird viel öfter ein Bild aus dem Kontext gerissen und/oder einem anderen Kontext präsentiert, um so Desinformation zu erzeugen. Das beste Mittel, um das aufzudecken, ist eine Reverse Image Search. Dazu wurde diese spannende Browser-Erweiterung vorgestellt:
https://chromewebstore.google.com/detail/fake-news-debunker-by-inv/mhccpoafgdgbhnjfhkcmgknndkeenfhe
Mehr dazu in meiner zweiten Erkenntnis, die ich wahrscheinlich morgen mit euch teilen werde. Ihr dürft gespannt bleiben.