Fakebilder oder -videos im Internet werden zu einem immer größeren Problem. Plötzlich sagen Politiker in sogenannten Deepfakes Dinge, die sie niemals gesagt haben. Aber auch wir selbst können betroffen sein, wenn wir in ein Video hineinkopiert werden, in dem wir ganz bestimmt nicht auftauchen wollen. Das kann ein Video sein, in dem wir eine Straftat begehen oder ein Sex-Video, in dem wir wider Willen auf einmal eine Hauptrolle spielen.
Deepfakes werden leider immer einfacher
Die Technik erleichtert es immer mehr, solche Deepfakes zu produzieren und zu veröffentlichen. Mit wenig technischem Verständnis lassen sich Gesichter und Stimmen tauschen und Menschen damit in einem völlig anderen Umfeld und Kontext darstellen. Die Qualität solcher Fakes wird dabei immer besser und die Betroffenen haben es deutlich schwerer, das vermeintlich Offensichtliche als Lüge zu enttarnen. Und auch für die Zuschauer wird es zunehmend schwieriger, zwischen authentischen Inhalten und verändertem Content zu unterscheiden.
Die Szenarien für den Einsatz solcher Deepfakes werden dabei immer umfangreicher. Zum einen setzen Kriminelle sie ein, um Personen gezielt zu verleumden oder den Ruf zu ruinieren – Stichwort Sex-Videos. Aber Deepfakes kommen auch zum Einsatz, um weitere Straftaten wie einen Betrug zu begehen. So können Deepfakes verwendet werden, um Phishing-Attacken auszuführen, also Daten und Informationen abzufragen. Wer würde etwa nicht Auskunft erteilen, wenn man am Telefon die Stimme des Chefs zu erkennen glaubt, die in Wirklichkeit von Betrügern manipuliert ist? Immer wieder werden solche imitierten Stimmen dazu eingesetzt, um Transaktionen auszulösen, etwa die Freigabe und Überweisung einer Rechnung.
Die Folgen können verheerend sein
Die Konsequenzen von solchen Videos können für die Betroffenen massiv sein. Sie reichen vom Reputationsverlust im privaten und beruflichen Umfeld bis zu finanziellen Einbußen oder dem Vorwurf, selbst eine Straftat begangen zu haben. Oft stehen am Ende solcher Attacken massive psychische Erkrankungen der Betroffenen. Und es kann jeden von uns treffen, denn für ein Deepfake braucht es kaum mehr als ein Profilfoto von Facebook oder Instagram, das dann technisch in vorhandene Videoaufnahmen eingebaut wird. Maximaler Schaden also mit minimalem Aufwand bei den Tätern.
Vermittler können Ängste auffangen und Lösungen anbieten
Auch wenn es zynisch klingt: Für Vermittler bietet diese Thematik durchaus Chancen. Zum einen können sie ihre Kunden sensibilisieren und mögliche Bedrohungsszenarien einmal aufzeigen. Sie können auch typische Beispiele für Manipulationen an die Kunden weiterleiten, um das Thema immer wieder aufzugreifen und natürlich auch über Möglichkeiten zur Erkennung von Gaunereien informieren. Das Internet bietet hier zahllose Beispiele und gute Informationen – allem voran die Website des Bundesamtes für Sicherheit und Informationstechnik.
Produktentwicklungen im Blick behalten
Das Thema ist aber auch für die Vermittlung relevant, denn mit dem passenden Versicherungsschutz lassen sich zwar Deepfakes nicht verhindern. Es wird aber deutlich einfacher, solche Betrugsversuche von Experten aufspüren und löschen zu lassen. Eine probate Lösung stellen hier Cyberversicherungen im privaten wie auch im gewerblichen Umfeld dar, wenn ein entsprechender Schutz gegen Deepfakes Bestandteil des Tarifs ist.
Das Thema wird in Zukunft sicherlich noch an Bedeutung gewinnen und Vermittlern ermöglichen, auch bei anderen Produkten daran anzuknüpfen. Das beste Beispiel ist aktuell die Hausratversicherung, bei der die Cyber-Sicherheit in die Produkte Einzug hält. So übernehmen manche Hausratversicherungen bereits die Kosten für die Löschung von Deepfakes sowie für die psychologische und rechtliche Erstberatung in einer solchen Situation. Auch die Rechtsschutzversicherung kann im Kontext mit Deepfakes zu einer Hilfe für die Versicherten werden. Viele Tarife bieten heute dem Opfer Unterstützung bei der Durchsetzung von Schadenersatz- und Unterlassungsansprüchen oder bei einer Strafanzeige gegen den mutmaßlichen Täter.
Titelbild: © / stock.adobe.com