Abgezockt!

Über den Enkeltrick haben wir von luckx – das magazin schon berichtet. Doch anscheinend müsste das wohl jeder Woche erfolgen. Denn täglich werden ältere Mitmenschen abgezogen. Doch es gibt noch viele weitere Tricks, vor denen wir warnen wollen.

Unwesen

Betrüger und Betrügerinnen treiben immer raffinierter ihr Unwesen. Mithilfe des Internets, über Anrufe und mit neuester Technik versuchen sie, Geld von Ihnen zu ergaunern. Dabei nutzen sie auch künstliche Intelligenz, um ihre Opfer zu täuschen. Mit einer guten Portion Skepsis lässt sich schon von vornherein erahnen, wenn jemand an unser Geld möchte. Dabei sollten wir uns nicht unter Druck setzen lassen. Und bevor es zu einer Geldzahlung oder ähnlichem kommt, sollten Familienmitgliedern oder Freunden eingeweiht werden. Unbedingt sollte der Rat und die Unterstützung der Polizei angefordert werden. Denn dort sind die Profis, die leider täglich damit zu tun haben und wissen genau, was zu tun ist.

Die Vorstellung macht wütend: Das mühsam erarbeitetes Geld reißen sich Betrüger und Betrügerinnen unter den Nagel. Unrühmliche Bekanntheit hat mittlerweile das Phishing. Meist unerkannt räumen die Übeltäter das Konto ab, weil versehentlich sensible Daten und Passwörter herausgegeben wurden. Doch darüber hinaus gibt es noch andere Methoden, um skrupellos an unser Geld zu kommen. Das Perfide dabei: Oftmals werden wir dabei so manipuliert, dass wir den Tätern freiwillig das Geld aushändigen.

Das kann mir nicht passieren!

Sie denken, das kann Ihnen nicht passieren? Die Statistiken sprechen dagegen. Das Bundeskriminalamt (BKA) erfasste gemäß Cybercrime-Bundeslagebericht 136.865 Fälle für das Jahr 2022. Das macht 1,6 Fälle pro eintausend Einwohner. Zudem gibt es eine gewisse Dunkelziffer, da viele Straftaten nicht angezeigt werden – aus Scham oder weil die Betroffenen keinen Nutzen einer Anzeige erkennen. Die Aufklärungsquote liegt bei 29 Prozent. Oftmals sind bei diesen Taten ältere Menschen das Ziel, was aber niemanden davor feit, ebenfalls ins Visier der Kriminellen zu geraten. Damit wir vorbereitet sind und auch Bekannte warnen können, sind im Folgenden die bekanntesten Beispiele für Betrugsmaschen zusammengetragen.

Deep Fakes

Relativ neu sind Deep Fakes. Deep Fakes sind Videos, Bilder, Texte und Tonspuren, die echt anmuten, aber von einem Computer geschaffen wurden. Die Technik gibt es zwar schon länger, durch den Entwicklungssprung bei der künstlichen Intelligenz (KI) ist hier aber ein neues Niveau erreicht worden. Derartige Videos, Dokumente und Tonspuren zu erstellen, ist kein Problem mehr und kann sogar in Echtzeit erfolgen. Selbst eine Reihe von wichtigen Politikern wurde schon Ziel von Deep Fakes. Einige fielen auch darauf herein. So hatte beispielsweise eine russische Satiregruppe sich als Kiews Bürgermeister Wladimir Klitschko ausgegeben und unter anderem Berlins damalige Regierende Bürgermeisterin Franziska Giffey und ihr Team zumindest einige Minuten angeführt. Das Videotelefonat war offensichtlich täuschend echt.

Was der Satire dient, kommt Betrügern gerade recht. Das BKA warnt vor Deep Fakes und erklärt auf seiner Seite, wie die Fälschung von Stimmen mittels Text-to-Speech und Voice Conversion sowie die Fälschung von Gesichtern mit dem Face-Swapping-Verfahren funktioniert. Die Täterinnen und Täter nutzen die neuen technischen Möglichkeiten nicht nur im Internet, sondern auch, um Sie etwa noch gezielter am Telefon zu überlisten. Die KI kann prinzipiell bei allen der folgend genannten Betrugsmaschen zum Einsatz kommen und so die Wahrscheinlichkeit erhöhen, dass Sie zum Opfer werden.

Deep Fakes erkennen

Zwar wird die Technik immer ausgereifter und schwieriger zu enttarnen, doch gibt es auch bei Deep Fakes häufig noch kleine Hinweise, mithilfe deren sie erkannt werden können, ob möglicherweise ein Betrug vorliegt. Vorsicht gilt laut BKA spätestens bei diesen Signalen:

In Videos hat das sich bewegende Gesicht eine Art Naht am Rand, sodass eine Kante zum Hintergrund entsteht.

Feine Konturen wie bei Zähnen oder an den Wimpern sehen verwaschen und unscharf aus.

Da die Vorlage für die KI-generierte Kopie nur von einzelnen Bildern stammt, die im Internet verfügbar waren, sind mitunter die Bewegungen und die Mimik der Gesichter beschränkt oder die Ausleuchtung nicht passend zum Hintergrund.

Die Stimme klingt „metallisch“. Diese Toneinfärbung entsteht mitunter bei künstlich generierten Stimmen.

Die Aussprache wirkt monoton, manchmal falsch betont und besonders von selteneren deutschen Worten nicht akkurat.

Es gibt kurze Verzögerungen bei der Unterhaltung, wenn der Computer länger zum Antworten benötigt als ein Mensch.

Doch Achtung: Wenn diese Merkmale nicht vorhanden sind, kann es sich trotzdem um ein Deep Fake handeln. Denn die Technik wird besser und auf Profis fallen oft auch versierte Menschen rein. Fortsetzung hier.

2 Gedanken zu „Abgezockt!

Kommentare sind geschlossen.