Junge Frau telefoniert am Handy vor einer Internet- bzw. Computer-Server-Anlage (gestellte Szene)
APA/HANS KLAUS TECHT
APA/HANS KLAUS TECHT
Chronik

Warnung vor Betrug mit KI

Die Entwicklung und Nutzung von Künstlicher Intelligenz schreitet schnell voran, und sie wird zunehmend auch von Kriminellen genutzt, die sie einsetzen, um ihre Opfer zu täuschen. Damit werden Betrugsmaschen noch professioneller, und es sei noch leichter, darauf hereinzufallen, warnt die Polizei.

Hinter einem Gesicht und einer Stimme muss kein Mensch stecken, denn mittels Künstlicher Intelligenz (KI) ist es möglich, beides zu fälschen, etwa am Telefon oder über Videokonferenz. Gesichter, Stimmen, Videos und sogar ganze Dialoge können künstlich erzeugt werden und Kriminelle können sich dadurch leichter als bekannte Personen ausgeben und vorgeben zum Beispiel die Tochter oder ein Freund zu sein.

In Tirol seien zwar noch keine derartigen Betrugsfälle bekannt und die Fälschungen sind teilweise noch fehlerbehaftet, die Entwicklung schreite aber enorm voran. Die Polizei möchte deshalb vermehrt über die Gefahren von Künstlicher Intelligenz aufklären.

Codewort kann helfen

In Tirol wird laut Landeskriminalamt fast täglich ein Fall von Telefon- oder SMS-Betrug angezeigt, dazu gehören bekannte Betrugsmaschen wie der Neffen- oder Nichtentrick oder falsche Polizisten. Wenn Betrüger dafür allerdings Künstliche Intelligenz einsetzen, können diese Tricks viel schwieriger enttarnt werden, erklärt Hans-Peter Seewald, Leiter der Abteilung für Kriminalprävention im Landeskriminalamt Tirol.

Es sei deshalb Vorsicht geboten, nicht nur bei unbekannten Anrufern, sondern auch bei bekannten Stimmen und Personen. Wenn am Telefon, per SMS- oder WhatsApp-Nachricht jemand vorgibt, ein Familienmitglied oder Freund zu sein, sollte man im Zweifelsfall diejenige (echte) Person über die gewohnte Telefonnummer kontaktieren und nachfragen, so Präventionsexperte Seewald.

Im privaten Bereich könnte man sich ein Codewort ausmachen. Das kann man bei einem Anruf erfragen, um zu überprüfen, ob hinter einer Stimme auch die richtige Person steckt. Seewald weist außerdem darauf hin, dass es mittlerweile für Kriminelle möglich sei, vorzutäuschen, von einer anderen Telefonnummern anzurufen. Das heißt, die Nummer, die bei einem Anruf oder einer SMS am Display erscheint, muss nicht unbedingt die des Anrufers oder der Anruferin sein.

Videos können auch gefälscht sein

Auch gefälschte Videos werden immer überzeugender. Bei Videokonferenzen sollte man deshalb etwa auf unscharfe Übergänge zwischen Gesichtern und dem Hintergrund und asymmetrische Brillen achten, diese seien oft ein Hinweis auf gefälschte Videos und Gesichter, sagt KI-Experte Sven Kurras, Director of Analytics bei RISK IDENT. „Wenn Teile von Bildern oder Videos eine unterschiedliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“

Wichtig sei auch das Bauchgefühl: Verhält sich die andere Person untypisch oder gibt es Auffälligkeiten in der Mimik, bei den Mundbewegungen, den Zähnen, beim Blinzeln oder der Lippensynchronität? Auch eine andere Aussprache, Betonung, Wortwahl oder Dialekt als gewohnt, können laut dem KI-Experten Alarmsignale sein.

KI macht Betrugs-E-Mails überzeugender

Auch bei anderen Betrugsmaschen spiele KI eine immer wichtigere Rolle, betrügerische E-Mails werden beispielsweise schwieriger zu erkennen. Rechtschreib- und Sprachfehler waren oft ein Hinweis darauf, dass es sich um einen Betrug handeln könnte, doch diese werden durch KI immer weniger. Sollte man eine E-Mail seiner Bank oder einer anderen Organisation erhalten, die verdächtig erscheint, sei es auch hier ratsam, nicht gleich zu antworten und über die offiziellen Telefonnummern und Kontaktdaten direkt mit der Bank oder Organisation in Kontakt zu treten, sagt Hans-Peter Seewald vom Landeskriminalamt Tirol.