Spätestens seit Chat GPT ist Künstliche Intelligenz (KI) in der breiten Öffentlichkeit angekommen. Viele Menschen begrüßen die Erleichterungen, die KI-Tools mit sich bringen können. Andere wiederum warnen vor den Gefahren. Die gehen allerdings nicht unbedingt nur von der Künstlichen Intelligenz an sich aus, sondern auch von Kriminellen, die ihre Maschen mit Hilfe von KI verbessern wollen.
Ein aktuelles Beispiel: Schock-Anrufe. In den USA und Asien hat es bereits mehrere Fälle solcher Anrufe mit KI-Stimmen gegeben. Bei einem der spektakulärsten Fälle hat eine Mutter einen vermeintlichen Anruf ihrer Tochter bekommen, die ihr panisch mitteilt, dass sie gekidnappt worden sei. Eine männliche Stimme forderte Lösegeld in Millionenhöhe.
Die Mutter nahm den Anruf vor allem deshalb ernst, weil die Stimme ihrer Tochter täuschend echt klang. Nach einigen Minuten stellte sich zum Glück heraus, dass es ein Fake war. Wer hinter dem Schock-Anruf steckt ist bislang nicht geklärt. Allerdings zeigt sich bei diesen und anderen Fällen, wie sich Kriminelle beim Telefonbetrug weiterentwickelt haben.
Fake-Anruf: „Mama, ich habe eine Frau tot gefahren“
Bislang basieren die meisten KI-Programme, die man zum klonen von Stimmen nutzen kann, nur auf der englischen Sprache. Allerdings kommt die neue Betrugsmasche inzwischen auch nach Deutschland - auch in Nordrhein-Westfalen hat es bereits mindestens einen solchen Fall gegeben.
In Neuss wurde eine Frau Opfer eines Schock-Anrufs, bei der sich die vermeintliche Stimme ihres Sohnes am anderen Ende der Leitung gemeldet hatte. „Mama, ich habe eine Frau tot gefahren“, erklang unter Tränen die Stimme des Sohnes am Telefon, so erzählt es das betroffene Ehepaar gegenüber der Rheinischen Post. Vorher habe sich die „Polizei aus Düsseldorf“ gemeldet.
Die Stimme klang demnach so echt, dass die Mutter des vermeintlichen Sohnes „Stein und Bein“ schwor, es sei tatsächlich ihr Kind gewesen. Trotz der schockierenden Nachricht stellte die Mutter so viele Nachfragen, dass die Gegenseite irgendwann auflegte.
Die Fälle aus Neuss und den USA sind beide nochmal gut gegangen, die Opfer der Schock-Anrufe haben keinen finanziellen Schaden erlitten. Die Fälle zeigen aber auch, dass es für viele Menschen in Zukunft schwieriger werden wird, Fake-Anrufe von echten zu unterscheiden.
Immer mehr Fälle von Schock-Anrufen in NRW
Auch ohne KI ist Telefonbetrug in Deutschland ein ernsthaftes Problem. 2021 wurden in Deutschland 793.622 Fälle von Betrug angezeigt, 2020 waren es sogar 808.074. Darunter fallen alle Fälle, bei denen Kriminelle mit Hilfe unterschiedlicher Tricks versuchen, ihr Gegenüber am anderen Ende der Leitung zu täuschen. Im Regelfall sind Geld oder Wertgegenstände das Ziel.
Zum Telefonbetrug zählt unter anderem der „Enkeltrick“ aber auch Anrufe von „falschen Polizisten“. Diese sind inhaltlich meistens relativ harmlos, oft sind es vermeintliche Verwandte, die Geld haben wollen.
Die Schock-Anrufe gehen da schon weiter: Hierbei sollen die Opfer so sehr verunsichert werden, dass sie die Echtheit des Anrufs nicht hinterfragen. Die Zahl der Fälle von Schock-Anrufen in NRW ist zuletzt gestiegen, von knapp 7000 Fällen in 2021 auf rund 8200 Fällen im vergangenen Jahr.
Wenn in Zukunft nun also auch noch die Stimme nach der Person klingt, die sich angeblich am anderen Ende der Leitung meldet, werden vermutlich noch mehr Menschen auf den Telefonbetrug hereinfallen.
Stimm-Material ungewollt im Netz verteilt
Künstliche Stimmen, die wie Menschen klingen sollen, gibt es schon länger - seien es automatisch generierte Durchsagen an Bahnhöfen oder Sprach-Assistenten wie „Alexa“. Die KI geht da aber noch einen gewaltigen Schritt weiter. Zum einen kann sie Stimmen erschaffen, die in Tonlage und Emotionalität menschengleich klingen. Zum anderen kann sie auch existierende menschliche Stimmen klonen.
Really impressed by the acting you can generate with @elevenlabsio #texttospeech! These are #AIvoices generated from text—dozens of "takes" stitched together. Breakdown thread: 1/8 #syntheticvoices #ainarration #autonarrated #aicinema #aiartcommunity #aiia #ai #MachineLearning pic.twitter.com/Xm8WWyJnur
— CoffeeVectors (@CoffeeVectors) February 1, 2023
Das sogenannte „Voice Cloning“ ist technisch gar nicht so schwierig. Emotionalität und richtige Satzstrukturen können KI wie Chat GPT bereits imitieren. Und wo es vor ein paar Jahren noch viele Sprachbeispiele benötigt hat, um eine Stimme nachzuahmen, benötigt es heute nur wenige Wörter oder Sätze.
Alles, was Kriminelle zum Klonen von Stimmen brauchen, sind eine Computersoftware und ein paar Minuten Audio-Material. Bei hochleistungsfähigen KI-Systemen reichen sogar wenige Sekunden. Die KI, die mit dem Material gefüttert wird, kann daraus dann eine Kopie der Stimme erstellen. Ein Text-to-Speech-System verwandelt dann den Eingabetext in eine Sprachausgabe.
Stimmen-Beispiele verbreiten viele, vor allem junge, Menschen im Internet, vor allem auf Social-Media-Plattformen. Kurze Videos bei Youtube, Instagram oder TikTok reichen schon aus, um eine gute KI zu füttern und eine Stimme kopieren zu lassen. Aber auch fingierte Anrufe können Betrügern reichen, um genug Material für das „Voice Cloning“ zu erhalten. Denn auch kurze Gespräche reichen in der Regel aus.
Kein Schutz vor „Voice Cloning“
Die schlechte Nachricht: Schutz vor „Voice Cloning“ gibt es bislang noch nicht. Opfer von Schock-Anrufen mit KI sollten also nach wie vor auf bewährte Mittel zurückgreifen, um Täter zu entlarven. Das sollten Sie tun, wenn Sie Schock-Anrufe von angeblichen Verwandten erhalten:
- Viele Rückfragen stellen, vor allem zu persönlichen Dingen, die die Täter nicht wissen können. Auch mit Kindern oder Enkeln im Vorfeld vereinbarte Code-Wörter können helfen, Täter schnell zu entlarven.
- Den Verwandten unter der bekannten Nummer anrufen.
- Keine Details zu persönlichen oder finanziellen Verhältnissen preisgeben.
- Lassen Sie sich nicht in ein Gespräch verwickeln oder unter Druck setzen. Legen Sie einfach auf.
- Falls Sie einen solchen Anruf erhalten haben, wenden Sie sich bitte umgehend an Ihre örtlich zuständige Polizeidienststelle, um den Vorfall zur Anzeige zu bringen.
Elon Musk und Hunderte Forscher fordern Denkpause für KI: „Drohende Katastrophe“
ChatGPT besteht Test zum Steuerberater: Universität Duisburg-Essen testet KI
Wird eine KI bald meinen Job übernehmen?: „Ganz viele Berufe werden wegfallen“