Es ist ein gewöhnlicher Nachmittag, als Sabine M. aus Buchholz einen Anruf von ihrem Sohn erhält. Aufgelöst bittet er um Geld – er habe einen Unfall verursacht, brauche sofort Hilfe. Die Stimme klingt eindeutig nach ihm. Ohne zu zögern überweist Sabine mehrere tausend Euro. Erst später stellt sich heraus: Ihr Sohn war wohlauf – die Stimme war KI-generiert. Betrüger hatten sie mithilfe künstlicher Intelligenz imitiert.
Der Fall ist kein Einzelfall. Immer häufiger nutzen Kriminelle die Möglichkeiten generativer KI, um Menschen gezielt zu täuschen.
Künstliche Intelligenz schreibt Texte, malt Bilder und kann Stimmen täuschend echt nachbilden. Anwendungen wie ChatGPT oder LeChat zeigen, wie mächtig diese Systeme geworden sind. Doch dieselben Werkzeuge, die den Alltag erleichtern sollen, eröffnen Cyberkriminellen neue Wege, Vertrauen zu missbrauchen – etwa durch realistisch wirkende Phishing-Mails, gefälschte Profile oder manipulierte Videos.
Eine E-Mail, die scheinbar von der Hausbank stammt. Eine WhatsApp-Nachricht vom „Chef“. Ein Anruf der „Tochter in Not“ – alles wirkt authentisch, doch in Wahrheit steckt ein Betrugsversuch dahinter.