Cyberkriminelle nutzen den Erfolg bekannter KI-Tools aus und tarnen Malware als vermeintlich seriöse Apps. Nutzer werden durch vertraute Namen in die Falle gelockt und geben unwissentlich umfangreiche Berechtigungen frei. Die gefälschten Anwendungen sammeln sensible Daten oder laden komplette Malware-Frameworks nach. Nur durch Aufmerksamkeit, Aufklärung und sichere Arbeitsprozesse können Nutzer und Unternehmen solche Angriffe abwehren.
Cyberkriminelle begnügen sich nicht nur damit, dass sie KI-Tools mit Prompt Injection oder Prompt Hacking manipulieren. Sie setzen darüber hinaus auch eigene Tools wie FraudGPT und andere ein. Nun tritt ein neuer Trend hinzu. Einige Gruppen bieten bösartige Apps zum Download an, die sich als beliebte KI-Tools wie ChatGPT und DALL-E ausgeben. Nutzer werden über die üblichen Maschen dazu verleitet, Malware auf ihren Mobilgeräten zu installieren.
Forscher von Appknox haben genau das herausgefunden und weitere Fälle werden folgen. Beispiele in der Untersuchung sind der «DALL·E 3 AI Image Generator» und eine bösartige Version der früheren App «WhatsApp Plus». Diese Apps geben sich nach Installation umfangreiche Berechtigungen und sammeln personenbezogene Daten.
Andere bösartige Apps wiederum laden komplette Malware-Frameworks herunter, die Anmeldedaten kopieren und damit Betrug betreiben. Mit den Berechtigungen und Informationen sind die Cyberkriminellen in der Lage, Einmalpasswörter oder Passcodes abzufangen und sich dadurch in Sessions einzuschalten. Mit der Verbreitung der KI-Tools steigt auch das Missbrauchspotential, und genau darauf zielen Cyberkriminelle ab. Schließlich ist das Vertrauen der Nutzer in bestimmte Marken und Unternehmen so groß, dass sie nicht auf Warnhinweise wie falsche Schreibweisen oder mysteriöse Angebote oder Aktionen reagieren. Die Angreifer machen sich dies zu Nutze und fälschen lieber bekannte KI-Tools als eigene entwickeln zu müssen. Beworben bzw. verbreitet werden sie über App Stores, mit Phishing oder anderen Social Engineering-Methoden.
Dagegen hilft nur, aufmerksam zu bleiben und sich über Forschungsergebnisse zu Betrügereien wie die genannten, zu informieren. Nur dann wird es gelingen, ausreichend viele Nutzer zu sensibilisieren und zu warnen. Vor allem für Unternehmen bedeutet dies eine größere Gefahr, wenn ihre Mitarbeiter KI ohne Erlaubnis der IT-Abteilung, sogenannte Schatten KI, einsetzen, um effizienter im Joballtag zu werden.
KI-gestützte Schulungen für Security Awareness können Mitarbeitern ein gesundes Misstrauen vermitteln, damit sie Social Engineering-Taktiken wie diese erkennen können. Anbieter wie KnowBe4 befähigen Mitarbeiter, jeden Tag intelligentere Sicherheitsentscheidungen zu treffen. Bereits jetzt vertrauen über 70.000 Organisationen weltweit auf die Trainings der KnowBe4 HRM+ Plattform, um ihre Sicherheitskultur zu stärken und menschliche Risiken zu reduzieren.
Autor: Dr. Martin Krämer, CISO-Advisor bei KnowBe4.
