KI beschleunigt nicht nur Online-Betrug und -Missbrauch, sondern macht sie auch viel wirkungsvoller. Eine neue Generation von LLM-KI-Bots (Large Language Model) verkompliziert die Bedrohungslandschaft von Anwendungen und APIs, indem Angriffe (potenziell) in großem Maßstab automatisiert werden.
Allein im letzten Jahr stieg der KI-gestützte Bot-Traffic um 300 %, was die Unterscheidung zwischen gutartigen und schädlichen Aktivitäten erschwert. Gleichzeitig hat der Anstieg von FaaS (Fraud as a Service) in Untergrundmärkten die Einstiegshürden für Cyberkriminelle drastisch gesenkt.
So können selbst Anfänger ganz einfach betrügerische Aktivitäten durchführen, von Social Engineering über Phishing bis hin zu Identitätsbetrug.
Die neuesten Forschungsergebnisse und Analysen von Akamai
Wir untersuchen dieses kritische Problem in einem neuen SOTI-Bericht („State of the Internet“) Fraud and Abuse Report 2025: Charting a Course Through AI’s Murky Waters.
Basierend auf den neuesten Forschungsergebnissen von Akamai bietet der Bericht eine eingehende Untersuchung der wachsenden Betrugs- und Missbrauchslandschaft und ihrer Auswirkungen auf wichtige Branchen und Regionen. Außerdem enthält er Tipps, wie Unternehmen KI nutzen können, um Ihre Verteidigung zu stärken und gleichzeitig die Einhaltung gesetzlicher Vorschriften zu gewährleisten.
KI dreht bei Betrug und Missbrauch voll auf
Der SOTI-Bericht untersucht, wie die zunehmende Verbreitung von KI neue Möglichkeiten für Cyberkriminelle eröffnet hat. Hier einige Highlights:
KI-Bot-Traffic explodiert
Bot-Absichten sind wichtig
KI-Bots zielen auf wichtige Branchen ab
KI-Bot-Aktivitäten variieren je nach globaler Region
KI-Bot-Traffic explodiert
KI-Bot-Traffic macht täglich Milliarden von Anfragen im Akamai-Netzwerk aus und nimmt schneller zu als der allgemeine Bot-Traffic. Das macht es schwieriger, zwischen legitimen Bots, die das Geschäftswachstum fördern, und schädlichem Bot-Traffic, der mit digitalem Betrug und Missbrauch verbunden ist, zu unterscheiden. Zu den geschäftlichen Auswirkungen gehören höhere Kosten, eine Verschlechterung der Website-Performance und die Verwässerung wichtiger Kennzahlen.
Bot-Absichten sind wichtig
Der SOTI-Bericht untersucht die verschiedenen Arten von KI-Bots – von Trainings-Bots über Agent-/Assistenten-Bots bis hin zu Such-Bots – und ihre Funktionen. Während legitime Bots in ihrer Absicht transparent sind, sind andere darauf ausgelegt, der Erkennung zu entgehen.
Besonders besorgniserregend sind solche, die menschliche Interaktionen imitieren, um Schwachstellen zu ermitteln, sowie KI-Chatbots wie FraudGPT und WormGPT, die schädliche Handlungen wie Phishing und andere Cyberangriffe ermöglichen.
KI-Bots zielen auf wichtige Branchen ab
Der Handel wies die höchste Menge an KI-Bot-Aktivitäten auf und erreichte innerhalb eines zweimonatigen Beobachtungszeitraums mehr als 25 Milliarden Bot-Anfragen. Im Gesundheitswesen wird mehr als 90 % des KI-Bot-Traffics Scraping-Aktivitäten zugeschrieben, hauptsächlich durch Such- und Trainings-Bots. Andere Branchen mit erheblichem KI-Bot-Traffic sind Hightech und Publishing.
KI-Bot-Aktivitäten variieren je nach globaler Region
Zwischen Juli und August 2025 verzeichneten Akamai-Kunden in Nordamerika 54,9 % aller KI-Bot-Aktivitäten, gefolgt von EMEA (23,6 %), APAC (20,2 %) und LATAM (1,3 %). In allen Regionen machten Trainingsbots den Großteil des KI-Bot-Traffics aus.
Zuordnung in die OWASP Top 10
Der Bericht konzentriert sich auf die wichtigsten Schwachstellen und untersucht Betrug und Missbrauch anhand der OWASP Top-10-Listen. Der Bericht ordnet OWASP-bezogene Schwachstellen häufigen Bereichen im Zusammenhang mit Betrug und Missbrauch zu, um die am besten vermeidbaren Arten zu identifizieren – wertvolle Erkenntnisse zur Verbesserung der Abwehr.
Sicherheitsschwerpunkte
Der SOTI-Bericht enthält spezielle Gastkolumnen, die von Datenschutz- und Sicherheitsexperten verfasst wurden und die sich näher mit bestimmten Themen befassen.
Verteidigungsstrategien für Finanzdienstleister
John „JD“ Denning, CISO für das Financial Service Information Sharing and Analysis Center (FS-ISAC), betont die Bedeutung mehrschichtiger Abwehrmechanismen, Playbooks zur Reaktion, Bedrohungsinformationen aus allen Quellen und eines kollaborativen Ansatzes, der sich auf die kollektive Verteidigung konzentriert.
Das Gleichgewicht zwischen Sicherheit und Einhaltung gesetzlicher Vorschriften bei KI-Verteidigungsstrategien finden
James A. Casey, Vice President und Chief Privacy Officer bei Akamai, untersucht die globale KI-Compliance-Landschaft. Er bietet Best Practices für die Einführung eines flexiblen, risikobasierten Governance-Modells, um neue KI-Vorschriften zu erfüllen und gleichzeitig die Geschwindigkeit, Skalierbarkeit und Präzision zu wahren, die für den Schutz vor automatisierten Angriffen erforderlich sind.
Entschärfung der Bedrohung
Der SOTI-Bericht empfiehlt auch Möglichkeiten, die Bedrohung durch KI-gesteuerten Betrug und Missbrauch effektiv abzuwehren, indem technische Kontrollen mit klaren Unternehmensrichtlinien und fortlaufender Überwachung kombiniert werden.
Zu diesen praktischen Tipps gehören risikobasierte Bot-Verwaltung und -Überwachung, KI-spezifische Sicherheitskontrollen, die Verwendung etablierter Frameworks wie der von OWASP entwickelten und die Implementierung einer umfassenden API-Sicherheitsstrategie, die den gesamten API-Lebenszyklus umfasst.
Der KI einen Schritt voraus
Aus unserer Forschung wird eines klar: KI zeigt sich als der wichtigste Faktor für Veränderungen bei Online-Betrug und -Missbrauch und verändert sowohl Angriffs- als auch Verteidigungsstrategien.
Ein klares Verständnis dieser sich schnell entwickelnden Bedrohung – und darüber, was Sie tun können, um Ihr Risiko zu reduzieren – ist eine entscheidende Priorität.
Laden Sie den State of the Internet (SOTI) Fraud and Abuse Report 2025: Charting a Course Through AI’s Murky Waters herunter, um mehr zu erfahren.
Tags