Der Einsatz von KI in der Betrugsprävention wird oft vereinfacht dargestellt: Algorithmus rein, Betrug raus. In der Praxis braucht es jedoch deutlich mehr. Der Beitrag beleuchtet, warum regelbasierte Systeme weiterhin das Fundament moderner Risikosteuerung bilden und wie KI diese sinnvoll ergänzt. Entscheidend sind nicht Datenmengen, sondern deren intelligente Verarbeitung, laufende Anpassung und klare Verantwortung. Anhand realer Anwendungsfälle wird deutlich, warum Betrugsprävention ein permanenter Balanceakt zwischen Sicherheit, Akzeptanz und Wirtschaftlichkeit bleibt.
Wer glaubt, Risikoentscheidungen vollständig an «die KI» delegieren zu können, unterschätzt moderne Zahlungssysteme. Erfolgreiche Betrugsprävention lebt vom Zusammenspiel aus klaren Regeln, datengetriebenen Modellen und operativer Feinjustierung. Dabei geht es nicht zuletzt um unternehmerische Verantwortung.
Kaum ein Thema wird im Payment- und Risk-Umfeld derzeit so emotional, teilweise auch so verkürzt diskutiert wie der Einsatz von Künstlicher Intelligenz (KI) in der Betrugsprävention. In vielen Gesprächen entsteht der Eindruck, als ließe sich ein historisch gewachsenes Regelwerk mit einem KI-Modell schlicht abschalten: KI rein, Betrug raus. Die Realität ist – wie so oft – deutlich weniger plakativ. Und deutlich anspruchsvoller. Der implizite Marktkonsens ist heute vielmehr: Die aktuelle Welt braucht weiterhin erprobte Fraud-Regeln – ergänzt um KI. Nicht als Übergangslösung, sondern als dauerhaftes Zielbild.
Regeln als Fundament moderner Betrugsprävention
Regelbasierte Systeme haben dabei ein Imageproblem. Sie gelten als unflexibel, aufwendig und angeblich inkompatibel mit modernen datengetriebenen Ansätzen. Dabei wird häufig übersehen, dass gerade diese Regeln jedem Modell einen stabilen Rahmen geben, in dem es sinnvoll wirken kann. Sie definieren harte Grenzen, nicht verhandelbare Ausschlusskriterien, regulatorische Leitplanken und bekannte Betrugsmuster – sozusagen die Sicherheitsgurte des Systems.
Aber – und das ist entscheidend: Niemand sollte starre Regeln nach dem Prinzip «set it and forget it» betreiben. Auch Regeln müssen fortlaufend an neue Betrugsmuster, regulatorische Anforderungen und Marktveränderungen angepasst werden. Betrug ist dynamisch – und jedes statische System verliert ohne Pflege zwangsläufig an Wirkung.
Unzer arbeitet seit vielen Jahren mit genau diesem Ansatz – lange bevor KI zum Schlagwort wurde. Logistische Regressionen, Scorecards und regelbasierte Entscheidungslogiken sind keine neuen Erfindungen, sondern etablierte Methoden, mit denen viele der stabilsten und erfolgreichsten Risikosysteme seit vielen Jahren arbeiten. Diese Verfahren erfüllen alle Kriterien, die KI definieren: Sie automatisieren Entscheidungen, lernen aus historischen Daten, erkennen Muster und leiten Wahrscheinlichkeiten ab. Vor allem aber sind sie erklärbar – ein Aspekt, der im regulierten Zahlungsverkehr nicht verhandelbar ist.
Verantwortung verändert Systeme
In der Praxis bedeutet das für uns, dass wir jährlich über Transaktionen im mittleren, zweistelligen Millionenbereich in Echtzeit entscheiden. Grundlage dafür ist ein sehr schlanker Datenbestand: im Kern das, was man aus einem Telefonbuch kennt, ergänzt um die E-Mail-Adresse. Es gibt weder eine manuelle Prüfung noch eine nachträgliche Korrekturmöglichkeit, kein «wir schauen uns das später noch einmal an». Stattdessen muss jede Entscheidung im Moment der Transaktion «sitzen».
Was diesen Ansatz besonders anspruchsvoll macht, ist die wirtschaftliche Verantwortung dahinter. Modelle sehen anders aus, wenn man selbst haftet. Unzer trägt das volle Ausfallrisiko für rund 1,5 Milliarden Euro, die jährlich über die Plattform laufen. Wer Risiko trägt, braucht ein belastbares Verständnis von Entscheidungslogiken, Regeln und Conversion-Effekten. Betrugsprävention und Umsatzoptimierung für den Händler sind dann keine Gegensätze mehr, sondern zwei Seiten derselben Medaille.
Wo Daten knapp sind, zählt Verarbeitung
Wie tragfähig dieses Zusammenspiel aus Regeln, Modellen und wirtschaftlicher Verantwortung ist, zeigt sich besonders in Anwendungsfällen mit hoher Unsicherheit und begrenzter Datenbasis – etwa im Buy now, Pay Later (BNPL)-Umfeld. Gerade hier liegt naturgemäß nur eine begrenzte Menge an Primärdaten vor: Hier sind klassische Bonitätsinformationen zwar verfügbar, aber für die Betrugserkennung oft nicht aufschlussreich. Der entscheidende Hebel liegt daher nicht in der Datenmenge, sondern in deren intelligenter Verarbeitung.
Zentrale Bedeutung gewinnen dabei sogenannte schwache Signale wie Gerätekennungen (Device Fingerprints), Zeitstempel, Adressmuster oder Verhaltensabfolgen. Für sich genommen mögen diese Informationen unscheinbar wirken; in ihrer Kombination ermöglichen sie jedoch ein präzises Risikobild. Das senkt nicht nur die Betrugsquote, sondern wirkt sich unmittelbar auf die Akzeptanzraten aus. Jede vermiedene Fehlablehnung ist ein Gewinn für Händler, Kunden sowie den Dienstleister.
Moderne KI-Modelle setzen genau an diesem Punkt an: Sie sind in der Lage, aus fragmentierten, schwach korrelierten Informationen belastbare Risikoindikatoren abzuleiten, ohne dabei auf Transparenz und Nachvollziehbarkeit zu verzichten. Damit erweitern sie klassische Algorithmen.
Ein zusätzlicher Vorteil liegt in der automatisierten Erkennung von Auffälligkeiten: Ungewöhnliche Muster lassen sich schneller, präziser und mit deutlich geringerem personellen Aufwand identifizieren als in traditionellen Setups. Das erhöht die Reaktionsgeschwindigkeit und entlastet operative Teams – ein entscheidender Faktor bei steigendem Kostendruck.
Wenn Risiko nicht eindeutig ist
Trotz aller Fortschritte bleibt eine unbequeme Wahrheit: Auch mit hoch entwickelten Modellen werden aktuell bis zu 1 von 20 Anfragen in manchen Zahlarten aufgrund unzureichender Datenlage abgelehnt. Gleichzeitig wissen wir, dass längst nicht jede dieser Anfragen betrügerisch ist. Ein erheblicher Teil entfällt auf legitime Kunden, deren Profil schlicht nicht ausreichend validierbar ist. Die Kunst besteht darin, Modelle kontinuierlich so weiterzuentwickeln, dass diese Lücke kleiner wird, ohne das Risiko unkontrolliert zu erhöhen. Risikomanagement bleibt ein Balanceakt.
Besonders schwer zu erkennen ist dabei der sogenannte Erstparteienbetrug (1st party fraud), teilweise auch als «freundlicher Betrug» (friendly fraud) bezeichnet. Dabei fechten z. B. Karteninhaber eine grundsätzlich legitime Transaktion an, indem sie angeben, den Kauf nicht autorisiert zu haben, die Ware nicht erhalten zu haben oder dass diese nicht der Beschreibung entsprochen habe. In diese Kategorie fällt beispielsweise ein Kind, das die Kreditkarte der Eltern benutzt, ohne dass diese es mitbekommen; aber auch Personen, die eine Rückerstattung verlangen, obwohl sie die Ware fristgerecht bekommen haben.
Gerade für kleine und mittlere Händler kann das schnell teuer werden. KI-gestützte Verfahren zur Erkennung von Auffälligkeiten helfen, entsprechende Muster frühzeitig zu identifizieren – häufig mit besseren Ergebnissen und deutlich geringerem manuellen Aufwand als klassische Prüfprozesse.
Entscheidend ist dabei auch das Umfeld: Ohne einen geeigneten Zahlungspartner und verlässliche logistische Prozesse kann dieses Problem schnell eskalieren. Positiv ist, dass europäische Kartenherausgeber dieses Thema inzwischen aktiv adressieren und auf ihrer Seite gegensteuern. In den USA hingegen dominiert vielerorts noch ein deutlich älteres Verständnis von Rückbelastungen – ein Unterschied, den man kennen sollte, wenn man in diesen Märkten tätig ist.
Was am Ende zählt: Akzeptanz, Risiko und laufende Feinjustierung
Dass sich dieser Aufwand lohnt, zeigen die Zahlen. Mit eigenen, einfachen Modellen lassen sich in Märkten wie Deutschland rund vier von fünf Käufen zuverlässig abwickeln. Mit spezialisierten Dienstleistern wie Unzer sind Akzeptanzraten von über 90 Prozent realistisch. Dieser Erfolg beruht jedoch nicht auf einem statischen Setup, sondern auf der kontinuierlichen Feinjustierung von Regeln, Schwellenwerten und Modellen. Das Ergebnis ist eine Win-Win-Win-Situation: Händler erzielen Umsatz, Kunden erleben einen reibungslosen Kaufprozess, und der Zahlungsdienstleister verdient nur bei erfolgreicher Transaktion.
Die zentrale Erkenntnis aus der Praxis lautet deshalb: Starre Regeln sind kein Anachronismus, sondern ein notwendiges Fundament. Sie definieren regulatorische Mindeststandards, klare Ausschlusskriterien und nachvollziehbare Leitplanken. KI baut darauf auf, priorisiert, lernt und optimiert. Echte Risikointelligenz entsteht dort, wo Stabilität und Lernfähigkeit zusammenspielen. Wer das beherrscht, schafft robuste Systeme – auch in einer Welt, in der Betrug immer kreativer wird. KI ist kein Zauberstab. Aber in den Händen des Risikomanagements ist sie ein verdammt gutes Werkzeug.
