Anmelden / Registrieren

Warum nicht einfach ein LLM verwenden?

LLMs sind leistungsstark. Sie sind jedoch keine Compliance-Engine.
Hier erfahren Sie, warum die Architektur so wichtig ist.

Beta-Version. Sanktionslisten können von den ausstellenden Behörden geändert werden.

Eine berechtigte Frage

Warum eine komplexe Pipeline aufbauen, wenn man einfach ein LLM fragen könnte?

Die Frage taucht regelmäßig auf: Warum sollte man eine fein abgestimmte hybride Pipeline – mit String-Metriken, Machine-Learning-Modellen, Schwellenwertbändern und Entity Guards – unterhalten, wenn man einfach den Namen der Abfrage und den Zieldatensatz an ein Large Language Model übergeben und fragen könnte: „Sind diese beiden Entitäten identisch?“

Das ist eine berechtigte Frage. Die Antwort besteht aus drei Teilen: Geschwindigkeit, Auditierbarkeit und Reproduzierbarkeit.

Kopf-an-Kopf: Hybrid vs. reines LLM

Über alle Kriterien hinweg, die für die Einhaltung der Produktionsvorschriften wichtig sind.

Kriterium Hybrid (heuristisch + ML) Reines LLM
Latenz Millisekunden pro Match Sekunden pro Match
Kosten bei Skalierung Sehr gering – minimaler Rechenaufwand Sehr hoch – API-Kosten pro Token
Auditierbarkeit Vollständig – jede Bewertung ist bis zum genauen Vergleich zurückverfolgbar Schlecht – Argumentation variiert, schwer zu dokumentieren
Reproduzierbarkeit 100 % – gleiche Eingabe, gleiche Ausgabe Variabel – Temperatur und Modellaktualisierungen beeinflussen die Ergebnisse
Regulatorische Akzeptanz Hoch – deterministische Regeln erfüllen die Anforderungen von BaFin, FCA, OFAC Niedrig – Black-Box-Argumentation ist schwer zu verteidigen
Massen-Durchsatz Skalierbar auf große Datensätze ohne API-Ratenbeschränkungen oder Token-Kosten Nicht geeignet für die Überprüfung von Watchlists bei Skalierung
Semantisches Verständnis Beschränkt auf programmierte Features Ausgezeichnet – Weltwissen, semantischer Kontext
Risiko von Halluzinationen Keines – deterministisch Real – ein übersehener Sanktionstreffer ist ein Compliance-Verstoß

Der hybride Ansatz

Deterministische Regeln als Grundlage. Machine Learning als Obergrenze.

Die hybride Pipeline verwendet String-Metriken und Entity Guards als Basis. Machine-Learning-Modelle können eine Score nur erhöhen, niemals senken. Dies ist eine bewusste Designentscheidung: Wenn die heuristische Pipeline „keine Match” meldet, ist diese Entscheidung mathematisch nachvollziehbar und dokumentierbar.

Stärken und Einschränkungen

Stärken

  • Regulatorische Vertretbarkeit: Regulierungsbehörden wie BaFin, FCA und OFAC verlangen Erklärbarkeit. Wenn das System eine Match ablehnt, können Sie genau dokumentieren, warum — bis hin zum Zeichenvergleich.
  • Massendurchsatz: Banken und Zahlungsabwickler überprüfen täglich Millionen von Transaktionen in Echtzeit. Jaro-Winkler- und Token-Set-Operationen dauern nur Mikrosekunden. Die Pipeline ist horizontal skalierbar ohne API-Ratenbeschränkungen.
  • Präzise Kontrolle: Wenn eine neue Quelle für False Positives auftritt — zum Beispiel ein neuer allgemeiner Begriff wie „Krypto" — fügen Sie einen Entity Guard hinzu. Die Korrektur gilt sofort und vollständig für alle zukünftigen Fälle.

Einschränkungen

  • Wartungsaufwand: Schwellenwerte und Gewichte müssen überwacht und anhand eines Ground-Truth-Datensatzes getestet werden. Aus diesem Grund gibt es die nächtliche Selbstverifikation.
  • Kontextblindheit: Wenn ein Unternehmen seinen Namen von „Twitter" in „X" ändert, versagen alle String-Metriken. Das System benötigt Metadatenbrücken — Legal Entity Identifiers oder kuratierte Alias-Listen — , um vollständige Namensänderungen zu verarbeiten.

Sanktionsprüfung, die für Audits ausgelegt ist.

Jede Bewertung ist nachvollziehbar. Jede Entscheidung ist dokumentierbar. Keine Black Boxes.

Anmelden / Registrieren