Anmelden / Registrieren

Nächtliche Self-Verification

Recall jede Nacht nachgewiesen. Nicht angenommen.

Beta-Version. Sanktionslisten können von den ausstellenden Behörden geändert werden.

Die Anforderung

Vollständiger Recall bei Exact-Name Matches. Kein Ziel — eine Anforderung.

Ein Screening-System muss beweisen, dass es funktioniert — nicht einfach Ergebnisse liefern und hoffen. Der Standard ist eindeutig: Wenn eine designierte Person nicht unter ihrem offiziellen Namen gefunden werden kann, hat das System versagt.

Es gibt keinen akzeptablen Recall-Schwellenwert unterhalb von vollständig bei Exact-Name Matches. Alles darunter bedeutet, dass ein sanktionierter Akteur in Ihren Daten auftauchen und unentdeckt bleiben kann. Die nächtliche Self-Verification setzt diesen Standard automatisch durch.

Testdesign

Acht Quellen × sechs Konfigurationen × fünf Mutationsstufen = 144 Sitzungen pro Nacht.

Jede Entity aus jeder aktiven Quelle wird unter mehreren Bedingungen gegen sich selbst gescreent. Der Test ist keine Stichprobe — er ist vollständig. Jede Entity. Jede Nacht.

Konfigurationen und Mutationsstufen

Konfigurationen

  • Baseline: Vollständige Daten — Name, Entity-Typ, Geburtsdatum, Nationalität. Testet das System unter idealen Bedingungen.
  • Ohne Entity-Typ: Testet die Robustheit, wenn der Typ unbekannt ist — ein häufiges Praxisszenario beim Screening unstrukturierter Daten.
  • Ohne tertiäre Daten: Testet die Matching-Stärke nur anhand des Namens. Die Baseline für jedes System, das einen Namen ohne biografischen Kontext erhält.
  • Produktionsmodus: Bewertet Ergebnisse mit den DOB-Rescue-Schwellenwerten der Produktionsumgebung neu. Testet, ob Entities, die den Schwellenwert in der Baseline knapp verfehlen, durch den DOB-Rescue-Pass des Live-Screenings wiedergefunden werden.
  • Ohne ML: Deaktiviert den Machine-Learning-Override vollständig. Isoliert die Leistung der heuristischen Pipeline — den Score-Floor ohne ML-Unterstützung.
  • Cross-Source-Validierung: Screent die Entities jeder Quelle gegen alle anderen Quellen gleichzeitig. Testet, ob eine Listung auf einer Liste über den Eintrag einer anderen Liste für denselben Akteur erkennbar ist.

Mutationsstufen:

  • M0 — Unverändert: Originalname, wie er auf der Liste erscheint. Muss vollständigen Recall erreichen. Jeder Miss bei M0 ist ein kritischer Fehler.
  • M1 — Eine Mutation: Zufälliger Zeichentausch, Auslassung, Einfügung, Ersetzung, Diakritikaänderung oder Transliteration. Modelliert einen einzelnen Transkriptionsfehler oder eine abweichende Schreibweise.
  • M2 — Zwei Mutationen: Zwei Mutationen gleichzeitig angewendet. Testet die Degradationskurve — wie schnell der Recall fällt, wenn die Eingabequalität sinkt.
  • M3 — Name Reorder: Token-Reihenfolge wird umgekehrt oder erste und letzte Token werden vertauscht. Testet die Robustheit bei Umordnung von Namensbestandteilen — eine häufige Variante, wenn Namen kulturelle Konventionen kreuzen (Vorname zuerst vs. Nachname zuerst).
  • M4 — Partial Name: Nur das erste oder letzte Token wird beibehalten, simuliert unvollständige Namenseingabe. Testet, ob das System einen Kandidaten noch finden kann, wenn nur ein Fragment des vollständigen Namens vorliegt.

Jede Mutation wird deterministisch geseedet. Jeder False Negative ist rückverfolgbar bis zur exakten Mutation, die ihn verursacht hat.

Was wird gemessen

Fünf Metriken pro Sitzung. Jedes falsch-negative Ergebnis wird analysiert, nicht nur gezählt.

Das Ergebnis jeder Verifizierungssitzung ist ein strukturierter Datensatz — kein Pass/Fail-Flag. Jede Metrik wird für die Trendanalyse gespeichert.

Pro Sitzung erfasste Metriken
  • True Positive Rate (Recall): Anteil der Entities, die sich selbst als Top-Ergebnis finden. Die primäre Metrik. M0-Recall muss 100 % betragen.
  • Mean Reciprocal Rank: An welcher Position erscheint die Entity in ihren eigenen Top-5-Ergebnissen? Rang 1 ist ideal. Rang 2 oder niedriger flaggt ein Problem.
  • Score-Verteilung: Mittelwert, Median und Perzentile über alle Sessions hinweg. Erkennt Drift — einen allmählichen Score-Rückgang, der Recall-Ausfällen vorausgeht.
  • False-Negative-Analyse: Jede übersehene Entity wird mit der exakten Mutation und dem tatsächlich zurückgegebenen Top-1-Ergebnis protokolliert. Macht Failure Modes sichtbar und debugbar.
  • Wilson-Konfidenzintervalle: Statistische Grenzen für die True Positive Rate bei 95 % Konfidenz. Verhindert überhöhte Zuverlässigkeitsangaben bei kleinen Quellengrößen.

Die Ergebnisse werden nach jedem nächtlichen Zyklus als strukturierter XLSX-Bericht exportiert.

Was die Ergebnisse bedeuten

M0-Recall ist vollständig. M1 übersteigt 99 %. M2 degradiert — und der Bericht zeigt exakt warum.

M0-Recall ist vollständig. Jede Entity, über alle Quellen hinweg, ist anhand ihres offiziellen Namens auffindbar — jede Nacht. M1-Recall (eine Mutation) übersteigt 99 %. Das System toleriert Ein-Zeichen-Fehler im echten Screening.

M2-Recall degradiert weiter — wie erwartet. Zwei gleichzeitige Mutationen fordern jedes String-Similarity-System heraus, und die Ergebnisse dokumentieren exakt, welche Mutationstypen zu Failures führen und warum. Diese Informationen dienen dem Tuning der Matching-Pipeline zwischen Releases.

100%Exact-Name Recall (M0)
>99%Single-Mutation Recall (M1)
TäglichVerification-Zyklus
XLSXReport pro Durchlauf

Sanctions Screening Built to Be Audited.

Der Beta-Zugang ist kostenlos und umfasst die vollständige Screening-Funktionalität für alle offiziellen Quellen, den kompletten Review-Workflow und audit-fertige Exporte.

Anmelden / Registrieren