Datenqualität und BCBS 239

HERAUSFORDERUNGEN AUS BCBS #239 FÜR DIE DATENQUALITÄT

Die BCBS-Regeln verschärfen den heutigen Anspruch an die Finanz- und Risikoberichterstattung deutlich. Die Bundesbank hat in Stellungnahmen bereits einen Ausblick auf die geplante aufsichtsrechtliche Auslegung der BCBS-Prinzipien gegeben.

BCBS #239 lässt sich in vier Themenfelder unterteilen: Governance und Infrastruktur, Risikodatenaggregation, Risikoberichterstattung und Aufsichtsprüfung.

Aus dem Themenfeld Governance und Infrastruktur lässt sich für die IT-Infrastruktur die Anforderung einer einheitlichen Datenbasis ableiten. So ist endlich das Ende des Silo-Denkens gekommen. Das Gebot heißt nun, tatsächlich homogene und übergreifende Daten zu generieren. Dies erreicht man nur mit risikoartübergreifenden Daten und Methoden.

Risikodaten-Aggregation

Die Zusammenstellung der Risikodaten und die Risikoberichterstattung bedingen sich wechselseitig. Eine adäquate Risikoberichterstattung ist nur mit einer qualitativ guten Datenbasis möglich. Vier Maximen kennzeichnen die Risikodatenaggregation:

  1. Die Genauigkeit und Integrität der Daten
    Als erstes muss die Genauigkeit und Integration der Daten gewährleistet sein. Dafür müssen manuelle Eingriffe überwacht werden und es muss ein automatischer Abgleich der Risikodaten mit anderen Daten, vor allem Rechnungslegungsdaten, möglich sein.
  2. Aktualität der Daten
    Der Risikoreport muss zehn Arbeitstage nach Monatsultimo auf Basis qualitätsgesicherter Daten vorliegen. Die Bank muss zudem fähig sein, kritische Risikodaten in Krisenzeiten zeitnah zu erstellen.
  3. Anpassbarkeit nach Wünschen der Aufsicht
    Daten müssen ad hoc, flexibel und skalierbar generiert werden können. Um dies sicherstellen zu können, ist eine weitestgehend automatisierte Berechnung und Aggregation aller Kennzahlen unabdingbar. Lediglich auf diese Weise ist die Erstellung von Ad-hoc-Reports nach beliebigen Auswertungskriterien auf Basis qualitätsgesicherter Daten möglich.
  4. Vollständigkeitsprinzip
    Das letzte Prinzip der Risikodatenaggregation ist die Vollständigkeit, also die Erfassung und Sammlung aller wesentlichen Risikopotenziale.

Welche Anforderungen muss die Risiko-Berichterstattung erfüllen?
Die Anforderungen an die Risikoberichterstattung muss fünf Prinzipien gerecht werden.

  1. Datenqualität
    Das Prinzip der Genauigkeit kann nur durch eine End-to-end Betrachtung vom Vorsystem bis zum Report verwirklicht werden. Data-Flow-Charts sollen den Datenfluss über Systeme und manuelle Schnittstellen hinweg nachvollziehbar und transparent machen. Nur so kann eine Messung der Datenqualität über den Gesamtprozess sichergestellt werden.
  2. Vollständige Erfassung der Risiken
    Genau wie bei der Risikodatenaggregation wird auch bei der Risikoberichterstattung eine Abdeckung aller wesentlichen Risiken verlangt.
  3. Verständlichkeit
    Das Prinzip Verständlichkeit fordert eine leichte Verständlichkeit des Risikoberichts, die eine Beurteilung durch Fachleute und Aufsichtsbeamte ohne fremde Hilfe erlaubt.
  4. Empfängerzentrierte Aufbereitung
    Datenkolonnen ist sind out. Der Risikobericht muss sowohl für das Treasury wie für die Rechtsabteilung und die Aufsicht aufbereitet werden. Die identischen Daten müssen daher den unterschiedlichen  Bedürfnisse angepasst werden, um eine fundierte Entscheidungsfindung zu ermöglichen.
  5. Periodische Risiko-Berichte
    Zuletzt gibt es Auflagen bezüglich der Frequenz der Risikoberichte. Der Turnus muss risikoadäquat und die Berichterstellung entsprechend schnell möglich sein. Dies erfordert IT-Systeme, die ohne langwierige ETL-Prozesse die Ergebnisse liefern können.


LÖSUNGSANSATZ

Die Umsetzung der oben beschriebenen regulatorischen Anforderungen ist in vielen Instituten mit der aktuell vorliegenden Datenbasis nicht möglich.
Die Messung und kontinuierliche Verbesserung der Datenqualität ist damit der Einstieg, um die Nachvollziehbarkeit, Integrität und Einheitlichkeit der Daten zu erreichen.

Die Datenqualität hat großen Einfluss auf die Berichtsergebnisse, deswegen sollten die Reporte neben fachlichen KPIs (Key Performance Indikatoren) auch KPIs zur Datenqualität beinhalten. Nur so kann für die Entscheider Transparenz über dieses bisher häufig wenig beobachtete und diskutierte Thema geschaffen werden. Die Aufgabe der IT ist es, die Aussagefähigkeit und Validität der fachlichen KPIs zu bewerten. Die KPIs zur Datenqualität ermöglichen einen Einstieg in die Analyse und sollten Aufschluss über die Datenvollständigkeit und -korrektheit geben. Eine gute Datenqualität zeichnet sich durch Vollständigkeit und Fehlerfreiheit aus.

Hat eine schlechte Datenqualität eine messbare Auswirkung auf relevante Kennzahlen, so ist eine Ursachen- und Auswirkungsanalyse auf Basis der Liefersysteme der betroffenen Daten erforderlich.
Die Bank muss die konkrete Ursache und Prozessstellen der Datenprobleme identifizieren sowie die Auswirkung auf relevante betriebswirtschaftliche Kennzahlen abschätzen.
Eine regelbasierte Prüfung der Datenqualität mit Ursachen- und Auswirkungsanalyse ermöglicht es, die geforderte Nachvollziehbarkeit der Datenströme inklusive Rechenschritte auf aggregierter Ebene sicherzustellen. Prüfungen der Datenqualität und Korrekturen müssen dabei an unterschiedlichen Stellen im Prozess möglich sein – auch unabhängig von der jeweils eingesetzten Technologie.

Sollten die Daten unvollständig sein, muss es ohne zeitlichen Verzug möglich sein, die relevanten Quellsysteme, Datenübertragungswege und manuellen Schnittstellen einer erneuten Prüfung zu unterziehen.

Es ist eine enge Zusammenarbeit der Bereiche Finance und Risk zur Schaffung einer gemeinsamen Datenquelle notwendig. Auf diese Weise werden die Kompatibilität verschiedener Auswertungen und die vollständige Erfassung aller wesentlichen Risikopotentiale gewährleistet. Neben einer bereichsübergreifenden Lösung zwischen Finance und Risk ist auch eine enge Zusammenarbeit zwischen Fachabteilungen und der IT wichtig.

Für eine erfolgreiche Umsetzung des entwickelten Zielbildes werden neben dem Verständnis der System- und Datenlandschaft vertiefte fachliche Kenntnisse benötigt.

CHANCE

BCBS Nr. #239 zwingt, auch KPIs zur Datenqualität einzuführen. Insgesamt wird damit der ETL-Prozeß immer mehr aufgelöst. Die heutigen Daten kommen verstärkt  aus verschiedenen Quellen, wie zum Beispiel Tonband-Aufzeichnungen aus Handelsräumen, Webseiten usw.. Dies macht einen agilen und iterativen Datenprozeß essentiell. Nur dann kann die IT dem Management eine zuverlässigere Informationsbasis zur Analyse und Vorbereitung von strategischen Entscheidungen zur Verfügung stellen. Aprosu kann bei diesem Vorhaben Ihr Sparrings-Partner und Umsetzer sein.