Verbesserung der Datenqualität und Umgang mit großen Datenmengen (BIG DATA)
- Aufsichtsrechtliche Erwartungshaltung an die Governance, die Datenqualität, die Metadaten und BIG-DATA-Analysen (u. a. BCBS 239, IRBA und MaRisk / BaFin-Prinzipienpapier)
- Häufig identifizierte Schwachstellen und notwendige Maßnahmen
- Analyse großer Datenmengen (BIG DATA) mit Hilfe von Data Analytics und Business Intelligence (BI) zur besseren Risiko- Identifizierung
- »Vorhersage« künftiger Risiken und Risikoentwicklungen
- Planung von Revisionsprüfungen mit Schwerpunkt »Datenqualität« und Verankerung der Datenprüfungen in der Prüfungslandkarte
Das Prüffeld Datenqualität und die Analyse großer Datenmengen (BIG DATA) sind durch BCBS 239, die MaRisk, BAIT, EBA-ICT-Leitlinien und das BaFin-Prinzipienpapier erklärter Schwerpunkt bei Aufsichts-, Abschluss- und Sonderprüfungen.
Somit ist das Datenrisiko auch von der Internen Revision in allen Prüffeldern grundsätzlich mit abzuprüfen oder als eigenes Prüffeld in die Prüfungsplanung aufzunehmen. Das Thema Datenqualität ist allerdings nur schwer greifbar und äußerst schnittstellenbehaftet.
Eine zunehmende Zahl an wesentlichen (F3) und schwerwiegenden (F4) Feststellungen sind bei den (Sonder-)Prüfungen der Aufsicht zu erkennen.
Fehleinschätzungen zur Risikosituation der Bank werden zunehmend bankaufsichtlich sanktioniert (Bußgelder bzw. Kapitalaufschläge). Feststellungen ggü. der Internen Revision sind dann naheliegend.
Insbesondere große Datenmengen lassen sich aufgrund uneinheitlicher Systeme und Datenformate aber nur schwer analysieren. Dabei bietet die Auswertung großer Datenmengen enorme Vorteile für die Fachbereiche und die Revision, da unterschiedliche Auswertungsmöglichkeiten auf Basis von Einzel- und Gesamtrisiken nach verschiedenen Aggregationsstufen bestehen. Hier kann die Revision durch den Einsatz von BIG-DATAAnalysen wertvolle Ressourcen einsparen bei gleichzeitig höherer Prüfungssicherheit.