Datenqualität und Analyse großer Datenmengen
Verbesserung der Datenqualität und Nutzbarmachung von Big DATA
- Aufsichts-Anforderungen an Datenqualität und BIG-DATA-Analyse (u. a. MaRisk / BaFin-Prinzipienpapier)
- Häufig identifizierte Schwachstellen und notwendige Maßnahmen
- Analyse gr. Datenmengen (BIG DATA) mit Hilfe von Data Analytics und Business Intelligence (BI) zur besseren Risiko-Identifizierung
- »Vorhersage« künftiger Risiken und Risikoentwicklungen
- Planung von Revisionsprüfungen mit Schwerpunkt »Datenqualität« und Verankerung der Datenprüfungen in der Prüfungslandkarte
Das Prüffeld Datenqualität und die Analyse großer Datenmengen (BIG DATA) sind durch die MaRisk, BAIT, EBA-ICT-Leitlinien und das BaFin- Prinzipienpapier erklärter Schwerpunkt bei Aufsichts-, Abschluss- und Sonderprüfungen. Somit ist das Datenrisiko auch von der Internen Revision in allen Prüffeldern grundsätzlich mit abzuprüfen oder als eigenes Prüffeld in die Prüfungsplanung aufzunehmen. Das Thema Datenqualität ist allerding nur schwer greifbar und äußerst schnittstellenbehaftet. Eine zunehmende Zahl an wesentlichen (F3) und schwerwiegenden (F4) Feststellungen sind bei den (Sonder-)Prüfungen der Aufsicht zu erkennen.
Fehleinschätzungen zur Risikosituation der Bank werden zunehmend bankaufsichtlich sanktioniert (Bußgelder bzw. Kapitalaufschläge). Feststellungen ggü. der Internen Revision sind dann naheliegend.
Insbesondere große Datenmengen lassen sich aufgrund uneinheitlicher Systeme und Datenformate aber nur schwer analysieren. Dabei bietet die Auswertung großer Datenmengen enorme Vorteile für die Fachbereiche und die Revision, da unterschiedliche Auswertungsmöglichkeiten auf Basis von Einzel- und Gesamtrisiken nach verschiedenen Aggregationsstufen bestehen. Hier kann die Revision durch den Einsatz von BIG-DATA-Analysen wertvolle Ressourcen einsparen bei gleichzeitig höherer Prüfungssicherheit.