Ein Data Warehouse bildet eine zentrale Datenbasis, die für eine Reihe von Abnehmern im Unternehmen genutzt werden kann. Es dient zur Steuerung und Kontrolle von Geschäftsprozessen, bei denen Informationen die Basis von Management-Entscheidungen sind.
Die Einführung eines Data Warehouse beruht auf zwei Grundgedanken:
Data-Warehouse-Architekturen sind aus einzelnen Layern aufgebaut. Daten werden zunächst aus diversen in- und externen Liefersystemen gesammelt und anschließend über mehrere Layer hinweg aufbereitet und standardisiert. Eine physische Datenbank stellt die integrierte Sicht auf die Daten dar, um Analysen zu ermöglichen:
Ein individuell konfigurierbares Datenmodell deckt für aufsichtliche Zwecke sämtliche Bestandteile der Gesamtbank ab und ermöglicht so eine einheitliche Auswertungsmöglichkeit von Daten.
Heutige Date-Warehouse-Architekturen sind in mehrfacher Hinsicht mit neuen Anforderungen konfrontiert, da zum einen die zunehmende Dynamik bei der Bankenregulierung (beispielsweise BCBS 239), die Dynamik im Business-Bereich, IT-Fortschritte und Technologie-Änderungen starken Einfluss auf Architekturen und Konzepte nehmen. Eine durchdachte Architektur und adäquate Methoden zum Auf- und Ausbau des Data Warehouse sind daher notwendig.
Damit verbunden sind jedoch auch Herausforderungen hinsichtlich der Konsistenz, der Flexibilität, redundanter Extraktionen und vielfältiger Datenmodelle. Auch handelt es sich oft nicht um einheitliche Technologien aus einem Guss, sondern um eine historisch gewachsen IT-Landschaft, die eine Vielfalt aus Werkzeugen, Programmiersprachen, Datenbanken und Tools beinhaltet, welche hohe Pflege- und Integrationskosten durch Technologiebrüche nach sich ziehen. Dies führt zu negativen Kostenimplikationen und beeinflusst die Flexibilität negativ.
In der Praxis haben sich daher Multi-Layer-Architekturen durchgesetzt, die ein auf das Unternehmen zugeschnittenes Konzept umsetzen. Dieses ist mehrschichtig in Ebenen aufgebaut und soll eine möglichst große Flexibilität gewährleisten. Eine einzig richtige Lösung gibt es trotzdem nicht, da unterschiedliche Anforderungen an die Leistungsfähigkeit, Ausprägung und Umsetzung gestellt werden, die je nach Institut individuell sind.
Die strukturierte Datenhaltung und -aufbereitung ermöglicht es, die Daten der Bank über ETL-Prozesse (Extraktion – Transformation – Laden) genauestens zu analysieren und eine globale Sicht auf Informationen zu erhalten. So sind übergreifende Auswertungen vergleichsweise einfach möglich. Auch sind Systeme, die mehrschichtig aufgebaut sind, bereits flexibel aufgebaut, sodass neue Anforderungen schnell und flexibel umgesetzt werden können.
Ein Data Mart stellt eine Kopie eines Teildatenbestandes des Data Warehouse dar, die für einen bestimmten Abnehmer oder einen bestimmten Bereich erstellt wird. Es kann sich auch um eine Teilansicht des Data Warehouse handeln.
Ziel eines Data Marts:
Data Marts sind in Banken weit verbreitet. Allerdings ergeben sich auch Probleme aus der Nutzung von Data Marts:
Data Mining und OLAP sind Methoden zur analytischen Datenanalyse von Endanwendern. Als zentrales Charakteristikum gewähren diese Tools mehrdimensionale Sichtweisen auf Datenbestände. OLAP soll es Nutzern ermöglichen, flexible und komplexe betriebswirtschaftliche Analysen und Ad-hoc-Auswertungen auch ohne umfassende technische Kenntnisse durchführen zu können.
Wir helfen Ihnen bei der Implementierung einer BCBS 239-konformen Data-Warehouse-Lösung. Auch Fragestellungen, die sich im Rahmen von Überleitungsrechnungen, Abgleichbarkeit von Reports oder regulatorischer Datenkonsistenz ergeben, helfen wir zu lösen. Im Rahmen von Analysen unterstützen wir Sie dabei, Ihnen Handlungsbedarf zu identifizieren und Projekte erfolgreich umzusetzen.