bvmedien
Aufrufe
vor 5 Jahren

die bank 07 // 2016

die bank gehört zu den bedeutendsten Publikationen der gesamten Kreditwirtschaft. Die Autoren sind ausnahmslos Experten von hohem Rang. Das Themenspektrum ist weit gefächert und umfasst fachlich fundierte Informationen. Seit 1961 ist die bank die meinungsbildende Fachzeitschrift für Entscheider in privaten Banken, Sparkassen und kreditgenossenschaftlichen Instituten. Mit Themen aus den Bereichen Bankmanagement, Regulatorik, Risikomanagement, Compliance, Zahlungsverkehr, Bankorganisation & Prozessoptimierung und Digitalisierung & Finanzinnovationen vermittelt die bank ihren Lesern Strategien, Technologien, Trends und Managementideen der gesamten Kreditwirtschaft.

ó IT & KOMMUNIKATION

ó IT & KOMMUNIKATION und Risikoarchitektur. Im Zentrum solcher Initiativen steht zumeist ein gesamthafter, integrierter Datenhaushalt, ein sogenanntes Data Warehouse (DWH) ” 2. Dieses Data Warehouse wird mit Informationen aus den bestandsführenden Systemen einer Bank versorgt, die dann in einem normierten Datenmodell abgelegt werden. Um eine hohe Datenqualität zu erreichen, finden im Rahmen der täglichen Befüllung des Data Warehouses umfangreiche Datenqualitätschecks und notwendige Korrekturen statt. Die Ablage der hohen Datenmengen geschieht auf modernen Datenbanksystemen auf der Basis von Appliance-Technologie, die die Verarbeitung hoher Datenvolumina in kurzer Zeit ermöglichen. Das Data Warehouse bildet die gemeinsame Basis für die einzelnen Funktionen der Bankensteuerungen. Für diese Funktionen setzen viele Banken auf Standardprodukte, wie den SAP Bank Analyzer AFI (Accounting for Financial Instruments) oder das SAP NewGL (General Ledger), um von der stetigen Weiterentwicklung dieser Produkte und der Anpassung an neue regulatorische Anforderungen zu profitieren. Auch hier sind es wieder neue Technologien wie die In-Memory Datenbank HANA, die wesentlich zur Erreichung der notwendigen Durchlaufzeiten beiträgt. Ergebnisse aus den einzelnen Funktionen werden zurück in das Data Warehouse übertragen und stehen damit den anderen Funktionen zur Verfügung. So wird es beispielsweise möglich, in einer Auswertung klassische Finanzkennzahlen wie den Buchwert eines Kredits den Risikokennzahlen wie Exposure at Default oder Loss Given Default (LGD) gegenüberzustellen. Mitentscheidend für den Erfolg einer solchen Lösung sind nicht zuletzt die verfügbaren Auswertungsmöglichkeiten. Eine für das Reporting optimierte Ausleitungs- und Reportingschicht kann hierbei helfen, die Daten in einheitlicher Form für verschiedene Business-Intelligence-Werkzeuge zur Verfügung zu stellen. Auch die Möglichkeit, Korrekturen an Daten durchzuführen, muss in der Architektur berücksichtigt werden. Ziel muss es sein, notwendige Korrekturen direkt in den Quellsystemen durchzuführen, d. h. z. B. Erfassungsfehler bei Kreditinformationen im Kreditsystem zu korrigieren, nicht erst im Data Warehouse. Dies erfordert die Möglichkeit, rückwirkend korrigierte Datenanlieferungen entgegenzunehmen und konsistent abzulegen. In der Praxis sind allerdings oft temporäre Korrekturen im Data Warehouse erforderlich, bis eine entsprechende Lösung im Quellsystem bereitgestellt werden kann. Eine Korrekturanwendung ermöglicht es daher, Datenkorrektu- 1 Aktuelle Systemlandschaften sind von einem hohen Grad an Heterogenität gekennzeichnet Meldewesen Accounting Controlling Risk Datenmodell Datenmodell Datenmodell Datenmodell Vorsystem 1 Vorsystem 2 Vorsystem 3 Vorsystem 4 Vorsystem 5 Vorsystem 6 Vorsystem 7 Vorsystem 8 66 diebank 07.2016

IT & KOMMUNIKATION ó ren teilautomatisiert und vollständig nachvollziehbar durchzuführen. Als nützlich hat sich auch die möglichst konsequente Vermeidung von langen, indirekten Lieferketten erwiesen. Stattdessen werden die Quellsysteme direkt angebunden, sodass ein unnötiger Zeitverlust durch zwischengelagerte Systeme vermieden wird und Änderungen schneller umgesetzt werden können. Besonderes Augenmerk ist bei der Umsetzung eines solchen Vorhabens neben einer stringenten Projekt-Governance auf den Test zu legen. Eine ausgefeilte und konsequent umgesetzte Vorgehensweise ist erforderlich, um die komplexen Zusammenhänge zwischen allen beteiligten Systemen im Test angemessen zu berücksichtigen und erfolgreich zu sein. Auch der Betrieb eines solchen Data Warehouse ist frühzeitig zu planen, erfordert doch die Nutzung durch alle Funktionen der Konzernsteuerung eine hohe Verfügbarkeit, oft auch außerhalb der Kernarbeitszeiten. Hier sind kreative Lösungen und Sourcing-Ansätze gefragt, die etwa Betriebsfunktionen auf internationale Standorte verteilen, um durch die Nutzung verschiedener Zeitzonen eine Unterstützung von 24 Stunden am Tag zu ermöglichen, und gleichzeitig die Kosten durch den Einsatz von Mitarbeitern aus Offshore-Standorte senken. Fazit Integrierte Datenarchitekturen mit granularen Einzelinformationen sind keine akademische Diskussion, sondern eine durch neue Technologien realisierbar gewordene notwendige Antwort auf die stetig wachsenden Anforderungen von Regulatoren. Viele Projekte hierzu sind be- reits gestartet, und die ersten Institute haben schon wichtige Ziele erreichen können. Es ist mehr als wahrscheinlich, dass sich der Trend zur Konsolidierung und Modernisierung der Systeme auch in den nächsten Jahren fortsetzen wird, und harmonisierte und integrierte Datenhaushalte in den meisten Instituten zum Standard werden. Und die Entwicklung geht weiter – neue Technologien wie Big Data werden bald neue Möglichkeiten zum Umgang mit großen Datenmengen bieten, die viele jetzt noch als weltfremde Vision abtun. ó Autoren: Vladimir Smoljaninov ist Manager, Dr. Christian Bohr Senior Manager und Jörn Rehbock Managing Director im Bereich Financial Services bei Accenture. 2 Ein gemeinsames DWH mit harmonisiertem Datenmodell Meldewesen Accounting Controlling Risk Reporting-Layer/Ausleitungs-Schicht Datenmodell Vorsystem 1 Vorsystem 2 Vorsystem 3 Vorsystem 4 Vorsystem 5 … 07.2016 diebank 67

Erfolgreich kopiert!

die bank