Aufrufe
vor 5 Jahren

die bank 02 // 2018

die bank gehört zu den bedeutendsten Publikationen der gesamten Kreditwirtschaft. Die Autoren sind ausnahmslos Experten von hohem Rang. Das Themenspektrum ist weit gefächert und umfasst fachlich fundierte Informationen. Seit 1961 ist die bank die meinungsbildende Fachzeitschrift für Entscheider in privaten Banken, Sparkassen und kreditgenossenschaftlichen Instituten. Mit Themen aus den Bereichen Bankmanagement, Regulatorik, Risikomanagement, Compliance, Zahlungsverkehr, Bankorganisation & Prozessoptimierung und Digitalisierung & Finanzinnovationen vermittelt die bank ihren Lesern Strategien, Technologien, Trends und Managementideen der gesamten Kreditwirtschaft.

SCHWERPUNKT

SCHWERPUNKT DATENMANAGEMENT DATA GOVERNANCE Gut gepflegte Datenstämme helfen sparen Daten sind die Basis erfolgreichen Wirtschaftens, gerade in der Finanzbranche. Banken und Sparkassen verfügen über umfangreiche und täglich wachsende Datenbestände. Doch oft fehlt es noch an konkreten Strategien, um diese Informationen nutzbringend einzusetzen. Die beiden wichtigsten Einsatzgebiete sind leicht zu identifizieren: Zum einen geht es darum, mit diesen Daten interne Anforderungen und regulatorische Vorgaben zu erfüllen. Zum anderen sind sie die Basis für die Entwicklung neuer Produkte und Services. Die Qualität der Datenbestände ist ein Schlüssel dafür, die Kunden besser zu verstehen, Kosten zu verringern, das Risikomanagement zu verbessern und Wachstum zu erzielen. Die Datenqualität rückt aber auch immer stärker in den Fokus der Regulierungsbehörden. Sie haben seit langem erkannt, dass dieses Thema elementar für die Transparenz in der Branche ist – was auch seit 2013 in der Vorschrift BCBS 239 vom Baseler Ausschuss für Bankenaufsicht festgelegt ist. Diese Vorschriften zu Data Quality und sinnvoller Data Governance werden aktuell weltweit von Banken implementiert, um künftig Daten sicher zu verwalten und regulatorische Meldungen rechtskonform zu erstellen. Daraus ergibt sich allerdings unweigerlich ein Zwiespalt: Einerseits müssen die Datenpraktiken den rechtlichen Vorschriften entsprechen, insbesondere im Hinblick auf Datenschutz und Datensicherheit. Andererseits sollen diese Daten optimal eingesetzt werden, um deren Nutzen für die Organisation und die Kunden zu maximieren. Um diesen Spagat zu meistern, bedarf es einer innovativen Data-Governance-Strategie. Dabei handelt es sich um einen ganzheitlichen Ansatz, der Regeln festlegt, um Unternehmensdaten richtlinienkonform zu erzeugen, zu speichern und zu verarbeiten. Diese Regeln definieren Qualitätsstandards und Zuständigkeiten sowie die Voraussetzungen für den Zugriff, das Management, die Nutzung, die Verbesserung, die Pflege sowie das Monitoring der gespeicherten Informationen. Mithilfe solcher Guidelines lassen sich langfristige Qualitätsprobleme im Datenbestand aufdecken und korrigieren. Deren Ursachen sind vielfältiger Natur: Häufig entstehen sie aufgrund falsch oder schlecht konzipierter Prozesse. Beispielsweise führen veraltete Adressdaten dazu, dass wichtige Korrespondenz dem Kunden nicht zugestellt werden kann. Daher ist es sinnvoll, dafür zu sorgen, dass Kunden die Pflege der Adressdaten per Self-Service selbst erledigen. So sollten Postrückläufer etwa in den Kundenstammdaten vermerkt werden, damit der Nutzer beim nächsten Log-in im Online oder Mobile Banking automatisch aufgefordert werden kann, diese Daten zu korrigieren. An diesem Beispiel zeigt sich, dass fehlerhafte Datensätze direkt zu mehr Aufwand und Kosten führen – und damit zu weniger Gewinn. Dies potenziert sich im Umfeld zunehmend digitalisierter und automatisierter Prozesse noch zusätzlich, da alle Services die zugrunde liegenden Daten nicht nur nutzen, sondern auch neue Daten erzeugen. So führen beispielsweise falsche Postadressen zu fehlerhaften Ergebnissen bei Analysen und Kampagnen 48 02 // 2018

SCHWERPUNKT DATENMANAGEMENT DIGITALISIERUNG im Geomarketing. Daher ist es für Finanzdienstleister dringend notwendig, eine konsistente Data-Governance-Strategie zu etablieren, die die Datenqualität und deren Nutzung sicherstellt. Mit den Unternehmensprozessen beginnen Bevor in die Datenqualität investiert werden kann, müssen Verantwortliche verstehen, wie diese den Geschäftserfolg beeinflusst und welche Folgen mit minderwertigen Datensätzen einhergehen. Daher ist ein tiefes Know-how der Geschäftsprozesse und der avisierten Ergebnisse erforderlich, die durch Qualitätsprogramme erzielt werden können. Vor dem Start großer Datenqualitätsprogramme erfolgt idealerweise eine Analyse, die jene Unternehmensbereiche identifiziert, die am meisten von der Qualität der Daten beeinflusst werden. Nach dieser Evaluation ist ein High-Level-Plan auszuarbeiten, der die angedachten Maßnahmen priorisiert und deren Wirksamkeit mittels KPIs bewertet. Aber Datenqualität operiert nicht im luftleeren Raum. Um erfolgreich zu sein, bedarf es zwingend eines hohen Qualitätsbewusstseins. Die Geschwindigkeit des kulturellen Wandels, der hierfür notwendig ist, hängt in erster Line vom Einsatz des Managements ab. Bewertungsprozess der Datenqualität Im nächsten Schritt sollten IT- und Produktmanager die Qualität der vorhandenen Datenbestände bewerten. Erst dann können sinnvolle Maßnahmen zur Qualitätssteigerung geplant und realisiert werden. Banken sollten diese Messungen nicht nur einmalig, sondern periodisch durchführen, um Problemen vorzubeugen, die sich immer wieder in Unternehmensprozesse einschleichen und verbreiten können. Abhängig von der Komplexität können solche Bewertungen manuell oder automatisch vorgenommen werden. Die Automatisierung ermöglicht dabei Skaleneffekte und reduziert Kosten. Sie liefert eine Momentaufnahme der Datenqualität des gesamten Unternehmens. Die Erstbewertung bestimmt die Basis- Dimension. Nachfolgende Analysen sollten dann mit den spezifischen Unternehmensprozessen abgestimmt sein. Ziel ist es, die Relevanz zu verbessern und fortlaufend Qualitätsprobleme aufzudecken und zu beheben. Diese Bewertungen können mit qualitativen oder quantitativen Methoden durchgeführt werden. Qualitative Methoden basieren dabei auf subjektiven Beurteilungskriterien, die aus Geschäftsbedürfnissen abgeleitet werden. Diese Assessments sollten von erfahrenen Fachexperten durchgeführt werden. Quantitative Methoden hingegen setzen weitgehend auf Zahlen und Statistiken – und sind somit objektiver und systematischer. Diese Methodik quantifiziert die direkten und indirekten Kosten, subjektive und objektive Auswirkungen, qualitative und quantitative Risiken, Vorteile für Unternehmensbereiche sowie andere relevante Parameter. Mithilfe dieser Verfahren können Manager feststellen, welcher Anteil der Gesamtinvestitionen für Datenmanagementprogramme in das Qualitätsmanagement fließen sollte. Wirkungsanalyse Mit einer anschließenden Wirkungsanalyse (BIA = Business Impact Analysis) decken Verantwortliche negative Business Impacts auf, die durch eine schlechte Datenqualität ausgelöst werden. In Situationen, in denen Unternehmensergebnisse von den zugrunde liegenden Daten abhängen, kann eine qualitative Bewertung auf der Basis weniger, sorgfältig ausgewählter Qualitätsparameter relevante Bereiche aufzeigen, die genauer untersucht werden sollten. Für definierte kritische Unternehmensprozesse hingegen sollten Datenmanager immer eine Ursachenanalyse (RCA = Root Cause Analysis) durchführen. Diese hilft, Problembereiche zu identifizieren. Dieser Schritt ist aber durch einen Experten sorgfältig umzusetzen, um etwaige Probleme richtig einschätzen und beheben zu können. Auch Prozessmodellierung und Simulationen tragen dazu bei, die Quellen von Qualitätsproblemen zu ermitteln und zu beseitigen. 02 // 2018 49

die bank