Aufrufe
vor 4 Monaten

die bank 08 // 2022

  • Text
  • Wwwbankverlagde
  • Regulierung
  • Lingel
  • Nachhaltigkeit
  • Diskriminierung
  • Digitale
  • Insbesondere
  • Markt
  • Digitalisierung
  • Unternehmen
  • Banken
die bank gehört zu den bedeutendsten Publikationen der gesamten Kreditwirtschaft. Die Autoren sind ausnahmslos Experten von hohem Rang. Das Themenspektrum ist weit gefächert und umfasst fachlich fundierte Informationen. Seit 1961 ist die bank die meinungsbildende Fachzeitschrift für Entscheider in privaten Banken, Sparkassen und kreditgenossenschaftlichen Instituten. Mit Themen aus den Bereichen Bankmanagement, Regulatorik, Risikomanagement, Compliance, Zahlungsverkehr, Bankorganisation & Prozessoptimierung und Digitalisierung & Finanzinnovationen vermittelt die bank ihren Lesern Strategien, Technologien, Trends und Managementideen der gesamten Kreditwirtschaft.

REGULIERUNG

REGULIERUNG Löschvorgang von Kundendaten beispielsweise im Bereich Customer Experience dem eigentlichen Sinn und Zweck des Systems entgegenlaufen. 4 Ein Rahmen, der für die Einordnung hilft Wenn ein neuer Algorithmus eingeführt werden soll, bietet sich der in ÿ 1 dargestellte Rahmen mit vier Quadranten zur Einordnung an. 5 Die Quadranten lassen sich in Bezug auf die Vorhersagekraft (y-Achse) und die Verzerrung/Einseitigkeit (x-Achse) abgrenzen. Es wird angenommen, dass wir uns mit dem gegenwärtigen System direkt am Schnittpunkt der Achsen befinden. Jede potenzielle Veränderung durch einen neuen Algorithmus muss im Vergleich zum Status quo betrachtet werden. Es ist klar, dass auch die Realität keine ideale Welt ohne Verzerrung oder vollständige Genauigkeit ist. Das zwingt die Entscheidungsträger dazu zu überlegen, ob die Einführung eines neuen Systems, das zwar Verzerrungen enthält, aber vorhersagekräftiger ist als das gegenwärtige System, einen Fortschritt darstellt. Wenn neue Technologien abgelehnt werden, weil sie ein gewisses Maß an Verzerrungen enthalten, bedeutet das nicht, dass wir das System vor Verzerrungen insgesamt schützen. Außerdem kann es sein, dass durch die Vermeidung geringerer Verzerrungen ein erhebliches Potenzial an Vorhersagekraft nicht realisiert wird. Z Der Quadrant III in ÿ 1 stellt die Situation dar, in der ML-Algorithmen voreingenommen und unfair sind. Aufgrund der geringeren Vorhersagekraft dürfte die Implementierung aus Unternehmenssicht nicht vorteilhaft sein. Es mangelt dem System an Z Z Z Transparenz und Verantwortlichkeit. Hier kann es vorkommen, dass die zugrunde liegenden Daten ungenau oder verzerrt sind. Marktanreize allein reichen nicht aus, um mehr Genauigkeit zu erreichen; sie können angesichts der Kosten für die Korrektur von Daten und der Forderung nach Schnelligkeit und Quantität sogar die Ungenauigkeit fördern. Oft wird nach technischen Lösungen gesucht, um Verzerrungen in Datensätzen zu verringern, z. B. durch die Integration automatischer Entzerrungsfunktionen in KI-Systemen. Das genaue Gegenteil findet sich in Quadrant I. Er steht für die Einbeziehung einer KI, die die Genauigkeit erhöht und Verzerrungen verringert. Auf den ersten Blick sollte dies eine Win-Win-Situation sein. Die Institute vergeben Kredite auf präzisere Weise, indem die Ausfallwahrscheinlichkeit besser prognostiziert wird. Gleichzeitig kommen Verbraucher in den Genuss besserer Verfügbarkeit von Krediten zu genaueren Bedingungen und mit weniger Verzerrungen als im Status quo. Dieses optimistische Szenario ist realistisch, auch wenn einiges dafür getan werden muss – insbesondere, wenn man bedenkt, dass eine bedeutende Quelle bestehender Verzerrungen auf die bei der Kreditvergabe verwendeten Informationen zurückzuführen ist. KI, die die Genauigkeit erhöht, aber mehr Verzerrungen einführt, erhält zu Recht viel Aufmerksamkeit. Dieses Szenario, das in diesem Rahmen oben links (Quadrant IV) dargestellt wird, kann von der Einführung von Daten, die Proxies für geschützte Klassen umfassen, bis hin zu Informationen oder Techniken reichen, die auf den ersten Blick nicht verzerrt erscheinen, es aber tatsächlich sind. Die Proxy-Diskriminierung durch KI ist sogar noch beunruhigender, weil Algorithmen in der Lage sein dürften, Proxies aufzudecken, die von Menschen zuvor nicht in Betracht gezogen wurden. Die letzte Konstellation umfasst eine höhere Fairness, aber eine Verringerung der Genauigkeit (Quadrant II). Hier könnte unter Umständen die Verwendung einer bestimmten Variablen die Genauigkeit bei der Preisgestaltung eines Vertrags verbessern, was aber gegen die Fairnessnormen verstößt. Den Verbraucherschützern geht es darum, den Schutz auszuweiten und die Diskriminierung zu reduzieren. Verzerrungen sind nicht nur ein technisches Problem. Die Komplexität zeigt sich bereits in den zum Teil widersprüchlichen Begriffen und Definitionen von Fairness. Es gibt keine allgemeingültige Definition für Begriffe wie Fairness, Unvoreingenommenheit oder Neutralität. Transparenz erscheint im Grunde genommen wesentlich und ist eine Voraussetzung, um Verzerrungen zu verringern. Aber auch Transparenz kann mehrere Bedeutungen haben. Aus der Perspektive der technischen Gestaltung kann sie sogar bedeuten, dass Informationen vor den Nutzern verborgen werden, um die Komplexität zu verringern und die Verständlichkeit durch Vermeidung einer Informationsüberlastung zu erleichtern. Dies kann im Widerspruch zum gängigen Verständnis von Transparenz als Nachvollziehbarkeit stehen. Es besteht also eine paradoxe Situation, da technische Ansätze zur Bekämpfung von Verzerrungen zusätzliche Verzerrungen mit eigenen Auswirkungen schaffen können. 48 08 | 2022

REGULIERUNG Gefahr durch technische Voreingenommenheit Diskriminierung durch KI-Systeme kann vor allem aus einer technischen Voreingenommenheit resultieren. Das sind Zwänge, die sich aus dem Design oder der Funktionalität eines Systems ergeben. Dazu können Hardund Software-Probleme gehören, wie z. B. in Algorithmen programmierte Regeln, die soziale Werte in unangemessener Weise formalisieren. Aufschlussreich ist ein Forschungsbeitrag, in dem die Autoren unterschiedliche Konditionen bei der Kreditvergabe an verschiedene Bevölkerungsgruppen in den USA untersuchen. 6 Hierbei ist festzustellen, dass die dort im Einsatz befindlichen Kredit-Scores für private Haushalte besonders anfällig für Diskriminierung sind. Um den Einfluss von KI zu messen, werden Kreditgeber nach dem Einsatz fortschrittlicher Methoden kategorisiert. Interessanterweise ergibt sich, dass die Kreditvergabe bei FinTechs, die häufiger KI einsetzen dürften, nicht zu mehr Diskriminierung führt. Für staatlich geförderte Hypothekenkredite fiel die gemessene Diskriminierung bei der Finanzierung durch FinTech-Unternehmen sogar geringer aus. Eine Erklärung hierfür mag darin liegen, dass FinTechs in ihren Geschäftsbeziehungen weniger auf den direkten Kontakt zwischen Kundenberater und Kunden setzen. In der Folge ist direkte Diskriminierung praktisch ausgeschlossen. Aber auch in Bezug auf die indirekte Diskriminierung mag eine mögliche Erklärung dieses Ergebnisses im Geschäftsmodell begründet liegen. So ist denkbar, dass Finanzdienstleister, die besondere Datenkompetenzen im Haus haben, besser darin sind, unzulässige statistische Diskriminierung präzise zu erkennen. In einer anderen Studie wird auf Grundlage detaillierter Kreditdaten von 800.000 britischen Kreditnehmern der Wechsel von einem herkömmlichen (Logit-)Kreditbewertungsmodell zu einem Ensemble von maschinellen Lernmethoden simuliert. Die Autoren können bestätigen, dass die maschinellen Lernmodelle insgesamt eine höhere Prognosefähigkeit aufweisen. Keiner der simulierten Ansätze zur Modellierung von Kredit-Scores erfüllt dabei vollständig die statistische Fairness in Bezug auf Bevölkerungsuntergruppen, die nach geschützten und sensiblen Kriterien definiert sind. In erster Linie handelt es sich hierbei um Beobachtungen, die als solche nichts über die Mechanismen aussagen, die für die beobachteten statistischen Fairnesslücken verantwortlich sein könnten. Darüber hinaus wird nicht berücksichtigt, wie sich Änderungen an den Kreditbewertungsmodellen in der realen Welt auf Kreditvergabe- und Preisentscheidungen und damit letztlich auf das Wohl der Kunden auswirken können. Rein statistische Kriterien reichen daher nicht aus, um das Vorhandensein oder Nichtvorhandensein von Diskriminierung nachzuweisen. Dies hängt davon ab, wie Kreditentscheidungen tatsächlich getroffen werden. Auf diese Weise rückt die wirtschaftliche Perspektive auf die algorithmische Fairness in den Blickpunkt. 08 | 2022 49

die bank

© die bank 2014-2020