44 01 | 2022 Automatisierte Vorurteile vermeiden Der Weg zur ethischen KI
01 | 2022 45 Mit dem Siegeszug der Künstlichen Intelligenz ist die Frage nach der Qualität ihrer Resultate verbunden. Weil die statistischen Modelle am menschlichen Verhalten trainiert werden und unsere gesellschaftliche Wirklichkeit spiegeln, können menschliche Vorurteile unabsichtlich Eingang in KI-Systeme finden. Finanzinstitute, die KI nutzen, müssen heute Reputationsrisiken vorbeugen und sich für regulatorische Anforderungen wappnen. Die folgenden Empfehlungen zeigen den Weg zu einer „ethischen KI“. KI-Systeme sind fähig, zahlreiche Aufgaben eines Finanzinstituts zu automatisieren und zu standardisieren. Allerdings besteht die Gefahr, dass sie dabei menschliche Vorurteile weitertragen. Denn schon bei der Ausgestaltung der Modelle und der Definition der Parameter, die das Modell heranziehen soll, wird unter Umständen eine Voreingenommenheit in der KI verankert. Das kann sich auf eine KI-gestützte Vorauswahl der geeigneten Bewerber im HR-Bereich ebenso auswirken wie auf das Kreditrating eines neuen Bankkunden. Das bedeutet, eine KI kann sich systematisch und standardisiert irren und das auf unethische Weise. In solch einem Fall erwächst für eine Bank nicht nur ein gravierendes Reputationsrisiko – sie ignoriert mitunter auch relevante Geschäftsmöglichkeiten. Denn nicht nur den Kunden entstehen durch falsche Kreditratings oder unzutreffende Anlageempfehlungen wirtschaftliche Nachteile, auch dem Finanzinstitut selbst entgehen Umsätze. Dabei gilt für KI-Algorithmen dasselbe wie für alle statistischen Modelle – das Problem der Regression zum Durchschnitt stellt sich auch hier. Individuelle Besonderheiten der zu beurteilenden Fälle verliert das Modell dann immer mehr aus dem Blick. Den kommenden „AI Act“ schon jetzt erfüllen Ein weiterer Faktor für das wachsende Bewusstsein in Sachen ethischer KI 1 sind die Regulierungspläne der Europäischen Gemeinschaft. Die EU-Kommission hat ihren Regulierungsvorschlag, den „Artificial Intelligence Act“ (AI Act), bereits im April 2021 vorgelegt. Der Vorschlag postuliert sieben zentrale Anforderungen an KI-Systeme. KI-Systeme sollen den Menschen helfen, fundierte Entscheidungen zu treffen, müssen aber zugleich angemessen kontrollierbar sein. Technische Robustheit und Sicherheit stehen ebenso auf der Agenda der Regulatoren wie angemessene Datenschutz- und Governance-Mechanismen, die Datenqualität und -integrität sicherstellen. Auf welche Daten, Systeme und Geschäftsmodelle sich der KI-Einsatz erstreckt, soll stets transparent sein. Vielfalt, Nicht- Diskriminierung und Fairness müssen aus Sicht der EU-Kommission ebenso garantiert sein wie die Nachhaltigkeit und Umweltfreundlichkeit der KI-Systeme. Last but not least: Der AI Act verlangt, dass KI-Lösungen rechenschaftspflichtig und überprüfbar sind. Zudem unterscheidet der Regulierungsvorschlag KI-Lösungen grundsätzlich nach ihrem Risikopotenzial: von minimal über stark bis unannehmbar. Letztere will die Kommission komplett verbieten, weil sie menschliche Grundrechte gefährden können. Risikoniveau des konkreten KI-Einsatzes Um den Einsatz einer stets ethischen KI zu gewährleisten, müssen Finanzinstitute sich zunächst Klarheit über den Risikograd all ihrer KI-Systeme verschaffen. Besonderes Augenmerk brauchen anschließend die Lösungen mit starkem Risiko. Die erste Frage ist also, in welchem Bereich das KI-System genutzt wird. Soll die KI helfen, die Kredit- oder Compliance- Risiken eines konkreten Geschäfts bzw. eines individuellen
Laden...
Laden...
Laden...