bvmedien
Aufrufe
vor 2 Jahren

KINOTE 01.2021

  • Text
  • Digitale
  • Algorithmen
  • Modelle
  • Einsatz
  • Entwicklung
  • Beispielsweise
  • Informationen
  • Intelligenz
  • Unternehmen
  • Banken
Um einen Wandel der Finanzbranche erfolgreich zu meistern, müssen Kreditinstitute sowohl Chancen als auch Herausforderungen der Künstlichen Intelligenz (KI) erkennen. Unter der neuen Marke KINOTE der Bank-Verlag GmbH finden Sie Meldungen, Studien und Fachartikel zum Themenkomplex KI. Wir beantworten Ihre Fragen rund um KI. Wir berichten über Trends, neue Technologien, Forschungsergebnisse und daraus entstehende Möglichkeiten, die KI Ihrem Unternehmen bietet.

20 01 | 2021 01 |

20 01 | 2021 01 | Chronologische Entwicklung der Technologien Künstliche Intelligenz, Maschinelles Lernen und Deep Learning Künstliche Intelligenz Eine Technik, mit der ein Computer intelligentes, menschliches Verhalten nachahmen kann. Machine Learning Durch selbstlernende Algorithmen analysieren Computerprogramme Datensätze und erkennen Muster und Gesetzmäßigkeiten, ohne dafür explizit programmiert zu sein. Deep Learning Beschreibt die Umsetzung eines maschinellen Lernverfahrens in Form eines künstlichen neuronalen Netzes. Die Erzeugung der relevanten Merkmale für das Lernen erfolgt selbsttätig. 1955 1960 1965 1970 1975 1980 1985 1990 1995 2000 2005 2010 2015 2020 Quelle: Georg Fuchs / Fraunhofer IAIS. zubereiten, geeignete Algorithmen und Methoden für den Einsatzzweck auszuwählen und die erzeugten Modelle zu evaluieren. Komplettiert wird ein Data­Science­Team durch die Rolle des Data Engineers. Diesem obliegt die Zusammenführung, Verwaltung und Bereitstellung der Ausgangsdaten sowie die Konzeptionierung und Umsetzung der nötigen Infrastruktur für das Ausrollen und den Betrieb der erstellten KI­Anwendung. Data Science – Prozessmodell Unabhängig von dem jeweiligen Geschäftsumfeld ist ein gängiges Vorgehensmodell bei Data­Science­Projekten der sogenannte Cross Industry Standard Process for Data Mining (CRISP­DM). Das Vorgehen besteht aus sechs Phasen, die nicht nur sequenziell durchlaufen werden, sondern zudem in starker Wechselwirkung zueinander stehen. » 2 Die erste Phase Geschäftsverständnis konzentriert sich auf die Definition der Projektziele und Anforderungen an das Projekt aus Geschäftsperspektive. Diese Informationen gehen in die Definition der Data­Science­Problemstellung ein, und ein vorläufiger Lösungsplan wird erstellt. Die Sammlung von Datenquellen und der Aufbau von Verständnis für die vorhandenen Daten bestimmt die zweite Phase Datenverständnis. Datenqualitätsprobleme müssen an dieser Stelle erkannt und behoben werden. Erste Erkenntnisse über die Daten können dabei helfen, Hypothesen für die Modellierungsphase zu formulieren. In die Datenvorverarbeitungsphase fallen alle Aktivitäten, die durchgeführt werden müssen, um einen finalen bereinigten Datensatz für das Training von Modellen zu erstellen. Darunter fallen unter anderem die Auswahl der Instanzen und Attribute, Datentransformationen sowie Datensäuberung. In der Modellierungsphase werden verschiedene Modellierungsansätze ausgewählt, angewendet und deren Parameter optimal kalibriert. Typischerweise gibt es mehrere mögliche Herangehensweisen mit unterschiedlichen Formatanforderungen an die eingehenden Daten. Datenvorverarbeitung und Modellierung erfolgen daher häufig inkrementell im Wechsel. Bevor ein solches Modell in eine Anwendung überführt werden kann, muss dessen Güte ausführlich anhand geeigneter Gütekriterien überprüft werden und somit, ob das in der ersten Phase gewählte Geschäftsziel erreicht wurde. Die Erstellung eines Modells markiert typischerweise nicht das Ende des Projekts. Selbst wenn als Projektziel lediglich Wissenssteigerung über einen Datensatz festgelegt wurde, müssen die extrahierten Informationen organisiert und be­

01 | 2021 21 02 | Vorgehensmodell CRISP-DM bei Data-Science-Projekten Geschäftsverständnis Datenverständnis Datenvorverarbeitung Ausrollen Daten Modellierung Evaluation eeinsa it orsten ah DK leitet Dr. eorg uchs den Zertifi katslehrgang Quelle: Georg Fuchs / Fraunhofer IAIS. reitgestellt werden. Die letzte Phase des Ausrollens kann daher alles von der Erstellung eines Reports bis hin zur Implementierung einer vollständigen Data­Science­Pipeline im gesamten Unternehmen umfassen. Dieser Schritt muss in enger Abstimmung mit dem Endkunden und den letztlichen Anwendern erfolgen. Data Scientist in Kreditinstituten: Einsatzfelder, Methoden und Umsetzung vo . bis . uni online. Weitere nfos httpswww.bv-events.de eventdata-scientist-in-kreditinstituten- Fazit Die Anwendungsmöglichkeiten der Data Science und der darauf basierenden KI-Anwendungen bergen ein enormes Potenzial. Überall dort, wo große Datenmengen anfallen und auf Basis der Daten Entscheidungen getroffen werden müssen, ist der Einsatz sinnvoll. Speziell im Finanzsektor sind datengetriebene Lösungen, wie z. B. die Echtzeit-Betrugserkennung in Transaktionsdatenströmen, nicht mehr wegzudenken. Zeitgemäße KI-Ansätze zeigen bereits jetzt den Weg zukünftiger Arbeitsteilung zwischen Fachanwendern, Kunden und KI. Mitarbeitende können von einfachen, wiederkehrenden und entsprechend monotonen Aufgaben entlastet werden und sich auf die relevanten Fälle konzentrieren. Kunden profitieren von maßgeschneiderten Angeboten und dem immer verfügbaren, bestens informierten KI-Assistenten am Kontaktpunkt. Grundlage und Kernpunkt derartiger KI-Anwendungen sind dabei stets die beschriebenen Ansätze der Data Science, die es erlauben, relevantes und wertvolles Wissen aus vorhandenen Daten für (teil-)automatisierte Entscheidungsfindungen verfügbar zu machen. Autor Dr. Georg Fuchs ist Geschäftsfeldleiter Big Data Analytics and Intelligence am Fraunhofer Institut IAIS.

Erfolgreich kopiert!

die bank