Aufrufe
vor 4 Monaten

die bank 05 // 2022

  • Text
  • Banken
  • Unternehmen
  • Risiken
  • Swift
  • Cips
  • Anbieter
  • Digitalisierung
  • Regulierung
  • Karriere
  • Digitale
  • Wwwbankverlagde
die bank gehört zu den bedeutendsten Publikationen der gesamten Kreditwirtschaft. Die Autoren sind ausnahmslos Experten von hohem Rang. Das Themenspektrum ist weit gefächert und umfasst fachlich fundierte Informationen. Seit 1961 ist die bank die meinungsbildende Fachzeitschrift für Entscheider in privaten Banken, Sparkassen und kreditgenossenschaftlichen Instituten. Mit Themen aus den Bereichen Bankmanagement, Regulatorik, Risikomanagement, Compliance, Zahlungsverkehr, Bankorganisation & Prozessoptimierung und Digitalisierung & Finanzinnovationen vermittelt die bank ihren Lesern Strategien, Technologien, Trends und Managementideen der gesamten Kreditwirtschaft.

DIGITALISIERUNG

DIGITALISIERUNG Science-Entwicklungen bringen bei der Betrachtung nochmal besondere Eigenheiten und Anforderungen mit sich. So wird häufig bereits bei der Entwicklung Datenzugriff benötigt, während in der klassischen Software- Entwicklung viel mit künstlichen Testdaten gearbeitet werden kann. Auch spiegelt sich die hohe Dynamik und Aufmerksamkeit, die Data Science am Markt genießt, in einer hohen Volatilität der in der Entwicklung einsetzbaren Werkzeuge wider; für Entwicklungen am Puls der Zeit sind auch die jeweils aktuellen Hilfsmittel notwendig. Nicht zuletzt werden auch an die entwickelten und trainierten Modelle selbst nochmal besondere Anforderungen an Reproduzierbarkeit und Erklärbarkeit gestellt, was natürlich zu Mehraufwand bei der Entwicklung führt. Keine dieser Herausforderungen verbietet aber die Cloud-Nutzung im Allgemeinen und Data-Science-Entwicklungen auf Cloud- Plattformen im Besonderen. Es gilt, die regulatorischen Anforderungen mittels entsprechender technisch-organisatorischer Maßnahmen umzusetzen, besondere Sicherheitsumgebungen für Data-Science-Entwicklungen zu schaffen und sowohl in der Entwicklung als auch im Betrieb die entwickelten Anwendungen genau zu überwachen. Warum sich mit einer Cloud zufriedengeben, wenn es ihrer so viele gibt? Nun konkurriert heutzutage eine ganze Reihe von Cloud-Anbietern miteinander, mit zum Teil sehr großen Bandbreiten an angebotenen Diensten im Portfolio. Da stellt sich schnell die Frage, welcher Anbieter ausgewählt werden soll, oder ob es nicht doch sinnvoll sein könnte, die eigenen, für die Cloud bestimmten Anwendungen gleich über mehrere Anbieter zu verteilen. Dieser sogenannte Multi-Cloud-Ansatz ist besonders im regulierten Umfeld scheinbar attraktiv, wird doch neben der Minimierung von Ausfallrisiko und Abhängigkeit zu einem Dienstleister auch noch die Verfügbarkeit erhöht. Außerdem bieten speziell die großen drei Anbieter – Google, Amazon und Microsoft – zwar ein äußerst breites Angebot, sie setzen darin aber auch eigene Schwerpunkte und bieten unter Umständen Dienste, die je nach Anwendungsfall speziell geeignet sein können. Demgegenüber steht der nicht unerhebliche Aufwand, miteinander größtenteils inkompatible Dienste zu verwalten, Mitarbeiter auf den unterschiedlichen Plattformen zu schulen und übergreifende Prozesse sowie Datenflüsse mit unterschiedlichen Technologien zu entwickeln. Letztlich gilt es abzuwägen, aus welchem Grund und mit welchem Ziel eine Multi- Cloud-Strategie verfolgt werden soll. Geht es um Risikobetrachtung und Abhängigkeitsminimierung, etwa bei besonders kritischen Diensten, so sollten die entsprechenden Anwendungen mit herstellerübergreifenden Technologien aufgebaut werden, um eine einfache Migration oder gar einen Mehrfachbetrieb möglich zu machen. Hier hat sich in den letzten Jahren speziell Container-Entwicklung und darauf aufsetzend die Open-Source- Plattform Kubernetes hervorgetan, soweit, dass sie gar als Cloud-native Technologien gelten. Praktisch alle großen Cloud Provider bieten hier angemessene Dienste und Lösungen an. Steht hinter der Multi-Cloud-Strategie allerdings eher der Wunsch, die jeweiligen Eigenheiten und Angebote der Dienstleister auszunutzen, so muss in die Gesamtbetrachtung auch der Aufwand der System- und Datenintegration über Netzgrenzen hinweg einfließen. Gerade im Bereich Data-Science liefern sich die großen Anbieter einen Wettlauf mit immer besseren und für immer speziellere 36 05 | 2022

DIGITALISIERUNG Torsten Nahm ist auch einer der Referenten bei unserer Online-Fachtagung „Cloud-Nutzung in der Finanzbranche“ Rahmenbedingungen, Strategien und Praxis am Dienstag, 28. Juni 2022 rund um innovative Geschäftsmodelle, die Nutzung aktueller Technologien, eine effi ziente Gestaltung von Prozessen und regulatorische Anforderungen. Alle Infos und Anmeldungen unter www.bv-events.de oder direkt hier: FAZIT Data Science ist aufgrund der Diversität bei der Ressourcenverwendung ein Paradebeispiel für einen sinnvollen Einsatz in der Cloud. Zudem sind vor allem bei den großen Anbietern auch spezielle Dienste buchbar, die gerade im heiß umworbenen Data-Science-Umfeld eine schnelle Entwicklung und den einfachen Betrieb ermöglichen. Bei allen deutlichen Vorteilen der Cloud ist es jedoch auch bei Data-Science-Entwicklungen geboten, sich an die Best Practices der Cloud-Entwicklung zu halten, denn Fehlkonfigurationen oder Unachtsamkeiten können schnell zu ungeplanten Kosten oder sogar unbefugten Zugriffen führen. Anwendungsfälle geeigneten Angeboten. In solchen Fällen muss jedoch dann eine Exit- Strategie zur Migration der Anwendung formuliert werden, sollte doch eines Tages der Fall eintreten, dass genau der verwendete Dienst, aus welchen Gründen auch immer, nicht mehr zur Verfügung steht. Mögliche Szenarien reichen dabei vom kompletten Einstellen der Anwendung über eine technologische Anpassung an vergleichbare Dienste anderer Anbieter bis hin zum Eigenbau unter der Verwendung herstellerunabhängiger Technologien. Autoren Torsten Nahm (Foto links) und Alexander Köb (Foto rechts) sind beide bei der DKB AG beschäftigt, Nahm ist Head of Data Science, Köb Tech Lead Cloud Data Platform. 05 | 2022 37

die bank

© die bank 2014-2020