Aufrufe
vor 1 Jahr

die bank 03 // 2023

  • Text
  • Unternehmen
  • Banken
  • Marktteilnehmer
  • Wertpapierleihe
  • Repos
  • Wertpapiere
  • Markt
  • Digitale
  • Digitalisierung
  • Aktie
  • Wwwbankverlagde
die bank gehört zu den bedeutendsten Publikationen der gesamten Kreditwirtschaft. Die Autoren sind ausnahmslos Experten von hohem Rang. Das Themenspektrum ist weit gefächert und umfasst fachlich fundierte Informationen. Seit 1961 ist die bank die meinungsbildende Fachzeitschrift für Entscheider in privaten Banken, Sparkassen und kreditgenossenschaftlichen Instituten. Mit Themen aus den Bereichen Bankmanagement, Regulatorik, Risikomanagement, Compliance, Zahlungsverkehr, Bankorganisation & Prozessoptimierung und Digitalisierung & Finanzinnovationen vermittelt die bank ihren Lesern Strategien, Technologien, Trends und Managementideen der gesamten Kreditwirtschaft.

DIGITALISIERUNG 3 |

DIGITALISIERUNG 3 | Vorhersage der zehnjährigen realen Überschussrendite (10YR) des S&P 500 außerhalb der Stichproben mit den neuronalen Netzen GRU und LSTM mit dem Testdatensatz von März 1986 bis Juni 2012 15 % 10 % Ten year real excess return (10YR) 5 % 0 % -5 % 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 -10 % -15 % Jahr 10YR (Actuals) Regression model GRU model Quelle: Herdt und Schulte-Mattler (2022), S. 87. nen zugeordnet werden: Die Eingabeschicht (Input Layer) für die Input-Neuronen (I i ), die „verborgene“ Schicht (Hidden Layer) für die Hidden-Neuronen (H i ) und die Ausgabeschicht (Output Layer) für die Output-Neuronen (O i ). Der Index i mit i = 1, …, n bezeichnet die Anzahl der Neuronen pro Layer- Typ. Je größer der Parameter n ist, desto komplexer ist ceteris paribus das neuronale Netzwerk. Die Komplexität oder Tiefe von neuronalen Netzstrukturen (Deep Neural Networks, DNNs) wird an der Anzahl der freien Parameter im Netz gemessen, also an der Anzahl der Neuronen und Layer sowie der Stärke der Verbindungen zwischen den Neuronen (Gewichte). Grundsätzlich ist die Anzahl der Neuronen und Layer (insbesondere der Zwischenschichten, der Hidden Layer) beliebig und damit auch die Komplexität eines neuronalen Netzwerks. Nur die Rechenkapazität und -schnelligkeit beschränkt faktisch die Anzahl der Parameter. Je mehr Neuronen und Layer ein neuronales Netz umfasst, desto „tiefer“ ist das Netzwerk. DNNs haben eine hohe Anzahl von Verbindungen zwischen den Neuronen und sind damit in der Lage, komplexe Sachverhalte zu modellieren. Die meisten DL-Algorithmen sind DNNs, die aus vielen Layern mit noch mehr Neuronen als Verarbeitungseinheiten bestehen. In den Neuronen geschieht die „Verarbeitung“ im Wesentlichen durch Multiplikation der jeweiligen Eingabeinformation in den verborgenen Schichten des Netzes mit einem Gewichtungswert. Die daraus resultierende Ausgabe wird entweder nur beobachtet oder an die nächste Schicht im neuronalen Netz weitergeleitet. Einfache Feed-Forward- und komplexere Recurrent Neural Networks (FNNs und RNNs) mit Rückkopplungsmechanismen für die Informationsspeicherung gehören zu den DNNs. FNNs weisen einfachste Architekturen auf, da die Informationsweiterleitung in eine Richtung (Feed-Forward) – ohne Rückverbindung – stattfindet. Zumeist sind RNNs wie FNNs aufgebaut. Der Unterschied besteht darin, dass in RNNs Neuronen im Hidde Layer die Informationen auch rückwärts in Vorgänger-Schichten weiterleiten. So entstehen Rückkopplungsmechanismen innerhalb des Systems. Dieser Mechanismus ist wesentlich für die Fähigkeit, Informationen über einen längeren Zeitraum zu speichern und zu verarbeiten. Das Anlernen von DNNs ist ein sehr zeitund kostenintensiver Prozess und eminent bedeutsam für die Prognosegüte. Der Lernprozess – auch Training genannt – stellt sicher, dass in der späteren Prognose möglichst zuverlässige Ergebnisse erzielt werden. Während des Prozesses werden die DNN-Parameter zum Zweck einer möglichst hohen Vorhersagegenauigkeit optimiert. Das Anlernen der DNNs ist aufgrund der oft hohen Komplexität und der regelmäßig zugrunde liegenden großen Datenmenge sehr aufwendig. Einfachen Netzstrukturen mit hoher Prognosegüte ist der Vorzug vor zu komplexen Modellen zu geben, wenn sie schlechter performen. Komplexere DNNs sind nicht zwingend besser. Sie erfordern einen großen Datenpool, um gute Erfolge zu gewährleisten. Daten und Modellleistung gehen Hand in Hand. Wenn aber nicht genügend Trainingsdaten zur Verfügung stehen, wird ein komplexes Netzwerk die Trainingsdaten leicht „übererfüllen“ (Overfitting). Dies führt zu sehr geringen Trainingsverlusten, aber auch zu schlechten Prognosewerten. Es ist also ratsam, mit dem einfachsten Modell zu beginnen und in Abhängigkeit der Trainings- und Testleistung komplexere Netzwerk-Architekturen zu implementieren. KI im Prognoseeinsatz Die Autoren dieses Beitrags (folgend kurz HSM genannt) haben eine einfache DNN-Architektur zur Prognose langfristiger Aktienindexrenditen vorgestellt, das als Startmodell für die Analyse von Finanzzeitreihen benutzt werden kann. 1 Die Prognose der langfristigen Aktien- 48 03 | 2023

DIGITALISIERUNG marktrenditen erfolgt mittels des CAPE-Verhältnisses. Es werden insgesamt drei verschiedene DNNs (insb. RNNs) für die Prognose der Renditen untersucht. Das Ziel der empirischen Analyse war es, eine einfache Architektur, also ein „einfaches Modell“ zu finden, das für die praktische Anwendung als Start für die beabsichtigten Analysen benutzt werden kann. „All life is solving problems.“ (Karl Popper) Für die Identifikation der einfachen DNN- Architektur fokussierten HSM sich auf die Parametereinstellungen der Basic-RNNs, Long Short-Term Memory (LSTM) und Gated Recurrent Unit (GRU) neuronale Netze. LSTMund GRU-Netze sind eine Weiterentwicklung der Basic-RNNs und erweitern die Fähigkeit, Informationen über einen längeren Zeitraum zu speichern und zu verarbeiten. Die Untersuchung der optimalen Parametereinstellung konzentriert sich auf eine Variation der Neuronen und Layer sowie auf die Anzahl der in einer Iteration verwendeten Trainingsbeispiele (Batch Size). Die Analyse von HSM besteht letztlich aus den drei genannten RNNs mit 75 Parameterkombinationen. Um die langfristigen Aktienindexrenditen zu prognostizieren, wird ein Modelldatensatz benutzt, der die CAPE-Verhältnisse und die zehnjährigen annualisierten Renditen des S&P 500 beinhaltet. Die Datengrundlage umfasst einen Zeithorizont von Januar 1881 bis Juni 2012. Die Daten werden von Shiller auf seiner Website bereitgestellt. 6 In der Regel wird der Modelldatensatz in einen Trainings- und Testdatensatz geteilt, um die Performance der RNNs auf die ungesehenen Datenpunkte zu testen. HSM wählten ein Split von 80 Prozent Trainingsdaten und 20 Prozent Testdaten. Das einfache „GRU-101010-Deep-Neural-Network-Modell“ von HSM erzielt eine sehr gute Performance bei der Renditeprognose und eignet sich deshalb als Startmodell für die praktische Anwendung. Insgesamt erzielen die verwendeten RNNs eine bessere Performance als die klassischen Regressionsmethoden. ÿ 3 zeigt im Vergleich die Performance einer linearen Regression und GRU-101010 auf dem Testdatensatz für die Prognose. GRU-Netze haben eine besonders einfache Struktur, die ein schnelles Anlernen ermöglicht. In Kombination mit der Parameterwahl (10 Neuronen – 10 Layer – Batch Size 10) erzielt das GRU-101010-Modell bessere Ergebnisse als andere komplexere RNN- Architekturen. Praktiker ersparen sich damit die zeit- und kostenintensive Parametrisierung eines „optimalen“ Modells. 03 | 2023 49

die bank