Neuronale Netze in der Wertpapieranalyse
Zusammenfassung
Ein besonderer Aspekt ist hier die bereits erwähnte Fähigkeit des Menschen zu lernen, die Computer im Gegensatz zum Menschen in der Regel nicht besitzen. Mit künstlichen neuronalen Netzen (KNN) kann dem Computer diese Fähigkeit verliehen werden, wodurch sich völlig neue Einsatzmöglichkeiten ergeben. Beispielsweise lassen sich sehr leistungsstarke aber auch rechenintensive Netze zur kurzfristigen Prognose von Wertpapierindices oder Aktienkursen erstellen, auf welchen in dieser Arbeit auch der Schwerpunkt liegt. Zunächst wird auf das bereits erwähnte biologische Vorbild, das Gehirn, eingegangen, und der historische Ursprung künstlicher neuronaler Netze dargestellt.
Daran anschließend werden der Aufbau eines künstlichen neuronalen Netzes sowie die Funktionsweise erläutert. Abschließend wird auf die vielfältigen Einsatzmöglichkeiten im Rahmen der Wertpapieranalyse eingegangen, und ein Fazit gezogen.
Leseprobe
Inhaltsverzeichnis:
1. Einleitung
2. Hauptteil
2.1 Das biologische Vorbild
2.2 Die Geschichte künstlicher neuronaler Netze (KNN)
2.3 Aufbau und Funktion
2.4 Lernen mittels Backpropagation
2.5 Allgemeines zur Wertpapieranalyse
2.5.1 Die Fundamentalanalyse
2.5.2 Die technische Analyse
2.6 Einsatz der KNN zur Wertpapieranalyse bzw. im Portfoliomanagement
2.6.1 Aktienkursprognose
2.6.2 Prognose des Marktzinses
2.7 KNN für Privatanleger
2.8 Vor- und Nachteile der Verwendung von KNN zur Prognose von Zeitreihen
2.9 Kritik an KNN
3. Fazit
4. Abbildungsverzeichnis
5. Abkürzungsverzeichnis
6. Literaturverzeichnis
1. Einleitung
„ Man braucht zwei Jahre um Sprechen zu lernen und fünfzig, um Schweigen zu lernen “
Ernest Hemingway
Lernen ist ein langsamer, lebenslang andauernder Prozess der den Menschen auf seine heutige evolutorische Stufe gehoben hat. Die Grundlagen hierfür liegen in unserem komplexen und hochentwickelten Gehirn dessen Struktur uns das Lernen erst ermöglicht. Inspiriert durch das biologische Vorbild, das Informationen aufnimmt, speichert und Schlüsse für die Zukunft und unser zukünftiges Verhalten zieht, beschäftigen sich seit einigen Jahren Wissenschaftler damit, die neuronale Struktur in unserem Gehirn künstlich nachzubilden und damit basierend auf Zeitreihen der Vergangenheit Aussagen über den zukünftigen Verlauf der Zeitreihe zu treffen. Ein besonderer Aspekt ist hier die bereits erwähnte Fähigkeit des Menschen zu lernen, die Computer im Gegensatz zum Menschen in der Regel nicht besitzen. Mit künstlichen neuronalen Netzen (KNN) kann dem Computer diese Fähigkeit verliehen werden, wodurch sich völlig neue Einsatzmöglichkeiten ergeben.
Beispielsweise lassen sich sehr leistungsstarke aber auch rechenintensive Netze zur kurzfristigen Prognose von Wertpapierindices oder Aktienkursen erstellen, auf welchen in dieser Arbeit auch der Schwerpunkt liegt.
Zunächst wird auf das bereits erwähnte biologische Vorbild, das Gehirn, eingegangen, und der historische Ursprung künstlicher neuronaler Netze dargestellt. Daran anschließend werden der Aufbau eines künstlichen neuronalen Netzes sowie die Funktionsweise erläutert. Abschließend wird auf die vielfältigen Einsatzmöglichkeiten im Rahmen der Wertpapieranalyse eingegangen, und ein Fazit gezogen. Es sei darauf hingewiesen, dass im Folgenden der Begriff „KNN“ als Abkürzung für „künstliches neuronales Netz“ verwendet wird.
2. Hauptteil
2.1 Das biologische Vorbild
Auf eine ausführliche, biologische Darstellung des Nervensystems wird hier mit Rücksicht auf den Umfang der Arbeit verzichtet. Jedoch soll der Leser mit der grundsätzlichen Funktionsweise und Aufbau von Neuronen vertraut gemacht werden, um die künstliche Nachbildung im Folgenden besser zu verstehen.
Die Informationsverarbeitung im Nervensystem erfolgt durch das Zusammenspiel von vielen einzelnen Nervenzellen sog. Neuronen. Diese Zellen, die in praktisch allen vielzelligen Tieren vorkommen bestehen aus einem Zellkörper sowie den Zellfortsätzen1. Letztere untergliedern sich in zweierlei Arten: Die Erregung aufnehmenden Dendriten und die Erregung fortleitenden Axone.
Diese Zellen sind wiederum mit einer Vielzahl weiterer Nervenzellen verbunden und leiten Erregung durch die genannten Bausteine an eine Vielzahl anderer Neuronen weiter. Das menschliche Gehirn besteht schätzungsweise aus mehr als 100 Mrd. Neuronen2, die zusammen ein informationsverarbeitendes Netz bilden.
2.2 Die Geschichte künstlicher neuronaler Netze (KNN)
Bereits im Jahre 1943, beschrieben Walter Pitts und Warren McCulloch in ihrem Aufsatz „A logical calculus of the ideas immanent in nervous activity“ KNN die theoretisch in der Lage waren einfache Funktionen zu lösen. Eine Abbildung am Rechner wie heute war damals noch nicht möglich und etwas Entscheidendes war in die Überlegungen bezüglich der KNN nicht eingeflossen. Die Fähigkeit zu Lernen. Dies behob nur sechs Jahre später Donald O. Hebb mit der Hebb'schen Lernregel, die bis heute bei KNN Anwendung findet. 1958 wurde der erste Neurocomputer von Frank Rosenblatt und Charles Wightman am MIT entwickelt der dank des von Frank Rosenblatt entwickelten Verfahrens auch in der Lage war zu lernen.
Nach einigen Jahren der Stagnation in der KNN-Forschung gelang 1986 David E. Rumelhart, Geoffrey E. Hinton und Ronald J. Williams der Durchbruch mit ihrem sog. Backpropagation Lernverfahrens3. Dies ist insofern relevant, da es erstmals einen schnellen und effizienten Lernprozess ermöglicht. Davor war das Trainieren bzw. „Anlernen“ des KNN ein enorm zeit- und rechenintensives Procedere. Dieses Lernverfahren stellt bis heute in weiterentwickelter Form die Grundlage für KNN dar.
2.3 Aufbau und Funktion
KNN werden oft so modelliert, dass sie eine Art „blackbox“ darstellen4, die auf eine bestimmte Eingabe (x) eine Ausgabe (y) ermitteln. Abbildung 1 soll dies verdeutlichen:
Abbildung in dieser Leseprobe nicht enthalten
Abb. 1: KNN als „blackbox“ dargestellt; angelehnt an: Rojas, Raul - Künstliche Neuronale Netze als neues Paradigma der Informationsverarbeitung, FU Berlin
Betrachtet man nun diese „blackbox“ genauer, besteht diese aus mindestens drei Neuronenschichten sog. „Layers“. An der Eingabeschicht werden die Informationen in das Netz geleitet. Hier muss es nun mindestens eine „Hidden Layer“ geben die die Information verarbeitet und an die Ausgabeschicht weiterleitet. Je mehr „Hidden Layers“ zwischen Ein- und Ausabeschicht liegen, desto größer die Kapazität des Netzes aber auch die Rechenintensität sowie die benötigte Lernzeit nehmen erheblich zu.
Die Neuronen sind über gewichtete Verbindungen den „Kanten“ miteinander verbunden5. Die Möglichkeit der Gewichtung von Verbindungen stellt das Bindeglied zum biologischen Vorbild dar. Denn die Veränderung der Stärke von Synapsen im Gehirn eines Lebewesens ist der zentrale Vorgang beim „Lernen“.
Trifft nun auf ein Neuron ein Eingabewert als Information, summiert es alle gewichteten Eingaben mittels einer festgelegten Funktion und gibt es an alle nachfolgenden Neuronen weiter.6 Auf die besondere Rolle, die diese Funktion in KNN spielt wird im Laufe dieser Arbeit gezielt eingegangen, zunächst wird jedoch nur der Aufbau und die Funktion der KNN betrachtet.
Geben die Neuronen die Information nur an Neuronen weiter, der in der nächsten Schicht liegen, spricht man von einem „Feedforward-Netz“. Geben die Neuronen Informationen auch an Neuronen in vorgelagerten Schichten weiter, spricht man von einem „Feedback- Netz“.7
Abbildung 2 soll dies verdeutlichen:
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2: Feedback-Netz mit rekurrenter Informationsverarbeitung
Es sei an dieser Stelle noch erwähnt, dass es nicht das KNN gibt sondern unbegrenzt viele Möglichkeiten der Modellierung. So werden in der aktuellen Forschung häufig maximal drei „Hidden Layers“ als verdeckte, zwischen Ein- und Ausgabeschicht liegende, Schichten verwendet. Dies hat die bereits erwähnten Kapazitäts- und Zeitprobleme als Ursache. Auch die Anzahl der Neuronen kann variieren und zwischen 1 und 100 Neuronen in der Eingabeschicht, zwischen 1 und 50 in der verdeckten Schicht und zwischen 1 und 25 in der Ausgabeschicht schwanken. Für unser Anwendungsgebiet, nämlich den Wert einer Zeitreihe zu prognostizieren um Aussagen über die Wertentwicklung eines bestimmten Wertpapiers treffen zu können, kommt für die Ausgabeschicht jedoch nur ein Neuron in Frage.
2.4 Lernen mittels Backpropagation
Wie das Gehirn muss auch das KNN lernen. Man nennt diesen Prozess jedoch im künstlichen Zusammenhang „trainieren“. Dies ist die wohl wichtigste Phase beim Erstellen eines KNN, denn würde man ohne Trainingsphase Informationen in die Eingabeschicht geben, wäre die Ausgabe wertlos da die Kantengewichte also die gewichteten Verbindungen zwischen den Neuronen nicht justiert wurden und das KNN die Information in zufälliger Gewichtung verarbeitet. In der Trainingsphase wird nun eine enorme Menge an Datensätzen benötigt, die in das Netz eingegeben werden und mit dem Lernalgorithmus die Kantengewichte, basierend auf historischen Daten, einstellen. Hier tritt neben dem Problem der oft mangelnden Rechenkapazität ein weiteres auf: Die Verfügbarkeit und Qualität der Datensätze. Für die Prognose einer Zeitreihe wie beispielsweise des deutschen Aktienindex (DAX) wird eine Vielzahl an Zeitreihen von beeinflussenden Faktoren benötigt, die auf einen einheitlichen Aufbau der Zeitreihe normiert sein müssen. D.h. eine unformatierte Zeitreihe eines amerikanischen Wertpapierindex kompromittiert die Qualität des Netzes, da es Tage gibt, an denen in den USA nicht gehandelt wurde (z.B Feiertage) in Deutschland jedoch schon und umgekehrt. Dieses Problem muss durch eine Formatierung und Normierung der Zeitreihen behoben werden, was einen erheblichen Zeit- und Kostenfaktor darstellt. Verzichtet man auf diese Normierung, nimmt das Netz den fehlenden Wert in der Zeitreihe (z.B. wegen eines Feiertags) auf, gewichtet ihn falsch, und die Aussagekraft des prognostizierten Wertes ist von fragwürdiger Qualität. Die Qualität der Zeitreihen und damit auch die des prognostizierten Wertes für die gewünschte Zeitreihe (z.B. DAX) lässt sich weiter steigern wenn eine Trend- und Saisonbereinigung8 vorgenommen wird.
Ist das Netz aufgebaut und die normierten und bereinigten Datensätze vorhanden, beginnt der eigentliche Lernprozess mittels Backpropagation, der 1986 von D.E. Rumelhart veröffentlicht wurde und bis heute in der Fachliteratur noch „State of the art“ ist.
Der Prozess gliedert sich in vier Teilschritte:9
1. Die Eingabedatensätze werden an die Neuronen der Eingabeschicht angelegt. Die Gewichtungen der Verbindungen sind zufällig gesetzt.
2. Es wird eine Ausgabe am Neuron der Ausgabeschicht erzeugt.
3. Die erzeugt Ausgabe wird mit einem gewünschten Ausgabewert verglichen und eine Fehlerfunktion ermittelt.
4. Der Fehler wird von der Ausgabe- zur Eingabeschicht rückwärtspropagiert und passt die Gewichte entsprechend an.
Diesen Prozess des sog. Rückwärtspropagierens (engl. Backpropagation) wird mehrfach wiederholt bis die Abweichung vom gewünschten Ausgabewert möglichst gering ist.10 Dies kann je nach Größe des Netzes und vorhandener Rechenkapazität einen hohen Zeitaufwand bedeuten.
[...]
1 Vgl. http://cs.uni-muenster.de/Professoren/Lippe/lehre/skripte/wwwnnscript/bio.html aufgerufen am 03.04.2013
2 Vgl. http://www2.uni- wuppertal.de/FB4/anglistik/multhaup/brain_language_learning/html/brain_microstructures/2_struct_funct _neurons_txt.html aufgerufen am 03.04.2013
3 Vgl. Ebd. aufgerufen am 03.04.2013
4 Vgl. http://page.mi.fu-berlin.de/rojas/2001/nn-paradigma.pdf S. 4 aufgerufen am 04.04.2013
5 Vgl. Ebd. S.4 aufgerufen am 04.04.2013
6 Vgl. Schlitter, Nico: Analyse und Prognose ökonomischer Zeitreihen - Neuronale Netze zur Aktienkursprognose. VDM Verlag Dr. Müller, Saarbrücken 2008, S. 20
7 Vgl. Steiner, Manfred; Bruns, Christoph; Stöckl, Stefan: Wertpapiermanagement - Wertpapiermanagement und Portfoliostrukturierung. Schäffer-Poeschel, Stuttgart 2012, S. 296
8 Vgl. Schlitter, Nico: Analyse und Prognose ökonomischer Zeitreihen - Neuronale Netze zur Aktienkursprognose. VDM Verlag Dr. Müller, Saarbrücken 2008, S. 45
9 Vgl. http://cs.uni- muenster.de/Professoren/Lippe/diplomarbeiten/html/eisenbach/Diplomarbeit/Diplomarbeit.pdf S. 23-25 aufgerufen am 14.04.2013
10 Vgl. Ebd. S. 24 aufgerufen am 14.04.2013