Zum Inhalt springen
Melde dich an, um diesem Inhalt zu folgen  
epg

Häufung bestimmer Schlüsselworte in der Presse als Kauf-Indikator

Empfohlene Beiträge

epg

Ich habe http://invest.pl4y6r0und.net um einTool ergänzt um zu untersuchen ob sich einfach aus der Häufung bestimmter Schlüsselworte eine Anlagestrategie ableiten lässt. Würde mich über Feedback freuen (Ja, ich weiß es sind nur amerikanische Titel und keine DAX Werte, das interessiert euch nur mäßig, aber daran arbeite ich auch ;) ) Ich habe

 

Screenshot-2018-1-6 Keyword Correlation - MSFT.png

Diesen Beitrag teilen


Link zum Beitrag
Juninho

Interessant, ich konnte jetzt allerdings nicht sehen wie gut deine Performance ist, bzw ob du spezielle Schlüsselwörter ausfindig gemacht hast? Hast du ein paper dazu verfasst oder bist noch dabei?

 

Ich versuch mich geraden an etwas Ähnlichem allerdings habe ich die These vertreten das Zeitungsartikel nicht nötig sind und nur die Headlines ausreichen, weil sie das was im Artikel steht sowieso schon zusammenfassen. Des weiteren wollte ich Events und keine einzelnen Keywords haben. Das neuralnet muss ich halt noch bauen.   

 

Diesen Beitrag teilen


Link zum Beitrag
epg

Ich habe jetzt mal das grundlegende Tool geschrieben und schaue mal ob das jemanden interessiert. Außerdem gibt es noch ein paar Sachen über die ich mir Gedanken mache, z.B. ob ich das Invest für das Backtesting inflationsbereinigen sollte. Die Random WErte veretilen sich ja relativ regelmäßig über die gesamte Periode, die Schlüsselwörter können schon mal aussetzen und da ist natürlich die Frage, stimmt das Backtesting so. Außerdem weiß ich noch nicht ob ich das Volumen berücksichtigen sollte oder ob das die grundlegende Aussage des Schlüsselwortes verfälscht da es ja im Grunde ein eigener Indikator ist.

 

Dein Projekt klingt auch interressant, willst du auch auf die Sematik losgehen oder nur Muster suchen? Ich werde auch demnächst was mit NN machen aber ich bin mir nicht so recht sicher was. In meinem Brotberuf kommen mir Blackbox-Modelle immer wieder mal unter und ich bin da ja etwas skeptisch. Also wenn ich was mache dann eher Richtung Greybox, indem ich Indikatoren wie Schlüsselwörter, Korrelationen zwischen verschiedenen Titel u.ä. mit einen NN auswerte.

Diesen Beitrag teilen


Link zum Beitrag
Juninho
· bearbeitet von Juninho
vor 20 Stunden schrieb epg:

Ich habe jetzt mal das grundlegende Tool geschrieben und schaue mal ob das jemanden interessiert. Außerdem gibt es noch ein paar Sachen über die ich mir Gedanken mache, z.B. ob ich das Invest für das Backtesting inflationsbereinigen sollte. Die Random WErte veretilen sich ja relativ regelmäßig über die gesamte Periode, die Schlüsselwörter können schon mal aussetzen und da ist natürlich die Frage, stimmt das Backtesting so. Außerdem weiß ich noch nicht ob ich das Volumen berücksichtigen sollte oder ob das die grundlegende Aussage des Schlüsselwortes verfälscht da es ja im Grunde ein eigener Indikator ist.

 

Ich konnte in der Wissenschaft nichts finden, dass Volumen und Kursrichtung in Zusammenhang bringt, deswegen habe ich das Volumen ignoriert. Prinzipiell musst du natürlich überlegen, ob du Performance willst oder untersuchen willst, ob Keywords einen Einfluss haben. Prinzipiell ginge natürlich auch beides und man schaut was besser funktioniert ;)

 

vor 20 Stunden schrieb epg:

Dein Projekt klingt auch interressant, willst du auch auf die Sematik losgehen oder nur Muster suchen? Ich werde auch demnächst was mit NN machen aber ich bin mir nicht so recht sicher was. In meinem Brotberuf kommen mir Blackbox-Modelle immer wieder mal unter und ich bin da ja etwas skeptisch. Also wenn ich was mache dann eher Richtung Greybox, indem ich Indikatoren wie Schlüsselwörter, Korrelationen zwischen verschiedenen Titel u.ä. mit einen NN auswerte.

Ich hab ein Event definiert als O1+P+O2+T. Also zwei Objekte O, ein Verb und ein Zeitpunkt T. Wobei eines der Objekte ein S&P 500 Unternehmen sein muss um den Artikel als relevant einzustufen. Die Verben hab ich nach VerbNet gruppiert. https://verbs.colorado.edu/~mpalmer/projects/verbnet.html 

Allerdings bin ich oft nicht ganz glücklich mit dem Wörterbuch, da sich das doch eher auf den normal Sprachgebrauch und nicht auf den Bereich Finance spezialisiert ist. Außerdem sind so viele Gruppen, dass ich doch ne große Streuung in der Anzahl der einzelnen Event Kategorien habe. 

 

Ja, mich interessiert erstmal nur Performance. Wobei ich mir Korrelationen natürlich auch separart ansehen kann. Das sollte eigentlich mit dem apriori algorithmus schnell gehen. Interessant finde ich noch, ob die Krisenzeiten evtl besser funktionieren, da die Leute da nochmal mehr sensibilisiert sein dürften. Ich erhoffe mir 60-65% Accuracy, was aber halt auch noch nur so gerade über dem Niveau von raten wäre. Aber mir ist auch noch kein Approach untergekommen der mehr erzeugen würde.      

Diesen Beitrag teilen


Link zum Beitrag
epg

Interessant. Was denkst du über das Thema Inflation für das Backtesting  berücksichtigen?

 

Diesen Beitrag teilen


Link zum Beitrag
Juninho
vor 20 Stunden schrieb epg:

Was denkst du über das Thema Inflation für das Backtesting  berücksichtigen?

 

 

Ich weiß ehrlich gesagt gar nicht so richtig, was dein Gedankengang dahinter ist bzw. warum das nötig sein sollte?

Diesen Beitrag teilen


Link zum Beitrag
3mg4
· bearbeitet von 3mg4

Hier gibt es einen evt interessanten TEDx Talk über Google Search Volume für bestimmte Begriffe der in die selbe Richtung geht.

Das schwierigste ist wohl die richtigen Schlagwörter zu finden, wie er auch in dem Talk beschreibt.

 

Diesen Beitrag teilen


Link zum Beitrag
epg

@3mg4 Danke für den interessanten link, ich werde mir den gleich mal anschauen

 

@juninho Mein Backtesting funktioniert ja wie folgt: Ich ermittle die Kaufsignale anhand des Algorithmus. Da kommen z.B. 15 Kaufsignale in den letzten 10 Jahren heraus. Dann mache ich 10 Reihen in dem ich jeweils 15 Kaufsignale mit Zufallsdaten erzeuge dann ermittle ich zu jedem Kauftag den closingpreis und kaufe dafür eine Anzahl von Anteilen für einen Gegenwert von 1000$. Die summiere ich auf und die Reihe mit den meisten Anteilen am Ende ist Sieger. Jetzt kann passieren dass z.B. die 14 Kaufsignale zufälligerweise in das erste Jahr fallen und einer in das letzte. Die Zufallsreihen werden relativ gleichmäßig über den Zeitraum verteilt. Dadurch erscheint der Algrithmus besser da die Kaufkraft der 1000$ über dem langen Zeitraum anderst verteilt sind. Verstehst du mein Problem?

Diesen Beitrag teilen


Link zum Beitrag
epg

Das ist übrigens ein nettes Beispiel für das was ich suche: https://goo.gl/6cPqc3

Wobei ich mich natürlich bei der sich annähernden Trends zwischen den Zufallsreihen und dem Schlüsselwort frage ob es sich hier um eine Konizidenz oder um eine Korrelation handelt.

Diesen Beitrag teilen


Link zum Beitrag
Juninho
vor einer Stunde schrieb epg:

Mein Backtesting funktioniert ja wie folgt: Ich ermittle die Kaufsignale anhand des Algorithmus. Da kommen z.B. 15 Kaufsignale in den letzten 10 Jahren heraus. Dann mache ich 10 Reihen in dem ich jeweils 15 Kaufsignale mit Zufallsdaten erzeuge dann ermittle ich zu jedem Kauftag den closingpreis und kaufe dafür eine Anzahl von Anteilen für einen Gegenwert von 1000$. Die summiere ich auf und die Reihe mit den meisten Anteilen am Ende ist Sieger. Jetzt kann passieren dass z.B. die 14 Kaufsignale zufälligerweise in das erste Jahr fallen und einer in das letzte. Die Zufallsreihen werden relativ gleichmäßig über den Zeitraum verteilt. Dadurch erscheint der Algrithmus besser da die Kaufkraft der 1000$ über dem langen Zeitraum anderst verteilt sind. Verstehst du mein Problem?

Ja verstehe. Würde ich bei 10 Jahren aber erstmal als nachrangiges Detail sehen. Was du machst ist dann ja schon fast ne Marktsimulation. Theoretisch müssteste ja auch Transaktionskosten einberechnen. Aber auch das wäre für mich ein nachrangiges Detail, dass erst interessant werden könnte, wenn der Approach ausgereift ist. 

 

Zum Thema Keywords. Bei mir sehen erste Ergebnisse so aus. Problem ist halt leider die sparsity. 

Unbenannt.PNG

Unbenannt2.PNG

Diesen Beitrag teilen


Link zum Beitrag
Autonomes

Interessanter Ansatz. Bezüglich des Herausfinden von Keywords insbesondere bei Google Trends Daten benutzt man zunächst die Wikipedia Datenbank.

Also wie oft wurde in Wikipedia nach der Aktie XYZ und deren Assoziationen gesucht bzw. unter welchen Suchwörtern. Da kommen dann seltsame Ergebnisse heraus wie "Debt", was sehr gute Korrelationen zum Markt hatte.

Diese werden dann im Google Trends abgefragt. Problem bei dem Google ist die etwas seltsame Normierung der Daten. D.h. Du bekommst nur eine Teilaufnahme der Daten Prozentual über eine gewisse Zeit auf den Höchstwert mit 100% verteilt.

Die Kunst ist diese prozentualen Anteile aus dem Google Wochen Daten zu verketten und diese Daten möglichst zum Wochen Wechsel am Sonntag aufzuzeichnen. 

Google macht hierzu aber keine Angaben wie die Daten normiert wurden.

Im schlimmsten Fall werden Suchanfragen rückwärts mit einem Durchschnittswert normiert.

Das wäre fatal, würde mir aber eine zu guten Performance erklären.

https://www.autonomes-trading.de/signalx.php?p=google

 

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
Melde dich an, um diesem Inhalt zu folgen  

×
×
  • Neu erstellen...