Sind Softwerker hier? Spielereien mit Börse und Code

  • Automatisierung
  • Daten
  • Strukturierung
  • Programmierung
  • Tool

Geschrieben

Hallo,

 

man findet ja eigentlich ITler überall, wo es um strukturierte Daten geht *g*

Vielleicht hat jemand Interesse an Austausch über "Börse und Code".

 

Mein diesjähriges Freizeitprojekt für den privaten Gebrauch kombiniert Python, Go und "die Google Cloud" sowie Kalenderfunktionen und "Scheduler" nebst Diagrammen und Webscrapern.

Es soll in Zukunft die "Morgenroutine der Optionshändler" automatisieren. Aber die Motivation ist zu einem großen Teil private IT-Weiterbildung, daher kommt das Frontend zuletzt. :)

 

Vielleicht finden sich ja Gleichgesinnte, wo wir uns gegenseitig auf Github "staren"?

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben

Hatte auch mal was ähnliches überlegt. Bin aber in R zu Hause und habe momentan zu wenig Zeit um zu proggen und das Wetter ist auch noch zu gut. Prinzipiell würde es mich aber interessieren, was du genau planst zu machen.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben

Also Webscraper mit Python habe ich schon ein paar programmiert, u.a. um automatisch Kursdaten von ariva.de und onvista.de herunterzuladen. Was genau ist denn geplant, deine Beschreibung ist noch ein wenig schwammig.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben · bearbeitet von dehy

Naja, auch wenn mein aktueller Code sehr "alpha" ist und eigentlich eher eine wilde Mischung aus stackoverflow und Google Cloud Dokumentation, verlinke ich dennoch mal auf den Branch "gae" im repo otmr.

Ich moechte

- mehrere Quellen

- eine Datenspeicherung

- einheitliche Verarbeitung und Ausgabe haben.

Das ganze ressourcenschonend.

 

 

Derzeit

- scrape ich onvista und speichere das in eine MySQL-Datebank

- lade von Alphavantage herunter und soeichere das als json und erzeuge ein Candlestick-Diagramm

- und das zu definierten Zeiten am Tag. (Total praktisch: crontab mit Zeitzonen!) Da wuerde ich gerne noch einen Wochentag-Kalender hinter haengen, hab da auch schon Go code.

- description: "xetra open"
  url: /exchange/xetra
  target: dispatcher
  schedule: every day 9:45
  timezone: Europe/Berlin

 

 

Ich moechte zwar vorrangig die Google Cloud Angebote nutzen, aber letztlich ist das normaler Python und Go Code.

 

 

So sieht in der Google Cloud Dateispeicherplatz aus:

Selection_043.png.png

 

 

Letztlich stelle ich mir sowas vor:

(Diese Kurven sollen zB der SMA200 sein.)

otmr-mockup.png

 

 

Vermutlich kann es von gegenseitiger Hilfe sein

- sich ueber die "besten" Datenquellen auszutauschen

- Beispielscode zu zeigen

- hilfreich zu kritisieren^H^H^H^H^H^H^H^H^H^Hreviewen ;)

 

Hier ein Minimalbeispiel "Alphavantage":

https://nbviewer.jupyter.org/github/cprior/finance-stuff/blob/master/application/physical/notebooks/alphavantage-api.ipynb

 

Hier Pythoncode mit BeautifulSoup bei onvista:

https://github.com/cprior/finance-stuff/blob/gae/application/physical/otmr/scraper/main.py#L50

Kein schoener Code und ein halbgares Datenmodell: Habe vor allem mit "der Google Cloud" gekaempft. Hab diese Platform aber jetzt soweit im Griff, dass es nun funktional weitergehen kann.

 

 

Edit: Vielleicht sind Jupyter-Notebooks eine gangbare Variante, Minimalbeispiele auszutauschen?

Denn die können ja auch einen R Kernel anbinden: https://www.datacamp.com/community/blog/jupyter-notebook-r

 

 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben

Moin, 

 

Danke nochmal für die PM. Ich hab mir alles mal reingezogen. Ich verstehe jedoch auch noch nicht 100% den case. Also was ist die Morgenroutine? Einfach nur Kurse checken? Da gibt´s ja bereits Apps. Oder soll das ganze auch in Richtung Prognose gehen? 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben

Prognose waere traumhaft, aber erstmal waere ich zufrieden, wenn

- automatisch und ohne "im Alltagsstress vergessen"

- aus verschiedenen Quellen (Alphavantage json, onvista HTML-Tabellen und EZB RSS)

valide* Daten boersentaeglich abgerufen werden.

 

Und das ganze so, dass ein "sachverstaendiger Interessierter" sich das daheim einrichten kann -- denn die Quellen erlauben wohl kaum die Speicherung der Daten fuer andere.

 

 

*) ich haette bsw nicht gedacht, dass Alphavantage am Pfingstmontag fuer den DAX "0" meldet!?!

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben

Geht es hier nur um Kursdaten bzw. das Erstellen von Charts? Interessant fände ich auch einen Scraper, der Fundamentaldaten aus verschiedenen Quellen zusammensammelt, mit denen man sich dann historische Kennzahlverläufe erstellen kann.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben · bearbeitet von dehy

 

Edit: Ich sehe, unter folgender Quelle gibt es auch Fundemantaldaten!

(Beim ursprunglichen Absenden vor ~3min noch nicht gesehen)

 

Bin die letzten Tage ganz angefixt: Eroeffne gerade ein Depot bei einem Reseller von Interactivebrokers. (Natuerlich hat mal wieder ein Dokument gefehlt *grrr*)

Das bedeutet, ich kann die Trader Workstation ueber eine Python API ansprechen! *yay*

 

Ein paar Anleitungen unter 

https://gist.github.com/robcarver17/7b4a8e2f1fbfd70b4aaea5d205cb35eb

https://www.quantstart.com/articles/Using-Python-IBPy-and-the-Interactive-Brokers-API-to-Automate-Trades

https://qoppac.blogspot.com/2017/03/interactive-brokers-native-python-api.html

machen mich ungeduldig...

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Geschrieben · bearbeitet von dehy

Ich bin begeistert und muss mich neu sortieren: Der Zugang zu einem Interactive Brokers Reseller-Depot ist schon da.

Noch habe ich keinen "Paper Trading Account" und kann daher (lesend) nur gegen den (noch nicht 'kapitalisierten' Live Account testen.

 

ABER: Ich bin drin! :)

Mit Python kann ich mich gegen das "IB Gateway" verbinden (hat nicht die GUI der TWS, aber fungiert gleichermaszen als Socket-"Proxy").

 

https://nbviewer.jupyter.org/github/cprior/finance-stuff/blob/master/application/physical/notebooks/tws_api.ipynb?flush_cache=true hat den Minimal-Code aus den samples der API. (Man installiert die API als Python module und importiert dann ganz normal. Auf localhost:4001 lauscht dann das IB Gateway.)

 

Zur Benutzung der API muss man in Python dann asynchron mit "Queue" aus der Standard Library arbeiten.

Das wird mich etwas bremsen!..

Trotzdem werde ich meine Aufmerksamkeit erstmal dieser Datenquelle widmen.

 

 

Edit 2018-08-16 9:10

Der Beispielcode wird sehr gut erklärt im einstündigen Webinar https://register.gotowebinar.com/register/5481173598715649281

 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!


Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.


Jetzt anmelden