
RE: Backtesting..
| 08.03.2019, 18:40 (Dieser Beitrag wurde zuletzt bearbeitet: 08.03.2019, 18:42 von Lancelot.)
Ganz früher, erste Schritte mit Matlab und IB API :)
Dann bei mehreren Arbeitgebern (und später Kunden) lange C#/F# und ab und zu R. Und a bissel C++. Und natürlich SQL :). Den Stack habe ich dann auch bei mir verwendet. Im privaten Umfeld tatsächlich auch mit der Kombination mit Ninja Trader. Das lief eigentlich sehr gut.
Ich bin davon dann vor ein paar Jahren weg gekommen, weil sich eben auch mein berufliches Umfeld geändert hat.
Viel Python. Keras mit TF, Scikit-learn, scipy, Und der ganze Apache Jungel in der "Big data Welt". Spark, Kafka, Flink, Kudu, Akka. Python Dask und Ray. Anfangs habe ich versucht die methodischen Sachen aus der ML und Nachrichtentechnik selbst zu implementieren. Das nervt irgendwann, jede Idee die man hat oder irgenwo gelesen selbst zu implementieren. Und ist Fehleranfällig. Ich mach auch so schon genug Fehler. Muss jetzt nicht sein, dass ich ewig einen Bug in meiner Implementierung der Huber Regression nicht bemerke. So ist mein alter Stack ausgestorben.
Jetzt ist MSFT ein bisschen nachgezogen, ich hab aber auch keinen Bock mehr zu wecheseln.
Daten sind ein leidiges Thema. Mein Partner und ich haben erst neulich wieder ca 3500 EUR für ein Jahr EPEX/EEX Daten ausgegeben(intraday mit Orderbuch). Inzwischen hab ich ne Postgres mit vielem Zeug das ich gekauft, zeitweise von Brokern gezogen, oder aus dem Netz gezogen habe.
Immer alles super schmutzig und doch teuer.
Dann bei mehreren Arbeitgebern (und später Kunden) lange C#/F# und ab und zu R. Und a bissel C++. Und natürlich SQL :). Den Stack habe ich dann auch bei mir verwendet. Im privaten Umfeld tatsächlich auch mit der Kombination mit Ninja Trader. Das lief eigentlich sehr gut.
Ich bin davon dann vor ein paar Jahren weg gekommen, weil sich eben auch mein berufliches Umfeld geändert hat.
Viel Python. Keras mit TF, Scikit-learn, scipy, Und der ganze Apache Jungel in der "Big data Welt". Spark, Kafka, Flink, Kudu, Akka. Python Dask und Ray. Anfangs habe ich versucht die methodischen Sachen aus der ML und Nachrichtentechnik selbst zu implementieren. Das nervt irgendwann, jede Idee die man hat oder irgenwo gelesen selbst zu implementieren. Und ist Fehleranfällig. Ich mach auch so schon genug Fehler. Muss jetzt nicht sein, dass ich ewig einen Bug in meiner Implementierung der Huber Regression nicht bemerke. So ist mein alter Stack ausgestorben.
Jetzt ist MSFT ein bisschen nachgezogen, ich hab aber auch keinen Bock mehr zu wecheseln.
Daten sind ein leidiges Thema. Mein Partner und ich haben erst neulich wieder ca 3500 EUR für ein Jahr EPEX/EEX Daten ausgegeben(intraday mit Orderbuch). Inzwischen hab ich ne Postgres mit vielem Zeug das ich gekauft, zeitweise von Brokern gezogen, oder aus dem Netz gezogen habe.
Immer alles super schmutzig und doch teuer.
__________________
Forum-Besserwisser und Wissenschafts-Faschist