Zum Inhalt springen
Glory_Days

Offensiv/Defensiv-Portfolio

Empfohlene Beiträge

Sapine
vor 18 Stunden von Hicks&Hudson:

Die meisten von uns haben vermutlich nicht einmal ein Gefühl dafür, wie es war, in den 70ern oder sogar 80ern erwachsen zu leben und an den Märkten aktiv zu sein. Allein der Informationsfluss muss ein ganz anderer gewesen sein.

Handelsblatt und FAZ mit ihren Kursseiten waren in den 70ern für Normalos die wichtige Informationsquelle. Der Kursteil stellte einen wesentlichen Anteil dieser Zeitungen. 1977 kam Teletext auf mit aktuellen Börsenkursen und 1980 kam BTX daher was neben Börsenkursen sogar schon online Banking erlaubt hat wenn auch kein Börsenhandel wenn ich mich richtig erinnere. Zugleich waren Zinssätze von 7-9 % die Regel, 1981 lagen sie sogar bei über 11 %. Das hat vorsichtige Anleger nicht direkt in die Arme von Aktien getrieben. Wenn man vom Jahr 1987 absieht waren vor allem die Renditen in den 80ern dort allerdings beachtlich und haben die hohe Inflation locker geschlagen. 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
Am 16.4.2023 um 01:58 von Glory_Days:

Ich hoffe inständig, dass Markowitz den vierten und letzten Teil seiner Neuauflage 'Risk-Return Analysis: The Theory and Practice of Rational Investing' im Alter von 95(!) Jahren noch vollenden können wird (der dritte Teil ist am 15. April 2020 erschienen). Sein Ausblick über die Themen dieses Teiles klingen besonders spannend:

Zitat

For the most part, Part IV will review standard practice with respect to various implementation topics. Current plans include the following topics:

  • Basic decisions with respect to the universe of securities or asset classes, frequency of reoptimization, rebalancing and benchmarks if any.
  • The roles of portfolio constraints.
  • Related technical topics including rebalancing and “volatility capture.”
  • Sensitivity of optimality to round-off.
  • Monte Carlo tests of policies and data mining.
    (Markowitz and Xu 1994).
  • Top-down analysis starting at an asset class level.
    (Brinson et al. 1986 and 1991).
  • Data “versus” judgment in forward looking estimates, e.g., Arnott and Bernstein (2002).

More generally, there will be a discussion of ways of combining data and judgment in parameter estimates:

  • Statistical estimates from series of different length.
  • Efficient-portfolio confidence intervals.
  • Can money managers beat their benchmarks?

It is at least as important for the financial advisor to help his or her client invest at the appropriate part of the efficient frontier—appropriate for the specific client, of course—as
it is to be on or near the frontier. The following are ways in which this is approached:

  • Questionnaires.
  • “Buckets” or “mental accounts.”
  • Monte Carlo analysis.

The last of these can also help evaluate (1) whether the client’s planned savings rate is likely to prove adequate for the client’s retirement needs, and (2) the consequences of spending rates and annuity decisions during retirement.
 

Finally, we should attempt a look to the future—namely, how could portfolio analysis take advantage of greatly increased computing and communication speeds, data storage and access capabilities, and data availability.

  • Will a human-devised algorithm ever again create radically new hypotheses, as Einstein did more than once in 1905?
  • How not to drown in exabytes of data.

This raises questions of how to organize data, hypotheses, analysts’ forecasts, predictions versus actuals, etc.

  • In the limit we approach the RDM—for whom the lessons of Descartes and Hume still hold.
Zitat

The chief difference between Chapter 13 of Markowitz (1959) and the planned Volume IV of this book, is that Markowitz (1959) Chapter 13 was written a priori, when the world had no experience with the practical application of MVA (Mean Variance Analysis), whereas Volume IV of the present book is based on over a half-century of MVA experience.
[...]
I currently plan to devote Volume IV to work by various colleagues and me on how long do paradigms last and why do they change? Probably the greatest "permanent" change in the world since the publication of Markowitz (1952)-unanticipatedby everyone, or almost everyone-was the invention of the transistor. [...] Who in 1952 could have predicted that people could someday avail themselves of MPT services via a pocket telephone?
[...]
Just because historical relationships change, or become temporarily breached, does not mean we should not look at history. But we need to remember that a good many investors (including some who considered themselves quite sophisticated) have lost a great deal of money, of their own and others, by assuming, with too great a certainty, that some historical relationship that held in the past as long as records have been kept would hold in the future, forever, without exception.

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
Zitat

The first thing to say about prospective returns is that you can think of returns as the real interest rate plus a premium for risk. That applies to any asset class you'd like to mention. [...] If you start from a low real interest rate you'd expect low subsequent [real] returns and if you start from a high real interest rate you'd expect high subsequent real returns - whether you're looking at bonds or equities. Real interest rates therefore provide the baseline for all risky assets. So when we're thinking about what future returns might be, we need to think about what the real interest rate is today.

Prof. Paul Marsh

Ich habe den Graphen aus #322 erweitert und den aktuellen US-Realzins (= Federal Funds Effective Rate - Inflation Rate)* hinzugefügt. Außerdem habe ich für den Zeitraum 05/2023 - 04/2028 eine Extrapolation der 10y GMA-Größen für die 10-Jahreszeiträume, die in den nächsten 5 Jahre enden werden, erstellt (d.h. in den letzten Inflations-Datenpunkt 04/2028 für den 10-Jahreszeitraums 04/2018 - 04/2028 ist lediglich der bisher feststehende 5-jährige Zeitraum 04/2018 - 04/2023 eingeflossen).

 

Der Graph ist so angelegt, dass die Zeiträume der realen Renditen und der Inflationsrate/realen Zinsen um 10 Jahre gegeneinander verschoben sind. Vergleicht man also die Kurven zu einem gegebenen Zeitpunkt auf der x-Achse, handelt es sich einerseits um die realen Forward-Renditen für den zu diesem Zeitpunkt beginnenen 10-Jahreszeitraum, während andererseits die Kurve des Realzinses das zu diesem Zeitpunkt aktuelle Ausgangsniveau bzw. im Falle der Inflationsrate den GMA des zurückliegenden 10 Jahreszeitraums angibt.

 

grafik.png.e8a1ddfb70bcd0200b76300b32be1d14.png

 

(* ggf. wäre das Real Yield von kurzlaufenden US-TIPS hier besser geeignet, da in dieses neben dem am Markt erzielbaren nominalen Yield die Inflationserwartung des Marktes eingeht; im Limes verschwindender Laufzeit würde man aber eine Konvergenz gegen diese Größe erwarten; für TIPS gibt es nur sehr kurze historische Datenreihen und meistens auch nur für neu emittierte Linker mit minimaler Laufzeit von 5 Jahren)

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days

Wie schlecht die letzten Jahre für ein Engagement in (US-)Anleihen tatsächlich waren, sieht man auch an folgendem Graphen (sowohl absolut in realen Renditen als auch relativ gesehen zu Aktien) (in Shiller's Datensatz wird bei den Bonds-Renditen von monatlichem Rollen der 10-jährigen Anleihen ausgegangen). Auch in diesem Graphen wurde für Datenpunkte > 2013.04 entsprechend extrapoliert (d.h. in den letzten unten gezeigten Datenpunkt 03/2020 für den noch nicht abgeschlossenen 10-Jahreszeitraums 03/2020 - 03/2030 ist lediglich der bisher feststehende Zeitraum 03/2020 - 04/2023 eingeflossen). Auch wenn der Wert für diese 10-Jahreszeiträume noch nicht abschließend feststeht (und für den Datenpunkt bei 03/2020 erst ~1/3 des 10-Jahreszeitraums absolviert ist), ist der annualisierte Excess Return (= Stocks - Bonds) im Datenpunkt 03/2020 mit 21,28% p.a. zumindest aktuell höher als jeder andere Datenpunkt zuvor seit 1871! Natürlich ist es gut möglich und aufgrund der heutigen Ausgangssituation bis zu einem gewissen Grad wahrscheinlich (ohne die Zukunft zu kennen), dass die im finalen Wert noch nicht festehenden Datenpunkte der Bond-Renditen mit zunehmender Zeit noch nach oben verschoben werden und das Excess Return etwas kleiner wird, aber die Richtung ist relativ eindeutig.

Das finde ich absolut bemerkenswert und bestätigt so einige meiner Beobachtungen und Einschätzungen. Der Vorzeichenwechsel bei den realen Bond-Returns hat sich übrigens im Datenpunkt 02/2012 vollzogen und da dieser 10-Jahreszeitraum (02/2012 - 02/2022) bereits abgeschlossen ist, steht dieser Datenpunkt und damit auch der Wechsel von positiven zu negativen realen annualisierten 10-Jahres US Bond-Returns damit auch unwiderruflich fest.

 

Wenn man also unbedingt Timing mit Anlageklassen betreiben möchte, sollte man es wenn überhaupt richtig machen oder einfach ganz darauf verzichten...

grafik.png.46adb3b3b1175dcabfd3b9d3ebce318a.png

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days

Ausgehend von dieser Diskussion habe ich ein Portfolio bestehend aus 80% Nasdaq-100 (ab 1986)/Nasdaq-Composite (vor 1986) und 20% 3-Month T. Bill simuliert.

Hinweis: Bei den Nasdaq-Daten handelt es sich um Preisdaten ohne Dividenden (falls jmd. Total oder Net Return-Daten hat, gerne zur Verfügung stellen - soweit ich weiß wurden diese Index-Varianten aber nicht soweit zurückgerechnet).

Hier die hinter der Simulation stehende Arithmetik und die Ergebnisse:

 

grafik.thumb.png.4f17d1fbaac4cea03c11a7a86194f45e.png

 

Die folgenden Graphen beziehen sich auf annualisiertes Rebalancing:

 

grafik.png.6bfe83717e022ed47a2eddfc1749a486.png

 

grafik.png.5be10ea028a97413829b4eb2814adaa7.png

 

grafik.png.1d150c37016dcfcb56a22dcc57269f24.png

 

grafik.png.424352414fa215f55df61753c8bedfa8.png

 

Die historische Gewinnwahrscheinlichkeit des OD-Portfolios Defensiv gegenüber dem 80% Nasdaq + 20% T. Bills Portfolio aus den obigen Plots berechnet sich auf Basis absoluter Renditen zu (in Klammern auf Basis von risikoadjustierten Renditen gemessen als geometrischer Mittelwert/Standardabweichung):

  • 5 Jahreszeitraum: 53% (71%)
  • 10 Jahreszeitraum: 48% (80%)
  • 15 Jahreszeitraum: 56% (97%)
  • 20 Jahreszeitraum: 53% (100%)

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson

Danke für die Arbeit!

Ich vermute aber, dass der Vergleich mit dem System meines Kumpels kaum bis gar nicht umzusetzen ist.

Gründe:

- Daten ohne Dividenden verfälschen das Ergebnis doch ziemlich, auch, wenn der Nasdaq nicht viele Dividenden abgeworfen hat

- Die dynamische Asset Allocation meines Kumpels (stückweiser Nachkauf mit Ziel einer höheren Aktienquote im Crash) ist nicht so einfach umzusetzen. Selbst ein 50/50 AA Start wäre nicht idealer.

- Ich frage mich zudem, ob ein Start in den 70ern passend ist (siehe Argumentation, dass die Werte im Nasdaq zu damaliger Zeit weitaus weniger Infrastruktur mit dicken Gewinnen waren als eher heiße Luftnummern)

 

Ich mache mir mal Gedanken, wie man das vielleicht anders machen könnte, aber wie gesagt erstmal ein Danke dafür.

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 13 Minuten von Hicks&Hudson:

- Daten ohne Dividenden verfälschen das Ergebnis doch ziemlich, auch, wenn der Nasdaq nicht viele Dividenden abgeworfen hat

Der Nasdaq-100 hat seit 2004 mit realen Indexdaten eine durchschnittliche Ausschüttungsrendite von 0,78% p.a. erzielt.

Zitat

- Die dynamische Asset Allocation meines Kumpels (stückweiser Nachkauf mit Ziel einer höheren Aktienquote im Crash) ist nicht so einfach umzusetzen. Selbst ein 50/50 AA Start wäre nicht idealer.

Opportunistisches Rebalancing und das passende Setzen der Schwellwerte kommt dem am nächsten - allerdings werden in der Auswertung nur Jahresrenditen betrachtet.

Zitat

- Ich frage mich zudem, ob ein Start in den 70ern passend ist (siehe Argumentation, dass die Werte im Nasdaq zu damaliger Zeit weitaus weniger Infrastruktur mit dicken Gewinnen waren als eher heiße Luftnummern)

Daher die Betrachtung von rollierenden Renditen (wenngleich längere Zeiträume natürlich per Definition immer eine gewisse Zeitspanne umfassen).

vor 13 Minuten von Hicks&Hudson:

Ich vermute aber, dass der Vergleich mit dem System meines Kumpels kaum bis gar nicht umzusetzen ist.

Opportunistisches Rebalancing mit Jahresrenditen halte ich für eine hinreichend gute Näherung - die fehlenden Dividenden würden die Rendite schätzungsweise um 0.5-1% p.a. erhöhen.

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson
· bearbeitet von Hicks&Hudson
vor 26 Minuten von Glory_Days:

Opportunistisches Rebalancing mit Jahresrenditen halte ich für eine hinreichend gute Näherung

Hm, da habe ich meine Zweifel, weil ich bei curvo mit deren Monatsrenditen schon einige 'Ausreißer' ermitteln konnte die letzten Jahre aufgrund nicht engmaschiger Daten. Besonders bei aktiven Anlagestrategien, welche gezielt kurze, hohe Volatilitäten ausnutzen (und genau darauf zielt mein Kumpel ja ab), fällt da einiges aus dem Ergebnis.

Aber hilft nix. Was nicht geht, geht nicht.

 

 

vor 26 Minuten von Glory_Days:

die fehlenden Dividenden würden die Rendite schätzungsweise um 0.5-1% p.a. erhöhen.

Das passt und kann man recht gut annähern.

 

Einig sind wir uns denke ich, dass die Volatilität als Risikomaß bei dieser Strategie 'ausgeblendet' werden muss bzw. bei einem derartigen Anleger keine zittrigen Hände hervorrufen darf. Sonst kann man es gleich sein lassen.

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 17 Minuten von Hicks&Hudson:

Hm, da habe ich meine Zweifel, weil ich bei curvo mit deren Monatsrenditen schon einige 'Ausreißer' ermitteln konnte die letzten Jahre aufgrund nicht engmaschiger Daten. Besonders bei aktiven Anlagestrategien, welche gezielt kurze, hohe Volatilitäten ausnutzen (und genau darauf zielt mein Kumpel ja ab), fällt da einiges aus dem Ergebnis.

So eindeutig ist das nicht, da es ein Trade-Off zwischen Häufigkeit und Größe des Schwellwertes ist. Natürlich ist individuelles Anlegerverhalten en détail schwer replizierbar, aber für konsistentes Handeln muss ein Anleger für sich selbst einen Schwellwert definieren. Wenn dieser enger definiert wird, dann wird dieser zwar häufiger gerissen, aber der daraus resultierende Effekt ist kleiner. Es gibt also ein goldenes Verhältnis zwischen Häufigkeit und Bandbreite, das je nach Portfolio sehr unterschiedlich ausfallen kann. Ob dieses im vorliegenden Fall im Bereich von Jahresrenditen liegt, kann ich aktuell nicht sagen.

Zitat

Aber hilft nix. Was nicht geht, geht nicht.

Ich habe tägliche Daten des Nasdaq-Composite seit 1971 - das Problem sind aktuell die fehlenden T. Bill-Daten, die ich gerne über Yahoo einlesen würde. Falls wir hier etwas hätten, könnte ich das ganze auf Basis täglicher Daten simulieren und den Einfluss von Schwellwerten auf den Vermögensendwert untersuchen.

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson

BtW.im Allgemeinen:

Gut zu erkennen ist in der Tabelle oben (wieder einmal), wie sehr Rebalancing, egal in welcher Form,  das Risiko senkt, ohne die Renditeerwartung drastisch zu vermindern (siehe Zahlen Maximum Drawdown).

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 7 Minuten von Hicks&Hudson:

Gut zu erkennen ist in der Tabelle oben (wieder einmal), wie sehr Rebalancing, egal in welcher Form,  das Risiko senkt, ohne die Renditeerwartung drastisch zu vermindern (siehe Zahlen Maximum Drawdown).

Der Effekt ist hier natürlich nach oben hin beschränkt, da das Portfolio durch den Nasdaq dominiert wird. Ebenfalls werden keine Kosten und Steuern bei Rebalancing berücksichtigt. Die Korrelation zwischen den Renditen von Nasdaq und T. Bills liegt bei -0.07.

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson
· bearbeitet von Hicks&Hudson

Ich habe mal bei Curvo geschaut, was da so zu machen ist.

Daten gibt es nur ab Sommer 2007, aber ich glaube, mein Kumpel würde sagen, dass der Haupteffekt seines Portfolios zumindest erkennbar wäre, auch, wenn es selbst hier nur mit festem Toleranz-Rebalancing zu machen ist:

 

https://curvo.eu/backtest/compare?config={"rebalancingStrategy"%3A"20% tolerance per asset"%2C"withTer"%3A"false"}&portfolios=NoIgcghgzgJhCOACA1Ig4gUwDYwLYQCcBrAF0QHYAGAegGZKQAaYUAMQCVLKBGSgVl4AOLk0oA6WgF1mIAJIBRLpXYBVVgBYAimEGix5SYaA%2C NoIgcghgzgJhCOACA1Ig4gUwDYwLYQCcBrAF0QDYAGAegBZKQAaYUAMQCVLKBGSgVl4AOLk0oA6WgF1mIAJIBRLpXYBVVrQCKYQaLHlJBoA%2C NoIgcghgzgJhCOACA1Ig4gUwDYwLYQCcBrAF0QFYAGAeipABphQAxAJUsoEZLzuAODg0oA6cgF1GIAJIBRDpVYBVZgBYAimD5DRY3UA%2C NoIgygZACgBArABgSANMUBJAokgQgZgA1CAlKBATlQEYBdeoA

 

1.thumb.png.059774040766a5e15c25b0d8a8162ee0.png2.thumb.png.61bdd8f39889ff18dc8084f6ea76a520.png

 

Das Thema mit den Risiken, die sich nicht in Zahlen (Volatilität, Maximum DD) zeigen, hatten wir drüben im anderen Faden ja schon.

 

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson
· bearbeitet von Hicks&Hudson

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days

Ich habe mal mit dem US-Portfolio 80% QQQ (Nasdaq-100 ETF)/ 20% SHY (iShares 0-3 Year Treasury Bond ETF) auf Basis von Tagesdaten (Adjusted Closing Preisdaten von Yahoo) einen Vergleich seit 30.07.2002 für verschiedene Schwellwert-Breiten mit geometrischer Definition gemacht (zu Beginn wurde 1.00 Kapitaleinheit investiert):

 

grafik.png.bb83878060881154238363bab8f1d373.png

 

Ein gewisser Einfluss ob Tages-, Monats- oder Jahresrenditen ist sicherlich vorhanden, allerdings wird das nichts am qualitativen Gesamtbild ändern. Im Prinzip sehe ich das auch als notwendige Bedingung für die Robustheit möglicher Vorteil an.

Diesen Beitrag teilen


Link zum Beitrag
Sapine

Kannst du denn das "Überbalancing" abbilden? Statt beispielsweise auf 80/20 zu rebalancen auf 82/18 usw.

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 1 Stunde von Sapine:

Kannst du denn das "Überbalancing" abbilden? Statt beispielsweise auf 80/20 zu rebalancen auf 82/18 usw.

Dazu müsste ich das Programm anpassen, was etwas aufwendiger wäre. Qualitativ wird "Überbalancing" genau dann die Rendite gegenüber Rebalancing zur Zielallokation erhöhen, wenn es Opportunistisches Rebalancing im Vergleich zu Kalenderjahr-Rebalancing tatsächlich gelingt hohe/niedrige Gewichtungen mit hohen/niedrigen Folge-Renditen zusammenzubringen. Ich würde das als taktische Über-/Untergewichtung innerhalb der definierten Risikoschwellwerte bezeichnen. Damit kann man unter Umständen die Rebalancing-Rendite etwas erhöhen, aber das Rebalancing-System wird dann insgesamt sensitiver hinsichtlich Definition der Schwellwerte, Zielwerte und tatsächlichem Renditeverlauf.

Man kann ja mal in #452 schauen, welche Komponente das Rebalancing beim Opportunistischen Rebalancing ausgelöst hat und wie danach die Folge-Renditen waren...

 

Eine Möglichkeit wäre die Umsetzung durch einen pauschalen Skalierungsfaktor, der auf alle Portfolio-Komponenten angewendet wird (danke an @readonly für den Hinweis). Damit wäre das "Überbalancing" proportional zur Abweichung von der Zielallokation. In der Praxis würde man wie bei Daryananis Paper Toleranzbänder definieren, um die Anzahl an Transaktionen zu minimieren. Für die Untersuchung des reinen "Überbalancing"-Effekts ist diese Herangehensweise wahrscheinlich sogar am besten, da die taktische Allokation damit noch verstärkt wird. Ich stimme aber zu, dass ein derartiger Ansatz dem Grundgedanken von Opportunistischem Rebalancing entspricht und es sinnvoll ist, eine derartige Untersuchung einmal durchzuführen (danke an @Sapine für die Idee). Grundsätzlich sind neue Ideen hier im Thread immer willkommen - die zeitnahe Umsetzung kann ich natürlich nicht versprechen. Man sollte generell nur aufpassen, dass es sich wirklich um einen robusten Vorteil handelt, der out-of-sample Bestand haben wird und man nicht Data Mining betreibt. Wenn man aber an den positiven Effekt von Opportunistisches Rebalancing glaubt, ist eine zusätzliche taktische Allokation im Sinne eines "Überbalancing" möglicherweise nur das konsequente zu-Ende-Denken dieser Idee. Das durch die Schwellwerte vorgebene Timing muss dann aber auch hinreichend gut sein, sonst wird es sich kontraproduktiv auf die Rendite auswirken.

Ich kann das die Tage mal umsetzen, allerdings bin ich hier auf die Daten von Yahoo-Finance beschränkt, da ich diese Form der Auswertung mit Tagesrenditen nur automatisiert vornehmen kann. Damit ist der Zeitraum der Simulation auf die Länge der dort verfügbaren Zeitreihen beschränkt (die jenseits einiger Indizes meistens erst ab ~2000 anfangen).

Diesen Beitrag teilen


Link zum Beitrag
Beginner81
· bearbeitet von Beginner81

Ich weiß nicht, ob es hierher passt, aber bzgl. solcher Ideen mit Nasdaq 100, Hebel, Rebalancing etc.kommen mir immer wieder "ZahlGrafs exzellente Abenteuer" in den Sinn (z.B. MA 200 mit Nasdaq Lev-ETF):
 

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 4 Stunden von Beginner81:

Ich weiß nicht, ob es hierher passt, aber bzgl. solcher Ideen mit Nasdaq 100, Hebel, Rebalancing etc.kommen mir immer wieder "ZahlGrafs exzellente Abenteuer" in den Sinn (z.B. MA 200 mit Nasdaq Lev-ETF)

Danke fürs Teilen - scheint eine sehr ausführliche quantitative Analyse bestimmter Hebelstrategien zu sein, die auf manuell erstellten historischen Datensätzen bei höherem Risiko (Hebelprodukte) eine höhere Rendite als ihre ungehebelten Counterparts erzielen konnten. Die Frage ist, ob in diesen historischen Backtests mit manuellen Daten alle Kosten (Produkt- & Zinskosten (Tracking-Error/-Differenz), Transaktions- & Spreadkosten, und Steuern) adäquat berücksichtigt wurden und ob solch ein Ansatz auch out-of-sample funktionieren würde. Meistens verschwinden derartige Renditevorteile im realen Setting dann leider sehr schnell und können daher nicht sinnvoll verfolgt werden. Außerdem benötigen derartige Strategien erhebliches Monitoring (sofern man dieses nicht automatisieren kann), was in diesem Sinne auch eine Form von Kosten darstellt. Generell würde ich erwarten, dass Hebelstrategien in Zeiten steigender Zinsen merklich schlechter abschneiden als zu Niedrigzins-Zeiten.

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
Am 1.6.2023 um 18:58 von Sapine:

Kannst du denn das "Überbalancing" abbilden? Statt beispielsweise auf 80/20 zu rebalancen auf 82/18 usw.

Das Programm ist angepasst und kann jetzt einen Überbalancing-Faktor abbilden. Nachdem ein Rebalancing-Schwellwert durch eine beliebige Komponente gerissen wurde, wird die Gewichtung nach Rebalancing für alle Komponenten jeweils auf

Zitat

z - fac * (w - z)

gesetzt. Dabei ist z die Zielallokation, w das das aktuelle Gewicht und 0 < fac < 1 der Überbalancing-Faktor. Da die Summe von (w - z) über alle Komponenten per Definition immer null ergibt, ändert diese Transformation nichts an der Gesamtgewichtung des Portfolios. Wird der Faktor auf null gesetzt, so erhält man das herkömmliche Rebalancing zur Zielallokation ohne Überbalancing.

Das Programm auf täglicher Basis kann aktuell kein Kalender-Rebalancing durchführen, d.h. wir können für den Moment nur Opportunistisches Rebalancing mit oder ohne Überbalancing untereinander vergleichen. Jetzt brauchen wir nur noch Yahoo-Portfolien mit möglichst langen Datenreihen. Vorschläge sind jederzeit willkommen.

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days

Ich habe mal das OD-Portfolio Defensiv mit Gold als Rohstoff-Proxy seit 18.11.2004 mit geometrischen relativen Schwellwerten (-50%/+100%) simuliert:

 

grafik.png.84c12506fa0c5af495565a73822b632a.png

  

grafik.thumb.png.e0b3b00a30dcc6c74536325346371e1a.png

 

In diesem Beispiel-Portfolio sieht es so aus als wäre Überbalancing tendenziell nachteilhaft für die Performance.

 

Mit einer symmetrische Definition der Schwellwerte (-50%/+50%) anstatt der geometrischen Definition, hätte es in diesem Portfolio auch keinen vorteilhaften Effekt durch Überbalancing gegeben:
 

grafik.thumb.png.26451395d7be485200b89349cc080451.png


Man sieht anhand dieser beiden Beispielen, dass die Band-Definition (hier geometrisch oder symmetrisch) bzw. die konkrete Wahl der Schwellwerte einen wesentlich größeren Einfluss auf den Vermögensendwert haben kann als die Frage nach Überbalancing.


Die Berechnung des n-ten Zeitschrittes erfolgte anhand des folgenden Algorithmus mit dem die Gewichtungsverteilung und die Portfolio-Performance berechnet wird (mit s = Schwellwert, w = Gewichtung, p = Preis, perf = Performance, z = Zielgewicht, fac = Rebalancing-Skalierungsfaktor):

Zitat

WENN s_(i,min) < w_i(n-1) < s_(i,max) DANN

 

    w_i(n) = w_i(n-1) * p_i(n) / p_i(n-1) / Sum_i w_i(n-1) * p_i(n) / p_i(n-1)
    perf(n) = perf(n-1) * Sum_i w_i(n-1) * p_i(n) / p_i(n-1)

SONST

     w_i(n) = z_i - fac * (w_i(n) - z_i)

Kommt es zum Rebalancing, wird immer noch ein Performance-Schritt mit der Gewichtung berechnet, bei der mind. eine Komponente einen ihrer Schwellwerte gerissen hat. Das entspricht dem Fall, wenn ein Anleger erst am Ende des nächsten Handelstages rebalanciert, nachdem durch die Schlusskurse des Vortages mind. einer der Schwellwerte gerissen wurde. Alternativ denkbar wäre ein Anleger, der am Ende eines Handelstages die aktuelle Gewichtsverteilung misst und dann ggf. sofortiges Rebalancing betreibt. Programmatisch müssten in diesem Fall zunächst hypothetische Gewichtungen zum Ende eines Handelstages berechnet und dann im Falle von Rebalancing on-the-fly mit den rebalancierten Ausgangsgewichten für die Performance-Berechnung des Folgetages überschrieben werden - darauf habe ich verzichte, auch weil ich die w_i(n) als Spalten ausgebe, um direkt sehen zu können, welche Komponente(n) das Rebalancing ausgelöst haben.

Der Unterschied zwischen solchen Anlegern sollte aber marginal sein. Wichtig ist nur, dass man nicht mit Gewichtungen und Preisen rechnet, die am gleichen Tag geformt wurden:

Zitat

I promise that if you were asked to compute the P&L of a hypothetical trading strategy, say, a simple equity market–neutral mean reversion trading strategy, you would probably get it wrong the first time around because you would calculate the return based on prices in the CRSP data and then multiply those prices by portfolio weights formed on the same day. That method implicitly assumes that you know the future, so it’s not surprising that when academics simulate trading strategies, they often achieve tremendous profits in their backtests. But when you take into account the constraint that you can only use information that’s truly available to you on the date you consummate a trade, those profits often vanish. I only appreciated the depth of this section of Bob’s [Robert Merton's] 1971 paper after I made that same mistake myself years later and calculated trading strategies that were enormously profitable on paper.

—Andrew W. Lo

annurev-financial-042720-055018.pdf

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days

@Sapine:
Ich habe das Programm mittlerweile angepasst und hinreichend überprüft, sodass die Ergebnisse in #595 jetzt fehlerfrei und valide sein dürften. So einen richtigen Reim kann ich mir auf die ersten Ergebnisse noch nicht machen. Durch Überbalancing verschiebt sich natürlich das komplette Rebalancing-Szenario nach dem ersten Rebalancing-Vorgang. D.h. selbst wenn es bei einzelnen Rebalancing-Vorgängen hilfreich ist, kann das Überbalancing dafür sorgen, dass nachfolgende Rebalancing-Vorgänge negativ beeinflusst werden, da diese dadurch zeitlich vor- bzw.
nach hinten verlagert werden.

 

Tatsächlich scheint bei obigem Portfolio gerade das Gegenteil vorteilhaft gewesen zu sein, wenn man nicht ganz bis zur Zielallokation rebalanced hätte (d.h. wenn man den fac < 0 setzt) - was aber Zufall bzw. dem konkreten Beispiel geschuldet sein kann.

Ohne Rebalancing liefert das Portfolio das folgende Ergebnis:

  

grafik.png.25aeaaa5282d5198066923bef502b7e4.png

Diesen Beitrag teilen


Link zum Beitrag
Sapine

Ich kann auch nicht wirklich sagen ob es sinnvoll ist, ich habe Bezug genommen auf die Beschreibung von @Hicks&Hudson. Man kann das Modell aber auch für den Ansatz von Beck verwenden und ich bin offen gestanden überrascht über dein Ergebnis. Vielleicht liegt es daran, dass es noch keine Regel beinhaltet, wie man wieder auf die normale Gewichtung zurückkehrt.  

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor einer Stunde von Sapine:

Ich kann auch nicht wirklich sagen ob es sinnvoll ist, ich habe Bezug genommen auf die Beschreibung von @Hicks&Hudson. Man kann das Modell aber auch für den Ansatz von Beck verwenden und ich bin offen gestanden überrascht über dein Ergebnis. Vielleicht liegt es daran, dass es noch keine Regel beinhaltet, wie man wieder auf die normale Gewichtung zurückkehrt.  

Man müsste in meinen Augen den oberen und unteren Schwellwert auf jeden Fall individuell wählen können, um dem von @Hicks&Hudson beschriebenen Verhalten näher zu kommen. Ansonsten wird nämlich im Laufe der Zeit durch die gute Performance des Nasdaq der obere Schwellwert wesentlich häufiger gerissen - der untere bei den verwendeteten Definitionen aber eher selten.

Am 1.6.2023 um 15:09 von Hicks&Hudson:

Er ist nie zu 100% investiert, sondern maximal (bisher) zu ca. 90% investiert gewesen.

Wenn der Anteil >90% wird, wird der Anteil wahrscheinlich weit weniger zurückgefüht (z.B. auf 85%), als wenn der Nasdaq einen starken Einbruch hat und sich der Anteil von 85% z.B, auf 65% verringert und dann wieder auf 80% gebracht wird. Man müsste dann v.a. eine Schwellwert-abhängige Zielgewichtung, auf die zurückgeführt wird, definieren. Das ist natürlich etwas komplexer in der Abbildung, da wir hier ein genau reproduzierbares Szenario mit festen Werten festlegen müssten.

Wahrscheinlich wäre es dann auch besser mit Drawdowns zu arbeiten, und bei bestimmten Drawdown-Schwellwerten einen fest definierten Anteil umzuschichten, sodass eine (je nach Schwellwert höhere) Mindestgewichtung des Nasdaq im Portfolio erreicht wird. Diesen Ansatz könnte man für den Nasdaq nach unten hin verwenden und nach oben hin einen engen Schwellwert für Rebalancing setzen. Dann hätte man eine Kombination aus DCA und Schwellwert-Rebalancing umgesetzt, was dem Verhalten mutmaßlich am nächsten kommen würde.

 

Aber auch ohne diese Simulation en détail durchzuführen, ist klar, dass DCA zu günstigen Zeitpunkten die Rendite merklich erhöhen kann - zumindest mit dem Rückschau-Wissen, dass die Kurse nach jedem Crash wieder auf neue ATHs gestiegen sind (und diese Voraussetung könnte sich als Knackpunkt erweisen). Der Effekt ist sogar überraschend stark, ich hatte dazu mal mit einem Programm ein paar Auswertungen in extremer Form (gehebelt) mit dem Nasdaq-100 gemacht. Je nach Start und Ende des Zeitraums war man dann temporär sehr reich und dann kam wieder der nächste Einbruch. Um diese Achterbahnfahrt zu mitigieren, hatte ich daher in die Simulation nach Erreichen bestimmter Schwellen (z.B. Faktor 2) einen Umschichtmechanismus in ein sicheres Asset eingebaut, damit temporäre Gewinn per lock-in bis zu einem gewissen Grad gesichert werden. Die Ergebnisse waren ganz vielversprechend, sodass man damit vielleicht das langfristige Risiko etwas mitigieren kann.

Diesen Beitrag teilen


Link zum Beitrag
Saek
1 hour ago, Glory_Days said:

Ansonsten wird nämlich im Laufe der Zeit durch die gute Performance des Nasdaq der obere Schwellwert wesentlich häufiger gerissen - der untere bei den verwendeteten Definitionen aber eher selten.

Das heißt auch, dass die Allokation zum Nasdaq (oder allg. assets mit höherer Rendite) im Mittel höher ist als eigentlich als Ziel vorgegeben. Das lässt schnell die Rebalancing-Strategie besser ausschauen als sie wirklich ist...

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 22 Stunden von Saek:

Das heißt auch, dass die Allokation zum Nasdaq (oder allg. assets mit höherer Rendite) im Mittel höher ist als eigentlich als Ziel vorgegeben. Das lässt schnell die Rebalancing-Strategie besser ausschauen als sie wirklich ist...

Der Vorteil im Vergleich zu einem Buy-and-Hold Portfolio ist die verbesserte risikoadjustierte Rendite, die insbesondere bei Opportunistischem Rebalancing dadurch zu Stande kommt, das im zeitlichen Mittelwert höhere Exposure höher rentierlicher Assets (im Vergleich zu täglichem Rebalancing) tendenziell zu den richtigen Zeitpunkten zu haben (= höhere/niedrigere Gewichtungen mit hohen/niedrigen Renditen zusammenzubringen; mit Buy-and-Hold besteht gerade bei Assets mit hoher Rendite/Volatilität die Gefahr das Gegenteil zu erreichen). Bei Assets mit sehr stark divergierenden geometrischen Renditen ist es für die Rebalancing-Strategie auf Portfolio-Ebene sehr schwer, Buy-and-Hold bei der absoluten geom. Rendite zu schlagen. Anders sieht es aber bei den risikoadjustierten Renditen aus (siehe #580). So gesehen kann Opportunistisches Rebalancing eine clevere Art sein, das Exposure von Assets mit höherer Rendite temporär zu Zeitpunkten, in denen die Opportunität besonders groß ist, kontrolliert zu erhöhen. Die Referenz für die risikoadjustierte Rendite wäre dann tägliches Rebalancing (bzw. bei Jahresrenditen jährliches Rebalancing), bei dem der erlaubte Portfolio-Drift minimiert und die eigentliche Zielallokation bestmöglich konstant gehalten wird (was aus Gründen der Praxistauglichkeit für die meisten Anleger im Falle von täglichem Rebalancing aber nicht umsetzbar ist). Tatsächlich sind die risikoadjustierten Renditen im Vergleich von jährlichem Rebalancing und Opportunistischem Rebalancing oftmals sehr ähnlich, sodass Letzteres tendenziell die Rendite und das Risiko in gleichem Maße erhöht - was plausibel erscheint (mehr erlaubter Portfolio-Drift = mehr Opportunität + mehr Risiko bei Assets mit höherer Rendite/Volatilität).

Ich setzte mal bei Zeiten noch den DCA-Umsetzung im Schema mit den Jahresrenditen um. Qualitative Effekte sollte man immer auch mit (hinreichend vielen) Jahresrenditen sehen können.

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...