Zum Inhalt springen
Glory_Days

Die Unsicherheit von Renditen - eine Diskussion über Modelle und Annahmen

Empfohlene Beiträge

geldvermehrer
vor 2 Stunden von Glory_Days:

Wir dürfen nicht vergessen, dass es sich um Aussagen mit Gültigkeit im statistischen Mittel und unter absoluter Prognosefreiheit handelt. Jetzt kann man sich fragen, warum diese statistischen Aussagen für den einzelnen Anleger überhaupt relevant sein sollten. Der einfache Grund ist derjenige, dass kein einzelner Anleger aus heutiger Sicht sein/das zukünftige Szenario kennen kann und daher für alle zukünftigen Szenarien bestmöglich gewappnet sein sollte bzw. für ein beliebiges gegebenes Anlageziel rationalerweise immer das Risiko minimieren sollte (= der Kern von Diversifikation). Das war die wesentliche Erkenntnis von Markowitz 1952 für den Ein-Periodenfall, dass effiziente Portfolien diejenigen sind, die die risikoadjustierte Rendite maximieren (die zusätzliche Annahme von Prognosefreiheit impliziert dann ein Equal-Weight Portfolio).

Bis hier hin komme ich noch mit. Es freut mich übrigens sehr, dass neben stagflation auch noch, wenn auch wenige user, die Erkenntnisse von Markowitz interessant finden. Formel und Statistik sind für mich überhaupt nichts, da muss ich passen. BWL-Studium ist gut 30 Jahre her und da war mir das schon ein Graus:(

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 14 Minuten von geldvermehrer:

Bis hier hin komme ich noch mit. Es freut mich übrigens sehr, dass neben stagflation auch noch, wenn auch wenige user, die Erkenntnisse von Markowitz interessant finden. Formel und Statistik sind für mich überhaupt nichts, da muss ich passen. BWL-Studium ist gut 30 Jahre her und da war mir das schon ein Graus:(

Dann sollte es für dich auch einleuchtend sein, dass wenn alle Rendite-Perioden aus statistischer Sicht ununterscheidbar sind, dann ist das Portfolio, das die risikoadjustierte Ein-Perioden Rendite maximiert, auch dasjenige Portfolio, das die risikoadjustierte kumulative n-Perioden Rendite maximiert, wenn alle n-Perioden gleich gewichtet werden.

Es gibt eine Symmetrie hinsichtlich Maximierung der risikoadjustierten Rendite:

  • Ein-Perioden Fall: Asset-Renditen sind aus statistischer Sicht ununterscheidbar => Equal-Weight über Assets
  • Mehr-Perioden Fall: Perioden-Renditen sind aus statistischer Sicht ununterscheidbar => Equal Weight über die Zeit

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer
· bearbeitet von geldvermehrer

Ähm, das habe ich jetzt 3 mal lesen müssen, meinst du, die Erkenntnisse von Markowitz eignen sich für die EINMALANLAGE gut,

für einen Sparplan weniger und für die Entnahmephase nicht?

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 3 Minuten von geldvermehrer:

Ähm, das habe ich jetzt 3 mal lesen müssen, meinst du, die Erkenntnisse von Markowitz eignen sich für die EINMALANLAGE gut,

für einen Sparplan weniger und für die Entnahmephase nicht?

Markowitz betrachtete den Ein-Periodenfall (z.B. ein Jahr, wenn die Periode als Jahr festgelegt wird). Ich betrachte den allgemeinen Mehr-Periodenfall (beliebige Anzahl n).

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer

Angenommen, der EIN-Periodenfall besteht aus 30 Jahren, also die Periode ist auf einen 30-Jahres-Zeitraum festgelegt. Rendite- und Risikoerwartung werden anfangs "festgelegt" und bleiben unverändert. Bei dir kann jederzeit wärend der 30 Jahre die Rendite- und Risikoerwartung verändert werden, kann man das so sagen?

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 54 Minuten von geldvermehrer:

Angenommen, der EIN-Periodenfall besteht aus 30 Jahren, also die Periode ist auf einen 30-Jahres-Zeitraum festgelegt. Rendite- und Risikoerwartung werden anfangs "festgelegt" und bleiben unverändert. Bei dir kann jederzeit wärend der 30 Jahre die Rendite- und Risikoerwartung verändert werden, kann man das so sagen?

In einem Ein-Periodenproblem über 30 Jahre wird nur eine einzige 30-Jahre Rendite anhand einer Statistik gezogen (daher erschließt sich mir dein Begriff "unverändert" nicht). In einem Mehrperioden-Fall (z.B. Jahresrenditen und n = 30, um ebenfalls den 30-Jahreszeitraum abzudecken) werden 30 Einjahres-Renditen anhand von bis zu 30 verschiedenen Statistiken gezogen, d.h. jede Periode kann ihre eigene Statistik haben.

 

Diese Konstellation ist prinzipiell miteinander verknüpft, da sich jedes längere Ein-Periodenproblem durch Zerlegung der längeren einen Periode in mehrere kürzere Perioden in ein Mehr-Periodenproblem überführen lässt. Aus der Statisik des Ein-Periodenproblems kann ohne weitere Informationen nicht auf die Statistik der kürzeren Perioden eines solchen Mehr-Periodenproblems rückgeschlossen werden (zumindest wüsste ich nicht wie; die Umkehrung ist aber möglich und das ist auch die mathematische Verbindung dieser beiden Fälle).

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
vor 7 Stunden von Glory_Days:

Aus der Statisik des Ein-Periodenproblems kann ohne weitere Informationen nicht auf die Statistik der kürzeren Perioden eines solchen Mehr-Periodenproblems rückgeschlossen werden (zumindest wüsste ich nicht wie; die Umkehrung ist aber möglich

Tatsächlich hatte ich dieses Problem schon bei einer ganz anderen Thematik. Hatte da eine Statistik aus Minutendaten und wollte eine Statistik aus Zehnminutendaten draus machen. Das war tatsächlich möglich, andersrum natürlich nicht. 

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
· bearbeitet von qwertzui
Am 7.9.2023 um 20:20 von pillendreher:

wie kann ich das obige Ziel mit minimalsten Risiko bei größter Erfolgswahrscheinlichkeit erreichen und wie gehe ich als rationaler Fragesteller an die Sache ran?

Schlägt mich jetzt jemand, wenn ich eine ganz andere Vorgehensweise vorschlage, als die bisher diskutierte, um die obige Frage zu lösen? Ich komme ganz ohne Formeln aus B-), man braucht aber zur Umsetzung grundlegende Programmierkenntnisse.

 

Meine Grundannahme ist, dass die historische Zeitreihe eines maximal großen Aktienindex ausreichend für eine Bewertung der zu erwartenden Rendite des Aktienmarktes ist. Genauso soll es bei anderen Anlageklassen sein, für die mindestens 100 Jahre Daten vorliegen. Wenn Interesse besteht, gehe ich gerne genau darauf ein, was ich gerechnet habe, um für mich die Frage nach der optimalen Assetallokation in Anspar- und Entnahmephase, sowie der sicheren Entnahmerate zu beantworten. 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
Am 9.9.2023 um 07:13 von qwertzui:

Tatsächlich hatte ich dieses Problem schon bei einer ganz anderen Thematik. Hatte da eine Statistik aus Minutendaten und wollte eine Statistik aus Zehnminutendaten draus machen. Das war tatsächlich möglich, andersrum natürlich nicht. 

Derartige Probleme gehen sicherlich über Anlagethemen hinaus und können in verschiedenen Zusammenhängen auftauchen.

Am 9.9.2023 um 07:25 von qwertzui:

Ich komme ganz ohne Formeln aus B-), man braucht aber zur Umsetzung grundlegende Programmierkenntnisse.

Wird ja immer schlimmer. Formeln muss man nur verstehen können, aber Programmierkenntnisse? :D

Am 9.9.2023 um 07:25 von qwertzui:

Meine Grundannahme ist, dass die historische Zeitreihe eines maximal großen Aktienindex ausreichend für eine Bewertung der zu erwartenden Rendite des Aktienmarktes ist.

Fairerweise muss man dazu sagen, dass das der Voraussetzung der Prognosefreiheit zuwiderläuft, unter der mein im OP skizzierter Ansatz Gültigkeit hat. Von daher widerspricht sich das auch gar nicht. Wenn man einen belastbaren Zusammenhang zwischen heute vorhandenen Informationen und zukünftigen Renditen in Form von zuverlässigen Renditeprognosen her-/ableiten kann, sollte man selbstverständlich von der optimalen Lösung unter Prognosefreiheit abweichen und Perioden bis zu einem gewissen Grad anders als gleichgewichtet gewichten. Ich weise nur darauf hin, dass sich selbst fundierte Prognosen im Rückblick als ungenau erweisen könnten. Und Parameter-Regime der Fundamentalbewertung können sich auch dauerhaft verändern ("Neues Normal"), was sich insbesondere in langen historischen Zeitreihen erst sehr langsam bemerkbar machen würde.

Siehe auch die Diskussion in diesem Thread:

Was man ebenfalls nicht vergessen darf: Aufgrund des konstant Haltens des risikoreichen Anteils durch Rebalancing während des Life Cycles (notwendig aufgrund der Marktschwankungen) investiert man in der Anlagepraxis in den risikoreichen Anteil zwangsläufig zu unterschiedlichen Zeitpunkten (wobei man quo prognosefreiem Ansatz das SoRR minimieren möchte). Das sorgt automatisch dafür, dass man im Hinblick auf die Fundamentalbewertung antizyklisch vorgeht, wenn ein tatsächlicher Zusammenhang zwischen Fundamentalanalyse und zukünftigen Renditen besteht (nach einem Einbruch des risikoreichen Anteils muss dieser wieder auf den konstanten Wert zurückgeführt werden, just in dem Moment wenn er fundamental gesehen sehr günstig sein sollte - die Umkehrung gilt genaus, nach einem Trend wird der risikoreiche Anteil reduziert). D.h. man wird auch ohne Tilt - was die Fundamentalbewertung angeht - rational vorgehen. Ob sich dann ein zusätzlicher Tilt noch lohnt, oder nicht sogar selbst ein Risiko darstellt, ist diskussionswürdig.

Rebalancing ist wohl der Hauptgrund, weshalb der durchschnittliche Vorteil z.B. durch einen P/E 10 Ansatz auf echten historischen Daten gegenüber der prognosefreien Methodik in der Vergangenheit nicht übermäßig hoch ausgefallen ist (26% höherer Mittelwert bei vergleichbarem Risiko mit den von Ayres/Nalebuff verwendeten Parametern für das LCI Problem von US-Alterskohorten 1924-2009). Gerade dieser Ausgangspunkt in 2009 könnte als warnendes Beispiel im Rückblick aus heutiger 2023-Sicht dienen, wenn man die damals aus meiner Sicht plausiblen CAPE-Anpassungen so in den letzten 14 Jahren tatsächlich angewendet hätte (möglicherweise (aus meiner Sicht eher unwahrscheinlich) stellt sich das weiter in der Zukunft noch rückblickend als weise voraus, daher ist das noch Konjunktiv - gefühlsmäßig wäre man - angesichts der tatsächlichen Kursentwicktlung - aber wesentlich zu konservativ unterwegs gewesen).

Daher gibt es aus meiner Sicht keinen statistisch zuverlässigeren Ansatz als prognosefreies Vorgehen. Jede Abweichung davon ist letztendlich ein prognose-basierter Tilt - das gilt im Mehrperioden-Fall nicht nur für Assets, sondern auch für die Zeit. Diversifikation würde angesichts der Unsicherheit der Zukunft von derartigen Tilts absehen. Wer die Zukunft hinreichend zuverlässig zu prognostizieren zu können glaubt, sollte derartige Tilts eingehen.

Markowitz konnte das nicht, daher ist er bei seinem Portfolio bei Equal-Weight gelandet (über seine risikoreiche Allokation im Zeitverlauf wissen wir leider nichts).

Am 9.9.2023 um 07:25 von qwertzui:

Genauso soll es bei anderen Anlageklassen sein, für die mindestens 100 Jahre Daten vorliegen.

Welche Ansätze verwendest du für ertragslose Assets wie z.B. Gold? Supply-and-Demand Ableitungen? Makroökonomische Faktoren (Zinsniveau, Wirtschaftszyklus, Sentiment, ...)?

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
vor 8 Stunden von Glory_Days:

Welche Ansätze verwendest du für ertragslose Assets wie z.B. Gold? Supply-and-Demand Ableitungen? Makroökonomische Faktoren (Zinsniveau, Wirtschaftszyklus, Sentiment, ...)?

Gar nichts davon, ich nehme einfach die historische Zeitreihe der Preise. Die sind glücklicherweise für Gold, Silber, 10jährige US-Anleihen, Dollar und den globalen Aktienmarkt vorhanden. 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 38 Minuten von qwertzui:

Gar nichts davon, ich nehme einfach die historische Zeitreihe der Preise. Die sind glücklicherweise für Gold, Silber, 10jährige US-Anleihen, Dollar und den globalen Aktienmarkt vorhanden. 

Verstehe, dieser Ansatz wurde von Markowitz in seinem 1952 Paper wie folgt kommentiert:

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer
vor 21 Stunden von Glory_Days:

Markowitz betrachtete den Ein-Periodenfall (z.B. ein Jahr, wenn die Periode als Jahr festgelegt wird). Ich betrachte den allgemeinen Mehr-Periodenfall (beliebige Anzahl n).

 

Zitat

Um die Volatilität des Vermögensendwertes über einen gegebenen Betrachtungszeitraum abzuschätzen, kannst du neben einer analytischen Rechnung auch einen MC-Simulator verwenden (z.B. den des BVIs).

Das ist dann der EIN-Periodenfall, richtig?

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
vor 2 Stunden von Glory_Days:

Verstehe, dieser Ansatz wurde von Markowitz in seinem 1952 Paper wie folgt kommentiert:

Was genau soll mir das jetzt sagen? Ich verwende ja auch nicht einfach Standardabweichung und Mittelwert der Datenreihen, sondern die Datenreihen selbst

Diesen Beitrag teilen


Link zum Beitrag
etherial
vor 5 Minuten von qwertzui:

Was genau soll mir das jetzt sagen? Ich verwende ja auch nicht einfach Standardabweichung und Mittelwert der Datenreihen, sondern die Datenreihen selbst

Was ist denn da der Unterschied?

Leider stehe ich etwas auf dem Schlauch: Es geht darum, dass wir mit der Portfoliotheorie zwar ein Instrument haben um Portfolios mit bekannten Erwartungswerten/Volatilitäten/Korrelationen zu optimieren, uns aber die guten Schätzwerte fehlen? Ich würde dem zustimmen, aber das sagt doch nur aus, dass eine Feinoptimierung sinnlos ist. Pi-Mal-Daumen-Optimierung sollte doch aber weiterhin ausreichen. Oder geht es in der Diskussion um was ganz anderes?

Diesen Beitrag teilen


Link zum Beitrag
qwertzui

Letztlich möchte ich doch wissen wie viel Geld X ich in Y Jahren mit welcher Wahrscheinlichkeit habe, wenn ich

a) Z monatlich anspare oder

b) Z monatlich entnehme

Daraus abgeleitet sind die Frage nach der optimalen Allokation und der Zeitdauer X, bzw. umgedreht die Bestimmung der anderen Variablen. 

 

Das kann man mit Algebra oder Simulation lösen. Ich habe mich für die Simulation entschieden, weil es mir einfacher erscheint und nicht so viele Annahmen erfordert (kann man sicherlich auch anders sehen). Im Detail kann man das beliebig komplex machen, aber im Prinzip nehme ich einfach die Zeitreihen der verschiedenen Assetpreise und suche die optimale Lösung für die jeweilige Fragestellung. Wenn man das vernünftig macht, landet man auch nicht bei Lösungen, die nicht verallgemeinert werden können, was landläufig als Data Mining bezeichnet wird.

vor 5 Minuten von etherial:

Oder geht es in der Diskussion um was ganz anderes?

Möglichwerweise habe ich die Diskussion falsch verstanden. Mir geht es um die oben formulierte Fragestellung.

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor einer Stunde von qwertzui:

Was genau soll mir das jetzt sagen? Ich verwende ja auch nicht einfach Standardabweichung und Mittelwert der Datenreihen, sondern die Datenreihen selbst

Der Kritikpunkt von Markowitz ist in meinen Augen allgemeiner und bezieht sich auf die Extrapolation der Vergangenheit in die Zukunft. 

vor 51 Minuten von etherial:

Was ist denn da der Unterschied?

Habe ich bisher auch nicht verstanden. Dafür müsste @qwertzui einmal konkretisieren, wie genau er die Datenreihen verwendet. Der Kritikpunkt eins drüber bleibt allerdings unabhängig davon gültig.

vor 51 Minuten von etherial:

Oder geht es in der Diskussion um was ganz anderes?

Markowitz beschreibt in seinem 1952er Paper nur das Ein-Perioden Problem. Hier geht es um das Mehr-Periodenproblem + Entnahmephase (= Life Cycle Investing Problem). Und dessen optimale Lösung bei absoluter Prognosefreiheit habe ich im OP und späteren Postings skizziert.

vor 1 Stunde von geldvermehrer:
Zitat

Um die Volatilität des Vermögensendwertes über einen gegebenen Betrachtungszeitraum abzuschätzen, kannst du neben einer analytischen Rechnung auch einen MC-Simulator verwenden (z.B. den des BVIs).

Das ist dann der EIN-Periodenfall, richtig?

Nein, der Rechner des BVI verwendet historische Jahresrenditen für simulierte Zeiträume bis zu 50 Jahren (d.h. er wählt aus den vergangenen Renditen beliebige Kombinationen aus, die alle gleich wahrscheinlich sind). Damit wird der Mehr-Periodenfall simuliert.

vor 47 Minuten von qwertzui:

Das kann man mit Algebra oder Simulation lösen. Ich habe mich für die Simulation entschieden, weil es mir einfacher erscheint und nicht so viele Annahmen erfordert (kann man sicherlich auch anders sehen).

Die Simulation erfordert eher mehr Annahmen, da eine Simulation keine Näherung (= Einschränkung des Parameterraums) darstellt, die für eine analytische Lösung oft notwendig ist.

vor 47 Minuten von qwertzui:

Im Detail kann man das beliebig komplex machen, aber im Prinzip nehme ich einfach die Zeitreihen der verschiedenen Assetpreise und suche die optimale Lösung für die jeweilige Fragestellung. Wenn man das vernünftig macht, landet man auch nicht bei Lösungen, die nicht verallgemeinert werden können, was landläufig als Data Mining bezeichnet wird.

D.h. du optimierst nur auf dem historischen Szenario, oder erzeugst du aus den historischen Preisverläufen neue Trajektorien? Bei erstem würde ich solche reinen in-sample Optimierungen sehr kritisch sehen. Insbesondere könnte ich nicht erkennen, wie du deine Fragestellung damit hinreichend sicher beantworten können möchtest.

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer

Danke, jetzt komme ich der Sache näher:)

Portfolio Visualizer bietet nachfolgende Renditen an.

Zitat

Historische Renditen - Simulation zukünftiger Renditen durch zufällige Auswahl der Renditen für jedes Jahr auf der Grundlage der verfügbaren historischen Renditen
Prognostizierte Renditen - Simulation künftiger Renditen auf der Grundlage eines beliebigen prognostizierten Mittelwerts und einer Standardabweichung der Vermögenswerte
Statistische Renditen - Simulation zukünftiger Renditen auf der Grundlage des Mittelwerts, der Volatilität und der Korrelationen der Vermögenswerte des Portfolios
Parametrisierte Renditen - Simuliert künftige Renditen auf der Grundlage der angegebenen statistischen Verteilung

Wären Historische Renditen Mehrperioden (von dir verwendet) und Prognostizierte Renditen Einperiodenmodelle (wie Markowitz verwendet hat)?

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson
· bearbeitet von Hicks&Hudson
vor einer Stunde von qwertzui:

Möglicherweise habe ich die Diskussion falsch verstanden

vor einer Stunde von etherial:

Leider stehe ich etwas auf dem Schlauch:

vor 23 Stunden von geldvermehrer:

Bis hier hin komme ich noch mit.

vor 23 Stunden von geldvermehrer:

Ähm, das habe ich jetzt 3 mal lesen müssen,

vor 13 Stunden von Glory_Days:

Wird ja immer schlimmer.

vor einer Stunde von qwertzui:

Was genau soll mir das jetzt sagen?

vor 28 Minuten von Glory_Days:

Habe ich bisher auch nicht verstanden.

Starke Diskussion habt ihr hier :lol:

Bei mir ist der Bahnhof auch ziemlich präsent.:(

 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 1 Stunde von geldvermehrer:

Wären Historische Renditen Mehrperioden (von dir verwendet) und Prognostizierte Renditen Einperiodenmodelle (wie Markowitz verwendet hat)?

Ich verwende Ein-Perioden Renditen in einem Mehr-Periodenmodell (was nur unter der Annahme der Unabhängigkeit (⇒ Unkorreliertheit) aller einzelnen Perioden-Renditen möglich ist). Ich verändere gegenüber Markowitz nicht den Input sondern das Modell! Die Hauptaussagen unter der Voraussetzungen von Prognosefreiheit sollten auch im Fall der Abhängigkeit (⇒ Korrelation != 0) einzelner Perioden-Renditen erhalten bleiben - vorausgesetzt die Abhängigkeit zwischen den Perioden-Renditen ist ununterscheidbar/identisch (ich arbeite gerade noch an einem mathematischen Beweis für den Fall abhängiger Periodenrenditen in der Mean-Variance Näherung).


Ich gehe davon aus, dass Portfolio Visualizer jenseits der Markowitz Efficient Frontier geometrisch rechnet (das dort angegeben CAGR ist ein geometrischer Mittelwert!). Arithmetische Renditen sind Ein-Periodenrenditen (Markowitz), geometrische Renditen sind Mehr-Periodenrenditen. Man kann aber nicht einfach geometrische Mehr-Periodenrenditen für das Ein-Periodenmodell (Markowitz) verwenden, um damit den Mehr-Periodenfall zu berechnen, da es in einem Ein-Periodenmodell keine Volatilität zwischen verschiedenen Rendite-Perioden geben kann (diese kommt erst durch den multiplikativen Zusammenhang mehrerer Perioden in einem Mehr-Periodenmodell zu Stande).

Mit einem Ein-Periodenmodell (Markowitz) kannst du eine Periode (beliebiger Zeitraum) berechnen, die Rendite und Standardabweichung muss dann aber zu diesem Zeitraum passen. D.h. wenn du Jahresrenditen verwendest, kannst du mit dem Markowitz-Modell genau ein einziges Jahr in der Mean-Variance Näherung korrekt berechnen. Ein Mehr-Periodenmodell hingegen berechnet aus einem Ein-Perioden-Input das korrekte Mehr-Perioden Ergebnis.

Markowitz Ein-Periodenmodell erwartet als Input per Definition den arithmetischen Mittelwert (sog. Erwartungswert) und die Standardabweichung. Für den Mehr-Periodenfall bedeutet das bei normierten Renditen (geometrischer Mittelwert), dass du in der unteren Grafik die obere Schranke µ_a (den arithmetischen Mittelwert) berechnest. Die tatsächliche Portfolio-Rendite des Mehr-Periodenfalls ist niedriger als diese arithmetische Markowitz Rendite.

Manchmal wird für Markowitz Modell auch der geometrische Mittelwert anstelle des arithmetischen Mittelwerts verwendet. Für den Mehr-Periodenfall bedeutet das bei normierten Renditen (geometrischer Mittelwert), dass du in der unteren Grafik die untere Schranke µ_s (die strategischen Rendite) berechnest. Die tatsächliche Portfolio-Rendite des Mehr-Periodenfalls ist höher als diese strategische Rendite.

D.h. egal was du als Input für Markowitz Ein-Periodenmodell verwendest, du wirst damit niemals die korrekte erwartete geometrische Rendite des Mehr-Periodenfalls berechnen können (in der unteren Grafik als geometrische Portfolio-Rendite µ_p bezeichnet) - außer vielleicht du betreibst Reverse-Engineering, d.h. du kennst die Lösung des Mehr-Periodenfalls schon und die richtest die Parameter des Ein-Periodenmodells danach aus (dieser Input für das Ein-Periodenmodell hätte dann keinen Bezug zur Anlagerealität mehr).

 

grafik.thumb.png.945807e521ceebfd478046abd68d1756.png.fe945eeecab885408e40a5e2dcb5317b.png

Diesen Beitrag teilen


Link zum Beitrag
etherial
vor 7 Stunden von Hicks&Hudson:

Starke Diskussion habt ihr hier :lol:

Bei mir ist der Bahnhof auch ziemlich präsent.:(

Aber immer noch besser als die Diskussionen wo alle "Bescheid" wissen :thumbsup:.

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
vor 9 Stunden von Glory_Days:

D.h. du optimierst nur auf dem historischen Szenario

Richtig :thumbsup:

vor 9 Stunden von Glory_Days:

würde ich solche reinen in-sample Optimierungen sehr kritisch sehen.

Also ich kann damit gut schlafen. Mein Gedanke dazu ist, dass sich in den letzten 100 Jahren so ziemlich alle Katastrophen ereignet haben, auf die ich achten muss. Kritisch wird es ja sowieso nur in der Entnahmephase, wenn am Ende vom Geld noch leben übrig ist. Das Risiko, dass hier etwas passiert, dass schlimmer als der historisch schlimmste Fall ist, sehe ich aber geringer als das allgemeine Lebensrisiko. 

Diesen Beitrag teilen


Link zum Beitrag
qwertzui
· bearbeitet von qwertzui
vor 10 Stunden von Glory_Days:

Dafür müsste @qwertzui einmal konkretisieren, wie genau er die Datenreihen verwendet

Ok. 

Schritt 1: historische Preise für die relevanten Anlageklassen finden, min. 100 Jahre, damit 1929 enthalten ist. Inflationskorrektur nicht vergessen. 

Schritt 2: Bestimmung der geometrischen Rendite oder des Portfolioendwertes für einen bestimmten Zeitraum gleitend über alle Daten. Dazu wird von einer konstanten Assettallokation ausgegangen. Die zeitlichem Bezüge zwischen den Anlageklassen bleiben wie sie sind und es wird nichts durcheinandergewürfelt, um die gegenseitigen Abhängigkeiten nicht zu beschädigen. 

Schritt 3: Optimierung der Allokation um das Ergebnis aus Schritt 2 zu optimieren. Hierbei kann man auf verschiedene statistische Größen schauen, muss also nicht die mittlere geometrische Rendite des Samples nehmen, sondern kann je nach Risikoneigung auch auf einen pessimistischeren Fall hin optimieren. 

 

Nun will ich euch nicht vorenthalten, was dabei herauskommt:

In der Ansparphase sind 100 % Aktien optimal, wobei die Hinzunahme von etwas Gold nicht schadet. 

In der Entnahmephase macht es Sinn zu den Aktien noch Gold oder Anleihen dazuzunehmen, wobei Gold im Vergleich etwas besser abschneidet. 

Diesen Beitrag teilen


Link zum Beitrag
Glory_Days
· bearbeitet von Glory_Days
vor 3 Stunden von qwertzui:

Also ich kann damit gut schlafen. Mein Gedanke dazu ist, dass sich in den letzten 100 Jahren so ziemlich alle Katastrophen ereignet haben, auf die ich achten muss. Kritisch wird es ja sowieso nur in der Entnahmephase, wenn am Ende vom Geld noch leben übrig ist. Das Risiko, dass hier etwas passiert, dass schlimmer als der historisch schlimmste Fall ist, sehe ich aber geringer als das allgemeine Lebensrisiko. 

Lange Zeitreihen sind sicherlich besser als kurze Zeitreihen. Historische Daten stellen eine Abfolge an Preisdaten dar, die sich so tatsächlich abgespielt hat. Es ist sicherlich nicht falsch und notwendig, Überprüfungen auf derartigen Datenreihen durchzuführen. Um die Robustheit eines Ansatzes zu zeigen, halte ich es darüber hinaus auf jeden Fall für sinnvoll, neue Trajektorien zunächst unter Annahme der historischen Verteilung der Renditen und später unter Variation der Verteilung durchzuführen. Mit der sich daraus ergebenden Perzentil-Betrachtung ergibt sich dann ein Ergebnis-Korridor und man kann seine Asset Allokation noch profunder definieren. Ein Verzicht auf den zweiten Teil (d.h. eine reine In-Sample Betrachtung) sehe ich sehr kritisch und nicht als hinreichend an, da sich die Zukunft nicht notwendigerweise an die Vergangenheit halten muss - und sich auch nicht notwendigerweise im Rahmen langer historische Grenzwerte bewegen muss (was sich leicht einsehen lässt, denn zu jedem Zeitpunkt in der Vergangenheit vor einem noch nie dagewesenen Ereignis oder einem neuen Parameter-Regime ("Paradigmenwechsel") hat es bereits eine entsprechend lange Vergangenheit gegeben).

Erneut weise ich darauf hin, dass sich das Life Cycle Investing Problem bestehend aus Ansparphase und Entnahmephase nur gesamthaft betrachten lässt und sich die Phasen nicht einfach voneinander trennen lassen, sondern zusammenhängen (der Endwert der Ansparphase ist der Anfangswert der Entnahmephase).

vor 3 Stunden von qwertzui:

Schritt 1: historische Preise für die relevanten Anlageklassen finden, min. 100 Jahre, damit 1929 enthalten ist. Inflationskorrektur nicht vergessen.

Reale Daten sind auf jeden Fall der richtige Ansatzpunkt - wir wollen immer in Kaufkraft rechnen, insbesondere für Phasen hoher Inflation/Deflation, die es in der Vergangenheit immer mal wieder gab und auch zukünftig geben könnte.

vor 3 Stunden von qwertzui:

Schritt 2: Bestimmung der geometrischen Rendite oder des Portfolioendwertes für einen bestimmten Zeitraum gleitend über alle Daten. Dazu wird von einer konstanten Assettallokation ausgegangen. Die zeitlichem Bezüge zwischen den Anlageklassen bleiben wie sie sind und es wird nichts durcheinandergewürfelt, um die gegenseitigen Abhängigkeiten nicht zu beschädigen.

Mit "gleitend" meinst du "rollierend", nehme ich an? D.h. du schaust dir in diesem Fall für eine gegebene Asset Allokation an, wie diese in beliebigen historischen Zeitfenstern für alle möglichen Startpunkte abgeschnitten hätte (wobei der Zeitraum selbst von der Länge her variiert werden kann).

vor 3 Stunden von qwertzui:

Schritt 3: Optimierung der Allokation um das Ergebnis aus Schritt 2 zu optimieren. Hierbei kann man auf verschiedene statistische Größen schauen, muss also nicht die mittlere geometrische Rendite des Samples nehmen, sondern kann je nach Risikoneigung auch auf einen pessimistischeren Fall hin optimieren. 

Verwendest du für die Optimierung einen Algorithmus, oder machst du diese manuell durch Ausprobieren? Welche Größen jenseits der Rendite betrachtest du (Volatilität, Downside-Volatilität, Drawdown, ...)?

vor 3 Stunden von qwertzui:

Nun will ich euch nicht vorenthalten, was dabei herauskommt:

In der Ansparphase sind 100 % Aktien optimal, wobei die Hinzunahme von etwas Gold nicht schadet. 

In der Entnahmephase macht es Sinn zu den Aktien noch Gold oder Anleihen dazuzunehmen, wobei Gold im Vergleich etwas besser abschneidet. 

Was genau bezeichnest du hier als optimal? Welche Größe bzw. welches Verhältnis wird bei 100% Aktien maximiert und welche Auswirkungen hat welcher Prozentsatz von Gold auf diese Größe/Verhältnis? Das Portfolio ist in deiner Analyse auf Eigenkapital, d.h. auf 100% nach oben hin beschränkt, nehme ich an?

vor 3 Stunden von qwertzui:

In der Entnahmephase macht es Sinn zu den Aktien noch Gold oder Anleihen dazuzunehmen, wobei Gold im Vergleich etwas besser abschneidet.

Betrachtest du das zusammenhängende Problem, d.h. verwendest du den jeweiligen rollierenden Vermögensendwert der Ansparphase als Ausgangsvermögen für die Entnahmephase? Wie hoch ist die absolute monatliche Entnahmehöhe und wie hoch ist die Success Rate (= die Wahrscheinlichkeit am Ende der Entnahmephase einen Vermögensendwert ungleich 0 zu haben)?

vor 13 Stunden von qwertzui:

Letztlich möchte ich doch wissen wie viel Geld X ich in Y Jahren mit welcher Wahrscheinlichkeit habe, wenn ich

a) Z monatlich anspare oder

b) Z monatlich entnehme

Kannst du die reale monatliche Spar- und Entnahmerate dynamisieren oder ist diese statisch?

 

Grundsätzlich erinnert mich dieses Vorgehen an das Ayres/Nalebuff Buch, wobei dort keine ex-post Optimierung des Allokations-Ansatzes auf historischen Daten durchgeführt wird, sondern der unter Prognosefreiheit vorgebenene optimale Ansatz nach Samuelson/Merton gegen andere Allokationsregeln (Birthday Rule, konstante risikoreiche Allokation) auf historischen und simulierten Daten verglichen wird. Dabei wird nur die Ansparphase betrachtet und die wichtige Überlegung eingebracht, dass Anleger bei der Festlegung der risikoreichen Allokation von ihrem True Total Wealth (=liquides Vermögen + Barwert aller zukünftiger Einkünfte) ausgehen sollten und darauf bezogen ihre konstante risikoreiche Allokation ausrichten sollten. Da zu Beginn der Ansparzeit in der Anlagepraxis der proz. Anteil am True Total Wealth zwangsläufig sehr gering sein wird (die zukünftigen Einnahmen dominieren das vorhandene liquide Vermögen), erlauben sie in ihrem Ansatz den Einsatz von Leverage/Fremdkapital und erhöhen damit das risikoreiche Exposure des vorhandenen liquiden Vermögens zu Beginn auf 200%. Später in der Ansparphase wird das risikoreiche Exposure dann stückweise bis zum Zielwert gemäß Risikoaversion des Anlegers gesenkt. Bei festem mittlerem Vermögensendwert lässt sich die Standardabweichung im Vergleich zu anderen Allokationsregeln untersuchen und es ergibt sich bei festgehaltenem mittleren Vermögensendwert ein Risikoverteil aufgrund der besseren Zeitdiversifikation. Siehe die nachfolgende Tabelle für einen Vergleich dieses Ansatzes mit einer konstanten Allokationsregel bei gleichem mittlerem Vermögensendwer (Ergebnis: geringere Standardabweichung bei der LCI-Strategie):

grafik.png.d24f7f9535d9751619c9f1840fe81543.png

 

Dieser Vorteil ist robust, nicht nur auf historischen Daten verschiedener Länder, sondern auch auf simulierten Daten unter Variation der Parameter der Verteilungsfunktion. Er ist auch dann robust, wenn man den Einsatz von Fremdkapital unterbindet und nur eine 100/λ Allokation erlaubt:

Zitat

[F]ollowing a 100/S allocation is well worthwhile. Compared to the constant 75 percent rule, a 100/58 strategy yields the same average return but lowers the standard deviation by 24 percent. A 100/80 strategy leads to the same risk profile but improves the mean by (coincidentally) the same 24 percent. You can beat the birthdayrule, too. A 100/71 target beats the birthday rule mean return by 33 percent and lifts the historical worst case by 20 percent, all while preserving the theoretical 1 percent worst outcome.

Die Frage nach der optimalen Asset Allokation des Life Cycle Investing Problem wurde ebenfalls im Paper 'Optimal Life-Cycle Investing with Flexible Labor Supply: A Welfare Analysis of Life-Cycle Funds' von Francisco J. Gomes, Laurence J. Kotlikoff and Luis M. Viceira wissenschaftlich untersucht. Unter den dort gegebenen Voraussetzungen (z.B. Beschränkung des risikoreichen Anteils auf 100%) erhalten die Autoren folgende qualitative Kurve. Jenseits des qualitativen Ergebnisses hängt das genaue Erscheinungsbild natürlich von den im Papern gemachten Annahmen ab (für diese müsste man noch einmal im Paper nachschauen):

grafik.png.2505221fa62398f878065a3cafc1cbc4.png.6a0f8271c9ca190b6d5209102b81df23.png

Diesen Beitrag teilen


Link zum Beitrag
Hicks&Hudson
· bearbeitet von Hicks&Hudson
vor 35 Minuten von Glory_Days:

da sich die Zukunft nicht notwendigerweise an die Vergangenheit halten muss - und sich auch nicht notwendigerweise im Rahmen langer historische Grenzwerte bewegen muss

:thumbsup:

Die Welt und Datenverarbeitung vor 100, 50 oder sogar 30 Jahren, war eine andere als heute.

Märkte lernen dazu, Anleger lernen dazu. Das sollte man nicht ignorieren.

Was früher geklappt hat und ein Free Lunch war, muss es nicht die nächsten 100 Jahre sein.

 

Diesen Beitrag teilen


Link zum Beitrag
Ramstein
vor 13 Stunden von qwertzui:

Letztlich möchte ich doch wissen wie viel Geld X ich in Y Jahren mit welcher Wahrscheinlichkeit habe, wenn ich

a) Z monatlich anspare oder

b) Z monatlich entnehme

Daraus abgeleitet sind die Frage nach der optimalen Allokation und der Zeitdauer X, bzw. umgedreht die Bestimmung der anderen Variablen. 

Hast du auch schon geschaut, mit welcher Wahrscheinlichkeit du in X Jahren tot bist?

Wäre da ein besseres Leben nicht wichtiger, als ein irgendwie hingerechneter zukünftige Vermögenserwartungswert?

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...