Zum Inhalt springen
Drengist

Predict FI - Rechner zum Thema "Finanzielle Unabhängigkeit"

Empfohlene Beiträge

3dbruce
vor 10 Minuten von geldvermehrer:

Wie würdest du dem jetzigen hohen Shiller CAPE von um die 40 beim S&P 500 auf Sicht von 30 Jahren und baldigem Ruhestand Entgegenwirken, mit einem Abzug bei der durchschnittlichen langjährigen Rendite von 1, 2...%?

Tja, da gibt es vermutlich keinen Zaubertrank. Die CAGR dafür weiter runter zu schrauben empfinde ich als etwas willkürlich. Die "normale" 1% Reduktion passt ja zumindest zu den historischen Daten.

 

Ich selbst berücksichtige das erhöhte Risiko aufgrund der aktuell hohen CAPE Ratio so, dass ich momentan noch eine etwas höhere Geldmarktfonds-Quote vorhalte als es eigentlich meiner Ziel Asset Allokation entspricht. Im Bogleheads-Forum würde ich für diese Market-Timing-Sünde zwar vermutlich schief angesehen werden, aber ich fühle mich damit aktuell ganz wohl.

Diesen Beitrag teilen


Link zum Beitrag
Sapine
vor 38 Minuten von geldvermehrer:

Wie würdest du dem jetzigen hohen Shiller CAPE von um die 40 beim S&P 500 auf Sicht von 30 Jahren und baldigem Ruhestand Entgegenwirken, mit einem Abzug bei der durchschnittlichen langjährigen Rendite von 1, 2...%?

Für mich ist das Shiller Cape im wesentlichen wichtig, für anfängliche Entnahmerate. Natürlich ist es trotz schöner Formel am Ende auch nur eine Daumenschätzung. Es könnte ja durchaus vernünftige Gründe geben für ein höheres KGV (z.B. geänderte Bilanzierungsregeln). Viel wichtiger finde ich es, dass man in der Folge eine Methode hat, mit der man sein Risiko deutlich reduzieren kann. Teildynamische Entnahmen können das in einer Größenordnung von rund 25 %. Bevor ich mir also das Hirn zermartere, ob ich mit 3,0 oder 3,1 % starten soll, mache ich mir lieber Gedanken um die großen Hebel, die mir zur Verfügung stehen. 

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
vor 4 Minuten von geldvermehrer:

Dann verstehe ich aber diesen Satz nicht:wacko:

Zitat

 

Wenn du stattdessen die Währung=DE setzt passiert intern Folgendes:

Die originalen Indexdaten des S&P500 bei mir sind nominale Werte, sind schon in USD, werden direkt in EUR_DE konvertiert und erhalten einen CAGR-Offset von -1%

 

Oder ist das die Anpassung für All World statt S&P 500?

Da musste ich eben nochmal die Suche bemühen um den Kontext für diese Aussage zu finden :D ...

 

Kontext war eine konkrete Modellierung wo ein solcher -1% CAGR-Offset bereits gesetzt wurde und meine Aussage bezog sich da lediglich auf die Reihenfolge der internen Konvertierungen im Tool. Also nochmal: Die CAGR-Offsets sind (bis auf die synthetischen Anleihen) im Standard immer Null. Im Zweifelsfall klappst du die Spalte auf, und schaust dir die konkreten Offsets an. Sind dort keine eingetragen, werden intern auch keine Abzüge vorgenommen.

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer

Besten Dank an euch:)

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
· bearbeitet von Der Heini
vor 4 Stunden von Sapine:

Bevor ich mir also das Hirn zermartere, ob ich mit 3,0 oder 3,1 % starten soll

Das liegt ja schon innerhalb der Abweichungen, von daher egal. 

Jetzt weiß ich auch, warum ich das Shiller-Cape nicht kannte, bei MC und Bootstrap logischerweise nicht wählbar.

@geldvermehrer: Dir ist bestimmt bekannt, daß du bei zyklischer Berechnung nur wenige Simulationen haben kannst aufgrund der kurzen Historie.  Würde daher auch das Bootstrap Verfahren mind. zusätzlich nutzen.

 

Edit: Denke, Emerging Markets sind aufgrund der kurzen Historie nicht in der Assettabelle?

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
vor 4 Minuten von Der Heini:

Edit: Denke, Emerging Markets sind aufgrund der kurzen Historie nicht in der Assettabelle?

Ja, genau. In der Fama French Library gibt es gerade mal Daten ab Juli 1989 dazu.

Diesen Beitrag teilen


Link zum Beitrag
Fondsanleger1966
vor 9 Stunden von 3dbruce:

Bitte gib mir noch mal die konkreten Daten um diesen Effekt nachzustellen. Dann kann ich das prüfen.

1) Rechner öffnen -> Vola bei den voreingestellten Anlagen unter "Asset-Performance" ablesen:

- US-Aktien: 14,02%

- 10y Treasuries: 4,44%

- T-Bills: 0,76%

 

2) Einstellungsrad rechts oben: Rebalancing von monatlich auf jährlich umstellen. Jetzt Vola: 

- US-Aktien: 18,98%

- 10y Treasuries: 6,25%

- T-Bills: 2,67%

 

Danke fürs Nachschauen!

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
vor 28 Minuten von Fondsanleger1966:

1) Rechner öffnen -> Vola bei den voreingestellten Anlagen unter "Asset-Performance" ablesen:

- US-Aktien: 14,02%

- 10y Treasuries: 4,44%

- T-Bills: 0,76%

 

2) Einstellungsrad rechts oben: Rebalancing von monatlich auf jährlich umstellen. Jetzt Vola: 

- US-Aktien: 18,98%

- 10y Treasuries: 6,25%

- T-Bills: 2,67%

Gut gesehen! :thumbsup: Ich nutze auf dem Reiter "Asset Performance" intern auch meine Standard-Funktionen zur Kursdatenbereitstellung um in allen Sichten immer mit konsistenten Kursdaten zu arbeiten. Die gelieferten Datenstrukturen passen dort aber nicht so 100%, daher musste ich an der Ecke intern immer etwas tricksen. Dieses Tricksen führt bei quartärlichem oder jährlichen Rebalancing aber tatsächlich zu einem Seiteneffekt, der sich auf die Berechnung der Volatilität ausgewirkt hat (obwohl das Rebalancing an sich damit ja nun überhaupt nichts zu tun hat).

 

Ich habe das jetzt hoffentlich final behoben, Vielen Dank fürs Bescheid sagen!! :1st:

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer
· bearbeitet von geldvermehrer
vor 6 Stunden von Der Heini:

 

@geldvermehrer: Dir ist bestimmt bekannt, daß du bei zyklischer Berechnung nur wenige Simulationen haben kannst aufgrund der kurzen Historie.  Würde daher auch das Bootstrap Verfahren mind. zusätzlich nutzen.

 

Nein, ich bin noch eher am Anfang mit dem tool, was meinst du mit zyklischer Berechnung?

Bootstrap Verfahren kannte ich nicht und ein gerade erfolgtes Nachlesen auf predict-FI brachte keine Erleuchtung, habe das mit Blöcken etc. nicht verstanden, möchte es auch nicht zu kompliziert machen:unsure:

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
vor 10 Stunden von geldvermehrer:

Nein, ich bin noch eher am Anfang mit dem tool, was meinst du mit zyklischer Berechnung?

Bootstrap Verfahren kannte ich nicht und ein gerade erfolgtes Nachlesen auf predict-FI brachte keine Erleuchtung, habe das mit Blöcken etc. nicht verstanden, möchte es auch nicht zu kompliziert machen:unsure:

https://predict-fi.com/de/docs/8-sampling

Hat mit dem Tool alleine nichts zu tun, sind grundsätzliche unterschiedliche Simulationsverfahren. Die meisten Tools nutzen nur eins von beiden. Hier kann man beides einstellen, das ist schon sehr gut gemacht.

Bei Monte-Carlo Verfahren hat man viel mehr Zeitreihen als bei rein historischen Verläufen, dafür kann man über direkte Realitätsnähe streiten.

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer
Zitat

 

5. Fazit

Die Hereinnahme von Monte Carlo Simulationen in den FI Simulator könnte einige Fragen aufwerfen, nicht zuletzt weil die neuen Verfahren die vielleicht liebgewonnene Präzision bei der Berechnung von Entnahmeraten vermissen lassen. Stabile Ergebnisse erfordern damit eine willkürliche Festlegung, welche Perzentile in der Verteilung noch akzeptabel sind und welche lieber verworfen werden sollen. Ich kann mir vorstellen, dass einige damit unglücklich sind, allerdings empfinde ich diese Vorgehensweise als ehrlicher, weil sie letztlich transparent macht a) wie hoch die Unsicherheit in unseren Ergebnissen tatsächlich noch ist und b) wie subjektiv wir zwangsläufig auch bei der Interpretation von Ergebnissen sein müssen. In diesem Sinne hat die bisherige sequenzielle Fortschreibung von historischen Daten, die sich nur im Startmonat unterscheiden aus meiner Sicht lediglich eine Scheinpräzision suggeriert, die in Wahrheit so nicht existiert. Monte-Carlo Verfahren mit ihrer inhärenten Zufallskomponente machen die Grenzen unserer Vorhersagekraft daher viel deutlicher und eignen sich somit für eine realistische Risikoanalyse vermutlich sogar besser.

 

Bitte um Erleuchtung:huh:

Standardmäßig ist im FI Simulator sequentiell Zykl. hinterlegt, somit wird das am besten für die meisten Anwendungsfälle passen, oder nicht?

Angenommen 30 Jahre Entsparphase, Ruhestand beginnt in Kürze, nur Aktien. Auf sequentiell Zykl. lassen?

Selbiges mit Aktien UND W.Fast / REX (Perf.) DE Anleihen. Auch auf sequentiell Zykl. lassen oder ändern?

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
vor 5 Minuten von geldvermehrer:

Bitte um Erleuchtung:huh:

Geht wie bei allen Dingen bzgl. der Entnahmephase nicht. Ist wieder subjektiv, gibt eben Argumente für das eine und das andere Verfahren. Unsicherheit wird immer bleiben.

Würde mit beiden rechnen und schauen, wie die Ergebnisse beieinander liegen.

Bei der sequentiellen Methode kann ich leicht sehen, wann ich gescheitert wäre, wann der worst-case war. Meistens entweder in der Weltwirtschaftskrise (Aktien) oder in der Stagflationsphase in den 70igern (Anleihen und teilweise Aktien).

Bei der MC Methode kann ich Wahrscheinlichkeiten besser betrachten, da ich mehr Ergebnisse habe.

Es gibt für jede Methode Verfechter und Gegner.

 

Mach dir lieber Gedanken darüber, ob du an eine erneute Weltwirtschaftskrise oder Stagflationsphase mit sehr hoher Inflation glaubst, an eine Währungsreform usw. und dann passe deine Allokation und SWR daraufhin an.

Der FU Thread ist nicht umsonst so lang. 30 Jahre sind eine enorm lange Zeit (auch wenn Kommer in Jahrhunderten denkt), da kann viel passieren, muss aber nicht.

 

Würde dir gerne eine bessere Antwort mit objektiven Gründen geben, gibt es aber nicht. Auch vermeintlich sichere Einkommensquellen wie die GRV oder Versicherungslösungen können sich in 30 Jahren als volatil erweisen. 

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
· bearbeitet von 3dbruce
Typo
vor 2 Stunden von Der Heini:

Geht wie bei allen Dingen bzgl. der Entnahmephase nicht. Ist wieder subjektiv, gibt eben Argumente für das eine und das andere Verfahren. Unsicherheit wird immer bleiben.

Würde mit beiden rechnen und schauen, wie die Ergebnisse beieinander liegen.

Bei der sequentiellen Methode kann ich leicht sehen, wann ich gescheitert wäre, wann der worst-case war. Meistens entweder in der Weltwirtschaftskrise (Aktien) oder in der Stagflationsphase in den 70igern (Anleihen und teilweise Aktien).

Bei der MC Methode kann ich Wahrscheinlichkeiten besser betrachten, da ich mehr Ergebnisse habe.

Es gibt für jede Methode Verfechter und Gegner.

Gut zusammengefasst, würde ich genau so sehen. Auch die MC-Methoden bedienen sich ja letztlich aus denselben historischen Daten insofern würde es mich überraschen wenn die Ergebnisse stark abweichen würden.

vor 2 Stunden von geldvermehrer:

Standardmäßig ist im FI Simulator sequentiell Zykl. hinterlegt, somit wird das am besten für die meisten Anwendungsfälle passen, oder nicht?

Der Grund ist eher, dass diese Einstellung bis zur Version 0.7 die einzige Sampling-Methode war. Wenn ich die Standard-Einstellung geändert hätte, wären alle bisherigen Nutzer des Rechners wohl erst einmal ziemlich verwirrt worden und das wollte ich vermeiden. Ich halte persönlich das Block-Bootstrap-Verfahren aktuell für die beste Methodik, aber dessen Ergebnisse sollten aus dem o.g. Grund normalerweise auch nicht allzu stark von "Sequentiell (zyklisch.)" abweichen.

Diesen Beitrag teilen


Link zum Beitrag
Fondsanleger1966
Am 11.11.2025 um 10:51 von 3dbruce:

Gut zusammengefasst, würde ich genau so sehen. Auch die MC-Methoden bedienen sich ja letztlich aus denselben historischen Daten. Insofern würde es mich überraschen, wenn die Ergebnisse stark abweichen würden.

Das genau machen sie aber im Bereich der niedrigen Pleitewahrscheinlichkeiten (also z.B. bei 0,5% bis 5%, und in geringerem Maße auch noch bei 10%). Mit dem Rechner lässt sich das einfach ausprobieren/nachstellen, es ist aber auch vom logischen Denken her leicht ableitbar: Sequentiell bzw. Sequentiell (zyklisch) wiederholt nur die Historie mit den Werten der Vergangenheit - und diese bildet nur ein sehr kleines Spektrum möglicher Entwicklungen ab.

 

Für statistisch aussagekräftige Ergebnisse brauche ich aber nach dem Gesetz der großen Zahlen mindestens 30 statistisch von einander *unabhängige* Ergebnisse (="Ziehungen") aus *derselben*, unveränderten Grundgesamtheit. Also z.B. mindestens 30 Zeiträume von 30 Jahren, die sich nicht überlappen, aber gleichzeitig auch keine gravierenden Strukturbrüche aufweisen ("selbe Grundgesamtheit"). Das kann es sequentiell gar nicht geben. Der Rechner kommt maximal auf 5,x statistisch unabhängige sequentielle Zeiträume á 30 Jahre (2025 - 1871/69 = 154 bzw. 156 Jahre / 30 Jahre = 5,13 bzw. 5,20).

 

Dieser Mangel lässt sich mit Monte-Carlo-Simulationen - teilweise! - beheben. Dabei werden aus den ursprünglichen historischen Daten Verteilungsfunktionen generiert, so ähnlich wie @stagflation sie benutzt, nur dass Erwartungswert, Volatilität und Korrelationen aus historischen Werten statt aus einer Vorgabe generiert werden. Der Rechner wiederholt das Ganze 5.000 Mal und damit haben wir jetzt *auf den ersten Blick* auch genügend Ziehungen. Dadurch werden die Ergebnisse am Rande - also z.B. mit einer niedrigen Pleitewahrscheinlichkeit - statistisch besser sichtbar. Z.B. entfallen auf das 1. Percentil jetzt 50 Ziehungen (=5.000/100). Durch diese feinere Ausleuchtung sackt die maximale Entnahmerate z.B. bei einer Pleitewahrscheinlichkeit von 1% von ca. 3,81% (sequentiell-zyklisch) auf ca. 2,64% (Bootstrap 120 Monate) ab. Das ist fast ein Drittel weniger.

 

Es gibt aber noch ein viel, viel größeres Problem. Um es zu verstehen, möge jeder, der mitliest, zunächst einmal folgendes Gedankenexperiment durchführen: Mit einem nicht gezinkten Würfel wird gewürfelt und die gewürfelte Zahl notiert. Danach wird jedes Mal der Durchschnitt der bisher gewürfelten Zahlen ermittelt. Und weiter gewürfelt. Und wieder der Durchschnitt ermittelt. usw. Gegen welchen Wert wird der Durchschnitt konvergieren, wenn wir sehr, sehr oft würfeln?

 

[Pause zum Nachdenken]

 

Gegen 21/6, also 3,50. Weil die Summe der Werte auf den Würfelseiten 21 beträgt und die Wahrscheinlichkeit für jede Seite des ungezinkten Würfels 1/6 beträgt. 

 

Dasselbe Phänomen haben wir bei unseren Monte-Carlo-Simulationen auf Basis historischer Werte. Wenn wir genügend Ziehungen vornehmen, konvergieren die Median-Ergebnisse gegen die Entnahmerate, die sich aus dem verwendeten Erwartungswert (und der verwendeten Volatilität) errechnet. Und dieser Erwartungswert ergibt sich durch die Nutzung historischer Daten aus dem Mittelwert dieser historischen Werte. 

 

Diese Konvergenz auf genau eine Median-Entnahmerate bei unterschiedlichen statistischen Verfahren im Rechner wurde auch in https://predict-fi.com/de/docs/8-sampling angesprochen. Sie ist jedoch ein Warnsignal, denn egal, wie das Kapitalmarktumfeld aussieht, es kommt immer dasselbe Ergebnis heraus. Wie im Beispiel mit dem Würfel. Das kann aber nicht sein, denn bei einer hohen künftigen Rendite fällt bei gleicher Volatilität naturgemäß auch die maximale Entnahmerate höher aus als bei einer niedrigen künftigen Rendite.

 

Daraus ergibt sich eine ganz gravierende Einschränkung des Rechners: Man kann ihn nur dann für die Berechnung der maximalen Entnahmerate für die Finanzielle Unabhängigkeit (FU) bzw. den Ruhestand verwenden, wenn der aktuelle Erwartungswert für die künftige Rendite ziemlich genau dem Durchschnitt der historischen Rendite entspricht. Wenn das nicht der Fall ist, berechnet man zwar irgendetwas - nur ist das dann halt nicht die maximale Entnahmerate für die eigene FU bzw. den eigenen Ruhestand.

 

Wie sieht es derzeit aus? Da reicht ein kurzer Blick auf Charts wie https://www.multpl.com/s-p-500-earnings-yield Wir sind derzeit weit, weit weg von einem historischen Mittelwert und können den Rechner daher ohne Modifikation nicht sinnvoll benutzen. 

 

Daher gibt es die Offset-Funktion, mit der man die Verteilungsfunktionen im Rechner so korrigieren kann, dass er wieder sinnvolle Ergebnisse produziert.

 

Die oben verlinkte Gewinnrendite (= Kehrwert des KGVs) entspricht beim S&P 500 auf sehr, sehr lange Zeiträume betrachtet ungefähr der realen Gesamtrendite. Bei kürzeren Zeiträumen - auch z.B. über 30 Jahre - gibt es dabei aber noch zwei wesentliche Effekte, die berücksichtigt werden müssen:

a) das reale Wachstum der Unternehmensgewinne z.B. in den nächsten 30 Jahren

b) die Bewertungsrendite (also die Entwicklung der Höhe des KGV) in diesem Zeitraum

 

Deshalb nutze ich die Kapitalmarktannahmen (Capital Market Assumptions), die große Vermögensverwalter für ihre institutionellen Kunden erstellen bzw. Vanguard z.B. auch für Finanzplaner und private Kunden, z.B. hier: https://corporate.vanguard.com/content/corporatesite/us/en/corp/vemo/vemo-return-forecasts.html

 -> Anklicken: "30 years" und "Table" -> US-Aktien 5,2% p.a. als Median-Rendite nominell in USD, US-Inflation 2,0% im Median, reale US-Aktienrendite auf 30 Jahre also 3,14% p.a. als Medianwert in USD (=1,052/1,02). Das sind gerade einmal 0,15% p.a. weniger als die aktuelle Gewinnrendite, die sich aus dem invertierten KGV ergibt. 

 

Bei diesen Assumptions wird die wahrscheinlichste Renditeverteilung ermittelt. Dabei wird i.d.R. von einer Normalisierung der Kapitalmarktverhältnisse ausgegangen, wie sie sich aus der historischen Erfahrung ergeben sollte. Die Behauptung eines Forenmitglieds, die Ergebnisse der (Hauptszenario-)Assumptions resultierten aus einem Weltuntergangsszenario, ist somit der größtmögliche Unsinn. 

 

Manche Forenmitglieder begegnen der niedrige Höhe der erwarteten (Real-)Renditen mit Skepsis. Da frage ich mich dann, ob in den vergangenen 16 Jahren die Marktentwicklung verfolgt wurde. Wir hatten eine enorme Inflation bei den Vermögenspreisen. Gemessen am (geglätteten realen) Shiller-KGV10 braucht man heute das doppelte Vermögen für die gleiche Menge Anteil am Unternehmensgewinn (Shiller-KGV von ca. 40 vs. ca. 20 vor 16 Jahren, siehe z.B. https://www.multpl.com/shiller-pe ). Altersvorsorge in den USA ist durch die enorme Geldflut von Fed und Staat in den vergangenen 16-28 Jahren sehr, sehr teuer geworden.  

 

Ein weiterer Einwand lautet, dass die Kapitalmarktannahmen in der Vergangenheit von den später tatsächlich realisierten Aktienrenditen abgewichen haben. Das ist überhaupt nicht erstaunlich, sondern sogar zu erwarten, denn Aktienrenditen weisen generell eine sehr große Bandbreite auf. Durch diese hohe Unsicherheit/Ungewissheit über die zukünftige Aktienrenditen fallen diese über lange Zeiträume viel höher aus als z.B. die Renditen von (Unternehmens-)Anleihen (Risikoprämie!).

 

Zudem treten solche großen Abweichungen auch zum historischen Mittelwert auf. Über 30 Jahre lagen diese - je nach Quelle - bei bis zu +/- 3,5-4,5% p.a.

 

Wenn sich also eine Schätzung für den Erwartungswert der realen Rendite von US-Aktien über die nächsten 30 Jahre auf 3,0% p.a. nach Kosten beläuft, dann heißt das automatisch immer, dass die Rendite sehr wahrscheinlich innerhalb der Spanne von ca. -1% und ca. +7% p.a. liegt (= 3% +/- 4% p.a.; es gibt eine kleine Wahrscheinlichkeit dafür, dass sie außerhalb dieser Spanne liegt, weil die Vergangenheit bisher bei weitem noch nicht alle möglichen/denkbaren Verläufe ausgeschöpft hat).

 

Sollte die tatsächliche Rendite in 30 Jahren dann bei +4% p.a., +6% p.a. oder 0% p.a. gelegen haben, ist das kein Problem. Damit befinden sich die Werte immer noch innerhalb der Verteilung/Bandbreite. Entscheidend ist, dass man für seine FU oder seinen Ruhestand mit einer realistischen Spanne gerechnet hat und nicht mit z.B. +3% bis +11% p.a. (historischer Durchschnitt von 7% +/- 4% p.a.), weil dies zu stark verzerrten Ergebnissen führt, die falsche Schlüsse nach sich ziehen.

 

Auch wenn es jetzt lang geworden ist, noch ein abschließender Hinweis: Wenn man die historischen Renditen über Offset sowieso stark abändern muss, um verwendbare Ergebnisse zu bekommen, macht es für mich wenig Sinn, eine Entnahmerate in USD mit US-Assets zu berechnen. Da habe ich zwar historische, also "organische" Korrelationen, aber es fehlt die Auswirkung der Wechselkursschwankungen, denen ich als Euro-Anleger stets ausgeliefert bin. Ich rechne daher lieber in Euro, mit Euro-Inflation und den Werten des MSCI World mit Offset. 

 

Aktuell verwende ich dabei eine Inflationsrate von 2% p.a. (die aktuelle implizierte Inflationsrate der inflationsindexierten Bundesanleihe 2046 für die nächsten 20 Jahre beträgt 1,95% p.a., Link Nr. 5 in meiner Sammlung) und eine nominelle Rendite des MSCI World über 30 Jahre von ca. 5,4% p.a. (Vanguard-Assumptions) und alternativ ca. 5,7% p.a. (Blackrock-Assumptions) in Euro vor Kosten und Steuern. Die TER setze ich auf 0,00% und ziehe stattdessen die Kosten direkt von der Aktienrendite ab. Für deutsche Anleihen/Rex verwende ich die aktuelle Rendite des entsprechenden ETFs nach Kosten und Inflation: https://www.ishares.com/de/privatanleger/de/produkte/251773/ishares-ebrexx-government-germany-ucits-etf-de-fund . Deutsches Festgeld setzte ich auf 0,00% Realrendite. Vielleicht hilft das dem einen oder anderen beim Einstieg in den Rechner.

Diesen Beitrag teilen


Link zum Beitrag
Sapine

Magst Du erklären, warum Du die Assumptions von Vanguard, Blackrock und anderen für so wesentlich ansiehst? Nicht dass ich nicht auch glauben würde, dass die Rendite der nächsten Jahre niedriger sein wird als das wovon wir in den letzten Jahren verwöhnt wurden. Aber dennoch sagt mir meine Erfahrung, dass auch Experten mit ihren Prognosen in der Regel daneben lagen in der Vergangenheit. Ich wüsste jetzt nicht, warum das in Zukunft anders sein sollte. 

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
· bearbeitet von 3dbruce
Typo
vor 9 Stunden von Fondsanleger1966:

Das genau machen sie aber im Bereich der niedrigen Pleitewahrscheinlichkeiten (also z.B. bei 0,5% bis 5%, und in geringerem Maße auch noch bei 10%). Mit dem Rechner lässt sich das einfach ausprobieren/nachstellen, es ist aber auch vom logischen Denken her leicht ableitbar: Sequentiell bzw. Sequentiell (zyklisch) wiederholt nur die Historie mit den Werten der Vergangenheit - und diese bildet nur ein sehr kleines Spektrum möglicher Entwicklungen ab.

Deine Beobachtung ist schon richtig und der Grund warum ich mittlerweile eher auf die höheren Perzentile schaue, wenn es um meine eigene Planung geht. Bei 10% Pleitewahrscheinlichkeit liegen die Ergebnisse von sequentieller Simulation und Block Bootstrap wieder recht nah beieinander. Die Ergebnisse darunter sind statistisch einfach deutlich instabiler und eine Optimierung von Nachkommastellen der Entnahmeraten in diesem Bereich daher ein vermutlich völlig sinnloses Unterfangen.

Zitat

Daraus ergibt sich eine ganz gravierende Einschränkung des Rechners: Man kann ihn nur dann für die Berechnung der maximalen Entnahmerate für die Finanzielle Unabhängigkeit (FU) bzw. den Ruhestand verwenden, wenn der aktuelle Erwartungswert für die künftige Rendite ziemlich genau dem Durchschnitt der historischen Rendite entspricht. Wenn das nicht der Fall ist, berechnet man zwar irgendetwas - nur ist das dann halt nicht die maximale Entnahmerate für die eigene FU bzw. den eigenen Ruhestand.

Das kann ich nicht nachvollziehen: Die einzige Konstante in der Simulation ist die sehr langfristige (d.h. > 150 Jahre) Durchschnittsrendite, die auch jede andere Simulation als zentralen Parameter im Bauch haben muss (und selbst die ist anpassbar, wenn man die extrem gute Performance des US Markts etwas "normieren" möchte). Die kurz- bis mittelfristigen Renditen, die letztlich relevant für ein Sequence-Of-Return-Risiko und mögliche Entnahmeraten sind, sind aber natürlich nicht vorhersehbar. Genau deshalb liefert der Rechner dir eine große Verteilung von Entnahmeraten eben abhängig davon, wie diese Renditen aussehen. 

Zitat

 

Wie sieht es derzeit aus? Da reicht ein kurzer Blick auf Charts wie https://www.multpl.com/s-p-500-earnings-yield Wir sind derzeit weit, weit weg von einem historischen Mittelwert und können den Rechner daher ohne Modifikation nicht sinnvoll benutzen. 

Die aktuell hohe Bewertung des Aktienmarkts sorgt sicher dafür, dass die Wahrscheinlichkeit in einem niedrigen Perzentil der Entnahmerate zu landen momentan etwas höher sein dürfte. Mit sequentiellem Sampling lässt sich das sogar direkt simulieren: In den Einstellungen kannst du nur solche Kursentwicklungen zulassen, deren CAPE-Wert beim Start in einem höheren Bereich liegt. Hat dann natürlich den Nachteil, dass aus der ohnehin überschaubaren Datenmenge, jede Menge Daten weggefiltert werden. Die übrig bleibenden Kursentwicklungen geben einem aber einen ersten Eindruck davon, dass sich die Pleitewahrscheinlichkeiten durch diese aktuell hohe Bewertung signifikant erhöhen.

Zitat

 

Daher gibt es die Offset-Funktion, mit der man die Verteilungsfunktionen im Rechner so korrigieren kann, dass er wieder sinnvolle Ergebnisse produziert.

Die Offset-Funktion zu nutzen um kurz- bis mittelfristige Renditen zu prognostizieren macht aus meiner Sicht wenig Sinn. Im Extremfall addiert der Simulator dir dann zu einer pessimistischen Mittelfristrendite noch einen zusätzlichen Crash am Beginn der Entnahme hinzu und die daraus berechnete Entnahmerate ist dann extrem klein und letztlich auch völlig willkürlich.

Zitat

Aktuell verwende ich dabei eine Inflationsrate von 2% p.a. (die aktuelle implizierte Inflationsrate der inflationsindexierten Bundesanleihe 2046 für die nächsten 20 Jahre beträgt 1,95% p.a., Link Nr. 5 in meiner Sammlung) 

Eine konstante Inflationsrate unterschlägt aber das Sequence-of-Inflation Risk, das sich letztlich genau so auswirkt wie ein Sequence-Of-Return Risiko. Ich würde die konstanten Inflationsraten daher nur dann nutzen, wenn die für mich relevante Inflationsrate überhaupt nicht von den historischen DE- oder US-Daten abgedeckt werden.

Zitat

Vielleicht hilft das dem einen oder anderen beim Einstieg in den Rechner.

Ich habe ja ganz bewusst, die meisten Stellschrauben über die Einstellungen des Rechners änderbar gemacht, und es gibt sicher auch keine absolut richtige oder falsche Art diesen zu nutzen. Trotzdem gehen deine Empfehlungen aus meiner Sicht etwas am Ziel vorbei: Wenn die mittelfristigen Rendite-Prognosen von Analysten für dich relevant sind, wäre es vermutlich einfacher diese als konstante zukünftige Rendite in einem Excel zu nutzen. Auf diese aktuell zurecht pessimistischen Renditeprognosen aber noch zusätzlich eine Monte-Carlo Simulation oben drauf zu setzen verdoppelt aus meiner Sicht schlicht den Pessimismus.

Diesen Beitrag teilen


Link zum Beitrag
geldvermehrer

Ich bin mittlerweile soweit, dass ich eher die tatsächlich verfügbaren Daten des MSCI World nehme, gemischt mit Deutsche Anleihen und Deutsches Festgeld 3 Monate, auch wenn dadurch die Simulation nicht so weit in die Vergangenheit zurück reicht.

Mit "willkürlichen" Offsets (denke Korrekturen sind gemeint) tue ich mich schwer, oder mit "willkürlichen"späteren Beginnzeitpunkten wegen Währungsreformen Deutscher Anleihen etc.  

Zum Rumspielen ja, aber ich muss erstmal einfache Simulationen fahren und es gibt so viele Stellschrauben, ich sehe den Wald vor lauter Bäumen nicht mehr:'(

Eine "normale" Monte-Carlo-Simulation mit dem MSCI World, wie sollte die eingestellt werden für mich als Deutscher Anleger auf Sicht der nächsten 30 Jahre Entspardauer bezüglich:

-Währung

-Inflation

-Sampling

-Rebalancing

-.........???

Und ganz vorsichtig gefragt, ist ein "willkürlicher" Abschlag für den MSCI World von 1% in der derzeitigen Situation mit hohem Shiller KGV von um die 40 vielleicht doch angebracht:huh:

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
· bearbeitet von 3dbruce
Typo
vor 50 Minuten von geldvermehrer:

ch bin mittlerweile soweit, dass ich eher die tatsächlich verfügbaren Daten des MSCI World nehme, gemischt mit Deutsche Anleihen und Deutsches Festgeld 3 Monate, auch wenn dadurch die Simulation nicht so weit in die Vergangenheit zurück reicht.

Es gibt hier kein richtig oder falsch. Jede Entscheidung hat aber spezifische Vor- und Nachteile: Die Nutzung der MSCI-World-Daten hat den Vorteil nahe an den beliebten Aktien ETFs zu sein, die wahrscheinlich viele Portfolios hier dominieren werden. Nachteil der lediglich 50 Jahren Historie ist, dass viele der kritischen Börsenphasen in den Daten einfach nicht enthalten sind (Weltkriege, Stagflation, Weltwirtschaftskrise, ...), d.h. die damit erzeugten Entnahmeraten sehen tendenziell eher (zu?) gutmütig aus. Auf der anderen Seite kann man argumentieren, dass eine Weltwirtschaftskrise wie 1929 heute eh nicht mehr vorkommen kann: Die Zentralbanken haben daraus gelernt, es gibt heute FIAT-Money und keinen Goldstandard mehr, usw. usw.

Zitat

Mit "willkürlichen" Offsets (denke Korrekturen sind gemeint) tue ich mich schwer, oder mit "willkürlichen"späteren Beginnzeitpunkten wegen Währungsreformen Deutscher Anleihen etc.  

Zum Rumspielen ja, aber ich muss erstmal einfache Simulationen fahren und es gibt so viele Stellschrauben, ich sehe den Wald vor lauter Bäumen nicht mehr:'(

Ich selber nutze eine -1% Korrektur bei den Shiller Aktiendaten um deren Rendite näher an den MSCI World Durchschnitt zu bringen und eine -2% Korrektur bei Small-Cap Value um deren Renditen an den Large CAP Index anzupassen. Kann man sicherlich auch trefflich drüber diskutieren ist aber aktuell meine ganz persönliche(!) Best Practise.

Zitat

Eine "normale" Monte-Carlo-Simulation mit dem MSCI World, wie sollte die eingestellt werden für mich als Deutscher Anleger auf Sicht der nächsten 30 Jahre Entspardauer bezüglich:

-Währung

-Inflation

-Sampling

-Rebalancing

-.........???

Und ganz vorsichtig gefragt, ist ein "willkürlicher" Abschlag für den MSCI World von 1% in der derzeitigen Situation mit hohem Shiller KGV von um die 40 vielleicht doch angebracht:huh:

Ich verstehe sehr gut, dass die Zahl der Stellschrauben dem berühmten Wald vor lauter Bäumen ähnlich sieht. Alle Stellschrauben sind aber dokumentiert und erfüllen eben den Zweck, bestimmte Annahmen in die Simulation einbringen zu können. Ob diese Annahmen gut oder schlecht, richtig oder falsch sind kann dir heute aber niemand sagen, auch ich nicht. Der Rechner soll eine möglichst objektive Analyse von Risiken ermöglichen. Dazu gehört es eben auch, die Auswirkungen bestimmter Annahmen, rechnerisch zu vergleichen. Die Entscheidung auf welchen Satz von Annahmen und Parametern du am Ende deine ganz persönliche Planung aufsetzt, kann dir aber niemand abnehmen.

 

Ich würde z.B. mindestens zwei komplette Sätze von Annahmen durchspielen (z.B. einmal basierend auf US-Daten und Inflation und einmal auf DE-Daten) vorzugsweise mit Block-Bootstrap-Sampling und mir die Entnahmeraten irgendwo um das 10% Perzentil anschauen. Liegen beide Szenarien extrem auseinander lohnt es sich genauer hinzuschauen, woher die Unterschiede kommen. Liegen die Szenarien in der gleichen Größenordnung solltest du dir als nächstes die Frage stellen, ob du mit einer 10% Wahrscheinlichkeit Pleite zu gehen, leben kannst. Falls du z.B. eine gewisse Flexibilität in deinen Ausgaben hast, kannst du im Worst-Case eben deine Ausgaben reduzieren und damit den Worst-Case umgehen. Falls nicht würde ich mir die niedrigeren Perzentile anschauen und die Entnahmerate entsprechend niedriger wählen.

 

Am Ende brauchst du eine Strategie, mit der du dich wohlfühlst und die du glaubst, durchhalten zu können. Die hängt aber eben von ganz vielen anderen Parametern ab und wird vermutlich auch bei jedem leicht anders aussehen. Daher werde ich mich auch hüten, hier einen Satz von Parametern als den einzig Sinnvollen zu propagieren. Das steht mir a) nicht zu und dafür bin ich b) auch schlicht nicht qualifiziert :)

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
· bearbeitet von Der Heini
vor 12 Stunden von Sapine:

Magst Du erklären, warum Du die Assumptions von Vanguard,

https://www.cnbc.com/2017/03/22/jack-bogle-believes-the-stock-market-will-return-only-4-annually-over-the-next-decade.html

Also sagt Bogle eine nominale Aktienrendite von 4% von 2017 bis 2027 voraus. Was hatten wir wirklich?

Laut Investing.com haben wir seit 2017 bis heute 184% gemacht, fast 8% im Schnitt.

 

Es gibt viele Seiten, die das untersucht haben und fast immer lagen die Voraussagenmodelle daneben. Hatte schon mal einige Links im FU-Thread weiter oben angegeben.

Jeder soll gerne nehmen, was er möchte, aber es gibt wenig Gründe Forward-Returns statt historischer Renditen zu nehmen, beide haben große Unsicherheiten für die Zukunft, die kennt man eben nicht.

 

 

Diesen Beitrag teilen


Link zum Beitrag
chirlu
vor 26 Minuten von Der Heini:

Laut Investing.com haben wir seit 2017 bis heute 184% gemacht, fast 8% im Schnitt.

 

Entweder haben wir 184% gemacht, dann sind es fast 14% p.a.; oder wir haben fast 8% p.a. gemacht, dann sind es 84% insgesamt.

Diesen Beitrag teilen


Link zum Beitrag
Wishmueller
vor 2 Stunden von 3dbruce:

Es gibt hier kein richtig oder falsch. Jede Entscheidung hat aber spezifische Vor- und Nachteile: Die Nutzung der MSCI-World-Daten hat den Vorteil nahe an den beliebten Aktien ETFs zu sein, die wahrscheinlich viele Portfolios hier dominieren werden. Nachteil der lediglich 50 Jahren Historie ist, dass viele der kritischen Börsenphasen in den Daten einfach nicht enthalten sind (Weltkriege, Stagflation, Weltwirtschaftskrise, ...), d.h. die damit erzeugten Entnahmeraten sehen tendenziell eher (zu?) gutmütig aus. Auf der anderen Seite kann man argumentieren, dass eine Weltwirtschaftskrise wie 1929 heute eh nicht mehr vorkommen kann: Die Zentralbanken haben daraus gelernt, es gibt heute FIAT-Money und keinen Goldstandard mehr, usw. usw.

 

Ich tendiere halt auch zum MSCI World, mit dem Kursverlauf ab 2000 hat man m.E, ein "realistisches Worst Case Szenarion". ich komme damit auf eine SWR von rund 3,5% +/- "x".

 

Dass es noch schlimmer kommen kann, würde ich nicht kategorisch ausschließen wollen. Nur glaube ich halt, dass wir dann "andere Probleme" hätten als die Berechnung einer SWR..... ;)

 

Insofern rechne ich halt mit einem "vorstellbaren" Negativ-Szenario und nicht mit einem, das ich mir eigentlich nicht vorstellen möchte.

 

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
· bearbeitet von Der Heini
vor 1 Stunde von chirlu:

 

Entweder haben wir 184% gemacht, dann sind es fast 14% p.a.; oder wir haben fast 8% p.a. gemacht, dann sind es 84% insgesamt.

 

Es sind 184%, dann sind es sogar 14%.

image.thumb.png.dd3441c4ea71e7ec1234c927dffd7c27.png

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
vor 3 Minuten von Wishmueller:

Insofern rechne ich halt mit einem "vorstellbaren" Negativ-Szenario

Mir wäre das dann doch etwas wenig Statistik, der Zeitraum deckt ja nicht mal eine ganze 30 Jahres-Periode ab. Klingt jetzt zwar so als würdest du daraus "nur" eine mögliche Entnahmerate für ein fest definiertes Portfolio ableiten. Aussagen über andere, vielleicht besser laufende Asset-Allokationen kannst du aus diesen wenigen Daten jedenfalls nicht ableiten, die nächste Krise sieht im Zweifelsfall wieder etwas anders aus als nur der .com-Crash.

Diesen Beitrag teilen


Link zum Beitrag
Der Heini
vor 3 Minuten von 3dbruce:

Mir wäre das dann doch etwas wenig Statistik, der Zeitraum deckt ja nicht mal eine ganze 30 Jahres-Periode ab. Klingt jetzt zwar so als würdest du daraus "nur" eine mögliche Entnahmerate für ein fest definiertes Portfolio ableiten. Aussagen über andere, vielleicht besser laufende Asset-Allokationen kannst du aus diesen wenigen Daten jedenfalls nicht ableiten, die nächste Krise sieht im Zweifelsfall wieder etwas anders aus als nur der .com-Crash.

Andererseits, wie schonmal geschrieben und du ja auch nutzt: S&P500 mit einem Offset von -1%, dann stimmt man mit dem Verlauf des MSCI World seit 1970 in etwa überein. Wer es vorsichtiger möchte, kann auch -1,5% nehmen.

Komme dann aber fast immer auf eine SWR von 3% bei 30 Jahren. Bei noch größerer Vorsicht sehe ich andere lebensbedrohliche Dinge (Krankheit, Unfall, Kriege usw.) als wahrscheinlicher an. Da muss man eben mal abwiegen, was man möchte.

Diesen Beitrag teilen


Link zum Beitrag
3dbruce
vor 1 Minute von Der Heini:

Komme dann aber fast immer auf eine SWR von 3% bei 30 Jahren. Bei noch größerer Vorsicht sehe ich andere lebensbedrohliche Dinge (Krankheit, Unfall, Kriege usw.) als wahrscheinlicher an. Da muss man eben mal abwiegen, was man möchte.

Wie gesagt, wenn es "nur" um die Entnahmerate geht, einem die Risiken der geringen Datenmenge bewusst ist und die Asset Allokation ohnehin feststeht könnte man so argumentieren. Spätestens wenn man seine Asset Allokation aber noch etwas optimieren möchte sehe ich eine solche Reduktion von Ursprungsdaten kritisch: Statistisch signifikante Signale bekommt man schon aus den vollen 150 Jahren US Daten kaum raus, mit 25 Jahren MSCI World wäre das aber quasi die Definition von "Overfitting".

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...