Die Monte-Carlo-Simulation, auch bekannt als Monte-Carlo-Methode, ist ein mathematisches Verfahren, das zur Abschätzung der möglichen Ergebnisse eines ungewissen Ereignisses verwendet wird. Die Monte-Carlo-Methode wurde von John von Neumann und Stanislaw Ulam während des Zweiten Weltkriegs erfunden, um die Entscheidungsfindung unter ungewissen Bedingungen zu verbessern. Die Methode wurde nach einem bekannten Stadtbezirk in Monaco benannt, da das Element des Zufalls im Mittelpunkt des Modellierungsansatzes steht, ähnlich wie bei einem Roulettespiel.
Seit ihrer Einführung haben Monte-Carlo-Simulationen die Auswirkungen von Risiken in vielen realen Szenarien bewertet, z. B. bei künstlicher Intelligenz, Aktienkursen, Umsatzprognosen, Projektmanagement und Preisgestaltung. Sie bieten eine Reihe von Vorteilen gegenüber Vorhersagemodellen mit festen Eingaben, wie z. B. die Möglichkeit, Sensitivitätsanalysen durchzuführen oder die Korrelation von Eingaben zu berechnen. Die Sensitivitätsanalyse ermöglicht es den Entscheidungsträgern, die Auswirkungen einzelner Eingaben auf ein bestimmtes Ergebnis zu sehen, und die Korrelation ermöglicht es ihnen, die Beziehungen zwischen beliebigen Eingabevariablen zu verstehen.
Im Gegensatz zu einem normalen Prognosemodell sagt die Monte-Carlo-Simulation eine Reihe von Ergebnissen auf der Grundlage eines geschätzten Wertebereichs anstelle einer Reihe von festen Eingabewerten voraus. Mit anderen Worten: Eine Monte-Carlo-Simulation erstellt ein Modell möglicher Ergebnisse, indem sie eine Wahrscheinlichkeitsverteilung, z. B. eine Gleich- oder Normalverteilung, für jede Variable mit inhärenter Ungewissheit nutzt. Anschließend werden die Ergebnisse immer wieder neu berechnet, wobei jedes Mal ein anderer Satz von Zufallszahlen zwischen dem minimalen und dem maximalen Wert verwendet wird. In einem typischen Monte-Carlo-Experiment kann diese Berechnung tausende Male wiederholt werden, um eine große Anzahl von wahrscheinlichen Ergebnissen zu erzeugen.
Monte-Carlo-Simulationen werden wegen ihrer Genauigkeit auch für langfristige Vorhersagen verwendet. Wenn die Anzahl der Eingaben steigt, wächst auch die Anzahl der Prognosen, sodass Sie die Ergebnisse zeitlich weiter in die Zukunft projizieren können, und zwar mit größerer Genauigkeit. Wenn eine Monte-Carlo-Simulation abgeschlossen ist, liefert sie einen Bereich möglicher Ergebnisse sowie die Wahrscheinlichkeit, dass jedes Ergebnis eintritt.
Ein einfaches Beispiel für eine Monte-Carlo-Simulation ist die Berechnung der Wahrscheinlichkeit, mit der zwei Standardwürfel geworfen werden. Es gibt 36 mögliche Kombinationen für das Würfelergebnis. Auf dieser Grundlage können Sie die Wahrscheinlichkeit eines bestimmten Ergebnisses manuell berechnen. Mit einer Monte-Carlo-Simulation können Sie das Würfeln 10.000 Mal (oder öfter) simulieren, um genauere Vorhersagen zu erhalten.
Monte-Carlo-Simulation (auch MC-Simulation oder Monte-Carlo-Studie) ist ein Verfahren aus der Stochastik bzw. Wahrscheinlichkeitstheorie, bei dem wiederholt Zufallsstichproben einer Verteilung mithilfe von Zufallsexperimenten gezogen werden. Ziel ist es, analytisch nicht oder nur aufwendig lösbare Probleme mithilfe der gezogenen Stichproben numerisch zu lösen. Als Grundlage ist vor allem das Gesetz der großen Zahlen zu sehen. Die Zufallsexperimente können entweder – etwa durch Würfeln – real durchgeführt werden oder in Computerberechnungen mittels Monte-Carlo-Algorithmen. Bei Monte-Carlo-Algorithmen werden zur Simulation von zufälligen Ereignissen Zufallszahlen oder auch Pseudozufallszahlen benutzt.
Zu den Pionieren der Monte-Carlo-Methode in den 1940er-Jahren gehören Stanislaw Ulam, Nicholas Metropolis und John von Neumann. Als grundlegende Veröffentlichung gilt eine Arbeit von Metropolis, Edward Teller, Augusta H. Teller, Marshall Rosenbluth und Arianna W. Rosenbluth von 1953.
Das 1733 von Georges-Louis Leclerc de Buffon vor der Pariser Akademie der Wissenschaften vorgestellte Nadelproblem, das mit Hilfe des Zufalls die näherungsweise Bestimmung der Kreiszahl Pi ermöglicht, war eine der ersten Anwendungen einer Monte-Carlo-Simulation. (→Probabilistische Bestimmung der Zahl Pi).
Enrico Fermi hatte in den 1930er-Jahren eigene Ideen zu Monte-Carlo-Simulationen mittels elektronischer Rechenmaschinen. Ausgeführt wurden diese 1946 von Stanislaw Ulam und dem von ihm deshalb kontaktierten John von Neumann. Dies geschah zur Zeit des Zweiten Weltkriegs während der Arbeit an einem damals geheimen Projekt am Los Alamos Scientific Laboratory, für das ein Codename nötig war. Es ging im Rahmen der Entwicklung der ersten Atombombe um die Neutronendiffusion in nuklearen Materialien. Auch die mathematische Methode der Simulation musste geheim gehalten werden. Der Name Monte-Carlo wurde von Nicholas Metropolis geprägt und hängt wie folgt mit der Methode zusammen: Stan Ulam hatte einen Onkel, der sich zum Spielen immer Geld von Verwandten geliehen hatte, denn „er musste nach Monte Carlo gehen“.
Dies ist natürlich eine Anspielung auf die Spielbank Monte-Carlo im gleichnamigen Stadtteil des Stadtstaates Monaco.
Als grundlegende Veröffentlichung gilt eine Arbeit von Nicholas Metropolis, Marshall N. Rosenbluth und dessen Ehefrau Arianna W. Rosenbluth, Edward Teller und dessen Ehefrau Augusta H. Teller, veröffentlicht 1953 im Journal of Chemical Physics. Ziel war die Berechnung der Zustandsgleichung eines zweidimensionalen Systems starrer Kugeln als Modelle einer Flüssigkeit. Simuliert wurde mit 224 Teilchen und periodischen Randbedingungen. Jede Simulation bestand aus bis zu 48 Zyklen, in denen jeweils jedes Teilchen einen Bewegungsschritt ausführte. Ein Zyklus benötigte drei Minuten auf dem MANIAC I Computer des Los Alamos National Laboratory. Verwendet wurde eine Sampling-Methode mit Wichtung über den Boltzmannfaktor, das Herzstück des MC-Verfahrens im Metropolis-Algorithmus, wobei die Idee nach Marshall Rosenbluth von Teller gekommen sein soll. Nach Rosenbluth leisteten er und seine Frau die Hauptarbeit für den Artikel (Metropolis hätte hauptsächlich Computerzeit zur Verfügung gestellt) und sie waren die einzigen der Autoren, die das Verfahren in anschließenden Publikationen weiterverfolgten, sie wandten sich aber selbst ebenfalls bald darauf anderen Forschungsthemen (Plasmaphysik) zu.
Resampling.
Untersuchung der Verteilungseigenschaften von Zufallsvariablen unbekannten Verteilungstyps,
- Beispiel: die Ermittlung der nicht zentralen Verteilung des Korrelationskoeffizienten. Mit Hilfe von Zufallszahlen wird die Realisierung beliebig vieler Korrelationskoeffizienten simuliert. Eine Zusammenfassung der Koeffizienten in eine Häufigkeitstabelle ergibt eine empirische Verteilungsfunktion oder ein Histogramm.
- die Eigenschaften von Schätzfunktionen bei Vorliegen von Ausreißern in Daten. Mit Hilfe der Simulation kann gezeigt werden, dass das arithmetische Mittel nicht mehr ein bester Schätzer für den Erwartungswert ist.
- die Schätzung von Verteilungsparametern.
Nachbildung von komplexen Prozessen.
- Produktionsprozesse in einem Fertigungsunternehmen, um Engpässe und Opportunitäten in der Produktion aufzudecken
- Klimamodelle.
- Rekonstruktionsverfahren in der Nuklearmedizin.
- Risikoaggregation zur Bestimmung des Gesamtrisikoumfangs eines Unternehmens im Risikomanagement.
- Ableitung von Bewertungen in der Wertermittlung, z. B. bei der Unternehmensbewertung oder Immobilienwirtschaft. Bepreisung komplexer Finanzkontrakte wie „exotische“ Optionen, bei denen keine analytische Formel für die Bewertung eines Finanzproduktes bekannt ist.
- räumliche Verteilung des energieabhängigen Neutronenflusses in einem heterogenen Medium, etwa im Blanket eines Kernfusionsreaktors.
- Supercomputer und MC Methoden werden u. a. für die Simulation der alternden Nuklearwaffen (siehe auch Stockpile stewardship) der USA benutzt.
Wege eines einzelnen Regentropfens simulieren, der mit zufällig verteilten anderen Tropfen kollidiert. Nach der Simulation mehrerer konkreter Tropfen sind Aussagen über die durchschnittliche Tropfengröße möglich oder auch zu Temperatur und Tröpfchendichte, bei denen Schnee oder Hagel entstehen. - Verteilung der Kugeln auf die Fächer beim Galtonbrett.
- OeHu-Prognosen in Bezug auf das Verhalten des Kollektiv.
In der Monte-Carlo-Modellierung molekularer Systeme werden molekulare Systeme durch Monte-Carlo-Simulationen untersucht. In der statistischen Physik wird sie für eine Modellierung von Gleichgewichtseigenschaften auf atomarer bis molekularer Ebene verwendet und kann in Einzelfällen eine Beschleunigung von einem Faktor von über 1010 im Vergleich zu Molekulardynamik-Simulationen erzielen. Sie kann sowohl die potentielle Energie bestimmen als auch eine statistische Aussage über die Lage von Atomen liefern und auch Zustandsgrößen der Boltzmann-Statistik bestimmen. Monte-Carlo und Molekulardynamik sind die häufigsten Modellierungen von Fluiden auf atomarer Ebene. Die empirischen Kraftfelder, die dafür verwendet werden, stammen sowohl von Ab-initio-Rechnungen als auch von Experimenten und werden sowohl für die Molekulardynamik als auch für die molekulare Monte-Carlo-Methode verwendet. Einige Programmsysteme verwenden Mehr-Atom-Modelle („Coarse-grained model“), sie wenden die molekulare Monte-Carlo-Methode nicht auf einzelne Atome an, sondern auf den Schwerpunkt von Atomgruppen oder ganzen Molekülen. Methoden, die zur Modellierung molekularer Systeme herangezogen werden sind die Kinetische Monte-Carlo-Methode und die Quanten-Monte-Carlo-Methode.
Dafür hat er den Menschen vorgesehen!
Verwendung von Monte-Carlo-Methoden.
Unabhängig davon, welches Tool Sie verwenden, umfasst das Monte-Carlo-Verfahren drei grundlegende Schritte:
- Richten Sie das Vorhersagemodell ein, indem Sie sowohl die abhängige Variable, die vorhergesagt werden soll, als auch die unabhängigen Variablen (auch als Eingabe-, Risiko- oder Vorhersagevariablen bezeichnet) angeben, die die Vorhersage steuern werden.
- Geben Sie Wahrscheinlichkeitsverteilungen der unabhängigen Variablen an. Verwenden Sie historische Daten und/oder das subjektive Urteil des Analysten, um einen Bereich von wahrscheinlichen Werten zu definieren und jedem eine Wahrscheinlichkeitsgewichtung zuzuweisen.
- Führen Sie wiederholt Simulationen durch und erzeugen Sie dabei zufällige Werte für die unabhängigen Variablen. Tun Sie dies so lange, bis Sie genügend Ergebnisse gesammelt haben, um eine repräsentative Stichprobe aus der nahezu unendlichen Anzahl möglicher Kombinationen zu bilden.
Sie können so viele Monte-Carlo-Simulationen ausführen, wie Sie möchten, indem Sie die zugrunde liegenden Parameter ändern, die Sie für die Datensimulation verwenden. Sie werden jedoch auch den Variationsbereich innerhalb einer Stichprobe berechnen wollen, indem Sie die Varianz und die Standardabweichung berechnen, die allgemein verwendete Maße für die Streuung sind. Die Varianz einer gegebenen Variablen ist der Erwartungswert der quadrierten Differenz zwischen der Variablen und ihrem Erwartungswert. Die Standardabweichung ist die Quadratwurzel der Varianz. In der Regel werden kleinere Varianzen als besser angesehen.