Die Mathe-Redaktion - 22.10.2018 10:03 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
ListenpunktSchwätz / Top 15
ListenpunktWerde Mathe-Millionär!
ListenpunktFormeleditor fedgeo
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden. Mitglieder können den Matheplanet-Newsletter bestellen, der etwa alle 2 Monate erscheint.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 582 Gäste und 15 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von matroid
Mathematik » Numerik & Optimierung » Monte Carlo sampling and Sample Average Approximation Method
Druckversion
Druckversion
Antworten
Antworten
Autor
Universität/Hochschule Monte Carlo sampling and Sample Average Approximation Method
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2018-08-27


Hallo zusammen,

ich habe gerade angefangen mich mit stochasticher Optimierung zu beschäftigen. Dabei bin ich auf die "Monte Carlo sampling and Sample Average Approximation (SAA) Method" gestoßen und muss gestehen, dass ich diese konzeptionell nicht ganz verstehe (Quelle: z.B. en.wikipedia.org/wiki/Stochastic_programming#Scenario_construction, www2.isye.gatech.edu/people/faculty/Alex_Shapiro/SIAM-12.pdf).

Wenn ich das richtig verstanden habe, werden einfach die unsicheren Parameter gesampelt um dann ein Durchschnittswert für diese zu berechen. Diese Durchschnittswerte setzt man jetzt in das Optimierungsproblem ein und hat dann ein deterministische Problem, das gelöst werden kann. Im Gegensatz zur Methode des deterministischen Äquivalents ("Deterministic equivalent of a stochastic problem" bei Wikipedia), ist es doch hier so, dass die so gefundene Lösung nicht zwingend zulässig für alle Ausprägungen der unsicheren Parameter sind. Das würde dann aber in meinen Augen keinen Sinn ergeben bzw. würde ich den Sinn der Methode nicht wirklich verstehen.  

Kennt sich jemand von euch damit aus? Es wäre super, wenn da jemand etwas dazu sagen könnte. Vielen Dank im Voraus.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, vom Themenstarter, eingetragen 2018-09-12


Hat niemand von euch mit stochasticher Optimierung Erfahrung?



  Profil  Quote  Link auf diesen Beitrag Link
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 5489
Aus: Niedersachsen
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, eingetragen 2018-09-12


Das Verfahren geht vermutlich (implizit) davon aus, dass es zu jeder in Phase 1 zulässige Lösung x auch ein y gibt, so dass (x,y) in Phase 2 zulässig ist.
Wäre das nicht so, so sollte man diese x auch in Phase 1 als unzulässig erachten und die Nebenbedingung entsprechend anpassen.
Ich habe mir allerdings nicht überlegt, ob das immer in Form von linearen Nebenbedingungen möglich ist.

Unter dieser Prämisse entfällt das Problem mit Lösungen x, die nicht in allen Ausprägungen zulässig sind.



In Deiner Darstellung finde ich noch eine Ungenauigkeit. Du schreibst, dass unsichere Parameter gesampelt werden und ihr Durchschnittswert für die Optimierung verwendet wird.
Das erscheint mir nicht ganz richtig. Nach meinem Verständnis werden die Parameter gesampelt, dann wird berechnet, wie die Zielfunktion für jede gesampelte Ausprägung von x abhängt und diese Funktionen werden dann gewichtet zusammengefasst.
Es wird also nicht ein Optimierungsproblem mit gemittelten Parametern gelöst, sondern es werden N Probleme mit zufälligen Parametern in Phase 2 gelöst, die Ergebnisse gemittelt und dann in die Zielfunktion von Phase 1 eingesetzt.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, vom Themenstarter, eingetragen 2018-09-18


Vielen Dank "Kitaktus" für deine Erklärung.

Leider ist mir das Ganze immer noch nicht klar. Das liegt wahrscheinlich auch daran, dass ich das mit den 2 Phasen nicht ganz verstehe bzw. ich zu sehr in meinem konreten Anwendungsfall drinhänge:

Es geht darum, ein optimales Schedule für einen elektrischen Heizstab in einem Gebäude mit Photovoltaik zu ermittlen. Dafür wird beispielsweise eine Optimierung für einen Tag berechnet. Das Ergebnis ist ein Schedule mit 96 Zeiteinheiten (15 Minuten Auflösung), welches vorgibt, wann genau der elektische Heizstab heizen soll. Das heißt, ich bekomme 96 Entscheidungsvariablen x1,..., x96.

Das geht natürlich nur, wenn man alle Daten im Voraus kennt (Wärmenachfrage des Gebäudes, Stromnachfrage des Gebäudes, PV Erzeugung des Gebäudes). So jetzt will ich die Unsicherheit einbringen. Was wäre bei mir jetzt Phase 1 und Phase 2? Wenn die Optimierung zum Zeitpunkt t=1 startet, dann wäre nur dieser Wert sicher, weil alles andere in der Zukunft liegt und somit unsicher ist. Wäre Phase 2 bei mir dann etwa alle Werte von t=2 bis t=96? Oder hätte ich in diesem Fall sogar 96 Phasen (eine für jeden Zeitpunkt)?



  Profil  Quote  Link auf diesen Beitrag Link
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 5489
Aus: Niedersachsen
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, eingetragen 2018-09-21


Es fällt mir nicht leicht, dass an Deinem Beispiel durchzugehen, weil mir da unklar ist, wie die Zielfunktion aussehen könnte.

Angenommen, es ist wirklich so, dass man nur die Informationen des aktuellen Zeitpunktes kennt. Die zu diesem Zeitpunkt zu treffende Entscheidung sei x. Das Vorgehen ist dann so.
Man erzeugt sich einige Samples, wie die Zukunft aussehen könnte. In jedem solchen Szenario bestimmt man die optimale Lösung in Abhängigkeit von x. Diese Funktionen werden gemittelt und man erhält einen empirischen Erwartungswert der Zielfunktion in Abhängigkeit von x.
Zum Schluss wird über x optimiert.

Ein Spezialfall:
Wenn x eine binäre Variable ist (x = 0 oder x = 1), dann berechnet man praktisch für jedes Szenario den optimalen Zielfunktionswert wenn x=0 ist und den optimalen Zielfunktionswert, wenn x=1 ist. Danach wird über alle Szenarien gemittelt und man wählt die Entscheidung 0 oder 1, die den besseren Mittelwert liefert. [Das ist auch als Monte-Carlo-Simulation bekannt.]


Bei Deinem Problem sehe ich eine Abweichung zum klassischen Modell.
Du willst ja wahrscheinlich eine Online-Optimierung machen, d.h. in jedem Zeitschritt kommen neue Informationen herein und Du passt das Vorgehen dahingehend an.
In dem von Dir verlinkten Artikel geht es aber nur um _zwei_ Phasen.
In Phase 1 sind einige Parameter unbekannt, man muss aber sich bei einigen Variablen festlegen. In Phase 2 sind dann alle Parameter bekannt, man kann aber die in Phase 1 festgelegten Entscheidungen nicht mehr ändern.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, vom Themenstarter, eingetragen 2018-09-25 12:30


Danke Kitaktus für deine Antwort,

leider ist mir die Sache immer noch unklar.

"Es fällt mir nicht leicht, dass an Deinem Beispiel durchzugehen, weil mir da unklar ist, wie die Zielfunktion aussehen könnte."

-->Die Zielfunktion ist beispielsweise einfach ein Preis, der zu jedem der 96 Zeitpunkte einen anderen Wert p_t hat. Das Ziel ist jetzt, die Kosten zu minimieren, indem  alle Entscheidungsvariablen x1,..,x96 bestimmt werden. Die Zielfunktion könnte lauten:

fed-Code einblenden


"Wenn x eine binäre Variable ist (x = 0 oder x = 1), dann berechnet man praktisch für jedes Szenario den optimalen Zielfunktionswert wenn x=0 ist und den optimalen Zielfunktionswert, wenn x=1 ist. Danach wird über alle Szenarien gemittelt und man wählt die Entscheidung 0 oder 1, die den besseren Mittelwert liefert. [Das ist auch als Monte-Carlo-Simulation bekannt.]
"
-->Was meinst du mit "berechnet man praktisch für jedes Szenario den optimalen Zielfunktionswert wenn x=0"? Wenn ich das jetzt für x1 mache, müsste ich dann eine Optimierung mit allen anderen 95 x machen? Bzw wie sonst bekomme ich den optimalen Wert.





  Profil  Quote  Link auf diesen Beitrag Link
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 5489
Aus: Niedersachsen
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, eingetragen 2018-09-26 09:24


Nehmen wir mal ein einfaches Beispiel.
Wenn die Sonne scheint heize ich mit Solarstrom, was für mich günstiger ist, wenn nicht, muss ich Strom aus dem Netz nehmen, der teurer ist.
Mit dem Heizstab erwärme ich ein Medium, dass sich danach langsam abkühlt. Eine bestimmte Temperatur darf nicht unterschritten werden.

Soll ich _jetzt_ heizen, oder auf später warten?

Wenn ich weiß, wann im Laufe des Tages die Sonne scheint und wie die jeweiligen Strompreise sein werden, dann kann ich die optimale Heizstrategie berechnen (das setze ich voraus).

Ich nehme mir eine bestimmte Zahl an Monte-Carlo-Samplings und berechne jeweils die optimale Heizstrategie. Einmal unter der Voraussetzung, dass ich in der ersten Periode heize und einmal unter der Voraussetzung, dass ich in der ersten Periode _nicht_ heize. Die Kosten werden in beiden Fällen über die Monte-Carlo-Samplings gemittelt. Danach wird die günstigere Alternative ausgewählt.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, vom Themenstarter, eingetragen 2018-09-26 19:14


Danke Kitaktus für deine Antwort und deine Bemühungen :-),

ich schildere mal, wie ich das Ganze bisher verstanden habe: In dem Problem habe ich ja 96 Entscheidungsvariablen x1,..x96. Für jeden Zeitpunkt muss ich also bestimmen, ob ich heizen soll oder nicht (und zwar für eine Heizdauer von 1 Zeitpunkt). Angenommen wir sind jetzt am Zeitpunkt t=10.

Würde ich jetzt, um den Wert von x10 zu bestimmen, einige Samples mittels der Monte-Carlo-Methode wählen? Die Samples wären mögliche Parameterbelegungen von externen Variablen, wie z.B. der Strompreis, oder die Photovoltaik-Erzeugung.

Sagen wir mal, ich hätte 10 Samples. Dann würde ich für jedes der 10 Samples die Variable x10 einmal mit 0 fixieren und einmal mit 1. Jetzt würde ich eine klassiche determinische Optimierung, um die optimale Belegung der Entscheidungsvariablen x11,...,x96 zu bestimmen, durchführen und das für jedes der 10 Sample. Also hätte ich insgesammt 20 Optimierungen zu berechnen, um die Wert x10 zu bestimmen. Ich würde dann einmal den Durchschnittswert für alle Ergebnisse der Optimierung, in denen x10=0 gesetzt wurde mit dem Durchschnittswert für alle Ergebnisse der Optimierung, in denen x10=1 gesetzt wurde, berechnen. Je nachdem welche die besseren Ergebnisse liefern, würde ich x10=0 oder x10=1 setzen.

Im Anschluss daran würde ich dasselbe fü x11 machen. Habe ich das so richtig verstanden?



  Profil  Quote  Link auf diesen Beitrag Link
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 5489
Aus: Niedersachsen
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, eingetragen 2018-09-27 13:19


Ja, so habe ich es gemeint.

Es gibt aber auch andere Interpretationsmöglichkeiten. Die von Dir zitierte Theorie betrachtet ja nur zwei Entscheidungszeitpunkte (Variablen x und y). Wenn man sich für x entschieden hat, kann man später für y wirklich die optimale Wahl treffen.
In Deinem Problem ist das ja nicht der Fall. Statt einer Entscheidung mit vollständigem Wissen muss man ja viele Entscheidungen mit unvollständigem Wissen treffen.
Zur Bewertung der Optionen für x könnte man ja auch diesen schrittweisen Entscheidungsprozess simulieren. Das sähe dann so aus:

Man hat eine (einfache(re)) Heuristik, um eine Entscheidung für ein xi zu treffen (anhand des zu diesem Zeitpunkt verfügbaren Wissens).
Für jedes Sample erzeugt man schrittweise eine Belegung der Zufallsvariablen, trifft die Entscheidung für den nächsten Zeitschritt, erzeugt weitere Zufallsvariablen, trifft die nächste Entscheidung usw.
Das Ergebnis, dass man dabei erzielt ist dann näher an den wirklich erreichbaren Zielfunktionen dran.
Monte-Carlo-Simulation in spieltheoretischen Anwendungen benutzt meines Wissens nach eher diesen Ansatz.
Wie man sieht, braucht man hier noch eine zusätzliche Heuristik, um in den Monte-Carlo-Versuchen die Zwischenschritte auszuführen.
Denkbar wären hier feste Heurisitken [in diesem und jenem Zustand mache immer das und das], eine rekursive Anwendung der Optimierungsstrategie [was schnell im Aufwand explodiert], oder ...


Also insgesamt ist das ein weites Feld und es gibt hier meines Wissens nach nicht die Universal-Methode, die für alles optimal ist.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, vom Themenstarter, eingetragen 2018-09-27 15:25


Danke Kitakatus für deine Antwort,

der Aufwand für das beschriebene Verfahren ist ja auch gewaltig und nicht wirklich tragbar für mein Problem. Wenn ich 3 unsichere Eingabedaten habe, dann muss ich doch - nur um den Wert der Variable x1 zu bestimmen, je 95 Werte sampeln um ein Sample für die Optimierung zu haben. Zu jedem Zeitpunkt habe ich ja Unsicherheiten d.h. dass 20 Sample für die Optimierung extrem wenig wären. Und selbst bei nur 20 Samplen für die Optimierung hätte ich dann für einen Tag 20*96 = 1920 Opimierprobleme zu lösen.

Also kann man sagen, dass stochastiche Optimierung hier nicht praktikabel ist, oder?



  Profil  Quote  Link auf diesen Beitrag Link
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 5489
Aus: Niedersachsen
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, eingetragen 2018-09-28 11:26


Die Bewertung bestimmter Optimierungsverfahren per Ferndiagnose halte ich für schwierig.
Mir bleibt zum Beispiel unklar, wie stark der Zufallseinfluss ist, wie schnell sich die Situation ändern kann, wie groß die durch die Optimierung erzielbaren Gewinne im Vergleich zum Aufwand sind usw.

Es kommen in der Regel drei Aspekte zusammen.
1) Wie "gut" sind die gefundenen Lösungen, wobei "gut" bei einem stochastischen Optimierungsproblem schon schwer zu definieren ist?
2) Wie aufwändig ist die Umsetzung des Verfahren? Kann ich das überhaupt programmieren?
3) Wie aufwändig ist die Durchführung des Verfahrens? Braucht der Algorithmus 109 Jahre oder 10 Sekunden?

Ein relativ guter Ansatz in der Praxis ist, zunächst einfache Verfahren zu implementieren, zu schauen, ob man mit Laufzeit und Ergebnissen zu frieden ist und dann zu bewerten, in welche Richtung man gehen muss -- "besser" oder "schneller".

Ich würde den zuerst geschilderten Ansatz ausprobieren, weil ich das Gefühl habe, bei vollständiger Information ist das Problem algorithmisch (gut) lösbar -- dynamische Programmierung könnte zum Ziel führen.
Dann würde ich schauen, ob die Annahme des perfekten Wissens zu Lösungen führt, die praktisch nicht umsetzbar sind [Man könnte mit Tempo 80 über eine Kreuzung gleichrangiger Straßen brettern, wenn man nur wüsste, dass die Straße frei ist. Da das aber nicht der Fall ist, _muss_ man mit geringeren Geschwindigkeiten vorlieb nehmen.]
Je nach Ergebnis würde ich dann weitersehen.



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, vom Themenstarter, eingetragen 2018-10-04 17:23


Danke Kitaktus für deine Antwort,

bei mir ist es so, dass ich kein 2-stufiges Entscheidungsmodell habe (was  immer in der Literatur zu stochasticher Optmierung verwendet wird), sondern ein 96-stufiges Problem. Sagen wir mal, ich hätte 3 unsichere Parameter für jeden Zeitpunkt. Somit hätte ich ja insgesamt 3*96=288 Dimensionen bei der Zufallsvariable zum Zeitpunkt t=1 und 285 Dimensionen für den Zeitpunkt t=2 usw.

Das würde doch bedeuten, dass ich sehr viele Samples benötige, um nur annähernd einen kleinen Bereich der möglichen Realisierungen der Zufallsvariable abzudecken. Das erscheint mir vom Aufwand her als zu groß.

Du (Kitaktus) hast geschrieben:
"Ich würde den zuerst geschilderten Ansatz ausprobieren, weil ich das Gefühl habe, bei vollständiger Information ist das Problem algorithmisch (gut) lösbar -- dynamische Programmierung könnte zum Ziel führen."

Das Problem ist mit vollständigen Informationen einfach lösbar. Dazu brauche ich auch keine stochastiche Optmierung oder Sample-Generierung. Ich verwende einfach einen konventionellen Modelleriungsansatz und löse das Optmierungsproblem (was ich bereits gemacht habe). Deswegen verstehe ich nicht ganz, welche Schlussfolgerungen aus der leichten Lösbarkeit des deterministischen Problems gezogen werden können für eine stochastische Optimierung.



  Profil  Quote  Link auf diesen Beitrag Link
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 2946
Aus: hier und dort (s. Beruf)
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, eingetragen 2018-10-04 21:50

\(\begingroup\)
Hallo zusammen,

vorweg: Ich möchte mich nicht in eure Diskussion "einmischen"; das Thema interessiert mich aber und vielleicht kann ich auch etwas Nützliches beitragen.

Ich versuche mal das praktische Problem, so weit ich es verstanden habe, etwas genauer zu fassen. Das Ziel ist es doch, ein "Gebäude" hinreichend warm zu halten, sagen wir bei einer Mindesttemperatur $T_0$. Zur Temperatursteuerung steht ein Heizstab zur Verfügung, der jeweils für eine Viertelstunde angeschaltet werden kann oder nicht. Die Nutzung (im Laufe eines zu betrachtenden Tages) des Heizstabes kann man etwa durch ein $x \in \{0,1\}^{96}$ beschreiben.

Diese Aufgabe ist wohl einfach lösbar und hängt von der physikalischen Realisation des Systems ab: Wie verändert sich die aktuelle Temperatur von einer Periode $t$ zur nächsten $t+1$ in Abhängigkeit von $T_t$, $x_t$ und ggf. $x_1, \ldots, x_{t-1}$, falls eine Heizwirkung etwa nachwirkt oder Ähnliches).

Neben diesem Grundproblem kommt nun hinzu, dass die Kosten für die Nutzung des Heizstabs wesentlich sind. Wird geheizt, entstehen Kosten je nach Energiemix, sagen wir $p_0$ für Netzstrom und $p_1$ für reinen Solarstrom (wobei wir wohl annehmen können, dass reiner Solarstrom der günstigste ist). In welchem Maße Solarstrom zur Verfügung steht, hängt von äußeren Umständen ab (Wetter, Tageszeit, etc.) und kann zu jedem Zeitpunkt $t$ etwa durch eine Zufallsvariable $Z_t$ beschrieben werden, die auf $[0,1]$ abbildet.
Wird also geheizt ($x_t=1$), entstehen Kosten in Höhe von $(1-Z_t)\cdot p_0 + Z_t \cdot p_1$.

Zusammengefasst: Es soll $\sum_{t=1}^{96} x_t \cdot \left ( (1-Z_t)\cdot p_0 + Z_t \cdot p_1 \right )$ minimiert werden unter der Bedingung, dass die Temperatur nicht unter eine Mindesttemperatur fällt.

Habe ich das soweit richtig verstanden?

Die Lösung hängt nun natürlich einerseits von der Struktur von $T_t=f(T_{t-1}, x_1, ..., x_t)$ ab, viel wesentlicher jedoch, was man über die $Z_j$ annehmen darf. Ist z.b. $Z_t=0 f.s.$ für alle $t\geq t_0$ ("Nacht")?

Die - hier doch sehr überschaubare Anzahl - von Variablen kann man fraglos hinreichend oft samplen, um eine solide Basis für eine MC-Simulation zu bilden. Die $x_j$ wirst Du dagegen nicht samplen wollen.

Ein möglicher Lösungsalgorithmus sollte die Linearität der Zielfunktion ausnutzen. Die Idee wäre hier für $t=96$ eine deterministische Regel zu verwenden und dann in der Zeit zurückzugehen, jeweils die $Z_t$ für die "Zukunft" zu samplen und die im Erwartungswert minimalen Kosten auszurechnen; dabei kann man natürlich alle Ergebnisse der "weiteren Zukunft" aus den vorherigen Schritten des Algorithmus bereits verwenden und muss nicht neu samplen. Der Rechenaufwand dürfte somit sehr überschaubar sein.

lg, AK.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, vom Themenstarter, eingetragen 2018-10-05 17:00


Vielen Dank AnnaKath für deinen informativen Beitrag,

du hast das im Prinzip richtig verstanden. Das Problem ist allerdings etwas komplexer. Es kommt auf die Menge des Solarstrom an und auf die elektrische Last des Haushalts und den Wärmebedarf. Das heißt ich habe folgende zeitabähngigen unsicheren Parameter:
- Wärmebedarf des Hauses(t)
- Leistung der PV-Anlage (t)
- Elektrischer Verbrauch (t)

Das sind im Prinzip alles Zeitreihen. Der Heizstab (elektrisch) soll jetzt so eingesetzt werden, dass die Stromkosten minimal werden. Die Zielfunktion sieht demnach folgendermaßen aus:
fed-Code einblenden

Dabei ist zu beachten - wie AnnaKath - richtig angemerkt hat, dass die Temperatur im Haus nicht über und nicht unter bestimmten Grenzen sein darf. Die Auswirkungen von Heiß (x=1) bzw. Nicht-Heiß-Aktivitäten (x=0) auf die Temperatur hängt vom zeitvariablen Wärmebedarf des Hauses ab und natürlich vom zugrunde liegendem Modell des Hauses bzw. des Wärmespeichers. Darauf will ich jetzt hier nicht näher eingehen. Wichtig ist nur, dass es einen weiteren unsicheren Parameter/Zeitreihe gibt.



  Profil  Quote  Link auf diesen Beitrag Link
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 2946
Aus: hier und dort (s. Beruf)
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.14, eingetragen 2018-10-05 21:32

\(\begingroup\)
Huhu VannyFi,

eine Monte Carlo-Simulation macht nur Sinn, wenn Du Zufallsvariablen betrachtest; in Deinem Optimierungsproblem sind solche aber nicht (sichtbar) vorhanden. Vermutlich sind diese in $P_{\mathrm{solar}}$ "versteckt"?
Ansonsten läge hier ein recht einfaches Regelungsproblem vor, das man entweder ob der geringen Dimension vollständig löst oder etwa einen einfachen Fuzzy-Algotihmus nutzt.

Vielleicht verrätst Du uns noch ein wenig über die Eigenschaften Deines Problems? Welche der Größen hängen von der Zeit, von der im Haus herrschenden Temperatur und welche vom Zufall ab?

lg, AK.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.15, vom Themenstarter, eingetragen 2018-10-11 14:14


Vielen Dank AnnaKath für deine Antwort und Sorry für die etwas späte Reaktion (ich bin ein paar Tage weg gewesen),

"Vielleicht verrätst Du uns noch ein wenig über die Eigenschaften Deines Problems? Welche der Größen hängen von der Zeit, von der im Haus herrschenden Temperatur und welche vom Zufall ab?"

Ich habe das im Prinzip schon im vorherigen Post versucht zu beantworten. Ich habe 3 Parameter, die vom Zufall abhängen:
- Wärmebedarf des Hauses(t)
- Leistung der PV-Anlage (t)
- Elektrischer Verbrauch (t)

Natürlich hängt der Wärmebedarf auch von der Haus herrschenden Temperatur ab, jedoch ist es trotzdem ein unsicherer Parameter, da der Wärmebedarf nicht perfekt vorausgesagt werden kann. Beispielsweise haben die Anwesendheitszeiten der Bewohner einen großen Einfluss darauf.  



  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.16, vom Themenstarter, eingetragen 2018-10-18 11:08


Ich wollte nochmal kurz auf meinen vorherigen Post aufmerksam machen.Ich bin mir immer noch nicht sicher, ob man mein Problem wirklich mittels stochasticher Optimierung lösen kann. Würde mich weiterhin über Antworten und Kommentare sehr freuen.



  Profil  Quote  Link auf diesen Beitrag Link
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 2946
Aus: hier und dort (s. Beruf)
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.17, eingetragen 2018-10-18 20:21

\(\begingroup\)
Huhu VannyFi,

wie bereits gesagt - nichts spricht gegen ein Monte-Carlo-Sampling, es sollte hier sogar recht gut funktionieren.

Due löst das Problem "rückwärts", d.s. Du samplest zur Bestimmung von $x_96$ die Zufallsvariablen $h_{96}$ (Wärmebedarf), $p_{96}$ (Leistung der Anlage) und $v_{96}$ (Verbrauch) aus irgendwie (problemangemessen) bestimmten Verteilungen, ggf. bedingt auf eine herrschende Temperatur $T_{96}$. Dies beschert dir eine (bedingte) Wahrscheinlichkeitsverteilung für $x_{96}$ und Du kannst das Optimierungsproblem für den $96$. Schritt (durch Übergang zu Erwartungswerten oder Nutzung von entsprechenden Quantilen der Verteilung) einfach lösen.

In Anschluss daran, samplest Du entsprechend die Variablen von Schritt $95$, und wendest dabei für das sich ergebende Optimierungsproblem die bereits vorliegenden Ergebnisse des $96$. Schrittes an.

lg, AK.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.18, vom Themenstarter, eingetragen 2018-10-19 09:25


Hi AnnaKath,

vielen Dank für die Antwort. Ich muss gestehen, dass ich es immer noch nicht ganz verstehe. Das mit dem Rückwärtsrechnen ist glaube ich nicht anwendbar auf mein Problem, weil ich Nebenbedinungen für die Temperatur im Haus habe. Die Heizaktivitäten (x1...x96) haben Auswirkungen auf die Temperatur im Haus(T1...T96). Die Temperatur ist eine energetische Differenzengleichung der Form:

fed-Code einblenden

Das heißt für die Berechnung von T96 benötige ich den Wert für T95. Somit verstehe ich nicht, wie ich hier rückwärtsrechnen kann.

 



  Profil  Quote  Link auf diesen Beitrag Link
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 2946
Aus: hier und dort (s. Beruf)
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.19, eingetragen 2018-10-19 22:02

\(\begingroup\)
Huhu VannyFi,

ich fasse mal zusammen, was ich verstanden habe.

Folgendes Minimierungsproblem ist zu lösen

$p \cdot \sum \limits_{t=0}^{96} ( x_t \cdot P + h_t - s_t ) \longrightarrow \min!$

Dabei bezeichnet $p$ einen Preis, $x_t=1$, wenn der Heizstab zur Zeit $t$ angeschaltet ist, $P$ die Leistung des Stabs, $h_t$ die (zufällige) Wärmeverlustleistung des Hauses und $s_t$ die (zufällige) Leistung der Photovoltaikanlage.

Die Nebenbedingungen lauten $T_j \geq T_{\min}$ für $j=1, \ldots, 96$, wobei für die Temperatur $T_t$ gilt: $T_t=T_{t-1} + \frac{x_t \cdot P - h_t}{c}$. Dabei ist $c$ eine Konstante (Volumen x Dichte x Wärmekapazität), $T_{\min}$ die Mindesttemperatur und $T_0\geq T_{\min}$ gegeben.

Ist das so korrekt?

Sollte das der Fall sein, so:
- ist $p$ für das Problem irrelevant.
- spielt $s_t$ für das Problem gar keine Rolle.
- spielt insbesondere auch $x_{96}$ keine Rolle für das Problem (sind die Indizes "verrutscht"?)
- verstehe ich fachlich nicht, inwiefern $h_t$ Kosten verursacht
- scheint mir $\max\{h_t-s_t,0\}$ im Minimierungproblem vielleicht sinnvoller (es sei denn, das Haus kann überschüssige Photoleistung ans Netz abgeben, aber dann spielt $s_t$ wie schon bemerkt keine Rolle).

lg, AK.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
VannyFi
Junior Letzter Besuch: in der letzten Woche
Dabei seit: 27.08.2018
Mitteilungen: 12
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.20, vom Themenstarter, eingetragen 2018-10-21 10:43


Danke AnnKath für die Antwort,

leider ist das nicht alles richtig verstanden. Sorry, ich habe es auch nicht gut erklärt. Ich probiere mal ein etwas abgewandtes Problem zu formulieren:

fed-Code einblenden

In diesem Fall haben wir keine PV-Anlage, sondern einen zeitvariablen Strompreis p_t. Die Heizleistung des Heizstabes (x_t*P_HZ) erhöht die Temperatur T_t des Gebäudes, während der Wärmeverlust des Gebäudes h_t diese verringert. Das Ziel ist es, den elektrischen Heizstab so einzusetzen, dass die Stromkosten minimiert werden. Dafür wird die gesamte elektrische Leistung des Gebäudes mit dem Strompreis p_t multipliziert. Die gesamte Leistung des Haushalts setzt sich zusammen aus der Leistung des Heizstabse (x_t*P_HZ) und der Leistung der anderen Haushaltgeräte P_t,Haushalt, die nicht flexibel gesteuert werden können in diesem Beispiel (z.B. TV, Toaster, Kühlschrank usw.). In diesem Fall hätte ich 3 unsichere Parameter für jeden Zeitpunkt t:
- h_t
- P_t,Haushalt
- p_t

Diese 3 Größen sind von t abhängig und somit Zeitreihen. D.h. ich habe insgeamt 3*96=288 unsichere Parameter. Meine Ursprungsfrage lautet, ob ich das ganze jetzt stochastich optimieren kann. Mit deterministischen Werten, ist das Problem schnell gelöst.Ich würde jetzt aber gerne Unsicherheiten einbauen d.h. dass ich sage, dass ich eine Vorhersage für die 3 Zeitreihen habe, die z.b. 5 % von der Realität abweicht.



  Profil  Quote  Link auf diesen Beitrag Link
Folgende Antworten hat der Fragesteller vermutlich noch nicht gesehen.
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 2946
Aus: hier und dort (s. Beruf)
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.21, eingetragen 2018-10-21 12:44

\(\begingroup\)
Huhu VannyFi,

diese letzte Formulierung verstehe ich nun hoffentlich richtig :)

Ein paar technische Details sind mir allerdings immer noch unklar:
- Ist $t\in\{0, \ldots, \96$? [Ich nahme mal an: Ja]
- Wird $x_t$ festgelegt, nachdem oder bevor $h_t$ bekannt ist? [Ich nehme mal an: bevor]

Zunächst drängt sich die Idee auf, $P_{t,\mathrm{Haushalt}}$ aus den Betrachtungen heraus zu lassen. Dieser Term beeinflusst zwar den Wert der Zielfunktion (der Stromkosten), ist aber für das Optimierungsproblem bedeutungslos.

Betrachten wir nun den letzten Zeitpunkt ($t=96$). Würdest Du $h_{96}$ kennen, wäre das Optimierungsproblem trivial. Du kennst aber $h_{96}$ nicht, also simulierst Du zum Beispiel $1000$ mögliche Werte für $h_{96}$ und erhältst somit eine Verteilung für $x_{96}$. Nun kannst Du zum Zeitpunkt $t=95$ übergehen und das gleiche durchführen; allerdings musst Du nun nicht nur $h_{95}$ samplen, sondern auch $p_{95}$ und $p_{96}$ und nimmst für $x_{96}$ die zuvor angenommene Verteilung an. Somit erhältst Du Verteilungen für $x_{95}$, $p_{95}$ (und $p_{96}$), $T_{95}$ (und $T_{96}$) sowie für die Zielfunktion.
So "hangelst" Du Dich dann rückwärts durch die Zeit. Natürlich kannst Du nun noch Vereinfachungen vornehmen (z.B. brauchst Du blei gleichen Verteilungen für die $h_t$ oder $p_t$ diese nicht neu zu samplen).

lg, AK.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Neues Thema [Neues Thema] Antworten [Antworten]    Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2018 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]