Matroids Matheplanet Forum Index
Moderiert von Bilbo
Theoretische Informatik » Komplexitätstheorie » Persistente Transinformation in der logistischen Gleichung
Autor
Kein bestimmter Bereich J Persistente Transinformation in der logistischen Gleichung
Nunie
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 03.12.2018
Mitteilungen: 39
  Themenstart: 2021-03-18

Im Net auf etwas gestoßen was ich zwar halbwegs verstehe, das Beispiel aber nicht hin bekomme mit einem Python-Algorithmus nachzurechnen. Es handelt sich um ein postuliertes Maß um "Emergenz" in (diskreten) dynamischen Systemen zu quantifizieren: Persistent Mutual Information (Persistente Transinformation), "the Mutual (Shannon) Information between the past history of a system and its evolution significantly later in the future. "1 oder auch PMI is a simple extension of Gibbs Entropy, amounting to: S(past) +S(future) – S(past and future taken together).2 mit folgender Formel: \[\begin{equation} I(\tau)=\int \log \left(\frac{P\left[x_{-0}, x_{\tau+}\right]}{P\left[x_{-0}\right] P\left[x_{\tau+}\right)}\right) P\left[x_{-0}, x_{\tau+}\right] d x_{-0} d x_{\tau+} \end{equation}\] - x-0 beschreibt die vergangene Historie des Systems bis zum aktuellen Zeitpunkt 0 - xτ+ die korrespondierende Geschichte zu späteren Zeitpunkten - P[x−0, xτ+] ist die multivariante Verteilung (joint propability) in dem Historien Ensemble - P[x−0]P[xτ+] ist das Produkt der entsprechenden Randwahrscheinlichkeitsdichten für Vergangenheit und Zukunft getrennt genommen Quantitativ misst I(τ) das Defizit der Shannon-Entropie in der gemeinsamen Geschichte im Vergleich zu der von Vergangenheit und Zukunft, die unabhängig voneinander betrachtet werden, d. h. \[\begin{equation} I(\tau)=H\left[P\left[x_{-0}\right]\right]+H\left[P\left[x_{\tau+}\right]\right]-H\left[P\left[x_{-0}, x_{\tau+}\right]\right] \end{equation}\] wobei die separaten Shannon-Entropien für eine Wahrscheinlichkeitsdichte P einer Menge von Variablen y allgemein gegeben sind durch \[\begin{equation} H[P]=-\int \log (P[y]) P[y] d y \end{equation}\] Man muss aufpassen, dass man nur diskrete Werte für τ einsetzt, da sonst: \[\begin{equation} I(\infty)=-\sum_{i} p_{i} \log \left(p_{i}\right) \end{equation}\] was ein triviales Ergebnis darstellt. Soweit die Definition. Deutlich gemacht haben die das u.a. an dem Beispiel der Logistischen Gleichung (logistic map): https://matheplanet.com/matheplanet/nuke/html/uploads/b/50876_pmi_logistic.jpg Dazu: Bifurkationsdiagramm (oben) und gemessene persistente Transinformation (unten) für die Logistische Gleichung, als Funktion über λ. Für jeden Wert von λ wurde die Gleichung über 10^5 iteriert und dann die Transinformation über ein "Zeitintervall" von 10^5 Iterationen. Jede Transinformation-Messung verwendete den Abstand zum 4. nächsten Nachbarn zur Schätzung der Wahrscheinlichkeitsdichte (k = 4), basierend auf einer Stichprobe von N = 5000 Iterationspaaren. Bevor das Chaos einsetzt, nimmt die persistente Transinformation schrittweise in Sprüngen von log 2 zu, was die Verdoppelung der aufgelösten Periode widerspiegelt. Es ist auch zu sehen, dass die Bandperiodizität nach dem Einsetzen des Chaos wieder aufgenommen wird (Auflösung einiger feinerer Perioden innerhalb des Band-Hopping), sowie ein nicht-chaotisches Perioden-3-Regime. (Quelle) Ich habe jetzt ein Jupyter-Notebook auf google colab angelegt um das mal mit Python selber nachzurechnen und zu plotten, bis jetzt endet aber jede Bemühung mit unter (4) beschriebenem Logaritmus. Was ich bis jetzt gemacht habe: Logistische Gleichung errechnet mit 10^5 Iterationen pro λ. Für ein gegebenes f(λ) und t=4 bekomme ich im Punkt f(λ-t) und f(λ+t) jeweils eine Liste mit n Werten sodass ich folgende Transinformation berechnen könnte: PMI(λ) = I(λ-t,λ+t) = H(λ-t)+H(λ+t)-H(λ-t,λ+t) mit Entropie \[\begin{equation} \mathrm{H}(X)=-\sum_{i=1}^{n} \mathrm{P}\left(x_{i}\right) \log \mathrm{P}\left(x_{i}\right) \end{equation}\] und bedingter Entropie \[\begin{equation} H\left(X_{1} X_{2}\right)=-\sum_{i=1}^{n} \sum_{j=1}^{n} P\left(x_{1_i} x_{2_j}\right) \log P\left(x_{1_i} x_{2_j}\right) \end{equation}\] Habe ich das so richtig verstanden?


   Profil
Nunie
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 03.12.2018
Mitteilungen: 39
  Beitrag No.1, vom Themenstarter, eingetragen 2021-04-03

Nach langem tüfteln endlich geschafft, etwas unschön aber funktionabel, sehr grob um Rechenzeit zu sparen: https://colab.research.google.com/drive/1msXelXobDZArmk8hssmvtpjjLEy6_CtN?usp=sharing Kurze Zusammenfassung des Vorgehens: 1. Für jedes r in der Logistischen Funktion wird eine iterative Liste (geordnet nach Zeit = Aufrufen) erstellt 2. Für jede dieser Listen wird mit der K-Nachbar-Methode nach A. Kraskov, H. Stogbauer and P. Grassberger die Transinformation (Mutual Information) berechnet und an der x-Achse eines Diagramms für den entsprechenden Wert für r geplottet. das Ergebnis sieht wie folgt aus: https://matheplanet.com/matheplanet/nuke/html/uploads/b/50876_Bildschirmfoto_2021-04-03_um_15.58.18.png (Unsauberkeiten jeweils an den Bifurkationspunkten wegen grober Berechnung von der Logistic Map)


   Profil
Nunie hat selbst das Ok-Häkchen gesetzt.

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]