Suchwörter   (werden UND-verknüpft)
Keines der folgenden   keine eigenen Beiträge
Name des Autors 
resp. Themenstellers 

nur dessen Startbeiträge
auch in Antworten dazu
Forum 
 Suchrichtung  Auf  Ab Suchmethode  Sendezeit Empfehlungbeta [?]
       Die Suche erfolgt nach den angegebenen Worten oder Wortteilen.   [Suchtipps]

Link auf dieses Suchergebnis hier

Forum
Thema Eingetragen
Autor

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Minimum von quadratischen konvexen Funktionen  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-24
mbInfoStudent
J

Danke vielmals.

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Minimum von quadratischen konvexen Funktionen  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-24
mbInfoStudent
J

Warum gilt für eine quadratische Funktion, wobei Matrix $A$ positiv definit ist, dass $\lim_{x\to\infty}f(x) \to \infty$? Denn das führt ja wohl dazu, dass nur streng konvex ein Minimum garantiert.

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Minimum von quadratischen konvexen Funktionen  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-23
mbInfoStudent
J

Meine Frage ist, ob quadratische Funktionen die (streng) konvex sind, immer ein Minimum haben? Wenn ja, wie wäre der Beweisansatz dafür?
Ich hatte darüber gedacht, den Satz von Weierstraß als Hilfe zu nehmen, jedoch ist der Interval nicht immer kompakt. Somit wäre der Satz nicht für das folgende Problem anwendbar:
$\min_{x\in\mathbb{R}^n} f(x)$
wobei $f$ konvex und (streng) quadratisch ist.

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Zulässigkeit eines Punktes bei einem restringierten Optimierungsproblem  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-05
mbInfoStudent
 

Kann mir hiermit bitte jemand weiterhelfen?

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Zulässigkeit eines Punktes bei einem restringierten Optimierungsproblem  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-04
mbInfoStudent
 

Meine Frage bezieht sich eigentlich um einen Teil eines Beweises in der nichtlinearen Optimierung, um zu beweisen, dass GMFCQ ACQ impliziert.
Es geht um restringierte Optimierung:
$$\min f(x), \text{ } g(x)\leq 0, h(x) = 0$$ Und für GMFCQ gilt:
$\exists d^* \in \mathbb{R}^n: \nabla h(x^*)^Td^* = 0, \nabla g_i(x^*)^Td^*<0, \forall i \in I_g(x^*)$ und $\nabla h(x)$ hat konstanten Rang in der Nähe von $x^*$.
Jedoch ist meine Frage beschränkt auf einem Punkt:
Sei $x^* \in X \subset \mathbb{R}^n$ und $L_X(x^*)$ der Linearisierungskegel, wo für $\bar{d} \in L_X(x^*)$ gilt:
$$ \nabla g_i(x^*)^T\bar{d} \leq 0, \forall i\in I_g(x^*), \nabla h(x^*)^T\bar{d} = 0$$
Seie nun: $x^k := x^* + d^k$ mit $d^k := \frac{1}{k}\bar{d}$
Seie auch $I_g(x^*)$ die aktiven Nebenbedingungen d.h. $g_i(x^*) = 0, \forall i\in I_g(x^*)$.

Nun wird in dem Beweis gesagt, dass für alle inaktive Nebenbedingungen $i\notin I_g(x^*)$, sind $g_i(x^k)<0$ für alle $x^k$ zulässig nah an $x^*$, was verständlich ist.

Aber es wird auch gesagt, dass $g_i(x^k)\leq0$ für alle $i\in I_g(x^*)$ nicht unbedingt zulässig ist.
Damit es zulässig wird, ist im Skript beschrieben, dass $d^k$ modifiziert wird:
Da gilt $\nabla g_i(x^*)^T \bar{d} \leq 0$ und $\nabla g_i(x^*)^T d^* <0, \forall i\in I_g(x^*)$, ist $\bar{d} + \epsilon_k d^*$ eine Abstiegsrichtung für die aktiven Nebenbedingungen für alle $\epsilon_k>0$. Somit wird $d_k$ modifiziert:
$$ x^k = x^* + d^k \text { mit } d^k := \frac{1}{k}(\bar{d} + \epsilon_k d^*)$$ mit $\epsilon \to 0$ und somit alle aktiven Nebenbedingungen in $x^k$ erfüllt sind.

$\textbf{Meine Frage ist:}$ Warum das notwendig ist und nicht auch für $d^k := \frac{1}{k}\bar{d}$ gelten muss?
Denn es gilt ja für $\bar{d}$: $\nabla g_i(x^*)^T\bar{d} \leq 0,\forall i \in I_g(x^*)$. Wie kann dann $g_i(x) >0$  auftreten, wenn doch $x = x^* + \frac{1}{k}\bar{d}$ ist d.h. $\bar{d}$ keine Aufstiegsrichtung ist?

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
KKT-Bedingungen zur dualen Formulierung einer SVM  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-28
mbInfoStudent
J

Ich habe die Antwort raus:
Es gelten die Nebenbedingungen:
$$ v\geq 0,  C-v \geq 0, y^Tv = \Delta$$
Somit wäre die Lagrange Funktion:
$$L = q(v) + \mu v + \lambda(C-v) + b(y^Tv - \Delta)$$
Dann gilt für einen KKT-Punkt  $x^*$ unter anderem der Stationary Condition:
$$\nabla_v L(v,\lambda,\mu, b) = 0$$ was äquivalent ist zu:
$$\nabla q(v) + \mu - \lambda + by =0 \Leftrightarrow \nabla q(v) + by = \lambda -\mu$$

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
KKT-Bedingungen zur dualen Formulierung einer SVM  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-21
mbInfoStudent
J

Hallo zusammen, kann mir jemand weiterhelfen oder fehlt was in der Frage?

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
KKT-Bedingungen zur dualen Formulierung einer SVM  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-20
mbInfoStudent
J

Wir haben das folgende duale Optimierungsproblem:
$$\min_v q(v) := g^Tv + \frac{1}{2}v^TQv \text{ } s.t. 0\leq v \leq C1, \text{ } y^Tv = \Delta $$ wobei $Q\in\mathbb{R}^{n\times n} $ symmetrisch, $\Delta \in \mathbb{R}$, $C>0$, $y\in \{-1,1\}^n$.
Nun werden im Skript die folgende KKT-Bedingungen aufgelistet:
$$v\geq 0, C-v\geq 0, y^Tv = \Delta$$ $$\nabla q(v) + by = \lambda - \mu$$ $$\lambda_i v_i = 0, \mu_i(C-v_i) = 0, \lambda_i \geq 0, \mu_i \geq 0, i\in[n]$$ Die letzten zwei Zeilen sollen die "stationary condition" und Komplementaritätsbedigung sein.

$\textbf{Meine Frage wäre die folgende:}$
Mir ist nicht klar, wie die zweite aufgebaut ist. Denn für den stationary Condition muss ja allgemein gelten:
$$\nabla f(x) + \Sigma_{i=1}^m \mu_i \nabla g_i(x) + \Sigma_{i=1}^l \lambda_i \nabla h_i(x) = 0$$ was ja in unserem Fall wäre:
$$\nabla q(x) + \mu(C1 - v) + \lambda^Tv + b(y^Tv - \Delta) = 0$$ Aber $b(y^Tv - \Delta)$ ist nicht einmal in der Gleichung drin und der Rest weicht auch ab.

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
SVM: Rekonstruktion der primalen Lösung von der dualen  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-18
mbInfoStudent
 

Hat jemand diesbezüglich eine Idee?

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
SVM: Rekonstruktion der primalen Lösung von der dualen  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-17
mbInfoStudent
 

In unserem Skript wird beschrieben, wie man von der dualen Lösung des Optimierungsproblems für SVM auf das primale zurückrechnen kann.
Die primale Darstellung ist:
$$\min_{w,b,z} \frac{1^Tz}{N} + \frac{\lambda}{2} w^T w \\ s.t. \text{ } y_i(w^Tx_i - b) + z_i \geq 1, z_i\geq 0, i \in [N]$$ und somit die Langrangefunktion von der primalen Darstellung:
$$ L(w,b,z,u,v) = \frac{1^Tz}{N} + \frac{\lambda}{2} \|w\|_2^2 - u^Tz + \Sigma_{i=1}^N v_i(1-z_i - y_i(w^Tx_i - b))$$ Die dualle Formulierung ist:
$$ \max_v 1^Tv - \frac{1}{2} v^TKv \\ s.t. \text{ } 0\leq v\leq \frac{1}{N}1^N,\text{ }\text{ }\text{ } y^Tv = 0 \\ \text{wobei } K_{ij} = \frac{1}{\lambda}(y_iy_j)x_i^Tx_j$$
Anhand der KKT-Bedingungen wissen wir, dass gilt $\nabla_{(w,b,z)}L(w,b,z,u,v) =0$ was identisch ist zu:
$$\nabla_w L(w,b,z,u,v) = \lambda w - \Sigma_{i=1}^N v_iy_ix_i = 0 \Rightarrow  w= \frac{1}{\lambda} \Sigma_{i=0}^N v_iy_ix_i $$ $$\nabla_b L(w,b,z,u,v) = \Sigma_{i=1}^N v_iy_i = y^Tv = 0$$ $$ \nabla_z L(w,b,z,u,v) \Rightarrow u+v = \frac{1}{N}1^N$$
Nun sei $v^*$ eine optimale Lösung für das duale Problem. Nun sollen die KKT Bedingungen benutzt werden, um die primale Lösung auszurechnen. Wir haben schon $w^*= \frac{1}{\lambda} \Sigma_{i=0}^N v_i^*y_ix_i$ erhalten.
Nun steht im Skript:
Basierend auf der Komplimentaritätsbedingungen haben wir:
$$u_i^* \geq0,  z_i^* \geq 0, u_i^* >0 \Rightarrow z_i^* = 0$$ $\textbf{Frage 1: Könntet Ihr mir bitte helfen,  wie man hier auf die strikte Ungleichung $u_i^* >0$ kommt. }$
Denn die Komplimentatirätsbedinung besagt ja:
$$u^*\geq 0, v^* \geq 0$$ $$\nabla_{u,v}L(w,b,z,u,v)^T(u,v)^* = 0 \Leftrightarrow \nabla_uLu^* = -z^Tu^* = 0, \nabla_vLv^* = \Sigma_{i=1}^N (1-z_i-y_i(w^Tx_i-b))^Tv^* = 0$$ wenn ich richtig gerechnet habe. Wie folgt daraus $u_i^*>0$?
Zusätzlich entnimmt das Skript aus der Komplimentatirätsbedinungen:
$$v_i^*\geq 0, 1-z_i^* - y_i((w^*)^T x_i - b^*) \leq0, v_i^* >0 \Rightarrow z_i^* = 1-y_i((w^*)^T x_i - b*) \geq 0.$$ Auch hier habe ich ähnliche Frage wie oben
$\textbf{Frage 2: Wieso gilt hier die strikte Ungleichung $v_i^*>0$}$?  Kann es sein, dass hier die Supportvektoren gemeint sind? Denn für diese gilt ja tatsächlich $v_i^* >0$

Meine letzte Frage bezieht sich auf die Berechnung von $z_i^*$. Im Skript stehen folgende Fallunterscheidungen:
$$ i\in \{j\in[N]:v_j^* = 0\} : z_i^* = 0 , 1- y_i((w^*)^Tx_i - b*) \leq0,\\
   i\in \{j\in[N]:v_j^* = \frac{1}{N}\} : z_i^* = 1- y_i((w^*)^Tx_i - b*) \geq 0$$ $\textbf{Frage 3:Meine Frage ist, wie man im ersten Fall auf $z_i^*=0$ kommt?}$ Ich kann das aus keinem der Regeln herleiten. Dabei ist die zweite für mich sinnhaft, dann wenn $v_i^*\neq0$ dann muss $1-z_j^* - y_i((w^*)^Tx_i-b^*)\geq0$ sein.
Ich weiß, dass diese Frage sehr lang geworden ist, aber ich müsste die Vorinformationen da mit reinpacken. Ich wäre für jegliche Hilfe wirklich sehr dankbar

Grenzwerte
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Klein-o-Notation  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-10
mbInfoStudent
J

Kann jemand bei der Zusatzfrage helfen?

Grenzwerte
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Klein-o-Notation  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-10
mbInfoStudent
J

Hallo, ich hätte noch eine Frage diesbezüglich:
Ich weiß, dass das folgende gilt:
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| \in o(\|x^{k+1} - x^k\|)$$ da
$$\lim_{k\to \infty} \frac{\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\|}{\|x^{k+1} - x^k\|} =\lim_{k\to \infty} \|M_k -F'(\hat{x})\|=0$$ da $M_k \to F'(\hat{x})$.
Da nun wie oben erwähnt auch gilt $x^k \to \hat{x}$, wäre auch nicht folgende Aussage richtig:
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| \in o(\|M_k -F'(\hat{x})\|)$$ da

$$\lim_{k\to \infty} \frac{\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\|}{\|M_k -F'(\hat{x})\|} =\lim_{k\to \infty} \|x^{k+1}-x^k\|=0$$
Ist diese Aussage richtig?

Grenzwerte
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Klein-o-Notation  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-08
mbInfoStudent
J

Danke für die Antwort.
Dann würde ich basierend auf deine Aussage nochmal versuchen zu verstehen, was die folgende Aussage bedeutet:
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| = o(\|x^{k+1} - x^k\|)$$ Basierend auf deine Antwort ist das äquivalent zu:
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| \in o(\|x^{k+1} - x^k\|)$$ wäre das äquivalent zu:
$$\lim_{k\to \infty} \frac{\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\|}{\|x^{k+1} - x^k\|}=0$$ Ist das korrekt?

Eine zweite Frage habe ich auch zu deiner Antwort:
2020-09-07 23:09 - Kitaktus in Beitrag No. 1 schreibt:
Man muss dabei aber immer im Hinterkopf behalten, dass bei solchen "Gleichungen" nicht mehr alle "üblichen Regeln" gelten.


Welche "üblichen Regeln" gelten nicht mehr in diesem Fall?

Grenzwerte
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Klein-o-Notation  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-07
mbInfoStudent
J

In einem Buch habe ich die folgende Aussage:
Die erzeugte Folge $(x^k)$ und $(M_k)$ (wobei $x^k\in \mathbb{R^n}, M_k\in \mathbb{R^{n\times n}}$) gelte $x^k \to \hat{x}$ und $M_k \to F'(\hat{x})$. Dann ergibt sich:
$$\|(M_k -F'(\hat{x}))(x^{k+1} - x^k)\| \leq \|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| = o(\|x^{k+1} - x^k\|)$$ wobei $\|M_k -F'(\hat{x})\| \to 0$ für $k\to \infty$

Meine Frage bezieht sich auf die Gleichung:
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| = o(\|x^{k+1} - x^k\|)$$ Ich würde gerne verstehen, was hier die Definition von der o-Notation ist, dass somit diese Gleichung zustande kommt.
Denn die o-Notation laut Wikipedia hat die folgende Definition:
$$f\in o(g) \Leftrightarrow \lim_{x\to a}\|\frac{f(x)}{g(x)}\|=0$$ Jedoch kann ich diese Defintion auf die genannte Gleichung übertragen. In der Gleichung wird ja nirgends eine $\in$ Relation erwähnt.
Wieso gilt also
$$\|M_k -F'(\hat{x})\|\|x^{k+1}-x^k\| = o(\|x^{k+1} - x^k\|)$$ und wie ist die Definition von der o-Notation in diesem Fall?

Folgen und Reihen
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Superlineare Konvergenz einer Folge  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-07
mbInfoStudent
J

Danke dir.

Folgen und Reihen
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Superlineare Konvergenz einer Folge  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-07
mbInfoStudent
J

In meinem Buch gibt es den folgenden Satz:
Sei $F:\mathbb{R}^n\to\mathbb{R}^n$ stetig differenzierbar und $\hat{x} \in \mathbb{R}^n$ ein Punkt, in dem $F'(\hat{x})$ invertierbar ist. Weiter sei $(x^k)$ eine Folge, die gegen $\hat{x}$ konvergiert. Es gelte $x_k \neq \hat{x}, \forall k$. Dann sind die folgenden Aussagen äquivalent:
(a) $(x^k)$ konvergiert q-superlinear gegen $\hat{x}$ und es gilt $F(\hat{x})=0$.
(b) $\|F(x^k) + F'(\hat{x})(x^{k+1} - x^k)\| = o(\|x^{k+1} - x^k\|).$

Nun kommt in dem Beweis folgendes vor, was ich nicht nachvollziehen kann:
(a) => (b): Wegen (a) gibt es ein $l\geq 0$ mit:
$$\|x^k-\hat{x}\| \leq \|x^{k+1} - x^k\| + \|x^{k+1} - \hat{x}\| , \forall k\geq l$$
Ich verstehe nicht, warum diese Ungleichung gilt. Eine superlineare Konvergenz heißt ja nur, dass es eine Nullfolge $\epsilon^k$ gibt, so dass gilt
$$\|x^{k+1} - \hat{x}\| \leq \epsilon^k \|x^k - \hat{x}\|$$ Und es ist klar, da ja $(x^k)$ gegen $\hat{x}$ konvergiert, dass gilt:
$$\|x^k-\hat{x}\| \leq  \|x^{k+1} - \hat{x}\|$$ Wie kommt man aber auf die Ungleichung :
$$\|x^k-\hat{x}\| \leq \|x^{k+1} - x^k\| + \|x^{k+1} - \hat{x}\|$$

Ungleichungen
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Oberschranke für positiv definite Matrix  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-06
mbInfoStudent
 

Danke für die Tipps, aber ich hänge immer noch fest.
Was ich weiß:
Ist $\lambda$ Eigenwert von $\nabla^2f(x)$, dann ist $\frac{1}{\lambda}$ der entsprechende Eigenwert für denselben Eigenvektor von $\nabla^2f(x)^{-1}$. Somit folgt, dass wenn $\mu < \lambda_{min}$ von $\nabla^2f(x)$, dann ist $\frac{1}{\mu} > \lambda_{max}$ von $\nabla^2f(x)^{-1}$.
Da symmetrische Matrix orthogonal diagonalisierbar ist, gilt, dass die Eigenwerte von $A$, die Diagonaleinträge von $D$ sind, mit $D=S^TAS$, wobei $S$ eine orthogonale Matrix ist.
Ich kann aber zwei Zusammenhänge noch nicht erkennen:
1. Zusammenhang zwischen $A$ und $A^TA$.
2. Laut dem Satz was du erwähnt hast, gilt für $\forall v \in \mathbb{R}^n$ :$\|Av\|\leq \sqrt{\lambda_{max}}\|v\|$, womit gilt $\|A^{-1}v\|\leq \sqrt{\frac{1}{\lambda_{min}}}\|v\|$. Aber daraus folgt ja nicht $\|A^{-1}v\|\leq {\frac{1}{\lambda_{min}}}\|v\| $?

Ungleichungen
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Oberschranke für positiv definite Matrix  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-06
mbInfoStudent
 

Hallo @Nuramon, ich leider nicht wie ich von $\lambda_{max\{A^TA\}}$ auf $\lambda_{min{A}}$ schließen kann.
Denn seie $\lambda' := \lambda_{max\{\nabla^2f(x)^{-T}\nabla^2f(x)^{-1}\}}$ und $\lambda_{min}$ der kleinste Eigenwert von $\nabla^2f(x)^{-1}$ (aber nicht von  , dann folgt nach dem von Ihnen genannten Satz:
$$\|\nabla^2f(x)^{-1}\nabla f(x)\|\leq \sqrt{\lambda'}\nabla \|f(x)\|$$
Aber ich sehe nicht wie ich von $\lambda'$, was der größte Eigenwert von $A^TA$ ist, auf $\lambda_{min}$ was der kleinste Eigenwert von $A$ ist, schließen kann.

Ungleichungen
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Oberschranke für positiv definite Matrix  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-06
mbInfoStudent
 

In meinem Buch kann ich eine Ungleichung in einem Beweis nicht nachvollziehen:
Seie $f$ eine Funktion, wobei $\nabla^2f(x)$ positiv definit ist, mit $\lambda_{min}(\nabla^2 f(x))>\mu$ (wobei $\lambda_{min}=$kleinster Eigenwert). Nun ist die folgende Ungleichung gegeben:
$$\|\nabla^2f(x)^{-1}\nabla f(x)\| \leq \frac{1}{\mu}\|\nabla f(x)\|$$ Ich weiß, dass $\|\nabla^2f(x)^{-1}$ auch pos. definit ist und somit gilt:
$$\|\nabla f(x)^T\nabla^2f(x)^{-1}\nabla f(x)\| > 0, \forall x\neq 0$$ Ich denke (bin mir nicht aber sicher), dass auch gilt:
$$\|\nabla^2f(x)^{-1}\nabla f(x)\| \geq \lambda_{min}(\nabla^2 f(x))\nabla f(x) > \mu \nabla f(x)$$.
Ich komme aber nicht auf:
$$\|\nabla^2f(x)^{-1}\nabla f(x)\| \leq \frac{1}{\mu}\|\nabla f(x)\|$$ Kann mir jemand kurz auf die Sprunge helfen?

Numerik & Optimierung
Universität/Hochschule 
Thema eröffnet von: mbInfoStudent
Strikt konvexe Funktion  
Themenstart
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-05
mbInfoStudent
J

In einem Buch habe ich den folgenden Paragraph:
Sei $\hat{x} \in \mathbb{R}^n$ ein lokales Minimum von $f$, in dem die hinreichenden Bedingungen zweiter Ordnung gelten (d.h. $\nabla f(\hat{x})=0$ und $\nabla^2 f(\hat{x})$ positiv definit). Dann gibt es ein $\epsilon > 0$, so dass $\nabla^2 f(x)$ positiv definit auf $B_{\epsilon}(\hat{x})$ ist.
Sei $q_k$: $q_k(s)=\nabla f(x)^Ts+\frac{1}{2}s^T\nabla^2f(x^k)s$
Für $x^k\in B_{\epsilon}(\hat{x})$ ist somit $q_k$ streng konvex.

Ich verstehe nicht, warum $q_k$ in $B_{\epsilon}(\hat{x})$ streng konvex sein soll.
Es gibt in der Optimierung das Lemma, dass wenn $\nabla^2 f(x)$ pos. def. ist, dann ist $f$ streng konvex. Aber ich verstehe nicht warum $q_k(s)=\nabla f(x)^Ts+\frac{1}{2}s^T\nabla^2f(x^k)s$ streng konvex sein soll.
Kann mir jemand da weiterhelfen?
 

Sie haben sehr viele Suchergebnisse
Bitte verfeinern Sie die Suchkriterien

[Die ersten 20 Suchergebnisse wurden ausgegeben]
Link auf dieses Suchergebnis hier
(noch mehr als 20 weitere Suchergebnisse)

-> [Suche im Forum fortsetzen]
 
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2020 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]

used time 0.04912