Suchwörter   (werden UND-verknüpft)
Keines der folgenden   keine eigenen Beiträge
Name des Autors 
resp. Themenstellers 

nur dessen Startbeiträge
auch in Antworten dazu
Forum 
 Suchrichtung  Auf  Ab Suchmethode  Sendezeit Empfehlungbeta [?]
       Die Suche erfolgt nach den angegebenen Worten oder Wortteilen.   [Suchtipps]

Link auf dieses Suchergebnis hier

Forum
Thema Eingetragen
Autor

Strukturen und Algebra
Universität/Hochschule 
Thema eröffnet von: Phoensie
Isomorphie der Diedergruppe  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-12 10:54
hippias
J

Suche eine $3$-elementige Menge $X$, auf der $D_{6}$ operiert (Tip: $X$ kann als Teilmenge von $D_{6}$ gewählt werden). Die Operation induziert einen Homomorphismus $:D_{6}\rightarrow S(X)\simeq S_{3}$. Mache das ganze so geschickt, dass dieser Homomorphismus injektiv ist - das ist es, was ich mit treu meinte. Dann folgt leicht, dass $D_{6}\simeq S_{3}$.

Strukturen und Algebra
Universität/Hochschule 
Thema eröffnet von: Phoensie
Isomorphie der Diedergruppe  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-09 12:46
hippias
J

Der Ansatz ist valide, aber, wie schon bemerkt, etwas fummelig in der Durchführung.

Mein Gegenvorschlag: finde eine geeignete $3$-elementige Menge, auf der $D_{6}$ treu operiert; dann kann man die Behauptung leicht folgern.

Eigenwerte
Universität/Hochschule 
Thema eröffnet von: X3nion
Koeffizienten Minimalpolynom  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-06 16:19
hippias
J

Diesen Gedankengang habe ich aus dem 1. Beitrag nicht herausgelesen; wenn es von Xenion so gemeint war, bitte ich wegen der heißen Luft um Entschuldigung.
Jedoch ist dann Xenions Überlegung hinsichtlich des Imaginärteils unverständlich.

Eigenwerte
Universität/Hochschule 
Thema eröffnet von: X3nion
Koeffizienten Minimalpolynom  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-06 15:45
hippias
J

Ja, hier sind die Grade gleich; aber warum?

Sei $\mu_{\mathbb{C}}$ das Minimalolynom von $A$ uber $\mathbb{C}$ und
sei $\mu_{\mathbb{R}}$ das Minimalolynom von $A$ uber $\mathbb{R}$.

Mache Dir klar, dass $\mu_{\mathbb{R}}$ von $\mu_{\mathbb{C}}$ geteilt wird, also $grad(\mu_{\mathbb{C}})\leq grad(\mu_{\mathbb{C}})$ gilt.

Damit sollte Dein ursprüngliches Argument, mit leichten Modifikationen, zum Erfolg führen.

Eigenwerte
Universität/Hochschule 
Thema eröffnet von: X3nion
Koeffizienten Minimalpolynom  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-06 14:55
hippias
J

Deine Überlegungen sind zielführend, aber
2020-10-06 13:10 - X3nion im Themenstart schreibt:
[...] und es folgt, dass
$\mu_{A_{R}}:= T^r + a_{r-1}T^{r-1} + ... + a_1T + a_0$ ein Minimalpolynom in $\mathbb{R}[T]$ ist, denn das Polynom ist normiert und hat Grad r, A hat nur reelle Einträge, d.h. es gilt $A \in M_{nn}(\mathbb{R})$, und es gilt $\mu_{A_{R}}(A) = 0$.
[...]
ist nicht in Ordnung: nicht jedes normierte Polynom, das $A$ annulliert, ist ein Minimalpolynom von $A$; dazu müsstest Du Dir nocheinmal Gedanken machen.
Was lässt sich über die Grade der Minimalpolynome von $A$ über $\mathbb{C}$ und $\mathbb{R}$ sagen?

Gruppen
Universität/Hochschule 
Thema eröffnet von: Phoensie
Gruppentheorie: Auflösbarkeit einer Produktmenge  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-03 17:18
hippias
J

Sofern bekannt ist, dass
1. homomorphe Bilder von auflösbaren Gruppen auflösbar sind
2. eine Gruppe $X$ genau auflösbar ist, wenn es einen auflösbaren Normalteiler $N$ von $X$ gibt, sodass $X/N$ auflösbar ist
dann kann man sich das Rechnen mit Subnormalreihen ersparen.

Ringe
Universität/Hochschule 
Thema eröffnet von: X3nion
Integritätsbereich und Abbildungen  
Beitrag No.6 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-10-01 09:20
hippias
J

(2020-10-01 02:04 - PrinzessinEinhorn in <a

Haben wir also eine endliche Menge $M$ und eine injektive Funktion $f: M\to M$

Dann bedeutet dies, dass es eine natürliche Zahl $n$ gibt, mit $f^n=f$.
Wobei $f^n:=\underbrace{f\circ\dotso\circ f}_{\text{n-mal}}$
Zu dieser - schönen -  Beweisidee möchte ich kurz anmerken, falls es nicht sowieso schon klar ist, dass die Endlichkeit der Menge $\{f^{n}|n\in \mathbb{N}\}$ ersteinmal nur die Existenz von verschiedenen $k,l\in\mathbb{N}$ impliziert, sodaß $f^{k}= f^{l}$ gilt. Daß eine dieser Zahlen $=1$ gewählt werden kann, ergibt sich aus der Injektivität.  

Erfahrungsaustausch
  
Thema eröffnet von: hippias
Gedanken zur Vor-Abi-Prüfung  
Beitrag No.44 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-25 08:41
hippias
 

Was soll ich sagen: ich bin richtig erleichtert, dass meine - böse
-Kritik hier durch abweichende Definitionen geklärt werden kann; wenn
ich sie auch nicht schätze. Ich füge aber auch noch die Definition aus
Lambacher Schweizer, einem Standardwerk in SH, an, die mit der
Heuser'schen übereinstimmt - hier muss also noch Überzeugungsarbeit geleistet werden.
Natürlich sind die Authoren nicht konsequent: so schreiben sie "Ein globales Extremum in einer Randstelle von $I$ nennt man Randextremum". Also sind Randextrema per Definition global. In der Skizze jedoch wird das nicht globale $H_{1}$ als Randmaximum bezeichnet!

Wie sieht es denn innerhalb der Lehrerschaft aus: wird die, um nicht
nur mit Heuser zu sprechen, unnatürliche Definition von global und
lokal uneingeschränkt akzeptiert? Immerhin dürfte diese
Schul-Definition ja von der im Studium gelernten abweichen.

Für den Schulunterricht stellt sich mir die Frage, wie das Thema
gelehrt wird. Denn es kann doch spätestens seit der Zentralisierung von
Prüfungen nicht der Willkür der Lehrkraft unterliegen, wie die Begriffe
definiert werden, wie mein Beispiel zeigt.

@Caban
Das hieße wohl eine Aussage wie

Sie ist die beste Rechnerin der Schule, also ist sie die beste
Rechnerin in ihrer Klasse.

nicht als natürlich (Heuser), sondern als verwirrend zu bezeichnen.

@Kitakus
Daß Definitionen in der Mathematik nicht einheitlich sind, gerade bei
solchen grundlegenden Begriffen, deckt sich mit meiner Erfahrung nicht
gut. Es wäre auch nicht im Einklang mit der von Dir geforderten
Verwendung der "gültigen" Definitionen. Gerade deshalb sollte es
möglichst keine Willkür geben.

Der Härte meiner Kritik bin ich mir bewußt - und Dein Ratschlag nicht
unerbeten. Es ist tatsächlich nicht meine Art, aber die Länge und
Vermeidbarkeit der hier gesammelten Fehlleistungen, auch die sich in
direkten Gesprächen mit einigen Lehramtsstudenten offenbarte
Mathematikverständnis, bewegt mich - dezent formuliert.

Meine Ableitung der Unkenntnis des Unterschieds zwischen
vorzeichenlosen Flächeninhalten und dem bestimmten Integral beruht auf
der verwendeten Überschrift und der nachfolgend präsentierten Rechnung.
Die Formulierung der zugehörigen Übungen tut ein übriges. Betrachte ich
den Zettel, kann ich zu keinem anderen Schluss kommen. Vielleicht
beruht die Gleichung
$\int_{1}^{4}−x^2+2x+3dx=|\int_{1}^{3}−x^2+2x+3dx|+|\int_{3}^{4}−x^2+2x+3dx|$
auch auf der Lehrkraft eigenen Definition des Integrals -
Uneinheitlichkeit sei Dank? In einer nicht von dieser Lehrkraft selber
durchgeführten Prüfung wäre die Chance gut damit durchzufallen.

Und man versetzte sich einmal in die Eltern eines so unterrichteten
Kindes. Wenn man so etwas in dem Schulheft des eigenen Kindes sehen
würde, muß man doch das Schlimmste befürchten. Und wenn das Kind sich
nicht an die "Konvention" orientierter Flächeninhalt der Lehrkraft
halten will, dann gibt es eine schlechte Note?



Zahlentheoretische Funktionen
Universität/Hochschule 
Thema eröffnet von: LukasNiessen
Formel zur eulerschen Phi-Funktion beweisen  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-23
hippias
J

Sieht mir sehr umständlich aus. Mein Vorschlag: Zeige zuerst, dass die Formel für Potenzen von Primzahlen gilt; dann benutze die Primfaktorzerlgung von $n$.

Erfahrungsaustausch
  
Thema eröffnet von: hippias
Gedanken zur Vor-Abi-Prüfung  
Beitrag No.40 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-23
hippias
 

Moin Kuestenkind,
ja, nach dieser Definition ist ein lokales Extremum per Definition ein innerer Punkt. Aber warum sollte man dies fordern? Schlage ich bei Wiki nach oder beispielsweise Heuser: Analysis 1, so wird dies nicht gefordert.
Er schreibt sogar explizit: "Ein globales Extremum ist nat\"urlich erst recht auch ein lokales Extremum."

Da kann ich aus sprachlichen und Vernunft-Gr\"unden nur beipflichten.  Legt man aber die Definition aus Deinem Schulbuch zugrunde, so w\"are ein globales Extremum nicht unbedingt lokal.

Fakt ist: wenn die von Dir gezeigte Definition verwendet wird, dann ist die von mir als falsch kritisierte Aussage in der Abituraufgabe tats\"achlich richtig.

Ich w\"usste aber schon gerne, wie man eine solche Definition rechtfertigt. Insbesondere, da sie von den gebr\"auchlichen (Wiki, Heuser, meine Ana. 1 Vorlesungsmitschrift) abweicht. Ich interessiere mich, ob ich weitere Beispiele f\"ur untereinander abweichende Definitionen von Extremstelle finde.

P.S. Die - bei mir übliche - schlechte Bildqualit\"at m\"oge man mir nachsehen: mir gen\"ugt es, wenn es lesbar ist; es geht ja um keinen offiziellen Anlass.


Erfahrungsaustausch
  
Thema eröffnet von: hippias
Gedanken zur Vor-Abi-Prüfung  
Beitrag No.38 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-22
hippias
 

2020-09-21 11:17 - Kitaktus in Beitrag No. 36 schreibt:
@[...]


Übrigens:
Im Themenstart wird die "fehlerhafte" Aufgabe 2. erwähnt. Dort mit der Formulierung: "kein Tiefpunkt".
In Beitrag #16 steht dann die Original-Aufgabe. Da heißt es allerdings "kein lokales(sic!) Minimum". Ich habe lange nicht verstanden, was Du an dieser Aufgabe auszusetzen hast. Du willst darauf hinaus, dass eine stetige Funktion auf einem abgschlossenen Intervall immer irgendwo ein Minimum annimmt, dass die Funktion auf dem Intervall [0, 10] also sehr wohl ein Minimum besitzt, richtig?
Wenn ja, dann verstehe ich, warum ich hier gar keinen Fehler "sehe". Bei uns wurden Randminima gar nicht als "lokale" Minima bezeichnet. Das ist dann eine Frage der Definition von "lokales Minimum". Ohne die hier konkret zu Grunde liegende Definition zu kennen, kann man also kein Urteil fällen.

[Selbstauskunft: Die erste Version dieses Textes enthielt fünf offensichtliche Fehler -- Irren ist menschlich!]
Danke für die Rückmeldung, insbesondere zum Thema Randextremum. Könntest Du mir sagen, was Du mit "bei uns sind Randextrema keine lokalen Extrema" meinst? Wer ist dabei "wir" und kannst Du eine Quelle für eine solche Definition bzw. ihren genauen Wortaut angeben?

Mir ist nämlich keine bekannt, in der zwischen diesen Fällen unterschieden wird; es erscheint mir auch nicht sinnvoll. Im Lambacher-Schweizer, ein in SH übliches Lehrbuch an Schulen, macht diese Unterscheidung nicht, ebenso nicht Wikipedia.

Die Möglichkeit, daß abweichende Definitionen von Extremum die Ursache des von mir kritisierten Fehlers sein könnten, hatte ich damals in Erwägung gezogen, konnte aber eben keinen Hinweis darauf finden.

Tatsächlich hat dieser Fehler die meiste Überzeugungsarbeit an das Institut für Qualitätssicherung meinerseits gefordert. Während des Dialogs hatte ich den Eindruck gewonnen, daß lehrerseits der Unterschied zwischen innerem Randextremum und Randextremum nicht ganz verstanden ist. Die Begiffspaare lokales und globales Extremum haben mit den Begriffspaaren inneres Extremum und Randextremum nichts zu tun.

Erfahrungsaustausch
  
Thema eröffnet von: hippias
Gedanken zur Vor-Abi-Prüfung  
Beitrag No.35 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-20
hippias
 

@willyengland
Und nun die Pointe: Ich bin Gymnasiallehrer im Fach Bilderdrehen und
Helligkeitsskalierung und mein Dateianhang die Musterlösung der letzten
Abiturprüfung.

@Kuestenkind
Meine Absicht ist auf einen von mir wahrgenommenen Mißstand aufmerksam
zu machen. Der Lehrerberuf scheint mir zu wichtig, als daß ich
die von mir dargebotenen Fehlleistungen einfach hinnehmen möchte. Ferner
interessiert es mich, ob das Problem auch anderswo zu beobachten ist.

Das ergibt sich auch aus meinen obigen Beiträgen.

Für Gefühle der Widerlichkeit, die angeblich beim Lesen dieses Fadens
entstanden sind, muß ich wohl um Verzeihung bitten, wenn ich diese
Reaktion auch für stark übertrieben halte.
Mathematik hat mein Leben SEHR bereichert. Diesen Umstand verdanke ich
nicht gering meinem Oberstufenmathematiklehrer. Wäre er ein
inkompetenter Lehrer gewesen, der die Grundbegriffe der Disziplin nicht
beherrscht, hätte ich mich möglicherweise einem anderen Gebiet
zugewandt, was mir aus meiner heutigen Sicht bedauernswert
erschiene. Daher mein Schlusskommentar. Schlimm?

Daß auch ich Fehler mache, ist leider vielfach belegt; sicherlich auch
durch Beiträge auf dieser Seite.

Erfahrungsaustausch
  
Thema eröffnet von: hippias
Gedanken zur Vor-Abi-Prüfung  
Beitrag No.27 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-17
hippias
 

Berechnen Sie $\int_{0}^{3} (-x^2+1)dx$ !

Wer glaubt das Ergebnis der Rechnung sei $-6$, irrt. Eine Lehrerin eines schleswig-holsteinischen Gymnasiums klärt auf und zeigt im Anhang, wie man es endlich richtig macht.

Der Anhang zeigt aber auch sehr schön, daß man hierzulande offenbar Lehrkraft einer höheren Lehranstalt werden kann, ohne recht zu wissen, was der Unterschied zwischen Flächeninhalt und orientiertem Flächeninhalt ist; und trotzdem darüber lehren darf. Aus welche Untiefen eine Gleichung wie $\int_{1}^{4} -x^{2}+2x+3 dx= |\int_{1}^{3} -x^{2}+2x+3 dx|+|\int_{3}^{4} -x^{2}+2x+3 dx|$ (siehe 2. Aufteilen) hervorgekrochen ist, möchte ich gar nicht wissen. Meiner Ansicht nach ist sie ein gewichtiges Indiz dafür, daß die Begriffe Integral bzw. orientierter Flächeninhalt komplett unverstanden sind. Wie auch die nachfolgenden Übungen.

Das macht einen nachdenklich wie das Leben verlaufen wäre, wenn man so eine Mathematiklehrerin gehabt hätte.




Gruppen
Universität/Hochschule 
Thema eröffnet von: marcletzgus
Anzahl der Sylowgruppen bestimmen  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-10
hippias
 

2020-09-09 19:13 - marcletzgus in Beitrag No. 2 schreibt:
hallöchen :)

2020-09-09 10:33 - hippias in Beitrag No. 1 schreibt:

2020-09-08 19:16 - marcletzgus im Themenstart schreibt:
______________________________________________________________________

Sei $(G, \cdot)$ eine endliche Gruppe mit $\vert G \vert = p_{1}^{n_{1}} \cdot m_{1} = p_{2}^{n_{2}} \cdot m_{2} = p_{3} \cdot m_{3}$, wobei $p_{i} \nmid m_{i}$ und $n_{i}, m_{i} \in \mathbb{N}, p_{i} \in \mathbb{P}$.

Dann besitzt $G$ eine $p_{i}$ - Sylowgruppe. Sei $Syl_{p_{i}}(G)$ die Menge aller $p_{i}$ - Sylowgruppen von $G$. Dann gilt:

1) Für $s_{p_{j}} \in Syl_{p_{j}}(G)$ und $s_{p_{k}} \in Syl_{p_{k}}(G)$ gilt $s_{p_{j}}  \cap s_{p_{k}} = \{ e_{G} \}$.
Richtig, wenn $j\neq k$ vorausgesetzt wird; folgt sofort aus dem Satz von Lagrange.

2) Für $s_{p_{3}}, s'_{p_{3}} \in Syl_{p_{3}}(G)$ gilt $s_{p_{3}} \cap s'{p{3}} = \{ e_{G} \}$.
Diese Aussage ist i.a. falsch. Vielleicht läßt sich etwas retten, wenn Du die Aussage im Original zitierst.

3) Jedes Element von $s_{p_{j}} \in Syl_{p_{j}}(G)$ hat eine $p_{j}$ - Potenz als Ordnung.
Lagrange sagt: O.K.

______________________________________________________________________


Zu 1) Oh klar, natürlich. Ich meine $j \neq k$.

Zu 2) Die Aussage lautet: "Zwei verscheden $p$ - Sylowgruppen der Ordnung $p$ schneiden sich trivial". Diese Aussage habe ich versucht mathematisch aufzuschreiben. Wo liegt mein Fehler ?
Kein Fehler; für Sylowgruppen mit Primordnung ist die Behautung wahr.



2020-09-09 10:33 - hippias in Beitrag No. 1 schreibt:
2020-09-08 19:16 - marcletzgus im Themenstart schreibt:

Fall 1: $\vert Syl_{2}(G) \vert = 1$.

Wenn es eine $2$ - Sylowgruppe $s_{2}$ gibt, dann hat diese $2^{3} = 8$ Elemente. Zudem haben wir eine $5$ - Sylowgruppe $s_{5}$. Diese hat $5^{1} = 5$ Elemente.Es gilt $s_{2} \cap s_{5} = \{  e_{G}\}$. Also hat $s_{2} \cup s_{5}$ 12 Elemente. Unsere Gruppe hat 40 Elemente, also ist dieser Fall möglich.
Eine Gruppe ist i.a. nicht Vereinigung seiner Sylowgruppen; dieser Schluss ist also falsch.




Mir geht es nicht darum, ob die Vereinigung der Sylowgruppen einer Gruppe die Gruppe selbst ergibt.

Mit der Vereinigung wolle ich klar machen, dass diese Sylowgrupen zusammen insgesamt nur 12 Gruppenelemente einnehmen, so dass noch 28 Gruppenlemente verfügbar sind. Damit haben wir kein Problem, dass nicht genügend Gruppenelemente verfügbar sind für die Sylowgruppen.
O.K. da habe ich nicht aufmerkam gelesen; öfter werden solche Überlegungen verwendet, um zu zeigen, dass eine bestimmte Sylowstruktur nicht möglich ist.



2020-09-09 10:33 - hippias in Beitrag No. 1 schreibt:
2020-09-08 19:16 - marcletzgus im Themenstart schreibt:

Versuche für beide Fälle ein Beispiel anzugeben; bereits behandelte Beispiele könnten dabei hilfreich sein.





Mache ich!

Wünsche dir einen schönen Abend,

Marc

Gruppen
Universität/Hochschule 
Thema eröffnet von: marcletzgus
Anzahl der Sylowgruppen bestimmen  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-09
hippias
 

2020-09-08 19:16 - marcletzgus im Themenstart schreibt:
Hey! Ich rechne eine Aufgabe zu Sylowsätzen durch und bin mir über meine Ansätze unsicher (beschäftige mich zum ersten Mal damit).

Zunächst die Aufgabe:

Sei $G$ eine Gruppe.Bestimmen Sie mithilfe der Sylowsätze für

$i)$ $\vert G \vert = 40$
$ii)$ $\vert G \vert = 56$

die Anzahl der $p$ - Sylowgruppen für alle Primteiler $p \in \mathbb{P}$ der Gruppenordnung.

Ansatz bisher zur a):

Man bestimme zunächst die Primfaktorzerlegung der $40$. Es ist $40 = 2^{3} \cdot 5$. Die Gruppe $G$ hat also nur die $2$ - Sylowgruppen und die $5$ - Sylowgruppen. Nach dem 3. Sylowsatz ergibt sich für die Anzahl der Menge aller $5$ - Sylowgruppen $Syl_{5}(G)$ von $G$: $\vert Syl_{5}(G) \vert$ teilt $40$ und $\vert Syl_{5}(G) \vert \equiv 1\; $ mod $5$. Daraus folgt $\vert Syl_{5}(G) \vert = 1$.
Nach dem 3. Sylowsatz ergibt sich für die Anzahl der Menge aller $2$ - Sylowgruppen $Syl_{2}(G)$ von $G$: $\vert Syl_{2}(G) \vert$ teilt $40$ und $\vert Syl_{2}(G) \vert \equiv 1\; $ mod $2$. Daraus folgt $\vert Syl_{2}(G) \vert \in \{ 1, 5 \}$.
Soweit ist alles gut gemacht.

Und jetzt geht es darum, zu entscheiden, ob $\vert Syl_{2}(G) \vert = 1$ oder $\vert Syl_{2}(G) \vert = 5$ gilt.
Es können auch beide Fälle möglich sein... in diesem Falle soll je ein Beispiel für eine Gruppe mit der entsprechenden Sylowstruktur angegeben werden. Beispielsweise ist die symmetrische Gruppe auf $3$ Objekten ein Beispiel für eine Gruppe mit $6$ Elementen mit $s_{2}=3$ und $s_{3}=1$; aber es gibt auch eine abelshe Gruppe mit $6$ Elementen, für die $s_{2}= s_{3}=1$ gilt.

Doch davor habe ich im Internet ein paar Eigenschaften zu Sylowgruppen recherchiert, die in der Vorlesung nicht behandelt wurden, aber anscheinend vorausgesetzt werden.

Ich habe versucht, diese Eigenschaften in einem Satz zu packen. Ist er so in Ordnung ?

______________________________________________________________________

Sei $(G, \cdot)$ eine endliche Gruppe mit $\vert G \vert = p_{1}^{n_{1}} \cdot m_{1} = p_{2}^{n_{2}} \cdot m_{2} = p_{3} \cdot m_{3}$, wobei $p_{i} \nmid m_{i}$ und $n_{i}, m_{i} \in \mathbb{N}, p_{i} \in \mathbb{P}$.

Dann besitzt $G$ eine $p_{i}$ - Sylowgruppe. Sei $Syl_{p_{i}}(G)$ die Menge aller $p_{i}$ - Sylowgruppen von $G$. Dann gilt:

1) Für $s_{p_{j}} \in Syl_{p_{j}}(G)$ und $s_{p_{k}} \in Syl_{p_{k}}(G)$ gilt $s_{p_{j}}  \cap s_{p_{k}} = \{ e_{G} \}$.
Richtig, wenn $j\neq k$ vorausgesetzt wird; folgt sofort aus dem Satz von Lagrange.

2) Für $s_{p_{3}}, s'_{p_{3}} \in Syl_{p_{3}}(G)$ gilt $s_{p_{3}} \cap s'{p{3}} = \{ e_{G} \}$.
Diese Aussage ist i.a. falsch. Vielleicht läßt sich etwas retten, wenn Du die Aussage im Original zitierst.

3) Jedes Element von $s_{p_{j}} \in Syl_{p_{j}}(G)$ hat eine $p_{j}$ - Potenz als Ordnung.
Lagrange sagt: O.K.

______________________________________________________________________


Fall 1: $\vert Syl_{2}(G) \vert = 1$.

Wenn es eine $2$ - Sylowgruppe $s_{2}$ gibt, dann hat diese $2^{3} = 8$ Elemente. Zudem haben wir eine $5$ - Sylowgruppe $s_{5}$. Diese hat $5^{1} = 5$ Elemente.Es gilt $s_{2} \cap s_{5} = \{  e_{G}\}$. Also hat $s_{2} \cup s_{5}$ 12 Elemente. Unsere Gruppe hat 40 Elemente, also ist dieser Fall möglich.
Eine Gruppe ist i.a. nicht Vereinigung seiner Sylowgruppen; dieser Schluss ist also falsch.


Fall 2: $\vert Syl_{2}(G) \vert = 5$.

Wenn es 5 $2$ - Sylowgruppe $s_{{i}_{2}}$ $(i = 1, \ldots, 5)$ gibt, dann haben diese $2^{3} = 8$ Elemente.Es kann $\bigcap\limits_{i = 1}^{5} s_{{i}_{2}} = \{ e_{G} \}$ oder $\bigcap\limits_{i = 1}^{5} s_{{i}_{2}} \neq \{ e_{G} \}$ gelten. Es können also maximal $36$ Elemente geben, die in $a:= \bigcup\limits_{i = 1}^{5} s_{i_{2}}$ liegen. Zudem haben wir eine $5$ - Sylowgruppe $s_{5}$. Diese hat $5^{1} = 5$ Elemente.Es gilt $a \cap s_{5} = \{  e_{G}\}$. Für $s_{5}$ bleiben nur noch $4$ Gruppenelemente übrig, was ja gegeben ist ohne  $e_{G}$. Also kann dieser Fall auch eintreten.


Damit kann man nicht entscheiden, ob $\vert Syl_{2}(G) \vert = 1$ oder $\vert Syl_{2}(G) \vert = 5$ gilt.

Ist mein Ansatz bis jetzt korrekt oder habe ich vllt irgendwo eine Denkfehler ?
Versuche für beide Fälle ein Beispiel anzugeben; bereits behandelte Beispiele könnten dabei hilfreich sein.


Liebe Grüße

Determinanten
Universität/Hochschule 
Thema eröffnet von: X3nion
Laplace'scher Entwicklungssatz  
Beitrag No.8 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-09-03
hippias
 

2020-09-03 01:28 - X3nion in Beitrag No. 6 schreibt:
Hallo hippias,

wie in der PM an dich bereits geschrieben, war ich total baff, als ich deinen Beweis gelesen habe. Hut ab, Respekt und Chapeau!
Einen Preis für diesen Beweis gibt es sicher nicht... Wenn ich Beweisschritte mit den aufgemalten Matrizen nicht verstanden habe, habe ich immer versucht es "richtig" mit den entsprechend definierten Matrizen zu machen. Der Preis für die Genauigkeit ist ein deutlich höherer Aufwand, wie man sieht.

Ich habe noch die ein oder andere Frage:



Nun muss der Zusammenhang zwischen <math>sgn(\sigma)</math> und <math>sgn(\sigma^{\phi_{i}^{j}})</math> untersucht werden.

Dabei verwende ich die Charakterisierung mit Hilfe der Fehlstellungen von <math>\sigma</math> an Stelle der Transpositionen.  Sei <math>\tau\in S_{n}</math>. Definiere
<math>\displaystyle Fehl(\tau)= \{(x,y)\in I_{n}^{2}| x<y, x^{\tau}> y^{\tau}\}.</math> Dann gilt <math>sgn(\tau)= (-1)^{|Fehl(\tau)|}</math>.

Das ist bekannt und/oder leicht beweisbar.
Ja den Satz und Beweis kenne ich!


Sei nun <math>\sigma\in S_{n-1}</math>.

1. Die Abbildung <math>Fehl(\sigma)\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x,y\neq i\}</math>, <math>(x,y)\mapsto (x^{\iota_{i}},y^{\iota_{i}})</math> ist bijektiv.

Ersteinmal sind nach Definition <math>x^{\iota_{i}},y^{\iota_{i}}\neq i</math> und die Abbildung ist injektiv, da <math>\iota_{i}</math> dies ist. Sei <math>(a,b)</math> in der rechten Menge.
Insbesondere ist <math>a<b</math>. Dann gilt nach Definition von <math>\phi_{i}^{j}</math>, da\ss
\[
 a^{\sigma^{\phi_{i}^{j}}}> b^{\sigma^{\phi_{i}^{j}}}\iff a^{\iota_{i}^{-1}\sigma\iota_{j}}> b^{\iota_{i}^{-1}\sigma\iota_{j}}
\] Da <math>\iota_{j}</math> monoton steigend ist, folgt
\[
 a^{\iota_{i}^{-1}\sigma}> b^{\iota_{i}^{-1}\sigma}
\] Wegen <math>a<b</math> und der Monotonie von <math>\iota_{i}^{-1}</math> ist <math>a^{\iota_{i}^{-1}<}b^{\iota_{i}^{-1}}</math>. Folglich ist <math>(a^{\iota_{i}^{-1}},b^{\iota_{i}^{-1}})\in
Fehl(\sigma)</math> und <math>(a^{\iota_{i}^{-1}},b^{\iota_{i}^{-1}})\mapsto (a,b)</math>.

Damit ist die Abbildung bijektiv.


Zeigst du hier einmal Injektivität und dann Surjektivität?
Ja.




2. Die Abbildung  <math>\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x=i\}</math>, <math>b\mapsto (i, b^{\iota_{i}})</math> ist
bijektiv.
Wohldefiniertheit: Wegen <math>b\geq i</math> folgt <math>y:= b^{\iota_{i}}>i=x</math>. Nach Definition ist \[(x^{\sigma^{\phi_{i}^{j}}}, y^{\sigma^{\phi_{i}^{j}}})= (j,
b^{\iota_{i}\iota_{i}^{-1}\sigma\iota_{j}})= (j, b^{\sigma\iota_{j}})\] Wegen <math>b^{\sigma}<j</math> folgt nach Definition von <math>\iota_{j}</math>, dass <math>b^{\sigma\iota_{j}}= b^{\sigma}</math>. Wegen <math>b^{\sigma}<j</math> ist somit <math>(x,y)\in
Fehl(\sigma^{\phi_{i}^{j}})</math>. Damit ist die Abbildung wohldefiniert.

Könntest du hier nochmal konkret erwähnen, was für die Wohldefiniertheit zu prüfen ist und die Schritte etwas ausführen?
Mit Wohldefiniertheit meine ich hier, dass <math>(i,b^{\iota_{i}})</math> tats\"achlich in der angegebenen Zielmenge enthalten ist; d.h. ich prüfe ob <math>(i,b^{\iota_{i}})\in Fehl(\sigma^{\phi_{i}^{j}})</math> und ob <math>x=i</math> ist (wobei letzteres natürlich trivial ist). Mancher könnte diese Untersuchung als überlfüssig abtun.




Die Injektivit\"at folgt aus der von <math>\iota_{i}</math>.

Könntest du auch diesen Schritt vielleicht näher ausführen?
Naja: Sei <math>(i,b^{\iota_{i}})= (i,c^{\iota_{i}})</math>. Zeige, dass <math>b=c</math> folgt...



Surjektivit\"at: Ist <math>(i,y)\in Fehl(\sigma^{\phi_{i}^{j}})</math>, so ist insbesondere <math>i<y</math> und <math>j>y^{\sigma^{\phi_{i}^{j}}}= y^{\iota_{i}^{-1}\sigma\iota_{j}}</math>.
Nach Definition von <math>\iota_{j}</math> folgt nun <math>j>y^{\iota_{i}^{-1}\sigma}</math>, sodass <math>b:= y^{\iota_{i}^{-1}}</math> das gew\"unschte liefert.

Was ist hier genau zu zeigen?
Zu zeigen ist: zu jedem <math>(i,y)\in Fehl(\sigma^{\phi_{i}^{j}})</math> gibt es <math>b</math> aus der linken Seite, sodass <math>(i,b^{\iota_{i}})= (i,y)</math>.


Wieso gilt <math>j > y^{\sigma^{\psi^{j}_{i}}}</math>?
Wegen <math>(i,y)\in Fehl(\sigma^{\phi_{i}^{j}})</math> gilt nach Defintion 1. <math>i<y</math> und 2. <math>i^{\sigma^{\phi_{i}^{j}}}> y^{\sigma^{\phi_{i}^{j}}}</math>. Nach Definition von <math>\sigma^{\phi_{i}^{j}}</math> gilt <math>i^{\sigma^{\phi_{i}^{j}}}=j</math>.

Und wieso liefert <math>b:= y^{l_{i}^{-1}}</math> das Gewünschte?

<math>b= y^{\iota_{i}^{-1}}</math> liegt in der rechten Menge und wird auf <math>(i,y)</math> abgebildet; dies beweist die Surjektivit\"at.


3. Die Abbildung  <math>\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|y=i\}</math>, <math>b\mapsto b^{\iota_{i}}</math> ist
bijektiv.
Dies ist v\"ollig analog zu 2.

Mit diesem 3 F\"allen sind alle M\"oglichkeiten von Fehlstellungen von <math>\sigma^{\phi_{i}^{j}}</math> ersch\"opft. Damit ist gezeigt, dass
\[
|Fehl(\sigma^{\phi_{i}^{j}})|= |Fehl(\sigma)|+|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|
\]

Wieso sind mit diesen 3 Fällen alle Möglichkeiten an Fehlstellungen erschöpft?
Mit den 3 F\"allen ist gemeint, dass entweder beide <math>x,y\neq i</math> sind oder <math>x=i</math> oder <math>y=i</math>. D.h. <math>Fehl(\sigma^{\phi_{i}^{j}})= \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x,y\neq i\}\dot{\cup} \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x= i\}\dot{\cup} \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|y= i\}</math>.



Nun kommt's! Da <math>\sigma</math> bijektiv ist, gilt offensichtlich
\[
 |\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+|\{c\in I_{n-1}|c< i, b^{\sigma}<j\}|= j-1
\] und
\[
 |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|+|\{c\in I_{n-1}|c< i, b^{\sigma}<j\}|= i-1
\] Daher ist
\[
 (-1)^{|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|}\]\[= (-1)^{|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+2|\{c\in
I_{n-1}|c< i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|}\]\[= (-1)^{i+j-2}= (-1)^{i+j}
\]

Diesen Schritt verstehe ich leider gar nicht. Könntest du ihn vielleicht erklären?
Achtung: mir ist ein Schreibfehler unterlaufen! In der zweiten Menge muss natürlich $c^{\sigma}<j$ statt $b^{\sigma}<j$ stehen.

Wenn Dich das <math>c</math> in der 2. Menge stört, dann denke Dir einfach stattdessen ein <math>b</math>. Rechne
<math>|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+|\{c\in I_{n-1}|c< i, c^{\sigma<j}\}|
= |\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}\cup\{c\in I_{n-1}|c< i, b^{\sigma}<j\}|
= |\{b\in I_{n-1}|b^{\sigma}<j\}|</math>
denn für jedes <math>b\in I_{n-1}</math> gilt <math>b<i</math> oder <math>b\geq i</math>. Da es genau $j-1$ Zahlen <math><j</math> gibt und <math>\sigma</math> bijektiv ist, werden genau <math>j-1</math> Zahlen auf eine Zahl <math><j</math> abgebildet.

Bei der zweiten Gleichung läuft es auf die Frage hinaus, wieviele Zahlen das Bild der Einschränkung von <math>\sigma</math> auf die Zahlen <math>1,\ldots, i-1</math> enthält.






Schlie\ss lich
\[
 sgn(\sigma^{\phi_{i}^{j}})= (-1)^{Fehl(\sigma^{\phi_{i}^{j}})}= (-1)^{Fehl(\sigma)}\cdot (-1)^{i+j}= sign(\sigma)\cdot (-1)^{i+j}
\] Nun folgt der Laplace'sche Entwicklungssatz aus der Leibniz-Formel
\[
 \det A= \sum_{j=1}^{n} \sum_{\sigma\in S_{n-1}} sgn(\sigma^{\phi_{i}^{j})} A_{i,j}\prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}\]\[= \sum_{j=1}^{n}
\sum_{\sigma\in S_{n-1}} sign(\sigma)\cdot (-1)^{i+j} A_{i,j}\prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}\]\[ = \sum_{j=1}^{n} (-1)^{i+j} A_{i,j}
\underbrace{\sum_{\sigma\in S_{n-1}} sign(\sigma)\cdot \prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}}_{\det A_{i}^{j}}
\]

Das ist mir wiederum klar.


Ich wäre dir sehr dankbar, wenn du auf meine Fragen eingehen könntest! Danach sollte ich alles verstanden haben.

Viele Grüße,
X3nion

Determinanten
Universität/Hochschule 
Thema eröffnet von: X3nion
Laplace'scher Entwicklungssatz  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-31
hippias
 

Hallo Xenion,
ich habe hier einen alternativen Beweis, weil ich nicht viel davon halte Matrizen in Beweisen aufzumalen, sondern stattdessen die Matrizen richtig über Indices zu definieren. Dies ist für das Verständnis, meiner Meinung nach, besser.

Ich entschuldige mich schon einmal f\"ur Symbole wie $\iota_{i}$ usw.!

Meine Bezeichnungen:
Sei $n$ eine positive ganze Zahl, $M$ eine $n\times n$ - Matrix
\begin{itemize}
 \item Es bezeichne $M_{i,j}$ den Eintrag in der $i$-ten Zeile und $j$-ten Spalte von $M$. Ich verzichte also darauf die Eintr\"age mit einem anderen
Buchstaben zu bezeichnen; dies weicht von Deinem Skript ab.
 \item Es bezeichne $M_{i}^{j}$ die $(n-1)\times (n-1)$-Matrix, die durch streichen der $i$-ten Zeile und $j$-ten Spalte von $M$ entsteht.
$i$-ten Zeile und $j$-ten Spalte von $M$.
\item $S_{n}$ ist die symmetrische Gruppe auf der Menge $I_{n}:= \{1,\ldots, n\}$.
\item Ich schreibe Funktionen in den Exponenten!
\end{itemize}


Es sei $A$ eine $n\times n$-Matrix und sei $i\in I_{n}$. Mit der Leibniz-Formel gilt
\[
 \det A= \sum_{\sigma\in S_{n}} sgn(\sigma) \prod_{r=1}^{n} A_{r,r^{\sigma}}
\] Da ich wei\ss, worauf das ganze hinaus soll, forme ich um
\[
 \det A= \sum_{\sigma} sgn(\sigma) A_{i,i^{\sigma}}\prod_{r=1, r\neq i}^{n} A_{r,r^{\sigma}}
\] und definiere $S_{n}^{i,j}:= \{\sigma\in S_{n}| i^{\sigma}= j\}$, $j\in I_{n}$. Dann ist $\{S_{n}^{i,j}|j\in I_{n}\}$ eine Partition von $S_{n}$. Es folgt
somit
\[
 \det A= \sum_{\sigma\in S_{n}} sgn(\sigma) A_{i,i^{\sigma}}\prod_{r=1, r\neq i}^{n} A_{r,r^{\sigma}}= \sum_{j=1}^{n} \sum_{\sigma\in S_{n}^{i,j}}
sgn(\sigma) A_{i,j}\prod_{r=1, r\neq i}^{n} A_{r,r^{\sigma}}
\] Das hat schon \"Ahnlichkeit mit dem Entwicklungssatz.

Nun bringe ich die Matrizen $A_{r}^{s}$ ins Spiel. Dazu muss ich sie richtig definieren: f\"ur $r,s\in I_{n}$ definere die $(n-1)\times (n-1)$-Matrix $A_{r}^{s}$ durch
\[
 (A_{r}^{s})_{i,j}= \begin{cases} A_{i,j} & i<r, j<s \\ A_{i+1,j} & i\geq r, j<s \\ A_{i,j+1} & i<r , j\geq s \\ A_{i+1, j+1} & i\geq r, j\geq s \end{cases}
\] Mache Dir klar, dass das genau die Matrix ist, die Du erh\"alst, wenn man in $A$ die $r$-te Zeile und $s$-te Spalte streicht!

Da diese Definition umst\"andlich ist, definiere ich eine n\"utzliche Funktion, um mich eleganter ausdr\"ucken zu k\"onnen: f\"ur $a\in I_{n}$ sei $\iota_{a}:
I_{n-1}\rightarrow I_{n}\backslash\{a\}$ definiert durch \[x^{\iota_{a}}= \begin{cases} x & x<a \\ x+1 & x\geq a\end{cases}\]
Damit gilt
\[
 (A_{r}^{s})_{i,j}= A_{i^{\iota_{r}},j^{\iota_{s}}}
\]
\"Uber die Abbildungen $\iota_{a}$ l\"a\ss t sich festhalten: sie sind
\begin{itemize}
 \item bijektiv
 \item streng monoton wachsend
\end{itemize}

Das reicht aber noch nicht aus, denn um in obiger Formel mit Hilfe der Leibniz-Formel die Determinanten $\det A_{i}^{j}$ wiederzufinden, muss gekl\"art werden, wie die Permutationen aus $S_{n}^{i,j}$ mit denen aus $S_{n-1}$ zusammenh\"angen. Auch hier erweisen sich die $\iota_{a}$ als n\"utzlich.

Seien $a,b\in I_{n}$. Definiere $\phi_{a}^{b}:S_{n-1}\rightarrow S_{n}^{a,b}$ durch
\[
x^{\sigma^{\phi_{a}^{b}}}= \begin{cases} b & x= a\\
x^{\iota_{a}^{-1}\sigma \iota_{b}} & x\neq a\end{cases}
\] wobei $x\in I_{n}$. Mache Dir klar, dass $\phi_{a}^{b}$ wohldefiniert ist!

$\phi_{a}^{b}$ ist eine Bijektion:
Seien $\sigma,\tau\in S_{n-1}$ mit $\sigma^{\phi_{a}^{b}}= \tau^{\phi_{a}^{b}}$. Dann gilt f\"ur alle $x\in I_{n}$ mit $x\neq a$, dass $x^{\iota_{a}^{-1}\sigma
\iota_{b}}= x^{\iota_{a}^{-1}\tau \iota_{b}}$. Da $\iota_{b}$ injektiv ist, folgt $x^{\iota_{a}^{-1}\sigma}= x^{\iota_{a}^{-1}\tau}$. Da $\iota_{a}^{-1}$ surjektiv ist, folgt $\sigma= \tau$.

Somit ist $\phi_{a}^{b}$ injektiv. Da die Mengen $S_{n-1}$ und $S_{n}^{a,b}$ offensichtlich gleichm\"achtig sind, ergibt sich die Bijektivit\"at von $\phi_{a}^{b}$.

Nun kann ich mich vern\"unftig ausdr\"ucken. F\"ur $j\in I_{n}$ ist
\[
 \sum_{\sigma\in S_{n}^{i,j}} sgn(\sigma) A_{i,j}\prod_{r=1, r\neq i}^{n} A_{r,r^{\sigma}}= \sum_{\sigma\in S_{n-1}}
sgn(\sigma^{\phi_{i}^{j}}) A_{i,j}\prod_{r=1, r\neq i}^{n} A_{r,r^{\sigma^{\phi_{i}^{j}}}}\]\[= \sum_{\sigma\in S_{n-1}}
sgn(\sigma^{\phi_{i}^{j}}) A_{i,j}\prod_{r=1, r\neq i}^{n} A_{r,r^{\iota_{i}^{-1}\sigma\iota_{j}}}
\] Das kommt mir bekannt vor:
\[
 A_{r,r^{\iota_{i}^{-1}\sigma\iota_{j}}}= A_{r^{\iota_{i}^{-1}\iota_{i}},r^{\iota_{i}^{-1}\sigma\iota_{j}}}= (A_{i}^{j})_{r^{\iota_{i}^{-1}},
r^{\iota_{i}^{-1}\sigma}}
\] wobei das letzte Geichheitszeichen durch die Definition von $A_{i}^{j}$ gerechtfertig ist. Die Bijektivit\"at von $\iota_{i}$ liefert nun
\[
 \prod_{r=1, r\neq i}^{n} A_{r,r^{\iota_{i}^{-1}\sigma\iota_{j}}}= \prod_{r=1, r\neq i}^{n} (A_{i}^{j})_{r^{\iota_{i}^{-1}},
r^{\iota_{i}^{-1}\sigma}}= \prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}
\] Das sieht schon nach der Leibniz-Formel aus! Einsetzen in obigen Ausdruck liefert
\[
 \det A= \sum_{j=1}^{n} \sum_{\sigma\in S_{n-1}} sgn(\sigma^{\phi_{i}^{j})} A_{i,j}\prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}
\] Der Entwicklungssatz wird sichtbar.
 
Nun muss der Zusammenhang zwischen $sgn(\sigma)$ und $sgn(\sigma^{\phi_{i}^{j}})$ untersucht werden.

Dabei verwende ich die Charakterisierung mit Hilfe der Fehlstellungen von $\sigma$ an Stelle der Transpositionen.  Sei $\tau\in S_{n}$. Definiere
\[Fehl(\tau)= \{(x,y)\in I_{n}^{2}| x<y, x^{\tau}> y^{\tau}\}.\] Dann gilt $sgn(\tau)= (-1)^{|Fehl(\tau)|}$. Das ist bekannt und/oder leicht beweisbar.

Sei nun $\sigma\in S_{n-1}$.

1. Die Abbildung $Fehl(\sigma)\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x,y\neq i\}$, $(x,y)\mapsto (x^{\iota_{i}},y^{\iota_{i}})$ ist bijektiv.

Ersteinmal sind nach Definition $x^{\iota_{i}},y^{\iota_{i}}\neq i$ und die Abbildung ist injektiv, da $\iota_{i}$ dies ist. Sei $(a,b)$ in der rechten Menge.
Insbesondere ist $a<b$. Dann gilt nach Definition von $\phi_{i}^{j}$, da\ss
\[
 a^{\sigma^{\phi_{i}^{j}}}> b^{\sigma^{\phi_{i}^{j}}}\iff a^{\iota_{i}^{-1}\sigma\iota_{j}}> b^{\iota_{i}^{-1}\sigma\iota_{j}}
\] Da $\iota_{j}$ monoton steigend ist, folgt
\[
 a^{\iota_{i}^{-1}\sigma}> b^{\iota_{i}^{-1}\sigma}
\] Wegen $a<b$ und der Monotonie von $\iota_{i}^{-1}$ ist $a^{\iota_{i}^{-1}<}b^{\iota_{i}^{-1}}$. Folglich ist $(a^{\iota_{i}^{-1}},b^{\iota_{i}^{-1}})\in
Fehl(\sigma)$ und $(a^{\iota_{i}^{-1}},b^{\iota_{i}^{-1}})\mapsto (a,b)$.

Damit ist die Abbildung bijektiv.

2. Die Abbildung  $\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|x=i\}$, $b\mapsto (i, b^{\iota_{i}})$ ist
bijektiv.
Wohldefiniertheit: Wegen $b\geq i$ folgt $y:= b^{\iota_{i}}>i=x$. Nach Definition ist \[(x^{\sigma^{\phi_{i}^{j}}}, y^{\sigma^{\phi_{i}^{j}}})= (j,
b^{\iota_{i}\iota_{i}^{-1}\sigma\iota_{j}})= (j, b^{\sigma\iota_{j}})\] Wegen $b^{\sigma}<j$ folgt nach Definition von $\iota_{j}$, dass $b^{\sigma\iota_{j}}= b^{\sigma}$. Wegen $b^{\sigma}<j$ ist somit $(x,y)\in
Fehl(\sigma^{\phi_{i}^{j}})$. Damit ist die Abbildung wohldefiniert.

Die Injektivit\"at folgt aus der von $\iota_{i}$.

Surjektivit\"at: Ist $(i,y)\in Fehl(\sigma^{\phi_{i}^{j}})$, so ist insbesondere $i<y$ und $j>y^{\sigma^{\phi_{i}^{j}}}= y^{\iota_{i}^{-1}\sigma\iota_{j}}$.
Nach Definition von $\iota_{j}$ folgt nun $j>y^{\iota_{i}^{-1}\sigma}$, sodass $b:= y^{\iota_{i}^{-1}}$ das gew\"unschte liefert.

3. Die Abbildung  $\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}\rightarrow \{(x,y)\in Fehl(\sigma^{\phi_{i}^{j}})|y=i\}$, $b\mapsto b^{\iota_{i}}$ ist
bijektiv.
Dies ist v\"ollig analog zu 2.

Mit diesem 3 F\"allen sind alle M\"oglichkeiten von Fehlstellungen von $\sigma^{\phi_{i}^{j}}$ ersch\"opft. Damit ist gezeigt, dass
\[
|Fehl(\sigma^{\phi_{i}^{j}})|= |Fehl(\sigma)|+|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|
\] Nun kommt's! Da $\sigma$ bijektiv ist, gilt offensichtlich
\[
 |\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+|\{c\in I_{n-1}|c< i, b^{\sigma}<j\}|= j-1
\] und
\[
 |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|+|\{c\in I_{n-1}|c< i, b^{\sigma}<j\}|= i-1
\] Daher ist
\[
 (-1)^{|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|}\]\[= (-1)^{|\{b\in I_{n-1}|b\geq i, b^{\sigma}<j\}|+2|\{c\in
I_{n-1}|c< i, b^{\sigma}<j\}|+ |\{a\in I_{n-1}|a< i, a^{\sigma}\geq j\}|}\]\[= (-1)^{i+j-2}= (-1)^{i+j}
\] Schlie\ss lich
\[
 sgn(\sigma^{\phi_{i}^{j}})= (-1)^{Fehl(\sigma^{\phi_{i}^{j}})}= (-1)^{Fehl(\sigma)}\cdot (-1)^{i+j}= sign(\sigma)\cdot (-1)^{i+j}
\] Nun folgt der Laplace'sche Entwicklungssatz aus der Leibniz-Formel
\[
 \det A= \sum_{j=1}^{n} \sum_{\sigma\in S_{n-1}} sgn(\sigma^{\phi_{i}^{j})} A_{i,j}\prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}\]\[= \sum_{j=1}^{n}
\sum_{\sigma\in S_{n-1}} sign(\sigma)\cdot (-1)^{i+j} A_{i,j}\prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}\]\[ = \sum_{j=1}^{n} (-1)^{i+j} A_{i,j}
\underbrace{\sum_{\sigma\in S_{n-1}} sign(\sigma)\cdot \prod_{r'=1}^{n-1} (A_{i}^{j})_{r',(r')^{\sigma}}}_{\det A_{i}^{j}}
\]

Determinanten
Universität/Hochschule 
Thema eröffnet von: X3nion
Laplace'scher Entwicklungssatz  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-28
hippias
 

Eines vorweg: Es geht bei diesem Problem um zwei lineare Abbildungen - nennen wir sie $\alpha$ und $\beta$:
1. $\alpha:K^{n}\rightarrow K$ mit $\alpha(v)= \det(A|v)$, wobei $A|v$ diejenige Matrix ist, die man erhält, wenn in der Matrix $A$ die $j$. Spalte durch den Vektor $v$ ersetzt wird.
2. $\beta:K^{n}\rightarrow K$ mit $\beta(v)= \sum_{i=1}^{n}(−1)^{i+j}v^i detA^i_j$.
Zu zeigen ist, dass $\alpha=\beta$.

Die Argumente entsprechen den $j$.Spalten von Matrizen. Weil dein Prof im laufe des Beweises Spalten etc. vertauscht, verändern sich entsprechend $\alpha$ und $\beta$. Das müsste mal jemand sauber aufschreiben...

2020-08-27 14:10 - X3nion in Beitrag No. 2 schreibt:
Hallo hippias und vielen Dank dir, dass du dir die Zeit genommen hast, um mir zu antworten! 🙂

Zu 2)

Das ist in der Tat unglücklich formuliert, aber Du hast es richtig interpretiert. In aller Deutlichkeit: die Abbildung $A\mapsto \sum \limits_{i=1}^{n}(-1)^{i+j} a^{i}_{j} det A^{i}_{j}$ ist in der $j$-ten Spalte linear.
Ist
\[
A=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_j&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&a^{i-1}_j&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&a^i_j&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&a^{i+1}_j&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_j&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
\] so läßt sich dies als Summe schreiben:
\[
A= \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_j&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&0&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
+\ldots+
\begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&0&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_j&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
  \] Wegen der Linearität muss die Formel nur noch für die Summanden nachgeprüft werden.


Du meinst die Linearität der Abbildung $det(A) \mapsto \sum \limits_{i=1}^{n} (-1)^{i+j} a^{i}_{j} A^{i}_{j}$ ?
Nein, s.o.

Und meinst du deine Summenschreibweise jeweils mit einem "det" vor jeder Matrix?
Richtig, gut aufgepasst! Bzw. $\alpha(a^1_j,\ldots, a^n_j)= \alpha(a^1_j,0,\ldots, 0)+\ldots+\alpha(0,\ldots,0, a^n_j)$.



Definiere:

$A_1:= \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_j&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&0&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}$
...

$ A_n:= \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&0&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_j&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}$

Damit hätten wir mit der Linearität der Determinantenfunktion:
$det(A) = det(A_1) + ... + det(A_n)$


Zu 3)

Ist $a^i_j=0$, dann ist die $j$-te Spalte der Nullvektor und die Linearität liefert für beide Seiten der Gleichung den Wert $0$. In diesem Fall stimmt der Entwicklungssatz also.

Der Skalar $a^{i}_{j}$ kann wegen der Linearität wieder vorgezogen werden:
Sei z.B. $e$ der Vektor, dessen Eintrag an der $j$-ten Stellen $=1$ ist, und sonst nur $0$ als Eintrag hat.
Dann ist $a^i_je$ die $j$-te Spalte von $A$. Für eine lineare Abbildung, nennen wir sie $\lambda$, gilt nun $\lambda(a^i_j e)= a^i_j\lambda(e)$.

Außerdem tauchen die anderen Einträge der $i$-ten Zeile gar nicht in der rechten Seite auf. Dies rechtfertigt (**).

Hmm ist es so, dass man die Gültigkeit der Gleichung
$det(A) = \sum \limits_{i=1}^{n} (-1)^{i+1} \cdot a^{i}_{j} \det A^{i}_{j}$ annimmt und dann jeweils sukzessive Begründet, dass sie gleich bleibt, wenn man die Matrix bis zum letzten Punkt vereinfacht?
Nein, diese Gleichung wird nicht angenommen. Es wird lediglich gesagt: die Gleicheit gilt mit beliebigen $a^{i}_{j}$ genau dann, wenn die Gleichheit für $a^{i}_{j}=1$ gilt.


Also nehmen wir auch hier an, dass $det(A*) = \sum \limits_{i=1}^{n} (-1)^{i+j} a^{i}_{j} det A^{i}_{j}$ gilt.
Aufgrund der Linearität der Determinantenfunktion gilt ja $det A(*) = a^{i}_{j} \cdot det A(**)$, oder?

Dann ist $det(A**) = (-1)^{i+j} \cdot 1 \cdot det(A^{i}_{j})$
und es folgt
$det(A*) = a^{i}_{j}\cdot det(A**)$

Wieso können wir einfach so annehmen, dass die Summengleichheit allgemein stimmt und somit auch die i-te Zeile quasi komplett streichen?
Im Beweis wird die Summengleichheit ja nur für $A***$ bewiesen?


Zu 4)

Daß auf beiden Seiten das Vorzeichen wechselt, finde ich auch gerade unverständlich. Daher argumentiere ich so:
Es gilt $(-1)^{n-i-1+n-j-1}\det (***)A= \det (**)A$, wobei $(-1)^{n-i-1+n-j-1}= (-1)^{i+j}$. Daher $\det (**)A= (-1)^{i+j} \det(***)A^n_n$ (das habt ihr mit der Leibnizformel nachgerechnet). Nun gilt offensichtlich $(**)A^i_j= (***)A^n_n$, sodass $\det (**)A= (-1)^{i+j} \det(**)A^i_j$ folgt.

Müsste es nicht lauten $(-1)^{n-i+n-j}\det (***)A = det (**)A$?
Richtig! Hast mich wieder erwischt...


Es sind ja n-i Vertauschungen an Zeilen, um an die letzte Zeile zu geraten und n-j Vertauschungen an Spalten?


Ich verstehe auch immer noch nicht, wieso die allgemeine Formel folgt.
Wir haben die Formel ja nur für ein beliebiges $(A_k)***$ gezeigt.
Es wurden \"Aquivalenzumformungen (mit Fallunterscheidungen) durchgeführt.

De facto haben wir also gezeigt, dass $det(***)A_k) = \sum \limits_{i=1}^{n} (-1)^{i+n} a^{i}_{n} det(***) (A^{i}_{n})_{k}$ gilt.

Wir erhalten $det(**)A_k$ durch Multiplikation von $(-1)^{k+j}$ auf beiden Seiten. Also $det(**) A_k= (-1)^{k+j} \cdot det(***)A_k$ bzw. $det(**) A_k = (-1)^{k+j} \cdot (\sum \limits_{i=1}^{n} (-1)^{i+n} a^{i}_{n} det(***)(A^{i}_{n})_k)$.

Wir erhalten nun $det(*) A_k$ durch Multiplikation von $a^{k}_{j}$ auf beiden Seiten, also
$det(*) A_k= a^{k}_{j} (-1)^{k+j} \cdot (\sum \limits_{i=1}^{n} (-1)^{i+n} a^{i}_{n} det(***)(A^{i}_{n})_k)$.

Nun erhalten wir $det(A)$ durch Addition von $det(A_1) + ... + det(A_n)$.

Das wäre ja dann
$det A = \sum \limits_{k=1}^{n}\left(a^{k}_{j} (-1)^{k+j} \cdot (\sum \limits_{i=1}^{n} (-1)^{i+n} a^{i}_{n} det A^{i}_{n})_k)\right)$

Aber diese Summe entfernt sich immer mehr von $det(A) = \sum \limits_{i=1}^{n} (-1)^{i+j} a^{i}_{j} A^{i}_{j}$.

Wo ist mein Denkfehler?


Viele Grüße,
X3nion

Determinanten
Universität/Hochschule 
Thema eröffnet von: X3nion
Laplace'scher Entwicklungssatz  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-27
hippias
 

2020-08-26 17:06 - X3nion im Themenstart schreibt:
Hallo zusammen!

Mir ist der Beweis zum Laplace'sche Entwicklungssatz nicht so ganz klar.


- - - - - - - - - - - - - - - - - - - -

Satz:

Sei $A$ eine $(n\times n)$-Matrix. Sei $A^i_j$ die $((n-1)\times(n-1))$-Matrix, die entsteht, wenn wir die $i$-te Zeile und die $j$-te Spalte streichen.
\[ A^{i}_{j}:=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_{j+1}&\ldots&a^n_n\\
  \end{pmatrix}
\] Dann gilt für festes $j$, $1\le j\le n$,

$det A= \sum\limits_{i=1}^n (-1)^{i+j} a^i_j \det A^i_j$

und für festes $i$, $1\le i\le n$

$det A= \sum\limits_{j=1}^n (-1)^{i+j} a^i_j \det A^i_j.$


Beweis:
Wegen $\det A=\det A^T$ genügt es, die erste Gleichheit nachzuweisen.
  Beide Seiten sind in der $j$-ten Spalte linear. Daher genügt es,
  die Aussage für Matrizen der Form
  \[
(*) \; \; \; \; A=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&0&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&a^i_j&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&0&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
  \] nachzuweisen. Ohne Einschränkung können wir $a^i_j\neq0$ annehmen und daher genügt es aufgrund der Eigenschaften der Determinante (die rechte Seite bleibt ohnehin unverändert), anzunehmen, dass $A$ von der Form
  \[
(**) \; \; \; \; A=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&0&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    0&\ldots&0&1&0&\ldots&0\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&0&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
  \] ist. Weiterhin dürfen wir die ausgezeichnete Spalte mit der rechts davon vertauschen. Auf diese Weise bringen wir die ausgezeichnete Spalte ganz nach rechts. Ebenso dürfen wir die ausgezeichnete Zeile sukzessive mit der darunterliegenden Zeile vertauschen. Bei den Vertauschungen ändert sich jeweils das Vorzeichen auf beiden Seiten. Wir dürfen also ohne Einschränkung annehmen, dass
  \[
(***) \; \; \; \; A=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{n-1}&0\\
    \vdots&\ddots&\vdots&\vdots\\
    a^{n-1}_1&\ldots&a^{n-1}_{n-1}&0\\
    0&\ldots&0&1&\\
   \end{pmatrix}
  \] gilt. Nun ist
$\begin{align*}
    \det A=&\,\sum\limits_{\sigma\in S_n}sign \; \sigma\cdot
    a_1^{\sigma(1)}\cdots a_{n-1}^{\sigma(n-1)}\cdot a_n^{\sigma(n)}\\
    =&\,\sum\limits_{\substack{\sigma\in
        S_n\\\sigma(n)=n}}sign \; \sigma\cdot
    a_1^{\sigma(1)}\cdots a_{n-1}^{\sigma(n-1)}\cdot a_n^{\sigma(n)}\\
    =&\,\sum\limits_{\sigma\in
        S_{n-1}}(-1)^{n+n}sign \; \sigma\cdot
    a_1^{\sigma(1)}\cdots a_{n-1}^{\sigma(n-1)}\cdot 1\\
    =&\,(-1)^{n+n}\det A^n_n\\
    =&\,\sum\limits_{i=1}^n(-1)^{i+n}a^i_n\det A^i_n.
  \end{align*}$


- - - - - - - - - - - - - - - - - - - -

Ich habe ein paar Fragen.

1) Wieso genügt es wegen $det A = det A^T$, die erste Gleichheit nachzuweisen?
Entwickeltst Du $A$ nach der $i$-Zeile ist dies gleichbedeutend mit der Entwicklung von $A^{T}$ nach der $i$-ten Spalte.
Daher ist es ausreichend den Satz für nur Zeilen oder Spalten nachzuweisen.


2) Was ist gemeint mit "beide Seiten sind in der j-ten Spalte" linear?
Ist mit der linken Seite $det A$ gemeint und mit der rechten Seite $\sum \limits_{i=1}^{n}(-1)^{i+j} a^{i}_{j} det A^{i}_{j}$
Und wieso genügt es, die Aussage für Matrizen der Form wie in (*) angegeben zu betrachten?
Das ist in der Tat unglücklich formuliert, aber Du hast es richtig interpretiert. In aller Deutlichkeit: die Abbildung $A\mapsto \sum \limits_{i=1}^{n}(-1)^{i+j} a^{i}_{j} det A^{i}_{j}$ ist in der $j$-ten Spalte linear.
Ist
\[
A=
  \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_j&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&a^{i-1}_j&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&a^i_j&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&a^{i+1}_j&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_j&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
\] so läßt sich dies als Summe schreiben:
\[
A= \begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&a^1_j&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&0&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
+\ldots+
\begin{pmatrix}
    a^1_1&\ldots&a^1_{j-1}&0&a^1_{j+1}&\ldots&a^1_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^{i-1}_1&\ldots&a^{i-1}_{j-1}&0&a^{i-1}_{j+1}&\ldots&a^{i-1}_n\\
    a^i_1&\ldots&a^i_{j-1}&0&a^i_{j+1}&\ldots&a^i_n\\
    a^{i+1}_1&\ldots&a^{i+1}_{j-1}&0&a^{i+1}_{j+1}&\ldots&a^{i+1}_n\\
    \vdots&&\vdots&\vdots&\vdots&&\vdots\\
    a^n_1&\ldots&a^n_{j-1}&a^n_j&a^n_{j+1}&\ldots&a^n_n
  \end{pmatrix}
  \] Wegen der Linearität muss die Formel nur noch für die Summanden nachgeprüft werden.



3) Wieso kann man ohne Einschränkung $a^{i}_{j} \neq 0$ annehmen? Wieso bleibt die rechte Seite unverändert, wenn man aus $a^{i}_{j}$ eine 1 macht? Und wieso kann weiters angenommen werden, dass A von der Form in (**) ist?

Ist $a^i_j=0$, dann ist die $j$-te Spalte der Nullvektor und die Linearität liefert für beide Seiten der Gleichung den Wert $0$. In diesem Fall stimmt der Entwicklungssatz also.

Der Skalar $a^{i}_{j}$ kann wegen der Linearität wieder vorgezogen werden:
Sei z.B. $e$ der Vektor, dessen Eintrag an der $j$-ten Stellen $=1$ ist, und sonst nur $0$ als Eintrag hat.
Dann ist $a^i_je$ die $j$-te Spalte von $A$. Für eine lineare Abbildung, nennen wir sie $\lambda$, gilt nun $\lambda(a^i_j e)= a^i_j\lambda(e)$.

Außerdem tauchen die anderen Einträge der $i$-ten Zeile gar nicht in der rechten Seite auf. Dies rechtfertigt (**).





4) Was mir einleuchtet ist, dass sich das Vorzeichen in det A bei jedem Zeilen- und Spaltentausch um -1 verändert. Was ich nicht verstehe ist, wieso dies auf der rechten Seite auch geschieht, zumal $A^{i}_{j}$ ja eine Matrix mit einer Zeile und Spalte weniger ist und somit gar nicht so viele Zeilen- und Spaltenvertauschungen wie in A möglich sind?
Daß auf beiden Seiten das Vorzeichen wechselt, finde ich auch gerade unverständlich. Daher argumentiere ich so:
Es gilt $(-1)^{n-i-1+n-j-1}\det (***)A= \det (**)A$, wobei $(-1)^{n-i-1+n-j-1}= (-1)^{i+j}$. Daher $\det (**)A= (-1)^{i+j} \det(***)A^n_n$ (das habt ihr mit der Leibnizformel nachgerechnet). Nun gilt offensichtlich $(**)A^i_j= (***)A^n_n$, sodass $\det (**)A= (-1)^{i+j} \det(**)A^i_j$ folgt.






Zu den Rechnungen habe ich auch die ein oder andere Frage, aber ich dachte, ich versuche erst einmal die ganzen O.B.d.A-Argumente zu verstehen.

Ich wäre euch sehr dankbar, wenn ihr mir helfen könntet, den Beweis zu verstehen!

Viele Grüße,
X3nion

Integration
Universität/Hochschule 
Thema eröffnet von: kokosnusskopf
Unstetige Funktionen mit Stammfunktionen  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2020-08-26
hippias
 

2020-08-26 09:31 - Kitaktus in Beitrag No. 1 schreibt:
Eher nein. Selbst wenn <math>F</math> stetig differenzierbar ist, stimmt die Argumentation nicht.

Schon die erste Gleichung ist falsch. Im Allgemeinen ist <math>f(x_0)</math> nicht gleich <math>F"(x_0)</math>. Das gilt nur, wenn <math>f</math> in <math>x_0</math> stetig ist.
Nimm als Beispiel die Dirac-Funktion, also <math>f(0)=1</math> und <math>f(x)=0</math> für <math>x\neq 0</math>. Die Stammfunktion ist <math>F(x)=0</math> und deren Ableitung ist <math>F"(x)=0</math>, also stetig. Trotzdem ist <math>F"(0)=0\neq1=f(0)</math>.
Womit Du lediglich bewiesen hast, dass Dein <math>F</math> keine Stammfunktion von <math>f</math> ist: denn für eine solche gilt per Definition <math>F"= f</math>.
 

Sie haben sehr viele Suchergebnisse
Bitte verfeinern Sie die Suchkriterien

[Die ersten 20 Suchergebnisse wurden ausgegeben]
Link auf dieses Suchergebnis hier
(noch mehr als 20 weitere Suchergebnisse)

-> [Suche im Forum fortsetzen]
 
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2020 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]

used time 0.136535