Die Riemann Vermutung
Von: Diffform
Datum: Do. 09. September 2004 19:46:45
Thema: Mathematik


Die Riemann'sche Vermutung

Bereits 1900 wurde diese Vermutung von Hilbert in seine berühmte "Liste von 23 mathematischen Problemen" zu einem Jahrhundertproblem Bernhard Riemann 1826-1866 erhoben. Die meisten dieser Probleme sind heute bereits gelöst. Nicht jedoch diese Vermutung, sie wurde deswegen im Jahr 2000 zu einem der berühmten "7 Millenium Problems" des Clay Mathematics Institute erhoben. Jedem der eines dieser Probleme löst, winken dabei 1 Million Dollar. Vielleicht sind das und der damit verbundene Ruhm der Grund für so viele (bis jetzt fruchtlose) Beweis-Bemühungen. Dieser Artikel soll einen Überblick über die mathematischen Grundlagen der Riemann'schen Zetafunktion und ihrer Bedeutung für die Verteilung der Primzahlen geben.
\big\ Die Zetafunktion Beginnen wir mit der Darstellung der Riemann'schen Zetafunktion wie sie viele bestimmt schon einmal gesehen haben: \blue\ \z(s)=\sum(n^(-s),n=1,\inf)=\sum(1/n^s,n=1,\inf) Diese definiert man allgemein für komplexes s=a+b*i mit Re(s)=a>1. Auf diesem Bereich A:=\menge(z|Re(z)>1) konvergiert die Reihe absolut, im Grenzfall s=1 bekommt man die harmonische Reihe, die bereits divergent ist. Da die Zetafunktion auch lokal gleichmäßig konvergiert, gilt nach dem Satz von Weierstrass, dass \z(s) auf A auch holomorph, also komplex differenzierbar ist. \big\ Meromorphe Fortsetzung Gibt es eine Fortsetzung von \z(s) auf den Rest der komplexen Ebene, eine sogenannte meromorphe Fortsetzung? Diese Konstruktion will ich ein bisschen ausführlicher beschreiben, da sie auch in fast allen Internetquellen nur erwähnt aber nie ausgeführt wird. Man benötigt allgemein eine sog. Schwarzfunktion f:\IR->\IR ,d.h. f und alle Ableitungen von f gehen für \abs(x)->\inf stärker gegen 0 als 1/\abs(x). Das sind anschaulich einfach "nur" Funktionen, deren Integrale konvergieren. Das braucht man für die Fouriertransformation f^^:\IR->\IR:r->f^^(r)=\int(f(x)*exp(-2\pi\ irx),x,\IR) und die dazugehörige Poisson'sche Summenformel: \sum(f(n),n\el\IZ)=\sum(f^^(n),n\el\IZ) Wir betrachten nun f(x)=exp(-\pi\ tx^2) für t>0, und die Transformierte f^^(r)=\int(exp(-\pi\ tx^2) exp(-2\pi\ irx),x,\IR)= ... =1/sqrt(t) exp((-\pi\ r^2)/t) Weiter setzen wir \theta(s)=1/2*\sum(exp(-\pi\ isn^2),n\el\IZ)|\small\darkblue\ wegen n^2 ist die Laurentreihe symmetrisch, n=0 wird herausgezogen|\normal\black\ =1/2+\sum(exp(\pi\ isn^2),n=1,\inf). Es folgt: \align \theta(it)=1/2*\sum(exp(-\pi\ tn^2),n\el\IZ)=1/2*\sum(f(n),n\el\IZ)= (Poisson) 1/2*\sum(f^^(n),n\el\IZ)= =1/(2 sqrt(t))*\sum(exp((-\pi\ n^2)/t),n\el\IZ)=1/\sqrt(t)*\theta(i/t) \stopalign Diese Funktionen und Formeln benötigt man nur um die folgenden Umformungen übersichtlicher zu gestalten. Man muß sie natürlich nicht länger als für diesen Abschnitt behalten. Zum Schluß die Definition der Gammafunktion \Gamma(s)=\int(t^(s-1) exp(-t),t,0,\inf), die durch die Funktionalgleichung \Gamma(s)=(s-1)\Gamma(s-1) auf ganz \IC\\ menge(-\IN) definiert ist. Wir betrachten nun für Re(s)>1/2: \pi^(-s) \Gamma(s) \z(2s)=\pi^(-s) \int(t^(s-1) exp(-t),t,0,\inf) \sum(1/n^2s,n=1,\inf)= =\int(\sum((\pi\ n^2)^(-s) t^(s-1) exp(-t),n=1,\inf),t,0,\inf)=\small\darkblue array((t=v\pi\ n^2;dt=dv n^2 \pi)) =\int(\sum((\pi\ n^2)^(-s)(v\pi\ n^2)^(s-1) exp(-v\pi\ n^2)\pi\ n^2,n=1,\inf),v,0,\inf)=\int(v^(s-1) \sum(exp(-v\pi\ n^2),n=1,\inf),v,0,\inf)= =\small\darkblue\ (einsetzen von (\theta(iv)-1/2)) \normal\black \int(v^(s-1)(\theta(iv)-1/2),v,0,\inf)= =\small\darkblue\ (aufspalten) \normal\black \int(v^(s-1) \theta(iv),v,0,1)-1/2 \int(v^(s-1),v,0,1)+\int(v^(s-1)(\theta(iv)-1/2),v,1,\inf)= \small\darkblue array((1/t=v\el intervall(0,1)=>1/v\el intervall(\inf,1);dt=-1/v^2 dv)) im 1. Integral subst., im 3. Integral t=v =\int(t^(-s+1) \theta(i/t) 1/t^2,t,1,\inf)-stammf(1/2s*t^2,0,1)+\int(t^(s-1)(\theta(it)-1/2),t,1,\inf)= =\int(t^(-s+1-2+1/2) \theta(it),t,1,\inf)+\int(t^(s-1)(\theta(it)-1/2),t,1,\inf)-1/2s= =\small\darkblue (1/2 \int(t^(-s-1/2),t,1,\inf)=1/(1-2s)) \normal\black \int((t^(s-1)+t^(-s-1/2))(\theta(it)-1/2),t,1,\inf)-1/(1-2s)-1/2s Wegen der Symmetrie des letzten Ausdrucks folgt die Funktionalgleichung: \blue \pi^(-s/2)*\Gamma(s/2)*\z(s)=\pi^(-(1-s)/2)*\Gamma((1-s)/2)*\z(1-s)= =\int((t^(s/2-1)+t^((1-s)/2-1))(\theta(it)-1/2),t,1,\inf)-(1/(1-s))-(1/s)= Man sieht sehr schön, dass sich nun für s mit Re(s)>1 auch \z(1-s)berechnen lässt. Mit dieser Funktionalgleichung setzt man \z(s) zu einer meromorphen Funktion auf \IC fort. Einziger Pol ist hierbei, wie oben bereits gesehen, an der Stelle s=1. \big\ Die Nullstellen Langsam nähern wir uns dem Geheimnis dieser Funktion. Die Zetafunktion besitzt zwei Arten von Nullstellen: Einmal die (sog.) "trivialen" reellen Nullstellen, die sich durch die Pole der Gammafunktion an den Stellen -2n, n\el\IN ergeben. Weitere Nullstellen mit Re(s)<0 gibt es nicht. Ausserdem gibt es keine Nullstellen mit Re(s)>1 (folgt aus der Reihendarstellung). Daraus ergibt sich, dass alle noch möglichen Nullstellen im "kritischen Streifen" 0<=Re(s)<=1 liegen müssen. Das sind die "nichttrivialen" Nullstellen der Zetafunktion. Diese liegen nach der Funktionalgleichung symmetrisch zur Geraden a=(1/2), und da ausserdem gilt \z(s^-)=(\z(s))^- (ohne Beweis) auch symmetrisch zur rellen Achse b=0. Dazu ein Bild: Bild Riemann selbst behauptete nun in seinem berühmten Aufsatz: "Über die Anzahl der Primzahlen unter einer gegebenen Größe" (1859), dass alle diese Nullstellen auf der Geraden \menge(1/2+it|t\el\IR) liegen müssten, sagt jedoch selbst: "Hiervon wäre allerdings ein strenger Beweis zu wünschen; ich habe indes die Aufsuchung desselben nach einigen flüchtigen vergeblichen Versuchen vorläufig beiseite gelassen, da er für den nächsten Zweck meiner Untersuchung entbehrlich schien". Wie man aber aus seinen Unterlagen ersehen kann scheint er sich sehr lange und ausführlich mit diesem Thema befasst zu haben, so hat er zum Beispiel die ersten Nullstellen bis auf einige Dezimale genau ausgerechnet... Bild \big\ Ist die Vermutung nun wahr? Seit damals haben sich viele (auch bekannte) Mathematiker mit dieser Behauptung auseinandergesetzt, aber weder wurde bis jetzt ein Beweis über die Richtigkeit der Vermutung noch ein Gegenbeweis gefunden. Immerhin gibt es viele Gründe, warum heute der größte Teil der mathematischen Gemeinde an die Richtigkeit der Vermutung glaubt: - Bereits 1914 bewies Hardy, dass \inf viele Nullstellen auf der Geraden liegen - Nach Van de Lune, te Riele und Winter liegen die ersten 10 Milliarden Nullstellen darauf. Es gibt ein OpenSource Projekt, an dem sich jeder beteiligen kann, dort wurden schon über 88,7 Billion Nullstellen berechnet. Besonders hervorgetan hat sich der Mathematiker Andrew Odlyzko, der Millionen Nullstellen in den Bereichen 10^22 bis 10^24 mit großer Genauigkeit berechnet hat. Er stellt auf den folgenden Seiten viele seiner Ergebnisse zur freien Verfügung: OpenSource Projekt ZetaGrid Homepage Andrew Odlyzko - Hardy und Littlewood zeigten: \z(1/2+ib)=O(b^(1/4+\epsilon)), das bedeutet, die Nullstellen liegen sozusagen in einem "Schlauch" um die kritische Gerade. Dieser Wert konnte inzwischen sogar auf O(b^(1/6+\epsilon)) gesenkt werden. Man muß aber eingestehen, dass auch die Vermutung von Lindelöff, die schwächer ist als die RV: \z(1/2+ib)=O(b^\epsilon) bis heute nicht bewiesen wurde. Aber es konnte gezeigt werden, dass 99% aller Nullstellen z=a+bi der Bedingung abs(a-1/2)<=8/(log|abs(b)) genügen. - 1989 zeigten Selberg, Conrey und Levinson, dass mindestens 40% der Nullstellen auf der Geraden liegen. - Die RV impliziert, dass alle Nullstellen aller Ableitungen von \z(s) auf der kritischen Geraden liegen, dazu wurde gezeigt, dass 99% aller Nullstellen von \z\ '''(s) auf der Geraden liegen. - Der letzte und wohl wichtigste Grund mag vielleicht eher philosophischer Natur sein. Der RV zufolge sind die Primzahlen symmetrisch und auf die schönstmögliche Art verteilt (dazu gleich mehr). Ist an der Vermutung etwas falsch, so müsste es irgendwo mehr oder weniger große Unregelmäßigkeiten geben. Die erste Nullstelle ausserhalb der kritischen Geraden wäre eine sehr wichtige mathematische Konstante. Und nicht zu vergessen natürlich die große Anzahl an Arbeiten und (wichtigen) Sätzen, die alle anfangen mit: "Angenommen die RV wäre wahr..."
 
\big\ Eulersche Produktentwicklung Den meisten Lesern wird der Fundamentalsatz der Arithmetik bekannt sein. Dieser besagt folgendes: Jede ganze Zahl lässt sich bis auf das Vorzeichen und die Reihenfolge der Faktoren als Produkt von Primzahlpotenzen darstellen.
Leonhard Euler 1737 entdeckte Euler, dass dieser in der folgenden Identität steckt: \sum(1/n^s,n=1,\inf)=\produkt(1/(1-1/p^s),p prim), Beide Seiten konvergieren nur für s>1.
\stress\ Beweis: \produkt(1/(1-1/p^s),p prim)= |\darkblue\small\ (einsetzen der geometrischen Reihe für 1/(1-1/p^s)) =\produkt(\sum((1/p^s)^n,n=0,\inf),p prim)=(1+1/2^s+1/2^2s+...)(1+1/3^s+1/3^2s+...)... = \darkblue\small\ Man sieht, dass hier beim Ausmultiplizieren jede Kombination von Primzahlen^s im Nenner vorkommt) =\sum(\sum(1/(\small\ p|array(\small\ n_1;1)*...*p|array(n_r;r)\normal),(n_1 ,..., n_r)\el\IN|array(\small\ r;0)),r\el\IN) \small\darkblue\ p_1 bis p_r bezeichnen die Primzahlen in natürlicher Reihenfolge =\sum(1/n^s,n=1,\inf) Für den Spezialfall s=1 liefert diese Identität ein sehr wichtiges Ergebnis: Da die harmonische Reihe divergiert, kann rechts kein endliches Produkt stehen. Daraus folgt, dass es unendlich viele Primzahlen geben muss!
\big\ Die Primzahlfunktion \stress\ Hinweis:\normal\ Im folgenden Teil gehen wir immer von großen Zahlenwerten für x aus, es ist sinnlos Untersuchungen über die Verteilung der Primzahlen in kleinen Bereichen zu machen, da diese dort eher unregelmäßig verteilt sind. Uns interessiert aber eher das große Ganze. Man definiert für x\el\IR,x>1 die Primzahlfunktion \pi(x)=abs(menge(p<=x|p Primzahl (p\el\IP))), also definiert \pi(x) die Anzahl der Primzahlen unter einer gegebenen reellen Zahl x>1. Eine zweite Folgerung Eulers lautet: \sum(1/p,array(p prim;p<=x))~\log(\log(x)) \darkblue\small\ Die Schreibweise f(x)~g(x) bedeutet: \lim(x->\inf,f(x)/g(x))=1, der relative Fehler wird also beliebig klein für große x Das kann man umformen, und kommt zu einem Ergebnis, das auch Gauss 1792 schon vermutet hat: Die Dichte der Primzahlen in einem (großen) Bereich um den Wert x beträgt in etwa 1/\log(x). Erweitert man diese Aussage, so gilt für x\el\IN \pi(x)\approx\ 1/\log(2)+1/\log(3)+...+1/\log(x)\approx\int(1/\log(t),t,2,x). Letzteres ist der sogenannte Integrallogarithmus, der hierbei eine große Rolle spielt, deswegen bezeichnen wir ihn mit Li(x). Partielle Integration führt zu: Li(x)=x/\log(x)+\int(1/\log^2(t),t,2,x)-2/\log(2) Und mehrfache partielle Integration führt zu: Li(x)=x/\log(x)|(1+\sum(k!/\log^k(x),k=1,n-1))+O(x/\log^(n+1)(x)) \darkblue\small\ Das große Landau-Symbol O bedeutet:f(x)=O(g(x)) <=> \exists\ C>0:\forall\ x>=x_0|: abs(f(x))<=Cg(x), das bedeutet ab x_0 wächst f(x) höchstens so stark wie Cg(x)
Die Näherung \pi(x)\approx\ Li(x) bzw. \approx\ x/\log(x) (als schlechtere Näherung) sind als sog. Primzahlsatz bekannt geworden. Dieser wurde bereits 1800 von Gauss vermutet, aber erst 1896 unabhängig von Hadamard und de la Vallee Poussin bewiesen. Jacques Hadamard
\big\ Zusammenhänge Im folgenden betrachten wir nun den Zusammenhang von \pi(x) und Li(x) etwas genauer, und natürlich interessiert uns die Frage, wie dies mit der RV zusammenhängt. Nach langwierigen Umformungen und solchen Sachen wie Mellin-Transformation und Möbius-Inversion etc. kommt man zu folgender Gleichung: \blue\ \pi(x)-Li(x)=O(\sqrt(x)\log(x)) Diese Aussage gilt nur, wenn die RV wahr ist, und ist deswegen äquivalent zur RV! (nicht trivial) Den Zusammenhang sieht man im Restglied: O(\sqrt(x)\log(x))=-\sum(Li(x^\r),\z(\r)=0) \small\darkblue\ Dabei benutzt man folgende Zusammenhänge: f(x)=Li(x)-\sum(Li(x^\r),\z(\r)=0),eine Formel von Riemann die 1895 von Mangoldt bewiesen wurde, und der Tatsache, dass gilt f(x)=Li(x)+O(\sqrt(x)\log(x))=\pi(x) Das Restglied O(\sqrt(x)\log(x)) ist hierbei praktisch bestmöglich, da \pi(x)-Li(x)=O(\sqrt(x)\log(x))<=>\pi(x)-Li(x)=O(x^((1/2)+\epsilon)),\forall\epsilon>0 Denn:\forall\epsilon>0 und genügend großes x: x^\epsilon>\log(x), und für \epsilon=0 stimmt \pi(x)-Li(x)=(\sqrt(x)) bereits nicht mehr. Klar ist, dass Li(x) eine glatte und streng monoton wachsende Funktion ist, die das Feinverhalten von \pi(x) nicht beschreiben kann. Lange Zeit hat man sogar geglaubt, dass Li(x) eine obere Schranke für \pi(x) ist, also \pi(x)0 gibt, so dass unendlich oft gilt: \pi(x)-Li(x)>(k|sqrt(x))/\log(x)|\log(\log(\log(x))) Und 1933 zeigte Skewes, dass es x mit x<10^10^10^34 gibt, dass \pi(x)-Li(x)>0. Oder es gibt 10^500 solcher Werte x zwischen 1,53*10^1165 und 1,65*10^1165. Das sind natürlich riesige Zahlen, die vielleicht mit der Realität nichts mehr zu tun haben. Oder sie zeigen uns, in welche Dimensionen man sich manchmal bewegen muss... \big\ Die Jagd Jetzt gibt es Mathematiker, die haben nichts besseres zu tun, als diese Schwelle immer weiter zu senken. Zwei davon sind Carter Bays und R.H. Hudson. Grundlage ihrer Jagd "for the smallest x with \pi(x)>Li(x)" ist ein Satz von Lehman (1966), den ich hier einmal anbringen möchte, nur um zeigen, wie so etwas dann aussieht: \stress\ Satz: \small\ Sei A eine positive Zahl, mit der Eigenschaft, dass \b=1/2 für alle Nullstellen \r=\b+i\g von \z(s) mit 0<\g1 und gilt 4A/\w<=\a<=A^2 und 2A/\a<=\eta<=\w/2. Sei K(y)=sqrt(\a/2\pi) exp((-\a\ y^2)/2). \small\ Dann gilt für 2\pi0 die Nullstellen der Zetafunktion auf der kritischen Geraden. Wählt man T groß genug, so gilt: F(x)=1+\sum(sin(\g\log(x))/\g,0<=\g<=T)+O(1/\log(x)). Das ist eine sehr gute Formel, erstens, weil der Fehler z.B. bei x\approx\10^50 nur eine Größenordnung von 8/1000 hat, und zweitens, weil in der Formel nur die Logarithmen der großen Zahlen x vorkommen. Die Nullstellen gibts auf der Homepage von Andrew Odlyzko, und der größte Rechenaufwand (wegen der Genauigkeit) ergibt sich bei der Summation über all diese Nullstellen. Hat man das geschafft, so präsentiert sich z.B. folgendes Ergebnis:
Plot der normierten Primzahlfunktion
Plot der normierten Primzahlfunktion-Zoom1
Plot der normierten Primzahlfunktion-Zoom1
\big\ Beweisideen Es gibt inzwischen viele Möglichkeiten und Äquvivalenzen zur RV, die sogar weit über die klassische Mathematik hinaus bis in die moderne Physik reichen. - Es gibt so etwas ähnliches wie die Zetafunktion über endliche Körper, die "Weil'sche Kongruenzzetafunktion algebraischer Varietäten": Sei E(\IF_q^r)=\menge((x,y)|y^2-x^3-a_1 x-a_2=0), dann ist die Weil'sche Zetafunktion Z(E\/\IF_q \;T)=\exp(\sum(\#E(\IF_q^r)*T^r/r,n=1,\inf)) eine rationale Funktion, deren Nullstellen s alle Re(s)=1/2 haben. (in den 70ern von P.Deligne vollständig bewiesen) - Neue Entwicklungen zielen darauf ab, die Nullstellen von \z(s) als Eigenwerte eines unendlichdimensionalen Operators zu deuten, um dann die Vermutung mit Hilfe geeigneter kohomologischer Methoden -wie bei der Weil'schen Zetafunktion- zu beweisen. Diese Idee geht bereits auf Hilbert zurück. - Und eine der neuesten und verblüffendsten Ideen ist, die Imaginärteile der Nullstellen als Energiezustände eines bestimmten quantenchaotischen Systems aufzufassen. Ähnliche Systeme hat man bereits gefunden, nur ein genau passendes fehlt noch. Wenn es überhaupt existiert....
Plot der normierten Primzahlfunktion-Zoom1Vielleicht würde ihm das gefallen.
Quellen [1] Martens, Gerriet; Mathematisches Institut der Universität Erlangen; ps-file unter http://www.mi.uni-erlangen.de/~moch/1martens.ps [2] Math 270 Lectures, May 24-28, 2004; pdf-file unter http://www.math.uchicago.edu/~bloch/math270040528.pdf [3] Wolfgang Blum; DIE ZEIT 03/2001; Chaos hilf; Im Internet: Quantenphysik und die Riemannsche Vermutung [4] Carter Bays, Richard H. Hudson; A new bound for the smallest x with pi(x)>Li(x); Mathematics of Computation, Volume 69, Number 231, Pages 1285-1296 [5] Andrew Odlyzko; Tables of zeros of the Riemann zeta function; http://www.dtc.umn.edu/~odlyzko/zeta_tables/index.html

 

 
Dieser Artikel ist in unserem Buch enthalten:
Mathematisch für Anfänger
Mathematisch für Anfänger

 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=669