Die Mathe-Redaktion - 30.03.2017 10:48 - Registrieren/Login
Auswahl
Schwarzes Brett
Fragensteller hat Anwort gelesen, aber bisher nicht weiter reagiert2017-03-29 23:35 bb
MPCT 2017 Planung
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden oder den Newsletter bestellen.

Der Newsletter Feb. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 562 Gäste und 19 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von matroid
Informatik » Algorithmen / Datenstrukturen » Die Collatz-Folge programmieren
Thema eröffnet 2016-10-23 08:10 von gonz
Druckversion
Druckversion
Antworten
Antworten
Seite 8   [1 2 3 4 5 6 7 8]   8 Seiten
Autor
Kein bestimmter Bereich Die Collatz-Folge programmieren
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.280, eingetragen 2017-02-04 01:10


2017-02-03 16:45 - cyrix in Beitrag No. 278 schreibt:
Mein nächstes Projekt, was Collatz angeht, wäre eine Portierung des Multisteps via CUDA auf die GPU.

Mit CUDA bleiben Intel und AMD GPUs aussen vor - ist denn auch die Mehrheit der GPUs, die man für das Projekt "requirieren" kann, von Nvidia?



  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.281, eingetragen 2017-02-04 02:07


@dlchnr: Das weiß ich nicht. Allerdings war und ist Nvidia mit CUDA ein Vorreiter, was die Nutzung der GPU als Rechenknecht angeht. Dementsprechend ist damit die Portierung wohl deutlich einfacher als mit OpenCL, sodass ich mich der Idee, die GPU mit einzubeziehen, zuerst damit nähern will.

Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
matph
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 20.11.2006
Mitteilungen: 5242
Aus: A
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.282, eingetragen 2017-02-04 03:04


Hallo,

2017-02-04 02:07 - cyrix in Beitrag No. 281 schreibt:
Allerdings war und ist Nvidia mit CUDA ein Vorreiter, was die Nutzung der GPU als Rechenknecht angeht. Dementsprechend ist damit die Portierung wohl deutlich einfacher [...]

Beides gibt es mittlerweile seit fast 10 Jahren, dies ist daher kein echtes Argument. Wenn du OpenCL verwenden möchtest, inkludierst du einfach die entsprechenden Header und Bibliotheken in dein Programm, CUDA ist nicht vollständig C kompatibel, daher musst du u.U. tatsächlich einiges portieren... smile

--
mfg
matph


-----------------
Wir müssen wissen, wir werden wissen. Hilbert
Das Buch der Natur ist in der Sprache der Mathematik geschrieben. Galilei



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.283, eingetragen 2017-02-04 17:14


Ich hab' deshalb nachgefragt, weil verschiedendlich von Servern ohne besondere Grafikkarten die Rede war, was darauf hinauslaufen könnte, dass nur das zur Verfügung steht, was Intel seinen Serverprozessoren als Dreingabe spendiert ???



  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.284, eingetragen 2017-02-04 17:20


Ich gehe davon aus, dass wir sowieso noch Rechner von außen brauchen. Dabei denke ich an die Leute von www.rechenkraft.de , die man vielleicht für soetwas begeistern könnte.

@matph: Ich weiß nicht, wie es mit OpenCL ausschaut, aber CUDA entwickelt sich zumindest in der Form ständig weiter, dass ich in der aktuelen Version CUDA 8.0 Befehle entdeckt habe, die hier doch recht interessant sein könnten, etwa der Zugriff auf die High-Bits eines 32- bzw. 64-Bit-Integer-Produkts, oder die Bestimung der Anzahl der Endnullen eines entsprechenden Werts.

Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
matph
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 20.11.2006
Mitteilungen: 5242
Aus: A
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.285, eingetragen 2017-02-04 20:19


Hallo,

Man hat unter OpenCL eine reihe Standardfunktionen, so wie natürlich die hardwarespezifischen. Ungeachtet dessen, ob man CUDA oder OpenCL verwendet, bringt der Aufruf eines derartigen Befehls nur dann etwas, wenn dieser von deiner Hardware unterstützt wird. Nach dem du von CUDA und Integer Operationen sprichst, gehe ich einmal davon aus, dass du das Programm für eine Tesla Karte schreiben möchtest. Diese unterstützen meines Wissens keine 64-Bit Integer Operationen, diese Funktionen sind mehre 32-Bit Instruktionen. Nach dem in Beitrag No.283 sogar von normaler Hardware die Rede ist, schlägt hier der Transfer zur Grafikkarte noch deutlicher zu Buche, und diese ist i.d.R. für FP 16 Operationen optimiert, d.h. alles was nicht 16-Bit Fließkommazahlen sind, wird mit entsprechend geringer Performance laufen smile

--
mfg
matph


-----------------
Wir müssen wissen, wir werden wissen. Hilbert
Das Buch der Natur ist in der Sprache der Mathematik geschrieben. Galilei



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.286, eingetragen 2017-02-04 20:51


2017-02-04 17:20 - cyrix in Beitrag No. 284 schreibt:
oder die Bestimung der Anzahl der Endnullen eines entsprechenden Werts.

Frage mich allerdings, wieviele GPUs diesen Befehl überhaupt unterstützen und was der Compiler bei Targets macht, die dieses Intrinsic nicht unterstützen. Ich vermute, man sollte besser versuchen, ohne dieses Intrinsic auszukommen.




  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.287, eingetragen 2017-02-04 20:58


Nach folgender Tabelle fährt man wohl, wenn man mit 32-Bit-Zahlen arbeitet, gar nicht so schlecht:

docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#arithmetic-instructions

Cyrix

[Die Antwort wurde vor Beitrag No.1 begonnen.]



  Profil  Quote  Link auf diesen Beitrag Link
Wally
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 02.11.2004
Mitteilungen: 7639
Aus: Dortmund, Old Europe
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.288, eingetragen 2017-02-04 21:17


Hallo, ihr,

irgendwann geht's ja mal los.

Dann habe ich vier Kerne unter Windows (naja, ein Boot vom Stick mit Linux sollte auch gehen), die ihr halbtagsweise haben könnt. Nur eine Grafikkarte habe ich nicht.

Das scheint mir von außen das größte Problem: verteiltes Rechnen mit unbekanntene/verschiedenen Grafikkarten.

Aber ihr Bastelfreaks werdet das  schon hinbekommen....

Viele Grüße

Wally



  Profil  Quote  Link auf diesen Beitrag Link
matph
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 20.11.2006
Mitteilungen: 5242
Aus: A
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.289, eingetragen 2017-02-04 21:29


Hallo,

2017-02-04 21:17 - Wally in Beitrag No. 288 schreibt:
Nur eine Grafikkarte habe ich nicht.
Falls du das zukünftige Programm von cyrix ausführen möchtest, könntest du dir ja ein Tesla P100 zulegen, diese ist zumindest CUDA 6.0 kompatibel (solagne er sich darauf beschrenkt) und gibt es bereits ab ca. 7000€ cool

--
mfg
matph


-----------------
Wir müssen wissen, wir werden wissen. Hilbert
Das Buch der Natur ist in der Sprache der Mathematik geschrieben. Galilei



  Profil  Quote  Link auf diesen Beitrag Link
gonz
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.02.2013
Mitteilungen: 2449
Aus: Oberharz
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.290, vom Themenstarter, eingetragen 2017-02-04 21:51


Bei mir workelt eine GForce GTX 760, um zu der Umfrage was beizusteuern ;)


-----------------
to fight! (Don Quijote de la Mancha)



  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.291, eingetragen 2017-02-04 23:02


Ok, vielleicht ist es sinnvoll mal zu überschlagen, ob es überhaupt sinnvoll ist, die GPU mit einzubeziehen. Nehmen wir mal gonzens Grafik-Karte als Referenz. Die hat 6 Multiprozessoren, die mit einer Taktfrequenz von ca. 1,1 GHz laufen.

Nehmen wir mal weiter an, wir hätten alle technischen Probleme a'la Datentransport, evtl. Verzweigungen usw. erledigt, sodass wir uns allein nur auf die Berechnung konzentrieren und dabei vollständige Parallelisierung annehmen können.

Dann sind die 32-Bit-Integer-Multiplikationen der Anteil der Berechnung, die die Laufzeit maßgeblich bestimmen. Davon kann gonzens GraKa je 32 pro Multiprozessor und GPU-Takt umsetzen, also ca. 32*6*1,1*10^9 = ca. 2*10^11 Stück pro Sekunde.

Wie sieht das jetzt auf einer CPU aus? Wie viele Takte braucht da eine 32-(oder gar 64?)-Bit-Integer-Multiplikation? Wenn ich mir diese Daten anschaue, dann kann man offenbar etwa für __int32-Multiplikationen mit etwa 3*10^8 Operationen pro Sekunde, Kern und GHz Taktfrequenz rechnen. Bei ca. 3,3Ghz Taktfrequenz und 12 Kernen wäre man dann bei einem Durchsatz von ca. 10^10 Operationen / Sekunde.

Insofern scheint es sich wohl doch zu lohnen, sich das mal anzuschauen, selbst wenn man auf der GPU noch einen Faktor 2 bis 10 verlieren sollte...

Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
Slash
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 23.03.2005
Mitteilungen: 4972
Aus: New York
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.292, eingetragen 2017-02-04 23:14


Hallo ihr fleißigen Programmierer,

wenn mal eine finale CUDA-Version steht, sollte es doch kein Problem sein "außerhalb des Forums" eine Massensuche anzuleiern. Ich denke da nur an die vielen Gamer, die oft einen schnellen ungenutzen Zweit- oder Dritt-PC zu Hause stehen haben. Oder man wendet sich im Rahmen einer Werbeaktion direkt an die PC und Grafikkartenhersteller. Für so etwas sind die immer zu haben - wegen der großen Konkurrenz.


-----------------
Drei kleine Regeln, die dich sicher durchs Leben bringen. 1. Vertritt mich mal eben! 2. Oh, gute Idee, Chef! 3. Das war bestimmt jemand anders! (Homer Simpson)



  Profil  Quote  Link auf diesen Beitrag Link
blindmessenger
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 02.08.2016
Mitteilungen: 497
Aus: NRW
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.293, eingetragen 2017-02-05 15:37


Hat denn hier auf dem Matheplaneten niemand eine gtx1080?  mad

Die wird sofort konfisziert! Ich werde mich persönlich um die Verwahrung kümmern! razz

Btw: Wie schnell wäre man denn mit so einer Karte?


-----------------
Gruß blindmessenger



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.294, eingetragen 2017-02-05 19:52


2017-02-04 23:02 - cyrix in Beitrag No. 291 schreibt:
Insofern scheint es sich wohl doch zu lohnen, sich das mal anzuschauen, selbst wenn man auf der GPU noch einen Faktor 2 bis 10 verlieren sollte...

Ich bin bei meinen Überlegungen zum Ergebnis gekommen, dass man eigentlich froh sein kann, wenn man gegenüber einer CPU nur einen Faktor von 5 verliert, denn prinzipbedingt verliert man schon mal den Faktor 2 (rote Fläche).




  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.295, eingetragen 2017-02-05 20:02


@dlchnr: Wir starten ja auf der GPU mit Iteration ca. 50, d.h., alles, was bis dahin nicht überlebt hat, landet gar nicht auf der GPU. (Dafür handeln wir uns etwas mehr Datentransfer ein...)

Insofern würde ich hoffen, dass sich die Situation etwas besser darstellt.


@blindmessenger: Wahrscheinlich sollte eine Geforce GTX 1080 etwa nen Faktor 5 höheren Datendurchsatz als eine GTX 760 haben. Wobei ich denke, dass es deutlich sinnvoller sein dürfte, eher vier Mitstreiter zu suchen, als diese Investition zu tätigen...


Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
blindmessenger
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 02.08.2016
Mitteilungen: 497
Aus: NRW
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.296, eingetragen 2017-02-05 20:21


Alles klar... Wenn ich mir mal eine zulegen sollte, würde ich auf jeden Fall Bescheid geben... Aber im Moment habe ich nur eine Office-Karte...    frown


-----------------
Gruß blindmessenger



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.297, eingetragen 2017-02-05 21:01


2017-02-05 20:02 - cyrix in Beitrag No. 295 schreibt:
Insofern würde ich hoffen, dass sich die Situation etwas besser darstellt.

Ich meine, egal wo man startet, die rote Fläche wird immer größer/gleich der  blauen Fläche sein.




  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.298, eingetragen 2017-02-06 14:31


@dlchnr: Bei deiner Überlegung hast du wohl recht, dass man prinzipbedingt bei der Parallelisierung einen gewissen Faktor verliert. Allerdings sieht das Verhältnis von blauer zu roter Fläche in deiner zweiten Grafik nicht mehr so schlimm aus wie bei der ersten. Darauf wollte ich hinaus. :)

btw: Auf meinem Bürorechner läuft die CPU-Multistep-Variante so vor sich hin. Nach knapp 6 Tagen Laufzeit auf 8 Kernen sind die ersten 26.000 Restklassen abgearbeitet, was eine Laufzeit von etwas über 2,6 Kern-Minuten / Restklasse bedeutet. ETA für den Abschluss der ersten 100.000 Restklassen ist also Ende Februar.

Viele Grüße
Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.299, eingetragen 2017-02-06 14:47


2017-02-06 14:31 - cyrix in Beitrag No. 298 schreibt:
@dlchnr: Bei deiner Überlegung hast du wohl recht, dass man prinzipbedingt bei der Parallelisierung einen gewissen Faktor verliert. Allerdings sieht das Verhältnis von blauer zu roter Fläche in deiner zweiten Grafik nicht mehr so schlimm aus wie bei der ersten. Darauf wollte ich hinaus. :)

Yep - und ich habe deshalb hier auch nur den Faktor 2 angesetzt - das Bottleneck bei der Übergabe und Rückführung der Daten, die nicht vorhandene bedingte Ausführung und ein gegenüber einer CPU wohl vermindertes Instruktion- und Datatype-Set führten dann zu der Annahme, dass man es "gut gemacht" hat, wenn man einen Faktor von nur 5 hinbekommt.



  Profil  Quote  Link auf diesen Beitrag Link
gaussmath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.06.2007
Mitteilungen: 9022
Aus: Hannover
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.300, eingetragen 2017-02-13 16:09


Hallo,

ich habe mittlerweile eine 1080 GTX und könnte Rechenzeit beisteuern. Die Rechenpower von dem Ding ist wirklich beeindruckend. Allerdings möchte ich nicht unbedingt, dass die Laufzeit mehrere Tage beträgt. Das blockiert erstens mein System und zweitens zieht das auch eine Menge Strom. Außerdem habe ich noch andere Projekte, die ich "GPUfizieren" möchte...

Grüße, Marc



  Profil  Quote  Link auf diesen Beitrag Link
dlchnr
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.04.2013
Mitteilungen: 109
Aus: Aalen, DE
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.301, eingetragen 2017-02-14 12:10


2017-02-13 16:09 - gaussmath in Beitrag No. 300 schreibt:
Allerdings möchte ich nicht unbedingt, dass die Laufzeit mehrere Tage beträgt.

Wenn hier die Rede von 40000Kerntagen ist, sollte eigentlich klar sein, dass auch eine Grafikkarte keinen signifikanten Beitrag leisten kann, wenn sie nur stundenweise dafür eingesetzt wird!

Und es muss klar sein, dass sich eine Beteiligung an diesem Rechenprojekt in der Stromrechnung niederschläg!

Als ich mich vor zwei Jahren in Sachen Beal engagiert habe, dürften meine Stromrechnungen um ca. 400EUR höher ausgefallen sein! Ich hatte damals auch etliche Pentium 4 HT ins Rennen geschickt und würde mir heute eher extra einen passenden Rechner kaufen, als nochmal so einen Blödsinn zu machen :-).

Es macht in erster Linie Sinn, Rechner zu diesem Projekt beizusteuern, die sowieso durchgehend laufen - wer extra dafür einen Rechner einsetzen möchte, sollte tunlichst prüfen, ob er sich dafür nicht besser einen Rechner mit einem sehr guten CPU Mark / Max TDP Wert zulegt - es kann sonst sehr gut passieren, dass dessen Stromkosten höher werden, als ein neuer gebrauchter Rechner plus dessen Stromkosten erreicht hätten.

Und natürlich macht die Portierung auf Grafikkarten insbesondere auch im Hinblick auf die Stromkosten Sinn, denn auch wenn die ordentlich Strom ziehen, ist ihr Rechenlesitung/Watt-Wert besser als der von CPUs.

Wenn ich mal 20 Watt pro Kern (mit dem Drumrum) ansetze, ist dass hier eine 5000EUR-Projekt! Deshalb wäre es durchaus sinnvoll noch ein paar Faktoren rauszuholen, bevor man es ernstlich startet!

Edit: 20Watt sind nat. 0,02kW (und nicht 0,2kW :-)



  Profil  Quote  Link auf diesen Beitrag Link
gaussmath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.06.2007
Mitteilungen: 9022
Aus: Hannover
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.302, eingetragen 2017-02-15 12:28


Hallo dlchnr,

deine Einwände sind natürlich berechtigt. Ich dachte auch eher an einen testweisen Einsatz meiner Grafikkarte. Zum "Crunshen" kann ich leider nichts beitragen.

Wenn ihr verteiltes Rechnen implementiert, in Form von kleinen Paketen, könnte man sicher mehr Leute dazu bringen, Rechnenpower zu spenden. Das ganze mal 1-2 Tage laufen zu lassen, machen bestimmt viele. So ein intelligentes Server-Client-System müsste halt erkennen, dass man die Berechung abbricht und müsste dann das Paket umverteilen.

Grüße, Marc



  Profil  Quote  Link auf diesen Beitrag Link
gonz
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.02.2013
Mitteilungen: 2449
Aus: Oberharz
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.303, vom Themenstarter, eingetragen 2017-02-15 14:07


Ich war da ggf. auch zu optimistisch. Ich hab halt den Vorteil, dass ich in der Firma Server im Zugriff habe, die "eh da" sind und sich längerfristig langweilen. Das dürfte aber halt eher die Ausnahme sein und erst recht nicht für eine Realisierung mittels GraKa....

Ma gucken. Also doch weiter am Algo knobeln :)

Grüsse
und einen schönen Tag

gonz


-----------------
to fight! (Don Quijote de la Mancha)



  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.304, eingetragen 2017-02-15 14:16


Hallo zusammen,

mein Bürorechner hier in Jena werkelt weiterhin schön mit einem Durchsatz von ca. 4000 Restklassen/ Tag (auf 8 Kernen) vor sich hin. Den habe ich aber nur noch bis Ende Februar, sodass zwar die ersten 100.000 abgeschlossen sein werden, mehr aber auch nicht.

Wenn ich in Flensburg gelandet bin, frage ich dort mal im Rechenzentrum nach. Evtl. bekomme ich dort etwas Rechenzeit...

Derzeit investiere ich die meiste Zeit für meinen Umzug. Ob ich in Flensburg eine entsprechende Rechner-Umgebung habe, um an einer GraKa-Portierung zu arbeiten, weiß ich noch nicht.

Von meiner Seite aus, sind alle algorithmischen Ideen in den aktuellen Code eingeflossen. Möglicherweise könnte eine Assembler-Routine noch eine Beschleunigung bringen, kann ich aber nicht absehen.

Fürs Verteilte Rechnen sind wir jetzt aber auf jeden Fall in Schlagdistanz, was den Umfang der benötigten Rechenleistung angeht. Eine Methode zur einfachen Portierung in ein solches Projekt könnte der Boinc-Wrapper sein, wobei ich mich damit noch nicht auseinandergesetzt habe.


Dies kurz von mir dazu.

Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
cyrix
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 31.07.2004
Mitteilungen: 2328
Aus: Flensburg
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.305, eingetragen 2017-03-08 10:36


So, Umzug ist durch, Büro an der neuen Uni bezogen. Was die "Altlasten" aus der alten angeht, findet man hier das Ergebnis der Durchmusterung der ersten 100.000 der noch zu bearbeitenden Restklassen modulo 2^32. Wie zu erwarten war, gibt es dort keine neuen Rekorde. (Auch ist keine Startzahl in die Nähe einer Endlosschleife gekommen; nach 2000 Iterationen wäre die Berechnung abgebrochen worden.)

Die Ausgabe erfolgt dabei auf zwei verschiedene Art und Weisen: Einerseits aus der Multi-Step-Methode, die je 10 Schritte auf einmal erledigt und in diesem Abschnitt das Maximum sucht. Ist dieses größer als 10^15 * Startzahl ist, wird eine Ausgabe getriggert.

Dies kann natürlich mehrfach für ein und dieselbe Startzahl passieren. Auch für Überprüfungszwecke wird bei der erstmaligen solchen Identifizierung einer Startzahl als möglicher Kandidat eine Single-Step-Variante von gonz angeworfen, die ihre eigene -- entsprechend anders formatierte -- Ausgabezeile wirft.

Zu beachten ist, dass in gonzens Methode als Ergebnis das tatsächliche Maximum bezüglich der (3x+1)-Schritte ausgegeben wird, während die Multi-Step-Methode ja auch die automatisch folgende Halbierung nach jedem solchen Schritt ausführt, bevor der maximal erreichte Wert bestimmt wird. Da auch dieser nur mit einer Schätzung (einem double) bestimmt wird, weichen die Werte leicht, aber kaum messbar voneinander ab. (Der relative Fehler sollte deutlich kleiner als 1% sein, die eine beweisbare obere Schranke darstellen. Deshalb wird z.B. auch nur die Berechnung abgebrochen, wenn der aktuelle Wert <= 0.98 * Ausgangswert ist, um Berechnungsfehler durch Rundungsfehler zu vermeiden.)


Eine erste Anfrage bezüglich Rechenzeit hier läuft schon, wird aber sicherlich nicht vor Beginn der Vorlesungszeit bearbeitet werden. Möglicherweise habe ich dann auf eine mittlere zweistellige Zahl an Prozessor-Kernen Zugriff. Evtl., aber das wird man noch schauen müssen, dann auch wieder auf eine NVDIA-GPU, sodass dann diese Projekt-Schiene weitergetrieben werden kann. (Allerdings werde ich auch gut mit meinen 16 SWS Lehrverpflichtung ganz gut ausgelastet sein, sodass ich nicht versprechen kann, wie schnell ich vorwärts komme.)


Viele Grüße
Cyrix



  Profil  Quote  Link auf diesen Beitrag Link
gonz hat die Antworten auf ihre/seine Frage gesehen.
Seite 8Gehe zur Seite: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8  
Neues Thema [Neues Thema] Antworten [Antworten]    Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2017 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]