Mac Mini A1176 - Dual Core

  • Ja, Single-Threaded Power, es ist nicht immer eine Lösung einfach mehr Cores auf einem CPU zu basteln. Sehr viele Anwendungen können gar nicht richtig damit umgehen. Was ich meine ist, dass viele Anwendungen zwar Mutlithreading sind, aber einfach nur mehrere Aufgaben gleichzeitig Durchführen statt eine Aufgabe schneller. Dies merkt man sehr schön bei SQL-Server 2012 mit nur einer Datenbank, da helfen einem keine 4 oder 8 Kerne, der daddert schön auf einem Core herum.


    Ich habe mal einige Benchmark auf der Arbeit gemacht von unseren Office Computer (Core2Duo bis i5-8400). Und man merkt, das von der Core2 Generation zur Core-I der ersten Generation noch ein großer Sprung ist und auch zu der 2. Generation der Core-I ist noch ein deutlich Sprung zu sehen. Aber dann wird es deutlich weniger. Der i5-8400 macht wieder einiges weg weil der 6 Kerne hat. Single-Threaded aber ist der i5-8400 kaum schneller als der i5-3570 und dabei hat der i5-8400 im Turbo satte 200 MHz mehr.


    Davon mal abgesehen, brauchen viele diese Rechenleistung überhaupt nicht. Es kommen ja teilweise Rechner, auch von Apple heraus mit i5. und 1.5 Ghz. Softwaretechnisch sind wir momentan wohl recht am Ende. Videobearbeitung und diverse Spiele mal abgesehen.


    Ein W3680 mit nur 16GB, der müsste doch 24GB können. Die X-Serie kann 64GB. Ich habe 2 X5675 (6x3,06 Ghz mit HT) drin, mit 48GB. 96GB, also 6x16GB, war mir an doch zu teuer. Der W3680 ist ja aus der gleichen 1366 Baureihe. Auch Sau schnell, nur der Stromverbrauch ist auch recht hoch.

    Schaut doch mal in meinem Blog vorbei.

    • Offizieller Beitrag

    Klar, inwieweit man die ganzen Kerne sinnvoll nutzen kann hängt natürlich vor allem von den Anwendungen ab.


    Bei RAM-Ausbau geht laut Mainboard-Dokumentation leider nicht mehr.

    Ob das Board (Gigabyte EX58-UD3R) vielleicht doch mehr kann, habe ich mangels passendem Material bisher nicht ausprobiert.

    Und auf blauen Dunst möchte ich natürlich keine DIMMs kaufen.

  • weil's dann maximal aufgerüstet ist ...

    na ja, 16GB ist schon ziemlich gut, mal sehen wie lange.



    Die Grafiken sind sehr schick !


    Aber: Man muß da auch sehen, daß das eine logarithmische Y-Achse ist, und das bedeutet

    von 2005 bis 2010 ein Anwachsen der SPECint Werte von 8 auf ca. 20 Indexpunkte, dagegen

    von 1995 bis 2000 eine Änderung von 0.25 auf 1.4


    Es kommt nun bißchen drauf an, ab wann man Rechner für "normales" Zeugs als benutzbar ansieht (die größte Warteschleife sitzt vor der Tastatur, galt schon ca. 1985), dann hat man da jetzt immer auf eine immense Rechenleistung einen gewaltigen Aufschlag pro Jahr, der weit über der einer High-End Workstation von Anfang der 90er Jahre liegt (DEC oder sowas).

    Das die Kurve trotzdem abschrägt, ist natürlich schon richtig. Aber das ist normal, wenn man sich der atomaren Grenze von einer per Hand abzählbaren Menge von Atomen nähert. Das nächste große Ding ist dann Rechnen in Elektronenniveaus oder irgendwas anderes, was noch niemand erfunden hat. Photonen wäre noch lustig.



    Das Thema mit den Multi-Core Geschichten ist da natürlich noch nicht berücksichtigt.

    Und was man auch berücksichtigen muß, sind die gewaltigen RAM Größen, momentan bei Servern gut zu sehen, wo man nix mehr swap't und schon seit der AMD K10 Genration die Speicheranbindung so schnell ist, das man kaum sieht, ob nun ein L3 Cache vorhanden ist (Phenom) oder ob der komplett fehlt (Athlon).



    An der Stelle kommt dann auch der Apfel wieder ins Spiel, die machen nämlich eine Superverteilung der notwendigen Rechenleistung in ihren iPhones. Bißchen so wie beim Amiga, für jedes Extra - was die Leute auch wirklich benutzen - gibt es spezielle Hardware, alles andere wird weggelassen. Und das auf eigener Hardware (ARM Vollizenz).

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • https://www.heise.de/newsticke…iter-Zukunft-4500699.html


    Hier noch was zum Thema MOORE

    Stichworte Zen2 und 1.5 ExaFLOPS und 7nm und Chiplets.


    Interessant finde ich, daß man durch Compileroptimierung 8% der Steigerung holt - da sollte man doch annehmen, daß das Thema "durch" ist und bekannt ist, wie man was auf welcher Hardware optimiert und der Compiler das kann.

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries