Beiträge von DiMa

    Lange nach gesucht, endlich ein Rev. 6.3 MB zu einem akzeptablen Kurs aufgetrieben. Der Akkuschaden sieht minimal aus, wurde aber leider nicht so ganz vollständig neutralisiert... 😬 Da muss ich nochmal ran und dann Daumen 'drücken - dann kann mein Basilisk-Projekt endlich weitergehen. Mein aktuelles Rev 4 Board kriege ich ja bekanntlich unter 3.1 nicht stabil ans Laufen...



    Und dann noch 'ne vollständige Tatstur (also mit Space-Taste 😁) für kleines Geld für meinen PowerMac gefunden:


    Das andere bekommt den Output deiner Phone-Cam, mit allem was drauf ist und trainiert nicht nur eine Fonterkennung, sondern nutzt deine Daten auch um Materialen, Muster, Pinsel, Formen etc zu bekommen, die dir dann wieder im Abo verkauft werden.

    Das kannst du allerdings unterbinden...

    Selbstverständliche nutzen Dienste wie das hier empfohlene MyFonts die vorgelegten Daten nicht, um ihre DNNs zu trainieren... 🙄


    Zitat


    WhatTheFont nutzt Deep Learning, um unsere Sammlung von über 230.000 Schriftarten zu durchsuchen und die beste Übereinstimmung für die Schriftarten in Ihrem Foto zu.

    Aus der Datenschutzerklärung:


    Aber bloss Finger von Adobe... 🙄


    Im Gegensatz zu Adobe läuft MyFonts übrigens komplett unter amerikanischem Recht, die Datenschutzerklärung verstößt gleich in mehreren Punkten gegen die DSGVO.

    Wir schreiben das Jahr 2024 und da kann man sowas einfach mit KI klären (lassen), zumal Microsoft Copilot und Co. inzwischen ja auch Bilder verstehen. Einfach die Fotos mal 'reinschmeißen und fragen "Was ist das?" - die Antwort kommt sofort:


    Code
    Das Bild zeigt einen tragbaren CD-Player. Solche Geräte waren früher weit verbreitet, sind aber aufgrund des Aufkommens von digitalen Musikstreaming-Diensten weniger gebräuchlich geworden.

    😂

    Welches RWTH Institut war denn das?

    Physik IIIB


    Wir waren damals deutlich besser ausgestattet als der Rest der Uni, u.a. mit einem eigenen RZ mit mehreren VMS-Clustern, weil in der Welt vor dem "GridComputing" (so hiess das, bevor es zur Cloud wurde und ja, auch das haben wir am CERN erfunden 😉) halt massiv Rechenleistung vor Ort benötigt wurde um dezentral die damals wie heute irren Datenmengen auszuwerten, insb. wenn man interaktiv mal in die Daten 'reingucken musste und nicht alles im batch auf den Supercomputern rechnen lassen wollte oder konnte.


    Bei PCs war damals noch bei max. 64MB Schluss und das war einfach viel zu wenig (HDFS, Kafka und Co. waren noch nicht erfunden, daher ging alles nur in-memory). Die Alphas hatten damals bereits ein paar GB RAM...

    Dann mal her mit ein paar Beispielen für die Alphas wie auch VMS

    Ich hab' ca. '94 bis '96 auf (micro)VAXen an der RWTH und dem CERN gerechnet. Da wir so mit der erste Physiker-Jahrgang waren, der mit Linux & C groß geworden war (SLS 0.1 auf 50 Floppies 😉) war VMS mit Fortran 77 ein ziemlicher Kulturschock. Das FS mit seiner Versionierung war für mich eher eine Fehlerquelle als ein tolle Funktion, schliesslich hatte schon jemand CVS (und wenig später SVN) erfunden.


    Das ganze dann begleitet von damals Mitte-50-Kollegen, für die X11 bereits der Untergang des Abendlandes war und VT200 hart an der Grenze 😉 Die haben auch damals noch mit der Schreibmaschine geschrieben, TeX war auch neumodischer Schnickschnack. Das war natürlich für uns, die wir als quasi erste Generation mit Amigas, STs, Macs und PCs aufgewachsen waren ein echter Generationenkonflikt und hat sicher nicht dazu beigetragen, mit VMS Positive szu verbinden 😉


    Die VAXen wurden dann irgendwann abgeschafft, i.W. wegen des Stromverbrauchs und der daraus resultierenden Abwärme, wenn ich mich recht erinnere und wurden durch Alphas ersetzt. Auf den WS lief dann OpenVMS, aber VMS mit X11 war irgendwie worst of both worlds und wir hatten dann schnell 'raus, dass man da auch Unix installieren konnte (OSF/1?). Das war rasend schnell im Vergleich zu den DECstations und HP-UXen, die wir sonst 'rumstehen hatten, vor allem als sich gerade am CERN die Arbeit durch das Web mehr und mehr auf die grafische Benutzeroberfläche verlagerte (die ganze Beschleuniger- und Experimentdoku wurde von SGML nach HTML konvertiert und war dann endlich durchsuchbar - einer der Hauptgründe, warum Tim das überhaupt entwickelt hatte). Mosaic statt (ungelogen!) 20 Regalmeter Handbücher nur um auf Schicht mit den ganzen Warnmeldungen umgehen zu können war ein echter Komfort- und Platzgewinn. Es gab damals nix Schnelleres als WS. Wurde dann so ab '98 aber alles durch deutlich günstigere und zunehmend performantere PCs ersetzt.


    2002 hatte ich dann nochmal kurz mit Alphas bei Ericsson zu tun, die damals noch proprietäre HW in ihren Mobilfunkvermittlungsstellen hatten und die teilweise auf Alpha-CPUs gesetzt hatten - die waren sogar Ericsson gebrandet. Die Produktion wurde aber kurz darauf eingestellt und in weiser Voraussicht haben wir dann als Nachfolger mit dem Itanium auf das nächste tote Pferd gesetzt 😉

    Kenn mich damit auch nicht so aus - muss mal gucken...

    Ui, ein Lastgenerator für application protokolle (konnte die Nummer auf dem ersten Bild nicht lesen) 😮 Mit aktivierter Lizenz? Wenn man den noch inkl. der SW nutzen kann, auf keinen Fall als Mini-ITX-Rechner "zweckentfremden"!


    Die Teile wurden erst mit Verfügbarkeit billiger Cloud-Instanzen obsolet... Ich hab' mal den großen Bruder (Avalanche) für die ersten E2E WAP-Lasttests für 3G benutzt... Laaaang ist's her 😉

    Sag, was verwendest du zum PLA glattschlaeifen? gibt´s da eine Anleitung?

    Wandstärke im Slicer ggf. erhöhen - man will ja im Mittel eine Lage abtragen weil im Mittel max. eine Lagenstärke Rauhigkeit vorliegen wird) - und dann nass schleifen. Ich fang' i.d.R. mit 600er an. Sobald sich das halbwegs glatt anfühlt, entweder echten Filler auftragen (zwei Lagen, immer gut durchtrocknen lassen) oder Kunststoff-Spachtelmasse (Tamiya, Vallejo...) mit Wasser auf ungefähr Joghurt-Konsistenz verdünnen, auftragen, mindestens (!) 24h trocknen lassen und weiter nass schleifen. Kriegt man damit so glatt, wie man will.

    Lattice C 3.1, 4.01 und 5.04 mit Original-Handbüchern in sehr gutem Zustand. hab' ich lange zu einem halbwegs akzeptablen Kurs nach gesucht 😊



    BTW: In den 5.x Handbüchern ist die Anleitung für den SDB (Manx, Aztec C) eingeheftet - das ist ein Artefakt eines Vorbesitzers, oder wurde tatsächlich irgendwann der SDB auch von SAS/Lattice zusätzlich zum CPR ausgeliefert?

    Dass es den unter CP/M gab. wusste ich gar nicht - ich hab' mit dem auf dem Amiga programmiert. Hast du denn eine konkrete Frage zum Aztec?

    Die Dokumentation war im Gegensatz zu meinem PC, den ich vor 2 Jahren zusammengebaut habe, noch schlechter.

    Wolltest du nicht ein MSI-Board kaufen? Da hab' ich auch eins, die Doku ist 1A...?!

    Aber wie gesagt, 2 Jahre lang nur Retro-PCs mit XT- und AT-Netzteilen. Da darf man schon mal verwirrt sein. 8o

    Und welche Ausrede hast du für die anderen gut 17 Jahre, in denen wir schon mit ATX unterwegs sind? 😉

    Ich würde keine CPU mit AM4 mehr kaufen, es sei denn, die aktuellen Ryzen (AM5) sind viel (zu teuer). Leistungsmäßig gar nicht mal so der Punkt, aber wenn dir Nachrüstbarkeit wichtig ist: Kein AM4 MB mehr kaufen. Wenn doch AM4 kannst du m.E. Geld mit einem 3800 oder auch 3600 (Zen2) sparen - der 3800XT ist unwesentlich langsamer als der 5800X.


    Bei CPU Kühlern mal bei Alpenföhn gucken - oft günstiger und eher leistungsfähiger als be quiet! Da zahlt man mittlerweile auch den Namen - NT können die, Gehäuse manchmal, der Rest ist eher... naja 😉


    M2 NVMe PCI4 1 TB kostet aktuell rd. 100€ und die Preise fallen aktuell. Weniger (Kapazität & Bus) würd' ich nicht nehmen für's Systemlaufwerk. Für Spiele reicht locker 'ne SATA6 SSD (massive Streamer wie FS2020 mal außen vor, wo man vmtl. mit einer NVMe SSD was merken würde).


    Beim Gehäuse würd' ich nicht nach "Gaming" gucken, sondern ob es was kann: "Gaming" mit Fenster, Beleuchtung usw. für 100€ kann nix taugen, da machst du dann beim Gehäuse Abstriche (Verarbeitung, scharfe Kanten, Trays verkeilen usw.). Unbedingt gut überlegen, ob man vielleicht doch mal ein Laufwerk (oder eine Laufwerksblende) braucht...! Die Auswahl an Gehäusen mit von außen zugänglichen Schächten ist inzwischen sehr überschaubar. Beim Gehäuse würde ich Wert auf's Kabelmanagement legen, da gibt es deutliche Unterschiede. Wenn Bauhöhe kein Thema ist, unbedingt einen Tower mit unten liegendem separaten Abteil für das Netzteil wählen. Auf werkzeuglose Montage achten (dann ist i.d.R. nämlich auch das Gehäuse besser verarbeitet, damit man sich nicht so leicht schneidet und damit nichts verkeilt).


    Ob Kerne und Speicher beim Gaming irgendwas bringen, das weiß ich nicht. Vielleicht reichen auch 16 GB Speicher aus und man nimmt stattdessen schnelleren (DDR5)?

    Kerne bringen bei Spielen nicht so viel, da zählt eher die rohe Singlecore Leistung. Deshalb wird da die Kühlung auch sehr wichtig, vor allem mit einem Übertakter-Board wie dem MSI, was du dir ausgeguckt hast. DDR5 bringt viel, ist aber aktuell noch recht teuer, da würde ich eher 'dran sparen (und AM4 Boards können m.W. sowieso nur DDR4). Für Spiele sind die aktuellen Intel 13xxx CPUs einen Blick wert, ich habe aber keine Ahnung, wie die preislich so zum Ryzen liegen. Hauptspeicher ist für Spiele eher sekundär (16GB würden sicher reichen, aber 32GB kosten unwesentlich mehr bezogen auf den Systempreis). Viel wichtiger (und sehr wichtig an sich!) ist der Speicher der Grafikkarte - mindestens 8GB RAM nehmen.


    Das meiste oben gilt auch für nicht-Gaming-Computer in diesem Preissegment 😉