Posts by ThoralfAsmussen

    Das wird es wohl gewesen sein.


    Und das hat halt wohl durchaus Auswirkungen gehabt - v.a. weil man eben eine der Hauptanwendungen, für die man einen solchen Rechner professionell einsetzen konnte, eben gerade eben nicht von der eigentlich schönen Grafiklösung profitieren konnte: DTP. Ovation und Impression mit großem Bildschirm und viel Text macht dann halt irgendwie keinen wirklichen Sinn, wenn das Ganze langsamer wird.


    Das ist bißchen wie bei der Kinetic Karte. Die hatte auch irgend so einen "Pferdefuß", der eigentlich nicht ins Gewicht viel, aber eben bestimmte wichtige Anwendungen konnten eben gerade nicht profitieren. Und ganz schlimmist wohl Kinetic und Viefinder in einem Rechner. Das wäre zwar theoretisch genau das, was die Leute damals gern gehabt hätten, aber es hat so überhaupt nicht zusammengepaßt. Deshalb war da jahrelang der angekündigte FPGA+SA Rechner der Hoffnungsträger, bis, als er dann endlich wirklich lieferbar wurde, plötzlich die Castle Maschine auftauchte. Das hat ganz viel böses Blut und viele Unstimmigkeiten gegeben, die eigentlich sogar bis heute noch nachwirken.


    Trotzdem: die Viewfinder ist eine wirklich schöne Upgrade Lösung. Ähnlich gut und sinnvoll, wie ein RapIDE oder ArcinIDE mit einer DMA fähigen Plattenanbindung.


    An der Stelle kann man dann wieder darüber philosophieren, was man bei Acorn besser hätte machen können, um die Rechner-Division zu stärken oder wenigstens so flexibel zu machen, daß Profitools dafür einfacher möglich werden. Die Zeiten wo Anwender eine State-G8 erstanden haben, waren ja lange vorbei und die anderen Rechner Optionen wurden ja auch immer attraktiver und schneller.

    Frag mal bei hubersn , wenn der hier noch mitliest. Oder direkt bei ihm über seinen Blog. Der sollte sowas haben.


    Es gibt irgendwas, was die Viewfinder nicht besser konnte (Linien?, Text?, Kopieren?), bei allen anderen Sachen war sie der VIDC2 Standardlösung haushoch überlegen. Speedtests sollte man bei archive in der AcornUser finden können. Es gab auch mal irgendwo richtige Benchmarks dazu, nur wo das war ... grübel ... (?)

    8 Bit und Vielfache davon sind eine relativ moderne Erfindung.


    Dazu gibt es hier irgendwo auch schon einen sehr schönen Thread. Die Frage - Warum denn nun 8Bit ? - ist dabei natürlich nicht abschließend geklärt worden, aber es gab sehr viel Input, was alles eine Rolle gespielt haben könnte.


    Die Hauptverdächtigen sind vmtl Intel mit dem 4004 bzw 8080 und vielleicht das erwähnte Oktalsystem, was in einer Weise sicherlich wieder so ein "Anthropozentrismus" ist, indem es nämlich noch gut möglich ist mit 3 Bit kopfrechnend und bei der Handeingabe von Code noch gut klarzukommen.


    Bei dem Thema denke ich ja, daß es zumindest für die ganz kleinen Mikrocomputer - sprich Homecomputer - gar nicht so schlecht gewesen wäre, wenn es auch mal sowas wie einen 6502 mit 10 Bit gegeben hätte. Und bißchen mehr an Adressen wäre sicher auch nicht verkehrt gewesen (z.B. dann 20 Bit statt 16Bit (64K) ... das reicht schon besser hin für Vieles, was dazumal aktuell war).


    Wird man auch nicht mehr neu bauen, vermute ich. Weshalb es wohl Theorie bleiben wird, ob sich 10Bit dann wirklich besser geeignet hätten.



    Archi-Notebook ging ganz ordentlich weg


    1219 Pfund Sterling. Krass. Zumal man über den Zustand der Akkubatterie so gar nichts weiß.

    OK, war mal einer der schnellsten Notebooks, die man bekommen konnte; aber das hat sich dann schnell geändert, als von Acorn nichts mehr nachkam im mobilen Bereich.

    Das sollte evtl sogar so gehen, aber Du mußt hinterher die Speicherenden per POKE Befehl anpassen. Es gibt das "Variablen" und "Programmende", bedies jeweile eines 16Bit Adresse in 2 Byte direkt nebeneinander. Wenn vorher Variabeln da waren, müssen die einfach nur im RAM an die neue Position umkopiert werden und sollten dann wieder gefunden werden.

    Bist Du sicher ? Bezieht sich das 'Word' auf die 64-Bit-CPU-Datenbreite ? Das ist ja eher noch die alte 'Denke' aus den 60ern und 70ern ? Ein Word waren früher bei meiner Assemblerprogrammierung auf dem 680x0 16 Bit. Ein Double Word, das waren dann 32 Bit...vielleicht noch etwas zu 8-bittig orientiert für den 32 Bit 68030.


    Ja, würd schon sagen. Und es wird genau so zu lesen sein, wie lgp30 es beschrieben hat. Also very old school words .


    Wenn Du es bißchen offizieller haben magst, ist auch hier

    Cray YMP Model E
    Cray YMP Model E Range <img width=”150″ height=”150″ src=” alt=”” srcset=” 150w, 300w, 450w” sizes=”(max-width: 150px) 100vw, 150px&#8…
    cray-history.net

    bei "Configurations and Variants" die *8 als Faktor aufgeführt.


    Das wird halt nur dadurch komisch, daß man sich mal auf 8Bit als "Standardnormal" geeinigt hat. Bei z.B. einer 12 Bit Maschine wären ein DobleWord auch heute noch 24Bit.

    Hatte so ein Supercomputer wie diese CRAY Y_MP-2E 264 tatsächlich zu der Zeit anfangs der 90er tatsächlich nur 64 Mega-Words RAM ? Also 128 MB ?

    Da ist doch heute eine viel größere Spreizung vom Mini-Computer zum Super-Computer in Sachen RAM, oder ?


    64 Megawords sind aber nicht 128MB sondern 512MB ! (Rechnung geht *8)


    Und das ist doch schonmal ganz brauchbar, wenn man übliche 1, 2 oder 4MB im PC Bereich dagegen setzt. Außerdem funktioniert so ein Gerät bestimmt auch ein wenig anders als ein PC. Die hat üblicherweise genau eine (ein paar wenige) Rechenaufagebn und die Daten werden evtl sogar zeitgleich zugespielt, so daß man nicht warten muß.


    Wo stand der Cray mit seinen 128/256/512MB und wieviel RAM hat ein heute, vergleichbarer Supercomputer?

    Mit welchen Min-Computer willst du das vergleichen? Mittelklasse?


    Heute hat ein Supercomputer unglaubliche Mengen an RAM. Die Frage da ist wohl eher, wie der zugreifbar ist. Ob man also direkt jedes Byte von überall ansprechen kann oder ob das schön gekapselt innerhalb kleinerer einzelner Einheiten (Knoten) liegt.


    Guter Vergleich für sowas wäre bestimmt immer der jeweilige zetilcih passende größte Mac.

    Die sind eigentlich immer schön definiert gewesen und auch immer ziemlich schnell gewesen. Ist auch heut noch so.


    Rein prinzipiell ist der Vergleich aber eher "nutzlos", weil man da ganz anderes Nutzungsprofil hat.

    Das ist so bicßhen wie bei Benchmarks - Direktvergleiche machen eigetnlich nur mit definierter Anwendung Sinn. Sieht man immer wieder schön bei den FPS der Gamebenchmarks. Ist aber beim Linpack bestimmt nicht viel anders.

    Dieses "Bells Law" aus dem Heise Artikel (Schluß) ist wirklich interessant. Das trifft auch heute immer noch unverändert zu.


    Ist interessant, daß die VAX so betont wird in den Nachrufen. Viel einschneidender - in der "historischen Dimension" - dürfte ja vllt eher die Erfindung des Minicomputers gewesen sein. Damit holt DEC schließlich die Computerei überhaupt erstmal in die profanen Niederungen der normalen Welt. So ähnlich wie später Chuck Peddle das Gleiche nochmal für die "einfachen Leute" macht.

    Wer weiß, wie die (Computer)Welt ohne DECs PDPs heute aussehen würde.


    Scheint aber auch ein Freak gewesen zu sein, v.a. wenn er das mit digitalisierten und mitnotierten Leben wirklich durchgehalten hat.


    In 100 Jahren bestimmt jemand, der besser bekannt ist als heutzutage.

    Der C 16 ist hefig umgebaut - und eine C 64-Datasette ebenfalls. Der Rechner soll noch funktionieren ... früher wurde damit angeblich eine Modelleisenbahn angesteuert ...


    Das ist mal ein interessanter Umbau. Vor allem der Teil hinten rechts sieht interessant aus. Kann da jemand sagen, was das "tut" ? Nur ein "IC" Puffer damit beim Umstecken (hot-plug) im Rechner nichts kaputt geht oder doch was mit einer echten Funktion ?


    (Die Joysticks und der Tapeanschluß scheinen ja lediglich andere Buchsen zu sein.)


    Die Kühlervarianten sind auch lustig. Allerdings wäre ein Kühler auf dem TED vielleicht auch nicht schlecht gewesen, wenn man sowas schon macht (und vielleicht auch sinnvoller als auf der CPU).

    Ich hatte damals in der uni meinen Dozenten gefragt, ob ein Programm seinen Code auch selber modifizieren kann. Seine Antwort war nein.


    Also wenn er wirklich überzeugt war, daß das nicht geht ... dann war er wohl falsch informiert.


    Ist eigentlich ein schönes Tool, aber man versteht die Sachen dann schon 1/2 Jahr später selbst nicht mehr. So gesehen hat das schon seine Berechtigung, daß man das meidet.


    Prozessoren wie der 6502 und der Z80 sind mit ihrer indirekten Adressierung darauf optimiert, nicht-selbstmodifizierenden Code aus dem ROM auszuführen.


    Wieso das ?

    Oder anders: Was hat die indirekte Adressierung damit zu tun ?

    Australian Personal Computer August 1987 : Australian Personal Computer : Free Download, Borrow, and Streaming : Internet Archive
    Australian Personal ComputerAugust 1987Volume 8, Number 8RegularsNewsprintAn early look at Microsoft Excel for the IBM PC; multi-tasking for the Macintosh;...
    archive.org


    da ist auch noch was Lustiges zum Thema Pascal. Das MX Pascal. Hat eher für die eigentliche Frage hier keine Bedeutung, aber man kanns ja mal gehört haben.

    MY ist so eine Kombination aus Membran und oben drauf ein Switch-Oberteil. Ein echter Switch ist es nicht, aber es tastet sich trotzdem gut. Deutlich besser als die reinen Membrankeyboards (RS6000).


    Da gibt es schöne Bilder vom Aufbau : https://deskthority.net/wiki/Cherry_MY


    Es ist ja nun nicht so, daß echter Switch immer besser sein muß. Auch große Firmen haben z.B. wirklich brauchbare Rubberdome Keyboards mitgeliefert. Etwas die SGIs ab ungefähr 1995, waren/sind wirklich schön. Gabe es auch bei DEC u.a. in baugleicher Form.

    Schönes Teil und schönes Angebot.


    Vielleicht magst Du die Anzeige noch in den Marktplatz ( oben mittig in der gelben Leiste) kopieren bzw dort nochmal einstellen, bevor es hier wieder große Diskussionen gibt.


    Als Preis kannst Du ja dann 0 EUR reinschreiben.


    Ansonsten: Köln ist groß ... die Ecke / Stadteil wäre bestimmt für einen potentiellen Abholer interessant.

    Für Deinen neuen C64er und Ähnliche willst Du bestimmt erstmal Assembler lernen.


    Ansonsten schau mal nach BBC und Bywater BASIC. Ersteres gibt es für allerlei Plattformen, das Zweite kommt als Sourcecode und kompiliert ohne großen Extrainstall.


    Prinzipiell ist PASCAL sowas wie eine Teilmenge von C nur in anderer Notation. Da kann man entweder gleich das C nehmen oder man schaut mal nach sowas wie p2c (pascal to c) und prüft, welche Kommandos da unterstützt werden und was nicht geht.


    TurboPascal hatte den großen Charmen des schönen Editors - das geht heut auch besser - und der guten Kommandos und Bibliotheken, die aber in vielen Dingen ur sich selbst gemocht haben. Das scheidet daher m.E. schonmal aus, weil es eben primär nur DOS und WIN bedient.

    .


    zum Anlesen


    . https://link.springer.com/chap….1007/978-3-642-75833-1_9



    wg Bild 1


    . https://www.semanticscholar.or…e8601b270717338113c272ab1


    Nachbetrachtung 25 Jahre später , Expand klicken


    . https://www.semanticscholar.or…64ea12d366f14a79f4bb742ef



    (wie üblich bei solchen aktuellen und hochwertigen Sachen nur mit Institutszugang voll lesbar (die auch ein entsprechendes Abo haben müssen) oder in der nahegelegenen UniBibliothek für alle anderen) (im deutschen Wald oder in Brandenburg wird es dann schwierig oder teuer (die paywall will 30EUR pro Artikel))

    Alles in der eigenen Suppe gekocht, und dann heißt es am Ende "wir haben was gelernt und sind jetzt - international - weniger hinterher".


    Na, aber ohne sowas ist es eben mit dem Wissenserwerb dann auch schwierig. Und da gibt es viele Themen, wo man in DLand genau deswegen nicht mehr richtig mitspielt.


    Um beim Beispiel zu bleiben: das Konzept Transputer ist letztlich aus der gleichen Zeit und eigentlich ziemlich spannend. Das fanden Leute sogar 1994 noch interessant, wenn mal darüber berichtet wurde. Und eigentlich ist da doch die Idee das so ähnlich aber mit Standard CPUs (68xxx) zu machen, gar nicht so schlecht. Was man dann natürlich nicht nachvollziehen kann, warum sowas nicht "einfach gemacht" wird, sondern da dann plötzlich 8MB RAM daneben sitzen müssen und jede Menge undefinierbares und vmtl extrem teures Zeug, was da noch mit auf der Platine zu sehen ist.


    Vielleicht hätte ja auch mal jemand aus dem Bereich KI - der in DLand zu der Zeit gar nicht so schlecht aufgestellt war - das fertige Ding mal benutzt, um Netze mit mehr als 3 Ebenen zu rechnen - und plötzlich würde sich die ganze Story völlig anders lesen.



    edit: da gibt es bißchen was zum Vergleich. Ist wohl gar nicht so schlecht, das Teil.


    DTIC ADA445959: A Comparison of the Intel iPSC/860 and the Suprenum-1 Parallel Computers : Defense Technical Information Center : Free Download, Borrow, and Streaming : Internet Archive
    The author compares the Intel iPSC/860 and SUPRENUM-1 parallel computers using a well-known scientific application algorithm. The algorithm, the Shallow…
    archive.org



    SUPRENUM – Wikipedia
    de.wikipedia.org


    Intel iPSC - Wikipedia


    .


    https://www.ebay.de/itm/276470987142


    Wer hier so richtig auf Archimedes steht, sollte zuschlagen. Das Notebook ist äußerlich baugleich mit den Olivetti V16 / S20 und Triumph-Adler 286 / 386SX und wurde vermutlich auch in Nürnberg zusammengebaut.


    Schick. Bißchen Batteriegrün, aber läuft immerhin noch. Bei 300 Pfund und jetzt schon 11 Geboten weiß man aber auch in welche Rcihtung das so gehen wird.


    Für alle Uneingeweihten


    . https://archive.org/details/eu…-09_OCR/page/n61/mode/1up


    und


    Acorn A4 Notebook (mit ARM3 CPU) ?



    Ist ein A5000 in kleinem Format - wobei es eigentlich eher genau andersherum ist. Die haben nämlich zuerst den A4 gebaut und der A5000 ist dann quasi die "aufgeblasene" Variante davon - oder freundlicher gesagt, das Flagschiff der damaligen Reihe.


    Da der A4 mit geringerer Farbanzahl betrieben wird, fühlt er sich trotz einem MHz Takt weniger gleich schnell oder vielleicht sogar ein bißchen performanter an.


    Man beachte: einen RTC Stützakku hat der sicher auch und die EU Einfuhrpauschaule kommt auf den Preis noch drauf. Versand aus UK ist traditionell auch nicht ganz günstig. Also mindestens noch ca. 100 Euronen Gesamtaufschlag für beides einplanen.


    Ansonsten - sehr interessantes Book ! SPARCbook dürfte aber wirklich seltener sein. Vielleicht lohnt es sich ja eher darauf zu sparen.



    edit: Diese BYTE Ausgabe ist auch sonst sehr lesens-/ansehenswert. UNIX Schwerpunkt zu einer Zeit als das absolut nicht klar war, wie es damit weitergeht. Daß mal ein Linux so große wird, daß auch Windows eine Unix Konsole einführen wird, das war da bestimmt nicht vorhersehbar.

    Zumindest bei den Mac LCs willst Du auf alle Fälle mal auf den Boards und auch im Netzteil nach den Elkos schauen ...

    Vermutlich auch bei den 7xxx er PowerPCs.


    Ansonsten, diese Telefonkabel da in der Kiste sind ein Farallon Netzwerk über die seriellen Buchsen. Könnte aufgebaut und mit einem Mac mit einem Ethernet ein sehr interessanter Aufbau sein. Genau so waren dieses Art "Kabinette" auch verkabelt - 5 bis 10 Macs günstig seriell verbunden und eine 10 oder gar 100MBit Leitung zum Großrechner.


    edit: Ich würde alles, was man an Kabeln auf den Fotos erkennen kann dem Mac Lager zuschlagen. Die weißen Kästchen sind die NTs für die Powerbooks. SCSI am Commodore war auf 8Bit auch eher unüblich ...

    hmm ... auf Papier, das ist natürlich was ganz old-schooliges. Aber für die Variante "mit dem Pad im Garten sitzen" gäbe es z.B. das da



    was aber nur die ersten Jahre rund um den VC20 herum beschreibt und weniger das zweite berühmte Gerät, unter dem dem Meisten heute noch die Marke kennen - den Amiga.