Beiträge von gilead
-
-
IMHO eine schlechte Initiative. Man will Firmen dazu verpflichten, dauerhaft Geld in ein Produkt zu stecken. Immerhin muss man bei MMOs nicht nur die Server angeschaltet lassen, sondern auch entsprechend für die Sicherheit sorgen. Das kostet deutlich Geld, mit Einspielen von ein paar OS Updates ist es meistens nicht getan. Zum Beispielt muss man Zwei-Faktor-Authentifizierung oder ähnliche Sicherheitskonzepte noch nachträglich in die Software einbauen. Wenn die Spielerzahl unter eine gewisse Grenze fällt, lohnt sich das nicht mehr.
Was werden die Firmen also machen, wenn sie zu sowas verpflichtet werden? Sich irgendwas einfallen lassen, um das zu umgehen oder wir am Ende alle dafür bezahlen müssen, damit ein paar ein altes Spiel spielen können.
Viele "soziale Verpflichtungen" klingen erstmal gut, aber enden schlecht, weil man die Folgen nicht voraus sehen kann.
-
So richtig kapiert habe ich das auch nicht - aber scheint so eine Art "mini-jail" zu sein, ala BSDs, mit der besonderen Note, daß der User plötzlich dann auch einmal root fürs gesamte System werden kann. Und das sollte ja eigentlich auch für alle Geräte, denen man eine .sh Datei unterjubeln kann, irgendwie relevant sein - inkl tausender NAS System etc.
Ganz generell: dieses sudo ist ja sowieso ein komisches Kommando. Entweder man trennt root und user, oder man läßt es einfach sein. Was bei sowas dann herauskommt, ist etwa auch der seltsame Modus, den ubuntu anbietet, mit einem eingeschränkten sudo und keinem su mehr. Heutzutage wäre es evtl auch spannend mal über eine super-root nachzudenken. Das könnte für manche Dinge auch sehr hilfreich sein, wenn es den gäbe.
"root" ist ja ein super-root ohne jede Einschränkung. sudo kann man beliebig stark einschränken auf einzelne Befehleusw. Das ist auch genau der Vorteil gegenüber su. Allerdings wird die Möglichkeit zur Einschränkung sinnvollerweise auf einem normalen Desktopsystem nicht sonderlich benutzt, sudo kann da meistens alles. Und das ergibt auch Sinn, da root auf einem Einzelbenutzersystem nicht wichtiger ist als der eine Benutzer, in dessen Homeverzeichnis üblicherweise 100% der interessanten Daten liegen.
Wenn man es wirklich Ernst meint, dann benutzt man SELinux. Damit kann man sehr genau die Privilegien steuern. Ist aber viel Arbeit. In meiner Firma machen wir das für sicherheitsrelevante Kundensysteme, für Einzelbenutzersysteme kann ich das wirklich nicht empfehlen.
-
Bitte verstehe es nicht als negative Kritik, sondern als Interesse: Was ist deine Motivation einen "echten" C64 aufzubauen, statt z.B: einfach einen TheC64 Maxi zu verwenden?
WombleMC - sorry, ich wollte Deinen Thread nicht kapern. Ich habe nur eine gewisse Verwandschaft festgestellt.
Darf ich auf meine Ultimate Version antworten?
Der C64 auf Basis des Ultimate 64 Elite II ist halt ein genialer C64 Hardwarenachbau und keine Softwareemulation. Da funktionieren alle Module und eine echte Diskettenemulation (Hardware im FPGA!!) ist auch eingebaut Weiter:- Stromversorgung über USB-C
- Videoausgabe über HDMI
Ausserdem ist die Kiste halt schön - aber das liegt im Auge des Betrachters.
Alles HobbyUnd gibt es außer dem "Alles Hobby" noch andere Gründe? Ist zum Beispiel das Lag der Video oder Audioausgabe auf einem TheC64 deutlich höher als auf einem solchen Hardwarenachbau?
-
Für Betreiber von Servern macht das absolut Sinn. Für den normalen Benutzer eines Desktoprechners daheim oder in einer Firma ist das nur wieder Panikmache (Click Bait) von heise und Co. Ich kenne keinen einzigen solchen Benutzer, der Mehrbenutzerbetrieb in einer nicht vertrauensvollen Umgebung durchführt und jeder Benutzer des Rechners (üblicherweise: ein Benutzer) kennt das sudo Passwort.
-
Bitte verstehe es nicht als negative Kritik, sondern als Interesse: Was ist deine Motivation einen "echten" C64 aufzubauen, statt z.B: einfach einen TheC64 Maxi zu verwenden?
-
Jens Schönefeld hat wohl schon eine Commdore Lizenz. Ich denke, dass zumindest solche Retro Produkte für das alte Commdore (also bis C128) in Zukunft auch wieder die Lizenz bekommen können. Fragt sich halt nur, wer die Prozente nur wegen des Logos bezahlen mag.
-
Das wäre natürlich eine spannende Möglichkeit. Aber wenn ich die ganzen Querelen zwischen insb. Cloanto und Hyperion verfolge, bin ich mir nicht so sicher, ob selbst Michael Battilana offen für so etwas ist - möglichst viel Geld aus den alten Marken herauszupressen scheint ein wesentliches Ziel zu sein. Das ganze Misstrauen ist zwar verständlich, wenn man mit Ben Hermans verhandeln muss, aber dennoch habe ich meine Zweifel.
-
Da ja immer noch der Nachbau des A1200 aussteht, der vor ca 2 Jahren mal aufgeschoben worden ist, weil irgendwie nicht klar war, wie und wer da noch mitsprechen darf und wie man den dann nennen darf, wäre das natürlich eine witzige Sache, wenn sie an der Stelle "weitermachen". Immerhin ist da ja genau der historische Bruch passiert und Escom hat ja dann auch nicht mehr die Performance gehabt, da was "weiterzubauen". Das, was man noch am ehesten als eine Weiterentwicklung sehen könnte, war m.E. der Infintiv Minitower mit den PCI Slots. ( https://bigbookofamigahardware.com/bboah/product.aspx?id=1341 )
Diese Kauf der Commodore Marke und viele Submarken und einiger Lizenzen hat *nichts* mit Amiga zu tun. Die Marke Amiga, die Rechte an dem OS und der alten Hardware und vieler anderer Software und Hardware rund um den Amiga wurden schon vor Jahrzehnten(ich glaube schon mit Escom) aus dem Commodore Universum herausgelöst.
-
Ich frage mich, wer sich aus der Runde hier in den 90ern und 2000ern schon über den Weg gelaufen ist. Die Quellen alter Rechner war ja zeitweise sehr ähnlich, und eine ganze Menge öffentlicher (d.a.f.c) und privater Gruppen gabs ja damals schon.
Kennen sich hier schon viele aus der damaligen Zeit?
Ein paar alte Gesichter habe auch ich hier ja wiedergefunden.
Ich war etwas erstaunt, dass ich niemanden aus meiner sehr aktiven Zeit als professioneller Software Entwickler für den Amiga (ich war einer der Partner bei Haage&Partner) hier im Verein getroffen habe. In den Amiga Foren bzw der Amiga OS Entwicklung sehe ich noch manche Namen von deutschsprachigen Entwicklern, mit denen ich teilweise auf täglicher Basis zusammen gearbeitet habe. Aber bislang nicht hier im Verein.
-
Ich habe es damals nicht so richtig als "Sammeln" realisiert, aber ich habe mal Ende der 80er völlig grundlos einen Sinclair QL gekauft und etwa zur selben Zeit einen alten Computer aus den 70ern für Statistikberechnungen gerettet. Leider existieren beide Rechner nicht mehr. Danach habe ich immer mal altes Zeug übernommen, aber wirklich gesammelt habe ich erst viel später.
-
Bei Atari bin ich mir nicht ganz sicher - die Bildung ist da ggf schwächer, aber aus Erfahrung sehr breit in der Bevölkerung. Rede ja öfters mit 'nicht itlern' und da wird oft dann von einer frühen schwarzen Konsole geredet mit Steckmodulen ... ein Atari VCS.
Ich gebe Dir recht, die aktive Erinnerung an die alten Atari Spielekonsolen ist groß und weit verbreitet in der westlichen Bevölkerung und dass die emotionale Bindung nicht so hoch wie bei C= ist.
Was soll den bitte „bei Atari ist die Bildung schwächer“ heißen? Diffamierung widerspricht den NUBS
Immer entspannt bleiben. Ich bin mir sicher, das sollte "Bindung" und nicht "Bildung" heißen
-
Vielleicht sollte man das "greatest tech brand history" etwas umformulieren: "the most emotional brand that existed the longest time after the company died". Wie ThoralfAsmussen schon schrieb, war CBM zumindest in den 80ern und Anfang der 90er DIE Marke in den Kinderzimmern. Viele (ich auch) verbinden damit heute beste Erinnerungen. Und da ist es schon außergewöhnlich, dass diese Marke auch 30 Jahre nach dem Bankrott der Firma und ohne ein relevantes neues Produkt immer noch bekannt und irgendwie beliebt ist. Welcher Hahn kräht nach Kodak? Oder nach Telefunken? Selbst Atari konnte anscheinend trotz ihres Erfolges in den 70ern und 80ern nicht eine vergleichbare emotionale Bindung aufbauen.
-
Wie ich es verstanden habe, erstmal nur für die Patreons.
-
Aber nicht mit dem Shirt!
Ein Commodore-Lichtschwert findet er eine gute Idee? Ist doch genau so überflüssig wie Amiga-Socken?!
Das mit dem Shirt musste ich auch mal gleich unter dem Video kommentieren
Überhaupt scheint mir das recht unausgegohren. Natürlich wäre es schön, wenn diese Marke im Markt eine eigenständigen und echten Wert hätte. Meiner Meinung nach ist das aber Traumtänzerei.
-
Um alle zufrieden zu stellen könnte man den Discord Channel umbennenen in DvnasgDCdVzEkC* um den Abstand zum Verein zu vergrößern
* Der von nicht allen so geliebte Discord Channel des Vereines zum Erhalt klassischer Computer
-
Ich setze meinen heimischen Computer mit einem ganz normalen analogen Audio Kabel zur Aufnahme/Abspielen von .wav Dateien in Linux ein. Da gibt es viele einfache Tools, Kommandozeile oder UI. Funktioniert problemlos. Ich benutze es zwar nur mit dem Sinclair Spectrum, aber das sollte keinen Unterschied zum ZX81 machen.
-
Vielen Dank für die ganze Mühe! Die LOAD #11 ist bei mir auch angekommen, ziemlich erstaunlich für einen Montag.
-
Kommt natürlich auch darauf an, wie optimiert der Decoder implementiert ist. Für AmigaOS 3.5 wurde ein Player lizenziert, der erstaunliches dadurch erreichte, dass die Kernroutinen komplett in hand-optimierten M68K Assembler implementiert wurden. Das war natürlich kein mpeg in Full HD oder gar H264. Aber eben doch mehrfach so leistungsfähig wie die in C für multiple Architekturen geschriebenen Decoder.
Am Ende macht das alles aber nicht so viel aus: egal ob die CPU schneller ist oder der Code hoch optimiert: Die quadratische Zunahme der Pixel erschlägt jedes lineares Wachstum der Rechnerperformanz. Full HD ist deutlich größer als z.B. PAL: etwa Faktor 5, nimmt man noch die Tatsache hinzu, dass PAL meistens mit Interlace angezeigt wird und nur 50 statt 60 Hz benutzt, dann sogar Faktor 12. Eine Reduktion der Farbtiefe kann nochmal einen Faktor 2 bis 3 oben drauf packen. Und damit spielt wohl die Auflösung und Qualität, in der das Videomaterial zur Verfügung steht eine größere Rolle, als die CPU, um den ältesten Rechner zu ermitteln, der das dekodieren kann.
-
fleißiger Verteidiger des Wortes "edieren"
Es heißt ja auch "edieren". Das Wort "editieren" gibt es nicht, das ist die Verdeutschung von "(to) edit".
Ah, jetzt wissen wir, das sich hinter dem Pseudonym "Igpo30" Herr Dr. Peter Kittel versteckt
Tatsächlich war es eine legendäre Diskussion auf den user groups und natürlich haben Herr Dr. Kittel und Du Recht. Es war nur witzig, mit wie viel Engagement er das erklärt und verteidigt hat. Wenn ich mich richtig erinnere, hatte er sogar nochmal die Duden Redaktion angeschrieben. -
Ich kenne mich mit Gotek und den Floppy Images nicht aus. Aber eigentlich sollte der Volumename einer Diskette, welches auch im ADF Format abgespeichert wird, durch jedes ADF Tool angezeigt werden können. Und ein Volume umzubenennen ist auf der Workbench oder dem CLI (Relabel) kein Problem. Dann must Du das ADF wenigstens nicht im Emulator laden.
-
Ach, da Du auch Steuerberater ansprichst: Steuerprüfung gehabt, alles soweit erfolgreich, nur eine kleine Beanstandung. Wir haben Prüfer und Steuerberater zur Abschlussbesprechung ins Haus geladen. Die kleine Beanstandung hat ca 3 Minuten gedauert, der Steuerberater hat einen Fehler gemacht (irgendwas mit Abschreibung von Zinsen vergessen). Danach gab es noch Kaffee und Kuchen (sowas gehört bei uns dazu) und nettes privates Gespräch. Steuerberater stellt Rechnung über 2h Dienstleistung. Es war sein Fehler!!! und 3 (in Worten: DREI) Minuten Arbeitszeit!!!
-
Oh je, da stichst Du in ein Wespennest. Ich hoffe, dass wir hier jetzt keine anwesenden Handwerker beleidigen oder zu politisch werden.
Meine persönliche Erfahrung ist gar nicht so sehr, dass Handwerker schlechte Arbeit leisten (ich bin Sesselpubser, da kommt außer bei Elektrik in den meisten Fällen etwas noch schlechteres raus) oder zu teuer per Stunde sind, sondern, dass die Angebote bzw Rechnungen Leistungen enthalten, nach denen ich nie gefragt habe und aus einem kleine Auftrag ein Riesending machen. Mein Gefühl ist, dass Handwerker heute für unter 10.000€ nicht mehr den Betrieb verlassen wollen. Vor etwa 10 Jahren lag dieser Wert schon bei 5,000€, vor 20 Jahren kann ein Handwerker auch noch für 100€ angefahren.
Beliebiges Beispiel gefällig: Wir haben eine Zimmerei nach einem Angebot gefragt, das Dach eines CarPorts um ca 1m anzuheben, um ein höheres Fahrzeug unterzubringen. Wir haben deutlich gemacht, dass uns das Dach und alle anderen verbauten Teile noch gut genug sind und wir max. 5.000€ ausgeben wollen. Es kam dann ein paar Wochen später ein Angebot für über 15.000€ mit kompletten Austausch des Daches, kompletter Neubau der Punktfundamente und Austausch alle Pfosten. Sprich: ein Neubau des CarPorts. Ach ja, das Holzmaterial sollten wir noch zugesägt liefern (das war allerdings so abgemacht, rückt aber den Angebotspreis noch weiter in ein anderes Licht). Der Unternehmer hätte ja auch sagen können: Danke, kein Interesse. Aber das geht wohl nicht. Das ist ärgerlich aber zu akzeptieren, wenn es sich um ein Angebot handelt. Wir haben aber leider auch schon die Erfahrung gemacht, dass Handwerker diese Auftragserweiterung erst auf der Rechnung mitteilen. Und jedes Mal vor Gericht gehen?Und ich habe viele andere Beispiele: Anlieferung eines teuren, neu gekauften Holzofens sollte durch den Händler erfolgen. Rechnung für die Anlieferung (ca 80km) und 4 stündige Montage: 2000€. Natürlich nicht vorher gesagt, sondern einfach auf die Rechnung drauf genommen. Neubau eins Stalles: 30% Preisaufschlag in der Rechnung, denn man hatte sich im Angebot "verrechnet" (was aus dem billigsten Angebot das weitaus teuerste machte). Streit endete in einem Vergleich aus der Hölle. Usw...
Diese Erfahrung mache ich immer wieder. Aus Fliegen Elefanten machen. Und immer schön das teuerste und beste Material verwenden, selbst wenn es sich um die Reparatur eines 20 Jahre alten Fahrzeugs handelt. Auch gerne gegen klare Absprachen verstoßen. Ist die Rechnung erstmal erstellt, liegt der Ärger auf des Kunden Seite.Ich bin froh, dass ich inzwischen wenigstens 2 KFZ Werkstätten gefunden habe, die diesen Wahnsinn noch nicht mitmachen.
-
Es kann also durchaus sein, dass ED und MEmacs später instabil waren und es keinen interessiert hat.
µEmacs läuft stabil. Unter 2.04 hatte ich bisher (mehrere Stunden) keinen Absturz, unter 3.1 selten. ED unter 3.1 reproduzierbar immer, unter 2.04 immer wenn ich irgendwas - scheint egal zu wein - vorher gemacht habe, bevor ich ihn aufrufe. DiskCopy, Prefs, 'ne excellence!-Datei angucken - ganz egal. Frisch gestartet kann ich den ED unter 2.04 starten - auch mehrfach hintereinander - sobald ich irgendwas gemacht habe, nicht mehr.
Der ED von 1.3 läuft auch nicht mit Kick 2.04 oder 3.1 (da kommt dann aber ein komplett anderer Fehler). Die anderen Systemtools (µEmacs, DiskCopy, Edit usw. ) haben dagegen überhaupt keine Probleme mit dem neuren Kick-ROM.
Wie gesagt, wäre super, wenn mal einer von euch das probieren könnte, nicht das ich da irgendwelchen Geistern hinterherjage.
Bist Du Dir sicher, dass Du ED aus offiziellen Quellen hast? Ich habe jetzt noch Tests mit OS 3.1 im Emulator ohne startup-sequence und SetPatch gemacht und ED läuft immer stabil. Meine Quellen sind allerdings die OS Versionen von Cloanto aus verschiedenen Veröffentlichungen.
Ich habe zwar kein Problem mit ED feststellen können, aber ich habe eine OS 3.1 Version, die unter der typischen Amiga 2000 Konfiguration gar nicht erst booten will, während OS 3.1 aus einer anderen Cloanto Veröffentlichung reibungslos funktioniert. Es kann einfach sein, dass dein ED älter ist als meiner (klingt ja nach buckliger Verwandtschaft) und irgendein Stabilitätsproblem gelöst wurde. ALlerdings ist meine version von ED die 37.11, selbst unter OS 3.1. Das deutet darauf hin, dass ED nach OS 2.04 nie wieder angefasst wurde und Du hast vermutlich die gleiche.
-
Ich habe gestern ein paar Stunden auf einem weitgehend "nackten" 2.04 (Kick & WB)"arbeiten" können. Ich habe überwiegend Disketten gesichtet und Kram von A nach B kopiert (OK, von DF0: nach DH0: 😉). Da konnte ich tatsächlich die Abstürze auf ED und AmigaBASIC reduzieren - die stürzen beide reproduzierbar mit 8000 000B ab. Meine alte Textverarbeitung (excellence!) stürzt auch ab und zu ab, aber nicht reproduzierbar, nicht immer mit 8000 000B und vor allem: Ich hab' die von früher als eher noch instabiler in Erinnerung. Auch auf anderen Amigas (hatte damals einen 500, bzw. hab' den immer noch, ist aber aktuell eingelagert). Bei AmigaBASIC bin ich mir nicht sicher, ob das überhaupt unter 2.0/3.1 läuft - aber 8000 000B wundert mich da auch etwas, ich hätte da einen anderen Fehlercode erwartet. Starten lässt es sich übrigens, aber sobald man ein Programm lädt, stürzt AmigaBASIC dann ab (noch bevor das Programm ausgeführt wird). GFA Basic tut's dagegen problemlos.
Vergiss AmigaBASIC auf allem was neuer als 1.3 ist. Dr. Peter Kittel (bekannt als Größter AmigaBASIC Fan aller Zeiten® und fleißiger Verteidiger des Wortes "edieren") hatte eine gepatchte Version, die irgendwie ganz ordentlich lief, aber die konnte aus Lizenzgründen nie veröffentlicht werden.
Wie schon geschrieben, ein Programm, das nicht vollständig kompatibel mit dem jeweiligen OS ist oder mit der HW Ausstattung (z.B. unerwartet FAST Ram oder irgendein Laufwerk mehr als DF0:) nicht zurecht kommt, kann gerne in 8000 000B enden, aber auch in einer Reihe von anderen Guru Meditations. Je nach Fehlersituation ist das deterministisch oder zufällig.
Spezielle Hinweise auf so eine Inkompatibilität bzgl ED konnte ich nicht finden, aber wer weiß, was Deine spezifische HW Konfiguration bewirkt. Wenn DU davon schreibst, dass Du auf einem weitestgehend "nackten" Amiga 2000 testest und dann von Kopien DF0: auf DH0: schreibst, dann hast Du eins ganz sicher nicht getan: auf einem weitestgehend "nackten" Amiga 2000 gearbeitet. Eine Festplatte im Amiga 2000 war immer ein deutlicher Eingriff ins System gegenüber dem wirklich nackten Amiga 2000 mit 510 KB und einem Diskettenlaufwerk. Erst der Amiga 3000 hatte eine von Werk aus eingebaute Festplatte und mit dieser (immerhin extrem schnellen SCSI Anbindung) konnte man sich sicher sein, dass alles soweit funktionierte. Im Amiga 2000 bedeutet eine Festplatte eine Custom Firmware mit Einbindung über Zorro II - statt Zorro III wie im Amiga 3000 - oder sogar einer ekligeren Custom-Lösung.
Ich würde Dir als "nackten" Amiga empfehlen: Baue alle Fremdhardware aus, stelle sicher, dass ein original ROM 2.04 (ohne ROM Switcher) eingebaut ist, boote mit Boot Menü (beide Maustasten beim Anschalten drücken), gehe im Bootmenü in die Advanced Options, disable die startup sequence, verlasse die Advanced Options und boote von DF0:. Du solltest dann direkt in einem Terminal landen und ED starten können. Dadurch hast Du weder eine fremde Firmware über Zorro II gestartet (da keine Fremhardware drin ist), noch über einen andere Treibersoftware aus der startup-sequence oder der user-startup und auch kein SetPatch Kommando ausgeführt.
Das System ist wegen des fehlenden SetPatch sogar etwas instabiler. Sollte ED in dieser Konfiguration rock-solid laufen, dann liegt es vermutlich an der Firmware der HD oder anderer HW Komponenten, die Du im Rechner hast. SOllte er auch in dieser minimalen Konfiguration abstürzen, dann hast DU wahrscheinlich ein HW Problem. Ich habe mit ED nun einige tests auf einem Emulator gemacht und dort läuft ED stabil, egal ob mit startup-sequence oder ohne, mit oder ohne SetPatch, mit oder ohne FAST Ram. Bestimmte Festplattentreiber habe ich allerdings nicht ausprobiert und auch keine echte Hardware.
Jetzt kannst Du nach und nach Komponenten hinzufügen. Erzeuge dir erstmal eine Diskette, die als startup-sequence nur SetPatch aufruft. Du landest dann wieder im Terminal und kannst Deine Tests mit ED machen.
Als nächstes eine vollwertige Workbench 2.04 Diskette zum Booten benutzen und testen.Als drittes nur die HD aktivieren und mit WB 2.04 booten.
Sollte sogar das funktionieren (aber das hast Du schon als fehlerhaft getestet, oder?), dann als viertes das Custom Ram der HD oder weitere HW hinzufügen.
-
Kann mal einer von euch das Verhalten von ED unter 2.0/2.1 oder 3.1 ausprobieren? Meine "typische" Anwendung in letzter Zeit war System starten, CLI starten und dann "ed s:startup-sequence". Unter 3.1 führt das bei mir reproduzierbar zu 8000 000B. Unter 2.04 klappt das, wenn ich das genau so machen - also als erste Amtshandlung ED aufrufen - aber sobald ich dazwischen irgendwas anderes gestartet habe, z.B. Prefs, ein anderes Programm usw. -> reproduzierbar 8000 000B. Sehr seltsam. Nicht das ed irgendein Problem hat und ich da Geister jage 😬 Mit Emacs läuft's unter 2.04 nämlich problemlos und stabil, unter 3.1 hat der nicht reproduzierbare Aussetzer (8000 000B oder 8000 0003/0004). Das passiert aber deutlich seltener und ich weiss nicht mehr so genau, ob das vielleicht der normale Amiga Wahnsinn war. Ich habe auch eigentlich immer Emacs benutzt, das ist eher Zufall, dass ich angefangen habe, ED zu benutzen. Ich glaub' weil ich die Tastaturbefehle vergessen hatte und nicht mehr wusste, dass es unter AmigaDOS bereits eine Menüsteuerung gab 😬 Das stabilste System der Welt war der Amiga zu meiner Zeit jedenfalls nicht, sobald Intuition ins Spiel kam.
Du sprichst da vieles richtiges an: Ich habe meine ersten großen Assemblerprogramme mit ED geschrieben unter AmigaOS 1.3 geschrieben. Aber schon mit 2.04 habe ich den nicht mehr angefasst und so ging es wohl den meisten Benutzern. Zu dem Zeitpunkt gab es einfach viel zu viele bessere Editoren und komplette Programmiersysteme (IDE auf Neudeutsch). Das gleiche gilt für Emacs - wobei ich annehme, dass Du den Microemacs meinst, oder?
Es kann also durchaus sein, dass ED und MEmacs später instabil waren und es keinen interessiert hat. Da mag schon eine kleine HW Variante ausreichen, häufig war es eine Zufallsfrage, ob ein Fehler in einem Programm wirklich zum Absturz führte oder nicht. Schon eine Änderung des Speicherlayouts durch eine andere Reihenfolge beim Laden von Bibliotheken nach dem Booten konnte sich da auswirken.
Das Design von AmigaOS hatte seine guten und schlechten Seiten: zum einen stürzte das ganze System ab, wenn nur ein einziger kleiner Fehler in irgendeinem Programm ausgeführt wurde. Zum anderen waren aber genau deshalb viele Programm sehr stabil. Es hat ja auch die Entwickler der Software genervt, wenn sie immer wieder booten mussten.
Das ist halt der Nachteil, wenn Du einerseits ein OS mit Multitasking, Devicetreibern, Multi-Window usw hast, aber keine Prozesse mit Trennung der Ressourcen, Adressräume u.ä. Dazu hat AmigaOS in den meisten Fällen nicht mal Ressourcetracking angeboten, d.h. ein harmlos abgestürzter Task hat nicht mal seine offenen Dateien geschlossen oder Speicher wieder freigegeben. Es gab zwar Programm, die das recht zuverlässig nachgerüstet haben, aber das war immer nur eine Hilfe in den harmlosesten Abstürzen.
-
Es gibt auch für Amiga mit 68000 Prozessoren sehr viele Debuggingtools, die einem bei der Analyse solcher Fehler helfen. Zum Beispiel Installieren die einen Handler für alle Exceptions und leiten dich in einen Maschinensprachmonitor, wenn eine der Exceptions auftritt.
Welche sind das und wo kriege ich die her?
Oh je, ich habe mich schon so lange nicht mehr intensiv mit AmigaOS beschäftigt, dass ich die Tools nicht einfach nennen kann. Auf dem AmiNet ist allerdings vieles zu finden. Sashimi und SegTracker sind zwei wichtige Tools, frag einfach mal ChatGPT nach Tools, die bei der Analyse von Abstürzen hlfen können. Da kommt eine ganze Menge...
-
8000 000B ist ein allgemeiner Speicherfehler.
Quelle?
Altes M68K Wissen in meinem Kopf. 8000 000B ist die Guru Meditation, die bei einer nicht behandelten CPU Exception 0B ausgelöst wird. Diese Exception wird immer dann ausgelöst, wenn die CPU versucht, einen unbekannten OpCode 15 auszuführen. Dieser Opcode könnte dann von der CPU gelesen werden, wenn ein Programm einen FPU Befehl enthält, aber der Amiga keine FPU hat. Das ist aber ein sehr seltener Fall. Viel häufiger kommt es vor, dass die CPU wild in nicht vorhandene Speicheradressen springt oder in Daten oder in anderen Code, aber falsch aligned (gerade Adresse, aber in die Extraworte eines Befehls). Meistens ist das wiederum der Fall, wenn ein Programm vorher falsche Daten gelesen hat und deshalb falsche Sprungentscheidungen trifft (z.B. über das Ende einer Sprungtabelle hinaus) oder den Stack überschrieben hat ... Es kann eben auch durch HW Fehler zu so einem Verhalten kommen.
Als erste Analyse ist deshalb "allgemeiner Speicherfehler" sehr verkürzt, aber zutreffend. Mehr als das sagt es erstmal nicht.
Es gibt auch für Amiga mit 68000 Prozessoren sehr viele Debuggingtools, die einem bei der Analyse solcher Fehler helfen. Zum Beispiel Installieren die einen Handler für alle Exceptions und leiten dich in einen Maschinensprachmonitor, wenn eine der Exceptions auftritt.
-
Ich weiß nicht, woher Du die Analyse hast, dass 8000 000B ein FPU Problem sei. 8000 000B ist ein allgemeiner Speicherfehler. Der kann durch alles mögliche ausgelöst werden. Der häufigste Grund ist fehlerhafte Software, die auf Speicheradressen zugreift, an denen es nix zu finden gibt, keine RAM, keine HW Register. Als Softwareentwicler kennt man diese Guru Meditation nur zu Genüge. Ein weitere Grund kann eine SW sein, die eigentlich für eine modernere OS Version gedacht ist und beim Start die Version benötigter shared libraries nicht korrekt angibt (z.B. Version 0 statt 36). Dann springt das Programm möglicherweise in nicht vorhandene Slots der Jump Table oder greift auf fehlende Strukturelemente zu. In der Folge greift die CPU dann irgendwann auf illegale Speicheradressen zu.
Du schreibst, dass es immer 8000 000B ist. Der Fehler scheint also deterministisch zu sein. Wäre es wilder Speicherzugriff, dann gäbe es eher verschiedene Guru Meditations, z.B: hat die Ausführung ungültiger CPU Befehle eine andere Nummer. Wäre es eine deterministisch falsche SW, dann sollte der Fehler natürlich auch immer in der gleichen Situation auftauchen. Also könnte es sich auch um einen HW Fehler handeln. Schlechte Lötstelle eines RAM Chips? -
Wenn man es genau nimmt, dann baut DrMattRegan keinen C64 nach, sondern eine generische Truing Maschine mit direct memory access (statt dem seriellen Speicherzugriff, den übliche Touring Maschinen verwenden). Solange keine bestimmten Hardwarekomponenten benötigt werden (z.B. sehr ungewöhnliche Tastaturen wie in der Sinclair Familie) könnte man mit einer Plattform praktisch alle einfachen Computer nachbilden.
Woher kennt man das? Richtig, von den FPGA Plattformen MISTer u.ä.
So gesehen handelt es sich eher um einen Emulator in Hardware, denn einen C64 Nachbau.