8-Bit-Byte-Erfinder Fred Brooks gestorben

  • Gruß Torsten

    BFZ MFA, ZX80Core, AX81, ZX81, ZX81NU, Spectrum+, Harlequin, MSX VG8010, Amstrad NC100, Cambridge Z88, C64, C128D, Amiga 500 & 1200, Atari Portfolio, HP200LX, IBM PC5155, TP755c, TP755cx, T20, T41, T61, PS/2 (Model 40SX), PS/2E, Accura 101, Apple //e, Sharp PC1401 & PC1403H, TI59 m. PC-100c, HP48SX & HP48GX


    An die Person, die meine Schuhe versteckt hat, während ich auf der Hüpfburg war: Werd' erwachsen! :motz:


    ::matrix::

  • Also geht es genau darum:

    Zitat

    Oder geht es nur darum, dass er vielleicht den Begriff "Byte" für 8 Bit geprägt hat?

    Genau das hatte ich ja geschrieben bzw. gefragt. Aber genau das zitert ihr natürlich nicht, wenn ihr antwortet. ;)


    Sorry, jetzt habe ich anstatt einen neuen Betrag zu schreiben, den alten überschrieben.

    Aber hat sich dann ja geklärt.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Mmmmhhh... hast Du den Artikel wirklich gelesen... :/


    Zitat:

    "Zu der Entscheidung für das 8-Bit Byte sagte Brooks im Interview mit Wired: "Die wichtigste Einzelentscheidung, die ich je getroffen habe, war, die IBM 360-Serie von einem 6-Bit-Byte auf ein 8-Bit-Byte umzustellen und damit die Verwendung von Kleinbuchstaben zu ermöglichen. Diese Veränderung verbreitete sich überall." Dass heute also ein Byte synonym mit 8 Bit verwendet wird, liegt letztlich an Brooks."

    Gruß Torsten

    BFZ MFA, ZX80Core, AX81, ZX81, ZX81NU, Spectrum+, Harlequin, MSX VG8010, Amstrad NC100, Cambridge Z88, C64, C128D, Amiga 500 & 1200, Atari Portfolio, HP200LX, IBM PC5155, TP755c, TP755cx, T20, T41, T61, PS/2 (Model 40SX), PS/2E, Accura 101, Apple //e, Sharp PC1401 & PC1403H, TI59 m. PC-100c, HP48SX & HP48GX


    An die Person, die meine Schuhe versteckt hat, während ich auf der Hüpfburg war: Werd' erwachsen! :motz:


    ::matrix::

  • Clickbaiting?



    Also was da genau "erfunden" wurde, erschließt sich mir zumindest aus dem Artikel nicht.

    Steht im Artikel aber (für mich) deutlich drin:

    Zitat von Golem Artikel

    In der Anfangszeit der modernen Rechner Ende der 1950er, Anfang der 1960er Jahre war ein Byte lediglich die Sammlung derjenigen Bits, die zur Kodierung eines einzelnen Schriftzeichens notwendig sind. Je nach Rechner und genutzter Architektur war dies aber nicht einheitlich festgelegt und konnte etwa 6 Bit, 9 Bit, 12 Bit oder andere teils frei wählbare Werte umfassen.

    Zu der Entscheidung für das 8-Bit Byte sagte Brooks im Interview mit Wired: "Die wichtigste Einzelentscheidung, die ich je getroffen habe, war, die IBM 360-Serie von einem 6-Bit-Byte auf ein 8-Bit-Byte umzustellen und damit die Verwendung von Kleinbuchstaben zu ermöglichen. Diese Veränderung verbreitete sich überall." Dass heute also ein Byte synonym mit 8 Bit verwendet wird, liegt letztlich an Brooks.

  • Was gibt es beim "Byte" anderes zu erfinden, außer dem Begriff. Und den hat sich wohl eher Werner Buchholz ausgedacht der zu einer Zeit bei IBM an den 700/7000 Rechnern arbeitete, als Brooks noch an der Uni rumpromovierte.


    Wäre aber nicht das erste Mal, dass Führungskräfte später die Arbeit ihrer Mitarbeiter als ihr Verdienst ausgeben, selbst wenn sie damit nichts zu tun hatten.

    Keine Ahnung, ob das bei Brooks so war, oder der Golem-Text schlecht recherchiert ist.

    Wenn ich schon so ein Quark lese wie "... sein Lebenswerk wohl entscheidende Arbeit an IBMs System/360 sowie dem dazugehörigen Betriebssystem OS/360. Für diesen ersten Mainframe von IBM fungierte Brooks in der Position des Projektmanagers...", vermute ich Letzteres.


    Wer IBM 360 für den ersten Mainframe hält, hat sicher von Computergeschichte so viel Ahnung, wie ein Hund von Astronomie. Nur weil man den Mond täglich anheult, hat man noch keine Ahnung davon.

  • Hier von einer "Erfindung" zu reden ist einfach irreführend. Selbst nach amerikanischen Patent-Gepflogenheiten dürfte hier keinerlei Erfindungshöhe zu erkennen sein. Wenn ich n Zeichen darstellen können will, brauche ich >=log2(n) Bits. Das wusste auch 1960 schon jeder. Was also gab es da zu "erfinden". Das ist einfach eine klare technische Entscheidung aufgrund von Requirements.

  • Ich habe in Zusammenhang mit "Großrechnern" von damals nie das Wort "Byte" vernommen.


    Anfangs hatten fast alle 6 Bits pro Zeichen und Maschinenworte mit einem Vielfachen von 6 Bits, z.B:

    36 Bit bei Univac 110x (= 6 Zeichen)

    48 Bit bei Burroughs 5500 (= 8 Zeichen)

    Bei der Erweiterung auf Kleinschreibung dann:

    Univac 4 Zeichen zu 9 Bit (!)

    Burroughs 6700 6 Zeichen zu 8 Bit

    Wobei anzumerken ist, dass die ASCII Kodierung innerhalb des Rechners nicht üblich war.

  • Den englischen Begriff "invented" sollte man nicht ausschließlich im Sinne des deutschen "erfunden" sehen. "invented" schließt auch "einführen", "durchsetzen" etc mit ein.

  • Den englischen Begriff "invented" sollte man nicht ausschließlich im Sinne des deutschen "erfunden" sehen. "invented" schließt auch "einführen", "durchsetzen" etc mit ein.

    Mag sein, aber jemand bei golem.de hat nun mal "8-Bit-Byte-Erfinder " in die Überschrift geschrieben. Und unter einem Erfinder stellt man sich in der deutschen Sprache jemand vor, der sich etwas originär Neues ausgedacht hat, und nicht jemand, der einen Begriff für einen abiträren Sachverhalt popularisiert hat.


    Ich will hier Brooks Verdienste um Computer-Architektur, Software-Engineering und als Dozent nicht schmälern, er hat den Turing Award und die sonstigen Preise sicher verdient. Aber die Golem-Überschrift mit dem "8-Bit-Byte-Erfinder" ist einfach albern und wird der Lebensleistung wohl auch kaum gerecht.

  • Wie ich in meinem ursprünglichen und dann leider versehentlich überschriebenen Beitrag geschrieben hatte nennt man das Clickbaiting.

    Gerade bei Golem fällt mir das immer wieder auf.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Mag sein, aber jemand bei golem.de hat nun mal "8-Bit-Byte-Erfinder " in die Überschrift geschrieben. Und unter einem Erfinder stellt man sich in der deutschen Sprache jemand vor, der sich etwas originär Neues ausgedacht hat, und nicht jemand, der einen Begriff für einen abiträren Sachverhalt popularisiert hat.


    Ich will hier Brooks Verdienste um Computer-Architektur, Software-Engineering und als Dozent nicht schmälern, er hat den Turing Award und die sonstigen Preise sicher verdient. Aber die Golem-Überschrift mit dem "8-Bit-Byte-Erfinder" ist einfach albern und wird der Lebensleistung wohl auch kaum gerecht.

    Genau das meinte ich: der Begriff wurde auf golem.de verfälschend übersetzt. Und wie detlef geschrieben hat: Clickbait. Oder wenigstens Nachlässigkeit, die bei guten Journalismus nicht so häufig vorkommen sollte.

  • Genau das meinte ich: der Begriff wurde auf golem.de verfälschend übersetzt. Und wie detlef geschrieben hat: Clickbait. Oder wenigstens Nachlässigkeit, die bei guten Journalismus nicht so häufig vorkommen sollte.

    An Nachlässigkeit mag ich bei einem werbefinanzierten Nachrichtenportal nicht so recht glauben. ;)

    Aber das war schon immer so, auch bei den Printmedien. Leider auch bei den seriösen.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Man muss Golem.de zugute halten, dass sie immerhin etwas berichten. Habe mal bei heise.de News geschaut: nichts.

    (Oder es geht in dem wirren Layout und der vielen Werbung optisch unter...)

  • Egal wie genau und warum er das so entschieden hat ... es hat doch die Computerwelt ganz gewaltig verändert. Völlig egal, ob er das nun auch vorausgesehen haben mag. oder ob nicht.


    Noch in der 70er Jahre Zeitungen reden die eigentlich immer nur von "words" / "word" , und das kann dann eigentlich alles mögliche sein (s.o.). Daß wir heute 1 Byte = 8 Bit quasi als gegeben setzen und annehmen, hat doch wirklich viel mit dieser Entscheidung zu tun (die sicherlich erstmal keine Erfindung war). Viel weitreichender ist doch aber, daß sich damit - und vor allem auch mit dem Aufkommen der 8Bit Mikroprozessoren und Mikrorechner - plötzlich ein neues "kleinstes" Element ergibt aus dem dann 16, 32, 64 Bit Maschinen abgeleitet werden. Vermutlich weil es relativ einfach ist eine vorhandene Hardwarestruktur in einem Chiplaufplan zu verdoppeln (wenn man es dann noch aufs Silizium bekommt).


    Und genau da zeigt sich schon wie seltsam die 8Bit eigentlich sind. Wenn man nämlich reine von den Zahlen herangehen würde, die darstellbar sind, wären 10Bit oder 12Bit wesentlich sinnvoller und hätten viel länger getragen.


    Auf dem 64er u.ä. kann man das sehr schön sehen, wenn man Grafikroutinen in Assembler baut. Das stößt man immer an 256er Grenze und baut dann irgendwelches hakeliges Schleifen-Zeug - was mit z.B. 10 oder noch besser 12 (= 3x 4) Bit überhaupt nicht nötig wäre.

    Ähnliches gilt auch generell für den Bereich: Man hat beim Zählen und etc. doch oft den Fall, daß man mal über 256 kommt, aber bei vielen "normalen" Prozessen käme man sehr schön mit 12 Bit hin. Dagegen sind 65535 (16) schon wieder soviel, daß man sie eigentlich nicht wirklich braucht - und wenn man wirklich große Zahlen haben will, ists dann wieder zuwenig. Mit 24 Bit dagegen wäre das viel angenehmer.


    Man kann also schon sagen, daß er da was mit VIEL Einfluß vielleicht nicht erfunden aber festgelegt hat. Und das, wie man dann sieht rein aus Sicht der Buchstabenabbildung, was eigentlich schon wieder bißchen albern ist, weil das ja in erster Linie Rechenautomaten sind.


    Der Einfluß auf das hier und jetzt ist auf alle Fälle immens.



    PS: auch mit 6 Bit hätte er ja auf eine Art UTF-6 verfallen können, dann wären Kleinbuchstaben auch möglich gewesen. Aber heute wäre ein Byte eben evtl. 6 Bit und die Reihe dann z.B. 6 - 12 - 24 - 48 Bit. Apropos, habe ich schonmal irgendwo geschrieben, daß man an einem normalen Desktoprechner niemals 64 Bit benötigen wird ... :)

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Man muss Golem.de zugute halten, dass sie immerhin etwas berichten.


    Golem hat auch ein völlig anderes Zielpuplikum !


    Das lesen sogar Leute aus dem Grafikdesignbereich, um bißchen technisch auf dem laufenden zu bleiben. heise dagegen ist schon eher sehr technisch mit einem Hang zum Abgefahrenen (Stichwort telepolis) und versucht mit seinen Auto und Maker Zeitschriften am großen Ball zu bleiben.


    Die Nachricht selbst kommt aber bestimmt noch, spätestens, wenn sie es bei golem gesehen haben. ;)

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Noch in der 70er Jahre Zeitungen reden die eigentlich immer nur von "words" / "word" , und das kann dann eigentlich alles mögliche sein (s.o.). Daß wir heute 1 Byte = 8 Bit quasi als gegeben setzen und annehmen, hat doch wirklich viel mit dieser Entscheidung zu tun (die sicherlich erstmal keine Erfindung war). Viel weitreichender ist doch aber, daß sich damit - und vor allem auch mit dem Aufkommen der 8Bit Mikroprozessoren und Mikrorechner - plötzlich ein neues "kleinstes" Element ergibt aus dem dann 16, 32, 64 Bit Maschinen abgeleitet werden. Vermutlich weil es relativ einfach ist eine vorhandene Hardwarestruktur in einem Chiplaufplan zu verdoppeln (wenn man es dann noch aufs Silizium bekommt).

    Hast du das jetzt alles selber da reininterpretiert oder gibt es eine belastbare Quelle dafür, dass wegen Fred Brooks die ersten Mikrocontroller 8 Bit hatten?


    Meine Herleitung ist eine ganz andere. Intel hat mit dem 4004 den ersten Mikrocontroller gebaut. Der hatte 4 Bit (nicht 8!), weil sie mehr nicht auf die Chip-Fläche bekommen haben. Beim Nachfolger 8008 haben sie die Bitbreite verdoppelt. Anschließen kam der 8080. Das hat den 8 Bit Standard gesetzt hat.


    Ich kann mir nur schwer vorstellen, dass Intel sich gedacht: die IBM/380 hatte ein 8-Bit-Character-Format. Lass uns daher dem ersten Mikrocontroller 4 Bit geben, damit wird ihn später auf 8 Bit verdoppeln können.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Meine Herleitung ist eine ganz andere. Intel hat mit dem 4004 den ersten Mikrocontroller gebaut. Der hatte 4 Bit (nicht 8!), weil sie mehr nicht auf die Chip-Fläche bekommen haben. Beim Nachfolger 8008 haben sie die Bitbreite verdoppelt. Anschließen kam der 8080. Das hat den 8 Bit Standard gesetzt hat.


    Und die bei intel haben von der IBM 360 nichts gewußt. Und daß man dann mit 8Bit wenigstens ASCII schön tauschen kann.

    Auch eher unwahrscheinlich, daß sie die Maschine nicht kannten.


    Viel interessanter ist da die Frage, wieso waren es 4Bit ?



    Ansonsten: ich glaub schon, daß so um 1980 herum das "Byte" eine feste Größe war und man müßte mal schauen inwieweit es Kommentare von den Z80 oder 6502 Entwicklern gbt, warum nun genau es eigentlich 8 Bit haben sein müssen.



    Auf alle Fälle sind die 8Bit heute eine Art geistige Schrank, die viele als völlig gegeben hinnehmen und quasi als Naturgesetz betrachten. Das wird schlicht überhaupt nicht hinterfragt.

    Ist bißchen wie mit dem Dezimalsystem.

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Der 8008 war ursprünglich für den Einsatz im Datapoint 2200 Terminal gedacht und deswegen kompatibel zu dessen Befehlssatz.

    Jetzt müsste man herausfinden, warum das Datapoint 2200 8 Bit verwendete. ;)


    Also meine Annahme 8008 = 2 x 4004 kommt nicht ganz hin.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Und die bei intel haben von der IBM 360 nichts gewußt. Und daß man dann mit 8Bit wenigstens ASCII schön tauschen kann.

    Auch eher unwahrscheinlich, daß sie die Maschine nicht kannten.

    Wobei ASCII war erstmals nur 7 Bit war und IBM Großrechner EBCDIC nutzen.


    Aber sicherlich haben Federico Faggin und Masatoshi Shima die IBM 360/370 Linie gekannt - Ted Hoff sicher auch. Diese Familie war ja in der kommerziellen Datenverarbeitung damals unangefochtener Marktführer. Man hat ja auch von "Big Blue and the seven dwarfs" geredet.


    Die wären ja schön blöd gewesen, wenn sie sich beim Design der 8080 nicht mal etwas bei der Konkurrenz umgeschaut hätten...


    Viel interessanter ist da die Frage, wieso waren es 4Bit ?

    Weil es machbar war und für eine Rechenmaschine reicht. Auch z.b. wenn man mit BCD arbeiten will.

  • Der 8008 war ursprünglich für den Einsatz im Datapoint 2200 Terminal gedacht und deswegen kompatibel zu dessen Befehlssatz.

    Jetzt müsste man herausfinden, warum das Datapoint 2200 8 Bit verwendete. ;)


    Also meine Annahme 8008 = 2 x 4004 kommt nicht ganz hin.


    Guten Abend

    detlef


    Als Zwischenstufe ist noch der 1201 anzusehen, welcher von CTC grunddesignt wurde, von Intel aber gefertigt wurde,


    als dieser wohl aber bei CTC aufgrund des nicht zufriedenstellende Durchsatz(Leistung) keine Abnahme fand, hat wohl Intel das CTC Design aus dem früheren Vertrag aufgekauft, (das Design übernommen), und später entstand daraus dann der 8008,


    Was denkbar wäre wegen den 8bit,

    ggf. kommen die 8bit auch aus früheren Systemen/Überlegungen/

    da die Gründer von CTC frühere U.S.Space (NASA) Ingenieure waren,

  • Bin ich der einzige, der es merkwürdig findet, dass ausgerechnet dieser Aspekt aus Brooks' Leben hervorgehoben wird und die DIskussion dann sofort in Technikalitäten abgleitet, statt mal kurz Brooks' Lebenswerk zu würdigen?


    Brooks war Manager (von 1961-65) des Sytem/360-Projekts bei IBM, erst auf der Hardware-, dann auf der Softwareseite, System/360 und OS/360. Beides lebt, in Form von IBM z und z/OS, bis heute fort, und dürfte die langlebigste Rechnerarchitektur-Betriebssystem-Kombination sein. Der Schlüssel dazu ist die Entkopplung der Architektur, die der Entwickler sieht, von der tatsächlichen Hardware, z.B. durch Microcode. Der Begriff "Rechnerarchitektur" (computer architecture) stammt übrigens auch von Brooks, und aus dieser Zeit.


    Aus seiner Erfahrung bei IBM heraus entstand das Buch "The Mythical Man Month", das man auch heute noch mit Gewinn lesen kann, und das eines der ersten Werke zum Software Engineering Management ist, und Brooks' Law ("Adding manpower to a late software project makes it later.").

  • Guten Morgen

    MJGraf


    Wir wollen keineswegs "die Lebensleistung" von Brooks schmälern, welche wir so viele anderer mit Sicherheit ennorm war,


    sondern überlegen nur gerade warum 8bit,

    was auch evt hinkommen könnte, wobei ich darüber noch nichts konkrettes fand,, wäre der Befehlsatz welcher bei dem 4004

    4 binärstellen sind, (daher auch 2 Bereiche im RAM benötigte)

    anbei was aus der MCS-4, (welche aus 4 Bausteinen bestand, und daraus der 4004 die CPU war)



    Bei dem 8008 wurde der Befehlsatz auf

    8 binärstellen erhöht so daß dann der frühere Zwischenschritt wie beim 4004 entfiel) wobei mit Sicherheit es wohl irgent ein Vorläufer gab, woraus dann die Mmenics abgeleitet wurden,


    Was auch interessant ist, war schon die frühere sehr enge Kooperation IBM im Mainframe Bereich mit der NASA,


    https://www.ibm.com/policy/apollo-moon-landing/

  • Bin ich der einzige, der es merkwürdig findet, dass ausgerechnet dieser Aspekt aus Brooks' Leben hervorgehoben wird und die DIskussion dann sofort in Technikalitäten abgleitet, statt mal kurz Brooks' Lebenswerk zu würdigen?

    Naja. Wie gesagt liegt das daran, dass Golem oder wer auch immer den ursprünglichen Artikel verfasst hat, eine Überschrift brauchte, mit der heutige ITler sofort etwas anfangen können. Byte kennt jeder. IBM/360 nicht her so viele.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."

  • Den englischen Begriff "invented" sollte man nicht ausschließlich im Sinne des deutschen "erfunden" sehen. "invented" schließt auch "einführen", "durchsetzen" etc mit ein.

    Beachte außerdem:



    Wörterbuchnetz


    Auch nett:


    Wörterbuchnetz


    Davon abgesehen ist mit dem Zitat von tokabln in RE: 8-Bit-Byte-Erfinder Fred Brooks gestorben eigentlich alles gesagt und geklärt.

  • Bei dem 8008 wurde der Befehlsatz auf

    8 binärstellen erhöht so daß dann der frühere Zwischenschritt wie beim 4004 entfiel) wobei mit Sicherheit es wohl irgent ein Vorläufer gab, woraus dann die Mmenics abgeleitet wurden,

    Wobei meine Annahme, dass der 8008 aus dem 4004 entstanden ist, ja vermutlich gar nicht stimmt, wenn die Vorlage für den 8008 das Datapoint 2200 war.

    In diesem Fall wären evtl. Gemeinsamkeiten zwischen 4004 und 8008 rein zufällig.


    Das ist aber jetzt alles sehr viel Spekulation. Man bräuchte dazu zusätzliche Quellen.

    • i-Telex 7822222 dege d

    • technikum29 in Kelkheim bei Frankfurt

    • Marburger Stammtisch

    Douglas Adams: "Everything, that is invented and exists at the time of your birth, is natural. Everything that is invented until you´re 35 is interesting, exciting and you can possibly make a career in it. Everything that is invented after you´re 35 is against the law of nature. Apply this list to movies, rock music, word processors and mobile phones to work out how old you are."