Ha, alle paar Monate ein neuer AMD K6 oder K6-II wegen 33 bzw. 50 MHz mehr, das musste einfach sein!
da ich am PC eigentlich immer nur Schach gespielt hatte, hätte schnellere Hardware nur zu mehr Frust bei mir geführt
Ha, alle paar Monate ein neuer AMD K6 oder K6-II wegen 33 bzw. 50 MHz mehr, das musste einfach sein!
da ich am PC eigentlich immer nur Schach gespielt hatte, hätte schnellere Hardware nur zu mehr Frust bei mir geführt
der Weg ist das Ziel - sagt man...
gibts doch bestimmt auch für Elektriker/Elektroniker
es isst ja auch kein Mensch mehr ohne Gabel und Löffel
Das trifft aber auch nicht auf alle Kulturkreise zu.
Wir haben Freunde, die aus Sri Lanka stammen - die essen einfach mit den Fingern.
Als wir bei denen mal zu einem Familienfest eingeladen waren, haben wir das auch versucht.
Bei manchen Gerichten funktioniert das natürlich problemlos, aber bei einem Reisgericht mit Sauce habe ich mich ziemlich ungeschickt angestellt, und mich gefragt, wie die das eigentlich hinkriegen, ohne sich dabei total einzusauen...
genau so fühlt sich die Bedienung des Treo mit bloßen Fingern an
spätestens, wenn ich in der S-Bahn den Stift aus dem Gerät ziehe, habe ich die ungeteilte Aufmerksamkeit
Dabei wusste ich gar nicht mehr, dass ich den mal als Smartphone genutzt hatte. Gestöbert hatte ich nach was ganz anderem...
auf der Suche nach was anderem bin ich hierüber gestolpert. Vielleicht ja für manchen hier auch ganz interessant:
https://media.ccc.de/v/vcfb18_…t_dommer_-_ansgar_kueckes
Die Firma Apple ist heute das – gemessen an der Marktkapitalisierung – wertvollste Unternehmen weltweit. Aber nur wenige wissen, wie die Firma eigentlich im Jahr 1976 startete. Erfolgreich wurde Apple bereits 1977 mit dem Apple II. Insgesamt wurden aus der Apple-II-Serie von 1977 bis 1993 weltweit mehr als zwei Millionen Geräte hergestellt. Heute gilt der Apple II zusammen mit dem TRS-80 und dem PET als der Schlüssel zum Erfolg des Personalcomputers schlechthin. Doch noch vor dem Apple II kam der Apple I, der allein von Steve Wozniak, dem technischen Genie hinter dem frühen Erfolg von Apple, entwickelt wurde. Zwar wurden vom Apple I nur geschätzte 200 Exemplare hergestellt, aber die Bedeutung dieses Rechners als Vorbereiter des Personalcomputers kann gar nicht hoch genug eingeschätzt werden. Viele der technischen Konzepte im Apple II hatte Wozniak bereits im Apple I vorab entwickelt und erprobt. Mit der Produktion des Apple II wurden die meisten Apple I gegen die viel leistungsfähigeren neuen Geräte getauscht und im Anschluss vernichtet. Die heute noch verbliebenen rund 50 Original-Apple-I-Computer erzielen regelmäßig auf Auktionen Höchtsgebote und gelten als die begehrtesten historischen Computer überhaupt. Sie finden sich mittlerweile fast ausschließlich bei gut betuchten Sammlern oder bekannten Museen wie dem Smithsonian oder dem Deutschen Museum. Einige haben es sich zum Ziel gesetzt, diesen Meilenstein der Computergeschichte mit Originalkomponenten aus der Zeit des Apple I nachzubauen. Was sich manchmal nicht ganz leicht gestaltet, sind doch viele der damals verwendeten Elektronikkomponenten heute auch gebraucht kaum noch in funktionsfähigem Zustand zu bekommen. Der Vortrag vermittelt einen Abriss der frühen Geschichte der Firma Apple, die eimal als "Garagenfirma" begann und heute jeder kennt. Er zeigt auf, wie ein technisches Genie mit Begeisterung und Leidenschaft Neues schaffte und damit den Grundstein für den heutigen Erfolg von Apple legte, und erzählt vom Versuch, einen der begehrtesten Computer der Welt originalgetreu mit Komponenten aus der damaligen Zeit als funktionsfähiges Exemplar zu rekonstruieren. Der Vortrag ergänzt die Ausstellung zum Apple I, in welcher der funktionsfähige Nachbau gezeigt wird.
was meinst du denn mit "viel leistungsfähigere"? In beiden Rechnern werkelte doch die selbe lahme CPU🤔
Der Apple II hatte Farbgrafik ok. Das Integer-Basic war auch nicht gerade der Hit...
https://www.ebay-kleinanzeigen…t-key/2082427722-278-6582
für Toshiba-Fans evtl. ein Schnäppchen - direkt bei mir im Ort
Das kann ich voll unterschreiben. Wobei sich meine Erfahrungen auf Javascript und Bier beschränken.
Ja meine auch - inkl. Typescript "Aufsatz". Gott sei Dank musste ich damit bisher nicht viel machen
Typescript ist ok. Damit kann man arbeiten.
Ja das bringt auf jeden Fall sinnvolle Features mit... Aber ich kann die Javascript Begeisterung überhaupt nicht teilen. Bei jeder Zeile muss man würgen
.
Visual Basic 2022 halt
Display MoreHallo,
mein neuen Mac Classic II ist nun da und ich möchte hier unbedingt ein externes SCSI Zip Laufwerk anschliessen.
Der Rechner hat mehrere Betriebssysteme drauf und ein Superdrive Laufwerk, welches auch gut funktioniert.
Ich hab jetzt soweit jede Menge Webseiten und auch Threads hier durchgeschaut und mir dreht sich es im Kopf etwas
Ich weiß, dass ich am Mac einen Treiber für das SCSI Zip Laufwerk installieren muss. Diesen Treiber auf den Mac zu bekommen ist nun mein großes Problem.
Ich habe folgendes Equipment zur Verfügung:
1 Mac ( nämlich mein Classic II )
Windows Laptops mit Win XP und USB, sowie Floppy
Moderner Mac ohne Diskettenlaufwerk
Parallel und SCSI Zip Laufwerke
Soweit ich das verstehe, liest ein Mac Classic II nicht ohne weiteres DOS Disketten. Versuche mit PCExchange waren erfolglos, angeblich zuwenig Speicher ( der Classic II hat 4 MB Ram ).
Mit Diskwrite unter Windows konnte ich Bootimages auf Diskette schreiben und von denen bootet der Mac auch problemlos.
Ich hab jetzt soweit ich das verstehe die Möglichkeit ein Image zu erstellen ( welches den ZIP Treiber enthält ) und das auf eine Diskette zu schreiben für den Mac.
Mir ist nicht so ganz klar, wie ich unter Windows ein Mac taugliches Image erstellen kann ?
Also für mich stellt sich die Frage, ob ich nicht doch besser einen 2. älteren Mac besorge mit einem Diskettenlaufwerk, möglichst mit USB um da einen USB Stick anzuschliessen, oder ich finde einen Weg ein Diskettenimage für den Mac zu erstellen mit allen Dateien die ich dann brauche.
Ich hoffe Ihr könnt mir da helfen ?!
Danke und Grüße
Bernd
ich habe vor einigen Jahren hier im Forum ausführlich beschrieben, wie ich fùr einen mac se eine scsi platte auf linux præpariert habe, dass der mac damit booten konnte. fùr scsi zip dürfte das nicht unterschiedlich sein. such mal nach "(ST32430N)" in den Beitrægen hier...
Display MoreErst warens die Romane welche die Menschheit degenerieren lassen, dann Comics, dann Filme, dann..., heute YouTube, morgen Tik Tok und übermorgen dann was neues.
YouTube lässt sich übrigens völlig kostenlos komplett Werbefrei benutzen. Man muss nur wissen wie
Nicht zu vergessen, dass schon Gutenbergs Buchdruck als der Untergang des Abendlandes angesehen wurde.
Jede Generation hat sein Youtube und seine Youtuber. Und das schon seit Tausenden von Jahren.
Immer wieder lustig, wie auch hier wieder auf die nachfolgenden Generationen geschimpft wird, die dann wiederum auf ihre Nachfolgegenerationen schimpfen wird. Und darauf hingewiesen heisst es dann: Ja aber diesmal ist es wirklich schlimm.
Da muss man sich doch gar nicht mit den vorgebrachten Argumente auseinandersetzen. Die sind austauschbar. Entscheidend ist die Wiederholung.
sehe ich auch so. Über alles Neue und Junge zu schimpfen zeugt nur von der eigenen beginnenden Verkalkung. Und von wegen Schmalspur-Bachelor. Wenn ich an mein eigenes Info-Studium in den 80er Jahren zurückblicke, war das im Vergleich zum heutigen eng getakteten Schnellzug-Studium eher gemütlich. Damals waren Semesterferien weitgehend freie Zeit, heute sind die vollgestopft mit Prüfungen und Seminaren. Wenn die Qualität tatsächlich leiden würde, hätte unsere Industrie ein Problem. Aber der geht es blendend. Das sagt doch schon alles.
Display Moreeben - um sie nicht auf Platte kopieren zu müssen
Ich meine, warum soll ich irgendwelche T-Online CDs aus den 90ern auf eine Platte kopieren. Aber irgendwann fragt dann doch mal wieder jemand nach z.B. ISDN-Treibern Version X.Y. Und dann will ich ganz bestimmt nicht Disk-Jockey spielen
Nett wäre so ein Katalogisierer als Web-App - auf mein absehbares Rentnerdasein warten jede Menge Projekte...
Warum sollte ich T-Online CDs auf die Platte kopieren? In denen muss ich nichts suchen und die gehen auch nicht kaputt. Die würde ich ja auch nicht katalogisieren. Die müllen doch nur die Datenbank zu.
Alle original CD's habe ich in zwei Boxen. Das sind im wesentlich Programm-, Betriebssystem- und Treiber-CDs.
Wenn ich von denen eine suche, habe ich die in 5 Minuten durchgeblättert. Auf die Idee, auf diesen CDs was zu suchen, bin ich noch nie gekommen.
Da ich aber viele von den alten Original CDs wenn überhaupt dann nur noch in Virtual Box verwende, habe ich tatsächlich von fast allen Programm- und Betriebssystem CDs inzwischen ISO-Images auf der Platte. So kann ich die direkt in Virtual Box einbinden.
Mein aktueller Arbeitsrechner hat gar kein DVD-Laufwerk mehr. Wenn ich das mal brauche, muss ich eins über USB anschließen.
DVD-Laufwerke hab bereits vor Jahren durch BD-Laufwerke ersetzt
Essentielle Daten brenne ich immer noch und zwar nicht nur einfach😉
Hab ich ja jahrelang auch so gemacht. Zumal Festplattenspeicher zum Archivieren zu teuer war. Aber irgendwann ging mir die Sucherei einfach so auf den Keks, dass ich alle Daten auf eine Platte kopiert habe. Und warum soll ich 20-30 Jahre alten Daten auch noch katalogisieren.
eben - um sie nicht auf Platte kopieren zu müssenIch meine, warum soll ich irgendwelche T-Online CDs aus den 90ern auf eine Platte kopieren. Aber irgendwann fragt dann doch mal wieder jemand nach z.B. ISDN-Treibern Version X.Y. Und dann will ich ganz bestimmt nicht Disk-Jockey spielen
Nett wäre so ein Katalogisierer als Web-App - auf mein absehbares Rentnerdasein warten jede Menge Projekte...
Display MoreIch habe alle meine Daten in einem großem Archiv-Ordner auf eine 8 TB Platte (genau genommen natürlich zwei. Wegen Backup).
Wenn ich was nicht mehr finde, dann mache ich eine Volltextsuche über das gesamte Verzeichnis inkl. Durchsuchen der Archivdateien. Das läuft dann eine Stunde oder, aber auf dem Weg habe ich bisher alles wiedergefunden.
Da wird auch nix gelöscht oder aufgeräumt. Es kommen immer nur neue Daten hinzu. Vieles liegt doppelt ab, weil es mehrfach archiviert wurde. Aber das ist mir egal. Denn so ein Archiv ständig aufzuräumen kostet viel zu viel Zeit.
Früher hatte ich alles auf DVDs. Da wird man wahnsinnig beim Suchen. Und dann muss man auch alles doppelt ablegen und ständig prüfen, ob alle DVDs noch lesbar sind.
ist schon klar. Normalerweise benötige ich 20-30 Jahre alte Dateien auch nicht mehr. Drum wäre es unsinnig, hunderte CDs und DVDs auf eine Platte zu kopieren. Zumal gebrannte Medien den nicht zu unterschätzenden Vorteil haben, immun gegen Virenbefall und Ransomware zu sein. Darum fand ich das einmalige Katalogisieren und dann ad acta legen, durchaus schick
Immatrikulationsbescheinigungen,
kann dir auf Anfrage die Uni bescheinigen.
schon klar - war aber auch nur ein Beispiel
Hallo zusammen,
ich benutze zum Katalogisieren meiner mittlerweile unzähligen Daten-CDs, DVDs und BDs seit vielen Jahren Gentibus CD.
Eigentlich brauche ich die Funktionalität selten, aber hin und wieder dann doch. Aktuell suche ich gerade irgendwelche alten Immatrikulationsbescheinigungen,
die ich vor Jahrzehnten wahrscheinlich mal eingescannt habe
Gentibus CD funktioniert zwar einigermaßen, wird aber seit vielen Jahren nicht mehr weiterentwickelt und ist grottenlangsam.
Ich habe schon mehrmals darüber nachgedacht, selbst so ein Programm zu schreiben, aber der Leidensdruck war letztlich dann doch nie groß genug
Alternativen habe ich bislang keine vernünftigen gefunden, hat evtl. jemand einen Tipp für mich?
viele Grüße, Peter
kam gestern von Medimops für etwas über 2€ und ist damit mein drittes Exemplar. Ich denke daher, es wäre kein übermäßiger Frevel, ein Exemplar für eine digitale Ausgabe zu opfern. Sollte Interesse bestehen, bitte ich um eine entsprechende Nachricht...
Display MoreJa, das wollte ich auch gerade schreiben. Ich glaube allerdings auch nicht, das die alten Klassifizierungen (von Neumann und Harvard) auf moderne Prozessoren und Computer überhaupt noch passen.
Zustimmung. Diese Handy CPU sind sowas von weit weg von einer klassischen Rechner CPU. Und auch da ist schon seit ca. 1995 oder so eigentlich nichts mehr klassisch so wie man sich das als Programmierer vorstellt. Spätestens seit der Out-of-Order Execution (was für ein Name, erinnert immer irgendwie ein bißchen an Ludwig XVI und seiner Österreicherin Marie A.) oder bei HP dem Instruction Reorder Buffer, wobei das ja schon eher losgeht (mit solchen Sprungvorhersagegeschichten)
der von Neumann Architektur liegt die tiefgreifende Erkenntnis zugrunde, dass Instruktionen und Daten letztlich das selbe ist, nämlich in Bits und Bytes codierte Information. Damit schließt sich der Kreis wieder zum Urvater Claude Shannon😜
Dass eine CPU aus Performance- oder Security-Gründen verschiedene Mechanismen wie getrennte Caches oder geschützte Speicherbereiche nutzt, ändert daran rein gar nichts.
Wenn die Harvard-Archtektur in der Praxis keine Rolle mehr spielt, hat sich die Unterscheidung erledigt.
Für mich ist das Wissen darum reine Computerhistorie, ohne Praxisrelevanz.
lustige Aussage, denn Computerhistorie ist doch das eigentliche Thema in diesem Forum Historisch gesehen war von Neumanns Architektur 1945 ein klarer Fortschritt, indem vorher getrennte und auch Hardware technisch verschiedene Systeme für Instruktionen und Daten elegant vereinheitlicht wurden. Der gemeinsame Speicher war auch nur ein Stützpfeiler dieser Architektur. Der andere entscheidende war die dafür notwendige binäre Codierung von Daten und Programmen, was vorher keinesfalls selbstverständlich war. Siehe auch https://www.datacenter-insider…ann-architektur-a-875441/
Display MoreHarvard Architektur beschreibt doch gerade die getrennte Speicherung von Instruktionen und Daten. Das heutige Modell geht auf John von Neumann zurück, indem Beides gemeinsam im RAM gespeichert wird.
Prinzipiell - von RAM Seite aus gesehen - stimmt das a sogar so. Aber, zumindest meines Wissens, ist das von der CPU Seite aus gesehen schon so, daß es einen Datencache und einen Instruktionscache gibt. Dabei "sieht" die CPU dann eben ganz klassisches "Harvard".
(und das lustigerweise, obwohl die Maschine insgesamt eigentlich "von Neumann" ist, und gerade eben nichts getrennt wird, weder auf dem RAM noch auf den Platten (es sei denn man legt sich das explizit so an))
Lasse mich da aber gern korrigieren.
Ja, das wollte ich auch gerade schreiben. Ich glaube allerdings auch nicht, das die alten Klassifizierungen (von Neumann und Harvard) auf moderne Prozessoren und Computer überhaupt noch passen.
Zustimmung. Diese Handy CPU sind sowas von weit weg von einer klassischen Rechner CPU. Und auch da ist schon seit ca. 1995 oder so eigentlich nichts mehr klassisch so wie man sich das als Programmierer vorstellt. Spätestens seit der Out-of-Order Execution (was für ein Name, erinnert immer irgendwie ein bißchen an Ludwig XVI und seiner Österreicherin Marie A.) oder bei HP dem Instruction Reorder Buffer, wobei das ja schon eher losgeht (mit solchen Sprungvorhersagegeschichten)
der von Neumann Architektur liegt die tiefgreifende Erkenntnis zugrunde, dass Instruktionen und Daten letztlich das selbe ist, nämlich in Bits und Bytes codierte Information. Damit schließt sich der Kreis wieder zum Urvater Claude Shannon😜
Dass eine CPU aus Performance- oder Security-Gründen verschiedene Mechanismen wie getrennte Caches oder geschützte Speicherbereiche nutzt, ändert daran rein gar nichts.
Display MoreMit 1500 Relais war der ENIAC dann wohl doch nicht vollelektronisch, sondern teils elektromechanisch?
Die Verknüpfung des Begriffs mit Computern geht möglicherweise auf die Computerpionierin Grace Hopper zurück. Sie verbreitete die Geschichte, dass am 9. September 1945 eine Motte in einem Relais des Computers Mark II Aiken Relay Calculator zu einer Fehlfunktion führte. Die Motte wurde entfernt, in das Logbuch geklebt und mit folgender Notiz versehen: “First actual case of bug being found.” (deutsch: „Das erste Mal, dass tatsächlich ein ‚Ungeziefer‘ gefunden wurde.“). Die Legende der Begriffsfindung hält sich hartnäckig, obwohl die Logbuch-Eintragung gerade darauf verweist, dass der Begriff schon zuvor gängig war. Zudem irrte Grace Hopper sich hinsichtlich des Jahres: Der Vorfall ereignete sich tatsächlich am 9. September 1947. Die entsprechende Seite des Logbuchs wurde bis Anfang der 1990er Jahre am Naval Surface Warfare Center Computer Museum der US-Marine in Dahlgren, Virginia, aufbewahrt. Zurzeit befindet sich diese Logbuchseite mit der Motte am Smithsonian Institute.[5]
Mark II Aiken Relay .... = Harvard Mark 2 https://en.wikipedia.org/wiki/Harvard_Mark_II
seitdem gibt es die "Harvard Architektur" weshalb wir heute Rechner haben, die Daten und Instruktionen in einem gemeinsamen RAM lagern, sie dann während des Ladens in den Prozessor schön auftrennen und teils auch in Caches getrennt halten, um sie anschließend beim Verarbeiten in der CPU wieder zu vermengen, um es beim Zurückschreiben der Ergebnisse wieder getrennt zu behandeln (OK, OK, Instruktionen schreibt man eher selten zurück).
ich verstehe deine Aussage nicht. Harvard Architektur beschreibt doch gerade die getrennte Speicherung von Instruktionen und Daten. Das heutige Modell geht auf John von Neumann zurück, indem Beides gemeinsam im RAM gespeichert wird.
bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten.
Nun, ich kenne mich mit der Informatik nicht so aus und weiss auch nicht, ob jede(r) Informatiker automatisch ein richtiger Crack sein muss - ich denke, die meisten machen einfach ihre Arbeit wie in wahrscheinlich jedem anderen Metier dies auch so gemacht wird.
Bei meinem obigen Statement dachte ich eher an Grace Hopper, Mary Keller oder Ada Lovelance. um nur einige zu nennen. Cherry gehört aus meiner Sicht auch in diese Reihe.
Grace Hopper war sicherlich eine wichtige, weil einflussreiche Persönlichkeit. Allerdings mehr im administrativen Bereich. Im Vergleich zu den wirklichen Pionieren wie Zuse, Shannon, von Neumann, Kilby, Hoare, Dijkstra, Wirth, Engelbart, Kay, Ingalls, Knuth, Beck, Fowler usw. sehe ich aber einen weiten Abstand😗
Und hier berichtet Heise.
Ich finde, die Frauen in der Informatik müssten viel mehr Beachtung finden - und das nicht nur in Nachrufen.
bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten. Männliche kann ich allerdings auch nur an einer Hand abzählen, von denen ich lernen konnte. Muss also nix heißen. Beeindruckt hat mich allenfalls Jutta Eckstein mit ihrem Buch "agile Softwareentwicklung im Großen". Sollte als Pflichtlektüre für selbst ernannte Architekten aller Art eingeführt werden😗
Display MoreJa, es gab vor dem iPhone schon Smartphones. Ich selbst habe auch damals solche Windows Mobile Geräte benutzt, erst nur als PDA und später dann auch als Telefon, aber alleine die Bedienung war schon ein ganz schöner Krampf, da die Geräte resistive Touchscreens nutzten und deswegen auf den Stylus zur Bedienung setzten. Hinzu kam dann noch MS ActiveSync...
Obwohl das iPhone gerade zu Beginn einen sehr eingeschränkten Funktionsumfang hatte, hat es die Smartphonewelt revolutioniert. Plötzlich musste man kein Nerd mehr sein, um ein Smartphone bedienen zu können.
Die Vorstellung des iPhones hat Google dazu gebracht, Android komplett umzubauen. So ungefähr waren wohl die ursprünglichen Pläne:
ich mochte mein Nokia 5230 (damals Testsieger vor iPhone 4) sehr gerne, vor allem wegen der kostenlosen Navi-Software🤗 Aber klar - da war kein langfristig lebensfähiges OS drunter und kein wirkliches Konzept dahinter, so wie Apple es mit dem App-Markt allen vormachte.
Lesen bildet...
Witzig. Da steht, dass deine Aussage also genauso wenig überprüfbar sein soll wie meine. Dann können wir ja aufhören, drüber zu reden.
das Buch ist sehr sachlich. Widersprüchlichkeiten in Details werden nicht unter den Teppich gekehrt. Gerade deshalb zweifle ich die Schilderun der Geschehnisse auch nicht an. Zumal dies auch von Jobs autorisiertem Biografen gleichlautend dargestellt wird.
1) das GUI hat Jobs schamlos von Xerox geklaut
Lesen bildet...16449221845259066861659976403802_autoscaled.jpg
Display MoreDas zeigt doch aber auch, dass eine Erfindung für sich überhaupt nicht entscheident ist, sondern ganze Drumherum passen muss. Viele Erfindung sind gefloppt, weil sie zu früh kamen.
Ich bin übrigens gar kein Apple-Anhänger. Ich verwende zwar ein iPhone 8, aber nur, weil es keine Android-Geräte kleiner 5 Zoll mit aktueller Androidversion mehr gibt. Ansonsten mag ich Apple-Geräte eher nicht, weil sie meistens unpraktisch sind und den Benutzer permanent gängeln.
Trotzdem würde ich Apple zwei Innovationen zuerkennen.
1. Den Mac. Nicht weil ich den Mac mochte (zu abgeschlossen, zu teuer), sondern weil durch ihn Windows entstanden ist. Und damit arbeite ich seit Version 1
2. Das iPhone. Ich fürchte ohne das iPhone würden wir uns immer noch mit untauglich Windows CE-Geräten rumärgern.
naja
1) das GUI hat Jobs schamlos von Xerox geklaut
2) Smartphones gab es auch vor dem iPhone
was Jobs auszeichnete, war, dass er die Dinge aus Anwendersicht konsequent zu Ende dachte und seine Techniker dafür begeistern und antreiben konnte🤗
Echt jetzt beleidigend? Gegen fucking wen den bitte? Deinen Jesus?
ich schätze, der Ton macht die Musik
Ich bin auch kein Apple-Fan. Vor einigen Jahren hatte ich ein iPad3 verschenkt, weil ich mir nach einem MacOS-Update einen neuen WLAN-Router hätte anschaffen müssen. Die Geschäftspolitik der Apfelverkäufer war mir immer ein Dorn im Auge. Trotzdem war Jobs auf seine Art genial und ein Knubbel-Mac steht recht prominent in einer Wozi-Ecke
Display MoreDisplay MoreDisplay MoreLinux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt
Es gibt keine Client Betriebssysteme mehr die eine Relevanz haben. Das Backend ist Unix der Rest ist Webbrowser. OS von Apple und Microsoft sind unerheblich, reines Marketing. Alles wichtige ist portabel. Ich kann Homeoffice von meinem iPad oder Android Samsung machen. Ob mein Notebook Unix oder Windows macht ist Latte.
ja - Träume sind Schäume, darum finden sich heutzutage ja z.B. auch nur noch papierlose Büros😅
Aber im Ernst - auch ein Webbrowser benötigt ein OS als Biotop, u.a. deswegen, weil es die 2D/3D-Drucker des papierlosen Büros ansteuern muss
Puuh, den Smiley hättest du dir sparen können. Deine Geringschätzung ist fehl am Platze.
Und ja, unser Büro ist papierlos und 3D Drucker? In der Masse? Und Bitte, wo habe ich behauptet es bräuchte kein OS. Und das Unternehmen wo ich arbeite ist keine kleine Klitsche.
6 Setzen!
wenn du eine ironische Antwort auf eine gewagte Behauptung als Geringschätzung empfindest, tut mir das leid.
Display MoreLinux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt
Es gibt keine Client Betriebssysteme mehr die eine Relevanz haben. Das Backend ist Unix der Rest ist Webbrowser. OS von Apple und Microsoft sind unerheblich, reines Marketing. Alles wichtige ist portabel. Ich kann Homeoffice von meinem iPad oder Android Samsung machen. Ob mein Notebook Unix oder Windows macht ist Latte.
ja - Träume sind Schäume, darum finden sich heutzutage ja z.B. auch nur noch papierlose Büros😅
Aber im Ernst - auch ein Webbrowser benötigt ein OS als Biotop, u.a. deswegen, weil es die 2D/3D-Drucker des papierlosen Büros ansteuern muss
Linux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt