Posts by pit2001

    es isst ja auch kein Mensch mehr ohne Gabel und Löffel

    Das trifft aber auch nicht auf alle Kulturkreise zu.

    Wir haben Freunde, die aus Sri Lanka stammen - die essen einfach mit den Fingern.

    Als wir bei denen mal zu einem Familienfest eingeladen waren, haben wir das auch versucht.

    Bei manchen Gerichten funktioniert das natürlich problemlos, aber bei einem Reisgericht mit Sauce habe ich mich ziemlich ungeschickt angestellt, und mich gefragt, wie die das eigentlich hinkriegen, ohne sich dabei total einzusauen...

    genau so fühlt sich die Bedienung des Treo mit bloßen Fingern an ::vodoo::

    Treo680.jpg

    spätestens, wenn ich in der S-Bahn den Stift aus dem Gerät ziehe, habe ich die ungeteilte Aufmerksamkeit:tüdeldü:

    Dabei wusste ich gar nicht mehr, dass ich den mal als Smartphone genutzt hatte. Gestöbert hatte ich nach was ganz anderem...

    auf der Suche nach was anderem bin ich hierüber gestolpert. Vielleicht ja für manchen hier auch ganz interessant:

    https://media.ccc.de/v/vcfb18_…t_dommer_-_ansgar_kueckes


    Die Firma Apple ist heute das – gemessen an der Marktkapitalisierung – wertvollste Unternehmen weltweit. Aber nur wenige wissen, wie die Firma eigentlich im Jahr 1976 startete. Erfolgreich wurde Apple bereits 1977 mit dem Apple II. Insgesamt wurden aus der Apple-II-Serie von 1977 bis 1993 weltweit mehr als zwei Millionen Geräte hergestellt. Heute gilt der Apple II zusammen mit dem TRS-80 und dem PET als der Schlüssel zum Erfolg des Personalcomputers schlechthin. Doch noch vor dem Apple II kam der Apple I, der allein von Steve Wozniak, dem technischen Genie hinter dem frühen Erfolg von Apple, entwickelt wurde. Zwar wurden vom Apple I nur geschätzte 200 Exemplare hergestellt, aber die Bedeutung dieses Rechners als Vorbereiter des Personalcomputers kann gar nicht hoch genug eingeschätzt werden. Viele der technischen Konzepte im Apple II hatte Wozniak bereits im Apple I vorab entwickelt und erprobt. Mit der Produktion des Apple II wurden die meisten Apple I gegen die viel leistungsfähigeren neuen Geräte getauscht und im Anschluss vernichtet. Die heute noch verbliebenen rund 50 Original-Apple-I-Computer erzielen regelmäßig auf Auktionen Höchtsgebote und gelten als die begehrtesten historischen Computer überhaupt. Sie finden sich mittlerweile fast ausschließlich bei gut betuchten Sammlern oder bekannten Museen wie dem Smithsonian oder dem Deutschen Museum. Einige haben es sich zum Ziel gesetzt, diesen Meilenstein der Computergeschichte mit Originalkomponenten aus der Zeit des Apple I nachzubauen. Was sich manchmal nicht ganz leicht gestaltet, sind doch viele der damals verwendeten Elektronikkomponenten heute auch gebraucht kaum noch in funktionsfähigem Zustand zu bekommen. Der Vortrag vermittelt einen Abriss der frühen Geschichte der Firma Apple, die eimal als "Garagenfirma" begann und heute jeder kennt. Er zeigt auf, wie ein technisches Genie mit Begeisterung und Leidenschaft Neues schaffte und damit den Grundstein für den heutigen Erfolg von Apple legte, und erzählt vom Versuch, einen der begehrtesten Computer der Welt originalgetreu mit Komponenten aus der damaligen Zeit als funktionsfähiges Exemplar zu rekonstruieren. Der Vortrag ergänzt die Ausstellung zum Apple I, in welcher der funktionsfähige Nachbau gezeigt wird.

    was meinst du denn mit "viel leistungsfähigere"? In beiden Rechnern werkelte doch die selbe lahme CPU🤔

    Der Apple II hatte Farbgrafik ok. Das Integer-Basic war auch nicht gerade der Hit...

    Das kann ich voll unterschreiben. Wobei sich meine Erfahrungen auf Javascript und Bier beschränken. 8o

    Ja meine auch - inkl. Typescript "Aufsatz". Gott sei Dank musste ich damit bisher nicht viel machen <X:wegmuss:

    Typescript ist ok. Damit kann man arbeiten. ;)

    Ja das bringt auf jeden Fall sinnvolle Features mit... Aber ich kann die Javascript Begeisterung überhaupt nicht teilen. Bei jeder Zeile muss man würgen :D.

    Visual Basic 2022 halt:zombie:

    ich habe vor einigen Jahren hier im Forum ausführlich beschrieben, wie ich fùr einen mac se eine scsi platte auf linux præpariert habe, dass der mac damit booten konnte. fùr scsi zip dürfte das nicht unterschiedlich sein. such mal nach "(ST32430N)" in den Beitrægen hier...

    sehe ich auch so. Über alles Neue und Junge zu schimpfen zeugt nur von der eigenen beginnenden Verkalkung. Und von wegen Schmalspur-Bachelor. Wenn ich an mein eigenes Info-Studium in den 80er Jahren zurückblicke, war das im Vergleich zum heutigen eng getakteten Schnellzug-Studium eher gemütlich. Damals waren Semesterferien weitgehend freie Zeit, heute sind die vollgestopft mit Prüfungen und Seminaren. Wenn die Qualität tatsächlich leiden würde, hätte unsere Industrie ein Problem. Aber der geht es blendend. Das sagt doch schon alles.

    DVD-Laufwerke hab bereits vor Jahren durch BD-Laufwerke ersetzt:tüdeldü:

    Essentielle Daten brenne ich immer noch und zwar nicht nur einfach😉

    Hab ich ja jahrelang auch so gemacht. Zumal Festplattenspeicher zum Archivieren zu teuer war. Aber irgendwann ging mir die Sucherei einfach so auf den Keks, dass ich alle Daten auf eine Platte kopiert habe. Und warum soll ich 20-30 Jahre alten Daten auch noch katalogisieren. ;)

    eben - um sie nicht auf Platte kopieren zu müssen:DIch meine, warum soll ich irgendwelche T-Online CDs aus den 90ern auf eine Platte kopieren. Aber irgendwann fragt dann doch mal wieder jemand nach z.B. ISDN-Treibern Version X.Y. Und dann will ich ganz bestimmt nicht Disk-Jockey spielen :weinen:

    Nett wäre so ein Katalogisierer als Web-App - auf mein absehbares Rentnerdasein warten jede Menge Projekte...:sabber:

    ist schon klar. Normalerweise benötige ich 20-30 Jahre alte Dateien auch nicht mehr. Drum wäre es unsinnig, hunderte CDs und DVDs auf eine Platte zu kopieren. Zumal gebrannte Medien den nicht zu unterschätzenden Vorteil haben, immun gegen Virenbefall und Ransomware zu sein. Darum fand ich das einmalige Katalogisieren und dann ad acta legen, durchaus schick ::pc::

    Hallo zusammen,


    ich benutze zum Katalogisieren meiner mittlerweile unzähligen Daten-CDs, DVDs und BDs seit vielen Jahren Gentibus CD.

    Eigentlich brauche ich die Funktionalität selten, aber hin und wieder dann doch. Aktuell suche ich gerade irgendwelche alten Immatrikulationsbescheinigungen,

    die ich vor Jahrzehnten wahrscheinlich mal eingescannt habe:grübel:
    Gentibus CD funktioniert zwar einigermaßen, wird aber seit vielen Jahren nicht mehr weiterentwickelt und ist grottenlangsam.

    Ich habe schon mehrmals darüber nachgedacht, selbst so ein Programm zu schreiben, aber der Leidensdruck war letztlich dann doch nie groß genug::vodoo::

    Alternativen habe ich bislang keine vernünftigen gefunden, hat evtl. jemand einen Tipp für mich?


    viele Grüße, Peter

    kam gestern von Medimops für etwas über 2€ und ist damit mein drittes Exemplar. Ich denke daher, es wäre kein übermäßiger Frevel, ein Exemplar für eine digitale Ausgabe zu opfern. Sollte Interesse bestehen, bitte ich um eine entsprechende Nachricht...

    lustige Aussage, denn Computerhistorie ist doch das eigentliche Thema in diesem Forum:) Historisch gesehen war von Neumanns Architektur 1945 ein klarer Fortschritt, indem vorher getrennte und auch Hardware technisch verschiedene Systeme für Instruktionen und Daten elegant vereinheitlicht wurden. Der gemeinsame Speicher war auch nur ein Stützpfeiler dieser Architektur. Der andere entscheidende war die dafür notwendige binäre Codierung von Daten und Programmen, was vorher keinesfalls selbstverständlich war. Siehe auch https://www.datacenter-insider…ann-architektur-a-875441/

    der von Neumann Architektur liegt die tiefgreifende Erkenntnis zugrunde, dass Instruktionen und Daten letztlich das selbe ist, nämlich in Bits und Bytes codierte Information. Damit schließt sich der Kreis wieder zum Urvater Claude Shannon😜

    Dass eine CPU aus Performance- oder Security-Gründen verschiedene Mechanismen wie getrennte Caches oder geschützte Speicherbereiche nutzt, ändert daran rein gar nichts.

    ich verstehe deine Aussage nicht. Harvard Architektur beschreibt doch gerade die getrennte Speicherung von Instruktionen und Daten. Das heutige Modell geht auf John von Neumann zurück, indem Beides gemeinsam im RAM gespeichert wird.

    bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten.

    Nun, ich kenne mich mit der Informatik nicht so aus und weiss auch nicht, ob jede(r) Informatiker automatisch ein richtiger Crack sein muss - ich denke, die meisten machen einfach ihre Arbeit wie in wahrscheinlich jedem anderen Metier dies auch so gemacht wird.


    Bei meinem obigen Statement dachte ich eher an Grace Hopper, Mary Keller oder Ada Lovelance. um nur einige zu nennen. Cherry gehört aus meiner Sicht auch in diese Reihe.

    Grace Hopper war sicherlich eine wichtige, weil einflussreiche Persönlichkeit. Allerdings mehr im administrativen Bereich. Im Vergleich zu den wirklichen Pionieren wie Zuse, Shannon, von Neumann, Kilby, Hoare, Dijkstra, Wirth, Engelbart, Kay, Ingalls, Knuth, Beck, Fowler usw. sehe ich aber einen weiten Abstand😗

    Und hier berichtet Heise.


    Ich finde, die Frauen in der Informatik müssten viel mehr Beachtung finden - und das nicht nur in Nachrufen.

    bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten. Männliche kann ich allerdings auch nur an einer Hand abzählen, von denen ich lernen konnte. Muss also nix heißen. Beeindruckt hat mich allenfalls Jutta Eckstein mit ihrem Buch "agile Softwareentwicklung im Großen". Sollte als Pflichtlektüre für selbst ernannte Architekten aller Art eingeführt werden😗

    ich mochte mein Nokia 5230 (damals Testsieger vor iPhone 4) sehr gerne, vor allem wegen der kostenlosen Navi-Software🤗 Aber klar - da war kein langfristig lebensfähiges OS drunter und kein wirkliches Konzept dahinter, so wie Apple es mit dem App-Markt allen vormachte.

    Lesen bildet...

    Witzig. Da steht, dass deine Aussage also genauso wenig überprüfbar sein soll wie meine. Dann können wir ja aufhören, drüber zu reden.

    das Buch ist sehr sachlich. Widersprüchlichkeiten in Details werden nicht unter den Teppich gekehrt. Gerade deshalb zweifle ich die Schilderun der Geschehnisse auch nicht an. Zumal dies auch von Jobs autorisiertem Biografen gleichlautend dargestellt wird.:neinnein:

    naja

    1) das GUI hat Jobs schamlos von Xerox geklaut

    2) Smartphones gab es auch vor dem iPhone


    was Jobs auszeichnete, war, dass er die Dinge aus Anwendersicht konsequent zu Ende dachte und seine Techniker dafür begeistern und antreiben konnte🤗

    Echt jetzt beleidigend? Gegen fucking wen den bitte? Deinen Jesus?

    ich schätze, der Ton macht die Musik:tüdeldü:

    Ich bin auch kein Apple-Fan. Vor einigen Jahren hatte ich ein iPad3 verschenkt, weil ich mir nach einem MacOS-Update einen neuen WLAN-Router hätte anschaffen müssen. Die Geschäftspolitik der Apfelverkäufer war mir immer ein Dorn im Auge. Trotzdem war Jobs auf seine Art genial und ein Knubbel-Mac steht recht prominent in einer Wozi-Ecke:D

    wenn du eine ironische Antwort auf eine gewagte Behauptung als Geringschätzung empfindest, tut mir das leid.

    ja - Träume sind Schäume, darum finden sich heutzutage ja z.B. auch nur noch papierlose Büros😅

    Aber im Ernst - auch ein Webbrowser benötigt ein OS als Biotop, u.a. deswegen, weil es die 2D/3D-Drucker des papierlosen Büros ansteuern muss:fp:

    Linux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.


    Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.

    die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.

    Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt:capone: