https://www.amazon.de/Die-Traum-Maschine-Steve-Ditlea/dp/3770117239
liefert noch mehr Insider-Infos zu MITS und der gesamten Mikrocomputer Entwicklung😉
https://www.amazon.de/Die-Traum-Maschine-Steve-Ditlea/dp/3770117239
liefert noch mehr Insider-Infos zu MITS und der gesamten Mikrocomputer Entwicklung😉
die meisten Leute sind eben leichtgläubig. Gepaart mit Bequemlichkeit kann das schnell fatal werden. Wenn ich mir vorstelle, dass so
ein primitives "KI"-Progrämmchen wie ELIZA (J.Weizenbaum, 1966) die Benutzer glauben lies, ihr Gegenüber wäre ein kompetenter Psychotherapeut, dem sie alles anvertrauen können, darf einem schon bange werden.
Mal abgesehen von den Unzulänglichkeiten heutiger KI-Systeme, muss man auch sehen, dass diese Systeme nicht von Mutter Theresa betrieben werden, sondern von Konzernen mit deren Interessen. Ich finde es naiv zu glauben, dass dort langfristig keine Manipulationsinteressen enstehen. Man kann ja gerade gut studieren, was aus Twitter geworden ist. Und die "Suchmaschine" Google liefert auch zunehmend bezahlte Ergebnisse, die nichts mit meinen Anfragen zu tun haben😵💫 Schöne Neue Welt🫣
PS: ELIZA läuft übrigens noch auf meinem PET 2001🤗
Wenn da ein Diskettenlaufwerk dabei ist, mir verkaufen, ansonsten @Ferry fragen, wie die Überbrückungsschaltung geht.
verschicken will ich nichts, aber gegen Abholung gebe ich das Gerät gerne umsonst ab. Mit Elektronik sollte sich der Betreffende allerdings auskennen. Da bin ich leider völlig blank (siehe auch kann Toshiba T1000XE ohne Akku laufen?)
Die Toshi T1000 sind legendär! Gratuliere zu dem Fang in Bestzustand!
hab auch seit über einem Vierteljahrhundert einen XE herumliegen, den ich mal für 19DM auf nem Nachtflohmarkt erstanden hatte. Anfänglich ging er noch, bis der Akku die Grätsche machte. Hatte mir damals einen Ersatzakku gekauft, der aber auch nicht lange durchhielt. Also keine Chance, den im Netzbetrieb laufen zu lassen? Was macht man dann damit? ![]()
Welcher Flohmarkt wo? Ich habe die Anleitung zur Divisumma 24, aber kein Gerät dazu...
München Riem - Samstagsflohmarkt. Die waren gerade wieder beim Einpacken. Hab ihnen schon damit gedroht, dass sie evtl. Anrufe von interessierter Seite bekommen und ihre Kontaktdaten mitgenommen - hatten sogar eine Visitenkarte🤗
DDR-RAM gibts immer noch... ![]()
Ha, alle paar Monate ein neuer AMD K6 oder K6-II wegen 33 bzw. 50 MHz mehr, das musste einfach sein!
da ich am PC eigentlich immer nur Schach gespielt hatte, hätte schnellere Hardware nur zu mehr Frust bei mir geführt ![]()
auf der Suche nach was anderem bin ich hierüber gestolpert. Vielleicht ja für manchen hier auch ganz interessant:
https://media.ccc.de/v/vcfb18_…t_dommer_-_ansgar_kueckes
Die Firma Apple ist heute das – gemessen an der Marktkapitalisierung – wertvollste Unternehmen weltweit. Aber nur wenige wissen, wie die Firma eigentlich im Jahr 1976 startete. Erfolgreich wurde Apple bereits 1977 mit dem Apple II. Insgesamt wurden aus der Apple-II-Serie von 1977 bis 1993 weltweit mehr als zwei Millionen Geräte hergestellt. Heute gilt der Apple II zusammen mit dem TRS-80 und dem PET als der Schlüssel zum Erfolg des Personalcomputers schlechthin. Doch noch vor dem Apple II kam der Apple I, der allein von Steve Wozniak, dem technischen Genie hinter dem frühen Erfolg von Apple, entwickelt wurde. Zwar wurden vom Apple I nur geschätzte 200 Exemplare hergestellt, aber die Bedeutung dieses Rechners als Vorbereiter des Personalcomputers kann gar nicht hoch genug eingeschätzt werden. Viele der technischen Konzepte im Apple II hatte Wozniak bereits im Apple I vorab entwickelt und erprobt. Mit der Produktion des Apple II wurden die meisten Apple I gegen die viel leistungsfähigeren neuen Geräte getauscht und im Anschluss vernichtet. Die heute noch verbliebenen rund 50 Original-Apple-I-Computer erzielen regelmäßig auf Auktionen Höchtsgebote und gelten als die begehrtesten historischen Computer überhaupt. Sie finden sich mittlerweile fast ausschließlich bei gut betuchten Sammlern oder bekannten Museen wie dem Smithsonian oder dem Deutschen Museum. Einige haben es sich zum Ziel gesetzt, diesen Meilenstein der Computergeschichte mit Originalkomponenten aus der Zeit des Apple I nachzubauen. Was sich manchmal nicht ganz leicht gestaltet, sind doch viele der damals verwendeten Elektronikkomponenten heute auch gebraucht kaum noch in funktionsfähigem Zustand zu bekommen. Der Vortrag vermittelt einen Abriss der frühen Geschichte der Firma Apple, die eimal als "Garagenfirma" begann und heute jeder kennt. Er zeigt auf, wie ein technisches Genie mit Begeisterung und Leidenschaft Neues schaffte und damit den Grundstein für den heutigen Erfolg von Apple legte, und erzählt vom Versuch, einen der begehrtesten Computer der Welt originalgetreu mit Komponenten aus der damaligen Zeit als funktionsfähiges Exemplar zu rekonstruieren. Der Vortrag ergänzt die Ausstellung zum Apple I, in welcher der funktionsfähige Nachbau gezeigt wird.
was meinst du denn mit "viel leistungsfähigere"? In beiden Rechnern werkelte doch die selbe lahme CPU🤔
Der Apple II hatte Farbgrafik ok. Das Integer-Basic war auch nicht gerade der Hit...
https://www.ebay-kleinanzeigen…t-key/2082427722-278-6582
für Toshiba-Fans evtl. ein Schnäppchen - direkt bei mir im Ort![]()
Display MoreHallo,
mein neuen Mac Classic II ist nun da und ich möchte hier unbedingt ein externes SCSI Zip Laufwerk anschliessen.
Der Rechner hat mehrere Betriebssysteme drauf und ein Superdrive Laufwerk, welches auch gut funktioniert.
Ich hab jetzt soweit jede Menge Webseiten und auch Threads hier durchgeschaut und mir dreht sich es im Kopf etwas
Ich weiß, dass ich am Mac einen Treiber für das SCSI Zip Laufwerk installieren muss. Diesen Treiber auf den Mac zu bekommen ist nun mein großes Problem.
Ich habe folgendes Equipment zur Verfügung:
1 Mac ( nämlich mein Classic II )
Windows Laptops mit Win XP und USB, sowie Floppy
Moderner Mac ohne Diskettenlaufwerk
Parallel und SCSI Zip Laufwerke
Soweit ich das verstehe, liest ein Mac Classic II nicht ohne weiteres DOS Disketten. Versuche mit PCExchange waren erfolglos, angeblich zuwenig Speicher ( der Classic II hat 4 MB Ram ).
Mit Diskwrite unter Windows konnte ich Bootimages auf Diskette schreiben und von denen bootet der Mac auch problemlos.
Ich hab jetzt soweit ich das verstehe die Möglichkeit ein Image zu erstellen ( welches den ZIP Treiber enthält ) und das auf eine Diskette zu schreiben für den Mac.
Mir ist nicht so ganz klar, wie ich unter Windows ein Mac taugliches Image erstellen kann ?
Also für mich stellt sich die Frage, ob ich nicht doch besser einen 2. älteren Mac besorge mit einem Diskettenlaufwerk, möglichst mit USB um da einen USB Stick anzuschliessen, oder ich finde einen Weg ein Diskettenimage für den Mac zu erstellen mit allen Dateien die ich dann brauche.
Ich hoffe Ihr könnt mir da helfen ?!
Danke und Grüße
Bernd
ich habe vor einigen Jahren hier im Forum ausführlich beschrieben, wie ich fùr einen mac se eine scsi platte auf linux præpariert habe, dass der mac damit booten konnte. fùr scsi zip dürfte das nicht unterschiedlich sein. such mal nach "(ST32430N)" in den Beitrægen hier...
Display Moreeben - um sie nicht auf Platte kopieren zu müssen
Ich meine, warum soll ich irgendwelche T-Online CDs aus den 90ern auf eine Platte kopieren. Aber irgendwann fragt dann doch mal wieder jemand nach z.B. ISDN-Treibern Version X.Y. Und dann will ich ganz bestimmt nicht Disk-Jockey spielen
Nett wäre so ein Katalogisierer als Web-App - auf mein absehbares Rentnerdasein warten jede Menge Projekte...
Warum sollte ich T-Online CDs auf die Platte kopieren? In denen muss ich nichts suchen und die gehen auch nicht kaputt. Die würde ich ja auch nicht katalogisieren. Die müllen doch nur die Datenbank zu.
Alle original CD's habe ich in zwei Boxen. Das sind im wesentlich Programm-, Betriebssystem- und Treiber-CDs.
Wenn ich von denen eine suche, habe ich die in 5 Minuten durchgeblättert. Auf die Idee, auf diesen CDs was zu suchen, bin ich noch nie gekommen.
Da ich aber viele von den alten Original CDs wenn überhaupt dann nur noch in Virtual Box verwende, habe ich tatsächlich von fast allen Programm- und Betriebssystem CDs inzwischen ISO-Images auf der Platte. So kann ich die direkt in Virtual Box einbinden.
Mein aktueller Arbeitsrechner hat gar kein DVD-Laufwerk mehr. Wenn ich das mal brauche, muss ich eins über USB anschließen.
DVD-Laufwerke hab bereits vor Jahren durch BD-Laufwerke ersetzt![]()
Essentielle Daten brenne ich immer noch und zwar nicht nur einfach😉
Hab ich ja jahrelang auch so gemacht. Zumal Festplattenspeicher zum Archivieren zu teuer war. Aber irgendwann ging mir die Sucherei einfach so auf den Keks, dass ich alle Daten auf eine Platte kopiert habe. Und warum soll ich 20-30 Jahre alten Daten auch noch katalogisieren.
eben - um sie nicht auf Platte kopieren zu müssen
Ich meine, warum soll ich irgendwelche T-Online CDs aus den 90ern auf eine Platte kopieren. Aber irgendwann fragt dann doch mal wieder jemand nach z.B. ISDN-Treibern Version X.Y. Und dann will ich ganz bestimmt nicht Disk-Jockey spielen ![]()
Nett wäre so ein Katalogisierer als Web-App - auf mein absehbares Rentnerdasein warten jede Menge Projekte...![]()
Display MoreIch habe alle meine Daten in einem großem Archiv-Ordner auf eine 8 TB Platte (genau genommen natürlich zwei. Wegen Backup).
Wenn ich was nicht mehr finde, dann mache ich eine Volltextsuche über das gesamte Verzeichnis inkl. Durchsuchen der Archivdateien. Das läuft dann eine Stunde oder, aber auf dem Weg habe ich bisher alles wiedergefunden.
Da wird auch nix gelöscht oder aufgeräumt. Es kommen immer nur neue Daten hinzu. Vieles liegt doppelt ab, weil es mehrfach archiviert wurde. Aber das ist mir egal. Denn so ein Archiv ständig aufzuräumen kostet viel zu viel Zeit.
Früher hatte ich alles auf DVDs. Da wird man wahnsinnig beim Suchen. Und dann muss man auch alles doppelt ablegen und ständig prüfen, ob alle DVDs noch lesbar sind.
ist schon klar. Normalerweise benötige ich 20-30 Jahre alte Dateien auch nicht mehr. Drum wäre es unsinnig, hunderte CDs und DVDs auf eine Platte zu kopieren. Zumal gebrannte Medien den nicht zu unterschätzenden Vorteil haben, immun gegen Virenbefall und Ransomware zu sein. Darum fand ich das einmalige Katalogisieren und dann ad acta legen, durchaus schick ![]()
Immatrikulationsbescheinigungen,
kann dir auf Anfrage die Uni bescheinigen.
schon klar - war aber auch nur ein Beispiel ![]()
Hallo zusammen,
ich benutze zum Katalogisieren meiner mittlerweile unzähligen Daten-CDs, DVDs und BDs seit vielen Jahren Gentibus CD.
Eigentlich brauche ich die Funktionalität selten, aber hin und wieder dann doch. Aktuell suche ich gerade irgendwelche alten Immatrikulationsbescheinigungen,
die ich vor Jahrzehnten wahrscheinlich mal eingescannt habe![]()
Gentibus CD funktioniert zwar einigermaßen, wird aber seit vielen Jahren nicht mehr weiterentwickelt und ist grottenlangsam.
Ich habe schon mehrmals darüber nachgedacht, selbst so ein Programm zu schreiben, aber der Leidensdruck war letztlich dann doch nie groß genug![]()
Alternativen habe ich bislang keine vernünftigen gefunden, hat evtl. jemand einen Tipp für mich?
viele Grüße, Peter
kam gestern von Medimops für etwas über 2€ und ist damit mein drittes Exemplar. Ich denke daher, es wäre kein übermäßiger Frevel, ein Exemplar für eine digitale Ausgabe zu opfern. Sollte Interesse bestehen, bitte ich um eine entsprechende Nachricht...
bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten.
Nun, ich kenne mich mit der Informatik nicht so aus und weiss auch nicht, ob jede(r) Informatiker automatisch ein richtiger Crack sein muss - ich denke, die meisten machen einfach ihre Arbeit wie in wahrscheinlich jedem anderen Metier dies auch so gemacht wird.
Bei meinem obigen Statement dachte ich eher an Grace Hopper, Mary Keller oder Ada Lovelance. um nur einige zu nennen. Cherry gehört aus meiner Sicht auch in diese Reihe.
Grace Hopper war sicherlich eine wichtige, weil einflussreiche Persönlichkeit. Allerdings mehr im administrativen Bereich. Im Vergleich zu den wirklichen Pionieren wie Zuse, Shannon, von Neumann, Kilby, Hoare, Dijkstra, Wirth, Engelbart, Kay, Ingalls, Knuth, Beck, Fowler usw. sehe ich aber einen weiten Abstand😗
Und hier berichtet Heise.
Ich finde, die Frauen in der Informatik müssten viel mehr Beachtung finden - und das nicht nur in Nachrufen.
bin seit über 35 Jahren im Projekt-Geschäft und kann mich an keine Entwicklerinnen entsinnen, die bleibenden Eindruck auf mich hinterlassen hätten. Männliche kann ich allerdings auch nur an einer Hand abzählen, von denen ich lernen konnte. Muss also nix heißen. Beeindruckt hat mich allenfalls Jutta Eckstein mit ihrem Buch "agile Softwareentwicklung im Großen". Sollte als Pflichtlektüre für selbst ernannte Architekten aller Art eingeführt werden😗
Display MoreDisplay MoreDisplay MoreLinux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt
Es gibt keine Client Betriebssysteme mehr die eine Relevanz haben. Das Backend ist Unix der Rest ist Webbrowser. OS von Apple und Microsoft sind unerheblich, reines Marketing. Alles wichtige ist portabel. Ich kann Homeoffice von meinem iPad oder Android Samsung machen. Ob mein Notebook Unix oder Windows macht ist Latte.
ja - Träume sind Schäume, darum finden sich heutzutage ja z.B. auch nur noch papierlose Büros😅
Aber im Ernst - auch ein Webbrowser benötigt ein OS als Biotop, u.a. deswegen, weil es die 2D/3D-Drucker des papierlosen Büros ansteuern muss
Puuh, den Smiley hättest du dir sparen können. Deine Geringschätzung ist fehl am Platze.
Und ja, unser Büro ist papierlos und 3D Drucker? In der Masse? Und Bitte, wo habe ich behauptet es bräuchte kein OS. Und das Unternehmen wo ich arbeite ist keine kleine Klitsche.
6 Setzen!
wenn du eine ironische Antwort auf eine gewagte Behauptung als Geringschätzung empfindest, tut mir das leid.
Display MoreLinux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt
Es gibt keine Client Betriebssysteme mehr die eine Relevanz haben. Das Backend ist Unix der Rest ist Webbrowser. OS von Apple und Microsoft sind unerheblich, reines Marketing. Alles wichtige ist portabel. Ich kann Homeoffice von meinem iPad oder Android Samsung machen. Ob mein Notebook Unix oder Windows macht ist Latte.
ja - Träume sind Schäume, darum finden sich heutzutage ja z.B. auch nur noch papierlose Büros😅
Aber im Ernst - auch ein Webbrowser benötigt ein OS als Biotop, u.a. deswegen, weil es die 2D/3D-Drucker des papierlosen Büros ansteuern muss![]()
Linux hat fast jedem kommerzielle Unix früher oder Später das Wasser abgegraben. Die Unixe waren einfach zu teuer.
Das ist aber auch einfach - kostenlos vs. egal-was-immer-es-auch-kommt - ist halt eine prima Basis. Ich würde es aber mit den Unixen hier (Amiga, Atari etc.) nicht vergleichen, weil es da zu dem Zeitpunkt noch gar nicht in vernünftig benutzbarer Form (wie heute etwa) gab.
die Vergleiche hinken in mehrfacher Hinsicht. Unix hat sich im Server- und Embedded-Markt vollständig durchgesetzt. Nur dass die Distributionen heute nicht mehr Xenix, Sinix, HP-UX... heissen, sondern Debian, CentOS, Ubunto etc.
Im Client-Bereich dagegen hatte Unix nie eine Chance, weil zu teuer, mangelnder Hardware-Unterstützung, unübersichtlicher GUI-Landschaft und einfach nicht massentauglich. Mitte der 1990er Jahre hatte ich kurze Zeit mal Hoffnung geschöpft und mir sogar Unixware angeschafft. Danach war ich geheilt![]()
Display MoreKlar hat Vererbung auch seinen Platz. Aber gerade da geht C++ viel zu weit z.B. mit seiner Mehrfachvererbung
Mehrfachvererbung habe ich in C# schon schmerzlich vermisst.
Sowas erscheint einem immer überflüssig, bis man in der Situation ist, wo man es brauchen könnte. Und dann wilde Ersatzkonstruktionen bauen muss.
Das Zauberwort heisst auch in C# "Interface"
Nicht wirklich. Wenn man wirklich Mehrfachvererbung braucht, ist das nur ein Vehikel, mit dem man sich irgendwelche Ersatzkonstruktionen baut.
das klingt wie "ich kann nicht richtig in Java programmieren, weil mir die goto-Anweisung fehlt"![]()
Klar hat Vererbung auch seinen Platz. Aber gerade da geht C++ viel zu weit z.B. mit seiner Mehrfachvererbung
Mehrfachvererbung habe ich in C# schon schmerzlich vermisst.
Sowas erscheint einem immer überflüssig, bis man in der Situation ist, wo man es brauchen könnte. Und dann wilde Ersatzkonstruktionen bauen muss.
Das Zauberwort heisst auch in C# "Interface"![]()
Display MoreAber gerade da geht C++ viel zu weit z.B. mit seiner Mehrfachvererbung
Da gebe ich dir absolut recht. Deshalb kennt SmallTalk ja auch keine Mehrfachvererbung und auch bei Delphi geht es nur über sog. Interfaces, die aber so gut wie niemand nutzt, ausser du musst irgendwelche komischen Windows COM Objekte einbinden
. Aber das ist sowieso ein Kapitel für sich.
Im Head-First Buch "Design Patterns" gibt
es dazu ein schönes Beispiel mit einer Enten-Klasse, bei der man Verhalten wie fliegen oder quaken eben nicht vererben sollte,
weil es spätestens bei der Gummi-Ente Probleme erzeugt
Aber wahrscheinlich haben sich die Erfinder der Mehrfachvererbung gesagt: Moment mal...Supermann kann fliegen und hat einen komischen Gummianzug an, also muss er von einem Menschen UND einer Gummiente abstammen
.
Aber gerade da geht C++ viel zu weit
Und wie schon Bjarne Stroustrup über seine eigene Programmiersprache so schön gesagt hat :
„C makes it easy to shoot yourself in the foot; C++ makes it harder, but when you do it blows your whole leg off.“
Quelle: https://beruhmte-zitate.de/autoren/bjarne-stroustrup/
Neben der Vererbung gibt es aber noch einen anderes wunderschönes Konzept in C++ - Die Überladung.
Das ist richtig. Überladung macht auch sehr vieles leichter. Das können heute aber viele Programmiersprachen, nicht nur C++. Hier kommt es aber bei zu häufiger Nutzung natürlich zum gleichen Problem: Spaghetti-Code. In Delphi muss ich wenigstens die überladenen Funktionen noch mit dem Schlüsselwort overload markieren, um zu zeigen, dass ich weiss was ich tue. Bei C++ brauche ich das nicht, kann eine Funktion also (wenn auch unwahrscheinlich) versehendlich überladen.
Wer das Überladungskonzept allerdings eingeführt hat entzieht sich meines Wissens. SmallTalk braucht sowas ja eigendlich nicht, da ich bei jedem Parameter prüfen kann um was für ein Objekt es sich handelt und dann eben statt zwei Integer zwei Strings addiere, bzw. zusammenfüge.
Überladung hat nix mit OOP zu tun. Selbst C oder PL/SQL können das. Mit Operator-Overloading ist C++ aber auch hier wieder zu weit gegangen - https://en.wikipedia.org/wiki/Operator_overloading
es ist ein Trugschluss zu glauben, man kõnne nur OOP programmieren, wenn die Sprache Vererbung unterstützt.
War auch nicht meine Aussage. Das zu OOP auch Kapselung, Abstraktion, Polymorphie und Wiederverwertbarkeit gehört steht ja nun in jedem Anfängerbuchzu dem Thema, oder frei nach Alexander von Humbold "Überall geht ein frühes Ahnen dem Wissen vorraus".
Trotzdem ist Vererbung das eigendliche Herzstück von Objekt orientierter Programmierung. Zu mindest lehrt das einem SmallTalk. Den ohne Vererbung hast du da garnichts. Jeder einzelne Datentyp wird da aus dem atomaren Grundobjekt zusammengebaut. Erst wenn ich das Konzept verstanden habe, kann ich auch mal auf Polymorphie und Abstraktion schauen, sonst ist es unheimlich schwer das Konzept in seiner Schönheit zu begreifen.
Ich hatte bei Turbo Pascal mit Objekten als Jugendlicher das Konzept auch erst nicht verstehen wollen...kann ich doch alles mit ein paar Pointern auf Records machen... Ja, denn das ist ja auch (vereinfacht) das Konzept von Polymorphie. Geht mit allen Sprachen die den Datentype allgemeiner Zeiger haben. Aber Vererbung ist halt schon der Kern von OOP. Das sieht man auch sehr schön in Sprachen wie GO.
Zitat aus "Design Patterns" (dt. Entwurfsmuster):
"Gleichwohl ist unsere Erfahrung, dass Entwickler Vererberung als Technik der Wiederverwendung überstrapazieren.
Entwürfe können durch den verstärkten Einsatz von Objektkomposition häufig einfacher und leichter wiederverwendbar
gemacht werden. Sie werden der Anwendung von Objektkomposition in den Entwurfsmustern wiederholt begegnen."
Klar hat Vererbung auch seinen Platz. Aber gerade da geht C++ viel zu weit z.B. mit seiner Mehrfachvererbung und nicht
umsonst hat Java mit seinem Interface-Konzept bekräftigt, um was es wirklich geht. Im Head-First Buch "Design Patterns" gibt
es dazu ein schönes Beispiel mit einer Enten-Klasse, bei der man Verhalten wie fliegen oder quaken eben nicht vererben sollte,
weil es spätestens bei der Gummi-Ente Probleme erzeugt ![]()
Tja Objekt Orientierung galt lange zeit als das glückseligmachende Konzept mit Garantie für die absolute Lösung.
Das ist imho genauso quatsch wie all dies Hypes.
Deshalb sind Hybrid-Sprachen wie Delphi (oder auch C++) ja so schön, man kann je nach Projekt mal mit oder ohne OOP Ansatz programmieren. Kleine Projekte machen oft objektorientiert keinen Sinn. Bei größeren Problemen behaupte ich aber mal, ist OOP ungeschlagen, eben weil vieles an Code recycled und geerbt werden kann.
es ist ein Trugschluss zu glauben, man kõnne nur OOP programmieren, wenn die Sprache Vererbung unterstützt. Tatsächlich wird Vererbung oft an den falschen Stellen benutzt. Bei OOP geht es viel mehr um grundsätzliche Prinzipien wie Abstraktion, Delegation und Entkopplung mittels z.B. Kapselung. Das kann ich zur Not auch in C implementieren. Ein sehr schönes Beispiel dafür war Anfang der 90er Jahre OSF/Motif mit seinen Widget-Bibliotheken.
Umgekehrt entsteht aus einer Programmierung, die solche Grundprinzipien nicht berücksichtigt, leicht unwartbarer Spaghetti-Code. Das mag im Kleinen oft nicht auffallen, aber auf lange Sicht und im großen Rahmen ist Strukur Trumpf.
Herrje, wer redet denn von Spielen? Es geht darum, daß fundamental wichtige Software-Einsatzfälle heutzutage überhaupt noch funktionieren.
Eigentlich funktioniert fast alles fast immer. Gemessen an der Komplexität wundere ich mich auch immer wieder, dass so viel funktioniert.
Und dabei haben wir mit der Digitalisierung nicht mal richtig angefangen.
Aber wer objektorientierte Programmierung pauschal als untauglich und unzuverlässig ablehnt, der muss ja ein besseres Konzept im Kopf haben. Lass mal hören, wie die Lösung auf all die Softwareprobleme aussieht.
OOP allein macht noch keinen guten Programmierer. Genauso wenig, wie eine Vollformat-Nikon aus einem Knipser einen Profi-Fotografen macht ![]()
Etwas offtopic - aber unangenehm?
Ich glaube immer, wenn etwas kontrovers diskutiert wird, empfindest du das als unangenehm.
die laufende Diskussion empfinde ich weder als unangenehm noch als offtopic. Wenn man über beliebte Programmiersprachen spricht, muss man auch über die Gründe und Vor- und Nachteile sprechen dürfen. Selbstverständlich hat jeder auch seinen eigenen Werdegang und seine Erfahrungen.
Nur weil meine erste Bekanntschaft mit Programmierung auf einem TI-59 und etwas später Basic stattfand, bin ich da nicht stehen geblieben. Im Studium waren damals die Algol-Sprachen (v.a. Algol-68, Pascal, Modula-2 und Ada) stark angesagt. Beruflich bin ich heute noch oft mit PL/SQL unterwegs, ebenfalls ein Kind dieser Familie. Zeitgleich kam in den 1980ern C stark auf, dann beeinflusst von Smalltalk C++ und später Java und noch etwas später C#.
Mit jeder dieser Sprachen war ich mehr oder weniger beruflich befasst. Ich kann für mich nur sagen, dass mir die OOP-Denke die Augen für wirklich strukturierte Programmierung geöffnet hat. Ein 10-Zeilen Shell- oder Python-Skript kann jeder ohne OOP schreiben und mag für einen Neuling immer noch ein guter Einstieg sein. Aber sobald ich ein größeres Projekt (normalerweise im Team) angehe, kommen andere Qualitäten ins Spiel. Und da möchte ich mein Wissen aus guten Büchern wie "Refactoring", "Design-Patterns" oder "Clean Code" nicht missen. Es wurde das Stichwort log4j genannt - ich sage als Stichwort nur "composite pattern"
Aber inzwischen ist die Werkzeugkiste eines durchschnittlichen Java-Entwicklers quasi explodiert - git, gradle, jenkins, docker, kubernetes, liquibase, EFK-Stack, REST, Json, JMS, XML, Protobuf, Angular, Quarkus, Kafka, Spring Foo, Micronout, Swagger und hastdunichtgesehn. Gefühlt jeden Tag ein neues Tülchen mag nicht nach jedermanns Geschmack sein. Aber unterm Strich hat sich meine Produktivität innerhalb von 30 Jahren mindestens verzehnfacht, wobei die Ansprüche natürlich mitgewachsen sind...
das Problem hatte ich vor ein paar Jahren auch, als ich eine SCSI-Platte für eine Würfel-Mac präparieren musst (Stichwort HFS). Ich hatte mir zu dem Zweck auch einen P4-Rechner für wenig Geld von Kleinanzeigen besorgt. Ist jetzt mein Standard-Oldie mit 5.25-, 3.5''-DiskLW und Symbios-SCSI Controller. Ich hab da bislang aber nur CentOS-5 laufen, weil neuere Ausgaben unterstützen kein SCSI mehr und HFS noch weniger. Diskettenlaufwerke vermutlich auch nicht...