Gottfried Wilhelm Leibniz : Der erste Informatiker

  • Zitat

    Mancher, der den Namen Gottfried Wilhelm Leibniz hört, mag an einen herausragenden Juristen, Historiker, Philosophen und Diplomaten denken. Viele kennen ihn zudem als an einen der bedeutendsten Mathematiker aller Zeiten. Tatsächlich hat dieses Universalgenie, dessen Geburtstag sich in diesem Jahr zum 375. Mal jährt, noch mehr vollbracht: Er legte praktische und theoretische Grundlagen aller modernen Rechner.

    Siehe https://www.faz.net/aktuell/wi…nformatiker-17344093.html

    1ST1

  • Hat der nicht den Butterkeks erfunden 😂?


    xesrjb

    "Der Wein mit der Pille ist im Becher mit dem Fächer. Im Pokal mit dem Portal ist der Wein gut und fein

  • bei aller Ehrfurcht vor den mathematischen Leistungen des großen Leibniz halte ich den Begriff Informatiker für übertrieben. Bei Binärzahlen dachte er sicher nicht an elektrische Schaltkreise für Computer und sein Schrittzähler war lediglich ein großer mechanischer Taschenrechner. Immerhin hat er funktioniert. Soweit mir bekannt, waren Charles Babbage und Ada Lovelace überhaupt die ersten, die mit ihrer Analytical Engine über bloßes Zahlenrechnen hinausdachten. Nicht umsonst heißt eine der maßgeblichsten Programmiersprachen Ada:Meister:

    Selbst als bereits die ersten wirklichen Computer wie Zuse-3 und ENIAC gebaut wurden, hatten deren Schöpfer (Zuse, von Neumann, ...) gedanklich weitgehend noch nicht über Numerik hinausgedacht. Erst Claude Shannon hat mit seiner bahnbrechenden Informationstheorie die heute geläufigen Begrifflichkeiten wie Bit, Redundanz, Informationsgehalt usw. präzise definiert und die Informatik als solche auf ein solides Fundament gestellt.

    Für mich ist er der erste wirkliche Informatiker::heilig::

  • Also als studierter Informatiker sehe ich das ein wenig anders. Informatik ist die Wissenschaft der Informationsdarstellung und -verarbeitung. Die Wurzeln gehen bis in die Antike zurück, zu den Babyloniern oder Sumerern zurück.


    Auch Leibniz, der als "Vater des Binärsystems" gilt, hat eigentlich nur die formale Logik des Aristoteles mittels arithmetischer Modelle dargestellt und damit die moderne Form der binären Logik von der Linguistik zur Mathematik transformiert.


    Daß heute Informatik nur auf elektronische Computer reduziert wird (was evtl. damit zusammen hängt, daß es mit der angelsächsischen "Computer Science" gleichgesetzt wird), finde ich sehr schade. Ich habe allerdings zu meinen Zeiten in der Studienberatung (lange her) auch so viele gesehen, die Informatik geschmissen haben, als sie merkten daß das nicht Programmieren und Löten ist.

  • Also "Informatiker" würde ich auch bißchen weit hergeholt finden. Zumal ja z.B. das Binärsystem nie wirklich von ihm verwendet worden ist.


    Ich finde das vor allem in der Kombination mit der tatsächlich gebauten Rechenmaschine bemerkenswert, weil es ja da gedanklich gar nicht so weit ist, das mal mit binärem Rechnen aufzubauen. Vielleicht hat er es ja sogar überlegt, aber die Kosten und der Aufwand standen nicht dafür.


    Und Babbage hatte ja auch eher keine so richtig funktionierende Maschine. Und binär war die natürlich auch nicht - hatte dafür andere Qualitäten.



    Jetzt von heute rückwärts zu schauen, und zu sagen, daß man bereits in Assur und Babylon Informatik gemacht habe, ist allerdings auch ein wenig hergholt, oder ? Dann wäre ja jeder Runenstein und jeder Keilschrift Notizzettel bereits von einem Informatiker erstellt.

    Keine Frage: es geht da um Information, aber Informatik enthält m.E. schon durchaus auch den Aspekt, der maschinellen Verarbeitung des Ganzen. Ansonsten spricht man da besser von Malerei oder Buchdruck oder Rechentafel.


    Der Herr Turing fehlt m.E. noch in der erlachten Runde der infrage kommenden Personen. Der hat das zwar erstmal auch nicht gebaut, aber prinzipiell beschrieben wie das gehen könnte. Der Artikel um den es dabei geht heißt m.E. "On Computble Numbers" und ist von 1936. Da war der Zuse gerade noch am Basteln für seinen verbesserten, repetitiven Taschenrechner, der ja dann auch wegen fehlender Erfindungshöhe abgelehnt worden ist ...


    https://www.bonhams.com/auctions/20752/lot/219/


    ist auch gar nicht ganz billig ...



    ( https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf )

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Informatik ist heute ein weites Feld und Alan Turing sicher eine Größe in verschiedenen Bereichen. Seine Beiträge zu KI und Theoretischer Informatik, insbesondere Berechenbarkeit - Stichwort universelle Turing-Maschine, sind Meilensteine. Sein maßgeblicher Anteil beim Knacken der Enigma ist Legende. Und ein Ende des Fortschritts ist keineswegs in Sicht. Man denke nur an Quanten-Computer, die eine völlig neue Herangehensweise beim Programmieren in Bezug auf die Algorithmik nach sich ziehen. Auch spannend sind die Fortschritte bei KI und ML - falls sich jemand für Schach oder GO interessiert, hat er bestimmt schon vom durchschlagenden Erfolg von Google 's AlphaZero gehört. Ich vermute stark, dass auch Hardware-Architekturen in 100 Jahren nicht mehr überwiegend auf Boolscher Logik und Transistoren basieren. Langweilig wird Informatik jedenfalls bestimmt nicht:D

  • Jetzt von heute rückwärts zu schauen, und zu sagen, daß man bereits in Assur und Babylon Informatik gemacht habe, ist allerdings auch ein wenig hergholt, oder ? Dann wäre ja jeder Runenstein und jeder Keilschrift Notizzettel bereits von einem Informatiker erstellt.


    Wenn man Darstellung und Verarbeitung von Informationen rein auf elektronische Daten bezieht, dann ist die Historie sicher arg begrenzt. Das ist aber eigentlich eher die Nachrichtentechnik.


    Ich sage ja auch nicht, daß die Babylonier Informatiker waren. Das müssen andere beurteilen. Also deren Prinzip, wie man einen Kreis in gleiche Vielfache von 60 Teilen (sie hatten ein 60er Zahlensystem) unterteilen kann (sie kamen auf 6), hat durchaus schon was. Und wir benutzen die Auswirkungen noch heute ... Genauso wie irgendwie das Zahlensystem (Minuten, Stunden).

    Das ist ein anderes Niveau als Information einfach nur niederzuschreiben/meißeln/malen.


    Als erste Rechenmaschine wird gemeinhin der Abakus genannt, zuerst erwähnt bei den Sumerern.


    Wenn Aristoteles Werk über Logik nicht "Organon" sondern "Informatik" geheißen hätte, dann würde man vielleicht ihn als den Urvater nennen, so wie sich Physik auf sein Werk "Physik" bezieht (und den Namen daher hat).


    Bei beiden Fachrichtungen würde man die moderne formalisierte Wissenschaft nicht als Fortsetzung aus der Antike sehen, da dort ja noch starke philosophische Kräfte mit am Werk waren. Aber die Wurzeln liegen durchaus dort. Vielleicht war da Vinci der erste moderne Physiker? Und Blaise Pascal der erste moderne Informatiker? Oder vielleicht eher Ada Lovelace? Immerhin hat sie erkannt, wie man andere Informationen als schnöde Rechenaufgaben maschinell verarbeiten kann. Ich denke, das ist eine Definitionsfrage aber die Geschichte beider Wissenschaften begann lange vor der Moderne.

  • tatsächlich ist Informatik bereits in den Genen aller Lebewesen verankert - in Form von Nanofabriken namens Ribosomen, die aus DNA/RNA-Programmcode Eiweiß-Ketten synthetisieren. Und das jenseits von binärer Logik und von-Neumann-Architektur :prof:

  • Oha, hier waren die Engländer aber schneller. Laut https://www.didaktik.mathemati…usstell/leibniz/keks.html hat Leibniz sich erst 1683 mit Zwieback beschäftigt, aber gemäß https://militaryhistorynow.com…tack-and-ships-biscuit-2/ gehörte Hardtack bei der Royal Navy schon in den 1660ern zur Ausrüstung.

  • Na ja, den Keks hat er nicht erfunden - und den Zwieback eben sicher auch nicht. Bestenfalls hatte er das gesehen oder irgendwo gelesen und konnte es daher empfehlen. Ist doch heute auch nicht anders.



    Vielleicht war da Vinci der erste moderne Physiker?

    Das ist jetzt aber wirklich ganz weit hergeholt. Der hatte mit Physik so absolut gar nichts zu tun. Der war durch und durch Maler. Und diese "Erfindungen" sind mit gutem Grund alle nicht gebaut worden - und vermutlich hat er selbst sowas auch nie auch nur in irgendeiner Form erwogen. Das sind Skizzen, Malübungen, Ideen. In der Beziehung ist der vermutlich einfach heute "in unserer Wahrnehmung" völlig falsch vorbelegt.



    Ich denke, das ist eine Definitionsfrage aber die Geschichte beider Wissenschaften begann lange vor der Moderne.

    Das ist sicher richtig.

    Man könnte auch sagen, daß ein wesentlicher Teil des Beginns der "Moderne" (wobei der Begriff auch anders belegt sein kann) ist, daß man die alten Sachen wiederentdeckt und plötzich das für ganz spannend und dann auch ausbaufähig hält. So richtig startet das Programm aber erst mit Descartes durch - der einen Modus vorschlägt, den man heute evtl. Modularisierung nennen könnte.


    Interessant für die Diskussion hier wäre aber doch die Frage: Wie definiert man Informatik ?? Was zeichnet sie also in Abgrenzung z.B. zu Physik und Mathematik oder eben auch Biologie aus ? Dann kommt man evtl. auch dem Rätsel nach dem ersten Informatiker oder -in ( im Falle von Ada ) besser nach.


    Ich vermute schon auch, daß die Ersten, die sich sowas wie "Verarbeitung" und "geschickte Anordnung" von Information überhaupt ernstahft angeschaut haben, wirklich die Countess of Lovelace und ihr Bekannter, der Herr Babagge, ein völlig durchgeknallter englischer Adliger, der die Admiralität um hundertausende Pfund erleichtern wollte, gewesen sind. Man stelle sich vor - eine riesige dampfbetriebene Maschine, die rattert wie ein Ungetüm und nur dazu dient, seinem kleinen mathematischen Spleen nachgehen zu können.


    Und : richtig krass wäre es geworden, wenn diese Admiralität ihm seine zweite Finanzierungsrunde gewährt hätte. Das Königreich wäre sowas von "vorn" gewesen - aber das machen sie immer halt immer mal wieder. :)

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Da Vinci's Nachlass allein umfasst ca. 6000 Seiten Skizzen und Zeichnungen der unterschiedlichsten Fachrichtungen. Wenn das Nichts ist, was sind denn dann die paar Formeln eines Albert Einstein oder Carl Friedrich Gauß?:tüdeldü:

  • Da Vinci's Nachlass allein umfasst ca. 6000 Seiten Skizzen und Zeichnungen der unterschiedlichsten Fachrichtungen. Wenn das Nichts ist, was sind denn dann die paar Formeln eines Albert Einstein oder Carl Friedrich Gauß? :tüdeldü:


    Genau.


    Nur wird da eben immer draus gemacht, daß er quasi auf all diesen Gebieten, die er gezeichnet hat, auch wirklich Ahnung hatte. Und das ist wohl ein Trugschluß.


    Von diesem komischen Kanonen-Schildkröten-Panzer gibt es wohl sogar eine zeitgenössische Mitteilung eines Militärmenschen, der das als völlig unbenutzbar bewertet hat. Trotzdem ist es ein extrem interessantes Ding, von dem man sich eigentlich wundert, daß das noch keinen Eingang in ein Computerspiel gefunden hat (so was wie Starcraft z.B.). (oder ich hab es einfach noch nicht da gesehen).



    Dieser Einstein ist auch total überbewertet. ;) Momentan scheinen sich ja immer noch nach mindestens einem sehr wesentlichen Energiegehalt des Universums zu suchen und neulich habe ich auch mal gelesen, daß man evtl. das Gesamtkonzept nochmal überdenken müßte.


    https://www.heise.de/news/Dunk…Theorien-hin-4892775.html


    Irgendwas ist da noch ziemlich "fishy" ...



    Es gibt auch eine sehr interessante genrelle Kritik an dem Teilchenkonzept von einem ziemlich krassen Typ - namens Heinz von Foerster. Interview etc. gibt es bei Youtube. Aber: schwierig zu hören.

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Wissenschaft ist immer da besonders interessant, wo sie unbekanntes Neuland betritt. Einstein hat die Quantentheorie nie richtig akzeptiert und mit seiner "kosmologischen Konstante" hat er glatt einen kapitalen Bock geschossen, aber auch zu Lebzeiten noch selbst erkannt. Aber allen, die meinen, Relativitäts-Theorie sei nur etwas für Weltraum-Esoteriker, sei gesagt, dass z.B. für die Genauigkeit von GPS und anderen Systemen wie Glonass oder Galilei sowohl Effekte der Speziellen wie auch der Allgemeinen Relativitätstheorie im Kalkül stecken:stupid:

  • Vielleicht hatte er 52 Zähne

    Der Butterkeks oder Leibnitz ?

    Gruß Torsten

    BFZ MFA, ZX80Core, AX81, ZX81, ZX81NU, Spectrum+, Harlequin, MSX VG8010, Amstrad NC100, Cambridge Z88, C64, C128D, Amiga 500 & 1200, Atari Portfolio, HP200LX, IBM PC5155, TP755c, TP755cx, T20, T41, T61, PS/2 (Model 40SX), PS/2E, Accura 101, Apple //e, Sharp PC1401 & PC1403H, TI59 m. PC-100c, HP48SX & HP48GX


    An die Person, die meine Schuhe versteckt hat, während ich auf der Hüpfburg war: Werd' erwachsen! :motz:


    ::matrix::

  • hmm, Leibniz & Informatik:

    eines seiner großen Themen war die Berechenbarkeit (modern dazu: Stephen Wolfram, A New Kind Of Science, Kapitel 11&12), ein anderes die Wissens-Kategorisierung mit formal-sprachlichen Mitteln.


    "Norbert Wiener even proclaimed him patron saint of cybernetics"

    https://www.jstor.org/stable/25540286


    https://en.wikipedia.org/wiki/Characteristica_universalis


    Das könnte man schon im Rahmen der Informatik (HW braucht man für die ja nicht unbedingt) angesiedelt sehen - vielleicht versteht der Wiener ja doch was davon :)

  • Ja, aber sicherlich nicht so direkt. Eher als eine Art "erste Idee", die aber direkt über die beiden Leute


    https://de.wikipedia.org/wiki/…hristian_Friedrich_Krause


    und über diesen zu v.a.


    https://de.wikipedia.org/wiki/Gottlob_Frege


    https://blog.hnf.de/der-urvater-der-modernen-logik/



    zu der Ausformung führen, die dann "verwendbar" war.

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • ah, jetzt klärt sich's: "verwendbar" & "reine Wissenschaft" sind anscheinend die unterschiedlichen Sichtweisen, so let's agree to disagree :)


    Überrascht war ich, dass auch die Royal Society bereits Ende des 17. Jh schon an der Wissens-Kategorisierung mit formal-sprachlichen Mitteln gearbeitet hat (sehr schön - wenn oder weil auch etwas ausführlich - beschrieben im Baroque Cycle von Neal Stephenson, dem Auto des Cryptonomicon, wo es wieder mehr um Alan Turing und seine Enigma-Knack-Maschine ging).

  • ah, jetzt klärt sich's: "verwendbar" & "reine Wissenschaft" sind anscheinend die unterschiedlichen Sichtweisen, so let's agree to disagree :)


    So richtig weiß ich jetzt nicht, was Du eigentlich sagen willst.

    Evtl. einfach nochmal klarer machen.


    "verwendbar" sollte jetzt in dem Zusammenhang nur heißen, daß erst bei Friedrich Ludwig Gottlob Frege ein irgendwie benutzbares formales System dabei rausgekommen, was auch anscheinend so eine Trennung von Semantik und Notation hat und trotzdem in sich irgendwie stimmig funktioniert. Was genau das macht, will ich mir aber auch erst noch anlesen, sieht aber ganz interessant aus (den Link zu einem OriginalPDF gibt es in dem HNF Link oben).


    Ich wollte auf gar keinen Fall auf sowas wie eine moderne Trennung in "anwendungsorientierte Froschung" und "grundlegende Forschung" hinaus, wenn Du das gemeint haben solltest.


    Es ist ja auch nicht so, daß der Hr. Frege selbst noch gesehen hätte, daß das irgendeinen Einfluß gehabt hätte. Ich weiß noch nicht wer und wann das wieder ausgegraben worden ist, aber es werden wohl so Leute wie Wittgenstein gewesen sein, die darüber "gestolpert" sind und das interessant fanden.




    Zum Baroque Cicle

    https://en.wikipedia.org/wiki/The_Baroque_Cycle

    https://de.wikipedia.org/wiki/Barock-Zyklus


    das kenn ich gar nicht. Muß man das kennen ?

    Klingt er wie erbauliche Literatur mit Abenteuerambitionen und ein klein wenig Bezug zur Histrorie, wobei man aber wahrscheinlich nicht davon ausgehen darf, daß da die Fakten alle stimmen.



    Und anscheinend scheint das auch nicht so sonderlich hilfreich zu sein, wenn man "Wissen" rein formalisiert ablegt. Ich fand den Satz in dem WikiEintrag sehr nett


    Zitat

    ... Diese neuen Erkenntnisse (Kategorien) erfordern zu ihrer Darstellung eine neue Sprache, eine Universalsprache (Or-Om-Sprache) mit einer neuen Struktur, welche der Struktur Gottes an und in sich entspricht und welche alle bisherigen Sprachsysteme und deren Strukturen überschreitet. Krause verfasste eine Reihe seiner Werke in dieser neuen Sprache, was die Rezeption derselben grundsätzlich erschwerte.


    Kann man irgendwie nachvollziehen ... :)

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Bei Leibniz waren es freilich nur erste Schritte in Richtung Informatik, so richtig angekommen ist man im letzten Jh. - wie üblich auf den Schultern vieler in den jahrhunderten davor Beteiligten.

    Kause ist anscheinend schon ein sehr lustiger Exkurs weit aus der Informatik hinaus :)


    "verwendbar" & "reine Wissenschaft" nehme ich zurück, das war Quatsch, sorry.


    Der Baroque Circle ist Fiction, keine Frage, bietet aber dennoch unter vielem anderen viele sehr ordentlich recherchierte Einblicke in die frühen Experimente der Royal Society.

    Das Cryptonomicon schien mir wg. Turings Computer den Bogen zur alten sammelbaren HW zu schließen.

  • Da werd ich mir zumindest das "Cryptonomicon" mal vormerken. Ist ja auch eine krasse Geschichte, man darf gespannt sein, ob da nichtmal noch irgendwann weitere Infos dazukommen.



    Ansonsten - ja: Krause ist schon WEIT weg von Informatik, aber er ist wohl ganz nah an dem, was der Leibinz gemeint hat. Es gibt wohl mittlerweile auch Leute, die das als "brauchbar" ( also im Sinne von "fast verwendbar" :) ) eingestuft haben, auch, wenn es sich eigentlich gar nicht unbedingt so liest.


    Dagegen ist der Prof.Frege schon sehr handfest - und er hat auch nicht gleich vor, die gesamte Welt in allen Aspekten zu verändern. Das ist irgendwie schonmal ganz sympathisch.



    Leibniz ist m.E. so ein Text, zumindest einiges, was ich so gesehen habe, was sich vielleicht mal in ca. 150 Jahren so lesen wird, wie man heute Paracelsus liest. Das ist echt empfehlenswert. Man merkt dabei sehr schön, wie weit man heute von den damalig modernen Ideen weg ist - aber auch wo man immer noch in gleichen Strukturen unterwegs ist. Das Übernatürliche hat ja ein kokainsüchtiger Wiener auch geschafft wieder, mit einem echten Taschenspielertrick, in den Diskurs einzubringen. Mal sehen, ob "wir" mal wieder bei Hexen und Co landen, oder doch zum Mars fliegen. Vielleicht auch beides. Vielleicht teilt sich die Menschheit auch - und es gibt dann sowas wie zwei Bekenntnisschulen mit völlig unterschiedlichen Ansätzen und Möglichkeiten - aber das ist jetzt schon "Phantasterei" und gehört eher in die SciFi.



    Lustig - und auch das ist "SciFi" - wäre aber, wenn das kommende KI / AI Netzwerk ( sprich "SkyNet" :) ) am Ende, wenn dann mal geschaut wird, wie es mit Texten hantiert, auf wundersame Weise intern in "Or-Om-Sprache" operiert.


    ( ich hör jetzt besser mal auf ... versteht eh' keiner mehr ;) )

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

  • Die Diskussion entwickelt sich in einen Bereich, den man sehr gut in kleiner Runde mit geistigen Getränken weiterführen kann.