Beiträge von gilead

    Ich habe als 13 jähriger in unserem Gymnasium eines kleinen Städtchen in einem Volkshochschulkurs Pascal gelernt. Auf einer Dietz Anlage mit 48KB, 2 Terminals, Festplatte, Lochkartenstanzer und -leser, Drucker. Die wurde 1979 angeschafft. Da gab es immerhin schon 2 Informatiklehrer (beides Mathematiker mit Fortbildung). Es gab wohl schon einige solcher Initiativen von Lehrerinnen (bei uns war der führende Kopf hinter dieser Aktion eine Lehrerin, die auch die mit Abstand bessere war) und Lehrern in Deutschland. Und selbstverständlich wurde es sehr wohlwollend unterstützt, als 1983 die große Welle der Heimcomputer losging.

    Wobei man (für die Eventualität, dass ich mehr Dachfläche hätte) nochmal nachrechnen müsste, ob ich bei 8,6ct/kWh und Eigenbau mit günstiger Abnahme nicht doch auf 0 rauskomme.

    Nach meinem Rechnen lohnt sich das höchstens noch, wenn man viele Ehda-Kosten hat, also zum Beispiel bei einem Neubau oder einer kompletten Dachsanierung. Wenn Gerüst, Dachdecker und Elektriker schon eh da sind. Wenn ich das aber alles extra bestellen muss, dann fressen schon die Grundkosten der Baustelle einige Jahre an Ertrag auf. Oder Du musst wenigstens eine so riesige Dachfläche haben, wie man sie auf manchen Bauernhöfen sieht.

    Wobei ich meine Fahrzeigbatterie dafür nicht hergeben würde. Aber eine gebrauchte Fahrzeugbatterie (2nd Life) schon. Leider sind Tesla Module praktisch nicht mehr erhältlich.

    Nicht grundsätzlich! Aber gerade in den Wintertagen, wo Du mit 7-10 KWh Speicher nicht mehr über die Runden kommst, weil es über Tage nur einen minimalen Ertrag gab, wäre die Möglichkeit schon genial. Ich sehe das halt persönlich immer aus der Autarkie Brille. Bis Ende Oktober habe ich quasi keinen Netzbezug, wenn dann aber die schlechten Wintertage kommen, reicht der Ertrag am Tag teils nicht einmal mehr um die Batterie komplett zu laden, da wäre dann bidirektionales Laden super. Quasi an guten Tagen das E-Auto vollmachen, um an schlechten Tagen davon speisen zu können :)

    Im Schnitt liefert eine Solaranlage in den Monaten November, Dezember und Januar weniger als ein viertel der Leistung, die sie in den Monaten März bis Oktober liefert. Februar kann mal gut oder mal schlecht sein, das hängt ganz vom Wetter ab, die anderen Monate sind eher gut.


    Wenn Du jetzt eine Anlage bauen willst, mit der Du auch im Winter annähernd autark bist, dann musst Du entweder eine sehr große Anlage bauen, die sich im Sommer wegen der nur noch geringen Einspeisevergütung nicht rechnet, oder einen Riesenspeicher, den Du im Sommer füllst, installieren, der sich wegen der extrem hohen Anschaffungskosten nicht rechnet.


    Ich habe deswegen eine Solaranlage mit Speicher gebaut, die uns im Frühjahr, Sommer und Oktober weitest gehend autark macht und den Speicher so gewählt, dass er den Abend und folgenden Morgen locker hält (3600Wh). Schon diesen Speicher bekomme ich mit der Größe der Solaranlage im Winter niemals gefüllt - wobei der wenige Strom der Solaranlage im Winter sowieso schon durch den Direktverbrauch komplett genutzt wird.

    Der Einfallwinkel der Sonne auf ein Solarpanel ist extrem wichtig für die Ausbeute. Wäre es zu aufwändig, das Solarpanel so zu montieren, dass es sowohl waagrecht als Tisch (so ist es doch gedacht, oder?) zu verwenden wäre und bei nicht Verwendung um 35 Grad um die Längs oder Querachse drehbar ist?

    Es gibt ein ganz logisches "Ereignis", dass schon seit Jahren immer wichtiger wird: China und auch manche anderen Länder, die für den Westen produzieren, sind nicht mehr so arm und auf Gedeih-und-Verderb auf diesen Export angewiesen. Nun ist langsam ihr eigenes Volk dran und viel mehr Produkte bleiben im Land. Die Produktion kann (oder soll?) aber nicht im gleichen Maß hochgefahren werden. China hat da zuletzt recht offen drüber gesprochen.

    Um doch noch mal auf das Thema inhaltlich einzugehen: Die Firma, für die ich arbeite, ist jetzt schon massiv betroffen. Da stehen tausende von praktisch fertigen Produkten rum, die wegen des Mangels an elektronischen Bauteilen nicht fertig gebaut und ausgeliefert werden können. Und der Vorstand hat gerade erst berichtet, dass sie von einer massiven Problematik bis tief ins nächste Jahr ausgehen.


    Und wir reden hier über einen sehr erfolgreichen amerikanischen Multimilliarden-Konzern mit zehntausenden von Mitarbeitern in einem system-relevanten Bereich. Also kein Unternehmen, dem gleich die Ideen oder Möglichkeiten ausgehen.

    Was ich ja immer irgendwie spannend fand war das Rechnen des Bildes auf der Serverhardware und dann das Übertragen davon übers Netz. Mittlerweile müßte das in kleinen Auflösungen und auch halbwegs schnell für bestimmte Spiele eigentlich schon ganz gut gehen. Aber so richtig hören tut man davon nichts mehr. Bei Steam z.B. wird ja auch eher das Spiel komplett geladen und evtl. Filmchen dann extra als Video vom Server (Content). Das eigentliche Spiel installiert man ja wohl immer noch gewissermaßen lokal, zumindest wenn ich das Konzept da richtig verstanden habe (letztlich kauft man schon ein Spiel, nur eben ohne Verpackung und Datenträger und völlig ohne Chance das später nochmal zu benutzen, wenn die Firma z.B. weg ist). Und das wiederum macht dann das "Spielerlebnis" direkt von der vorhandenen Hardware abhängig; etwa der Verfügbarkeit von RTX Karten.


    Was ich auch noch nie gelesen habe, daß man einen RAM Inhalt in der Rechner lädt (per Netz) und damit dann losspielt. Bei Spielende wird so ein Dump wieder auf den Server geladen. Bei Konsolen-Emulatoren geht das aber zumindest auf dem lokalen Rechner sehr schön - und macht irgendwie auch Sinn. Quasi statt Spielstand den kompletten Zustand der Sega Megadrive abspeichern (der Gems Emulator kann das z.B. sehr schön; gibt es aber auch woanders).

    Das Latenzproblem ist halt einfach nicht wegzudiskutieren. Nicht umsonst verwenden Hardcore Gamer immer noch PS2 Mäuse und Tastaturen, weil sie einfach einen Tacken schnellere Reaktionen erlauben. Bei Internetconnection bist Du doch sehr schnell bei 10ms bis 20ms Gesamtlatenz. Immer bedenken: der Input muss zum Server und der Output muss von dort wieder zurück, erst dann hat man die wirklich gefühlte Latenz. Dazu kommt noch die Latenz die sowieso da ist: Input des Spielers, Graphikdaten auf die Karte pumpen. Bei 4K ist letzteres schon heftig groß. Und man will ja keine starken Kompressionsartefakte, sonst kann man sich 4K auch sparen.


    Das letzte mal, dass ich erfolgreich dieses "RAM auf Platte schreiben und einfach wieder hochladen" gesehen habe, war um 1995 auf einem Amiga. Aber sobald eine dedizierte Graphikkarte benutzt wurde, hat das auch nicht mehr geklappt. Heutzutage ist es unmöglich, den kompletten Zustand der Hardware aus allen Komponenten auszulesen und später wieder herzustellen. Beim Amiga damals beinhaltete das ALLES, also auch den Zustand eines Diskettenlaufwerks oder die Timerkonfiguration des CIA. Die heutigen "Deep Sleep" Modi persistieren die Daten mit Hilfe des OS und diverser Treiber, aber bestimmte Hardware wird dann beim Boot doch wieder frisch initialisiert und das OS passt sich dann daran an. Üblicherweise muss man sich dann ja auch erstmal frisch einloggen usw.


    Ein Emulator weiß naturgemäß den kompletten Zustand des emulierten Rechners und kann den deshalb besonders einfach speichern und laden. Auch virtuelle Maschinen sind darin ziemlich gut, wobei die schon Kompromisse eingehen müssen.

    Das gab es schon mal Ende 80er/Anfang 90er. Die Zahl der verschiedenen Computer war so unüberschaubar, dass die ganz großen Spiele für praktisch alle Computer gleichzeitig designed wurden.


    Das gab es schon deutlich eher. Schau Dir mal die ganzen Spiele an, die im oder kurz nach dem HomecomputerCrash (1983) so kamen. Da ist auch ganz viel dabei, was es "plattformübergreifend" gibt. Gerade so englische Firmen wie Gremlin Graphics oder ähnlihce hatten ganz viel was auf viele Plattformen ziemlich ähnlich lief

    Du hast völlig recht, die Spiele selbst waren doch oft sehr ähnlich. Aber bei C64 und Spectrum (die beiden Plattformen, die ich damals intensiv mitbekommen habe), unterschieden sich die Spiele doch oft deutlich - insbesondere weil der C64 so viel besser in Farben und Sound war, der Spectrum aber in CPU Leistung. Die Graphikdarastellung war doch sehr unterschiedlich (C64 üblicherweise mit Custom Characters oder Muli-Color Lo-Res und Sprites, Spectrum mit seiner einen Auflösung 256x192 und Augenkrebsfarben). JetPac war nirgends so gut wie auf dem Spectrum und JumpMan eben auf dem C64, um mal zwei ganz frühe Spiele zu nennen. Irgendwie passten die Spiele nicht auf der jeweils anderen Plattform.


    Die späteren Spiele sind kaum noch Plattform-typisch zu erkennen. Zum Beispiel war Aladin auf allen Plattformen grandios aber überall fast pixelgleich.

    Das gab es schon mal Ende 80er/Anfang 90er. Die Zahl der verschiedenen Computer war so unüberschaubar, dass die ganz großen Spiele für praktisch alle Computer gleichzeitig designed wurden. Mit dem Ergebnis, dass die speziellen Fähigkeiten einzelner Computer gar nicht richtig ausgereizt wurden. So hatten Spiele für den Amiga oft nur eine etwas farbenfrohere Grafik (obwohl es meistens nicht mal für ein HAM Titelbild gereicht hat) als für den Atari, aber Stereosound (z.B. die Zuordnung von Geräuschen auf den rechten oder linken Kanal je nach Position der Spielfigur) wurde praktisch nie genutzt. Hat sich wohl einfach nicht gerechnet. Auch mit der neuen Generation von Konsolen in den 90ern hat sich das nicht geändert. Erst die 3D Graphikkarten haben da (wieder) für eine Spezialisierung gesorgt. Eine Zeit lang konnte man ja praktisch nur mit NVidia Karten vernünftig spielen.

    Der Verkäufer hat sich über mein 50€ Angebot und die Abholung gefreut. Wenn er sich gleich noch positiv zurück meldet, dann hole ich Macs heute noch ab.

    Ich habe ihm vorhin einen Link zur Vereinsseite geschickt, das hat ihn glaube ich sehr gefreut, dass es sowas gibt. Ist doch schön, wenn sich das auch finanziell bemerkbar macht. :thumbup:

    Ja, wir hatten uns noch kurz über den Verein unterhalten, er findet das gut. 3 der 4 Rechner hat er wohl selbst mal vor vielen Jahren billig übernommen, aber dann doch nie was damit gemacht.


    Es sind weder Mäuse noch Tastaturen dabei. Zustand ist sehr unterschiedlich, ich mach mal noch Bilder. Wer das G'lump mag, kann es gerne bei mir abholen.

    Aber die Primzahlen sind die "natürlichen Elemente" der zusammengesetzten Zahlen. Und überall, wo wir Multiplikation und Division mit ganzen Zahlen einsetzen, tauchen die Eigenschaften der Primzahlen auf. Gäbe es diese nicht, dann wäre eine Regel wie "60 ist durch 10 teilbar, denn da ist eine 0 am Ende der Zahl" nicht mehr nahe liegend.


    Na ja, vielleicht am Ende doch ein obskures Verständnis der Mathematiker.

    Wir sollten mal den Thread umbenennen :)


    Primzahlen tauchen sehr häufig auf. Man stelle sich mal vor, wie anders die täglichen kleinen Rechnungen im Lebensmittelladen wären, wenn 2*5 plötzlich durch 3 teilbar wäre. Wir nutzen die Eigenschaften bei den typischen Rechenregeln im Dezimalsystem implizit ständig. So sehr, dass es einem nie auffällt.

    Es ist irgendwie schon klar, dass ich ein Produkt von ganzen Zahlen nicht einfach durch Änderung EINER oder MEHRERER dieser begrenzten Menge von Zahlen (1..p) um EINS größer machen kann, aber richtig beweisend lässt sich das nicht in Kurzform hinschreiben. ;)

    Du hast völlig recht, genau deswegen sagt man einfach "wie man sofort sieht" :S


    Ich versuche es nochmal: Wenn x durch y teilbar ist, dann ist der Rest dieser Division 0. Das ist genau die Definition von "x ist teilbar durch y". Teil man nun x+1 durch einen beliebigen Teiler von x, dann ist der Rest dieser Division immer 1. Außer für den Teiler 1 kann deshalb ein Teiler von x niemals auch ein Teiler von x+1 sein.

    p!+1 muss nicht unbedingt prim sein. Schon wenn es Teiler von p!+1 gibt, die größer als p sind, dann gibt es Primzahlen größer p, denn jeder Teiler von p!+1 der größer als p ist, hat entweder auch wieder nur Teiler >p oder ist selbst prim. Das ergibt sich immer aus der Definition von p! und der Logik, das p!+1 keine Teiler zwischen 2 und p haben kann. Anders ausgedrückt: p!+1 hat einen kleinsten Teiler. Dieser ist immer größer als p und er ist immer prim (und kann im Extremfall p!+1 selbst sein). Beides ergibt sich direkt aus der Definition von p! und der daraus folgenden Teilerfremdheit von p! und p!+1.

    Sei p eine Primzahl. Dann gilt: p! + 1 (p Fakultät plus Eins) ist entweder selbst eine Primzahl oder hat mindestens 2 Teiler, die beide größer als p sind. Daraus folgt, dass es unendliche viele Primzahlen gibt.


    und das stimmt so ... ?

    Wenn p eine Primzahl ist, dann hat sie keine Teiler außer 1 und p. p! hat alle natürlichen Zahlen zwischen 2 und p als Teiler, das ist ja gerade die Definition der Fakultät. Es ist unmittelbar einleuchtend, dass p! + 1 dann keine der Zahlen zwischen 2 und p als Teiler hat. Deshalb bleiben nur mögliche Teiler größer als p übrig (eingeschlossen p! + 1 selbst). Also gibt es zu jeder Primzahl p eine größere Zahl, die ebenfalls prim ist.


    Ich hoffe, das ist so etwas besser zu verstehen.


    Das ist einer der vielen Beweise für die unendliche Anzahl von Primzahlen. Ein weiterer geht etwa so:


    Aussage: Es gibt nur endliche viele Primzahlen.

    Beweis durch Widerspruch: Wenn es endlich viele Primzahlen gibt, dann gibt es auch eine größte Primzahl. Diese Primzahl hätte aber schon ein schlauer Mensch gefunden und wir hätten das alle in der Schule gelernt. Haben wir aber nicht,. Das ist ein Widerspruch und damit ist die Aussage widerlegt.


    :fp:

    Leider wird man durch ehrliche Arbeit ja nicht vermögend

    Verallgemeinerungen sind IMMER falsch!

    Sei p eine Primzahl. Dann gilt: p! + 1 (p Fakultät plus Eins) ist entweder selbst eine Primzahl oder hat mindestens 2 Teiler, die beide größer als p sind. Daraus folgt, dass es unendliche viele Primzahlen gibt.


    Aus diesem Beweis folgt, dass nicht alle Verallgemeinerungen falsch sind. Und damit ist die Behauptung das Verallgemeinerungen IMMER falsch sind widerlegt :)


    (Sorry, couldn't resist)

    Im Angebot waren nur das Gerät und ein Netzteil, welches aber ziemlich wahrscheinlich nicht das originale ist. Das Gerät sieht sehr ungeöffnet aus und ist in einem hervorragenden optischen Zustand. Wenn es funktioniert, werde ich es nicht öffnen.

    Ein Hama Genlock für den Amiga. Wenn ich mich richtig erinnere, waren die Hama Genlocks so mit die besten Genlocks für den Amiga. Ich habe es recht günstig bei ebay Kleinanzeigen erstanden. Der Test steht noch aus. Ich habe allerdings keine Idee, was ich damit mache.


    Nicht zu unrecht wird bei Sendungen wie "Bares für Rares" immer darauf hin gewiesen, dass der Zustand eines sammelwürdigen Objekts wesentlich für den Preis ist. Auf den Bildern scheint mir der Rechner optisch in einem typische gebrauchten Zustand mit Lackschäden usw zu sein. Da finde ich den Preis nicht angemessen. Aber am Ende macht natürlich der Markt den Preis und nicht ich :)