Diskussion zum Thema "Coronavirus"

  • Du wirst lachen, nur die Hälfte davon ist "Rechenleistung", sprich Abwärme der Server. DIe andere Hälfte des Stromverbrauchs eines Rechenzentrum ist die dazugehörige Kühlung.

  • Sorry, das glaube ich nicht. Das wäre betriebswirtschaftlicher Wahnsinn.

    Ja, genau das ist es!


    Wir haben seit Jahren die Diskussion hinsichtlich "grüner" Rechenzentren, nur tut sich da extrem wenig. Stromspartechniken wie z.B. in Notebooks findest Du immer noch kaum in Servern für RZs. In den Rechenzentren, die ich so sehe, sind gefühlt auch die Hälfte der Systeme älter als 3 Jahre und werden auch gern mal über den "end-of-support" Punkt betrieben.


    Und wie 1ST1 schon sagte: Ein Teil der Leistungsaufnahme geht dafür drauf, die Abwärme des anderen Teils zu entsorgen. Das IST Wahnsinn! Es gibt vereinzelte Ansätze z.B. in Californien, das RZ tagsüber mit Solarstrom an das untere Minimum der Betriebstemperatur herunterzukühlen, um es dann nachts bei reduzierter Klimatisierung sich bis zum oberen Ende aufheizen zu lassen. Ist auch nicht unproblematisch, weil das Ausdehnen und Zusammenziehen der Materialien auch mal für Ausfälle sorgt.

    Erfahrung ist Wissen, das wir erwerben, kurz nachdem wir es gebraucht hätten.


    Mein Netz: Acorn | Atari | Milan | Amiga | Apple IIGS | Macintosh | SUN Sparc | NeXT |SGI | IBM RS/6000 | DEC Vaxstation| Raspberry Pi | PCs mit OS/2, BeOS, Linux, AROS, Windows, BSD | Stand-alone: Apple //c | Sinclair QL | Amstrad | PDAs

  • Also es gibt da schon allerlei Ansätze - nicht nur den geposteten Google KI Ansatz. Woanders wird mit der Abwärme das Nachbargebäude beheizt (Garching, DD) oder die gesamte Kühlung ist so modifiziert, daß sie optimaler läuft - Stichwort Warmwasser - oder die Schränke haben besondere Einrichtungen, z.B. kühlende Türen bei BULL. Aber, daß man Server ausmacht und wieder an, wenn sie gebraucht werden, glaub' ich auch nicht. Und im Betrieb ist das eigentlich fast egal, weil die Dinger halt laufen oder nicht, aber einfach durch angeschaltet sein soviel Strom nehmen, daß das bißchen CPU auch egal ist.

    Ich vermute, daß so "große Anbieter" sich einfach exakt soviel Server hinstellen, wie nachgefragt werden. Und dann gibt es da noch ein paar Mentalitätsunterschiede, was Auslastung bis zum Maximalen angeht (DLand) vs. auch mal 15% unter Vollausstattung (RAM, HDD etc.). Die Nachricht bei heise, daß M$ gerade seine Dienste verringert und bestimmte Sachen aktuell nicht mehr im Office anbieten will, scheint mir da in die gleiche Richtung zu zeigen. Die haben gerade aktuell mehr Auslastung als sie berechnet haben und da es keine Reserven gibt, versucht man jetzt an anderer Stelle Kapazität freizumachen.


    Das mit dem Stromverbrauch müßte man eigentlich auch direkt über die Stromversorger und evtl. auch über Strommärkte sehen können. Zumindest bei den ersteren gibt es m.E. solche Zusammenstellungen, wo man das nachschauen kann.

  • Also es gibt da schon allerlei Ansätze - nicht nur den geposteten Google KI Ansatz. Woanders wird mit der Abwärme das Nachbargebäude beheizt (Garching, DD)

    Kleine Anekdote am Rande: In einem Rechenzentrum in Hannover hatte man in den 70er/80er Jahren auch die Abwärme der Klimaanlage zur Heizung des Gebäudes eingeplant. Im RZ standen damals noch Siemens BS2000 Maschinen in herkömmlicher Technik mit ordentlicher Stromaufnahme und Abwärme. Dann kam der Schwenk auf die CMOS Technik und die ersten UNIX Maschinen sickerten ein, Auf einmal war die Klimaanlage auch in der kleinsten Stufe zu üppig für das RZ. Die Lösung: Das RZ wurde beheizt, weil ein Tausch der Klimaanlage zu teuer gewesen wäre. Und im Winter hatten die Büros 14-15°C, es wurden Heizlüfter angeschafft.

    Erfahrung ist Wissen, das wir erwerben, kurz nachdem wir es gebraucht hätten.


    Mein Netz: Acorn | Atari | Milan | Amiga | Apple IIGS | Macintosh | SUN Sparc | NeXT |SGI | IBM RS/6000 | DEC Vaxstation| Raspberry Pi | PCs mit OS/2, BeOS, Linux, AROS, Windows, BSD | Stand-alone: Apple //c | Sinclair QL | Amstrad | PDAs

  • Kleine Anekdote am Rande: In einem Rechenzentrum in Hannover hatte man in den 70er/80er Jahren auch die Abwärme der Klimaanlage zur Heizung des Gebäudes eingeplant. Im RZ standen damals noch Siemens BS2000 Maschinen in herkömmlicher Technik mit ordentlicher Stromaufnahme und Abwärme. Dann kam der Schwenk auf die CMOS Technik und die ersten UNIX Maschinen sickerten ein, Auf einmal war die Klimaanlage auch in der kleinsten Stufe zu üppig für das RZ. Die Lösung: Das RZ wurde beheizt, weil ein Tausch der Klimaanlage zu teuer gewesen wäre. Und im Winter hatten die Büros 14-15°C, es wurden Heizlüfter angeschafft.

    Ja, solche Geschichten habe ich auch schon öfter gehört. :fp:

  • Ich vermute, daß so "große Anbieter" sich einfach exakt soviel Server hinstellen, wie nachgefragt werden.

    Nein, die halten Reserve vor. Die Anwendungsserver, egal was, ob Datenbank. Webserver, Fileserver, usw. sind meistens alle virtualisiert, manchmal findet man aber auch ganze fette Klötzer, auf die die Last per Loadbalancer verteilt wird. Die VMs können (z.B. mit VMware, HyperV, OpenStack, ...) nach belieben über die "Bleche" innerhalb des Clusters verschoben werden, die versuchen teilweise (z.B. VMWARE DRS - Distributed Ressource Scheduler) auch die VMs so zu verteilen, dass RAM-Auslastung, CPU-Auslastung, Storage-Performance und Netzwerklast möglichst gleichmäßig über alle verfügbaren Hosts verteilt wird. Loadbalancer merken wenn eine Maschine ausgelastet oder nicht da ist und verteilen die Jobs anders. Der Hypervisor erkennt auch, wenn VMs oder ein ganzer Host weg sind und versuchen das automatisch zu reparieren, z.B. in dem der Host in den Wartungsmodus geschickt wird, und die VMs auf einem anderen Host neu gestartet werden. Bei VMare gibts auch Failover, wo eine VM parallel auf zwei Hosts laufen, eine aktiv, die andere wird ständig von der aktiven VM rüberkopiert, fällt der Host mit der aktiven VM aus, ist die Kopie sofort aktiv. Da rechnet man immer mindestens "N+1" bis "N*2" (das insbesondere bei vielen Failover-VMs) wobei N die Rechenleistung in Form von Hardwareservern unter Vollast aler Applikationsserver ist. Der Hintergrund ist, kann man absehen, dass ein Blech ausfällt (erhöhte Anzahl RAM-Fehler, Platten SMART-Status, Netzteilredundanz weg, etc), dass man das Blech dann frei räumt und in den Wartungsmodus schaltet - teils wird das sogar automatisch gemacht. Hinzu kommen Updates des Hypervisors, für den der dann neu gestartet werden muss und währenddesse. Ergo, in einem gut dimensionierten Rechenzentrum laufen die Server normalerweise nicht unter Voll-Last.

  • sorry, ich hab nur nachgeplappert, was in Bayern1 heute berichtet wurde


    tja - Fake-News im Radio...

  • "Gegenläufige Effekte im Energieverbrauch dürften dem Branchenverband zufolge sehr begrenzt sein. Sollte es zu einem starken Anstieg von Videokonferenzen oder Homeoffice-Tätigkeiten kommen, werde dadurch zwar zusätzlicher Stromverbrauch verursacht. Das seien aber nur geringe Mengen, für die meist Stromverbrauch an anderer Stelle, etwa im normalen Bürobetrieb, wegfalle. Steigen könnte der Verbrauch in Rechenzentren und Internet-Knotenpunkten."


    https://www.nordkurier.de/nach…ch-sinken-2238806703.html

  • Streaming Plattformen "verbrauchen" pro Jahr 200 TWh


    Quelle: https://www.basicthinking.de/b…stromverbrauch-vergleich/


    Eine gute alte Siemens KWU Konvoi - 80 Anlage (Wie das KKW Isar 2) liefert schlappe 12 TWh p.a.


    (irre, daß die immer noch nicht so schlecht da stehen, obwohl schon 30 Jahre alt!)


    Macht also theoretisch 17 Hochleistungs-AKWs allein für Netflix und Co. Und das wäre dann sogar fast CO2 neutral :)


    Quelle: https://de.wikipedia.org/wiki/…B6chsten_Jahresproduktion

  • Jetzt wirds kompliziert, wird aber erstmal verharmlost, mal sehen ob das so bleibt.


    Quote

    Katze positiv auf neuartiges Coronavirus getestet

    https://www.welt.de/vermischte…tiges-Virus-getestet.html


    Naja, wenns von Fledermaus auf Mensch springen kann, dann gehts auch von Nebsch auf Katze. Und auf Hund. Zum Glück halten Haustiere, insbesondere Katzen, meistens Abstand zu fremden Menschen.

  • Es gibt ein felines Corona Virus. Ob es wirklich einen Uebersprung gegeben hat oder hier nur ein False Positive in der Analyse vorliegt, muss sich zeigen. Beides wuerde mich nicht wundern... .

    Erfahrung ist Wissen, das wir erwerben, kurz nachdem wir es gebraucht hätten.


    Mein Netz: Acorn | Atari | Milan | Amiga | Apple IIGS | Macintosh | SUN Sparc | NeXT |SGI | IBM RS/6000 | DEC Vaxstation| Raspberry Pi | PCs mit OS/2, BeOS, Linux, AROS, Windows, BSD | Stand-alone: Apple //c | Sinclair QL | Amstrad | PDAs

  • D


    Ausserdem rede ich nicht von Terminalservern sondern von Video-Streaming. Netflix und Amazon. Wie gesagt hat Netflix bereits die Streaming-Qualität verringert um das Netz zu schonen.


    https://t3n.de/news/wegen-corona-krise-netflix-1264139/

    Weil das Netz von privaten Firmen betrieben wird, die mit Gewinnmaximierung, nicht mit Leistungsmaximierung rechnen. Bei den versprochenen Kapazitäten versprechen einem alle das Gold vom Himmel, sobald das Netz aber auch mal genutzt wird, ist es Sense mit den versprochenen Geschwindigkeiten. Große Firmen sind zudem nicht über eine Fritz Box am Internet angeschlossen wie du zu Hause, sondern haben fette Standleitungen zum Rechenzentrum. Diese Standleitungen können beim Homeoffice nicht genutzt werden, der Traffic geht dann über das normale private Internet, über besagte Fritzboxen. Dieses Internet zu Hause ist allerdings gar nicht dafür ausgelegt, dass jeder seine versprochenen 100 MBit tatsächlich ausnutzt, was man auch in "Friedenszeiten" schon mal daran merkt, dass es insbesondere Samstags Abends schon mal hakt bei Netflix usw. Da Abends ohnehin nicht mehr Leute im Homeoffice arbeiten als normal auch, und tagsüber zwar mehr Leute als sonst im Homeoffice sind, aber dennoch ein großer Teil normal arbeiten muss, statt sich bei Pornhub einen von der Palme zu wedeln, wage ich zu bezweifeln, dass die Netzlast drastisch zugenommen hat. Das ist eher eine billige Entschuldigung, um das gleiche Geld für weniger Leistung zu kassieren. Was wird auch schon im Homeoffice an Daten verschoben? Eine E-Mail hier, eine Excel-Tabelle da. Da reden wir von Kilobytes. Selbst eine Videokonferenz in niedriger Qualität und entsprechend Datenrate macht den Braten nicht fett.

  • An der Uni Marburg Fachbereich Physik wurden Doit-Yourself Beatmungsgeräte mit Materialkosten von 50 Euro entwickelt, lassen sich mit Teilen aus dem Baumarkt und 3D-Drucker bauen. Die Geräte sind nicht für Intensivpatienten geeignet, sondern für welche, die sich schon wieder auf dem Weg der Besserung befinden. Das bedeutet, die Profigeräte werden pro Patient nicht mehr so lange benötigt. Ärtzte halten die Geräte für tauglich. Sie sollen von Betrieben gebaut werden, die momentan keine Aufträge haben.


    https://www.hessenschau.de/ges…beatmungsgeraete-100.html


    https://www.uni-marburg.de/de/…ect/the-breathing-project

  • Da gibt es nur ein Problem: Ohne Zulassung als medizinisches Hilfsmittel dürfen die nicht betrieben werden. Wenn da etwas passiert, besteht die Haftungsfrage. Und da wird leider jeder Arzt im Zweifelsfalle den Patienten lieber direkt sterben lassen, als sich nachher zum Dank für seinen Lebensrettungsversuch noch verklagen zu lassen und womöglich in den Bau zu wandern oder zu mehreren hunderttausend Euro Strafe verurteilt zu werden. Aber für den Export oder als Bauanleitung für ärmere Länder ist das eine gute Sache. Und dass da geklagt wird, ist selbstverständlich. Wenn schon nicht durch die Angehörigen, dann durch findige Abmahnanwälte, oder noch wahrscheinlicher: Durch die Pharmakonzerne, wo so ein Gerät nicht 50 €, sondern 5.000 € kostet.

  • Vielleicht wird man auch sagen, besser das als garnichts. Wenn ich mir die zwei Marburger Konstruktionen in den Videos ansehe, sind die zwar einfach, aber nicht so einfach wie die indische Maschine, oder die von der Rice-Universität. Da ist eigentlich nichts dran, was kaputt gehen kann, wenn man vom Elektromotor absieht, und wenn man die nicht gerade unterdimensioniert, kann da auch nichts passieren. Also sehr robust. Man könnte ja noch einen RaPi oder Ardiuno dran hängen, der die mechanische Bewegung mit einem Sensor überwacht, und einen Nagios-Rechner, der dieses Ergebnis per SNMP einsammelt und von vielen Geräten auf einem Schirm darstellt, dann hätte man all diese Geräte auf einem Blick.

  • Das Raffinierte an der Marburger Erfindung ist ja, dass man für Teile, die mit dem Patienten und seiner Atemluft in Berührung kommen, zugelassene medizinische Wegwerfartikel zum Pfennigpreis genommen hat. Nur der Atembeutel, der normalerweise mit den Händen bedient wird, wird vom gedruckten Apparat zusammengedrückt.


    Irgendwelche Probleme mit mangelnder Sterilität o.Ä. sollten dadurch von vorneherein ausgeschlossen sein.

  • Das Recht auf Leben ist im Grundgesetz verankert und steht somit über irgendwelchen Zulassungsfragen. Wenn ein nicht zugelassenes Gerät zur Verfügung steht, um ein Leben zu retten, und als Alternative der Tod des Patienten zu erwarten ist, sehe ich da eine klare Rechtslage.