Das gab es alles schonmal. Mehrere Systeme gleichzeitig auf einer x86 Maschine (von Olivetti)

  • Auf den ersten Blick ein kurioses Fundstück, was ich euch vorstellen möchte. Leider besitze ich es selbst nicht, aber ich halte das Thema auch aus heutiger SIchtweise für sehr spannend.


    Ich weiß nicht, was ihr so beruflich tut. Mancheiner hier wird aber so wie ich in der IT-Administration beschäftigt sein. Und dem einen oder anderen (untertreib...) wird sicher Server- und Desktop-Virtualisierung mit vMWare, Citrix, Hyper-V, Zen, Xen (und meinetwegen auch VirtualBox, obwohl verglichen mit den anderen ist das nur Spielzeug) bekannt sein. Da hat man dann eine fette x86-Server-Kiste stehen, oder im Serverschrank hängen und darauf laufen dann mitunter mehrere Dutzend virtuelle Server- und Desktop-Systeme parallel und stellen ihre Dienste im Netzwerk zur Verfügung. Zugegriffen wird auf diese virtuellen Systeme dann entweder über normale Netzwerkdienste oder Remote-Deskop-Protokolle, wie man sie z.B. mit Thin-Clients verwendet. Die Marktführer sind hier VMware (VSphere/ESXi/...), Citrix (XenDesktop/XenServer) und Microsoft (Hyper-V). Ich arbeite mit dem Zeugs täglich, ist halt mein Job. Vorteile sind, dass die Integration mehrerer Systeme auf eine Maschine, oder ausfallsicher auf mindestens zwei Maschinen viel Platz und Energie sparen und eben dass man es sehr ausfallsicher (Live-Migration, High-Availability, Fault-Tolerance um mal die vMWare-Begriffe zu verwenden) gestalten kann.


    Vor einem Jahr oder so gabs eine Diskussion über seltsamme Olivetti-Systeme der Vergangenheit auf dem vcfed-Forum. Da erinnerte ich mich an eine Vorführung irgendwann Anfang der 1990er Jahre durch Olivetti bei einem Frankfurt-Offenbacher Systemhaus (gibts heute nicht mehr: ISE Data), bei dem ich damals gearbeitet habe. Leider nahm ich nicht an der Vorführung teil, war aber kurz in dem Raum um mit einem Kollegen, der teilnahm, irgendwas kurz abzusprechen. Jedenfalls sah ich diese vorgeführten Olivetti-Systeme nur kurz und fand die damals sehr merkwürdig. Es war klar als Server zu erkennen, doch sehr ungewöhnlich, der Server stand mitten im Raum, kein Schreibtisch, kein Monitor, keine Tastatur. Einfach nur ein Stromkabel und ein Netzwerkkabel. Die Vorführung fand einige Meter weiter weg statt, auf einem Notebook, das am anderen Ende des Netzwerkkabels hing. Der Server war kühlschrankhoch, quadratisch, es gab ein kleines LCD mit Statusanzeigen und ein paar Tasten, das wars. Mehr habe ich damals nicht mitbekommen, doch, ich konnte in einem Fenster auf dem Vorführnotebook ein Bild von WIndows NT 4 sehen, ohne aber zu verstehen was da passierte... Im vcfed-Forum konnte sich vor einem Jahr in der Diskussion niemand einen Reim draus machen, aber heute bekam ich dort eine PN mit ein paar Links, die das Rätsel klären. Ich fasse mal zusammen:


    Wie in der Einleitung und Überschrift hat es was mit virtuellem Parallelcomputing zu tun, also durchaus in die Richtung was z.B. VMWare heute auch macht. Nur damals halt brauchten diese Server pro System was darauf lief, jeweils eine separate 80486-CPU. Das heißt, diese Olivetti NetFrame-Server hatten so viele CPUs wie Betriebssysteme parallel darauf laufen können sollten, maximal 8 Prozessoren für 8 parallel installierte und laufende Betriebssysteme plus einem Service-Prozessor, der das koordiniert, plus diverse 80386 auf Schnittstellenkarten. Als Betriebssysteme kamen damals laut einem der Links MS-DOS, LanManager, OS/2, Novell Netware und irgendein Unix zum Einsatz, ich meine allerdings bei der Demonstration damals bei ISE auf dem Notebook in dem Fenster ein Bild von Windows NT 4 gesehen zu haben.


    Und jetzt noch ein Puzzlestück: Ich schrieb, diese NetFrame-Server brauchten keinen Monitor und Tastatur. Also wie kommt man auf das Managementsystem und die bis zu 8 parallel laufenden grafischen Betriebssysteme drauf? Heute, bei VMWare, Citrix und Co. würde man sagen: Remotedesktop übers Netzwerk. Unix und Netware gingen natürlich auch per Telnet oder SSH. Aber damals, 1992? Wenn wir uns mal überlegen, welche Remotedesktop-Protokolle uns so einfallen, kommt RDP von Microsoft, ICA von Citrix, XDMCP von X-Window/Unix-Systemen und ... VNC. Wer nun mal unter VNC in der Wikipedia nachschlägt, wird erstaunt feststellen, dass dies einst in Groß-Brittannien in der Stadt Cambridge in einem Forschungslabor enwtickelt wurde, welches auch einen Gründungs-Besitzer hatte: Olivetti. Das heißt, VNC geht wahrscheinlich letztendlich auf diese NetFrame "Superserver" zurück, auch zeitlich passt es.


    Allerdings habe ich dann noch etwas weiter gegoogelt und bin dabei auf ein paar historische Pressemeldungen der Computerwoche gestoßen. Demnach stammen die Netframe Server von einer Firma Netframe Systems aus den USA, die dann von Olivetti und Wang ab etwa 1992 international vertrieben wurden. Nach den 486-EISA Netframe-Servern gab es nach 1995 wohl auch noch Pentium/PCI-Bus basierte Server dieses Typs, die aber scheinbar nicht mehr von Olivetti vertrieben wurden, jedenfalls konnte ich keine Meldungen zu Pentium basierenden Netframe Superservern von Olivetti finden. Aber ich fand eine Kurzmeldung, dass Netframe Systems von Microsoft aufgekauft wurde und damit verschwand wohl die Technik erstmal in der Versenkung. War wohl noch zu früh für sowas.


    Bild, so sieht der Olivetti Netframe Server aus, wie man sieht gab es zwei Baugrößen: https://i.pinimg.com/736x/91/6…11535985e7843a66d96e0.jpg
    Spanische Zeitschriftenwerbung zu den Olivetti Netframe-Systemen: https://4.bp.blogspot.com/-TdW…f9En8pMgCLcB/s1600/16.png
    Mindestens einer scheint noch zu leben: http://www.qq22.net/qq22/comp/pages/netframe.html


    Ich werde mal bei eBay einen Suchauftrag erstellen... :fp:

    1ST1

    2 Mal editiert, zuletzt von 1ST1 ()

    • Offizieller Beitrag

    Naja, mit Virtualisierung hat das ja nicht viel zu tun.
    Sind halt mehrere Systeme in einem Gehäuse mit einem Management-Host zusammengpackt.
    Das erinnert mich eher an meine Mailboxzeit, da hat mal jemand den Ausdruck 'Multitasking á la Glasstiger' (mein damaliges Handle) geprägt,
    der sich dann in der damaligen Truppe recht lange gehalten hat.
    Die meisten Sysops mussten mit einem oder evtl. zwei Rechnern auskommen, dementsprechend wurden oft DOS-Multitasker wie Desqview eingesetzt.
    Ich war in der erfreulichen Lage genug Hardware und Platz zur Verfügung zu haben, so daß ich statt Multitaskern einfach mehr Rechner verwendet habe. :D


    Da war die Proxa 7000 (1984 glaube ich) schon näher an der Virtualisierung, wie wir sie heute kennen.
    Die wird in einen CBM-II Rechner eingebaut und erlaubt das parallele Ausführen mehrerer (auch unterschiedlicher) PET/CBM Maschinen (auf einer einzigen CPU).
    Die Anzahl der gleichzeitg ausführbaren Maschinen hängt dabei von der RAM-Ausstattung ab.
    Je nach Typ wird pro virtualisiertem Rechner eine (oder zwei, je nach Rechnertyp) 64K RAM Bank benutzt.
    Für jeden virtuellen Rechner wird das passende Betriebssystem ins RAM geladen und kann schreibgeschützt werden, dieser Zustand entspricht dann den ROMs im Original der virtualisierten Rechner.
    Eine per Tastendruck aktivierbare Host-Instanz steuert die Verteilung der CPU-Zeit und welche virtuelle Maschine im Vordergrund (Konsole) läuft.
    Ramdisk und Druckerspooler können auch zur Verfügung gestellt werden.

  • Nein, es wird noch viel mehr geschared, zum Beispiel der RAM. Alle Prozessoren ackern im selben Hauptspeicher. Man kann das schon als eine Teilvirtualisierung sehen, nur wird pro System was läuft ein eigener Prozessor benötigt. Die Grafikkarte der parallel laufenden Maschinen war schon virtuell (es muss pro weiterer parallel laufender Instanz keine weitere nachgerüstet werden) und hat wie ich vermute nach Außen hin VNC-Protokoll benutzt. IM VCFED kam inzwischen der Hinweis, dass die Maschine verglichen zu einzeln laufenden Systemen mit den selben Betriebssystemen wegen dem Shared Mem recht langsam gewesen sein muss. Deskview ist auch nicht vergleichbar, weil da nur auf Anwendungsebene Multitasking gemacht wurde, eine CPU, viele Anwendungen parallel. Auf dem Netframe-Geigenkasten da laufen mehrere Betriebssysteme parallel, auch unterschiedliche.

    1ST1

    3 Mal editiert, zuletzt von 1ST1 ()

  • Das Teil ist schon spannend. Nur Virtualisierung ist das noch nicht so recht, dafür ist es aber eigentlich wesentlich flexibler, als eine solche, da man ja unterschiedlichste Prozessoren einstecken kann.
    Mich erinnert das irgendwie an die 2 Prozessor Slots im Acorn RiscPC. Insbesondere auch, weil das von Olivetti kommt, die zu der Zeit quasi Haupteigentümer von Acorn waren, die Steckplätze eigentlich ziemlich genauso aussehen, wie das auf den Bildern da und vor allem, weil da Cambridge mit dabeistand. Vielleicht findet man da eher Bezüge dazu.


    Virtualisierung der nächsten Stufe wäre, wenn intel die Microcode Programmierung freigibt. Dann ließe sich vermutlich sowas ähnliches wie das Olivetti Netframe nachbauen, nur halt auf Mikroprozessorebene. Ansonsten wird sowas wohl eher nicht wieder entstehen - obwohl es ja schon ziemlich genial ist.

    -- 1982 gab es keinen Raspberry Pi , aber Pi und Raspberries

    • Offizieller Beitrag

    Hallo


    Ein erstes Review zu VNC ist in der iX in Heft 06/1998 S.66 erschienen, leider steht da nix zur Historie.


    Gruß- Georg B.

    Denn Feindschaft wird durch Feindschaft nimmermehr gestillt; Versöhnlichkeit schafft Ruh’ – ein Satz, der immer gilt. Man denkt oft nicht daran, sich selbst zurückzuhalten; Wer aber daran denkt, der lässt den Zorn erkalten. Sprüche von Buddha, aus dem ‹Dhammapada›.


    Mein Netz: Acorn | Atari | Milan | Amiga | Apple //e und IIGS | Macintosh | SUN Sparc | NeXT |SGI | IBM RS/6000 | DEC Vaxstation und Decstation| Raspberry Pi | PCs mit OS/2, BeOS, Linux, AROS, Windows, BSD | Stand-alone: Apple //c und III | Commodore 128D | Sinclair QL | Amstrad | PDAs

  • Die frueheste Virtualisierung, die ich am rennen hatte, war Anfang der 90er Jahre VP/IX unter SCO UNIX. Damals hab' ich damit eigentlich nur DOS-PCs virtuell laufen lassen. Schick war der GEM-Grafiktreiber, mit dem ich GEM-Applikationen wie z.B. GEM Draw in einem X11-Fenster laufen lassen konnte. Dadurch dass ja die Plattenzugriffe durch das UNIX System gebuffert wurden, waren die virtuellen PCs gefuehlt schneller, als ein DOS-Rechner standalone. Leider wurde VP/IX spaeter von SCO zugunsten von DOSmerge aufgegeben - damit bin ich dann gar nicht mehr warm geworden - war auch nicht mehr so flexibel.


    Praktisch war das SCO+VP/IX Setup, wenn ich mal DOS-Programme schreiben musste. Da ich von Haus aus ja UNIX-Mensch bin, war es schon ungemein angenehm fuer mich, die Programme unter UNIX zu schreiben, da SCO-Compiler auch DOS Binaries erzeugen konnte. Dann schnell in das DOS-Fenster gewechselt und die Programme getestet, ohne, dass man die erst noch auf eine andere Maschine kopieren musste.


    Waere ja auch nochmal ein Projekt, meinen alten SCO-UNIX Server noch einmal auf nem 486er zu installieren (Den Rechner hab' ich ja noch...). Wuerde mich mal interessieren, ob man unter VP/IX auch CP/M-86 laufen lassen kann...


    -- Klaus

    [ ... to boldly code where no byte has gone before ... ]