Transputer

  • Das hängt ganz von den Bedingungen ab, z.B. ob identischer Programmcode oder optimiert auf den Prozessor.


    Google liefert jedenfalls einige Benchmark-Berichte von damals. Hier könnte dir z.B. Tabelle 2 helfen:


    Transputer Benchmarks and Performance Comparisons with Other Compuoftmalsting Machines


    Das bezieht sich leider nur auf Fließkomma... der Transputer T800 hat zwar eine FPU, die ist aber eher drangebastelt. Die Transputer sind auf Integer ausgerichtet. Also gut für z.B. lineare Matrixberechnungen, wenn man mehr als einen Transputer hat. Der T801 und T805 haben eine verbesserte FPU und der T9000 sollte eine komplett überarbeitet Architektur bekommen, die stärker auf Fließkommaoperationen ausgelegt war. Leider bekam man beim T9000 die Stromaufnahme nicht in den Griff.


    Bei anderen Bechmarks kommen andere Zahlen heraus. Man kann einen Transputer mit einem gleich getakteten 486er vergleichen. Da es aber Systeme mit mehr als 64 Transputern auch in kleinen Baugruppen (VME) gab, konnte man sich relativ leicht ein Hochleistungssystem zusammenbauen. Durch die hohe Reaktionsgeschwindigkeit der Transputer wurden die in den 80ern oft in zeitkritischen Anwendungen zur Meßwerterfassung eingesetzt.


    -Jonas

  • Was für die Praxis letzten Endes interessiert, sind nicht Prozessorkennzahlen, sondern Anwendungsbenchmarks ganzer Systeme. Wieviel Geld und Zeit muß ich ausgeben, um ein bestimmtes Ergebnis zu erzielen. Wenn es um Parallelrechner geht, sollte außerdem auch algorithmisch freie Wahl der Waffen gelten.

    Sehr richtig. Leider werden Transputer aktuell mit Gold aufgewogen. Eine größeres System ist somit nur schwer realisierbar. Bei der Verwendung von OCCAM kann der Transputer gegenüber Fortran und C nochmal richtig zulegen und fast doppelt so schnell arbeiten. Auch hier ist wieder das Problem, dass OCCAM eine eingen Programmiersprache ist, die man extra erlernen muss (leiden nicht wirklich mit C++ oder Basic vergleichbar). Der ist Transputer ein echtes Nieschenprodukt und wurde nur im wissenschaftlichen Bereich verstärkt eingesetzt, aber kaum darüber hinaus und bereits in den 90ern komplett verdrängt.


    Geekdot Benchmarks


    65x T800 (32x25mhz und 33x20Mhz) ergeben zusammen etwas mehr als die halbe Rechenleistung eines Dual-Core i3 mit 3,3Ghz ;-)


    -Jonas

  • Mal eine Frage, wie leistungsfähig waren denn die Transputer?

    Also ein T400, T800 gegenüber Anfang der 90er gebräuchlichen 680x0er/386/486 ?

    Ich hatte vom T800 noch im Kopf, dass er 4000k Whetstones/sec erreichte - Vergleichswerte hatte ich aber nicht mehr parat.

    Nach ein wenig Recherche hat sich bestätigt, was noch "gefühlsmäßig" vorhanden war - der T414 hatte eine wesentlcih höhere Integerleistung als ein 80386, der T800 auch eine wesentlich höhere Floatingpointleistung wie das Gespann 80386/80387.


    Insbesondere die Floatingpointleistung des T800 war damals sehr beeindruckend, so dass man eigentlich nicht von "drangebastelt" sprechen kann.


    Noch beeindruckender fand ich, dass beim T800 von den 4000k Whetstones/sec noch ca, 2500k Whetstones/s übrig blieben, wenn man ihn gleichzeitig mit 100000 Timer Interrups / s beaufschlagt hat.







  • Hi,


    ich hab 1989 als 3D-Animator gearbeitet, damals auf einem aufgemotzten 386er (Codename: Biest) neben einer VISTA Graphikkarte hatte er ein 68000er board (Ich glaube es nannte sich YARC board) und ein 4-Prozessor T800 Transputerboard kam später (zum Rendern) dazu...


    Als Software lief "DGS" Digital Graphics System, von dem ich im Netz nur noch 2 interessante Erwähnungen finde...

    http://www.dotcsw.com/links.html

    http://www.drhdmi.eu/dictionar…er-graphics-software.html


    Ich kann mich noch gut an den Moment erinnern als die 4 Transputer "ansprangen" und statt einem quälend langsamen Pixel für Pixel Rendervorgang plötzlich 4 Buckets (mit je 8x8 Pixel) parallel abgearbeitet wurden... (Wir Menschen können nur relativ wahrnehmen, damals war es relativ schnell :0))


    Das "Biest" ist dann in Pension gegangen als wir auf eine SGI INDIGO mit Alias PowerAnimator umgestiegen sind, war eine Zeit lang noch damit beschäftigt die SGI gerenderten Einzelbilder über die VISTA Karte auf einen PIONEER Bildplatten Recorder Einzelbildweise aufzunehmen...


    Cheers, TOM:0)

  • Danke, ist ja eine coole Info!


    Ja, DGS konnte schon einiges, da gab es ein sehr geiles animiertes DemoReel auf VHS... "Flying Logos"


    Der Inhalt: Ein Kunde kommte zu DGS und möchte mehr als nur ein "Flying Logo" animiert, während man ihm bei Schwärmen zuhört, was er gerne hätte sieht man das schon alles fertig animiert - ist eine phantastische Reise durch alle Genres vom Sport, ins All, .... ganz am Schluß fragt der Kunde "Can you do this?" und der Verkäufer antwortet "Sorry we can´t do this" :o)


    :0)

  • ... um 1997(98 kamen aber auch die ersten RISC prozessoren auf den Markt - in den Tabellen oben fehlen die noch.

    Eine Sun4/260, die wir damals kauften, leistete etwa 4300 KWhetstones/s in double precision und 6100 KWhetstones/s in single precision, war also schon gleichwertig zu einem T800 und Nachfolgern.

    Für universelle Rechnungen in klassischen Programmiersprachen wie "C", "Fortran", "Pascal" etc. war das dann einfach effektiver.

  • ... um 1997(98 kamen aber auch die ersten RISC prozessoren auf den Markt - in den Tabellen oben fehlen die noch.

    Eine Sun4/260, die wir damals kauften, leistete etwa 4300 KWhetstones/s in double precision und 6100 KWhetstones/s in single precision, war also schon gleichwertig zu einem T800 und Nachfolgern.

    Für universelle Rechnungen in klassischen Programmiersprachen wie "C", "Fortran", "Pascal" etc. war das dann einfach effektiver.

    Den Vorteil der relativ linear skalierenden multi Prozessor Implementierung hat der Transputer nie verloren. Leider haben gerade RISC-CPUs wie i860 und i960 den Transputer im high-performance Embedded-Bereich als Massenmarkt Leistungs- und Featuretechnisch komplett überholt. Der Transputer hat sich erst ab >20 CPUs wirklich gelohnt aber dort gab es dann schnellere Cluster-Systeme von IBM und Co. Es gab recht interessante Forschungsprojekte wo Transputer als Neuronen programmiert werden konnten. Mit seiner hervorragenden Vernetzung ließen sich dann (theoretisch) beliebig große Netze aufbauen. Viele der 45 Transputer im selbstfahrenden Auto sind als Analyse-Instanz genutzt worden um die Daten von den 4 Kameras in Konzept-Informationen für die weitere Verarbeitung zu konvertieren (100:1 Reduktion). Die Interpretation ist dann in einem 'normalen' Computer geschehen, der mit den Rohdaten von den Kameras absolut überfordert gewesen wäre. Dies ist in Echtzeit passiert. Der Transputer hat seine Nische in sehr speziellen Anwendungen gefunden, die aber nicht sonderlich umsatzstark waren. Eigentlich schade um das Konzept.

  • Also wenn einer das Board findet...das nehm ich sofort...