Die alte Mär vom Tod der Fat Clients

Microsofts neueste Ankündigungen bezüglich eines Strategiewechsels verleiten so manchen zu falschen Schlussfolgerungen. So glaubt z.B. Tom Foremski vom SiliconValleyWatcher, dass wir künftig keine leistungsfähigen PCs mehr benötigen, weil ja Anwendungen viel schneller vom „Big Computer in the Cloud“ ausgeführt werden könnten.

Today’s „leaked“ Gates and Ozzie memos show that Microsoft finally „gets it“ that the world has shifted towards the Big Computer in the Cloud.

Was musste nicht schon alles herhalten, um den Tod der Fat Clients zu besiegeln: der Netscape-Browser, Java, der Netzcomputer, das ICA-Protokoll und jetzt ist es also der „Big Computer in the Cloud“.

Dass Web Services in Zukunft an Bedeutung gewinnen werden, steht außer Frage; auch dass Microsoft gut daran tut, sich verstärkt sich in diesem Bereich zu engagieren, wird niemand bezweifeln wollen. Es ist jedoch ein Trugschluss zu glauben, dass deshalb der PC in Zukunft an Bedeutung verlieren wird.

Ich kann nicht erkennen, dass ich seit den ersten Tagen des Internet irgendetwas Wesentliches geändert hat. Leistungsfähige PCs sind vor allem deshalb notwendig, weil ein benutzerfreundliches, graphisches Benutzerinterface Rechenpower an der Schnittstelle zum Anwender braucht. Und diese Rechenleistung kann man eben nicht auf Serversysteme verlagern, weil der Bandbreitenbedarf dafür zu groß wäre.

Die Tatsache, dass in jedem Wohnzimmer bald 20 Mbit/s und mehr verfügbar sein werden, ändert daran nichts. Schon heute sind 100 Mbit/s im Unternehmensnetz üblich und 1 Gbit/s möglich. Dennoch werden dort nach wie vor hauptsächlich Fat Clients eingesetzt.

Je aufwändiger das Benutzerinterface ist, umso mehr Daten müssen zwischen Server und Terminal übertragen werden, wenn die Berechnungen dafür ausschließlich auf dem Server stattfinden. Der Siegeszug des PC ist vor allem darauf zurückführen, weil die verfügbare Bandbreite nicht ausreichte, um graphische Benuteroberflächen auf reinen Terminals zu ermöglichen.

Tatsache ist auch, dass PCs heute immer noch zu schwach auf der Brust sind, um die Einführung wirklich neuartiger Benutzeroberfläche zu erlauben. Ich denke da an Systeme mit vernünftiger Spracherkennung, dreidimensionaler Oberfläche und VR-Interface. Wer Minority Report gesehen hat, kann vermutlich leichter nachvollziehen, was ich meine. Das ist freilich Science Fiction, aber es wäre durchaus machbar, wenn nur die nötige Rechenpower dafür vorhanden wäre.

Mit der zunehmenden Verbreitung von 64-Bit-Systemen wird jetzt auch die Entwicklung von Benutzeroberflächen weitergehen. So wie damals der Sprung von 16 auf 32 Bit einen Entwicklungsschub in diesem Bereich brachte, eröffnet nun auch der Wechsel von 32 Bit auf 64 Bit ganz neue Möglichkeiten. Das wiederum bedeutet, dass man deutlich mehr Bandbreite benötigen würde, um vergleichbar leistungsfähige Benutzeroberflächen bei einer serverzentrierten Lösung zu realisieren. Und bis die entsprechenden Bandbreiten dafür verfügbar sind, gibt es schon wieder leistungsfähigere PCs mit neuen Möglichkeiten etc. etc.

Diesen Wettlauf zwischen verfügbarer Bandbreite und Rechenleistung kann man seit Anbeginn des Computerzeitalters beobachten. Dass nun der „Big Computer in the Cloud“ etwas an diesem Sachverhalt ändern sollte, wage ich zu bezweifeln. Die Mär vom Tod der Fat Clients hat trotz Google-Manie für mich nicht im Geringsten an Glaubwürdigkeit gewonnen.

PS: Einen Punkt, den man in diesem Zusammenhang auch noch berücksichtigen müsste, ist die zunehmende Bedeutung von Peer-to-Peer-Systemen. Aber dafür fehlen mir heute die Muße und die Zeit.

Comments are closed.