Traditionalisten vs. Vordenker: Zur Definitionshoheit in der Zero Client Debatte

Trends

Da gibt es Hersteller, die mit neuen Übertragungsprotokollen (PCoIP) oder Hardwarekonzepten (Pano Logic) ihre jeweils eigene Interpretation des Themas Zero Client realisieren und dabei am Markt für Desktop Virtualisierung zunehmend erfolgreich sind. Andere, traditionell geprägte Thin Client Anbieter finden sich angesichts dieser innovativen Entwicklungen nur in der Zuschauerrolle wieder und lamentieren über Marketing-Hypes und proprietäre Programme. Welches der Konzepte wirklich zukunftssicher ist, wird der Markt zeigen.

In Erwiderung der jüngsten Anwürfe des deutschen Thin Client Herstellers IGEL soll an dieser Stelle noch einmal das Zero Client Konzept von Pano Logic dargestellt werden. Der kalifornische Hersteller ist bei der Entwicklung seiner Desktop Virtualisierungstechnologie von der einfachen Frage ausgegangen: Ist es notwendig, immer besser ausgerüstete Endgeräte mit vielen Extras zu produzieren? Oder soll gleich alles, was wichtig ist, auf den Server verlagert werden? Letztlich ist es eine Philosophie-Frage, wo man Logik der Prozesse konzentrieren möchte, die sich daher auch nicht abschließend beantworten lässt. Pano Logic hat sich klar entschieden: So viel Zentralisierung wie möglich. Aus dieser simplen Prämisse heraus entstand der Zero Client Ansatz von Pano Logic. 

»Jedem seinen PC«, dies war damals die Vision von Bill Gates. Und für die Unternehmen war es der erste Schritt in die digitale Welt. Schon bald hat man dann erkannt, dass bei diesem Konzept das Sicherheitsrisiko und der Administrationsaufwand immer höher wurden. Deshalb wurden Daten zentralisiert und nach Serverlösungen gesucht. Terminalserver unter Microsoft und Citrix hießen die Lösungen hierfür, auf denen Anwendungen jetzt auch zentral liefen (leider eben auch nie alle). Da man die Bildschirmausgabe über die Protokolle RDP oder ICA bewerkstelligen konnte, wurden PCs langsam überflüssig, denn Thin Clients mit Windows CE, Windows XP-embedded, Linux oder speziellen Betriebssystemen konnten die gleiche Arbeit mit weitaus geringerem Energieverbrauch leisten. Als dies erfolgreich lief, kamen bald auch Wünsche nach speziellem USB-Support, Multimedia und höherer Bildschirmauflösung. So wurde viel an den Clients um die Protokolle RDP und ICA herum weiterentwickelt.

Die steigende Leistung moderner Server führte dann zu Konzepten erst der Server- und bald darauf der Desktopvirtualisierung. Vollständige PC-Funktionalität von Windows XP oder Windows 7 auf der Serverhardware, dies bedeutet, dass man auch alle Programme zentral verwalten kann, die vorher nicht auf einem Terminalserver liefen. Wiederum stellte sich nun die Frage der Endgeräte. Denn fest steht: Wenn der Server die Arbeit des virtuellen Desktops leistet, braucht man keine starken PCs auf der Benutzerseite. Mit den unter Terminal Server adäquaten Thin Clients erreicht man jedoch auch keine »PC-Experience«, da sowohl RDP als auch ICA Einschränkungen bedeuten. Bei der USB-Redirection zum Beispiel, wo sich USB-Geräte nicht ohne weiteres an den Thin Client anschließen lassen, da sie so nicht von der virtuellen Maschine erkannt werden. Daneben bieten die genannten Protokolle nur einen sehr eigeschränkten Multimedia-Support.

Diese Stelle markiert folglich einen Scheidepunkt: Entweder man entwickelt vieles um die Protokolle herum, um die Performance deutlich zu verbessern. Doch dies bedeutet weiterhin ein starkes Endgerät, entweder den alten PC oder einen Thin Client, welche neben RDP und ICA auch die andere Software vom Server empfangen und encodieren können. Oder ganz neue Wege werden beschritten, wie es zum Beispiel Teradici mit dem PCoIP-Protokoll vorgemacht hat. Dabei werden die wichtigen Daten und Befehle über einen Host am Server an die Endgeräte mit dem entsprechenden Client übertragen.

Dies bringt in der VDA-Umgebung eine deutliche Performance-Verbesserung, jedoch wird immer noch ein Endgerät mit zumindest einem kleinen Betriebssystem benötigt, folglich sind dort auch weiterhin Fehlerquellen möglich und Administration am Endgerät ist nötig. Pano Logic ging in seinem Bestreben, alle Komponenten inklusive des Betriebssystems auf den Server zu verlagern, noch einen Schritt weiter und entwickelte so sein Konzept des »echten« Zero Clients. Dabei hat sich Pano Logic zunächst auf VMware konzentriert und eine embedded Lösung auf dem ESX-Server gefunden. Die VDAs werden mit einer Verwaltungssoftware, dem »Pano Manager«, administriert und die Endgeräte über den »Pano direct«-Dienst versorgt. Dieser arbeitet nach dem Prinzip des Bus Level Protokolls, das im Gegensatz zu RDP und PCoIP keinerlei Prozessorleistung am Endgerät benötigt.
Man braucht am Arbeitsplatz daher lediglich ein Ausgabe-/Eingabegerät, welches Bildschirminhalte anzeigen lässt, Befehle an den virtuellen Desktop weitergibt und dabei auch noch aktuellen USB-Support wie ein PC bietet. Dieses Gerät ist die Pano Logic Box. Sie ist jedoch nicht das Ende der Entwicklung. Ziel von Pano Logic ist es vielmehr, die darin enthaltene Logik über einen Chip vielen Endgeräten (Monitore, TV-Geräte u.a.) zur Verfügung zu stellen. Mit Fujitsu hat bereits ein erster Hardware-Hersteller das Zero Client Prinzip von Pano Logic per Lizenz in seine Monitore integriert.

Über Zero Client Ansätze lässt sich trefflich streiten. An vorderster Front der Entwicklung sind die Begriffe noch nicht geschützt, die Claims noch nicht abgesteckt. So mögen drei verschiedene Hersteller auch drei verschiedene Vorstellungen darüber haben, wie ein »echter« Zero Client auszusehen habe. Für Pano Logic ist ein »echter« Zero Client ein Endgerät, das weder CPU, Betriebssystem, Speicher, Treiber oder Software noch austauschbare Komponenten hat. Diese Hardware-Spezifikationen hat Pano Logic im Frühjahr 2010 für seinen Zero Client auch öffentlich zugänglich gemacht und damit einen neuen Weg in der Branche beschritten: Durch die Enthüllung der Referenzarchitektur seines Zero Clients hat Pano Logic bewiesen, dass das Gerät ohne Prozessor arbeitet.

Welcher Weg einmal zum Standard wird, ist noch offen. Die Entwicklung geht jedoch deutlich in Richtung 100%-Server-Based-Computing, dies zeigt nicht zuletzt die wachsende Marktdurchdringung von Cloud Computing und SaaS. Vor diesem Hintergrund sind PCoIP- oder PC-Bus-Protokolle keine proprietären Systeme, sondern Weiterentwicklungen in der IT-Welt. Welcher Entwicklungsstrang sich letztlich durchsetzt, werden am Ende die Kunden mit ihren Kaufentscheidungen zeigen. Fest steht nur: Wer an Weiterentwicklungen nicht beteiligt ist und deshalb zu stark an alten Zöpfen hängt, den wird bald das Schicksal eines jeden Organismus ereilen, der nicht flexibel genug war, sich an neue Verhältnisse anzupassen: Er stirbt aus. 

Lesen Sie auch :