von Dirk Kuhlmann
In einem 1996 erschienenen Artikel mit dem Titel "The Rise and Fall
and Rise of Standardization" (Cargill 1996) diskutiert Carl Cargill
die Frage, ob Standardisierung im Bereich der Datenverarbeitung einer
Art von historischen Zyklen unterworfen ist. Ausgangspunkt seiner
Überlegungen ist, dass sich die Geschichte der Standardisierung in
diesem Bereich auf verschiedenen Abstraktionsniveaus zu wiederholen
scheint. Der Kampf um Hardwarekompatibilität der 60er und 70er Jahre
wurde, so der Autor, durch Konflikte um interoperable Software und Daten
in den 80er und 90er Jahren abgelöst. Dieser mache soeben einer neuen
Runde von Auseinandersetzungen Platz, die nun auf der Ebene der verteilten
Services und der hierzu notwendigen Protokolle stattfänden.
Der Eindruck der Zyklizität, der Wiederkehr des immer Gleichen,
rührt Cargill zufolge vor allem daher, dass ein bestimmtes Muster
wiederkehrt, nämlich die Entwicklung fort von geschlossen und hin
zu offenen Lösungen.
Sein Erklärungsvorschlag für die (IT-Systemen vermeintlich innewohnende)
Tendenz hin zu mehr Offenheit lautet, dass der Markt keineswegs so dumm
sei wie oft angenommen. Offenheit sei nämlich nicht allein als technisches
Kriterium zu verstehen. Ihr Grad sei auch und vor allem an der Anzahl
der Individuen zu bemessen, denen ein nutzbringender Umgang mit Technologie
eröffnet wird, und der Markt tendiere dahin, diese Anzahl zu erhöhen.
Auf welche Art auch immer sich Standards im IT-Bereich jeweils durchgesetzt
hätten, die Richtung hin zu einer in diesem Sinne verstandenen Offenheit
sei das allen gemeinsame Leitmotiv. Standardisierung an sich finde
dagegen zu allen Zeiten statt. Nicht sie selbst, sondern ihre Popularität
und Publizität sei es, die konjunkturell schwanke.
Cargills Darstellung dient im Folgenden als Kontrastfolie für einen
genaueren Blick auf das Verhältnis zwischen offener Software und
offenen Standards. Sein Versuch einer historischen Zusammenschau wird
dabei um eine zeitgeschichtliche Schleife mit drei Etappen ergänzt.
Als Warnung sei vorweggeschickt, dass im Folgenden auf den Unterschied
zwischen Standard und Spezifikation weniger Wert gelegt wird, als dies
in der einschlägigen Literatur der Fall zu sein pflegt.
PLAY [>] - Sommer 1996
Wir schreiben das Jahr 1 nach Internet Explorer. In den "Unix-Wars"
wird das Kriegsbeil zwischen der Open Software Foundation (OSF) und Unix
International begraben und der Waffenstillstand durch den gemeinsamen
Beitritt zur X/Open Group besiegelt. An der Linux-Front sind ein
Quantensprung zur Versionsnummer 2.0, eine Pinguininvasion und stolze
0.5 Prozent Marktanteil im Serverbereich zu vermelden.
Das Ausmaß der durch das WWW hervorgerufenen Umwälzungen wird
in ersten Konturen sichtbar, besonders für Beobachter auf der
Empore. Der Historiker Cargill, Spezialist für IT-Standardisierung
und seinerzeit Verantwortlicher für dieses Gebiet bei der Firma Netscape,
hat einen solchen Platz inne... (Auszug)
Dirk Kuhlmann studierte Informatik an der Technischen Universität Berlin und ist seit 1995 im Bereich Computersicherheit für die Hewlett Packard Laboratories in Bristol (UK) tätig. Er hat in den Bereichen Echtzeitsysteme, elektronisches Publizieren und sichere Transaktionen für Finanzdaten geforscht. Zurzeit befasst er sich vornehmlich mit theoretischen und praktischen Aspekten von Trusted Computing. Sein besonderes Interesse gilt der Sicherheit und Vertrauenswürdigkeit von Open-Source-basierten Systemen.