Open Source und offene Standards

von Dirk Kuhlmann

In einem 1996 erschienenen Artikel mit dem Titel "The Rise and Fall and Rise of Standardization" (Cargill 1996) diskutiert Carl Cargill die Frage, ob Standardisierung im Bereich der Datenverarbeitung einer Art von historischen Zyklen unterworfen ist. Ausgangspunkt seiner Überlegungen ist, dass sich die Geschichte der Standardisierung in diesem Bereich auf verschiedenen Abstraktionsniveaus zu wiederholen scheint. Der Kampf um Hardwarekompatibilität der 60er und 70er Jahre wurde, so der Autor, durch Konflikte um interoperable Software und Daten in den 80er und 90er Jahren abgelöst. Dieser mache soeben einer neuen Runde von Auseinandersetzungen Platz, die nun auf der Ebene der verteilten Services und der hierzu notwendigen Protokolle stattfänden. Der Eindruck der Zyklizität, der Wiederkehr des immer Gleichen, rührt Cargill zufolge vor allem daher, dass ein bestimmtes Muster wiederkehrt, nämlich die Entwicklung fort von geschlossen und hin zu offenen Lösungen.

Sein Erklärungsvorschlag für die (IT-Systemen vermeintlich innewohnende) Tendenz hin zu mehr Offenheit lautet, dass der Markt keineswegs so dumm sei wie oft angenommen. Offenheit sei nämlich nicht allein als technisches Kriterium zu verstehen. Ihr Grad sei auch und vor allem an der Anzahl der Individuen zu bemessen, denen ein nutzbringender Umgang mit Technologie eröffnet wird, und der Markt tendiere dahin, diese Anzahl zu erhöhen. Auf welche Art auch immer sich Standards im IT-Bereich jeweils durchgesetzt hätten, die Richtung hin zu einer in diesem Sinne verstandenen Offenheit sei das allen gemeinsame Leitmotiv. Standardisierung an sich finde dagegen zu allen Zeiten statt. Nicht sie selbst, sondern ihre Popularität und Publizität sei es, die konjunkturell schwanke.

Cargills Darstellung dient im Folgenden als Kontrastfolie für einen genaueren Blick auf das Verhältnis zwischen offener Software und offenen Standards. Sein Versuch einer historischen Zusammenschau wird dabei um eine zeitgeschichtliche Schleife mit drei Etappen ergänzt. Als Warnung sei vorweggeschickt, dass im Folgenden auf den Unterschied zwischen Standard und Spezifikation weniger Wert gelegt wird, als dies in der einschlägigen Literatur der Fall zu sein pflegt.


PLAY [>] - Sommer 1996

Wir schreiben das Jahr 1 nach Internet Explorer. In den "Unix-Wars" wird das Kriegsbeil zwischen der Open Software Foundation (OSF) und Unix International begraben und der Waffenstillstand durch den gemeinsamen Beitritt zur X/Open Group besiegelt. An der Linux-Front sind ein Quantensprung zur Versionsnummer 2.0, eine Pinguininvasion und stolze 0.5 Prozent Marktanteil im Serverbereich zu vermelden.

Das Ausmaß der durch das WWW hervorgerufenen Umwälzungen wird in ersten Konturen sichtbar, besonders für Beobachter auf der Empore. Der Historiker Cargill, Spezialist für IT-Standardisierung und seinerzeit Verantwortlicher für dieses Gebiet bei der Firma Netscape, hat einen solchen Platz inne... (Auszug)

PDF-Icon Download

Dirk Kuhlmann studierte Informatik an der Technischen Universität Berlin und ist seit 1995 im Bereich Computersicherheit für die Hewlett Packard Laboratories in Bristol (UK) tätig. Er hat in den Bereichen Echtzeitsysteme, elektronisches Publizieren und sichere Transaktionen für Finanzdaten geforscht. Zurzeit befasst er sich vornehmlich mit theoretischen und praktischen Aspekten von Trusted Computing. Sein besonderes Interesse gilt der Sicherheit und Vertrauenswürdigkeit von Open-Source-basierten Systemen.



Home | Impressum | Datenschutz | Herausgeber | Credits | Kontakt
Ein Projekt von Informatik und Gesellschaft / TU Berlin
Unterstützt von Lehmanns Media Berlin