![]() |
![]() |
![]() |
||||||
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Hypertext / Hypermedia - Geschichte und technische Grundlagen1. Die Ideengeschichte von Hypertext: Von der Vision zur WirklichkeitDie meisten Menschen kennen Hypertext durch das World Wide Web, die Hypertextplattform im Internet. Tatsächlich existiert die Hypertextidee schon sehr viel länger, und lange vor dem WWW wurden Hypertextsysteme entworfen und (in kleinen aber begeisterten Zirkeln) auch genutzt. Im Folgenden werden einige Meilensteine der Ideengeschichte von Hypertext skizziert. (Mehr Info in Büchern: vgl. Nyce/Kahn 1992, Horn 1989, Kuhlen 1991, Nielsen 1995). 1945: Vannevar Bush, der Direktor von Roosevelts "Office of Scientific Research and Development", entwickelt in dem Aufsatz "As we may think" Visionen zur maschinengestützten Informationsspeicherung und -erschließung. Motivation für seine Idee sind Probleme, die sich aus dem rapide wachsenden menschlichen Wissen ergeben, und deshalb zu Beginn des 21. Jahrhunderts aktueller denn je sind:
Um diese Unzulänglichkeiten zu überwinden, konzipiert er eine Maschine namens "Memex" (Memory Expander), die das menschliche Gedächtnis und Assoziationsvermögen unterstützen sollte und die er folgendermaßen beschrieb:
Die Konzeption von "Memex" enthält bereits zentrale Funktionen künftiger Hypertextsysteme, auch wenn "Memex" auf anderen Techniken fußte (Mikrofilm, Fotografie, Spracheingabe etc.) und als System in der Form nie gebaut wurde. Aus diesem Grund knüpfen spätere Hypertext-Forscher an "Memex" an und haben Vannevar Bush zum geistigen Vater der Hypertextidee gewählt. 1965: Ted Nelson, ein an der Harvard Universität ausgebildeter Soziologe und Filmemacher prägt den Terminus "Hypertext" zur Bezeichnung einer neuen, computergestützen Schreib- und Lesetechnologie. In seinem 1972 gehaltenen Vortrag "As we will think" knüpft er an Vannevar Bushs an, und überträgt dessen Vorstellung vom assoziativen Denken als Modell für den Umgang mit Texten auf den Schreibprozess. Wichtig für die Diskussion um die sog. "Nicht-Linearität" von Hypertext ist Nelsons Auffassung, das gedruckte Medium zwinge den Autor beim Schreiben zu einer künstlichen Sequenzierung von Gedanken:
Seiner Ansicht nach befreit der Computer den Schreibenden von der Bürde der Sequenzierung und ermöglicht es, Verknüpfungen zwischen Ideen und Gedanken direkt anzuzeigen. Sein 1974 erschienenes, und später nachgedrucktes Buch "Computer Lib/Dream Machines" (Nelson 1974) enthält den Text "Computer Lib" jeweils auf der Vorderseite und den Text "Dream Machines" auf der Rückseite jeder Seite. Das Buch, das v.a. in Hackerkreisen viel rezipiert wurde, diskutiert den Zusammenhang zwischen Internet, Hypertext und Demokratisierung. Es enthält weiterhin eine kurze Skizze des von Nelson iniitierten Projekts "Xanadu", in dem schon früh versucht wurde, die Vision vom dezentralisierten, nicht-linear organisierten Datennetz technisch zu realisieren. Auch wenn "Xanadu" bis heute nicht als lauffähiges System existiert, basiert es auf Konzepten, die gerade mit Blick auf manche Mängel der aktuellen WWW-Technologie interessant sind. Zu erwähnen ist v.a. ein Copyright- und Abrechnungsschema, das auf dem Konzept der "transclusion" beruht (vgl. Nelson 1995, 32). Das Konzept ermöglicht es, Pointer auf Dokumente oder Dokumententeile zu setzen, die dann als virtuelle Kopien der Dokumente fungieren. Wird die virtuelle Kopie genutzt, bekommt der Autor des Dokuments Tantiemen; das tatsächliche Kopieren einer Datei ohne Wissen des Autors wird hingegen verhindert. 1962-75: Douglas C. Engelbart, ein erfindungsreicher Computerwissenschaftler, dem moderne Computerbenutzer u.a. auch die "Maus" als Eingabegerät, die Fenstertechnik, die elektronische Post und die moderne Textverarbeitung verdanken, entwickelt das erste funktionstüchtige Hypertext-System. Sein "Program on Human Effectiveness" (Engelbart 1962), das er 1962 mit einem Begleitbrief an Bush sandte, geht davon aus, dass die Effektivität von Denken und Problemlösen wesentlich davon beeinflusst ist, welche Mittel zur Repräsentation und Manipulation von Symbolen zur Verfügung stehen. Engelbart sieht den Computer, der damals noch hauptsächlich als Rechenmaschine verstanden wurde, als generelles Werkzeug zur Symbolmanipulation- und -bearbeitung, das nicht nur die Problemlösungskompetenz des Einzelnen sondern auch die arbeitsteilige Bearbeitung von Aufgaben im Team unterstützen kann. Der Name seines Hypertext-Systems "Augment" steht programmatisch für diese sympathische Einstellung zur Computertechnik: Sie soll menschliche Fähigkeiten nicht automatisieren und ersetzen, sondern soll die menschlichen Problemlösungskapazitäten - im Sinne von Bushs Gedächtniserweiterungsmaschine - erweitern ("augment"). Augment verwaltete seinerzeit nicht nur nicht-linear strukturierte Dokumente, sondern verfügte über Funktionen, um das gemeinsame Publizieren und Bearbeiten von Problemen innerhalb von verteilt arbeitenden Gruppen zu erleichtern. 1968: Andries van Dam implementiert, unterstützt von Ted Nelson, an der Brown University das Hypertextsystem HES (Hypertext Editing System), das für den universitären Unterricht in englischer Literatur und Zellbiologie erfolgreich eingesetzt wird. 1986: Peter Brown von der University of Kent und die Firma Owl International Inc. bringen mit "Guide" das erste erschwingliche Hypertextsystem auf den Markt, das gleichermaßen auf IBM-kompatiblen PCs und auf Macintosh-Rechnern läuft. 1987: Apple liefert zwischen 1987-1992 mit jedem Computer das hypertextorientierte System "HyperCard" aus, das von Bill Atkinson konzipiert wurde. "HyperCard" ist einfach bedienbar, erlaubt die Verbindung von Text, Grafik, Video und Tondateien und verfügt über eine einfache Skriptsprache namens "Hypertalk". 1987: An der University of North-Carolina findet der erste Hypertext-ACM-Workshop statt, auf dem u.a. die Systeme HyperCard, GUIDE, KMS, gIBIS, Intermedia und NoteCards vorgestellt werden. Die interdisziplinäre Hypertextforschung formiert sich und hält fortan im Zweijahresrhytmus Tagungen ab. 1989: Tim Berners-Lee initiiert am Kernforschungszentrum CERN die Entwicklung des World Wide Web (WWW). Durch den großen Erfolg des WWW wird das Hypertextkonzept überhaupt erst in der breiten Öffentlichkeit bekannt. Das WWW entstand aus dem Interesse heraus, die Zusammenarbeit und die Kommunikation zwischen örtlich getrennten Forschergruppen zu unterstützen. Seinen Erfolg verdankt das WWW vermutlich der schnell erlernbaren Dokumentenauszeichnungssprache HTML (Hypertext Markup Language) und der einfach bedienbaren Web-Browsern. In der Umsetzung der Hypertext-Idee blieb das WWW indes zunächst hinter dem Erträumten und dem bereits Realisierten zurück. Das WWW-Consortium (W3C), das für die Normen des WWW verantwortlich ist, hat den Standard HTML zwar immer wieder erweitert, konnte dessen grundsätzliche Beschränkungen aber nicht überwinden. Durch den 1998 vom W3C gefassten Beschluss, XML (eXtensible Markup Language) als Alternative zu HTML zu unterstützen, kündigt sich nun ein Paradigmenwechsel an (vgl. Goldfarb 1999). XML flexibilisiert die Gestaltungsmöglichkeiten von Hypertextautoren, indem es ermöglicht, Textstrukturen explizit a uszuzeichnen, Metadaten zu verwalten und darauf mehrdimensionale Verknüpfungsstrukturen aufzubauen. Insbesondere das für Hypertext zentrale Konzept des Links wird durch die XML Linking and Adressing Languages (XPath, XPointer und XLink) beträchtlich erweitert. Zur semantischen Annotation von Personen, Institutionen, Ereignisse oder Orte in Nachrichtentexten gibt es bereits Standards zur Markierung, die von Nachrichtenagenturen genutzt werden (vgl. Sprinck 1999, Knorz/Möhr 1999). 2. Das World Wide Web als Hypermedia-Plattform: Merkmale und MehrwerteDie neuen Möglichkeiten, die das World Wide Web (WWW) für die Zeitungsgestaltung eröffnet, lassen sich mit vier Schlagwörtern umreissen: Hypertext, Multimedia, Interaktivität und computergestützte Kommunikation.
Nach Meier (1999, 130) können Online-Zeitungen auf Dauer nur Erfolg haben, wenn sie auf die Eigenschaften setzen, die das neue Medium den "alten" voraus hat. Die Möglichkeiten zur multimedialen Informationsaufbereitung sind bislang allerdings nur mit Einschränkungen nutzbar. Einerseits werden zum Abspielen von Ton- und Videodateien Zusatzprogramme (sog. plug-ins) benötigt, die nicht bei allen Nutzern installiert sind. Andererseits werden Nutzer mit kleiner Bandbreite (Modem, ISDN) durch aufwendige Multimediazusätze schnell ausgebremst; lange Ladezeiten sind seit Jahren das Ärgernis Nummer eins bei Umfragen zur Webnutzung. Auch vom Design her perfekte Hypertexte können zum Flop werden, wenn der Nutzer mehr als eine Minute warten muss, bis sich das gewünschte Modul am Bildschirm aufgebaut hat. Das Explorieren eines Hypertextes macht nur Freude, wenn eine angeforderte Seite so rasch am Bildschirm erscheint, dass der im Ausgangsmodul bearbeitete Inhalt noch unmittelbar im Gedächtnis ist. 3. Komponenten von HypertextsystemenZur Rezeption und zur Produktion von Hypertext wird Software benötigt. Diese nennt Kuhlen (1991, 17ff.) - in Analogie zur Datenbankterminologie - ein Hypertextmanagmentsystem (kurz: Hypertextsystem). Ein Hypertextsystem besteht aus folgenden Komponenten:
In dezidierten Hypertextsystemen sind Autorenwerkzeug und Browser integrierter Bestandteil des Systems. Für das WWW hingegen existieren verschiedene
Browser und Autorenwerkzeuge mit unterschiedlicher Funktionalität nebeneinander; die HTML-Dateien können unabhängig von einer bestimmten Hard-
und Softwareplattform mit jedem Texteditor gelesen und bearbeitet werden. Erst die Browser legen fest, wie die Daten auf dem Bildschirm dargestellt werden; entsprechend
wird dasselbe Dokument von unterschiedlichen Browsern verschieden dargestellt.
Die Hypertextforschung unterscheidet zwischen verschiedenen architektonischen Ebenen, die in Abbildung 2 dargestellt sind (nach Tochtermann 1995):
![]() (nach dem Modell von Tochtermann 1995) Die Trennung der Ebenen macht es möglich, die Strukturierung der Daten auf der konzeptionellen Ebene unabhängig zu halten,
(1) ermöglicht es, die Strukturierung unabhängig von der konkreten Ausprägung der Speicherebene (z.B. ein relationales oder ein
objektorientiertes Datenbankmanagementsystem) zu halten. (2) ermöglicht es, aus demselben Datenbestand verschiedene Präsentationen
für unterschiedliche Medien (gedruckt und elektronisch), verschiedene Datensichtgeräte (Monitor, Bildschirmdisplay) und Nutzergruppen (z.B. individualisierte
Zeitung) zu generieren ("cross-media-publishing", "multiple-media-publishing, vgl. Abb. 3). Die Ebenentrennung erlaubt weiterhin die Entwicklung
nutzeradaptiver Systeme, wobei die Bandbreite von Adaptionsmöglichkeiten von der einfachen Auswahl zwischen prädefinierten Optionen, über die
"Berechnung" möglicher Interessensgebiete durch die Auswertung von Protokollen bis hin zum inferenzfähigen, wissensbasierten Expertext reichen kann.
Zum Weiterstöbern:
Zum Weiterlesen:![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
![]() ![]() |
![]() © Urheberrechtlicher Hinweis |