Trans Internet-Zeitschrift für Kulturwissenschaften 6. Nr. September 1998

Strukturwandel der Wissensproduktion.
Das Ende der Wissensmonopole?

Ursula Maier-Rabler (Salzburg)

Die gegenwärtig stattfindenden Veränderungen bzw. die bereits seit langem stattfindenden Veränderungen in unserer Gesellschaft im Zusammenhang mit der Entwicklung der sogenannten "neuen" Informations- und Kommunikationstechnologien werden schon längst beobachtet, wahrgenommen oder auch nur erahnt. Was meiner Meinung nach in dem gesamten Kontext der neuen I+K-Technologien fehlt, sind weniger Konzepte, die es uns erlauben, auf diese durchdringenden Veränderungen nicht nur mittels alter Methoden zu reagieren (z.B. Reformierung/Adaptierung bestehender gesetzlicher Rahmenbedingungen, Copyright, Patenrechte) beziehungsweise und überhaupt nur "durchtauchen" lassen wollen, sondern Konzepte und Strategien, wie wir mit den neuen Technologien die Herausforderungen annehmen können, um negative Auswirkungen und Begleiterscheinungen möglichst hintanhalten zu können.

Die Herausforderungen sind mannigfaltig, wirken überall gleichzeitig und verzeihen keine Versäumnisse. Ich möchte heute vor allem auf jene Herausforderungen und absehbaren Veränderungen eingehen, mit denen die traditionellen Strukturen der Wissensproduktion durch die neuen Informations- und Kommunikationstechnologien konfrontiert sind. Das sind vor allem die Universitäten und als traditionelle Orte bzw. Institutionen der Wissensproduktion und Wissensweitergabe.

Mein Vortrag gliedert sich in folgende Abschnitte:

  1. Über das Wesen der neuen Informations- und Kommunikationstechnologien
  2. Die traditionellen Stätten der Wissenproduktion – Universitäten in Gefahr
  3. Das Ende der Linearität: Neue Formen der Informationsaufbereitung und –vermittlung durch nicht-lineare, hypertextuelle Anordnungen
  4. Informationskulturen

1. Über das Wesen der neuen Informations- und Kommunikationstechnologien

Gestatten Sie mir zu Beginn meiner Ausführungen, daß ich Ihnen zunächst die Dimensionen des technologischen Wandels vorstelle, welcher sich hinter dem populären und zwangsläufig oberflächlich eingesetzten Begriffs des "Internets" verbirgt.

Meine Definition der neuen Informations- und Kommunikationstechnologien umfaßt die Produktion, den Austausch und den Konsum digitalisierter Informationen in Netzwerken. Populär könnte man sagen, ich meine mit neuen I+K-Technologien das, was das Internet – oder wie immer es dann auch heißen mag – in fünf bis zehn Jahren sein wird.

Kernpunkt der Veränderungen durch die neuen Informations- und Kommunikationstechnologien ist die Tatsache, daß der Baustein für Kommunikation bzw. zur Erzeugung von Kommunikationsinhalten, nämlich die Information, in den universellen digitalen Code von Null und Eins transformiert werden kann bzw. grundsätzlich nur mehr in diesem binärem Code existiert. Die Universalität dieses Codes kommt dadurch zum Ausdruck, daß jegliche Form von Information, ob es sich nun um Wörter, Bilder, Texte, Töne, Bewegtbilder etc. handelt, in diesem Code ausgedrückt werden kann und somit auch Transformationen jeglicher Art - von Tönen in Texte, von Bildern in Worte etc. - durchgeführt werden können. (vgl. Negroponte, 1995)(1)

Die Universalität dieses Codes steht aber auch für den universellen Einsatz dieser Neuen Technologien. Im Gegensatz zu früheren revolutionären technologischen Erfindungen, ist die digitale Revolution nicht nur auf einen bestimmten gesellschaftlichen Bereich reduziert. Während die Dampfmaschine vorwiegend eine Produktions- und Transporttechnologie dargestellte oder Gutenbergs Erfindung eindeutig als Kommunikationstechnologie zu bezeichnen ist, sind die neuen Informations- und Kommunikationstechnologien einerseits sowohl

  1. Produktions-, Distributions- und Konsumtionstechnologien im Sinne der klassischen industriellen Sichtweise, und andererseits aber auch
  2. Informations-, Kommunikations- und Unterhaltungstechnologien im Sinne eines gesellschaftlichen bzw. kulturellen Kontextes.

Das bedeutet, daß die neuen Informations- und Kommunikationstechnologien sowohl eine "Maschine", als auch ein "Medium" sind, und zwar gleichzeitig. Für unser Thema hier bedeutet es, daß es die technisch-ökonomischen Kräfte einer globalen Ökonomie sein werden, die das generelle Design dieser Technologien bestimmen werden und somit die Möglichkeiten eines sozialen, kulturellen und wissenschaftlichen Einsatzes wesentlich mitbestimmen werden (vgl. Mansell/Silverstone, 1996).(2)

Neben der Universalität ist die Konvergenz das zweite dominierende Charakteristikum der digitalen Revolution. Es gibt unterschiedliche Ebenen, auf denen Konvergenzen beobachtet werden können. Da ist zunächst die technologische Konvergenz, mit der die Verschmelzung von Rundfunktechnologien (Broadcasting) mit Individualkommunikationstechnologien (Telephonie) bezeichnet wird (vgl. Latzer, 1997).(3)

Die einzelnen Massenmedien lassen sich aufgrund der technologischen Konvergenz nicht mehr voneinander definitorisch trennen. Analytisch besteht keine Möglichkeit zu bestimmen, daß das, was als Zeitung in das digitale Netzwerk eingespeist wurde, auch als Zeitung von den Konsumenten rezipiert wird. Etwas, das als "Radio" in das Netzwerk gestellt wird, könnte als "Text" wieder herauskommen. Die Kontrolle der Produzenten von Kommunikationsinhalten über die Form und die Art und Weise der Rezeption dieser Inhalte ist weitgehend aufgelöst. Das stellt grundlegende Postulate der traditionellen Medienpolitik in Frage. Das Sender-Empfänger - Modell hat ausgedient.

Das hat aber auch ganz enorme Auswirkungen auf die Wissenschaft als Inhaltprovider. Wir haben noch nicht gelernt, diesen Kontrollverlust in eine produktive Interaktivität mit den Rezipienten unserer wissenschaftlichen Erkenntnisse umzumünzen. Die Tatsache, daß wir in digitalen Netzwerken nicht mehr bestimmen können, in welcher Form und in welcher Reihenfolge die von der Wissenschaft produzierten Inhalte konsumiert werden, verlangt nach neuen, modularen Formen der Inhaltsaufbereitung. Dazu später mehr.

Auf der Ebene der Benutzer der neuen Informations- und Kommunikationsdienste drücken sich Universalität und Konvergenz dadurch aus, daß sie sowohl Produzenten als auch Konsumenten sind, manchmal beides zur selben Zeit, und manchmal ohne daß ihnen diese Tatsache auch bewußt ist. Die konkrete Ausstattung mit Endgeräten, die Bandbreite des Netzwerkanschlusses und das vorhandene Wissen im Umgang mit den neuen Technologien entscheiden sowohl über die Möglichkeiten für Produzenten als auch für Konsumenten sowie über den Grad des Ausmaßes, zwischen diesen beiden Rollen wechseln zu können.

Auch hier sind die Wissenschafterin und der Wissenschafter als spezielle Benutzer von dieser Ambivalenz betroffen. Sie sind einerseits Benutzer im Sinne der passiven Informationsbeschaffung und Produzenten im Sinne einer aktiven Aufbereitung, Weiterverarbeitung und zur Verfügungstellung. Jene, die den besten Zugang, die beste technische Ausstattung, das größte Anwendungswissen besitzen und – auf der Produzentenseite – ein hohes Maß an digitaler, nicht-linearer, hypertextueller Vermittlungskompetenz verfügen, werden die Gewinner in der entstehenden Wissensokönomie sein.

Und schließlich drückt sich die Universalität der neuen Informations- und Kommunikationstechnologien auf der Seite der Benutzer als zeitlich und räumliche Verschmelzung von Arbeiten, Lernen und Unterhalten aus. Der Zusammenhang zwischen räumlich-situativem Umfeld und bestimmten Kommunikations- und Informationsaktivitäten ist also nicht mehr gegeben bzw. verliert an charakterisierender Bedeutung. Das bedeutet auch, daß sich die jeweiligen Strukturen von Arbeit, Bildung und Freizeit überlappen werden. Die spezifische Logik der Informationsverarbeitung wird sich auf sämtlich Lebensbereiche ausdehnen.

Dieses Phänomen ist den sogenannten freien Berufen, zu denen unter Umständen auch die Wissenschafter zählen, nicht fremd. Es wird jedoch durch die Möglichkeiten der neuen Informations- und Kommunikationstechnologien geradezu zu einer Notwendigkeit. Wir arbeiten zuhause und informieren uns unterwegs, wir spielen im Büro und surfen im Cafe, wir können weltweit unsere e-mails abrufen und können ein sogenanntes virtuelles Büro oder sogar ein virtuelles Institut unterhalten. Die virtuelle Universität ist keine futuristische Zukunftsmusik, sondern wird – wie ich gleich ausführen werde – ganz gezielt unter der Prämisse der Ökonomisierung von Wissen bereits praktiziert.

 2. Die traditionellen Stätten der Wissenproduktion – Universitäten in Gefahr

Daß die neuen Technologien die traditionellen Universitäten, wie wir sie heute kennen, radikal verändern werden, ja sogar als real-physikalisch existierende Institutionen höchstwahrscheinlich auflösen werden, darüber ist man sich bei der vor rund einem Jahr abgehaltenen Konferenz über die "Rolle der Universität in der zukünftigen Informationsgesellschaft"(4) in Prag ziemlich einig gewesen.

Claudine Langlois, Direktorin des UNESCO Informationszentrums für Hochschulausbildung innerhalb der Internationalen Vereinigung von Universitäten, macht klar, das "die Zukunft von Universitäten (...) von deren Fähigkeiten ab[hänge], sich an die neue Informationsgesellschaft anzupassen und die Bedürfnisse eines immer mehr verlangenden professionellen Marktes zu treffen. Die Chancen der neuen Technologien müßten also genutzt werden, um ein reicheres Studienmaterial zur Verfügung zu stellen und so die Studenten ihre Lernerfahrungen von verschiedenen Standpunkten aus, z.B. mit Hilfe von Videosequenzen und Experteninterviews, durchleben zu lassen" (Krempl, 1997).(5)

Fast alle Dokumente über die Zukunft der Universität im Kontext der neuen Technologien beschäftigen sich mit den Auswirkungen auf die Vermittlung von Informationen bzw. von Wissen, also auf die universitäre Ausbildung und Lehre (vgl. z.B. Noble, 1998; Taylor, 1998; Margolis, 1998; Telepolis, 1998)

Forschung, als universitäre Aufgabe, hat man offensichtlich bereits der Industrie bzw. privaten Institutionen überlassen – ebenfalls eine Auswirkung der Kommerzialisierung von Wissen infolge der digitalen Kommunikationsnetzwerke.

Eine der zentralen Auswirkungen der neuen Technologien auf die Universitäten bzw. auf die gesellschaftliche Wissensproduktion sehe ich in der fortschreitenden Trennung von Forschung und Lehre. Die bereits erwähnten neuen Qualifikationen von Wissenschafterinnen und Wissenschafter umfassen sowohl technisches Anwendungsknow-how, Rechercheknow-how und Vermittlungsknow-how und das alles zusätzlich zum spezifischen Fachwissen. Der sowieso bereits seit Jahren existierende Zwang zur Spezialisierung aufgrund des exponentiell anwachsenden Wissensbestands wird nun erweitert um die Spezialisierung auf reine Forschungsorientierung oder Vermittlungs- bzw. Lehrorientierung.

Die wissenschaftliche Lehre steht unter enormen Konkurrenzdruck seitens privater und unternehmensspezifischer Aus- und Weiterbildungseinrichtungen sowie von Fachhochschulen, die der von Langlois geforderten Professionalisierung aufgrund von professioneller Technik und multimedialem, didaktischem Material wesentlich besser gerecht werden können, als dies die finanziell ausgehungerten und personell unterbesetzen Universitäten tun können. Dort spezialisiert sich das Lehrpersonal auf die professionelle, sprich hypertextuell-multimediale Aufbereitung von Inhalten für die Lehre, während sich die Wissenschafterinnen und Wissenschafter an den Universitäten aufgrund veralteter Inaugurations-, Disziplinierungs- und Karriererituale mit mittelmäßigen Forschungsbedingungen und mittelmäßigen Vermittlungsmöglichkeiten herumschlagen müssen.

Hier wird eine mutige Bildungspolitik ansetzen müssen. Genauso, wie das idealistische humanistische Humboldtsche Bildungsideal des universell gebildeten Menschen schon längst der Vergangenheit angehört, ist auch der forschende Universitätslehrer ein Relikt aus der Zeit vor der digitalen Informationsrevolution.

Es müssen Wege gefunden werden, der universitäre Lehre innerhalb des akademischen Kosmos jene Reputation zu verschaffen, die die akademische Forschung immer genossen hat. Forschung macht berühmt und bringt somit Ansehen und Geld. Gute Lehre macht einen bestenfalls bei den Studierenden beliebt und bei den Kollegen, die dann in den entsprechenden Gremien über das eigene Fortkommen entscheiden, unbeliebt. Zudem verhindert die Lehre – wenn sie den Konkurrenzkampf mit den privaten Anbietern aufnehmen will – ausreichendes Engagement in der Forschungs- und Publikationstätigkeit und somit auch das Fortkommen auf der universitären Karriereleiter.

Hier stehen radikale Neubewertungen und Reformen an. Kritiker wie Martin Rost oder Paul Treanor bezweifeln die Selbstreformkraft der Universitäten aufgrund der Selbstreferentialität bzw. der Selbstrekrutierung des universitären Systems (Treanor, 1997).(6) Die Universitäten werden als mittelalterliches Relikt der gesellschaftlichen Selektion und als Auslaufmodell in der zukünftigen Informations- bzw. Wissensgesellschaft gesehen.

Neben dem Auseinanderdriften von Forschung und Lehre als Grund für den Verlust der Funktionalität der Universität, sieht Eli Noam den Verlust der Funktion als pysikalisch-verorteter Informationsspeicher als zentral für "the dim future of the university"(7) (Noam, 1995) an.

Jahrtausende lang sind die Wissenschafter zu der zentral gespeicherten Information "gepilgert". Zeiten, in denen Information knapp war, die Reproduktion teuer und/oder verboten und es einen geringen Spezialisierungsgrad gegeben hat, haben die Institution der Bibliothek hervorgebracht. Und die Qualität der jeweiligen Universitätsbibliothek hat über lange Zeit die Qualität einer Universität bestimmt, weil sie die jeweils hervorragendsten Wissenschafter ihrer Zeit angezogen und an einem Ort versammelt hat.

"This system of higher education remained remarkably stable for over 2,500 years. But it is now in the process of breaking down. The reason is not primarily technological. Technology simply enables change. The fundamental reason is that today’s production and distribution of information are undermining the traditional flow of information and with it the university structure, making it ready to collapse in slwo montion once alternatives to ist function become possible"(Noam, 1995).(8)

Auch Noam ist der Meinung, daß das heutige "low-tech lecture system" keine Überlebenschance haben wird. Die virtuelle Universität ist bereits längst Realität. So mußten sich die Hochschullehrer der UCLA, der University of California at Los Angeles damit abfinden, daß die Universitäten von ihren Lehrenden verlangt, daß sie für jeden Kurs bzw. jede Lehrveranstaltung zusätzlich zum normalen Betrieb eigene Websites anbieten. Es wurde von der Verwaltung der UCLA sogar eine eigene Firma gegründet, die diese Online-Angebote zusätzlich vermarktet. An der York University, dem drittgrößten Campus in Canada, hat ein ähnliches Ansinnen der Verwaltung zu einem zweimonatigen Streik der Hochschullehrer geführt. Hauptgrund dafür war das einseitige Abkommen der Verwaltung mit der Wirschaft, im Gegenzug für die Bezahlung von 10.000 Dollar, die Firmenlogos auf den Online-Angeboten plazieren zu dürfen. Das Geld wollte die York University, ähnlich wie die UCLA in die Weiterentwicklung von kommerzialisierbaren Online-Angebote investieren. (Noble, 1998)(9)

Noble macht die interessante Feststellung, daß "once the faculty converts its courses to coursware, their services are in the long run no longer required."(Noble, 1998)(10) Daß diese Feststellung keine pure Spekulation ist, beweist Noble, indem er darauf hinweist, daß zum Beispiel die "untenured" (nicht pragmatisierten) Hochschullehrer an der York University de facto gezwungen werden, ihre Lehrveranstaltungen auf Video, CD-ROM oder im Internet anzubieten, wenn sie nicht ihren Job verlieren wollen. Sie wissen natürlich, daß sie sich damit mittelfristig ihre eigene Arbeitsbasis entziehen. The New School in New York beschäftigt zunehmend externe Mitarbeiter, zumeist arbeitslose Akademiker, um Online-Kurse zu entwickeln. Sie werden nicht angestellt und schlecht bezahlt und müssen alle Rechte an den Online-Kursen an die Universität abtreten. The New School kann somit ein komplettes Online Ausbildungsprogramm anbieten, ohne auch nur einen Menschen wirklich anstellen zu müssen.

Dieser von Noble beschriebende Prozess ist einer, den viele andere Branchen und Berufsgruppen bereits im Zuge der Industrialisierung durchgemacht haben. Wissenschafter arbeiten immer noch in ständisch organisierten Zünften (vgl. Rost, 1996)(11) und sind klassischen Handwerker. Nun setzt die Industrialisierung, besser die Informatisierung von Wissensproduktion ein und verlangt nach Beschleunigung, Standardisierung und Kommerzialisierung. Kit Sims Taylor analysiert diese Entwicklung ziemlich nüchtern: "The accelerating power and falling prices of computers; the Internet; computerized data banks; the proliferation of basic computer skills within the college-age population: all are factors making higher education ripe for invasion by capitalist enterprise. It is now possible to earn a profit providing higher education, or at least something that will pass for higher education in the eyes of its ‚consumers‘. Online education, in particular, may become capital’s major beachhead (Landkopf) in its incursion into this new territory." (Taylor, 1998)(12)

In diesem nun einsetzenden Konkurrenzkampf um Wettbewerbsvorteile am "Teachware" oder "Courseware"-Markt sind neue Qualifikationen seitens der Informationsanbieter gefragt. Wenn die Universitäten bzw. die Hochschullehrer an diesem Markt partizipieren wollen, dann müssen sie Abschied von traditionellen Formen der Informationsvermittlung nehmen und sich mit dem Machtverlust des Informationsanbieters – oder auch der klassischen Lehrerrolle – und dem Machtgewinn der Informationsrezipienten – oder der Schülerrolle – auseinandersetzen.

3. Das Ende der Linearität: Neue Formen der Informationsaufbereitung und –vermittlung durch nicht-lineare, hypertextuelle und multimediale Anordnungen

Was sind nun die neuen Qualifikationen, die für eine erfolgreiche Wissensproduktion auf der einen Seite und für die gewinnbringende Wissensrezeption auf der anderen Seite notwendig sind? Eigentlich müßte es im Sinne der Informationsökonomie "gewinnbringendes produzieren" und "erfolgreiches konsumieren oder rezipieren" heißen.

Neben dem notwendigen technischen Anwednungsknow-how und dem selbstverständlichen Spezialwissen – worauf ich im Rahmen dieses Vortrages nicht weiter eingehen werde – geht es vor allem um ein tiefes Verständnis der nicht-linearen, hypertextuellen Anordnungen von Information und die daraus resultierende Freiheit des Lesers, Rezipienten,. Konsumenten, Betrachters, Studenten etc. Ohne dieses Verständnis und ohne die ehrliche Bereitschaft, sich mit der damit verbundenen neuen und zum Teil noch sehr fremden Komplexität auseinanderzusetzen, werden die traditionellen Wissensproduzenten sehr bald an ihre Grenzen stoßen.

3.1 Hypertext

Die Analyse der theoretischen Literatur zu Hypertext und Nicht-Linearität führt zu zwei prinzipiell unterschiedlichen Herangehensweisen an diese Problematik. Einerseits gibt es die Arbeiten aus der kritischen Kultur- und Kommunikationstheorie, die sich mit dem grundlegenden Phänomen der Hypertextualität und Nicht-Linearität auseinandersetzen. Für kritische Theoretiker ist die Nicht-Linearität und Hypertextualität von Diskursen eher die Regel und nicht die Ausnahme. Im Gegensatz dazu steht jene Richtung, die die Existenz von Textualität und Linearität zunächst einmal als gegeben akzeptiert und versucht, die Unterschiede zwischen Text und Hypertext, zwischen linear und nicht-linear, herauszuarbeiten. (vgl. dazu Maier-Rabler / Sutterlütti, 1997)

Die Arbeiten zur kritischen Theorien versuchen zu zeigen, daß das im sogenannten "Mainstream" als neues Phänomen behandelte Konzept von Hypertext oder Nicht-Linearität bereits immer schon die "natürliche" Form von Erzählen und des Diskurses gewesen ist. (Smith, 1980, S. 223). Der Zwang zur Linearität wird als eine bestimmte Form der Repression aufgefaßt.

Vilém Flusser beschreibt die Nachteile des westlichen, alphanumerisch-linearen Codes folgendermaßen: "Um einen Text lesen zu können, muß man zuerst die von ihm niedergeschriebene Sprache lernen, und was man nicht sagen kann, das kann man auch nicht schreiben. Das heisst, der alphabetische Code zwingt das schreibende unter das sprachliche Denken, und wenn er dominant wird, verarmen alle übrigen Denkformen [...]. Ein Vergleich mit ausserwestlichen Codes - vor allem mit fern-östlichen - belegen dies." (Flusser, 1988, S.15). Dennoch, auch Flusser konstatiert:

"das Aneinanderreihen von Schriftzeichen ist uns seit unserer Kindheit so vertraut, dass wir die Absicht dieser Geste nicht immer deutlich erkennen. Es ist die Geste des Aufzählens und erst dann die des Erzählens (des Zu-ende-Zählens). Man kann diese Geste zum Beispiel im Auffädeln von Muscheln zu Halsketten wiedererkennen. Sie ist demnach uralt und wahrscheinlich bei überhaupt allen Kulturen festzustellen. Aber diese aneinanderreihende Geste hat im östlichen Mittelmeerraum eine eigenartige, einige Jahrtausende währende Entwicklung mitgemacht und schliesslich, um die Hälfte des zweiten Jahrtausends v. Chr., zur Erfindung des Alphabets geführt, um dann wenig verändert bis in die Gegenwart unsere Kultur zu kennzeichnen." (Flusser, 1988, S. 9).

Im Gegensatz zur zweiten Richtung von theoretischer Auseinandersetzung mit Hypertext gehen die kritischen Theoretiker gar nicht auf den Versuch, Text von Hypertext zu unterscheiden, ein und versuchen mehr oder minder einhellig, Hypertext als immer schon dagewesenes Konzept von Wissensstrukturen aufzufassen. Allerdings hat der, in der okzidentalen Kultur, vorherrschende alphanumerische Code die Dokumentation und vor allem die Nachvollziehbarkeit hypertextueller Wissensstrukturen erschwert, wenn nicht verhindert. Als Paradebeispiel eines Hypertexts in Buchform wird immer wieder James Joyce's Ulysses erwähnt, dessen unzählige Fußnoten und Querverweise ständig aus dem von Joyce verfaßten Text hinausreichen und dieser je nach dem Grad, indem der Leser diesen Querverweisen folgt, zu unterschiedlichen Interpretationen des Ausgangstextes führt. Aber auch ein klassisches Lexikon ist ein Beispiel eines Hypertextes in Buchform. Der Leser ist nicht an die vorgegebene Abfolge des gedruckten Textes gebunden, er kann an bestimmten, frei gewählten Stellen zu lesen beginnen, er kann den Querverweisen folgen und er kann sich unterschiedlich tief in das vorliegende Material hineinbegeben.

Neben dem Hinweis auf die Bedeutung des Codes, ist ein weiteres wesentliches Charakteristikum kritischer Hypertexttheorie die differenzierte Auseinandersetzung mit dem Netzwerkbegriff im Kontext von Hypertext. Das hypertextuelle Netzwerk wird als weit über die rein physisch-manifeste Repräsentation von Inhalten hinausgehendes Gesamtsystem aufgefaßt.

Landow (1992, S. 23ff) beschreibt jene vier Stufen oder Bedeutungen von hypertextuellen Netzwerken, die erreicht bzw. realisiert sein müssen, um von Netzwerken im Sinne der kritischen Theorie sprechen zu können. Die erste Stufe eines hypertextuellen Netzwerkes repräsentiert isolierte, singuläre Dokumente, die zunächst in Blöcke, Knoten bzw. in Barthes'sche "Lexias" (=in Verbindung stehende Sinneinheiten) zerlegt werden und anschließend wieder miteinander "verlinkt" werden. Die zweite Stufe repräsentiert bereits eine beliebige Anzahl von obigen Netzwerken (= unterschiedliche Dokumente von unterschiedlichen Autoren), die miteinander durch Links in Beziehung gesetzt sind. Auf dieser Stufe existieren die einzelnen Dokumente nicht mehr isoliert, sondern sind gegenseitig durchlässig geworden und die Grenzen zwischen den einzelnen Dokumenten lassen sich nicht mehr trennscharf ziehen. Die dritte Bedeutung von Netzwerken bezieht sich bereits auf ein elektronisches System von einzelnen Computern, sowie deren Verbindungen mittels Kabel oder anderer Übertragungseinrichtungen. Diese Netzwerke erlauben individuellen Computern (PC's, Workstations etc.) Informationen untereinander auszutauschen. Dies geschieht sowohl in lokalen Verbünden (LAN's) als auch in großräumigeren Netzen (WAN's = Wide Area Network), wobei Orte und Räume neu definiert und Distanzen aufgehoben werden. Erst mit der vierten Stufe ist dann die Bedeutung von hypertextuellen Netzwerken im Sinne von kritischer Theorie erreicht. Auf dieser Stufe bezieht sich das hypertextuelle Netzwerk auf die Gesamtheit von all dessen, wofür wir bis jetzt - wie Landow ausführt - noch nicht einmal Begriffe haben, sie zu benennen. Er erwähnt in diesem Zusammenhang Bezeichnungen wie "Literatur", "Infoworld" oder Nelson's "Docuverse".

"Das entscheidende Charakteristikum des docuverse ist 'intertwingulatriy' - Verflechtung, Vernetzung, Rhizom: 'Everything is deeply intertwingled' (Nelson)." (Bolz, 1993, S.24).

Grundsätzlich ist mit dieser vierten Stufe des Netzwerkes die Gesamtheit alles Geschriebenen, sowohl im alphanumerischen, als auch im Derridaschen Sinne gemeint. Für Derrida beschränkt sich Text nicht nur auf seine physisch-manifeste, alphanumerische Ausprägung, sonder er bezieht auch das, was der Leser mit dem Text macht, die kognitiven Einordnungen, die abweichenden Interpretationen und auch die gegenteilige Auffassung in sein Verständnis von Text mit ein. In diesem kritischen Verständnis wäre also die Gesamtheit von Hypertextualität das manifeste Wissen einer Gesellschaft unter Einbeziehung sämtlicher latenter oder manifester Interpretationen.(Landow, 1992, S. 8).

Und diese Gesamtheit, dieses hypertextuelle Netzwerk hat es immer schon gegeben, auch vor Buchdruck und Internet. Die sogenannte "digitale Revolution", die Entstehung von elektronischen Kommunikationsnetzwerken, hat allerdings zu einem enormen Bedeutungsgewinn von Hypertextualität geführt. Die Gleichzeitigkeit der Verfügbarkeit über dieses hypertextuelle Netzwerk, die Tatsache des zeit- und raumungebundenen Zuganges und die Tatsache der universellen Codierung sämtlicher Ausprägungen von Information, enthüllt die Existenz dieses hypertextuellen Netzwerkes zum ersten Mal in der Geschichte auf einer nachvollziehbaren Basis.

Durch Hypertext kommt es zu einer weitgehenden Verwischung der Grenzen zwischen Textproduktion und Textrezeption beziehungsweise zwischen Autor und Leser.

Landow formuliert es folgendermaßen:

"Hypertext blurs the boundaries between reader and writer and therefore instantiates another quality of Barthes’s ideal text. From the vantage point of the current changes in information technology, Barthes’s distinction between readerly and writerly text appears to be essentially a distinction between text based on print technology and electronic hypertext, for hypertext fulfills ‘the goal of literary work [...] which is to make the reader no longer a consumer, but a producer of text. Our literature is characterized by the pitiless divorse which the literary institution maintained the producer of a text and its user, between its owner and its customer, between its author and its reader. This reader [...] is left with no more than the poor freedom of either to accept or to reject the text: reading is nothing more than a referendum (Hervorhebung im Original). Opposite the writerly text, then, is its countervalue, its negative, reactive value: what can be read but not written: the readerly. We call any readerly text a classic text.’" (Landow, 1992, S. 5f.)

Diese Tatsache hat weitreichende Folgen für die zukünftige Produktion, Distribution und Konsumtion von Texten und im weiteren Sinne für Wissen generell. Nicht nur werden andere Qualifikationen für die Produktion von Texten entwickelt werden müssen, auch die Wertigkeit von Informationen wird neu überprüft und festgestellt werden müssen (Stichwort: Urheberrecht) und schließlich wird auch der zukünftige "Leser" neue Qualifikationen für die aktive Rezeption im hypertextuellen System benötigen. Die Techniken der Wissensaneignung werden sich von eher passiven-konsumtiven zu aktiv-konstruktiven Strategien verlagern.

3.2 Hypertextualität als neues Informationsprinzip

Das informationstechnologische Potential der digitalen, elektronischen Kommunikationsnetzwerke, bietet wesentlich mehr als die hypertextuelle Umsetzung bislang isoliert voneinander existierender Informationsbestände bzw. der hypertextuelle Aufbereitung von geschlossenen Informationseinheiten. Unabhängig von den bestehenden gesellschaftspolitischen, infrastrukturellen, wirtschaftlichen Rahmenbedingungen, bietet die digitale Netzwerktechnologie das grundsätzliche Potential des unmittelbaren, zeit- und raumunhabhängigen Zugangs zu jenem hypertextuellen Informationsraum, welcher nach Auffassung der Vertreter der kritischen Theorie als vierte Bedeutungsstufe von hypertextuellen Netzwerken immer schon existiert hat. Die potentielle Existenz dieses "Docuverse" und dessen nachvollziehbare Enthüllung durch die neuen Informations- und Kommunikationstechnologien, sagt aber noch nichts über dessen Zugänglichkeit und Benutzbarkeit aus.

Diese - die Zugänglichkeit und die Benutzbarkeit - von hypertextuellen Informationssystemen sind einerseits klarerweise von infrastrukturellen, ökonomischen und anderen gesellschaftspolitischen Bedingungen abhängig. Hies soll es jedoch vorwiegend um die inhaltlichen, aufbereitungs- und rezeptionsspezifischen sowie um informationskulturelle Bedingungen gehen.

Vilém Flusser hat die Veränderungen, die unsere Kultur durch die Entwicklung des digitalen Codes und der flächendeckenden Implementierung elektronischer Kommunikationsnetzwerke erfahren wird, in folgender Hypothese formuliert, die auch ich uneingeschränkt mittragen kann:

"Die okzidentale Kultur ist ein Diskurs, dessen wichtigste Informationen in einem alphanumerischen Code verschlüsselt sind, und dieser Code ist daran, von anders strukturierten Codes verdrängt zu werden. Falls die Hypothese zutreffen sollte, dann wäre in naher Zukunft mit einer tiefgreifenden Veränderung unserer Kultur zu rechnen. Die Veränderung wäre tiefgreifend, weil unser Denken, Fühlen, Wünschen und Handeln, ja sogar unser Wahrnehmen und Vorstellen, in hohem Grad von der Struktur jenes Codes geformt wird, in welchem wir die Welt und uns selbst erfahren." (Flusser, 1988, S.7).

Flusser hat diese Hypothese vor zehn Jahren formuliert. Mittlerweile hat der nicht-lineare, mathematisch-numerische, punkt- und matrixstrukturierte, digitale Code schon längst flächendeckend Einzug in sämtliche Bereiche unseres Lebens gehalten. Was unserer Meinung nach noch nicht geschehen ist, ist die Wahrnehmung der tiefgreifenden Veränderung von Wissensstrukturen durch Hypertext seitens der Inhaltsproduzenten bzw. -anbieter. Noch immer dominieren die Linearität und die Verdoppelung der Inhalte in elektronischen Netzen. Damit einher geht die Gefahr, daß das wirkliche Potential der neuen Informations- und Kommunikationsstrukturen, nämlich ein zugängliches elektronisches "Docuverse", ich will es "Bitverse" nennen, zu schaffen, nicht oder nur sehr eingeschränkt umgesetzt wird.

Ted Nelson, der als Vater des Begriffs "Hypertext" gilt und "der sich selbst als zynischen Romantiker und "computopian" charakterisiert, hat erstmals die Grundbegriffe von Schreiben unter Computerbedingungen definiert. Demnach heißt Literatur ein System miteinander verschachtelter Schriftstücke: ’Literature is an ongoing system of interconnecting documents.’ Nelsons Xanadu-Paradigma ist die Software einer Online-Welt-Bibliothek , das heißt nicht nur einer Bibliothek für die ganze Welt, sondern auch eine Verwandlung der Welt in eine elektronische Universalbibliothek. In ihr sind alle Dokumente virtuell omnipräsent und ubiquitär - sie nehmen die Forme einer Instant-Literatur an; ‘The Xanadu system provides a universal data structure to which all other data maybe mapped’. Das ist durchaus auch kartographisch zu verstehen: die Instant-Literatur produziert eine neue Weltkarte. Jedes Byte der Welt kann mit einer eigenen Adresse versehen werden. Das reduziert die Redundanz der Kopien und identischen Formulierungen; gespeichert werden ja nur die Originaldokumente und Lesarten/Varianten. Xanadu löscht deshalb auch keine Texte.

Ted Nelson nimmt Abschied von der Gutenberg-Welt diskreter, privater Dokumente und entwirft ein Medienenvironment, das es den Benutzern ermöglicht, eigene Verknüpfungen zwischen dem auf ein kompatibles Format gebrachten Dokumenten der Welt zu etablieren - eben das nennt er docuverse." (Bolz, 1993, S. 23)

In der konkreten Praxis der Umsetzung von Nelson’s Docuverse in einem elektronischen Environment stoßen wir auf eine Reihe von Problemen, deren Lösung für uns den gleichen gesellschaftspolitischen Stellenwert haben müßte wie die rein technische Realisierung der dazu notwendigen Infrastruktur.

Fragen wie: Was sind die Unterschiede zwischen linearer und nicht-linearer Informationsaufbereitung? Worin liegen die Probleme bei der Übernahme existierender linearer Informationen in elektronische Netzwerke? Wie gehen Informationsanbieter und Wissensproduzenten mit dem einhergehenden Kontrollverlust über ihre Inhalte um? Warum klagen Benutzer von hypertextuellen Systemen (z.B. WWW im Internet) über Informationsüberfülle und stellen gleichzeitig fest, daß sie dennoch die gesuchten Informationen nicht finden? Wie sieht es mit der generellen Bereitschaft aus, Informationen aus dem existierenden "Docuverse" im "Bitverse" anzubieten? Wir werden Autoren und "Leser" mit der Tatsache umgehen, daß es im "Bitverse" keine "fertigen" Produkte, mit einem klar definierten Anfang und Ende, mehr geben wird?

Die digitale Technologie bietet uns erstmals in der Geschichte der Kommunikationstechnologien die Möglichkeit, grundsätzlich sämtliche Inhalte ("Texte") des "Docuverse", ob es sich nun um geschriebene Sprache, Töne, Bilder, Bewegtbilder handelt, gleichzeitig vorrätig zu halten und abrufbar zu machen. Doch davon sind wir in der Praxis derzeit weit entfernt. Die Traditionen der linearen Wissensproduktion behindern die hypertextuelle Aufbereitung und Zugänglichmachung. Zum einen sind hier die Widerstände der traditionellen Wissensproduzenten wirksam, die den unumgänglichen Kontrollverlust noch nicht durch die Aufwertung neuer Qualitäten bei der Informationsaufbereitung wettmachen können. Zum anderen fehlt es noch an fundierten Kenntnissen, wie existierende, linear angeordnete Texte, für hypertextuelle Anwendungen aufbereitet werden können. Umgekehrt ist auf seiten der Benutzer die Fähigkeit zum aktiven Informationsretrieval noch nicht sehr entwickelt. Unser Bildungssystem ist noch viel zu sehr an einer faktenvermittelnden, "von oben nach unten" - orientierten Wissensvermittlung und vorwiegend an fixen Lehrinhalten und "richtigen" Antworten angelehnt. Hier werden ganz generell die okzidentalen Werte von Wissen, Wissensvermittlung und Bildung wirksam. Es fehlt grundsätzlich an der Akzeptanz von "flüchtigen", nur elektronisch vorhandenen Informationen als Basis zur Wissensaneignung. Oder - wie Negroponte (1995, S. 74) es ausdrücken würde - alles, was nicht in Form von Atomen auf tote Bäume gepreßt ist, ist nicht wirklich "wahr". Und auch auf der Seite der Wissensproduzenten haben elektronische Produkte noch nicht den Stellenwert, wie eben ein geschriebenes Buch oder ein publizierter Artikel. Neben informationskulturellen und intellektuellen Dimensionen sowie Defiziten im Wissen um die konkrete Anwendung, sind für diese Gegebenheiten auch - vielleicht sogar vordergründig dominierend - infrastrukturelle und technologische Bedingungen ausschlaggebend. Solange Übertragungsraten noch zu wünschen übrig lassen, solange Informationssuche nach deren Dauer "verrechnet" wird und solange das Urheberrecht noch an "fertigen" Produkten orientiert ist, solange werden diese Bedingungen die oben festgestellten Defizite und Hindernisse fördern. Allerdings bin ich der Meinung, daß umgekehrt, die rein technologische und infrastrukturelle Realisierung eines breitbandigen, weltweit verbundenen elektronischen Kommunikationsnetzwerkes, ohne im gleichen Ausmaß auch die inhaltlichen, intellektuellen und kulturellen Dimensionen mitzuberücksichtigen, zu keiner befriedigenden, also sozial gerechten und ausgewogenen Einführung bzw. Anwendung dieser neuen Technologien führen wird.

Während wir auf der Ebene der Distribution bereits ein gesellschaftspolitisches Erkennen der Problematik feststellen können, was sich in Konzepten wie "universal access" und "open service" ausdrückt, fehlt auf der Ebene der Produktion und der Konsumtion jegliche Vorstellung, wie die inhaltlichen Konzepte von Hypertextualität und Nicht-Linearität dort umgesetzt werden könnten.

Wie bereits ausführlich dargestellt, werden die Grenzen zwischen Produktion und Konsumtion eines Texts in hypertextuellen Umgebungen aufgelöst. Die Rolle eines Textproduzenten, eines Autors, eines Informationsanbieters ist weitreichenden Veränderungen unterworfen, die von der Produzentenseite nicht nur erkannt, sondern auch durch die Herausbildung neuer Qualifikationen und die Stärkung von tatsächlich wissensgenerierenden Aktivitäten genutzt werden müssen. So stellt Youngblood die Herausbildung eines neuen Praktikertyps auf der Produzentenseite fest. "Simulationsmaschinen und konversationale Netzwerke konstituieren eine neue Kategorie der Medientechnik - nämlich die Metamedien. Ein Metamedium ist ein Arbeitsmittel, das zur Hervorbringung neuer Arbeitsmittel dient. Metamedien ermöglichen daher eine neue kulturelle Praxis, das sogenannte Metadesign, und bringen sogleich einen neuen Type des Praktikers hervor, den Metadesigner. Metadesigner entwickeln Kontexte, keine Inhalte.[...] Der Metadesigner schafft nur die für diese Aktivität notwendigen Voraussetzungen, er determiniert gleichwohl nicht ihre Ergebnisse" (Youngblood, 1991, S. 308ff).

Bei der traditionellen linearen Wissensproduktion war die Herstellung von Kontexten mit Wiederholungen und Redundanzen verbunden. Text 1 wird mit Wiederholungen aus Text 2 und Text 3 zu einem Text 4, der nur partiell wirklich "Neues" beinhaltet. Würden sämtliche dieser Texte in ein digitales "Docuverse", also in ein "Bitverse" - aufgenommen, so würden viele Texteinheiten identisch sein. Das widerspricht allerdings dem bereits erwähnten Xanadu-Paradigma Nelsons, welches ja Redundanzen und Wiederholungen in einem "Docuverse" ausschließt.

In einem elektronischen Hypertextsystem würde Text 1 mit jenen Originalpassagen aus Text 2 und Text 3 verknüpft sein, auf die Bezug genommen wird, ohne diese Passagen innerhalb von Text 1 zu duplizierten. Bekannte traditionelle Formen, wie direkte Zitate oder Übernahmen, die in der linearen Form noch zur Kohärenz beitragen, existieren in einer solchen Form nicht mehr.

Die neuen Qualifikationen auf der Seite der Inhaltsproduktion bestehen also in der Fähigkeit zur Entwicklung von Kontexten auf der Basis eines hypertextuellen Informationsdesigns, oder wie Youngblood es nennt, des Metadesigns.

Daneben erfährt die intellektuelle Analysefähigkeit solcher neu entstandener Kontexte eine erhebliche Aufwertung. Die Analyse, Kommentierung und Bewertung hypertextuell erzeugter Kontexte beinhalten in Zukunft das "neue Wissen". Und dieses Wissen manifestiert sich innerhalb des "Bitverse" als neue Dokumente, die wiederum durch Metadesign zu neuen Kontexten und deren Analyse führen werden.

Dabei müssen diese Analysen und Interpretationen von Kontexten in Zukunft als Informationsangebote aufgefaßt werden und haben nicht mehr den Stellenwert fertiger Produkte. In Abhängigkeit der jeweiligen Rezeptionskompetenz des zukünftigen Benutzers (Lesers, Sehers, Hörers etc.) können diese Angebote angenommen, verändert oder abgelehnt werden.

Auf der Seite der Konsumtion von Inhalten gilt es in Zukunft, die von Kuhlen als zentral erachtete Rezeptionskompetenz herauszubilden. Damit ist unser gesamtes okzidental-westliches, lineares Bildungssystem in Frage gestellt. Dieses ist noch stark von "fertigem Wissen", welches linear von oben nach unten weitergegeben wird, geprägt. Hinterfragen, das Herstellen eigener Kontexte und deren Analyse, wird erst in den obersten Bildungsetagen zum erwünschten Prinzip. Der Großteil der Bevölkerung wird nach dem Prinzip von "Antworten statt Fragen" ausgebildet. Schüler suchen nach Antworten auf vordefinierte Fragen. Die Neugier nach neuem Wissen, nach der Herstellung von eigenen Kontexten auf der Basis eigener Fragen, wird noch nicht entsprechend vermittelt. Genau dort aber liegt das Zentrum der neuen Rezeptionskompetenz. Die heute oft festgestellte Unzufriedenheit mit der Informationsüberfülle in elektronischen Netzwerken, das sich verloren fühlen inmitten des Überangebots, ist unserer Meinung nach zu einem hohen Maße damit verbunden, daß die meisten Menschen nach Antworten suchen. Sie suchen Antworten auf Fragen, die sie nicht zu stellen gelernt haben. (Maier-Rabler, 1996, 47ff)

Selbstverständlich wird die Herausbildung dieser neuen Rezeptionskompetenz auch in Zukunft zu Unterschieden auf der Basis unterschiedlicher intellektueller Prädispositionen, unterschiedlicher Zugänge und auch unterschiedlicher Bereitschaften führen. Es wird Aufgabe der zukünftigen Informationsanbieter und -produzenten sein, entsprechende Metadesigns zu entwickeln. Sie müssen sich dabei jedoch immer im Klaren sein, daß diese Designs vom Rezipienten immer durchbrochen und hinterfragt werden können.

4. Informationskulturen

Die Geschwindigkeit in der sich der beschriebene Strukturwandel in der Wissensproduktion in unterschiedlichen Ländern vollzieht, hängt auch mit dem unterschiedlichen Stellenwert von Information, Wissen und Bildung, von – wie ich es nenne – unterschiedlichen Informationskulturen ab.

Bereits die existierenden Telekommunikationsnetzwerke, deren Leistungsfähigkeit und Grad an gesellschaftlicher Durchdringung sind das Resultat informationskultureller Hintergründe. Je nachdem, ob der Zugang zu Information als individuelles Grundrecht aufgefaßt wird, welches weder durch sozio-ökonomische noch durch topographische Gegebenheiten beeinträchtigt werden soll, oder ob der Zugang zu Informationen innerhalb eines hierarchischen Systems von oben nach unten gesteuert wird, haben sich unterschiedliche Kommunikationsinfrastrukturen entwickelt.

In einer international vergleichenden Studien über den jeweiligen Stand der nationalen Pressestatistik als Indikator für eine transparente Medienpolitik haben wir herausgefunden, daß sich die einzelnen Länder diesbezüglich in Abhängigkeit von ihrer jeweilig vorherrschenden Informationskultur zum Teil erheblich unterscheiden. Zur Erklärung unterschiedlicher politischer Argumentationen und Strategien im Zusammenhang mit der Einführung der neuen Informations- und Kommunikationstechnologien sind immer wieder erstaunliche Parallelen erkennbar. (vgl. Maier-Rabler / Sutterlütti, 1992)

Generell ist davon auszugehen, daß sich das Informationsverhalten der einzelnen Benutzer in elektronischen Netzwerken ganz erheblich durch ihre jeweiligen informationskulturellen Hintergründe voneinander unterscheidet. Ebenso sind die nationalen Informationspolitiken von der grundlegenden Einstellung zu Information und Informationsfreiheit in den einzelnen Ländern beeinflußt.

Im Zusammenhang mit den neuen Informations- und Kommunikatiationstechnologien und insbesondere mit dem Konzept des digitalen Informationshighway ist allerdings davon auszugehen, daß dieses Konzept ganz wesentlich von einer anglo-amerikanischen Informationskultur geprägt ist und alleine deshalb zum Beispiel in Mitteleuropa anders gesehen, geplant und genutzt wird.

Das beginnt schon mit der unzutreffenden Übersetzung von englischen Begriffen für die deutschsprachige Diskussion. So wird zum Beispiel von der Mehrheit der Bevölkerung der Begriff "Daten" vorwiegend mit Zahlen und Ziffern assoziiert, "Information" mit kalten Fakten und der Begriff "Highway" hat mittlerweile die ökologische Konnotation eines unreflektierten Fortschrittsglaubens. Begriffe, wie "digitaler Datenhighway" oder "Informationsinfrastruktur" sind im deutschsprachigen Umfeld wenig geeignet, persönliche Betroffenheit bei den einzelnen Individuen auszulösen. Das ist mit ein Grund dafür, daß dieses wichtige gesellschaftspolitische Thema auf der eingangs beklagten abgehobenen Ebene diskutiert wird. Hier wäre sprachliche Eigenständigkeit und Phantasie gefragt. Wie wäre es mit "Wissensinfrastruktur" oder mit "elektronischem Kommunikationsraum"?

In der Folge sollen nur die drei wichtigsten Informationskulturen für den Zusammenhang mit der Diskussion der neuen Informations- und Kommunikationstechnologien kurz dargestellt werden.

Da ist die, vor allem in den USA vorherrschende, protestantisch-liberale Informationskultur. "Transparenz durch Information" ist die Voraussetzung für die instrumentelle Rationalisierung des wirtschaftlichen Lebensbereiches und folglich für jede wirtschaftliche Entwicklung ist. Die protestantisch-liberale Informationskultur in kapitalistischen Wirtschaftssystemen zeichnet sich dadurch aus, daß wirtschaftlicher Erfolg grundsätzlich nicht nur positiv ist, sondern auch nach außen transportiert wird. Reger Informationsaustausch zwischen Unternehmen und Öffentlichkeit bzw. Konsumenten beleben den Wettbewerb und zählen zum Grundinstrumentarium wirtschaftlichen Handelns. Dementsprechend werden auch politische Argumente für die "National Information Infrastructure" als Grundvoraussetzung für wirtschaftlichen Wettbewerb und Konkurrenzfähigkeit von einer breiten Basis in der Bevölkerung mitgetragen.

Im Unterschied zu der an einem wirtschaftlichen Liberalismus orientierten protestantisch-aufgeklärten Informationskultur hat sich vor allem in den skandinavischen Ländern ein an den Rechten des Individuums orientierter Liberalismus herausgebildet. Dort leitet sich der Stellenwert von Information aus dem Streben nach politischer Emanzipation des Individuums ab. Ein solches "Grundrecht auf Information für Alle" bedeutet hier die Voraussetzung für politische Kontrolle. Aufgrund der sozialdemokratischen Tradition Skandinaviens ist diese verfassungsgemäße Verankerung dort am weitesten fortgeschritten. Innerhalb einer solchen sozialdemokratisch-liberalen Informationskultur steht jedem Bürger das Recht zu, sich bei seiner kommunalen Behörde bzw. beim Staat selbst über sämtliche, ihn potentiell betreffende Entwicklungen zu informieren. Diese Informationspolitik legitimiert sich für den Staat und seine Bürger nicht aufgrund der tatsächlichen Inanspruchnahme dieser Möglichkeiten, sondern alleine durch das Wissen darum.

Dieser an den Rechten des Individuums orientierte protestantische Liberalismus hatte auch maßgeblichen Einfluß auf die Formulierung der amerikanischen Verfassung, was sich besonders im sogenannten "First Amendment" niederschlägt. Vor allem das politische Konzept von Al Gore im Zusammenhang mit der "National Information Infrastructure" entspringt einer Mischform der protestantisch-liberaler und der sozialdemokratisch-liberalen Informationskultur. Im Gegenzug für Deregulierungsmaßnahmen und Steuervergünstigungen für die Wirtschaft, die für den Aufbau dieser Infrastruktur herangezogen werden soll, muß sich diese zu den liberalen Idealen von "Universal Service" und "Open Access" für alle Amerikaner verpflichten.

In engem Zusammenhang mit protestantisch orientierten Informationskulturen hat sich auch ein aktives Informationssuchverhalten der Menschen in diesen Kulturen entwickelt. Ein Indikator dafür ist, daß zum Beispiel das gesamte Bildungswesen weniger auf die Vermittlung von Faktenwissen angelegt ist, als auf die Erziehung zur Informationssuche und die Förderung der Fähigkeit, gute Fragen zu formulieren. Diese Fähigkeiten sind eine Grundvoraussetzung für die zufriedenstellende Teilhabe am elektronischen Kommunikationsprozeß. Erst wenn die Benutzer in der Lage sind, zu definieren wonach sie suchen, steigt die Wahrscheinlichkeit für den Erfolg.

"Wissen ist Macht" bzw. "Informationen sind Macht" könnte hingegen der Leitspruch für einer katholisch-feudalistische Informationskultur sein. Informationen unterliegen hier einer strengen Hierarchie von oben nach unten. Welche Information wie nach unten weitergegeben wird, entscheiden die Informationsreichen an der Spitze der jeweiligen Informationspyramide. Es gibt kein Recht auf Information. Die Behörde entscheidet, welche Informationen an den Bürger weitergegeben werden und welche nicht. Wirtschaftlicher Erfolg ist grundsätzlich unanständig und wird aus Angst von Neidern sowohl auf der Seite des Staates als auch auf Seiten des Bürgers nicht nach außen transportiert. Informationen werden nur auf informellen Wege weitergegeben und den Zugang dazu bestimmt die Position im Hierarchiesystem.

Die Bürger sind es nicht gewohnt, aktiv nach Informationen zu suchen. Sowohl in der Schule wurde vorgegeben, welche Information wichtig ist und welche nicht, als auch bei staatlichen Einrichtungen und Unternehmen wird "oben" entschieden, welche Informationen "nach außen" gehen und welche nicht.

Selbstverständlich kommen diese Informationskulturtypen kaum mehr in ihrer Reinkultur vor. Dennoch lassen sich die einzelnen Staaten bzw. Regionen aufgrund der Dominanz des einen oder anderen Systems eindeutig voneinander unterscheiden.

Für Österreich läßt sich noch eine starke Dominanz einer katholisch-feudalistischen Informationskultur ausmachen.

© Ursula Maier-Rabler (Salzburg)

home.gif (2030 Byte)buinst.gif (1751 Byte)        Inhalt: Nr. 6


Anmerkungen:                                                                            Bibliographie/Literatur

(1) vgl. Nicholas Negroponte, Total Digital, München: C.Bertelsmann, 1995, S. 81 ff.

(2) vgl. Mansell, Robin / Silverstone, Roger (Eds.) (1996). Communication by Design. The Politics of Information and Communication Technologies. Oxford, New York: Oxford University Press.

(3) Vgl. Latzer, Michael (1997). Mediamatik - Die Konvergenz von Telekommunikation, Computer und Rundfunk. Opladen: Westdeutscher Verlag.

(4) Role of Universities in the Future Information Society – RUFIS; URL: http://www.cvut.cz/cp1250/cc/icsc/NII

(5) Krempl, Stefan (1997). Die Universität am (W)endepunkt?. Die Wiedergeburt der Hochschule im virtuellen Raum? In: telepolis. Elektronische Zeitschrift des Heise Verlags. URL am 28.9.1998: http://www.heise.de/tp/deutsch/inhalt/konf/1286/1.html

(6) vgl.: Treanor, Paul (1997). Europa ohne Universitäten? In: telepolis. Elektronische Zeitschrift des Heise Verlags. URL am 28.9.1998: http://www.heise.de/tp/deutsch/inhalt/co/2175/1.html. (Übersetzt von Florian Rötzer).

(7) Vgl. Noam, Eli (1995). Electronics and the Dim Future of the University. In: Science Magazine. August 18, 1995. URL: http://www.vii.org/papers/citinoa3.htm

(8) ebenda

(9) Vgl. Noble, David F. (1998). Digital Diploma Mills: The Automation of Higher Education. In: firstMonday. Elektronische Zeitschrift. URL: http://www.firstmonday.dk/issues/issue3_1/noble/index.html

(10) ebenda

(11) vgl. dazu Rost, Martin (1996). Wissenschaft und Internet: Zunft trifft auf High-Tech. In: Rost, Martin (Hg.): Die Netz-Revolution. Auf dem Weg in die Weltgesellschaft. Fankfurt/Main: Eichborn.

(12) Taylor, Kit Sims (1998). Higher Education: From Carft-Production to Capitalist Enterprise? In: firstMonday. Elektronische Zeitschrift. URL: http://www.firstmonday.dk/issues/issue3_9/taylor/index.html

Bibliographie/Literatur:

Bolter, David J.: Writing Space. The computre, hypertext, and the history of writing. Hillsdale, N.J., 1991

Bolz, Norbert: Zur Theorie der Hypermedien. In: Huber, Jörg / Müller, Alois Martin (Hg.): Raum und Verfahren: Interventionen. Stroemfeld/Roter Stern Verlag, Basel, Frankfurt/M., 1993, S. 17 - 27.

Flusser, Vilém: Krise der Lineraität. Benteli Verlag, Bern, 1988. (Reihe: um 9, hhg.v. G.J. Lischka)

Krempl, Stefan (1997). Die Universität am (W)endepunkt?. Die Wiedergeburt der Hochschule im virtuellen Raum? In: telepolis. Elektronische Zeitschrift des Heise Verlags. URL am 28.9.1998: http://www.heise.de/tp/deutsch/inhalt/konf/1286/1.html

Kuhlen, Rainer: Hypertext: Ein nicht-lineares Medium zwischen Buch und Wissensbank. Springer, Berlin u.a., 1991

Landow, George P.: Hypertext: The convergence of contemporary critical theory and technology. Johns Hopkins University Press, Baltimore MA, 1992.

Latzer, Michael (1997). Mediamatik - Die Konvergenz von Telekommunikation, Computer und Rundfunk. Opladen: Westdeutscher Verlag.

Maier-Rabler, Ursula (1995) Die neuen Informations- und Kommunikationstechnologien als gesellschaftspolitische Herausforderung. In: Informatik Forum, Bd.9/Nr.4, S. 157-168

Maier-Rabler, Ursula: Vom Datenhighway zur Wissensinfrastruktur. In: Medienimpulse. Beiträge zur Medienpädagogik. 1996/16, S. 42-50.

Maier-Rabler, Ursula / Sutterlütti, Erich (1992)Pressestatistik im internationalen Vergleich. Projektbericht im Auftrag des BMWF. Salzburg 1992. S.9ff

Maier-Rabler, Ursula / Sutterlütti, Erich (1996): Kommunikationsstatistik im Lichte der Neuen Informationstechnologien. In: Klaus-Dieter Altmeppen (Hg.): Ökonomie der Medien und des Mediensystems. Grundlagen, Ergebnisse und Perspektiven medienökonomischer Forschung. Westdeutscher Verlag: Opladen, 1996, S. 121-146.

Mansell, Robin / Silverstone, Roger (Eds.) (1996). Communication by Design. The Politics of Information and Communication Technologies. Oxford, New York: Oxford University Press.

Negroponte, Nicholas (1995). Total Digital, München: C.Bertelsmann, S. 81 ff.

Noam, Eli (1995). Electronics and the Dim Future of the University. In: Science Magazine. August 18, 1995. URL: http://www.vii.org/papers/citinoa3.htm

Noble, David F. (1998). Digital Diploma Mills: The Automation of Higher Education. In: firstMonday. Elektronische Zeitschrift. URL: http://www.firstmonday.dk/issues/issue3_1/noble/index.html

Role of Universities in the Future Information Society – RUFIS; URL: http://www.cvut.cz/cp1250/cc/icsc/NII

Rost, Martin (1996). Wissenschaft und Internet: Zunft trifft auf High-Tech. In: Rost, Martin (Hg.): Die Netz-Revolution. Auf dem Weg in die Weltgesellschaft. Fankfurt/Main: Eichborn.

Smith, Barbara H.: Narrative versions, narrative theories. In: Mitchell, W.J.T. (Ed.): On narrative. University of Chicago Press, Chicago, IL, 1980.

Taylor, Kit Sims (1998). Higher Education: From Carft-Production to Capitalist Enterprise? In: firstMonday. Elektronische Zeitschrift. URL: http://www.firstmonday.dk/issues/issue3_9/taylor/index.html.

Treanor, Paul (1997). Europa ohne Universitäten? In: telepolis. Elektronische Zeitschrift des Heise Verlags. URL am 28.9.1998: http://www.heise.de/tp/deutsch/inhalt/co/2175/1.html. (Übersetzt von Florian Rötzer).

Youngblood, Gene: Metadesign. Die neue Allianz und Avantgarde. In: Rötzer, Florian (Hg.): Digitaler Schein. Ästhetik der elektronischen Medien. Suhrkamp, Frankfurt/M. 1991. S. 305 - 322.


Webmeisterin: Angelika Czipin
last change 29.11.1999