Exposé »Radiotheorie reloaded«

Bearbeiten

Von Agon S. Buchholz, Dritte Iteration, 17. März 2004

Gegenstand

Bearbeiten

Im Verlags- und Publikationswesen der Moderne wurde das Paradigma verfolgt, Kohärenz, Konsistenz, Reliabilität, Informativität usw. – kurz: Qualität – könne nur in einem geschlossenen Prozess mit einer begrenzten Anzahl klar definierter Partizipanten entstehen. In Literatur und Musik stehen hierfür der geniale, aber monadische Literat und Komponist, in der Enzyklopädik der hochspezialisierte wissenschaftliche Fachautor, in der Softwareentwicklung der Arbeitsprozess eines isolierten Hackers (Kathedralen-Modell, Raymond 1999) und in der Datenverarbeitung die zentralisierte Rechenzentrumsarchitektur der 50er bis 70er Jahre. Auch die gängigen Theorien der Massenkommunikation fixieren dieses Paradigma (z.B. Maletzke 1976).

Eingebettet in die Transformationsbewegungen der Nach- oder Spätmoderne lösen sich diese Paradigmen faktisch auf. Indikatoren dafür sind fundamentale Veränderungen von Grundkonzepten der Datenverarbeitung (P2P, hier als Peer-to-Peer gelesen, z.B. Resource-Sharing und Content Distribution), der Softwareentwicklung (Basar-Modell der Open-Source-Bewegung, Raymond 1999), der geistigen Urheberschaft (virale Lizenzen von Freier Software und Open Content, Stallman et al.) sowie des Konzepts der kooperativen Autorenschaft im Erstellungsprozess von Inhalten (P2P, hier als Person-to-Person gelesen, also die so genannten Mind Projects und das Feld um Distributed Intelligence, Distributed Authoring und andere Social Software). Den vorläufigen Kulminationspunkt dieser Entwicklungen markiert wohl das Leitbild der Schwarmintelligenz (im Kontext der Robotik: Beni und Wang 1989), das sich von den begrifflichen Ursprüngen aus der Biologie über Anwendungen in der KI-Forschung auf Gesellschaft (Rheingolds Smart Mobs) und Ökonomie (Swarming Organization) bis hin zum Militär (Pods und Cluster) ausweitet.

In publizistischen Prozessen des Erstellens, Veröffentlichens und Rezipierens von Dokumenten manifestieren sich diese Wandlungen als Verschiebungen von asymmetrischen und unidirektionalen hin zu symmetrischen und bidirektionalen Formen; als Indikatoren in der digitalisierten Netzwelt sei hier nur die wachsende Bedeutung von Diskussionsforen, Mailinglisten, Annotationsmechanismen, Blogging bzw. Weblogging, der Portale des P2P-Journalismus und des WikiWiki-Prinzips erwähnt; Bibliothekare in der materiellen Welt spüren die ersten Auswirkungen dieser Drift möglicherweise am Anwachsen der grauen und grauesten Literatur sowie an der zunehmenden Revidierung und Versionisierung von Dokumenten. Wir beobachten mit dem Erstarken bidirektionaler und hochgradig interaktiver Kommunikationsstrukturen die faktische Revitalisierung emazipatorischer Medientheorien, die den Rezipienten nicht nur als Konsumenten kommerzialisierter Inhalte, sondern als gleichberechtigten Produzenten sehen (Brechts Radiotheorie ca. 1927-1932, gefolgt von Enzensbergers Medienbaukasten 1974).

Ein Teilaspekt dieser Transformationen kann am prototypischen Modell des Wissensspeichers der Moderne schlechthin, der Enzyklopädie, betrachtet werden. Nach viel skeptizistischer, fachlicher und literarischer Kritik an dem Vorhaben der Enzyklopädie hat sich diese Form seit Diderots und d'Alemberts Enycylopédie von 1751 ff. sowie den Universal- und Konversationslexika des 18./19. Jahrhunderts (Zedler 1731 ff., Brockhaus 1811 ff., Ersch und Gruber 1818 ff., Meyer 1840 ff. usw.) als faktisch anerkannte Quelle von Allgemein- und, zumindest partiell, auch wissenschaftlichem Wissen etabliert.

Gerade diese Bastion des Wissens der Moderne ist Objekt eines weltweiten Projektes, welches das Ziel verfolgt, eine Enzyklopädie zu erstellen, in einem offenen Hypertextsystem, durch einen kooperativen Publikations- und Revisionsprozess, gestützt auf die globale Informationsinfrastruktur des Internet und mit freien Inhalten. Dieses auf WikiWiki-Technologie basierende kooperative Projekt – Wikipedia genannt – tritt mit dem Anspruch an, die Brockhäuser, Meyers, Encartas und Britannicas unseres Informationsmarktes durch freie Inhalte ersetzbar zu machen.

In den bisher nur drei Jahren ihrer Existenz hat die Wikipedia die in den vergangenen rund 250 Jahren entstandene Encyclopædia Britannica mit ihren zuletzt 32 Bänden und über 75.000 Artikeln zumindest quantitativ überrundet: Das englischsprachige Mutterprojekt zählt derzeit gut 220.000 Artikel und bewegt sich damit zügig in die Dimension des Großen Brockhaus mit 260.000 Artikeln. Als nächste quantitative Zielmarke werden wohl demnächst Ersch/Grubers 167 Bände der "Allgemeinen Enzyklopädie der Wissenschaften und Künste" avisiert werden.

Bisher liegen kaum valide Aussagen über das Verhältnis von Totalitätsanspruch und Realität der Wikipedia vor; ebensowenig ist bisher bekannt, welche Bedingungen erforderlich waren – oder sein werden –, um den Anspruch, konventionelle Enyzklopädien auch in der Qualität – also sowohl Breite, Tiefe als auch Organisation/ Strukturierung des dargebotenen Wissens – einlösen zu können. Die Dimensionen der Breite und Tiefe des enzyklopädischen Wissens ließen sich beispielsweise an Hand einer repräsentativen Stichprobe durch eine komparative Inhaltsanalyse ermitteln; vergleichbare Arbeiten liegen – zumindest für den Bereich der konventionellen Enzyklopädien – bereits vor, die grundlegende empirische Methodik könnte also durch eine sorgfältige Fleissarbeit weitgehend übertragen werden.

Eine erheblich interessantere Gruppe von Fragestellungen besteht daher darin, welche Rahmenbedingungen ein derartiges Vorhaben ermöglicht haben, und welche Auswirkungen das Projekt hat, haben kann oder haben wird. Konkrete Auswirkungen auf den kommerziellen Informationsmarkt lassen sich aufgrund der erheblichen Latenz der klassischen Enzyklopädien – allein die Veröffentlichung der aktuellen 20. Auflage des Brockhaus brauchte drei Jahre, von 1996 bis 1999 – wohl noch nicht nachweisen, möglicherweise jedoch die Auswirkungen auf das inhärente Selbstverständnis der Partizipanten, die sich selbst als Wikipedianer bezeichnen.

Sind diese Wikipedianer durch Naivität, Anmaßung, Selbstüberschätzung und Hybris verblendet, oder liegt hier eine intellektuelle Emanzipationsbewegung vor, deren Akteure sich von zunehmend monopolisiertem und im Sinne von Kuhlens Venterisiserung kommodifizierten Wissen aus ihrer Heteronomie (Kant) befreien wollen? Ist diese emancipatio ein erster Schritt der Befreiung von den institutionalisierten Wissens-Vormündern aus Enzensbergers "Bewusstseins-Industrie"?

Kant fomulierte im Dezember 1784, die Ursache der selbstverschuldeten Unmündigkeit liege "nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes [...] sich seiner ohne Leitung eines anderen zu bedienen". Die Selbstbefreiung und Selbsterziehung ereignet sich durch Wissen, allerdings im Sinne einer geistigen Selbstbefreiung vom Irrtum oder vom Irrglauben (Popper 1961). Gibt es nun eine gesellschaftliche Bewegung in den Hinterzimmern der vernetzten Computeranwender, deren Partizipanten den Mut gefunden haben, ihre Fähigkeiten im Kantschen Sinne autonom zu nutzen und im Popperschen Sinne vom Irrglauben zu befreien? Welche Wissensart ist es, die dort produziert wird, in welchem Bezug steht sie zur Wissensordnung (vgl. Karlsruher Ansatz der integrierten Wissensforschung, Spinner u.a.)?

Mündigkeit und Emanzipation sind zwar ein erklärtes pädagogisches und politisches Ziel unserer Gesellschaft, dieses ist jedoch nirgends verbindlich kodifiziert. Entwickeln sich gerade, am Staats- und Bildungswesen vorbei, klammheimlich die Grundvoraussetzungen für "den Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit"? In welchem Verhältnis stehen Informiertheit und Vielwisserei zu dieser potentiellen Aufklärung? Führt das Wikipedia-Projekt zu mehr Aufgeklärtheit?

Welche Bedeutung hat hierfür der technische Faktor der so genannten Social Software und der soziologische der Virtual Communities und Smart Mobs? Ereignet sich jetzt durch Hypertextifizierung der Inhalte und und Anonymisierung der Urheber endgültig der von Barthes bereits 1968 ausgerufene Tod des Autors? Existiert durch die Informationsinfrastruktur des Internet und das darauf aufsetzende Medium des World Wide Web in Verbindung mit Social Software und Schwarmintelligenz so etwas wie ein "Kommunikationsapparat" (Brecht), der tatsächlich der Kommunikation und nicht ihrer "Verhinderung" dient, der eine "Wechselwirkung zwischen Sender und Empfänger" (Enzensberger) ermöglicht und einen emanzipatorischen Mediengebrauch unterstützt?

Terminologie

Bearbeiten

Bedeutung und Motivation

Bearbeiten

Sollte – anhand des exemplarisch ausgewählten Wikipedia-Projektes – der der indizienhafte Nachweis gelingen, dass es aufgrund veränderter technischer Voraussetzungen grossflächige intellektuelle Emanzipationsbewegungen gibt, könnte dies möglicherweise als erster Schritt hin zu einer wachsenden Mündigkeit und als Indikator eines Wandels von einer "informierten" hin zu einer "aufgeklärten" Gesellschaft interpretiert werden; in diesem Zusammenhang wäre auch zu fragen, ob die Veränderungen nicht im Rahmen einer Transformations-, sondern eher dem in einer Transitionsgesellschaft stattfinden.

Daneben könnte sich auch ein nicht nur rein ökonmomisches Erklärungsmodell für den erstaunlich erbitterten Widerstand der Kulturindustrie gegen nahezu alle P2P-Entwicklungen aufzeigen. [...]

Abgrenzung

Bearbeiten

Untersucht werden soll exemplarisch ein Teilbereich eines ausgewählten Person-to-Person- oder Social-Software-Projekts; die umfassenderen Themenkreise von P2P, virtuellen Ge-meinschaften oder Schwarmintelligenz können in unserem Zusammenhang nur angedeutet, nicht je-doch umfassend dargestellt oder im Detail elaboriert werden.

Electronic Publishing, Distributed Authoring und P2P-Journalismus (Slashdot, Kuro5hin, Indymedia etc.) können ebensowenig erschöpfend behandelt werden wie die Teilbereiche Weblogging, WikiWiki oder vergleichbare Wissens-Projekte (z.B. Everything2, H2G2, Encyclopedia aperta etc.); auch hier muss eine selektive und stark geraffte Übersichtsdarstellung gewählt werden.

Auch die offiziellen WikiMedia-Projekte – ihnen gemeinsam ist die Verwendung derselben WikiWiki-Software (genannt MediaWiki) und die Freigabe der Inhalte unter einer einer viralen freien Lizenz – können als Teilmenge des Wiki-Prinzips ebenfalls nicht erschöpfend behandelt werden. Den Schwerpunkt der Arbeit bildet das Projekt "Wikipedia", nicht die offiziellen WikiMedia-Schwesterprojekte wie Wiktionary (Wörterbuch), Wikitext (Textbücher), Wikisource (Primärquellen) oder die inoffiziellen Spin-offs wie Wikitravel (Reiseführer), Disinfopedia (Propaganda-Lexikon) oder Consumerium (Produktin-formation).

Die Arbeit beschäftigt sich schwerpunktmässig mit der deutschsprachigen Wikipedia, nicht mit dem Gesamtprojekt und dessen rund 50 verschiedenen Sprachvarianten; in einigen kleineren landesspezifischen Wikipedias existieren beispielsweise signifikante Unterschiede in der Machtstruktur und Wikiquette, die nicht Gegenstand der Arbeit sein können.

Als alternative Gesichtspunkte und Schwerpunktsetzungen könnten beispielsweise vertieft werden:

  • die soziodemographische Struktur der Wikipedianer, deren Qualifikationen und Motivationen,
  • die Handhabung und Lösung von Konflikten in der Wikipedia;
  • die Umsetzung des Hypertext-Konzepts in der Wikipedia als Form der Wissensorganisation und (re-) präsentation im Internet sowie deren Vor- und Nachteile im Vergleich zu Xipolix.net,
  • die rechtlichen Rahmenbedingungen von freiem Wissen und deren Implikationen,
  • die Qualität der Inhalte der Wikipedia, mit Hilfe einer repräsentativen komparativen Inhaltsanalyse, durch Einbeziehung der bereits länger bestehenden und ?reiferen? englischsprachigen Wikipedia und deren Vergleich mit den englischsprachigen Pendants des Informationsmarktes ? Microsofts Encarta und die digitalisierte Encyclopaedia Britannica,
  • die historische Dimension bei der Schaffung einer neuen Enzyklopädie vor dem Hintergrund früherer vergleichbarer Vorhaben wie denen von Diderot/d?Alembert, Ersch/Gruber, Zwinger usw.

Die Artikelqualität kann im Rahmen der geplanten Arbeit aufgrund der erforderlichen empirische Methodik nicht repräsentativ, sondern nur exemplarisch gemessen werden. Eine Inhaltsanalyse mit einer repräsentativen Stichprobe, die nicht nur die Tiefe eines einzelnen Artikels (wie viele Informationen enthalten die einzelnen Artikel?), sondern auch die Breite (in welchen Themenbereichen existieren Lücken?) und die Organisation/ Strukturierung (wie wird die Gesamtheit der Enzyklopädie strukturiert? Ist sie konsistent und kohärent? welche besonderen Zugänge gibt es zu den Themenbereichen? usw.) des Gesamtwerks analysiert, wäre ein eigenes, jedoch vollständig anderes Vorhaben.

All diese Betrachtungen müssen späteren fundierten und detaillierten Untersuchungen überlassen werden. Der Schwerpunkt unserer Betrachtungen ligt in der Analyse des kooperativen Publikations- und Revisionsprozesses in einem offenen Hypertextsystem ? MediaWiki ? am Anwendungsbeispiel der deutschsprachigen Wikipedia. Uns interessiert dabei im Rückgriff auf die fragmentarischen Me-dientheorien von Brecht und Enzensberger primär das emanzipatorische Potential des Projekts; dazu müssen wir die Spezifika des Wikipedia-Projekts analysieren.

Fragestellung (vorläufig)

Bearbeiten

Aus diesem Erkenntnisinteresse ergibt sich unsere Fragestellung:

"Ist das Medium World Wide Web und die dadurch ermöglichte 'Social Software' in Verbindung mit einem offenen Hypertextsystem, kooperativen Arbeitsmethoden und so genannter Schwarmintelligenz [...] das von Brecht und Enzensberger geforderte emanzipatorische Medium, das jeden Empfänger in einen potentiellen Sender umwandelt?"

Leitfragen (vorläufig)

Bearbeiten
  1. Voraussetzungen und Rahmenbedingungen.
    • Welche (technischen, ökonomischen, gesellschaftlichen und rechtlichen) Voraussetzungen sind erforderlich für das Entstehen und das Prosperieren einer kooperativ in einem offenen Hypertextsystem erstellten Enzyklopädie mit freien Inhalten?
  2. Qualitätsanspruch.
    • Welche qualitativen und quantitativen Merkmale zeichnen eine Enzyklopädie aus?
    • Dazu: Was ist (Text-) Qualität?
    • Welche Einwände der Enzyklopädiekritik sind relevant?
  3. Produktionsprozess.
    • Erfordert die Erstellung einer Enzyklopädie eine geschlossene Produktionsumgebung in einem kommerziellen Umfeld mit wissenschaftlich ausgebildeten Fachautoren?
    • Dazu: Wie sieht der Publikationsprozess bei einer konventionellen (wissenschaftlichen) Publikation aus, und in welchen Schritten verläuft er?
    • Wie offen ist dieser Prozess?
    • Kann nur durch diese Faktoren die Qualität einer hochwertigen Enzyklopädie gesichert und gewährleistet werden?
    • Wie verläuft der kooperative Publikations- und Revisionsprozess in der Wikipedia?
    • Funktioniert der Prozess, hat er Vorbilder oder eine theoretische Fundierung?
    • Welche Divergenzen und welche Kontinuitäten gibt es zwischen beiden Prozessen?
  4. Organisation und Präsentation.
    • Wie wird Wissen in einer Enzyklopädie organisiert, und wie greift der Wissenssuchende darauf zu?
    • Welche Unterschiede gibt es zwischen der Organisations- und Präsentationsstruktur zwischen einer konventionellen, sequentiellen, gedruckten Enzyklopädie und einer nichtlinearen hypertextifizierten Variante?
    • Welche zusätzlichen Veränderungen bedingt das offene Internet-gestützte Modell?
  5. Zielsetzung und Selbstverständnis.
    • Welche Ziele setzt sich die Wikipedia, welches Selbstverständnis hat sie?
    • Wie werden Ziele und Selbstverständnis kommuniziert, was davon ist explizit kodifiziert und was inhärent?
    • Wie wird die Zielsetzung eingelöst?

Arbeitstitel

Bearbeiten

Aus der vorgestellten Fragestellung können wir in Verbindung mit den genannten Leit-fragen nun einen Arbeitstitel fomulieren:

"Radiotheorie reloaded – Schaffung einer freien Enzyklopädie durch ein offenes Hypertextsystem. Eine Analyse des kollaborativen Publikations- und Revisionsprozesses der Wikipedia"

Methoden

Bearbeiten

[hier nicht wiedergegeben]

Disposition

Bearbeiten

[hier nicht wiedergegeben]

Vorläufige Grobgliederung

Bearbeiten

[hier nicht wiedergegeben]

Hinweis zum Urheberrecht

Bearbeiten

Dieser Text ist nicht Public Domain!

Bewertung

Bearbeiten

Die vorgeschlagene Themenstellung wurde abgelehnt. Kritisiert wurden vor allem folgende Punkte:

  • Der Freiheitsbegriff sein Unsinn, da jede Enzyklopädie frei sei (was zwar vom jeweiligen Freiheitsbegriff abhängt, aber so falsch ist, d.A.).
  • Der theoretische Ansatz, ausgehend von emazipatorischen Medientheorien, insbesondere Brechts Radiotheorie sei unbrauchbar, da dieser Ansatz nicht ernstzunehmen sei (auch diese Aussage ist m.E. Unsinn, d.A.).

Einige Anmerkungen zur Kritik

Alternative Vorschlag für akzeptable Themenstellung vom 15.04.2004: Publikations- und Revisionsprozesse der Wikipedia zwischen Emanzipation und Ideologie (zu schwammig, nicht bearbeitbar unter Berücksichtigung des Freiheitsaspektes und geeignete theoretische Grundlage, d.A.)

Alternativer Themenvorschlag: Exposé Möglichkeiten enzyklopädischen Wissens