3. Informationstechnische Aspekte
3. 1. Einführung und Überblick
Dieses Kapitel untersucht die Rolle der Informationstechnik bei der künstlerischen Kommunikation über das Internet, soweit die technische Infrastruktur die künstlerischen Inhalte beeinflussen kann. Letzteres erscheint insbesondere dann möglich, wenn die Technik in sozialer Hinsicht nicht neutrales Werkzeug ist, sondern von einem Akteur gezielt eingesetzt wird, um die Machtverhältnisse bzw. das Informationsgefälle zu den anderen Akteuren zu seinen Gunsten zu verändern. Technische Gestaltungsmacht schlägt in diesem Fall leicht in soziale Gestaltungsmacht um. Alle übrigen Aspekte der Informationstechnik hingegen, die inhaltsneutral sind und die Handlungsspielräume der am künstlerischen Kommunikationsprozess beteiligten Akteure weder erweitern noch verengen, sollen unberücksichtigt bleiben.
Dieses Kapitel baut auf dem vorherigen Kapitel auf und befasst sich mit der Frage, wie die dort herausgearbeiteten Machtverhältnisse zwischen den Akteuren in ihrer innovationsfördernden bzw. –hemmenden Wirkung durch die Technik verstärkt oder abgeschwächt werden können. Die technische Infrastruktur wird ihrerseits nicht als naturgegeben hingenommen, sondern als ein Werkzeug gesehen, dessen sich einzelne Akteure zur Verfolgung ihrer jeweiligen ökonomischen und ästhetischen Ziele bedienen. Die Informationstechnik beeinflusst also nicht nur die sozialen Machtverhältnisse, sondern wird auch ihrerseits von diesen Machtverhältnissen hervorgebracht und geformt. Das soll in diesem Kapitel berücksichtigt werden. Der Schwerpunkt der Darstellung liegt deshalb nicht bei einzelnen Technologien auf ihrem gegenwärtigen Entwicklungsstand, sondern bei der Rolle, die die Technik als solche bei der künstlerischen Kommunikation im Internet spielt. Wenn im Folgenden auf konkrete einzelne Technologien eingegangen wird, dann nur zu dem Zweck, übergeordnete allgemeine Gesetzmäßigkeiten hinsichtlich der Wechselwirkungen zwischen "Message" (Inhalt) und "Medium" (technischer Infrastruktur) herauszuarbeiten.
Aus dieser inhaltlichen Zielsetzung ergibt sich der Aufbau dieses Kapitels: Als roter Faden dienen die Ergebnisse des letzten Kapitels hinsichtlich innovationsfördernder bzw. -hemmender Kräfte im System der ökonomischen Austauschbeziehungen. Ein Akteur, der durch dieses (ökonomische) System in seiner Freiheit stark eingeschränkt wird, wird nach einem Mittel suchen, durch das er diese Freiheit wiedererlangen kann. Hierbei kann es sich auch um ein technisches Mittel handeln.
Die sozialen Konflikte im System der ökonomischen Austauschbeziehungen können also Anstöße zur Entwicklung neuer Technologien geben. Umgekehrt kann eine Technologie einen sozialen oder ökonomischen Konflikt lösen oder auch auslösen. Anhand verschiedener Beispiele soll untersucht werden, inwieweit Informationstechnologie künstlerische Innovationsprozesse begünstigen oder stören kann. Als Beispiele wurden mehrere neuralgische Punkte der Netzinfrastruktur ausgewählt, bei denen die Möglichkeit einer Einflussnahme auf die künstlerischen Inhalte besonders nahe liegt, da sie das Verhältnis zwischen Künstler, Zwischenhändler und Publikum unmittelbar gestalten. Diese Beispiele können zwar nicht das gesamte hochkomplexe System der technischen Internet-Infrastruktur mit all seinen Wechselbezügen darstellen, aber doch anhand einiger zentraler Schlüsselbereiche innerhalb der Wertschöpfungskette bzw. auf dem Vertriebsweg zwischen Künstler und Publikum näher beleuchten, welche strategische Funktion der technischen Infrastruktur insgesamt zukommt:
Da die Unternehmen aufgrund der technischen Waffengleichheit im Internet mit immer mehr Marketingaufwand um einen privilegierten und gut sichtbaren Platz im Netz kämpfen, haben diejenigen Technologien große strategische Bedeutung, die einen Informationsanbieter im Netz für die Rezipienten auffindbar machen. Hierbei handelt es sich einerseits um Internet-Namensräume, Suchmaschinen und Verzeichnisse sowie andererseits um intelligente Agenten. Ein weiterer Bereich mit großer strategischer Bedeutung sind die Mechanismen zur Herstellung künstlicher Knappheit: Nur so werden Finanzierungsmodelle ermöglicht, die nicht auf Werbeeinnahmen basieren. Die Darstellung soll sich hierbei nicht auf die technischen Grundlagen des Urheberrechtsschutzes wie Kryptographie und Steganographie (digitale Wasserzeichen) beschränken, sondern auch die für eine Realisierung notwendige sozial-organisatorische Infrastruktur wie etwa den DOI (Digital Object Identifier) mit berücksichtigen. Der Geschäftsverkehr im Internet - insbesondere der Transfer von Urheberrechten - wird in zunehmendem Maß automatisiert werden; dies ist ein weiterer Bereich. Und schließlich ist ein weiterer Schlüsselbereich für die werbefinanzierten Inhalte die Erfolgskontrolle mittels Statistiken bzw. Nutzerprofilen.
Damit ergeben sich für die folgende Darstellung insgesamt fünf Schwerpunkte: Namensräume und Suchmaschinen, intelligente Agenten, digitale Wasserzeichen bzw. Kopierschutz, automatisierter Geschäftsverkehr sowie Serverstatistiken und andere Marketingdaten. Diese technologischen Bereiche sollen in ihren wesentlichen Grundstrukturen dargestellt werden.
Bei jedem dieser Technologiebereiche soll zunächst angesprochen werden, welche sozialen Prozesse bzw. Konfliktfelder ihre Entstehung bedingen. Dabei ist zu klären, ob ein bestimmter Akteur von dieser Technologie besonders stark profitiert und ob es andererseits Akteure gibt, die durch diese Technologie in ihrem Handlungsspielraum eingeschränkt werden. In diesem Zusammenhang kann es von Bedeutung sein, welcher Akteur diese Technologie entwickelt bzw. implementiert. Aufschlussreich kann hierbei sein, wie die Technologie finanziert wird. Jeder dieser Technologiebereiche prägt die soziale Interaktion zwischen Informationsanbietern und –nachfragern auf einer bestimmten Stufe des AIDA-Modells. Vgl. hierzu Abbildung 6:
Namensräume und Suchmaschinen greifen auf der untersten Stufe des AIDA-Modells ein, da sie es dem Informationsanbieter erst ermöglichen, im Netz gefunden und damit wahrgenommen zu werden. Die Aufmerksamkeit, die ihm so zuteil wird, ist die erste Grundvoraussetzung für jede Art von ökonomischem Erfolg.
Auch intelligente Agenten dienen dazu, bestimmte Inhalte aus dem Netz zu selektieren und die Aufmerksamkeit bzw. die knappe Zeit der Netzteilnehmer auf diese zu fokussieren. Da sie nach bestimmten inhaltlichen Kriterien eine Vorauswahl treffen, verlassen sie bereits den Bereich der bloßen Aufmerksamkeitserregung und haben auch die Funktion, die Netzteilnehmer für die vorgeschlagenen Inhalte zu interessieren. Werbestatistiken greifen eine Stufe höher ein, wenn es darum geht, durch zielgerichtete Werbung bestimmte Konsumentenbedürfnisse zu schaffen oder das Bedürfnis nach bestimmten Informationen auszunutzen, um Werbung wirkungsvoll zu platzieren. Auf der obersten Stufe, auf der es um den konkreten Kaufabschluss geht, greifen Kopierschutztechnologien und Software für das urheberrechtliche Lizenzhandling ein. Diese Technologien machen digitale Daten zu einem knappen, handelbaren Gut.
Im Anschluss an die Darstellung der sozialen Wurzeln der Technologie soll dargestellt werden, inwieweit sie in der Lage ist, die in sie gesetzten Erwartungen zu erfüllen. Da dies von der Art und Weise abhängt, wie die Technologie realisiert wird, liegt der Schwerpunkt hier nicht auf der sozialen Seite, sondern auf der technischen Seite. Hierzu gehört auch die Frage, ob andere Akteure sich den Wirkungen der Technologie entziehen können. Dies etwa, indem sie selbst neue Technologien implementieren oder die technische Infrastruktur in ihrer Wirkungsweise sonstwie modifizieren. Ob die übrigen Akteure gezwungen werden können, sich den Wirkungen einer bestimmten Technologie zu unterwerfen, hängt in erheblichem Maß davon ab, wie groß die soziale und ökonomische Macht desjenigen Akteurs ist, der die Technologie einsetzt. Deshalb lässt sich die Frage, ob eine Informationstechnologie praktisch realisiert werden kann, nicht losgelöst davon beantworten, wer derjenige ist, der diese Technologie für seine Zwecke einsetzen will.
Schließlich soll danach gefragt werden, inwieweit von der Technologie bei ihrem konkreten Einsatz in der Praxis innovationshemmende bzw. –fördernde Kräfte ausgehen.
In einem abschließenden Vergleich sollen die Beispiele, die auf diese Weise untersucht wurden, einander gegenübergestellt werden, um mögliche Gemeinsamkeiten, die auf allgemeine Gesetzmäßigkeiten schließen lassen, herauszuarbeiten.
3. 2. Namensräume, Suchmaschinen und Indizes
Zunächst sollen die Internet-Namensräume sowie die Suchmaschinen angesprochen werden.
Ein Namensraum ist ein technisch-sprachliches Bezeichnungssystem, das die Auffindbarkeit von Informationen verbessern soll. Analog gespeicherte Informationen bezeichnet man üblicherweise, indem man sich hierfür an ihrem materiellen Träger orientiert. Im Internet muß ein derartiges Bezeichnungssystem aus Mangel an materiellen Datenträgern künstlich geschaffen werden. Technisch eindeutig wird ein (physikalischer oder virtueller) Server im Internet bereits durch eine weltweit einmalige Identifikationsnummer, die sogenannte IP-Adresse, bezeichnet. Dieses System der Bezeichnung von Servern mittels Nummern erwies sich aber in der Praxis als wenig benutzerfreundlich, da diese Nummern nur schwer einprägsam waren und es häufig zu Tippfehlern kam.
Als Reaktion auf dieses Defizit wurde der erste Internet-Namensraum unter der Bezeichnung Uniform-Resource-Locator (URL) entwickelt. Hierbei wird einer IP-Adresse eine oder mehrere URL`s zugeordnet. Eine URL bezeichnet einen Server im Netz nicht durch eine vielstellige Nummer, sondern durch eine Kombination aus alphanumerischen Zeichen, die einen kommunikativen Sinngehalt tragen und deshalb einprägsamer sind, als eine bloße Ziffernfolge. Eine URL kann allerdings nicht völlig frei aus der Fülle des menschlichen Sprachschatzes gewählt werden. Die beschränkten Möglichkeiten bei der Namenswahl resultieren teilweise daraus, dass eine URL gleichzeitig die Funktionen einer Identifikationsnummer auf der technischen Ebene und eines Namens auf der kommunikativen Ebene in sich vereint. Diese Doppelnatur beschränkt die Wahl- und Ausdrucksmöglichkeiten auf der kommunikativen Ebene: Ein Domainname muß aufgrund seiner technischen Identifikationsfunktion weltweit einmalig sein. Hierdurch werden die kommunikativen Ausdrucksmöglichkeiten gegenüber der menschlichen Sprache mit allen ihren Mehrdeutigkeiten und Gleichnamigkeiten stark eingeschränkt. Außerdem hat die Institution, die ursprünglich mit der Vergabe der URL`s betraut war, Regeln aufgestellt, die sicherstellen sollen, dass man aus der Endung einer URL auf die geographische oder inhaltliche Ausrichtung der dazugehörigen Webseiten schließen kann. Diese Regeln sind relativ starr und schränken den Spielraum bei der Namenswahl noch weiter ein.
Da diese Restriktionen von vielen Netzteilnehmern als zu eng empfunden werden, sind alternative Namensräume entstanden. Der kommerziell erfolgreichste alternative Namensraum ist das REALNAME-System. Dieses System erlaubt es dem Betreiber einer Webseite, dieser nicht bloß eine alphanumerische Zeichenkette zuzuordnen. Vielmehr kann eine beliebige Kombination von Worten und Satzzeichen gewählt werden. Es gibt so gut wie keine Konventionen bei der Namensvergabe. Während die URL eines Online-Buchladens bestenfalls "http://www.buecher.de" lauten könnte, erlaubt das REALNAME-System einen Namen wie etwa "Bücher zu Superpreisen!".
Das URL-System ist – auch aufgrund der Konkurrenz durch das Realname-System und andere Namensräume – vor kurzem reformiert worden. Die vielfältigen Beschränkungen bei der Namenswahl werden aber nach wie vor von vielen Netzteilnehmern ebenso kritisiert wie die relativ hohen Gebühren, die anfallen, wenn man eine URL registriert. Da viele staatliche und nichtstaatliche Interessengruppen nach wie vor Druck auf die Verwaltungsbehörde ICANN ausüben, ist davon auszugehen, dass sich das URL-System weiter verändern wird.
Ein Namensraum im Internet ist technisch gesehen eine (zentrale oder verteilte) Datenbank, durch die bestimmte URL`s oder REALNAMES bestimmten IP-Adressen zugeordnet werden. Wenn ein Netzteilnehmer eine URL oder einen REALNAME in die Adresszeile seines Browsers eintippt, wird zunächst eine Verbindung zur Datenbank hergestellt. Dort wird die eingegebene URL mit dem Inhalt der Datenbank abgeglichen. Bei Übereinstimmung wird der Netzteilnehmer an die entsprechende IP-Adresse weitergeleitet. Wenn ein Netzteilnehmer die URL des von ihm gesuchten Servers nicht kennt, nützt ihm die Datenbank nichts. In diesem Fall wird er sich in der Regel einer Suchmaschine bedienen. Suchmaschinen ordnen einer Webseite automatisch bestimmte Stichworte zu, die zum Inhalt der Webseite passen. Gibt ein Netzteilnehmer Stichworte in die Suchmaschine ein, werden diese mit dem Inhalt der Suchmaschinen-Datenbank abgeglichen. Der Netzteilnehmer erhält als Resultat seiner Eingabe eine Liste mit den URL`s aller passenden Webseiten. Während bei einer Suchmaschine die Zuordnung der Webseiten zu den Stichworten automatisch durch einen Zeichenfolgenabgleich erfolgt, gibt es auch von Hand erstellte Verzeichnisse von Webseiten, die im Folgenden als Indizes bezeichnet werden. Es fällt auf, wie ähnlich Namensräume, Suchmaschinen und Indizes in technischer Hinsicht sind. Tatsächlich handelt es sich um verwandte Technologien. Der hauptsächliche Unterschied zwischen Namensräumen und Suchmaschinen ist, dass eine bestimmte Zuordnung in einem Namensraum eindeutig ist, während eine Zuordnung in einer Suchmaschine in der Regel mehrdeutig ist. Deshalb können zwar mehrere Suchmaschinen-Stichwörter gleichzeitig eingegeben werden, um eine bestimmte Seite zu finden, aber nur eine Namensraum-Adresse auf einmal. Während bei der URL die technische Funktion gegenüber der kommunikativen Funktion dominiert, ist es bei einem Suchmaschineneintrag umgekehrt: Hier dominiert die kommunikative Funktion, deshalb ist die Zuordnung ähnlich unscharf und mehrdeutig wie in der menschlichen Sprache, andererseits auch benutzerfreundlicher, intuitiver, leichter emotional erfassbar. Denn die Unschärfe der menschlichen Sprache hat den Vorteil, dass sie Raum für Interpretation und damit für kreative Fortentwicklung lässt.
Demgegenüber ist ein technisches Bezeichnungssystem zwar exakt, aber gerade deshalb auch in seiner Aussagekraft begrenzt. IP-Adressen, URL`s, REALNAMES, Suchmaschineneinträge und Indizes haben miteinander gemeinsam, dass sie versuchen, das Spannungsverhältnis zwischen den gegensätzlichen Polen der technischen Adressierungsfunktion einerseits und der kommunikativen Sprachfunktion andererseits aufzulösen. Hierbei orientieren sich IP-Adressen am stärksten an der technischen Funktion. Sie haben deshalb den Vorteil größtmöglicher Exaktheit, gleichzeitig aber auch den Nachteil fehlender Benutzerfreundlichkeit aufgrund minimaler kommunikativer Aussagekraft. Deshalb sind IP-Adressen zwar die technische Grundlage aller anderen Bezeichnungssysteme, für sich allein aber keine befriedigende Lösung. URL`s orientieren sich etwas stärker am menschlichen Sprachsystem, werden aber noch immer primär durch die technische Adressierungsfunktion geprägt. Sie sind technisch weniger eindeutig als IP-Adressen, da einem (physikalischen oder virtuellen) Server mit einer IP-Adresse mehrere URL`s zugeordnet werden können. Im Gegensatz zu IP-Adressen sind sie dafür in der Lage, einen kommunikativen Sinngehalt zu tragen. Diese sprachliche Aussagekraft wird allerdings durch die Zwänge des technischen Bezeichnungssystems stark eingeschränkt. Das REALNAMES-System wurde geschaffen, um diese Defizite zu beseitigen. Es stellt deshalb im Vergleich zu den URL`s einen weiteren Schritt weg von einem technischen Adressierungssystem hin zu einem sprachlichen Bezeichnungssystem dar. Das REALNAMES-System schränkt den sprachlichen Spielraum der Benutzer nur insoweit ein, als eine bestimmte Bezeichnung eindeutig (wenn auch nicht einmalig) sein muß.
Diese Schranke fällt schließlich bei den Suchmaschineneinträgen. Diese orientieren sich primär am Sprachsystem und vernachlässigen die technische Bezeichnungsfunktion weitgehend. Ein bestimmtes Suchmaschinen-Stichwort muß weder eindeutig noch einmalig sein. Die hieraus resultierende große kommunikative Aussagekraft der Suchmaschinen-Stichworte hat als Kehrseite den Nachteil geringer Exaktheit. Das führt in der Praxis dazu, dass derjenige, der bestimmte Stichworte in eine Suchmaschine eingibt, nicht selten eine unübersehbare Flut von "Treffern" zurückerhält. Jedoch kann derjenige, der weiß, wie eine bestimmte Suchmaschine in technischer Hinsicht arbeitet, dieses Wissen nutzen um die Aussagekraft seiner Suchergebnisse zu steigern. Am extremsten orientieren sich die Indizes am Sprachsystem, sie vernachlässigen das technische System völlig. Die Qualität eines Index ist allein abhängig von der Qualität der menschlichen Arbeit, die bei der Erstellung investiert wurde. Die unterschiedlichen Prioritäten, die die verschiedenen Zuordnungssysteme in Hinblick auf den Gegensatz zwischen technischem Adressierungssystem und menschlichem Sprachsystem setzen, sind in Abbildung 7 dargestellt:
3. 2. 1. Soziale Wurzeln der Technologie
Es gibt zwei Akteure, die ein Interesse an der Technologie der Namensräume, Suchmaschinen und Indizes haben: Informationsnachfrager und Informationsanbieter.
Das Publikum als Informationsnachfrager hat ein Bedürfnis nach bestmöglicher Orientierung in der Informationsflut des Internets. Dieses Bedürfnis lässt sich kommerziell ausnutzen. Während sich Suchmaschinen, die man nur gegen ein Entgeld benutzen kann, bislang noch nicht durchgesetzt haben, lassen sich bei den bekannteren Suchmaschinen und Indizes relativ hohe Einnahmen durch Bannerwerbung realisieren – dies insbesondere, weil diese Suchmaschinen aufgrund ihrer Schnittstellenfunktion zu den meistfrequentierten Seiten im Internet gehören.
Es gibt aber nicht nur ein Bedürfnis der Informationsnachfrager nach Orientierung, sondern auch ein Bedürfnis der Informationsanbieter danach, möglichst leicht auffindbar zu sein. Je höher die Informationsflut ansteigt, desto stärker tritt dieses Bedürfnis in den Vordergrund. Ursprünglich waren die meisten Suchmaschinen so konzipiert, dass sie das Internet selbsttätig nach neuen Webseiten absuchten. Letzteres hat sich als unnötig erwiesen, da derjenige, der eine neue Webseite erstellt hat, in der Regel daran interessiert ist, dass diese so bekannt wie möglich wird und deshalb gerne bereit sein wird, selbst die Seiten bei der Suchmaschine anzumelden oder sogar einen hierauf spezialisierten Dienstleister zu beauftragen. In dem Maß, in dem die Internet-Kommunikation wirtschaftliche Bedeutung gewinnt, wird es für die Unternehmen immer wichtiger, dass die Netzteilnehmer ihre Webseiten und nicht die Seiten der Konkurrenz finden. Das hat dazu geführt, dass bestimmte URL`s oder REALNAMES einen erheblichen wirtschaftlichen Wert darstellen – das gilt insbesondere für allgemeine Produktbezeichnungen wie etwa "buecher.de" oder "books.com".
Außerdem wetteifern die Unternehmen darum, unter den entsprechenden Suchmaschinen-Stichworten leichter gefunden zu werden, als die Konkurrenz. Sie wollen ganz oben in den bereichsspezifischen Indizes stehen – oder jedenfalls weiter oben, als ihre Mitbewerber. Dieses Bedürfnis lässt sich aus Sicht der Suchmaschinenbetreiber kommerziell ausnutzen, indem sie die "wertvollen" Stichworte an den Meistbietenden verkaufen. Hieran ist problematisch, dass die Datenbanken der Suchmaschinen und die Indizes aus Sicht der Informationsnachfrager dadurch teilweise unrichtig werden: Ihnen ist bei der Benutzung der Suchdienste meist nicht klar, dass sie vorrangig denjenigen Informationsanbieter finden, der dafür gezahlt hat, dass er leicht zu finden ist. Da sie in der Regel nicht wissen, ob bzw. in welchem Umfang der Inhalt der Datenbank im Interesse bestimmter Informationsanbieter modifiziert wurde, können sie nicht auf unmodifizierte Suchmaschinen ausweichen. Zwar ist es für den Betreiber einer Suchmaschine äußerst wichtig, dass so viele Netzteilnehmer wie möglich die Suchmaschine benutzen – egal, ob er sich nun primär durch Bannerwerbung oder durch den Verkauf von Stichworten finanziert. Trotzdem können die Informationsnachfrager diese Marktmacht nicht einsetzen, um gegebenenfalls auf Suchmaschinen auszuweichen, die ihre Datenbank nicht im Interesse bestimmter Informationsanbieter modifizieren und so das Angebot an Suchmaschinen in ihrem Sinne zu beeinflussen. Denn es bleibt für sie intransparent, ob und wie der Betreiber einer Suchmaschine seine Datenbank verändert. Der Kampf der Informationsanbieter um die besten Plätze im Netz führt deshalb im Ergebnis dazu, dass die Informationsnachfrager an Entscheidungsmacht und Kontrolle über die Suchwerkzeuge verlieren.
3. 2. 2. Technische Implementierung
Die technische Implementierung soll im Rahmen dieser Arbeit nur insoweit berücksichtigt werden, wie hiervon Einflüsse auf die künstlerischen Inhalte ausgehen können. Suchmaschinen und Indizes werden stets über – zentrale oder verteilte – Datenbanken realisiert, wobei die Art und Weise der technischen Umsetzung ohne Einfluss auf den Inhalt der Datenbank ist. Allerdings folgt aus dem technischen Prinzip der Datenbank, dass stets zunächst ein Input des Benutzers erforderlich ist, bevor diesem Input ein Output zugeordnet werden kann. Deshalb gilt für Namensräume und Suchmaschinen, dass sie einen Informationstransfer im Netz von der Existenz einer konkreten Nachfrage bei einem bestimmten Netzteilnehmer abhängig machen. Eine Seite wird nur wahrgenommen, wenn sie zuvor aktiv gesucht und gefunden wurde. Dies bewirkt eine starke Nachfrageorientierung der Informationsströme im Netz. Es werden nur solche Inhalte wahrgenommen, die zuvor aktiv gesucht wurden. Wenn Inhalte so neuartig oder so schwer zu beschreiben sind, dass die Informationsnachfrager nicht die dazugehörigen Stichworte in die Suchmaschinen eingeben, dann gehen sie höchstwahrscheinlich in der Informationsflut unter.
3. 2. 3. Wirkungen auf künstlerische Inhalte
Diese technisch bedingte Nachfrageorientierung bleibt natürlich nicht ohne Einfluss auf die Möglichkeiten, das Internet als Medium für innovative Kunst einzusetzen: Der unbekannte Maler, dessen Bilder sich wegen seines unkonventionellen Stils nicht mit wenigen Worten beschreiben lassen, wird es schwer haben, ohne die Hilfe einflussreicher Zwischenhändler wie z. B. die Redakteure von Online-Zeitschriften oder virtuelle Galerien seine Werke über das Internet bekannt zu machen – selbst, wenn seine Werke wegweisend sind und einem großen Publikum auf Anhieb gefallen würden, wenn dieses sie nur zu Gesicht bekäme.
Hinzu kommt, dass die Informationsanbieter wichtige Suchbegriffe zunehmend für Geld kaufen können und deshalb wirtschaftlich mächtige Informationsanbieter leichter zu finden sind als wirtschaftlich schwache Anbieter. Die ökonomischen Kreisläufe innerhalb der Gesellschaft verzahnen sich immer enger mit den kommunikativen Kreisläufen. Einerseits bedeutet dies, dass derjenige, der innerhalb der kommunikativen Kreisläufe eine Schlüsselstellung innehat, gleichzeitig mit großer Wahrscheinlichkeit auch wirtschaftlich erfolgreich ist – durch Werbung oder sonstwie. Andererseits bedeutet wirtschaftliche Macht eine erhöhte Chance, beachtet zu werden. Damit werden Konzentrationsprozesse möglich, die vielfaltsverengend wirken können.
Allerdings lassen sich durchaus Strategien entwickeln, mit denen Kulturmanager diesen innovationshemmenden Kräften entgegenwirken können: Unbekannte Künstler müssen, um in der Informationsflut nicht unterzugehen, ein klares Profil entwickeln, das sie von anderen unterscheidbar und damit auffindbar macht. In dieser Notwendigkeit, die eigene Identität und die Unterschiede zu Anderen klar zu definieren und auf den ersten Blick erkennbar zu machen, kann auch eine Chance zur künstlerischen Innovation liegen. Wenn etablierte Begriffe und ästhetische Leitbilder von marktmächtigen Akteuren besetzt und vereinnahmt werden, kann darin auch eine Ermutigung zur Definition neuer Begriffe und neuer Leitbilder liegen.
Eine weitere Technologie zur Orientierung in der Informationsflut sind "intelligente Agenten" bzw. "Knowbots". Die wissenschaftliche Bezeichnung hierfür lautet DAI (Distributed Artificial Intelligence).
Ein intelligenter Agent übernimmt bestimmte Aufgaben der Informationssuche und –verarbeitung selbständig und trifft hierbei von allein bestimmte inhaltliche Entscheidungen, die die Person, die sich des Agenten bedient, wegen des damit verbundenen Zeitaufwandes oder der hohen Komplexität der Materie auf den Agenten delegiert hat. Eine mögliche Aufgabe für intelligente Agenten wäre beispielsweise der Kauf eines von seinem "Meister" benötigten (geringwertigen) Produkts nach einem Preisvergleich aller diesbezüglichen Angebote im Internet. Der Mensch, der sich des Agenten bedient, muß lediglich das Ziel vorgeben, das der Agent erreichen soll. Den Weg zum Ziel hingegen soll sich der Agent selbst suchen, wobei ihm auch Wissen zur Verfügung stehen kann, dass sein Betreiber nicht hat. Man kann diese Agenten deshalb als einen Versuch bezeichnen, die der Informationstechnik immanente Komplexität wiederum durch Technik in den Griff zu bekommen.
Das ist eine schwierige, wenn nicht gar unmögliche Aufgabe, da die Aneignung von Wissen und die Erweiterung des eigenen Horizonts keine delegierbare Arbeit wie Wasserschöpfen ist. Charakteristisch für intelligente Agenten ist, dass sie über einen längeren Zeitraum von einem bestimmten Benutzer eingesetzt werden. Diese längerfristige Beziehung ermöglicht es dem Agenten, Wissen über den Benutzer zu akkumulieren. Dieses Wissen kann er dann bei der Interpretation der Benutzereingaben heranziehen, um im Idealfall besser als der Benutzer selbst zu wissen, was dieser will. Ein intelligenter Agent könnte auch langfristig das Verhalten des Benutzers im Netz beobachten und die hieraus ermittelten Interessen eines Benutzers mit den Interessen der anderen Benutzer abgleichen, um Inhalte zu ermitteln, die den Benutzer wahrscheinlich interessieren würden, wenn er von ihrer Existenz wüsste. Wenn sich die meisten Benutzer, die sich für ein bestimmtes Stück Wissen oder ein bestimmtes Produkt interessieren, erfahrungsgemäß auch für ein anderes Stück Wissen oder Produkt interessieren, dann wird der Agent einem Benutzer, von dem er weiß, dass dieser das erste Produkt gekauft hat und das zweite Produkt nicht kennt, dieses zweite Produkt vorschlagen.
Der Agent versucht also anhand der Interessen aller Benutzer übergeordnete kontextuelle Muster zu erkennen, die unterschiedliche Inhalte miteinander verbinden. Dabei ist es durchaus denkbar, dass der Agent kontextuelle Muster findet, die man nur bei einer Gesamtbetrachtung aller demoskopischen Benutzerdaten erkennen kann und die einem einzelnen Menschen selbst dann nicht auffallen würden, wenn er über ein großes Maß an Menschenkenntnis verfügt und jahrelange Erfahrung darin hat, die Interessen einer bestimmten Person einzuschätzen. In diesem Fall würde der Agent über ein Wissen verfügen, das kein einzelnes menschliches Individuum besitzt. Eine derartige längerfristige Beziehung zwischen Suchendem und Suchwerkzeug gibt es bei den oben untersuchten Suchmaschinen nicht: Hier bleibt der Benutzer anonym, das Suchergebnis hängt allein von seiner Eingabe ab. Im Zentrum der Suchmaschine stehen die Inhalte, im Zentrum des Agenten der Nutzer. Hierin besteht ein grundsätzlicher Unterschied zwischen Suchmaschinen und Agenten.
Intelligente Agenten sind eine relativ neue Technologie, die sich derzeit größtenteils noch in der Entwicklungsphase befindet. Ein praktisches Beispiel für ihren Einsatz ist WBI ("Webby"), ein Dienst von IBM, der den Netzteilnehmern neue Webseiten vorschlägt, die ihnen unbekannt sind, aber für sie von Interesse sein könnten. Um diese Webseiten zu ermitteln, beobachtet "Webby" das Surfverhalten der Netzteilnehmer und schließt von ihren vergangenen Interessen auf mögliche zukünftige Interessen.
Ein weiteres, zunächst sehr erfolgreiches aber dann überraschenderweise nicht mehr fortgeführtes Beispiel war "Firefly", eine Online-Gemeinschaft von Mitgliedern, die mittels Agenten-Technologie über mögliche Gemeinsamkeiten informiert wurden. Anwendungsbeispiele für intelligente Agenten finden sich ferner im Bereich der Finanzanalyse, der Systemregelung (etwa Verteilung von Netzwerkkapazitäten) und bei Computerspielen (simulierte Lebewesen).
3. 3. 1. Soziale Wurzeln der Technologie
Auch diese Technologie nützt potentiell sowohl den Informationsanbietern wie auch den Informationsnachfragern.
Intelligente Agenten kommen dem Interesse der Netzteilnehmer an einem möglichst benutzerfreundlichen Internet entgegen. Dieses Nachfragepotential von Seiten des Publikums ist aber nicht das entscheidende Stimulans für die Entwicklung dieser Technologie: Intelligente Agenten sind als Technologie zu komplex und in ihrer konkreten Funktionsweise für den Normalbenutzer zu intransparent, als dass die Nachfrage nach ihnen durch das breite Publikum die Art und Weise, wie die Technologie konkret ausgestaltet wird, wesentlich beeinflussen könnte. Es liegt in der Natur der Sache, dass derjenige, der eine Technologie benutzt um sein Informationsdefizit zu kompensieren, dieser blind vertrauen muß.
Forciert wird die Entwicklung intelligenter Agenten vielmehr durch die Informationsanbieter, die ihre Inhalte möglichst übersichtlich und benutzerfreundlich darbieten wollen, um ihren Kunden die Auswahl so leicht wie möglich zu machen. Die hohe Komplexität des Internets gilt als Wachstumshindernis bei seiner Entwicklung zu einem globalen Marktplatz. Deshalb versuchen die Unternehmen, die in die Schaffung dieses Marktplatzes investieren, die Komplexität für den normalen Netzteilnehmer so gering wie möglich zu halten. Es handelt sich also bei intelligenten Agenten primär um eine Marketingtechnologie, nicht um eine Technologie zur Erhöhung der Markttransparenz auf Verbraucherseite. Die Interessen von Anbietern und Verbrauchern sind jedoch keineswegs völlig gegensätzlich: Da beide Seiten ein Interesse an einem gut organisierten und benutzerfreundlichen Informationsmarkt haben, kann diese neue Technologie durchaus beiden Seiten Vorteile bringen. Allerdings darf die Gefahr nicht übersehen werden, dass die Verbraucher sich hier möglicherweise blind einer Technologie anvertrauen, die für sie völlig intransparent ist und von Seiten der Anbieter beliebig manipuliert werden kann. Ähnlich wie beim Verkauf von Stichworten in Suchmaschinen droht auch hier die Informationsinfrastruktur dadurch umgeformt zu werden, dass wirtschaftlich mächtige Anbieter sich einen Vorsprung vor ihren kleineren Konkurrenten erkaufen wollen.
3. 3. 2. Technische Implementierung
Die technische Implementierung intelligenter Agenten ist unterschiedlich. Während ein Teil auf einer starren Zuordnung von Begriffen in Datenbanken basiert und deshalb eine gewisse Ähnlichkeit zu den oben angesprochenen Suchmaschinen aufweist, soll sich die folgende Darstellung auf solche Agenten konzentrieren, die auf neuronalen Netzen basieren.
Neuronale Netze sind Computerprogramme, die der Struktur des menschlichen Hirns nachempfunden sind. Die Neuronen im menschlichen Gehirn gehen bestimmte synaptische Verbindungen ein, wenn ein Mensch Erfahrungen macht und lernt, bestimmte Dinge miteinander zu assoziieren. Auf ähnliche Weise entstehen zwischen den verschiedenen Teilen der Software mit der Zeit Beziehungen, die zwar die mittelbare Folge eines Ereignisses in der Außenwelt sind, in ihrer konkreten Form aber nicht gezielt eingegeben worden sind. Die Software ist also in der Lage, aus "Erlebnissen" zu "lernen" und "Erfahrungen zu machen". Ähnlich, wie es im menschlichen Hirn bestimmte "Assoziationspfade" gibt, die mehrere Begriffe miteinander verbinden, gibt es auch innerhalb eines neuronalen Netzes "Kontextpfade". Wenn das neuronale Netz immer wieder mit Benutzern konfrontiert wird, die ein Interesse an zwei bestimmten, voneinander unabhängigen Informationen oder Produkten zeigen, bildet sich mit der Zeit ein Kontextpfad zwischen diesen beiden Informationen oder Produkten heraus. Nach einiger Zeit ist das neuronale Netz in der Lage, den nächsten Interessenten des einen Produkts selbständig auf das andere Produkt hinzuweisen, ohne dass der Zusammenhang zwischen beiden Produkten von einem Menschen beobachtet und gezielt in die Software eingegeben wurde.
Dieses technische Prinzip hat den Vorteil, dass vom System auch solche Beziehungen zwischen mehreren Begriffen erfasst werden, die keinem Menschen auffallen. Da das System sein Wissen aus den Erfahrungen, die es in der Vergangenheit gemacht hat, bezieht, impliziert dieses technische Prinzip zwangsläufig eine eher rückwärtsgewandte Sicht. Einmal ausgetretene Trampelpfade in einem Park werden oft selbst dann immer weiter benutzt und noch tiefer ausgetreten, wenn sie eigentlich inzwischen einen Umweg darstellen und nicht mehr den kürzesten Weg. Dies einfach nur, weil sie da sind und viele Leute sie kennen. Ähnlich drohen einmal eingeschliffene Kontextpfade in einem neuronalen Netz von allein immer stärker zu werden: Da das System die Benutzer direkt oder indirekt auf diese Kontextpfade verweist, lädt es geradezu dazu ein, die bisherige Praxis fortzusetzen. Die Konsumentengruppen zweier Produkte, zwischen denen das neuronale Netz eine Verknüpfung hergestellt hat, werden also mit großer Wahrscheinlichkeit miteinander verschmelzen: Das neuronale Netz sorgt von selbst dafür, dass sich seine eigene Prognose erfüllt, indem es bereits vorhandene Entwicklungstendenzen aktiv immer weiter verstärkt. Das wirkt insoweit vielfaltsverengend, als von der Norm abweichende Verhaltensmuster nicht vom neuronalen Netz registriert und reproduziert werden. Ein neuronales Netz ist eher schlecht geeignet, um ungewöhnliche Handlungsalternativen abseits vom Mainstream aufzuzeigen. Es ist deshalb auch eher schlecht geeignet, um beispielsweise das Publikum auf einen unbekannten Künstler hinzuweisen. Denn es orientiert sich am Erfolg in der Vergangenheit, nicht am unausgeschöpften Potential für die Zukunft.
Intelligente Agenten können nicht nur - wie dargestellt - als Werkzeug zum Auffinden von Informationen dienen, sondern theoretisch auch Preisvergleiche durchführen und ökonomisch optimale Geschäftsabschlüsse selbständig tätigen. Jedoch muß man bedenken, dass bei der Abbildung von Geschäftsbeziehungen und Verhandlungsprozessen durch die Agententechnologie nur die objektiv-rationale Seite dieser Beziehungen und Prozesse berücksichtigt wird, während die subjektiv-kulturelle Seite unberücksichtigt bleibt. Geschäfte abschließen, das heißt auch verhandeln, kommunizieren, anpreisen und feilschen. Ein Geschäftsmann muß bei seinen Verhandlungspartnern Vertrauen wecken und langfristige Beziehungen aufbauen. Die scheinbare Rationalität betriebswirtschaftlicher Kalkulationen verleitet zu einer derartigen Vernachlässigung. Jedoch ist das Rationalitätsideal der Ökonomie selbst eine subjektive Idee, es ist in einen höchst subjektiven kulturellen Kontext eingebettet, dem es entstammt. Nur innerhalb dieses subjektiv-kulturellen Zusammenhangs ist dieses Rationalitätsideal sinnvoll und verständlich. Deshalb könnte es sich als gefährlicher Irrtum erweisen, wenn man es für selbstverständlich hält, dass sich die ökonomischen Prozesse durch eine unvollkommene technische Abbildung aus ihrem kulturellen Kontext lösen lassen.
3. 3. 5. Wirkungen auf künstlerische Inhalte
In gewissem Maß können intelligente Agenten den Netzteilnehmern durchaus die Orientierung und die Auswahl bestimmter Inhalte erleichtern, allerdings droht hierbei die Gefahr eines Kontrollverlustes: Wenn die Netzteilnehmer nicht wissen, nach welchen Kriterien der Agent die Inhalte auswählt, können sie die Qualität des vom Agent gelieferten Ergebnisses nicht beurteilen. Sie müssen ihm blind vertrauen. Der Mensch muß die Maschine steuern, nicht umgekehrt. Nur wenn die Netzteilnehmer die Arbeitsweise des Agenten verstehen und nachvollziehen können, nach welchen Kriterien er bestimmte Inhalte auswählt, kann der Agent die ihm zugedachte Aufgabe erfüllen und den Netzteilnehmern einen einfacheren Überblick über das Inhaltsangebot im Internet ermöglichen. Bleibt hingegen der Agent für seine Benutzer eine "black box", kann er ihnen nicht dabei helfen, einen besseren Überblick über die Vielzahl vorhandener Inhalte im Netz zu erhalten. Sie müssen vielmehr kritiklos akzeptieren, was er ihnen vorsetzt. Wenn es allerdings gelingt, die Arbeitsweise des Agenten transparent zu machen und die Inhaltsanbieter die Agententechnologie nicht als verstecktes Marketinginstrument nutzen, kann diese ein wichtiges Werkzeug sein, um die Informationsnachfrager über die gesamte Bandbreite vorhandener Inhalte zu informieren. Dadurch werden im Idealfall auch künstlerische Inhalte ins Blickfeld des Publikums gerückt, deren Existenz nicht allgemein bekannt ist, weil sie nicht zum Mainstream gehören. Innovative Kunst würde hierdurch gefördert.
3. 4. Infrastruktur zur Erzeugung künstlicher Knappheit
Eine Technologie mit massiven Auswirkungen auf die künstlerischen Inhalte im Netz ist die Infrastruktur zum Schutz von Urheberrechten – also die Infrastruktur zur Erzeugung künstlicher Knappheit im digitalen Bereich. Diese Technologie ist derzeit erst bruchstückhaft implementiert, wird aber in raschem Tempo aufgebaut. Um das Internet als Vertriebskanal für publikumsfinanzierte Inhalte nutzen zu können, muß aus Sicht der Medienindustrie gewährleistet werden, dass die internetspezifischen Probleme der beliebigen Weiterverbreitbarkeit und Manipulierbarkeit digitaler Daten gelöst werden. Die Informationsanbieter müssen also in die Lage versetzt werden zu verhindern, dass ihre Kunden zu Konkurrenten werden, indem sie die Werke selbst (entgeltlich oder unentgeltlich) weiterverbreiten. Hierdurch wird erst die künstliche Knappheit digitaler Daten ermöglicht, die Grundlage einer Preisbildung ist. Künstliche Knappheit in ihrer Extremform – der Beschränkung auf ein "Unikat" oder eine sehr kleine limitierte Auflage – ermöglicht erst die Entstehung eines Sammlermarktes für digitale Kunst.
Die Infrastruktur zum Schutz von Urheberrechten im Netz ist keine zentralistische, einheitlich konzipierte Top-Down-Technologie. Die Aufgabe, künstliche Knappheit digitaler Daten zu erzeugen, ist so komplex und vielschichtig, dass kein einzelner Akteur in der Lage ist, eine perfekte Lösung "aus einem Guss" anzubieten. Ähnlich wie auch die übrige Netzinfrastruktur dezentral und evolutionär entwickelt wird, besteht auch die Infrastruktur zur Erzeugung künstlicher Knappheit aus verschiedenen Bausteinen, die zwar jeweils für sich allein funktionsfähig und vermarktbar sind, aber ineinander greifen und sich gegenseitig ergänzen.
Eine derartige dezentrale Bottom-Up-Lösung hat den Vorteil, dass einzelne Schwachstellen im System durch einen evolutionären, marktwirtschaftlich stimulierten Entwicklungsprozess verbessert werden können, ohne dass dabei die gesamte übrige Infrastruktur angepasst oder gar neu konzeptioniert werden muß. Jeder Hard- oder Softwarehersteller hat die Freiheit, selbständig neue Bausteine für diese Infrastruktur zu entwickeln. Diese Bausteine konkurrieren nach den Gesetzen der Marktwirtschaft miteinander darum, ein möglichst zentraler Teil der Infrastruktur zu werden. Ebenso, wie sich die sonstige Kommunikationsinfrastruktur des Internets mit all ihren Hard- und Softwarebestandteilen nicht vollständig darstellen lässt, lässt sich auch kein vollständiger Überblick über alle Lösungsansätze zum Schutz von Urheberrechten im Netz geben. Es können aber immerhin einzelne Komponenten herausgegriffen werden, die derzeit als besonders wegweisend erscheinen. Anhand dieser ausgewählten Komponenten kann herausgearbeitet werden, wie sich das technologische Gesamtsystem auf die sozialen Machtverhältnisse zwischen den verschiedenen Akteuren auswirkt und vor allem, wie es sich auf die künstlerischen Inhalte im Netz auswirkt.
Man muß hierbei im Auge behalten, dass es nicht Zweck dieser Technologie ist, das geltende juristische Urheberrecht in seiner Gesamtheit durchzusetzen. Zweck der Technologie ist es vielmehr, den Inhaltsanbietern eine weitestmögliche Kontrolle über die Verbreitung und Vervielfältigung ihrer Produkte auch dann zu geben, wenn sie bereits in den Besitz des Endverbrauchers gelangt sind. Sieht das geltende Recht Beschränkungen der Urheberrechte im Interesse der Allgemeinheit, also z. B. für Forschungseinrichtungen, Schulen, öffentliche Bibliotheken o. ä. vor, ist keineswegs selbstverständlich, dass diese auch in der Technologie abgebildet werden. Deshalb handelt es sich bei der Kopierschutzproblematik um ein technisches, nicht um ein juristisches Problem.
3. 4. 1. Soziale Wurzeln der Technologie
Primäre Aufgabe dieser Technologie ist es, die beliebige Vervielfältigung, Weiterbearbeitung und Verbreitung digitaler Daten zu verhindern. Es liegt deshalb auf der Hand, dass sie in ihrer Entwicklung ausschließlich von dem Vermarktungsinteresse der Informationsanbieter stimuliert wird. Im Interesse des Publikums scheint sie hingegen nicht zu liegen: Dessen Handlungsfreiheit wird eingeschränkt, da es die digitalen Werke nicht mehr beliebig verändern oder weitergeben kann. Außerdem wird die Wahrnehmung digitaler Daten kostenpflichtig. Da bestmöglicher Informationszugang in zunehmendem Maß eine Voraussetzung für den beruflichen bzw. wirtschaftlichen Erfolg ist, kann eine derartige Kapitalisierung der Geisteswelt dazu führen, dass sozial Schwachen die Möglichkeit genommen wird, ihre wirtschaftliche Lage durch eigene Anstrengung zu verbessern. Das erscheint deswegen besonders ungerecht, weil Information in digitaler Form ja an sich beliebig verfügbar ist und ihre Knappheit erst mit großem Aufwand künstlich hergestellt werden muß. Außerdem wird die Freiheit eines jeden Menschen, sich zu bilden und für Kunst zu interessieren, als ein persönlicher Bereich betrachtet, der – wenn überhaupt - nur sehr begrenzt von seiner wirtschaftlichen Macht abhängen darf. Es ist deshalb nicht verwunderlich, dass der gesamte Problemkomplex der digitalen Urheberrechte ein heißes Thema in der öffentlichen Diskussion ist. Viele Netzteilnehmer fordern, dass die Interessen der Informationsanbieter an einer optimalen wirtschaftlichen Verwertung der Kunst hinter den Interessen des Publikums an einem bestmöglichen Informationszugang zurücktreten müssen.
Bei näherer Betrachtung lässt sich das Problem der Vor- und Nachteile künstlicher Knappheit aber nicht auf einen Interessenkonflikt mit klaren Fronten zwischen Informationsanbietern und Publikum reduzieren, es ist weitaus komplexer: So ist keineswegs selbstverständlich, dass es tatsächlich im Interesse der Zwischenhändler liegt, dem Publikum den Zugang zu künstlerischen Inhalten zu erschweren: Es wurde bereits ausgeführt, dass die Nachfrage nach Information im Gegensatz zur Nachfrage nach materiellen Nutzgegenständen nicht naturgegeben ist, sondern ein Vorwissen voraussetzt. Deshalb werden Computerprogramme häufig nicht nur verkauft, sondern gleichzeitig auch in einer eingeschränkten Sharewareversion kostenlos vertrieben. Hierdurch lernen die Endverbraucher das Programm kennen und entwickeln eine Nachfrage nach der vollständigen, kostenpflichtigen Version. Es gibt auch noch viele andere Beispiele dafür, dass es für Unternehmen aus der Softwarebranche lohnend sein kann, ihre Produkte zu verschenken, um auf diese Weise Standards zu setzen. Im Extremfall verschenken die Firmen sogar vollwertige Produkte, wie beispielsweise Microsoft und Netscape ihre Browser. Die Firma Sun bietet sogar ein vollwertiges Office-Paket zum kostenlosen Download über das Internet an. Das nichtkommerzielle Betriebssystem Linux stellt mittlerweile eine ernsthafte Konkurrenz zu Windows da. Geld versuchen die Firmen, die auf diese Weise kostenlose Software verteilen, dann mit dem technischen Support und der Schulung der Mitarbeiter zu verdienen. Der Erfolg solcher Geschäftsstrategien scheint – jedenfalls auf den ersten Blick - für die oben erörterten Thesen von GOLDHABER zu sprechen: Man kann in dem Erfolg dieser Geschäftskonzepte Beispiele dafür sehen, dass nicht die Kontrolle über das geistige Eigentum, sondern dessen weitestmögliche ungehinderte Verbreitung zum wirtschaftlichen Erfolg des Urhebers führt. Demnach wäre die Errichtung einer Infrastruktur zur Erzeugung künstlicher Knappheit im Internet selbst aus Sicht der Zwischenhändler nachteilig – erst recht natürlich aus Sicht des Publikums und der Künstler.
Aber auch die Interessenlage des Publikums ist keineswegs so eindeutig, wie es auf den ersten Blick scheint. Kurzfristige positive Folge einer Beseitigung des Urheberrechts wäre der ungehinderte Zugang des Publikums zu allen existierenden Inhalten. Möglicherweise wäre aber die langfristige negative Folge, dass bestimmte neue Inhalte nicht mehr geschaffen werden, weil ihre Herstellung ohne künstliche Knappheit nicht mehr finanzierbar ist. Dem lässt sich entgegenhalten, dass Publikumsfinanzierung ja schließlich nicht die einzige mögliche Finanzierungsform ist; die Werbefinanzierung gewinnt in allen Massenmedien eine immer größere Bedeutung. Man muß sich allerdings fragen, ob es bestimmte, vom Publikum gewünschte Inhalte gibt, die sich nicht als Umfeld einer Werbebotschaft eignen und deshalb auch nicht auf diesem Wege finanziert werden können. Außerdem ist keineswegs gesagt, dass das Werbefinanzierungsmodell ohne Urheberrecht auskommt. Schließlich verkauft hier der Inhaltsproduzent dem Werbetreibenden das Recht, die Werbebotschaft mit dem kommunikativen Inhalt zu verbinden. Das kann er nur, wenn er als Einziger über dieses Recht disponieren kann. Wenn jeder beliebige Dritte den kommunikativen Inhalt kopieren könnte, um ihn mit einer anderen Werbebotschaft zu verbinden und so als Konkurrent des Inhaltsproduzenten aufzutreten, würde der Werbemarkt zumindest teilweise zusammenbrechen. Wer viel Geld in die Entwicklung einer Werbekampagne steckt, wird verhindern wollen, dass die Konkurrenz die besten Slogans oder die graphische Konzeption klaut, denn gerade bei Werbung geht es ja um Abgrenzung von der Konkurrenz.
In vielen werbefinanzierten Bereichen wie etwa dem Privatfernsehen lässt sich beobachten, dass der Markt für Rechte eine immense Bedeutung erlangt hat – dies zwar nicht im Verhältnis zum Publikum, aber im Verhältnis der konkurrierenden Inhaltsanbieter untereinander. Bei einer vollständigen Abschaffung des Urheberrechts müsste das Publikum weitgehend also auch auf werbefinanzierte Inhalte verzichten. Da die Werbung immer zielgruppenspezifischer wird, ist es zudem keineswegs selbstverständlich, dass werbefinanzierte Inhalte für jeden - und nicht nur für die umworbene kaufkräftige Zielgruppe - verfügbar sind. Aus der Sicht der Werbetreibenden könnte es einen unerwünschten Streuverlust darstellen, und imageschädigend sein, wenn nicht nur die exklusive umworbene Zielgruppe, sondern jedermann Zugang zu den Inhalten erhält.
Das ist aber nicht der einzige Gesichtspunkt, der dafür spricht, dass eine technische Infrastruktur zur Erzeugung künstlicher Knappheit dem Publikum nicht nur schadet: Das Publikum profitiert vom Urheberrecht auch insoweit, als es ihm durch die Verhinderung von Plagiaten die klare Zuordnung eines bestimmten Werks zu einem bestimmten Autor ermöglicht. Das kann dann von Bedeutung sein, wenn es um entscheidungsrelevante Fachinformationen geht, die verlässlich und richtig sein müssen. Bei Kunst spielt diese Zuordnung eine geringere Rolle, wenn man einmal vom Sammlermarkt absieht, auf dem die bloße Herkunft eines Kunstwerks eine wertbildende Eigenschaft sein kann. Aber auch außerhalb des Sammlermarktes kann das Publikum ein ideelles Interesse daran haben, zu wissen, ob ein bestimmtes Werk von einem bestimmten Künstler kommt, oder nicht.
Näher untersucht werden muß auch, inwieweit die Künstler von einer technischen Infrastruktur zur Erzeugung künstlicher Knappheit profitieren würden. Auf den ersten Blick scheint dies selbstverständlich zu sein, da das Urheberrecht ja gerade bezweckt, die finanziellen und ideellen Interessen der Urheber zu sichern. Jedoch muß gefragt werden, ob das Urheberrecht von Seiten der anderen Akteure – insbesondere von Seiten der Zwischenhändler – benutzt werden kann, um den Künstler durch vertragliche Vereinbarungen zu fesseln. Es sind durchaus Fallkonstellationen denkbar, in denen dem Künstler selbst eher an der weitestmöglichen Verbreitung seiner Werke als an kurzfristigen finanziellen Einkünften gelegen ist, da er sich einen größtmöglichen Bekanntheitsgrad erarbeiten will. Aber der Zwischenhändler, auf den der Künstler zur Verbreitung seiner Werke angewiesen ist, wenn er diese Aufgabe nicht mit der nötigen Professionalität selbst übernehmen kann, könnte ihm ein Finanzierungsmodell aufnötigen, das hohe Preise für das Publikum und rigide Kontrolle des Informationsflusses vorsieht. Unter diesen Umständen würde der Künstler zwar wegen des hohen Preises, den das Publikum zahlen muß, relativ hohe Einnahmen pro Exemplar erhalten, aber wegen der hohen Zugangsschwelle nur ein kleines Publikum erreichen und deshalb eher unbekannt bleiben. In derartigen Fallkonstellationen nützt die künstliche Knappheit digitaler Daten dem Künstler nicht, sondern schadet ihm eher.
Die Interessenlage der Zwischenhändler ist hingegen relativ eindeutig, da sie ihre ökonomische Grundlage verlieren, wenn jeder beliebige Dritte ohne jeden Arbeitsaufwand zum Konkurrenten werden kann, indem er ihre Inhalte vervielfältigt und diese an das Publikum oder an konkurrierende Werbetreibende verkauft. Es liegt auf der Hand, dass eine vollständige Abschaffung des Urheberrechts nicht in ihrem Interesse ist. Jedenfalls kurzfristig gesehen bedeutet für sie jede Lockerung der Kontrolle über das geistige Eigentum einen finanziellen Verlust, da ihnen hierdurch Gewinn entgeht.
Es wurde aber bereits oben angesprochen, dass eine rigide Kontrollinfrastruktur auch Nachteile für die Zwischenhändler haben kann. Diese Nachteile sind allerdings eher langfristig und zudem schwerer zu bilanzieren, als die kurzfristigen Vorteile: Durch eine engmaschige Kontrollinfrastruktur droht sich auf Dauer das Marktverhalten des Publikums zu ändern, da sein Wissens- und Bedürfnishorizont enger wird. Es wurde bereits ausgeführt, dass eine Nachfrage nach bestimmten kommunikativen Inhalten nicht von Natur aus besteht, sondern voraussetzt, dass das Publikum eine konkrete Vorstellung von den Inhalten und ihrem spezifischen ästhetischen Wert hat. Das gilt besonders im Internet, da hier aufgrund der technischen Infrastruktur und aufgrund der gewaltigen Informationsmenge nur solche Inhalte wahrgenommen werden, die aktiv und gezielt nachgefragt werden. Deshalb kann eine engmaschige Kontrollinfrastruktur dazu führen, dass das Publikum ein geringeres Bedürfnis nach jeder Art von Kunst hat und insbesondere weniger offen für neuartige Inhalte ist.
Kunst unterscheidet sich in wirtschaftlicher Hinsicht auch insoweit von anderen (materiellen) Gütern, als auf der Welt eine praktisch unendliche Menge verschiedener Kunstwerke existiert und zwischen zwei verschiedenen Kunstwerken niemals ein völlig eindeutiges qualitatives Stufenverhältnis besteht. Jedes Kunstwerk hat seine eigene spezifische ästhetische Qualität, die genau so kein anderes Werk hat. Wie wertvoll ein bestimmtes Kunstwerk im Vergleich zu den anderen ist, ist bis zu einem gewissen Grad Geschmackssache und eine Frage des persönlichen Standpunkts, der veränderlich ist. Deshalb kann ein bestimmtes Kunstwerk – anders als ein materieller Nutzgegenstand – vom Publikum auf längere Sicht durch ein anderes Werk substituiert werden, falls die Hürden zu seiner Wahrnehmung von den Zwischenhändlern zu hoch gesteckt werden. Wenn die Informationsanbieter den Zugang zu den Werken durch ein rigides technisches Kontrollsystem erschweren, kann dies langfristig dazu führen, dass das Publikum das Interesse an den schwer zugänglichen Inhalten verliert und auf kostenlose Inhalte ausweicht. Ein Kunstwerk ist kein Gegenstand, der losgelöst von seiner Umwelt existiert, sondern ein lebendiges Stück Kommunikation. Zu seiner Existenz braucht es nicht nur den Künstler, sondern auch ein Publikum. Den Wert, den ein Kunstwerk hat, hat es nicht als absoluten Wert von sich aus, sondern nur in den Augen seines Publikums. Deshalb verliert das Kunstwerk seinen Wert, wenn das Publikum nicht mehr bereit ist, ihm diesen zuzuerkennen. Man darf nicht vergessen, dass es unbegrenzt viele kostenlose Inhalte im Netz gibt, auf die das Publikum ausweichen kann. Da viele Menschen von sich aus das Bedürfnis haben, schöpferisch tätig zu sein, wird das auch immer so bleiben. Kontrolle und Zwang eignen sich deshalb nur bedingt als Mittel, um ein ökonomisches System zur Finanzierung von Kunst funktionsfähig zu halten.
Die Entstehung einer Lesekultur durch preiswerte Bücher, einer Theaterkultur durch staatlich subventionierte Karten u. s. w. ist die notwendige Grundlage für den Verkauf exklusiver literarischer Sammlerausgaben und teurer Festivalkarten. Der Erhalt einer derartigen Kultur liegt im gemeinsamen Interesse aller Zwischenhändler. Ein Anbieter, der auf kurzfristige Gewinnmaximierung verzichtet und die finanzielle Zugangsschwelle zur Kunst für das Publikum senkt, nützt damit folglich langfristig gesehen nicht nur sich, sondern dem Kunstmarkt insgesamt, also auch seiner Konkurrenz. Deshalb besteht die Gefahr, dass die Inhaltsanbieter die eben ausgeführten langfristigen, schwer kalkulierbaren Faktoren mit Bezug auf den gesamten Kunstmarkt hinter ihr eigenes kurzfristiges Interesse an Gewinnmaximierung zurückstellen und das technische Kontrollsystem so weit wie möglich verschärfen. Das alte Dilemma der Betriebswirtschaft – der Konflikt zwischen langfristigen, gemeinwohlbezogenen, schwer kalkulierbaren Größen und kurzfristigen, leicht kalkulierbaren Größen, die nur das einzelne Individuum betreffen – klafft auch hier wieder auf.
Falls die gesetzlichen Schranken des Urheberrechts nicht hinreichend sind oder in der Praxis nicht implementiert werden, könnte es also zu einem Marktversagen kommen. Allerdings haben Informationsanbieter stets ein großes Interesse an Eigenwerbung, das sie vermutlich motivieren kann, ihre Informationen zu einem großen Teil auch kostenlos zu verbreiten. Die juristischen Schranken des Urheberrechts gibt es nicht nur aus sozialen Erwägungen, ein gewisses Maß an freiem Informationsfluss und ein großer Schatz an gemeinfreiem kulturellen Gut ist im Interesse ökonomischer Nachhaltigkeit vernünftig. Wer den gemeinsamen Sprachschatz in proprietäre Stücke aufteilt, verhält sich ähnlich wie ein Bauer, der sein Saatgut verkauft: Im Interesse kurzfristiger Profitmaximierung handelt er langfristig unvernünftig.
Der Kunstmarkt kann aber nicht nur unter einem zu engmaschigen Kontrollsystem, sondern umgekehrt auch unter einem Fehlen jeder Kontrollmöglichkeit leiden. Ein moderater Schutz der Urheberrechte nützt nicht nur dem einzelnen Informationsanbieter, sondern auch dem Kunstmarkt insgesamt: Wenn digitale Kunst aufgrund fehlender Durchsetzbarkeit des Urheberrechts beliebig kopiert und weiterverbreitet werden kann, führt dies zu einer Überschwemmung des Marktes mit fast oder ganz kostenlosen Werken. Das Publikum kann frei unter einer gewaltigen Bandbreite qualitativ hochwertiger Kunst auswählen, ohne hierbei groß nachdenken zu müssen. Eine derartige beliebige Verfügbarkeit von Kunst kann bewirken, dass diese ihren Wert in den Augen des Publikums verliert. Wenn Kunst allgegenwärtig und kostenlos ist, dann kann das auch zu einer allgemeinen Reizüberflutung führen. Wenn Kunst beliebig verfügbar ist, kann das dazu führen, dass sie nicht mehr ernst genommen wird und dass das Publikum seine Bereitschaft verliert, sie bewusst auszuwählen und sich innerlich auf sie einzustellen.
Ein Beispiel dafür, dass Kunst zu ihrer Entstehung ein gewisses Maß an kontrollierter Knappheit braucht, ist das Internet selbst, das in seinem gegenwärtigen Zustand ja durchaus als ein globaler Feldversuch zur Vermarktung beliebig vervielfältigbarer Kunst angesehen werden kann. Zwar hat der Vertrieb von Büchern und CDs über das Internet inzwischen beachtliche Dimensionen erreicht, es ist aber auffällig, dass das Internet als Medium für Kunst selbst bislang keine Bedeutung erlangt hat, die von der Reichweite her mit klassischen Massenmedien vergleichbar ist. Es gibt zwar eine eigenständige "Netzkunst", aber sie hat bislang keine große Breitenwirkung. Das Netz ist in allererster Linie kein Medium, sondern ein Distributionskanal für materielle Datenträger, also Bücher und CDs. Zwar gibt es zahlreiche diesbezügliche Versuche, die sich in der Regel über Werbeeinnahmen finanzieren. Dennoch bevorzugt das Publikum kostenpflichtige – aber deswegen auch sorgfältig selektierte - Inhalte offenbar selbst dann, wenn es die ganze Informationsflut des Internets als kostenlose Alternative zur Verfügung hat.
Ein Überangebot kann einen Markt ebenso zerstören, wie zu strenge Kontrollmechanismen. Und zerstört wird dabei nicht nur der Markt, sondern auch die Nachfrage nach Kunst in ihrer außerökonomischen Komponente – also die Bereitschaft, zuzuhören und sich auf etwas Fremdes einzulassen.
Wer ein Kunstwerk erwirbt, will damit machen können, was er will. Er will kein undurchschaubares Regelwerk beachten müssen, das ihn dabei einschränkt. Er will die Freiheit haben, seinen Freunden seine Bücher oder Platten zu leihen. Er will die Freiheit haben, ein Foto oder sogar einen Song seiner Lieblingsband auf seine private Homepage zu tun. In beiden Fällen hat er nicht das Gefühl, hierdurch dem Künstler zu schaden.
Und selbst, wenn jemand ein Kunstwerk nicht erwirbt, sondern sich eine Raubkopie erstellt, hat er dabei meist kein Unrechtsbewusstsein. Schließlich entsteht dem Künstler im Einzelfall kein nennenswerter Schaden. Im Alltag kann man beobachten, dass der Besitz von Raubkopien und der legale Besitz nicht zwei gegensätzliche Alternativen sind, die einander ausschließen. Wer sich bei seinen Freunden viele ihrer CDs auf Kassetten kopiert, hat oft selbst eine große CD-Sammlung. Die Raubkopie weckt also häufig erst das Bedürfnis nach dem Besitz des Originals – vor allem dann, wenn das Original gegenüber der Raubkopie einen Mehrwert hat, der beispielsweise in der besseren Klangqualität oder in dem CD-Cover bestehen kann. Deshalb hat derjenige, der eine Raubkopie erstellt, häufig nicht das Gefühl, sich damit gegen den Kauf des Originals entschieden zu haben.
Es ist daher nur konsequent, wenn künstliche Knappheit digitaler Daten für den normalen Netzteilnehmer nicht unbedingt notwendig und legitim erscheint. Im Verhältnis zwischen der Firma, die das Kunstwerk auf den Markt bringt und dem Publikum erscheint es als einseitiges Machtinstrument der wirtschaftlich ohnehin stärkeren Firma. Einleuchtender sind Beschränkungen des freien Informationsflusses da schon, wenn es um das Verhältnis mehrerer Firmen untereinander geht: Dass es die wirtschaftliche Existenz der Künstler gefährden würde, wenn jedermann das Recht hätte, ein Kunstwerk ohne Vertrag mit dem Künstler beliebig oft kommerziell zu vervielfältigen und damit Handel zu treiben, leuchtet ein. Künstliche Knappheit wird vom Publikum am ehesten dort als legitim empfunden, wo es den Künstler vor Ausbeutung durch Firmen schützt. Sie wird dort als illegitim empfunden, wo es die Firmen davor schützt, dass sich das Publikum selbst Kopien für den Eigenbedarf macht.
Die Grenze zwischen diesen beiden Fällen lässt sich bei den herkömmlichen Medien deutlich ziehen, da die technischen Möglichkeiten zur Vervielfältigung für den normalen Endverbraucher in quantitativer und qualitativer Hinsicht beschränkt sind. Da es diese Beschränkung bei digitalen Daten nicht gibt, verschwimmt im Internet allerdings die Grenze zwischen privater und gewerblicher Raubkopie. Die Frage, wie Öffentlichkeit und Nichtöffentlichkeit, private Kopie und Raubkopie, Massenkommunikation und Individualkommunikation voneinander abzugrenzen sind, ist langfristig gesehen die große Schlüsselfrage des Urheberrechts im digitalen Zeitalter. Das Publikum erlebt Vervielfältigungs- und Weiterverbreitungsverbote alles in allem wohl überwiegend als einen unnatürlichen Zwang, den es wegen seiner wirtschaftlich schwachen Stellung von den Inhaltsanbietern einseitig aufdiktiert bekommt.
Aus dieser alltäglichen Erfahrung heraus ist wohl das häufig vorgebrachte Argument geboren, dass die Konzeption des Urheberrechts an sich mit dem Grundgedanken der Marktwirtschaft unvereinbar wäre, da es dem Künstler ein monopolartiges Recht an seinem Werk verleiht. Allerdings ist ein Kunstwerk nicht nur ein wirtschaftliches Gut, sondern auch ein Stück menschlicher Kommunikation mit starkem Bezug zur Geisteswelt. Schon allein hierdurch ließe sich ein Monopol des Künstlers rechtfertigen: Schließlich ist allgemein anerkannt, dass jeder von uns frei ist, die Bedingungen zu bestimmen, unter denen seine Urlaubsfotos oder Briefe (wenn überhaupt) in der Öffentlichkeit auftauchen sollen. Ein Kunstwerk kann für den Künstler mindestens ebenso persönlich sein. Er lässt sich bei der Entscheidung, ob und wie er seine Werke vermarkten will, anders als ein Monopolist oft nicht allein von wirtschaftlichen Erwägungen leiten: Nicht jeder, der nicht all sein Hab und Gut zum betriebswirtschaftlich gebotenen Preis auf dem Markt feilbietet, ist ein Monopolist, er kann auch außerökonomischen Motiven folgen.
Man kann aber bezweifeln, ob das Urheberrecht überhaupt zutreffenderweise mit einem Monopol verglichen werden kann. Das wäre dann der Fall, wenn ein Kunstwerk sich nicht in einer Konkurrenzsituation mit anderen Kunstwerken befinden würde und derjenige, der das Urheberrecht an ihm hat, aus diesem Grund den Preis beliebig nach oben treiben könnte. Tatsächlich befinden sich aber die meisten Kunstwerke in einer wirtschaftlichen Konkurrenzsituation mit ähnlichen Werken. Das Recht des Verlegers, über die Höhe einer Buchauflage entscheiden zu können, unterscheidet sich in wirtschaftlicher Hinsicht nicht von dem Recht eines Pulloverherstellers, die Stückzahl, in der ein bestimmter Pullovertyp gefertigt wird, zu bestimmen – in beiden Fällen handelt es sich nicht um Monopole. Von einem Monopol könnte man allerdings möglicherweise in Hinblick auf die starke Stellung der Verwertungsgesellschaften in Deutschland sprechen.
Aufgrund der zunehmenden Bedeutung des Marketings könnte man sich allerdings fragen, ob Kunst im digitalen Zeitalter auch weiterhin ein knappes und damit handelbares Gut sein muß, um finanzierbar zu sein. Ermöglicht nicht die Attraktion, die ein Kunstwerk auf das Publikum ausübt, es dem Künstler, durch Werbeeinnahmen hinreichend Gewinn zu erzielen? Sind Zahlungen durch das Publikum überhaupt noch erforderlich? Auf lange Sicht gesehen würde Kunst durch Werbefinanzierung für das Publikum nicht billiger, da der Preis für die Kunst auf den Preis des beworbenen Produkts aufgeschlagen werden müssten. Das Publikum würde allerdings hierbei jede Möglichkeit verlieren, das Angebot an künstlerischen Inhalten durch seine Nachfrage zu steuern: Manche Inhalte eignen sich besser als Werbeträger, andere schlechter. Kunst unterscheidet sich von der bloßen Unterhaltung dadurch, dass sie die Möglichkeit in Kauf nimmt, nicht um jeden Preis zu gefallen, sondern die Konfrontation mit dem Publikum riskiert. Zwar ist nicht auszuschließen, dass Kunst auch dann als Werbeträger fungieren kann, wenn sie unbequem und nicht affirmativ ist, aber es wäre doch etwas pauschal, wenn man die Werbefinanzierung für das gesamte Spektrum künstlerischer Botschaften gleichermaßen geeignet hielte. Es gibt jedenfalls Künstler, die ihre Werke nicht durch Werbung finanzieren möchten. Ebenso möchte jedenfalls ein Teil des Publikums die Freiheit haben, ein Kunstwerk ohne dazugehörige (versteckte oder offensichtliche) Werbung wahrzunehmen.
Kopierschutzmechanismen haben die positive gesellschaftliche Funktion, dass sie demjenigen eine Alternative zur Werbefinanzierung bietet, der eine solche Alternative möchte. Kopierschutzmechanismen erweitern so die Handlungsspielräume und Wahlmöglichkeiten von Künstler und Publikum. Dort, wo Werbefinanzierung von allen Beteiligten gewollt und ökonomisch sinnvoll ist, wird es früher oder später ein werbefinanziertes Produkt auf dem Markt geben und das Publikum wird dieses Produkt bevorzugen, da es nicht zu unnötigen Zahlungen bereit ist. Wo dies nicht der Fall ist, werden durch Zahlungen des Publikums Inhalte finanziert, die allein durch Werbung nicht wirtschaftlich überleben könnten. Auf diese Weise helfen Kopierschutzmechanismen dabei, das Angebotsspektrum an künstlerischen Inhalten am Markt zu vergrößern und ermöglicht so Innovation. Diese zusätzliche Alternative stellt für das Publikum einen langfristigen Gewinn da. Während also die Inhaltsanbieter kurzfristig von einem strikten Urheberrecht profitieren, langfristig aber von einer Lockerung, ist es beim Publikum genau umgekehrt: Es profitiert kurzfristig von einem lockeren Urheberrecht, langfristig von dessen Durchsetzung.
Der Künstler tritt in zwei Rollen auf: Einerseits vermarktet und verwertet er seine eigenen Werke, andererseits benutzt er bei seinem Schaffensprozess unter Umständen fremde Werke, auf denen er aufbaut.
Kurzfristig gesehen profitiert er in finanzieller Hinsicht von möglichst strikten Kopierschutzmechanismen, da diese ihm die wirtschaftliche Verwertung seiner Werke erleichtert. Das Urheberrecht, das durch den Kopierschutz durchgesetzt wird, ist aber nicht nur eine Einnahmequelle, sondern vor allem auch eine Selbstbestimmungsfreiheit. Die Freiheit, zu entscheiden, ob wo und wie ein Kunstwerk der Öffentlichkeit angeboten wird, ermöglicht erst viele spannende Kulturmanagementstrategien. Für Undergroundkünstler ermöglicht das Urheberrecht sogar erst die Freiheit, ihr gutes Image zu wahren und sich der Kommerzialisierung zu entziehen, indem sie verhindern, dass ihre Werke in einen allzu profanen Kontext gestellt werden. Andererseits können Kopierschutzmechanismen auf längere Sicht auch in wirtschaftlicher Hinsicht ungünstig für den Künstler sein, da sie den Verbreitungsgrad seiner Werke beschränken und sich somit nachteilig auf seine Bekanntheit und auf seinen Marktwert auswirken. Aber es ist eben nicht jeder Künstler an einer maximalen Breitenwirkung interessiert, viele profitieren langfristig mehr von einem kleinen exklusiven Publikum.
Ob künstliche Knappheit für einen bestimmten Künstler in finanzieller Hinsicht eher nützlich oder eher schädlich ist, hängt in hohem Maß davon ab, wie das Verhältnis zwischen ihm und dem Zwischenhändler, der seine Werke vertreibt, aussieht: Wenn die Interessen von Künstler und Zwischenhändler weitgehend deckungsgleich sind – etwa, weil sie personenidentisch sind oder weil die Geschäftsbeziehung zwischen ihnen sehr langfristig angelegt ist – wird der Zwischenhändler bei seiner Vermarktungsstrategie auch das langfristige Interesse des Künstlers, sich einen bestimmten Ruf aufzubauen, berücksichtigen. Er wird ihm deshalb ein hohes Maß an künstlerischer Freiheit lassen und auch sonst alles tun, um seinen Bekanntheitsgrad zu steigern. In diesem Fall profitiert der Künstler tendenziell eher von künstlicher Knappheit. Allerdings wird der Zwischenhändler bei einer langfristigen Beziehung versuchen, den Künstler vertraglich an sich zu binden, damit dieser nicht gerade dann zur Konkurrenz abwandert, wenn sich die Mühen der Aufbauphase schließlich lohnen und er so bekannt geworden ist, dass er beginnt, das Geld, das in ihn investiert worden ist, wieder einzuspielen. Ein unbekannter Künstler muß aufgrund seiner geringen Verhandlungsmacht praktisch jeden Vertrag, der ihm vorgelegt wird, akzeptieren. Deshalb könnte er durch eine dauerhafte vertragliche Bindung, die er in der Frühphase seiner Karriere eingeht, um die späteren Früchte seiner Tätigkeit gebracht werden. Diese Problematik ist allerdings eine Frage des juristischen Urheberrechts, die technische Infrastruktur wirkt sich insoweit nicht aus.
Wenn die Interessen von Künstler und Zwischenhändler allerdings gegenläufig sind und die Beziehung zwischen ihnen eher kurzfristig ist, droht das Urheberrecht zu einem Machtinstrument des Zwischenhändlers gegen den Künstler zu werden. Der Zwischenhändler ist in der Regel wirtschaftlich stärker und kann dem Künstler deshalb Verträge aufnötigen, die dessen Freiheit sehr weit einschränken. Dann liegt es nahe, dass der Zwischenhändler inhaltlich Einfluss auf den künstlerischen Schaffensprozess nimmt, um durch maximale Marktorientierung möglichst bald maximalen Gewinn zu machen. Darunter kann dann der Ruf des Künstlers leiden; sein langfristiges Interesse droht ins Hintertreffen zu geraten. Seine Werke könnten farbloser, glatter, kommerzieller werden, wenn er sein Publikum nur erreicht, solange jedes seiner Werke profitabel ist. Je rigider die technische Schutzinfrastruktur ist, desto unmittelbarer wird der wirtschaftliche Erfolgsdruck, der auf den Zwischenhändlern lastet und den diese an die Künstler weitergeben. eine weitestmögliche Einschränkung des freien Informationsflusses bewirkt, dass nur solche Inhalte wahrgenommen werden, die zuvor gekauft wurden. Das vergrößert die Macht des Zwischenhändlers, da nur er durch professionelles Marketing den Verkauf sicherstellen kann. Je weniger kulturelles Gemeingut frei kopierbar und verbreitbar bleibt, je schwieriger es wird, als unkommerzieller Künstler ein Publikum zu erreichen, desto größer wird der Zwang auf künstlerische Inhalte, sich als Produkte am Markt zu behaupten. Können sie das nicht, verschwinden sie völlig aus dem öffentlichen Bewusstsein.
Die technischen Schutzmechanismen beeinflussen das Verhältnis zwischen Künstlern und Zwischenhändlern auch deshalb, weil sie von den Zwischenhändlern dazu verwendet werden könnten, den Machtverlust gegenüber den Künstlern zu kompensieren, den diese durch die Digitalisierung der Medien erlitten haben: Zwar braucht man im Internet kein Kapital, um ein Kunstwerk zu vervielfältigen und zu vertreiben, aber es ist keineswegs gesagt, dass jeder Künstler auch in der Lage ist, den urheberrechtlichen Schutz seiner Werke selbst durchzusetzen. Wenn die wirtschaftlich mächtigen Inhaltsanbieter den Zugang zur urheberrechtlichen Schutzinfrastruktur auf monopolartige Weise kontrollieren, könnten sie dies ausnutzen, um kleineren Anbietern den Zugang zum Markt zu erschweren oder den Künstlern ihre Vertragsbedingungen aufzudiktieren. Im Ergebnis kann man damit sagen: Ob ein Kopierschutz dem Künstler in finanzieller Hinsicht mehr nützt, als ein weitgehend freier Informationsfluss, hängt davon ab, wie die Beziehung zwischen Künstler und Zwischenhändler aussieht. Ist die Beziehung langfristig-kooperativ, wird der Künstler in der Regel eher von einem hohen Maß an Kontrolle profitieren. Ist die Beziehung eher kurzfristig, kann dem Künstler dagegen an einem möglichst freien Informationsfluss gelegen sein, da das Gewinnstreben des Zwischenhändlers ihn sonst zu einer Kommerzialisierung zwingen könnte. Es ist in diesem Zusammenhang von großer Bedeutung, wie das Verhältnis Künstler-Zwischenhändler juristisch ausgestaltet ist.
Gerade bei digitaler Kunst ist es keineswegs selbstverständlich, dass ein Künstler sein Werk originär aus dem Nichts heraus schafft. Da sich digitale Daten leicht weiterbearbeiten lassen, hat die Digitalisierung der Massenmedien eine neue Kultur des Sampelns und Verfremdens entstehen lassen, in der ein Kunstwerk nicht nur vom Publikum konsumiert wird, sondern auch anderen Künstlern als Ausgangsbasis für ihre eigenen Werke dient. Dabei ist es von größter Bedeutung, welches Maß an künstlicher Knappheit durch die Schutzmechanismen implementiert wird: Ein Zuviel an Kopierschutz bedroht hier den künstlerischen Schaffensprozess selbst. Innerhalb gewisser Grenzen ist es durchaus ästhetisch, moralisch und juristisch legitim, wenn ein Künstler sein Werk auf anderen Werken aufbaut: Ein Kunstwerk entsteht immer aus einer bestimmten Kultur heraus; um verständlich zu sein, muß es sich stets einer bereits vorhandenen Formensprache bedienen. Nur durch seine Ähnlichkeit mit bereits Vorhandenem ist sein spezifisch neuartiger Inhalt überhaupt erkennbar.
Deshalb muß sich ein Künstler ganz zwangsläufig bereits vorhandener Werke bedienen, um Neue zu schaffen. Das juristische Urheberrecht gestattet es deshalb, dass der Künstler die geistige Substanz vorhandener Werke bis an die Grenzen des Plagiats als Rohmaterial für neue Werke nutzt. Was aber, wenn ihn die technischen Schutzvorrichtungen nun aber über diese Grenzen hinaus daran hindern, die digitalen Daten, in denen sich diese geistige Substanz manifestiert, als Rohmaterial für neue Werke zu verwenden? Kunst würde in diesem Fall zu einem kapitalintensiven Geschäft. Nur derjenige Künstler, der die finanziellen Mittel hätte, um die technischen Schranken auf legale Weise zu überwinden und sich die benötigten Rechte einzukaufen, könnte die Daten als Ausgangsmaterial für seine eigenen Werke nutzen. Eine derartige Kapitalisierung des künstlerischen Schöpfungsprozesses würde natürlich jede Innovation lähmen. Es liegt auf der Hand, dass es im Interesse künstlerischer Innovation nicht von der Kapitalkraft eines Künstlers abhängen darf, ob er vorhandene Werke anderer Künstler als Rohstoff für seine eigene schöpferische Leistung verwenden kann, oder nicht. Auch für die Firmen würde die Produktion eines neuen Werkes teurer werden. Es liegt also keineswegs im langfristigen Interesse der Kulturwirtschaft insgesamt, dass die Produktion neuer Werke durch ein rigides Kopierschutzregime verteuert wird.
Andererseits kann auch hier ein zuwenig an Kopierschutz ebenso lähmend wirken: Wenn digitale Daten beliebig manipuliert und plagiiert werden könnten, würde dem Künstler die Möglichkeit genommen, sein Werk an das Publikum oder an Werbetreibende zu verkaufen, da die Konkurrenz durch die Plagiatoren die Preise verderben würde. Auch wäre er nicht mehr in der Lage, sich einen Ruf aufzubauen, da man ein bestimmtes Werk nicht mehr einem bestimmten Künstler zurechnen könnte. Vor allem aber würde das Kunstwerk ohne jeden urheberrechtlichen Schutz seine Identität, seine Grenze nach außen verlieren und Teil eines einheitlichen Breis aus ästhetischen Versatzstücken werden – viele Künstler haben nicht nur ein materielles, sondern auch ein ästhetisches Interesse daran, dass markante Stellen ihrer Werke nicht in unbeschränktem Maß gesampelt und weiterverwendet werden dürfen.
Auch hinsichtlich der Weiterbearbeitung eines Kunstwerks durch andere Künstler gilt also, dass Innovation am besten durch die richtige Balance zwischen Kontrolle und freiem Informationsfluss gefördert werden könnte. Auch hier gilt allerdings, dass eine derartige Balance zwar im Interesse der Kunstbranche insgesamt liegt, aber der einzelne Informationsanbieter jedenfalls auf kurze Sicht seinen Gewinn dadurch maximieren kann, dass er den Informationsfluss so weit wie möglich einschränkt. Es besteht deshalb auch hier die Gefahr, dass die technisch erzeugte künstliche Knappheit den Künstlern mehr schadet, als dass sie ihnen nützt.
3. 4. 2. Technische Implementierung
Es gibt eine große Zahl unterschiedlicher Konzeptionen, wie künstliche Knappheit im Internet mittels technischer Hilfsmittel erzeugt werden kann.
Viele dieser Konzeptionen basieren auf Kryptographie, also auf Verschlüsselung von digitalen Daten. Alle Kryptographietechniken haben als Ausgangspunkt den Grundgedanken, dass man digitale Daten unlesbar machen kann, indem man mathematische Operationen mit ihnen durchführt, bei denen ein Teil der Operanden nicht aus dem verschlüsselten Datensatz selbst stammt. Diese Operanden bezeichnet man als Datenschlüssel. Wer die Daten wieder lesbar machen will, muß die Operationen rückgängig machen, das geht nur, wenn man alle Operanden einschließlich des Datenschlüssels kennt. Es kann sehr schwierig sein, die Operanden zu ermitteln, die nicht zum verschlüsselten Datensatz gehören. Wenn allerdings derjenige, der die Daten entschlüsseln will, über einen wesentlich leistungsfähigeren Computer verfügt als derjenige, der die Daten verschlüsselt hat, kann er den Code knacken, indem er alle möglichen Operanden und mathematischen Operationen "durchprobiert". Um einen Code zu knacken, muß man also ein technisches Wettrüsten gegen denjenigen gewinnen, der die Daten codiert hat. Da die Computer immer leistungsfähiger werden, sind Codes, die vor ein paar Jahren noch sicher waren, heute leicht zu brechen. Bereits das lässt an der Eignung von Kryptographie als Mittel zum Urheberrechtsschutz zweifeln: Es ist angesichts der rasanten Steigerung der Rechenkapazitäten derzeit schwer zu prognostizieren, ob Kryptographie wirklich sicher sein kann. Am ehesten scheint ihr Einsatz dort aussichtsreich, wo die Verschlüsselungstechnik nicht nur als Software existiert, sondern fest in der Hardware einschließlich der Ein- und Ausgabegeräte verankert wird. Denn die Hardware ist unzugänglicher und schwerer zu manipulieren, als die Software. Aber auch Hardware ist manipulierbar.
Es gibt aber noch einen weit durchschlagenderen Einwand, der gegen die Eignung kryptographiebasierter Technologien als Mittel zur Durchsetzung des Urheberrechts spricht: Sind die Daten erst einmal entschlüsselt und in analoger Form sinnlich wahrnehmbar gemacht, sind sie nicht mehr vor Raubkopierern geschützt. Da die Daten entschlüsselt werden müssen, um wahrnehmbar gemacht zu werden, kann man aus einem Vergleich zwischen den codierten Daten und den entschlüsselten Inhalten leicht den Schlüssel herausrechnen. Die Geheimdienste drängen zudem darauf, die Verwendung starker Kryptographie durch Firmen und Privatleute zu reglementieren. Wegen all dieser Unsicherheitsfaktoren ist es schwer, die tatsächliche Realisierungschance derartiger Technologien einzuschätzen. Kryptographie eignet sich deshalb eher, um Vervielfältigungen im kleineren Maßstab durch den privaten Rezipienten zu verhindern; professionelle Raubkopierer hingegen, die in großem Maßstab tätig sind, werden den Code meist relativ einfach knacken können. Das Urheberrecht erfüllt seine ökonomisch und ästhetisch sinnvolle Funktion nach der hier vertretenen Auffassung aber nicht in erster Linie im Verhältnis zum Publikum, sondern im Verhältnis zu gewerbsmäßigen Raubkopierern.
Im Rahmen dieser Arbeit soll aus diesen Gründen vorrangig nicht der Schutz durch Kryptographie, sondern der Schutz durch Mustererkennung sowie durch Steganographie, also durch digitale Wasserzeichen, erörtert werden. Steganographie basiert auf dem Grundgedanken, dass man in digitalen Daten eine Botschaft – eine sogenannte digitale Signatur - verstecken kann. Wenn die digitalen Daten mit Hilfe der entsprechenden Software sichtbar oder hörbar gemacht werden, beeinflusst die versteckte Botschaft den wahrnehmbaren kommunikativen Inhalt nicht. Wer weiß, wo die Signatur versteckt ist, kann sie wiederfinden. Die Signatur kann als Beweismittel dafür dienen, dass eine bestimmte Datei von einem bestimmten Autor stammt, da er die Signatur angebracht hat und als einziger von ihrer Existenz weiß. Falls ein Raubkopierer in einem Gerichtsprozess behaupten würde, selbst Autor der Datei zu sein, könnte er nicht erklären, wie die Signatur in den Datensatz kommt.
Digitale Signaturen sind also kein Kopierschutz im engeren Sinn, da sie das Vervielfältigen der Daten nicht unmöglich machen. Sie sind eher ein Beweismittel. Es wäre aber vorstellbar, dass jedes einzelne Exemplar eines Werkes eine individuelle digitale Signatur erhält – ähnlich wie Softwareprogramme schon jetzt häufig eine individuelle Registrierungsnummer haben. Denkbar wäre dann beispielsweise ein CD-Player, der vor dem Abspielen einer CD durch einen Datenbankabgleich über das Netz automatisch überprüft, ob die Daten auf der eingelegten CD die richtige digitale Signatur aufweisen. So könnten digitale Signaturen dann auch als Teil einer Kopierschutzinfrastruktur dienen. Eine weitere Anwendungsmöglichkeit sind Suchmaschinen, die das Internet nach raubkopierten Dateien absuchen, die sie an ihrer digitalen Signatur erkennen. Da digitale Signaturen das Kopieren selbst nicht verhindern, eignen sie sich nicht besonders gut als Werkzeug, um den privaten Rezipienten daran zu hindern, für sich oder seine Freunde ein paar Privatkopien zu machen.
Besser eignen sie sich als Waffe gegen gewerbliche Raubkopierer, die Raubkopien in einem öffentlichen Raum anbieten. Denn da nicht zu erkennen ist, ob und gegebenenfalls wie viele digitale Signaturen in einer Datei verborgen sind, können sich gewerbliche Raubkopierer niemals sicher sein, dass sie die Datei vollständig von Signaturen "gereinigt" haben. Wer Raubkopien gemacht hat, und sie weiterverkaufen will, muß sie in einem (mehr oder weniger) öffentlichen Raum anbieten. Dieser öffentliche Raum bietet die Chance, die Raubkopien aufzuspüren und an ihrer digitalen Signatur zu identifizieren. Dort, wo der potentielle Abnehmer die Raubkopie finden kann, kann dies auch derjenige, der sie aufspüren will, um das Raubkopieren zu verhindern. Digitale Signaturen sind zwar kein Kopierschutz im engeren Sinne, aber ein praktikabler Schutz vor dem gewerblichen Vertrieb unerlaubter Vervielfältigungen.
Problematischer allerdings ist der Schutz vor Manipulationen: Wenn nur Dateiausschnitte vervielfältigt werden, oder die digitalen Daten verändert oder in ein anderes (digitales oder analoges) Format gebracht werden, besteht die Gefahr, dass die Signatur zerstückelt oder unleserlich wird. Die Weiterverwendung eines kleinen Dateiausschnitts (Samples) oder die Veränderung der Daten bis an die Grenze der Unkenntlichkeit verlangen vom Täter eine eigene kreative Anstrengung und sind daher ein weniger attraktives Betätigungsfeld für professionelle Raubkopierer, als die Konvertierung der vollständigen Datei in ein anderes Format. Falls die digitalen Signaturen bei einer derartigen Übertragung unleserlich werden, könnte dieser Schutzmechanismus umgangen werden, indem die Raubkopierer die Daten zwischen verschiedenen Formaten mehrmals hin- und herkonvertieren. Allerdings ist eine Konvertierung meist mit einem Qualitätsverlust verbunden. Damit der Schutzmechanismus nicht auf diese Weise außer Kraft gesetzt werden kann, könnte man die digitalen Signaturen mit den wahrnehmbaren Inhalten selbst verbinden. Da die Inhalte ja bei der Konvertierung so gut wie möglich erhalten bleiben sollen, würden die mit ihnen verbundenen Signaturen selbst im Fall der Konvertierung aus einem digitalen in ein analoges Format erhalten bleiben. Wenn man z. B. die Farbverteilung innerhalb eines Bildes oder winzige Zeitverzögerungen im Rhythmus eines Liedes nutzt, um eine Botschaft einzuarbeiten, dann lässt sich diese Botschaft für denjenigen, der von ihrer Existenz nichts weiß, nicht vom künstlerischen Inhalt unterscheiden. Digitale Signaturen können so auch gegen die Übertragung der Daten in ein anderes (analoges oder digitales) Format einen Schutz bieten, der zwar nicht vollständig sicher, aber doch eine erhebliche Hürde für Raubkopierer ist.
Mustererkennung funktioniert ähnlich wie Steganographie, geht aber den umgekehrten Weg: Hier wird nicht eine bestimmte Signatur in die Datei eingearbeitet, sondern es werden aus den charakteristischen inhaltlichen Eigenschaften des Bildes oder Liedes bestimmte technische Eigenschaften der Datei abgeleitet, die zu deren automatischer Identifizierung genutzt werden können. So kann das Internet mittels Suchmaschinen automatisch nach Raubkopien durchkämmt werden. Die Mustererkennung versagt aber, wenn nur ein kleiner oder ein stark verfremdeter Bildausschnitt bzw. ein kurzes Sample eines Liedes raubkopiert werden, da ein solcher kleiner Ausschnitt nicht mehr die charakteristischen inhaltlichen Eigenschaften des vollständigen Werkes aufweist. Außerdem eignet sich Mustererkennung nur, um Raubkopien aufzuspüren, die in unmittelbar wahrnehmbarer Form in einem öffentlichen Raum dargeboten werden. Wenn eine Sounddatei beispielsweise gepackt oder verschlüsselt wurde, ist sie nicht mehr unmittelbar wahrnehmbar, da sie erst durch den technischen Vorgang des Entpackens in den Zustand der Wahrnehmbarkeit zurückversetzt werden muß. Deshalb sind die charakteristischen Muster im gepackten Zustand nicht erkennbar.
Mustererkennung allein kann die Urheberrechtsprobleme im Internet nicht lösen. Sie wird erst dann nützlich, wenn man weiß, wo Raubkopien angeboten werden. Um dies zu wissen, müssen die Rechteinhaber herausfinden, wie das Publikum an Raubkopien kommt. Raubkopien sind nur eine Gefahr, wenn sie irgendwo öffentlich angeboten werden, so lange die Rechteinhaber nicht den Kontakt zu ihrem Publikum verlieren, werden sie von einem solchen Angebot früher oder später erfahren. Mustererkennung kann den Schutz durch digitale Wasserzeichen auf sinnvolle Weise ergänzen. Die Lösung der Urheberrechtsprobleme im Internet wird nicht allein in "reiner" Steganographie liegen, ebenso wenig allein in "reiner" Mustererkennung. Am aussichtsreichsten ist die Verbindung beider Ansätze: Je enger digitale Signaturen mit dem eigentlichen wahrnehmbaren Dateiinhalt verbunden werden - und damit zum Muster der charakteristischen Eigenschaften werden - desto schwerer sind die Signaturen entfernbar. Andererseits hat es auch Vorteile, nicht vollständig auf die Anbringung von Signaturen zu verzichten: Signaturen ermöglichen im Gegensatz zur reinen Mustererkennung eine individuelle Kennzeichnung jedes einzelnen Werksexemplars. Sie ermöglichen es, auch einen kleinen Werkausschnitt oder eine stark verfremdete Version des Werkes zu identifizieren. Und sie ermöglichen die Entwicklung einer Schutzinfrastruktur, die - anders als Suchmaschinen zur Mustererkennung – nicht nur dann funktioniert, wenn die Kunstwerke unmittelbar wahrnehmbar sind. Beide Ansätze haben miteinander gemein, dass sie nur in einem öffentlichen Raum funktionieren: Wenn zwei Netzteilnehmer per privater Mail urheberrechtlich geschützte Werke miteinander tauschen, wird man sie ohne Verletzung des Telekommunikationsgeheimnisses weder mit Mustererkennung noch mittels Wasserzeichen hierbei beobachten können. Anders ist es, wenn diese Inhalte in einem öffentlichen, d. h. für beliebige Personen zugänglichen Forum angeboten werden: Dann kann man sie identifizieren und das Forum gegebenenfalls sperren lassen.
Dass private Kopien nicht auf diese Weise unterbunden werden können, dürfte im Allgemeininteresse begrüßenswerte Freiräume schaffen, ohne die legitimen Interessen der Rechteinhaber in Frage zu stellen. Die Zukunft des Urheberrechts liegt in der Kontrolle öffentlicher, also für beliebige Personen zugängliche Räume. Die Angst vieler Netzteilnehmer vor dem Urheberrecht beruht auf der berechtigten Befürchtung, dass auch nichtöffentliche Räume kontrolliert werden könnten. Diejenige, die das Urheberrecht umgehen möchten, werden versuchen, mittels Datenbanken den öffentlichen und nichtöffentlichen Bereich miteinander zu vermengen. Hierdurch bedrohen sie nicht nur das urheberrechtliche Selbstbestimmungsrecht des Künstlers, sondern auch die Privatsphäre des Publikums. Datenschutz ist zu wichtig, um als Geißel bei dem Versuch herzuhalten, gewaltsam den privaten Traum von der weltweiten Anarchie zu verwirklichen.
Digitale Signaturen bzw. Mustererkennung sind aber nur ein Teil der Infrastruktur zur Herstellung künstlicher Knappheit. Hinzukommen muß ein Identifizierungssystem, das es jedermann ermöglicht, bei einem beliebigen digitalen Kunstwerk den Autor und gegebenenfalls die sonstigen Rechteinhaber festzustellen. Denn nur, wenn man den Berechtigten identifizieren kann, kann man mit ihm in Kontakt treten um die Rechte zu erwerben. Bei den herkömmlichen Massenmedien erfüllt das Impressum bzw. die Signatur eines Bildes diese Aufgabe. Die oben angesprochenen Namens- und Adressräume können diese Aufgabe nicht erfüllen, weil Internet-Adressen und URL`s veränderlich sind und ein digitales Werk gleichzeitig unter mehreren URL`s erreichbar sein kann. Das liegt daran, dass sowohl IP-Adressen wie auch URL`s insoweit technisch und nicht inhaltlich orientiert sind, als sie einen bestimmten Server am Netz bzw. eine bestimmte Datei auf einem Server bezeichnen. Diese Datei kann verändert oder mit einer anderen Datei ausgetauscht werden, ohne dass dies aus der URL hervorgeht.
Wegen dieses Defizits wird derzeit an der Einführung weiterer Namensräume für urheberrechtlich relevante Informationen gearbeitet. Auch diese Namensräume ist technisch gesehen Datenbanken, welche die Adresse eines bestimmten Kunstwerks im Netz mit Informationen über Titel, Erscheinungsjahr, Autor und sonstige Rechteinhaber verknüpft. Außerdem können in einer solchen Datenbank die Bedingungen gespeichert sein, unter denen man die Rechte an einem bestimmten Werk erwerben kann. Die Bezeichnung eines dieser Namensräume ist DOI (Digital Object Identifier). Eine Anfrage an diese Datenbank erfolgt, indem ein Netzteilnehmer auf einen Hyperlink klickt, der keine URL ist, sondern eine DOI-Adresse (sog. "Handle"). Das DOI-System könnte im Zusammenspiel mit ähnlichen Systemen also im Bereich urheberrechtlicher Informationen das URL-Adressierungssystem nach und nach überlagern und verdrängen. Da der DOI eine rasche Klärung der urheberrechtlichen Lage hinsichtlich eines bestimmten Kunstwerks ermöglicht, schafft er die Grundlage für einen automatisierten Transfer von Urheberrechten über das Internet.
Außerdem könnte der DOI auch ein wichtiges Mittel sein, um gewerbliche Raubkopien zu verhindern: Ein Inhaltsanbieter, der seine Werke in den DOI-Namensraum aufnehmen lässt, muß dabei seine Identität offenbaren. Falls er den DOI-Namensraum nutzt, um Raubkopien zu vertreiben, wird der Zugriff auf ihn dadurch erleichtert. Falls der DOI zu einem De-Facto-Standard für alle Inhaltsanbieter werden würde, wären Raubkopierer, die den Standard nicht benutzen, um anonym zu bleiben, ähnlich auffällig und verdächtig, wie ein Buch ohne Impressum und ISBN-Nummer.
3. 4. 3. Wirkungen auf künstlerische Inhalte
Ob eine Infrastruktur zur Herstellung von Knappheit künstlerische Innovationsprozesse eher hemmt oder fördert, hängt davon ab, ob es den Benutzern der Infrastruktur gelingt, das richtige Gleichgewicht zwischen Kontrolle und freiem Informationsfluss zu finden. Die Technik selbst macht hier kaum inhaltliche Vorgaben, es hängt viel davon ab, wie sie konkret eingesetzt wird. Bedenklich ist allerdings, dass die Kontrolle über die Infrastruktur nur in den Händen einer einzigen Interessengruppe, nämlich der Zwischenhändler, liegt. Deshalb könnte es sein, dass ihre Partikularinteressen beim konkreten Einsatz der Infrastruktur überbetont werden. Die Interessen der Künstler und des Publikums könnten vernachlässigt werden.
Da es keinen Zwang zur Benutzung der urheberrechtlichen Schutzinfrastruktur gibt, können unkommerzielle Künstler ihre Inhalte nach wie vor auf dieselbe Weise zum kostenlosen Download im Netz anbieten, wie sie es heute tun. Die Schutzinfrastruktur bedeutet für sie also nur eine zusätzliche neue Möglichkeit, ihre Werke zu vermarkten. Sie eignet sich nicht als Filter, um unkommerzielle Kunst zu unterdrücken. Würde die Schutzinfrastruktur zu strikt ausgestaltet, würden Künstler und Publikum über kurz oder lang auch ohne sie zusammenfinden. Die Schutzinfrastruktur ist also stets der Konkurrenz durch unkommerzielle Künstler ausgesetzt, die keinen Wert auf urheberrechtlichen Schutz ihrer Werke legen. Das spricht dafür, dass von ihr letztlich keine allzu große Gefahr für den freien Informationsfluss ausgeht. Sie ist eher innovationsfördernd, als hemmend. Allerdings lässt sich nicht ausschließen, dass die Schutzinfrastruktur von wenigen großen Unternehmen missbraucht werden könnte, um den Zugang zu bestimmten Bereichen der Kunst auf wiederum monopolartige Weise zu kontrollieren und so Konkurrenten zu verdrängen. Es ist deshalb wichtig, dass auch die Beschränkungen, die das juristische Urheberrecht zugunsten des Informationsinteresse der Allgemeinheit vorsieht, vom technischen Schutzsystem abgebildet werden.
3. 5. Automatisierte Urheberrechtstransaktionen
Falls die dargestellte Schutzinfrastruktur tatsächlich implementiert werden sollte, würde dies die Häufigkeit der urheberrechtlichen Transaktionen, die im Internet getätigt werden, drastisch ansteigen lassen. Bedenkt man, dass es aufgrund des Fehlens des materiellen Datenträgers möglich ist, jedes Bild, jeden Song und jedes Buchkapitel einzeln abzurechnen, drohen die Geschäftsvorgänge eine Komplexität anzunehmen, die für den einzelnen Netzteilnehmer kaum mehr zu überblicken ist. Die Informationsanbieter werden ihre Kunden kaum dadurch verschrecken wollen, dass sie diese zwingen, sich beim Surfen andauernd Gedanken darüber zu machen, ob ihnen beispielsweise die Betrachtung eines bestimmten Bildes ein paar Pfennig wert ist oder nicht. Auch bei größeren Transaktionen wird der normale Netzteilnehmer weder willens noch in der Lage sein, ernsthaft über die Vertragsbedingungen zu verhandeln.
Es liegt deshalb nahe, die Entscheidung über das Ob und Wie eines Vertragsschlusses so weit wie möglich zu automatisieren. Die Automatisierung der Urheberrechtstransaktionen verfolgt also einen ähnlichen Zweck, wie die Automatisierung der Informationssuche durch intelligente Agenten: Man will die durch Technologie entstandene Komplexität wiederum durch Technologie in den Griff bekommen. Es geht also darum, einen technischen Sprachstandard zu entwickeln, der den Transfer von Urheberrechten sowie den Abschluss diesbezüglicher Verträge einschließlich der Zahlungen soweit vereinfacht, dass die Vertragsparteien im Einzelfall nur minimale Aufmerksamkeit hierauf verwenden müssen.
3. 5. 1. Soziale Wurzeln der Technologie
Das Internet ermöglicht eine Vielzahl völlig neuartiger Geschäftsmodelle. Während die Inhaltsanbieter früher kaum eine andere Möglichkeit hatten, als schlicht und einfach den materiellen Informationsträger zu verkaufen, sind ihrer Phantasie jetzt keine Grenzen mehr gesetzt: Abrechnung nach Nutzungszeit, nach der Zahl der Zugriffe, über Micropayments oder im Abo, alles ist möglich geworden. Ob die Netzteilnehmer als Gegenleistung Geld zahlen, persönliche Daten preisgeben oder Werbung erdulden müssen – im Internet wimmelt es derzeit geradezu von innovativen Geschäftskonzepten. Diese Flut an neuen Ideen ist für die Rezipienten allerdings kaum noch zu verarbeiten. Es wird für sie immer schwerer, nachzuvollziehen, worauf sie sich vertraglich einlassen, wenn sie im Internet ein bestimmtes Geschäft abschließen.
Das Internet markiert das Ende der Industriegesellschaft, in der die Standardisierung von Produkten und sozialen Beziehungen gleichbedeutend mit Effizienz war. Unter den Gegebenheiten industrieller Fertigung ist es betriebswirtschaftlich vernünftig, gleichförmige Produkte in möglichst großen Stückzahlen herzustellen, deshalb werden auch die Berufsprofile innerhalb eines Betriebes, die Arbeitszeiten und die vertragliche Beziehung zum Konsumenten standardisiert. Diese Gesetzmäßigkeit der "economics of scale" gelten in der Informationsgesellschaft nicht mehr; hier verhält sich nicht derjenige am vernünftigsten, der seine Produkte für einen Massenmarkt standardisiert, sondern derjenige, der die Möglichkeiten der Computertechnik optimal ausnutzt, um seine Produkte möglichst passgenau auf die individuellen Bedürfnisse jedes einzelnen Kunden zuzuschneiden. In dem Maß, in dem die Variationsbreite der Produkte größer wird, wird zwangsläufig auch die Arbeitswelt und die vertragliche Beziehung zum Konsumenten und zu den anderen Geschäftspartnern von einem Mehr an Varianz gekennzeichnet.
Dieses Mehr an Varianz bedeutet ein Mehr an Gestaltungsfreiheit und Wahlfreiheit, gleichzeitig aber auch ein Mehr an Komplexität. Zwar macht es die Computertechnik möglich, beispielsweise Versicherungsverträge oder Buchclubverträge passgenau auf jeden einzelnen Kunden zuzuschneiden. Damit ist aber noch nicht das Problem gelöst, dass den Kunden die Orientierung in der Flut der neuen Wahlmöglichkeiten nicht leicht fallen wird. Inwieweit ist ihnen eine Fehlentscheidung, die sie hierbei treffen, zurechenbar? Hat das Unternehmen, das ihnen eine Flut von Wahlmöglichkeiten unterbreitet, das Recht, sie mit einem beliebig hohen Maß an Komplexität zu konfrontieren? Das Faszinierende am E-Commerce ist sicherlich, dass er kreativen und wagemutigen Newcomern ermöglicht, völlig neuartige Geschäftsmodelle zu entwickeln und auf einem globalen Markt zu realisieren. Nun ist zwar im Internet beliebig viel Platz für neue Geschäftsmodelle, aber möglicherweise nicht in den Köpfen der Netzteilnehmer. Je bunter die Vielfalt an neuartigen ökonomischen Konzeptionen zur Finanzierung von Kultur wird, desto größer wird die Gefahr einer Reizüberflutung, welche die Netzteilnehmer passiv und gleichgültig gegenüber Neuem werden lässt. Eine derartige Reizüberflutung droht auch aufgrund der immer komplexeren Computertechnologie. Deshalb versucht man, die hohe technische Komplexität des Internets hinter intuitiven Benutzeroberflächen zu verstecken.
Die soziale bzw. rechtliche Komplexität lässt sich auf diese Weise aber schon deshalb nicht so einfach verstecken, weil Verträge nur durch den deckungsgleichen Willen mehrerer Beteiligter zustande kommen können. Jemand kann nur rechtsverbindliche Erklärungen über diejenigen Dinge abgeben, die er weiß oder zumindest wissen kann. Wenn jemand eine Erklärung abgibt, ist er hieran also nur insoweit rechtlich gebunden, als er den Inhalt dieser Erklärung zum Zeitpunkt der Abgabe einschließlich der möglichen Konsequenzen überblicken konnte. Eine Technologie, die den Konsumenten die Entscheidungsfindung erleichtert und die soziale bzw. rechtliche Komplexität des Internets nicht nur reduziert, sondern grob vereinfacht, birgt das Risiko, dass sie den Konsumenten entmündigt und seinen Entscheidungen die rechtliche Verbindlichkeit vor Gericht und die soziale Verbindlichkeit vor den Augen der Öffentlichkeit nimmt. Bei der Automatisierung von geschäftlichen Transaktionen im Netz geht es folglich darum, zwei potentiell gegenläufige Interessen miteinander zu vereinbaren: Die Technologie muß eine große Bandbreite an geschäftlichen Transaktionen zulassen, die den Gestaltungsspielraum beim Vertragsschluss nicht einengen. Gleichzeitig muß auch für den juristischen und informationstechnischen Laien ohne großen Arbeitsaufwand klar nachvollziehbar sein, was geschieht, wenn er sich dieser Technologie bedient und welche Konsequenzen dies haben kann.
Die Nutzer dieser Technologie sind die Endverbraucher und gegebenenfalls auch die Künstler sowie die Informationsanbieter. Dennoch haben Endverbraucher und Künstler auf die Entwicklung dieser Technologie nur geringen Einfluss. Da es sich hierbei um eine hochkomplexe Aufgabe mit weitreichenden Konsequenzen handelt, sind nur die größeren Firmen der Internet-Branche hierzu in der Lage. Das führt zu der etwas merkwürdigen Situation, dass die Informationsanbieter für das Publikum ein Werkzeug entwickeln, das es Letzterem ermöglichen soll, beim Vertragsschluss mit den Informationsanbietern seine Rechte wahrzunehmen. Etwas zugespitzt kann man sagen: Beim Vertragsschluss sind die Interessen von Publikum und Informationsanbietern entgegengesetzt. Trotzdem stärken die Informationsanbieter die Verhandlungsposition des Publikums, indem sie ihm eine Technologie an die Hand geben, die ihm die Entscheidungsfindung erleichtert und es ihm ermöglicht, sein Informationsdefizit zu verringern.
Die postmoderne Informationsgesellschaft – deren Symbol und Verkörperung das Internet ist - hat die hierarchisch-konformistische Industriegesellschaft in eine Vielzahl von Subsystemen, Szenen und Gemeinschaften ausdifferenziert, von denen jede ihre eigene Sprache spricht. Diese babylonische Vielfalt droht aufgrund ihrer extremen Komplexität zu einem Wachstumshindernis zu werden. Wenn Geschäftsvorgänge automatisiert werden, dann dient dies dem Zweck, einen einheitlichen verbindlichen ökonomischen Sprachstandard zu schaffen, der alle diese Szenen miteinander verbindet und so den wirtschaftlichen Austausch zwischen ihnen ermöglicht. Da der wirtschaftliche Austausch manchmal Voraussetzung für den kulturellen Austausch sein kann, ist es für das Funktionieren der oben erörterten Finanzierungsmodelle wichtig, ob eine derartige "automatisierte Verständigung" zwischen Vertragspartnern gelingt, die ansonsten nichts oder fast nichts voneinander wissen.
3. 5. 2. Technische Implementierung
Die Wirtschaftsverbände, welche die technischen Standards für das Internet kreieren – insbesondere das W3C-Konsortium und die XML / EDI - Gruppe - streben das Ziel an, die zu einem bestimmten Inhalt gehörenden Vertragsbedingungen und anderen Informationen von ökonomischer Relevanz als XML-Sprachstandards in Webseiten zu integrieren. Das W3C hat eine "Micropayments Markup Language" entwickelt, die es ermöglichen soll, im Code einer Webseite Informationen zu dem Preis, zu dem sie betrachtet werden darf, unterzubringen. Daneben gibt es auch eine Vielzahl ähnlicher Ansätze. Andererseits versuchen die Hersteller betriebswirtschaftlicher Standardsoftware den Anwendungsbereich ihrer Produkte über die unternehmensinterne Buchhaltung hinaus zu erweitern und zu einem Standard für EDI-Transaktionen zu machen. Die SAP hat der IETF vorgeschlagen, das von ihr propagierte BAPI-Konzept zu einem weltweiten Standard zu machen. Die Erschaffung eines einheitlichen Sprachstandards erfolgt also von zwei Seiten her: Einerseits werden die (bislang unternehmensinternen) Buchhaltungsstandards auf die unternehmensexterne Kommunikation ausgedehnt, andererseits wird der global etablierte (bislang rein technische) HTML-Standard um eine ökonomische Komponente bereichert.
Das Ziel, eine globale Handelssprache für die automatisierte Geschäftsabwicklung zu schaffen, ist dermaßen hochgesteckt und komplex, dass ein Top-Down-Ansatz verfehlt erscheint. Niemand könnte ernsthaft für sich in Anspruch nehmen, eine derartige Sprache auf dem Reißbrett entwerfen zu können, oder auch nur alle Missverständnisse und inhaltlichen Probleme voraussehen zu können, welche die Implementierung einer derartigen Handelssprache aufwirft. Deshalb verfolgen die Beteiligten einen Bottom-Up-Ansatz, der sich ja auch schon beim Entwurf der Internet-Infrastruktur bewährt hat: Eine oder mehrere Zentralstellen (in diesem Fall das W3C in Zusammenarbeit mit der XML / EDI – Gruppe und der IETF) entwerfen eine Grundlage an möglichst inhaltsneutralen und erweiterungsoffenen technischen Regeln.
Diese Grundlage wird von allen Beteiligten genutzt, um ihre jeweiligen branchenspezifischen Geschäftsregeln und Vertragsbedingungen so zu kodifizieren, dass sie von allen anderen Beteiligten nachvollzogen werden können. Auf der Grundlage einer gemeinsamen, allgemeinverbindlichen Schicht können die Beteiligten selbst weitere spezielle Schichten definieren, die ihrem jeweiligen besonderen Informations- und Mitteilungsbedarf gerecht werden. Hierbei können sie entweder auf die Arbeit anderer zurückgreifen, oder selbständige Lösungen entwickeln. Um diese Wahlfreiheit zu gewährleisten und zu verhindern, dass eine Fehlentscheidung eines Beteiligten bei der Gestaltung der technischen Infrastruktur für alle anderen Beteiligten bindend wird, müssen die Lösungen auf den höheren Ebenen unabhängig voneinander sein. Damit jeder der Beteiligten das Rad nicht immer wieder von Neuem erfinden muß, sondern auf die Arbeit der anderen Beteiligten aufbauen kann, sollte er aber bei Bedarf auf deren Lösungen zurückgreifen können, wenn er dies möchte.
Die eigentlichen Probleme bei dieser Aufgabe dürften aber nicht im technischen Bereich, sondern im rechtlichen bzw. sozialen Bereich liegen. Probleme resultieren bei Vertragsschlüssen oft weniger aus dem Vertragstext selbst, sondern eher aus dem, was die Vertragsparteien aufgrund ihres unterschiedlichen sozialen und kulturellen Backgrounds als ungeschriebene Selbstverständlichkeit voraussetzen. Derartige Missverständnisse wird es bei automatisierten Vertragsschlüssen zwischen ansonsten weitgehend Unbekannten mit Sicherheit häufig geben. Es erscheint zweifelhaft, ob das dünne Gerüst einer globalen Handelssprache der hier erörterten Art ausreicht, zwischen den Beteiligten nicht nur einen formalen, sondern auch einen inhaltlichen Konsens entstehen zu lassen. Ein derartiger inhaltlicher Konsens ist aber als Basis einer dauerhaften konstruktiven Geschäftsbeziehung unverzichtbar.
Auf längere Sicht ist angesichts der Tatsache, dass sich die Wirtschaft ja auch außerhalb des Internets weltweit immer stärker verzahnt und hierbei Grenzen geographischer und kultureller Art überwindet, durchaus die optimistische Prognose möglich, dass die Implementierung einer allgemein akzeptierten globalen Handelssprache gelingt. Allerdings handelt es sich hierbei um eine Aufgabe, die weitaus schwieriger ist, als die Entwicklung der technischen Infrastruktur des Internets. Da es hierbei letztlich um die Suche nach Verständigung als Basis freiwilliger Zusammenarbeit geht, handelt es sich um eine ebenso gewaltige wie faszinierende Aufgabe. Natürlich ist die heikelste Frage hierbei - wie bei jeder Sprache - die Frage, wer die Definitionsmacht hierüber hat.
3. 5. 3. Wirkung auf künstlerische Inhalte
Falls die Entwicklung einer universellen Handelssprache tatsächlich gelingt, ermöglicht dies die Entstehung einer Vielzahl neuer Finanzierungsmodelle. Das erleichtert natürlich die Finanzierung von Kunst. Negativ könnte sich die Implementierung einer derartigen Sprache dann auswirken, wenn sie als Mittel missbraucht würde, um dem Publikum oder der Konkurrenz einseitig Bedingungen aufzudiktieren. Marktmächtige Akteure könnten die Sprachstandards beeinflussen, um ihre schwächeren Konkurrenten zu verdrängen. Das würde vielfaltsverengend wirken. So lange dies nicht geschieht, fördert die Implementierung einer derartigen Sprache (wie jede Maßnahme zur Reduzierung der enormen Komplexität im Netz) die Eignung des Internets als Massenmedium für alle Arten von Kunst.
3. 6. Werbestatistiken, Nutzerprofile
Es gibt noch einen weiteren Schwerpunkt, bei dem sich die Gestaltung der technischen Infrastruktur auf die Machtverhältnisse zwischen Künstlern, Informationsanbietern und Publikum auswirkt und damit die Realisierungschancen innovativer Kunst beeinflusst. Hierbei handelt es sich um die Technologie zur statistischen Messung der Erfolgsquote von Werbung im Netz, zur demoskopischen Erfassung des Verhaltens der Netzteilnehmer sowie zur Bildung von Personenprofilen. Da alle sozialen Interaktionsvorgänge im Internet in technischer Hinsicht Datenverarbeitungs- bzw. –übermittlungsvorgänge sind, ist es äußerst einfach, sie mit den Mitteln der Computertechnik statistisch zu erfassen. Auf diese Weise werden die Statistiken zu dem primären Instrument, mit dem soziale Wirklichkeit im Netz erfasst und allgemeinverbindlich definiert wird. Das birgt natürlich die Gefahr, dass "weiche", schwer messbare Größen unter den Tisch fallen. Außerdem haben es diejenigen, welche die entscheidenden statistischen Kennzahlen definieren, unter Umständen in der Hand, damit auch gleichzeitig die Anforderungen zu definieren, denen Kunst genügen muß, um sich ökonomisch zu behaupten.
3. 6. 1. Soziale Wurzeln der Technologie
Schon seit längerem gibt es innerhalb der Betriebswirtschaftslehre eine Schwerpunktverschiebung weg von der logistisch-technischen Organisation der Produktion materieller Nutzgegenstände hin zum Marketing. Über den Erfolg eines bestimmten Produktes am Markt entscheidet zunehmend weniger sein tatsächlicher materieller Nutzwert, sondern immer stärker seine Nähe zu den (vorhandenen oder künstlich geschaffenen) Kundenbedürfnissen sowie sein Wert als ästhetisches Zeichen. Hieraus resultiert ein gewaltiger Hunger der Wirtschaft nach möglichst genauem, aktuellem und fein ausdifferenziertem Zahlenmaterial, um die Bedürfnisse der Kundschaft besser als die Konkurrenz zu kennen und möglichst schnell auf neue Entwicklungen am Markt reagieren zu können. Der Logik dieser Entwicklung entspricht es auch, wenn die Zielgruppen immer feiner ausdifferenziert und –segmentiert werden – das Idealbild des modernen Marketing ist der Dialog mit jedem einzelnen Kunden, dessen Wünschen man so weit wie möglich zu entsprechen versucht. Deshalb ist das moderne Marketing nicht nur an demoskopischen Daten über bestimmte Personengruppen interessiert, sondern auch an den Personenprofilen einzelner Individuen.
Allgemein ist die Bereitschaft der Unternehmen gestiegen, Geld zu investieren, um ihr Bild in der Öffentlichkeit zu verbessern und den Dialog mit ihren Kunden zu intensivieren. Das läßt sich nutzen, um der Kunst neue Finanzierungsquellen zu erschließen. Wie alle betrieblichen Ausgaben, so bedürfen aber auch die Ausgaben für Werbung und Öffentlichkeitsarbeit der betriebsinternen Rechtfertigung durch möglichst hartes und konkretes Zahlenmaterial.
Der Nutzen einer Investition in Kunst muß sich – wenn möglich - bilanzieren lassen, damit die Investition vertretbar ist. Insoweit profitiert auch die Kunst von einer besseren statistischen Erfassung der Kommunikationsvorgänge im Netz. Andererseits gewinnt sie hierdurch nicht nur neue Förderer aus der Privatwirtschaft, sondern erlegt sich gleichzeitig auch Erfolgszwänge auf: Sie muß die Ziele, die ihr die Statistiken setzen, erreichen. Ein schwer verständliches oder konfrontatives Kunstwerk kann zwar langfristig gesehen die ästhetischen Wahrnehmungsgewohnheiten des Publikums revolutionieren und zum Vorbild für viele andere Künstler werden; in der Flüchtigkeit und Oberflächlichkeit des Internets wird es aber kaum auf kurze Sicht eine hinreichend große Zahl von Rezipienten gewinnen, damit es sich gegenüber den glatteren, konformeren Kunstwerken, die mit ihm um die Gunst der Werbetreibenden konkurrieren, behaupten kann. Seine besondere ästhetische Qualität und sein - noch - unausgeschöpftes Potential ist als statistische Größe nicht messbar und deshalb aus ökonomischer Sicht quasi nicht existent; die vergleichsweise kleine Zahl seines Publikums schon.
3. 6. 2. Technische Implementierung
Derzeit konkurriert noch eine Vielzahl verschiedener Softwareprogramme zur Messung des Internet-Traffics miteinander am Markt. Über kurz oder lang steht aber eine Vereinheitlichung der gemessenen Daten bevor. Durch die Herausbildung eines einheitlichen Standards können Daten, die an verschiedenen Stellen des Netzes gesammelt wurden, zusammengeführt und weitergegeben werden. Sobald es einen derartigen einheitlichen Standard gibt, wird vermutlich ein schwunghafter Handel mit den Daten beginnen. Es ist sehr wichtig, welche Daten innerhalb dieses Standards berücksichtigt werden. Hierdurch wird das allgemein gültige Bild von der Wirklichkeit im Internet definiert. Wenn beispielsweise Daten über die Verweildauer der User auf einer Webseite mit in den Standard aufgenommen würden, würden andere Webseiten von den Statistiken profitieren, als wenn nur die bloße Anzahl der Abrufe gemessen würde. Da Statistiken stets den Anschein naturwissenschaftlicher Objektivität haben, besteht die Gefahr, dass ihre Aussagekraft nicht mehr hinterfragt wird, wenn sie sich erst einmal als ein Mittel eingebürgert haben, um den Erfolg oder Misserfolg von bestimmten Inhalten im Netz zu "belegen".
Die Werbestatistiken bzw. Nutzerprofile hängen eng mit der oben beschriebenen Entwicklung intelligenter Agenten zusammen. Intelligente Agenten wurden als ein Werkzeug beschrieben, das den Konsumenten die Orientierung in der Informationsflut erleichtern soll. Die automatische Auswertung der Werbestatistiken erfolgt durch die Anbieter, um gezieltes Direktmarketing betreiben zu können. Letztlich geht es in beiden Fällen um dieselbe Aufgabe, nämlich um das Zusammenfinden von Verkäufer und Kunde in der unübersichtlichen Weite des Netzes. Ob man sich dem Problem aus Sicht der Kunden nähert und von intelligenten Agenten spricht, oder ob man von der Sicht der Verkäufer ausgeht und von der Auswertung von Werbestatistiken durch "data mining" bzw. neuronale Netze spricht, macht nur insoweit einen Unterschied, als der Kunde in technischer Hinsicht jedenfalls dann die Kontrolle über seine persönlichen Daten verliert, wenn diese nicht von ihm selbst, sondern von einem Unternehmen ausgewertet werden.
Es ist anzunehmen, dass sich die Werbestatistiken im Laufe ihrer weiteren Entwicklung immer weiter von ihrem ursprünglichen Zweck lösen, die Akzeptanz bestimmter Inhalte im Netz beim Publikum zu überprüfen. Das Bedürfnis der Wirtschaft an möglichst genauen und aussagekräftigen Daten wird eine Entwicklung auslösen, bei der sich der Aufmerksamkeitsfokus der Statistik weg vom einzelnen Inhaltsangebot im Netz hin zu den Vorlieben des einzelnen individuellen Netzteilnehmers verschiebt. Die Statistiken werden in Zukunft nicht mehr primär messen, wie viele Netzteilnehmer eine bestimmte Webseite gesehen haben, sondern welche Webseiten ein bestimmter Netzteilnehmer gesehen hat. Eine derartige Entwicklung entspricht dem allgemeinen Trend im Marketing zu einer immer stärkeren Personalisierung und Segmentierung. Die Informationsarchitektur des Netzes wird sich vom Leitbild der einzelnen Webseite als "virtuellem Ort" lösen. Angelpunkt der Orientierung wird langfristig der einzelne Netzteilnehmer oder eine Gemeinschaft von ihnen mit seinen bzw. ihren Interessen, Kontakten und Vorlieben sein. Denn der Hunger der Wirtschaft nach möglichst vielen personenbezogenen Daten wird die Anonymität im Netz ebenso schwinden lassen wie das Bedürfnis der Konsumenten nach Orientierung und nach Gemeinschaften. Es ist zu erwarten, dass Kontakte und Personenprofile im Wirtschaftsleben der Zukunft noch wichtiger für den Erfolg sind, als dies bereits jetzt der Fall ist.
Dementsprechend groß wird die Bedeutung des Handels mit ihnen sein. Tatsächlich erscheint es vorstellbar, dass den standardisierten (und damit handelbaren) Werbestatistiken in bestimmten Branchen ein derartiger Wert zukommt, dass man auf den ersten Blick versucht sein könnte, sie mit einer Währung zu vergleichen. Allerdings hinkt der Vergleich: Personenbezogene Daten sind kein geldähnlicher abstrakter Wertträger, da ihr Wert von der beruflichen Position und dem konkreten Zweck, zu dem sie verwendet werden, abhängt. Die statistischen Daten lassen sich nicht vom kommunikativen Zusammenhang abstrahieren, in dem sie gesammelt wurden, und in dem sie verwendet werden sollen. Eine Adressliste mit allen vermögenden Antiquitätensammlern in einer bestimmten größeren Region ist für einen Antiquitätensammler wertvoll, für einen Supermarktbesitzer aber so gut wie wertlos. Eine derartige Adressliste ist durchaus ein Handelsgut mit hohem Wert, keinesfalls aber eine Währung.
3. 6. 3. Wirkung auf künstlerische Inhalte
Die Standardisierung der Werbestatistiken erschwert es innovativer Kunst, sich über Werbung zu finanzieren. Denn sie begünstigt, dass für alle Inhalte im Netz einheitliche Erfolgskennzahlen entwickelt werden. Das macht es innovativer Kunst natürlich schwer, weil sie hierdurch in eine direkte Konkurrenz mit massenattraktiver affirmativer Unterhaltung getrieben wird. Falls die Statistikstandards allen Arten von Inhalten gerecht werden wollten, müssten sie eine derartige Breite an Erfolgskennzahlen zulassen, dass sie an Aussagekraft verlieren würden. Man muß deshalb befürchten, dass der Erfolg von Inhalten im Netz durch die Werbewirtschaft anhand von ein oder zwei Kennzahlen gemessen werden wird – ähnlich, wie ja auch im Fernsehen nur die Einschaltquote und bei Zeitschriften nur die Auflage zählt.
Mehr Hoffnung in Hinblick auf Innovationsspielräume macht allerdings der Trend zur Personalisierung der Daten. Hierdurch verlieren die rein quantitativen Messdaten (wie z. B. die Zahl der Besucher) an Wichtigkeit gegenüber qualitativen Daten (wie z. B. ob jemand immer wieder kommt). Je feiner die Werbewirtschaft die Käuferschichten segmentiert und ausdifferenziert, desto breiter ist auch das Spektrum an Inhalten, das man als Werbeträger verwenden kann. Wer nur den Massenmarkt ansprechen will, setzt dabei auf massenwirksame Inhalte als Werbeträger. Wer eine ganz bestimmte Szene ansprechen will, kann ihre besonderen Vorlieben berücksichtigen. Hierdurch entstehen Spielräume für die Finanzierung innovativer Kunst über den Werbemarkt.
3. 7. Gesamtschau und Zwischenergebnis
Welche Schlüsse lassen sich nun aus der Analyse dieser Schwerpunkte ziehen? Lassen sich gemeinsame Linien erkennen, aus denen man allgemeine Aussagen über die Rolle der technischen Infrastruktur bei der Realisierung künstlerischer Visionen ableiten kann? Die Digitalisierung der Medien wirkt sich in allen Bereichen der Kultur auf die Art und Weise aus, wie Kunst wahrgenommen wird. Ob die Schallplattenaufnahmen von Jahrzehnten aufgrund des technischen Wandels zur CD für den normalen Rezipienten unzugänglich werden, ob die Entstehung von Musik-Spartensendern wie MTV alle Bands zwingt, Videos zu produzieren, oder ob die technische Weiterentwicklung ganze neue Stilrichtungen mit originärer ästhetischer Formensprache (z. B. Techno) entstehen lässt – bei technikvermittelter Kunst ist die Technik nicht mehr immer klar trennbar vom eigentlichen Inhalt. Deshalb kommt der Frage erhebliche Bedeutung zu, welche Rolle die Technik bei der künstlerischen Kommunikation im Allgemeinen spielt.
Welche Zwänge erlegt dieses Gesamtsystem dem innovativen Künstler auf; welche Chancen bietet es ihm andererseits? Die oben untersuchten Schwerpunkte zeigen, wie Technologie von finanzkräftigen Informationsanbietern zu dem Zweck entwickelt und genutzt wird, um ihnen gegenüber ihren finanzschwachen Konkurrenten um die Aufmerksamkeit des Publikums einen Vorsprung zu verschaffen: Bei den Suchmaschinen werden Stichwörter verkauft; die Agententechnologie ist ebenfalls für ähnliche Manipulationen anfällig. Die Infrastruktur zum Schutz von Urheberrechten begünstigt ebenfalls die finanzstarken Rechteinhaber gegenüber den finanzschwachen Konkurrenten, weil es vorrangig ihnen die Möglichkeit gibt, vorhandene Werke als Rohmaterial für neue Werke zu verwenden. Außerdem besteht die Gefahr, dass der Zugang zur Schutzinfrastruktur ebenso wie der Zugang zum automatisierten Urheberrechtshandel so teuer wird, dass kleine Anbieter ihn sich nicht leisten können. Auch bei den herkömmlichen Massenmedien wie Bücher, Video- und Kinofilmen und CDs ist das eigentliche Problem für kleine, finanzschwache Anbieter nicht die Herstellung des materiellen Datenträgers. Die eigentliche Schwierigkeit ist es, Zugang zur Vertriebs- und Marketinginfrastruktur zu erhalten, also das Buch oder die CD in die Läden zu bekommen, sie in einer Zeitschrift rezensiert oder im Radio gespielt zu bekommen, u. s. w. Wenn die Vertriebs- und Marketinginfrastruktur im Internet zu einer ähnlich hohen Hürde würde, würde dies die künstlerischen Innovationsprozesse hemmen.
Dieselbe Gefahr birgt auch die Entwicklung, dass Marketingdaten und Personenprofile zu einem immer größeren finanziellen Wert werden. Wer diese Daten nicht hat, ist im Nachteil gegenüber seinen besser informierten Konkurrenten. Es gibt also folgende allgemeine Gesetzmäßigkeit: Je enger sich die wirtschaftliche und die kommunikative Infrastruktur der Gesellschaft miteinander verzahnen, desto mehr Kapitaleinsatz ist nötig, damit eine bestimmte kommunikative Botschaft ihr Publikum erreicht, ohne dass sie hierbei von konkurrierenden Botschaften "übertönt" wird. Das würde vielfaltsverengend und innovationshemmend wirken. Dieser Gefahr lässt sich begegnen, indem die Technologien möglichst dezentral, transparent und offen gehalten werden. Wenn eine Technologie hingegen zentral entwickelt wird, in ihrer Funktionsweise undurchsichtig bleibt und nicht offen, sondern proprietär ist, besteht die Gefahr, dass der Akteur, der die Technologie entwickelt, sein kurzfristiges und leicht bilanzierbares Eigeninteresse über das langfristige und schwer bilanzierbare Interesse der Branche insgesamt an einem lebendigen kulturellen Leben und einem aktiven Publikum stellt. Vor allem bei der Untersuchung der technischen Infrastruktur zum Schutz von Urheberrechten wurde diese Gefahr deutlich.
Die Technologie ist nicht nur Gefahr, sondern auch Chance für innovative Kunst: Wenn die Technik neue künstlerische Ausdrucksformen ermöglicht, dann verändert dies zwangsläufig auch die Wahrnehmungsgewohnheiten des Publikums. Das offensichtlich Neue hat es immer besonders leicht, weil es auffällig ist. Technomusik wurde als ein Beispiel für einen derartigen Innovationsprozess genannt, der durch die technische Entwicklung stimuliert und in den Blickpunkt der Öffentlichkeit gerückt wurde. Wer sich der neusten technischen Ausdrucksmittel bedient, kann sich dadurch stets vom bereits Vorhandenen abheben und Aufmerksamkeit auf sich ziehen.
Die dargestellte Infrastruktur ist deshalb innovationsfördernd, weil sie eine Fülle von neuen Geschäftsmodellen ermöglicht. Derzeit scheitert der Verkauf von digitaler Kunst über das Internet noch am fehlenden urheberrechtlichen Schutz. Zur Zeit ist deshalb die Werbefinanzierung der einzige Weg, mit Kunst im Internet Geld zu verdienen. Werbefinanzierung eignet sich nur für bestimmte künstlerische Inhalte und setzt voraus, dass der Künstler über gute Kontakte zur werbetreibenden Wirtschaft verfügt. Deshalb ist die zusätzliche Möglichkeit der Publikumsfinanzierung durchaus ein Gewinn – vor allem, weil Künstler und Publikum ja nicht gezwungen werden, sich auf dieses Finanzierungsmodell einzulassen. Es erscheint bei der wachsenden Bedeutung des Marketings als äußerst unwahrscheinlich, dass werbefinanzierte Inhalte im Internet völlig oder auch nur weitgehend von den kostenpflichtigen Inhalten verdrängt werden. Außerdem wird es immer Künstler geben, die ihre Werke kostenlos aus reinem Idealismus - oder dem Interesse an Eigenwerbung - über das Internet zugänglich machen.
Ob die technische Infrastruktur eher Gefahr oder eher Chance für künstlerische Innovation ist, hängt vor allem davon ab, ob sie offen und dezentral entwickelt wird oder von wenigen marktmächtigen Akteuren im Alleingang. Denn wenn sie zentralisiert und in ihrer Funktionsweise intransparent ist, besteht die Gefahr, dass sie als Instrument mißbraucht wird, um die Konkurrenz zu behindern und marktmächtigen Anbietern einen Wettbewerbsvorteil vor der Konkurrenz zu verschaffen. Das Publikum verliert hierdurch Wahlmöglichkeiten, innovative Künstler und kleinere Anbieter werden vom Markt verdrängt, weil ihr Vertriebsweg blockiert wird. Offene, dezentrale Standards sind innovationsfördernd.