Anmelden Anmelden
MEHR

WIDGETS

Widgets

Gewünschte Seiten
Wer ist online?

Schaffen offene Netze Mehrwert?

Schaffen offene Netze Mehrwert?

Wechseln zu: Navigation, Suche
Abschlussberichte > Abschlussbericht 6. Initiative > Schaffen offene Netze Mehrwert?

Das Prinzip Offenheit ermöglicht neue Mechanismen der Wertschöpfung und Innovation in digitalen Netzen
Marcus M. Dapp, Yoan Hermstrüwer, Hendrik Send, Abraham Taherivand

Innovation im digitalen Ökosystem
Inhaltsverzeichnis
PDF Download

Bericht6.jpg

Den Kern der folgenden Ausführungen bildet die Frage, wie Wertschöpfung in offenen digitalen Wertschöpfungsnetzen (ODWN) funktioniert. Die hier verwendeten Konzepte beruhen auf Arbeitsdefinitionen, die keine erschöpfende Konzeptionalisierung leisten sollen. Als Wertschöpfung verstehen wir den kollaborativen Produktionsprozess von Informationen und Wissen. Hierunter fallen beispielsweise die Online-Enzyklopädie Wikipedia und die Entwicklung von Open-Source-Software wie beispielsweise der Linux-Kernel oder das „Open Street Map“-Projekt. Als offenes digitales Ökosystem definiert unsere Arbeitsgruppe eine Architektur, die auf Soft- und Hardware (digital) basiert und über das Internet mit entsprechenden Geräten offen zugänglich ist. Wichtig ist hierbei, dass wir nicht das Internet als digitales Ökosystem verstehen, sondern vielmehr als einzelne Plattformen und Netzwerke wie etwa die Wikipedia. Im vorliegenden Dokument beschäftigen wir uns aufbauend auf unseren Arbeitsdefinitionen mit den fördernden und hemmenden Faktoren entlang der vier Dimensionen der sog. STEP-Analyse. Unser besonderes Augenmerk gilt dabei der verhaltensökonomischen Dimension von Wertschöpfung. Abschließend widmen wir uns den daraus abzuleitenden politischen und rechtlichen Handlungsempfehlungen hinsichtlich einer Förderung von Wertschöpfungsprozessen und Innovation.


Inhaltsverzeichnis

Digitale Wertschöpfung und Innovation

Was eigentlich ist Wert? Oft nehmen wir den Preis eines Gutes als Annäherung für seinen Wert an. Wir möchten im Folgenden zeigen, dass in offenen digitalen Netzwerken „Werte“ geschaffen werden können, die oft nicht durch einen Preis definiert sind. Um zu verstehen, was diese Werte in digitalen Netzwerken auszeichnet, muss die Wertschöpfung in ODWN genauer analysiert werden. Wenn man über Wertschöpfung in Netzwerken spricht, muss zunächst zwischen verschiedenen Wertschöpfungsebenen unterschieden werden. In ODWN kann der Begriff „Wert“ auf zwei Ebenen diskutiert werden. Einerseits kann die bloße Existenz eines Netzwerks bereits einen Wert für die NutzerInnen darstellen. Dies gilt etwa für soziale Netzwerke, die in erster Linie der Vereinfachung der sozialen Interaktionen und Kommunikation zwischen ihren TeilnehmerInnen dienen sollen. Andererseits werden Netzwerke als Grundlage für Wertschöpfung eingesetzt um digitale Artefakte kollaborativ hervorzubringen. Hier stellt sich die Frage, welchen Wert die Artefakte dann besitzen. Paradebeispiele sind Wikipedia-Artikel oder beispielsweise Open-Source-Software wie die Linux-Community, die sich zusammengeschlossen hat, um kollaborativ den Wertschöpfungsprozess im Rahmen der Entwicklung des Linux-Kernels zu erleichtern. Als der Journalist Ezra Klein im Jahr 2010 einem Aufruf von Jimmy Wales folgte und etwas Geld für Wikipedia spendete, fragte er sich zum ersten Mal, welchen Wert Wikipedia eigentlich habe (Klein 2010). Eine Antwort hatte er nicht, aber ihm fiel kein anderes intellektuelles Werk mit einem vergleichbar hohen Wert ein. Nach Aussagen des Gründers von Wikipedia, Jimmy Wales, ist die Enzyklopädie mehrere Milliarden Dollar wert (Wales 2007). Wert und Preis sind also nicht dasselbe: Durch seine Qualität besitzt ein (guter) Wikipedia-Artikel einen Wert – sein Preis aber ist für alle LeserInnen derselbe, nämlich null (von den Kosten für den Internetzugang einmal abgesehen). Für die Gesellschaft, Organisationen und ForscherInnen wird es zunehmend bedeutend, den Wert von digitalen Netzwerken beschreiben zu können, weil diesem meistens operative Kosten der digitalen Infrastruktur gegenüberstehen (Brynjolfsson et al. 2003: S. 1580). Der Wertschöpfungsprozess von digitalen Gütern wird durch drei Besonderheiten entscheidend beeinflusst: (1) Netzwerkeffekten, (2) gegen null tendierenden Grenzkosten und (3) dem Phänomen des „Long Tail“. VolkswirtschaftlerInnen betrachten den Netzwerkeffekt als Externalität, d. h. als Seiteneffekt der eigentlichen Wertschöpfung. Der direkte Netzwerkeffekt entsteht, wenn die Kosten für die Teilnahme an einem Netzwerk geringer sind als der daraus entstehende Nutzen für die TeilnehmerInnen. Das allererste Telefon zu kaufen ist sinnlos, solange niemand anderes auch eines besitzt. Der Wert des Geräts steigt mit jedem weiteren Telefon im Netz. Es hat nur dann einen Wert, wenn andere auch Telefone, und zwar in demselben Netz, benutzen. Der Wert, den das Telefon hat, steigt mit jedem zusätzlichen Telefonnutzer und jeder zusätzlichen Telefonnutzerin. Zudem kann man den Wert des Netzes noch beschreiben als Summe der jeweiligen Werte für die einzelnen TeilnehmerInnen. Damit wird klar, dass Netzwerkeffekte Skaleneffekte bedingen. Neoklassisch argumentiert ist die optimale Anzahl an Telefonnetzen daher eins, weil so die höchste TeilnehmerInnenzahl und der höchste Wert erreicht würden. Die natürliche Tendenz zur Monopolisierung kann durch Interoperabilitätsanforderungen geschwächt werden.

Interoperabilität

Indirekte Netzwerkeffekte entstehen beispielsweise dann, wenn die Nutzung eines Gutes die Produktion von Komplementärgütern anregt, was wiederum den Wert des Gutes erhöht. Am Beispiel von Open-Source-Software, die selbst genau wie Wikipedia frei zugänglich ist, lässt sich dieser Effekt anhand konkreter Zahlen darlegen. So hat im Jahr 2003 HP nur mit Linux-Software, -servern und -dienstleistungen 2,5 Mrd. US-Dollar umgesetzt (Heise 2004) oder IBM in 2002 1,5 Mrd. US-Dollar (Orzech 2003). Das Long-Tail-Phänomen beschreibt, wie es in digitalen Märkten möglich ist, eine wesentlich größere Produktvielfalt zur Verfügung zu stellen. Erklären kann man den Effekt mit dem Vergleich zwischen einer klassischen Buchhandlung, das Bücher auf seiner Ladenfläche verkauft, und einem Internet-Shop, der Bücher über ein zentrales Lager vertreibt. Im Falle des Ladengeschäftes müssen die InhaberInnen die Entscheidung treffen, welche Auswahl von Büchern den KundInnen präsentiert werden sollen, weil nur eine gewisse Anzahl von Regalmetern zur Verfügung steht. Der Konkurrent im Internet hingegen kann über zentrale Lager wesentlich günstiger eine größere Vielfalt von Büchern anbieten. Im Falle digitaler Bücher schließlich gibt es fast keine Beschränkung mehr im Hinblick auf die Bevorratung einer Auswahl. Der US-amerikanische Forscher Erik Brynjolfsson hat zusammen mit KollegInnen versucht, den Wert dieser Auswahlmöglichkeit auf einen gesamtgesellschaftlichen Wert zurückzuführen. Er nimmt dafür die KonsumentInnenrente, also die Differenz zwischen Nutzen eines Gutes für eine Person und dem Marktpreis desselben Gutes, als Ausgangspunkt für seine Überlegungen. Die KonsumentInnenrente lässt sich zeigen am Beispiel der Differenz zwischen dem Preis, den ein Nutzer oder eine Nutzerin bei eBay eigentlich bereit gewesen wäre für einen Designklassiker zu zahlen, und dem Preis, den er oder sie bei der Auktion dann zahlen musste.


Typologie

Um die vielen unterschiedlichen Ansätze und Projekte, wie Innovation in dezentralen Netzwerken zutage treten kann, zu kategorisieren, haben wir uns für eine grobe Untergliederung in die zwei Dimensionen entschieden, die unserer Meinung nach den stärksten Einfluss auf die konkrete Ausgestaltung haben. Die erste Dimension ist die Topologie des durch das Projekt entstehenden Community-Netzwerks. Wir unterscheiden hier wiederum zwischen zwei Typen.

Many-to-many

Netzwerke mit gleichberechtigten und gleichrangigen TeilnehmerInnen, die gemeinsam am Aufbau und der Entwicklung des Netzwerks beteiligt sind. Kennzeichnend für solche Netzwerke ist, dass die Community an der Governance des Netzwerks unmittelbar beteiligt ist, wie es bei vielen (nicht allen) komplett community-basierten Open-Source-Softwareprojekten z. B. der Fall ist. Ein weiteres Kennzeichen für solche Netzwerke ist der offene Umgang mit den vom Netzwerk hervorgebrachten digitalen Artefakten: Um den Austausch zwischen den Mitgliedern so reibungslos wie möglich zu gestalten, wird die Nutzung und Wiederverwendung der Artefakte mit möglichst wenigen (i. d. R. rechtlichen) Hürden belegt. Im Idealfall dürfen alle TeilnehmerInnen, also nicht nur die Mitglieder des Netzwerks, alle Artefakte frei nutzen, verändern und weiterverwenden. Dies senkt die Kosten für die Teilnahme beträchtlich, so dass eine potentiell sehr große Anzahl an Personen an der Erstellung der Artefakte mitwirken kann. Dadurch wird eine hohe Geschwindigkeit im Erstellungsprozess erreicht. Neben Open-Source-Software ist Wikipedia wohl das bekannteste Beispiel für ein Many-to-many-Netzwerk.

One-to-many

Netzwerke mit einem dominierenden Knoten, der den initialen Aufbau des Netzwerks geleistet hat und im Weiteren eine mehr oder weniger stark ausgeprägte Führungsrolle im Netzwerk übernimmt. Sehr häufig sind solche zentralen Knoten durch Firmen repräsentiert. Durch die hervorgehobene Position im Netzwerk kann das Verhalten des dominierenden Knotens eine signifikante Rolle bei der Entwicklung des Netzwerks spielen. Das Verhalten kann u. a. beeinflusst sein durch kommerzielle Interessen und Geschäftsmodelle, politische Interessen und Kontroll-/Machtansprüche. Wenn man die verschiedenen Sektoren betrachtet, wird deutlich, dass es in vielen vergleichbare Anstrengungen zur Öffnung gibt:

  • Im öffentlichen Bereich von Regierungen und Verwaltungen firmiert das Bemühen nach mehr Transparenz und Beteiligung unter Open Government bzw. Open Data.
  • Im privatwirtschaftlichen Bereich wird der Einbezug der Öffentlichkeit in den Wertschöpfungsprozess mit Open Innovation oder auch Crowdsourcing bezeichnet.
  • Im wissenschaftlichen Bereich geht es bei Open Access um den Zugang zu wissenschaftlicher Literatur und bei Open Research/Science um den Zugang zu den darunterliegenden Forschungsdaten.

Wie an der häufigen Verwendung des Begriffs „open“ erkennbar wird, ist der Grad der Offenheit des Netzwerks eine zweite wichtige Dimension im Rahmen der Klassifizierung. Offenheit besitzt hierbei rechtliche und technische Komponenten. a) Rechtlich kann der Zugang zum Netzwerk und zu seinen Artefakten je nach Ausgestaltung der Lizenzierung des in den Artefakten enthaltenen „geistigen Eigentums“ mehr oder weniger beschränkt sein. b) Technisch kann das Etablieren und Durchsetzen von bestimmten technischen Formaten, Protokollen, etc. eine De-facto-Kontrolle über den Zugang bedeuten. Je zugänglicher die technische Dokumentation solcher Formate und Protokolle ist, desto geringer ist der Aufwand auf Seiten potentieller Mitglieder des Netzwerks, wenn es darum geht, zur Erstellung von Artefakten beizutragen. Der Aufwand drückt sich dadurch aus, wie unabhängig vom Netzwerk Formate/Protokolle einsetzbar sind und wie einfach es ist, einen direkten Datenaustausch herzustellen (Aufwand für Konversionen, Interoperabilität). Beide Dimensionen spannen eine Landschaft mit vier Bereichen auf, die im Folgenden anhand von Beispielen illustriert wird. Der Grad der Offenheit ist, auch wenn die Grafik dies suggeriert, nicht binär (offen/geschlossen) gemeint, sondern bewegt sich auf einem Kontinuum. Wir haben uns aber dennoch entschlossen, unsere Beispiele einem Bereich zuzuordnen, um die Unterschiede hervorzuheben. Nicht von unserer Analyse erfasst werden Modelle, in denen eine Firma das Internet einfach als Vertriebskanal ohne weitere Interaktion zwischen den Knoten verwendet (z. B. Online-Banking, Internetversandhäuser, mitfahrgelegenheit.de, Etsy, eBay, DaWanda etc.).

Grafiken-collab2.jpg

  • Die hier verwendete Abgrenzung zwischen One-to-many- und Many-to-many-Netzwerken deckt sich nicht mit einer an den Kommunikationsgrundrechten orientierten Abgrenzung (vgl. Holznagel/Schumacher: Die Freiheit der Internetdienste).

Innovationshemmende und -fördernde Faktoren

In unserer tabellarischen Darstellung der innovationshemmenden und -fördernden Faktoren verwenden wir die Dimensionen der STEP-Analyse (Clulow 2005: S. 986). Neben der STEP-Analyse liegt unser besonderes Augenmerk auf den verhaltensökonomischen Faktoren, die nach den Tabellen in einem eigenen Abschnitt analysiert werden. Wir erheben keinen Anspruch auf eine vollständige Analyse der Einflussfaktoren, hoffen aber, die wichtigsten Faktoren in der folgenden Analyse berücksichtigt zu haben. Mit der tabellarischen Darstellung ist keine Priorisierung der Faktoren verbunden.

Mehrwert 2.1.jpg

Mehrwert 2.2.jpg

Verhaltensökonomische Dimension

Die von Regulatoren und PolitikerInnen implizit getroffenen Verhaltensannahmen über innovationsfördernde und innovationshemmende Faktoren in offenen digitalen Wertschöpfungsnetzen sind oft unzutreffend. Die verhaltensökonomische (Behavioral Economics) Brille schärft den Blick auf das oft diffuse Problem der kollaborativen Wertschöpfung in digitalen Netzwerken und zeigt, dass die Dinge selten so sind, wie sie scheinen. Die nachfolgend diskutierten Probleme dienen als allgemeine Grundlage für die Forderung nach einem stärker verhaltensorientierten Innovationsrecht. Unter Innovationsrecht verstehen wir in diesem Zusammenhang alle Rechtsnormen, die darauf abzielen, Wertschöpfungsprozesse in offenen digitalen Netzwerken zu steuern (siehe auch: Recht und Innovation im digitalen Bereich – ein polydimensionales Verhältnis). Die Frage ist dabei nicht, ob staatliche Regulierung erforderlich ist – in vielen Fällen sind rechtliche Interventionen unverzichtbar. Die Frage ist, wie das Recht gestaltet sein sollte. Die Wahl eines guten Institutionendesigns ist allerdings meist anspruchsvoller als die ideologisch gefärbte Diskussion nach dem Schema „Staatliche Regulierung versus Freiheit der Internetdienste“.

a) Die Gefahr des Crowding-out durch monetäre Anreize
In der Diskussion um die Proprietarisierung von Wissen und die Vergütung von Informationsproduktion wird immer wieder das Argument vorgebracht, dass eine Erhöhung der monetären Anreize positive Auswirkungen auf Innovation hat. Dieser These liegt das Entscheidungsmodell der neoklassischen Ökonomie zugrunde (sog. Rational-Choice-Theorie). Danach wird die einzelnen Akteurinnen als rationale und eigennutzenmaximierende AkteurInnen, als „homo oeconomicus“ oder „ökonomischer Superman“ modelliert, die ihren Nutzen auf der Basis eines Sets stabiler Präferenzen maximiert und zu diesem Zweck eine optimale Menge an entscheidungsrelevanten Informationen akkumuliert und verarbeitet. Natürlich sind die meisten Menschen in Wirklichkeit alles andere als ökonomische Superfrauen und Supermänner, deren Motivation zur Informationsproduktion sich allein aus monetären Anreizen speist.
Schon in den 1970er Jahren entbrannte zwischen den Ökonomen Richard Titmuss und Kenneth Arrow ein Streit um die Effizienz der britischen und US-amerikanischen Blutspendesysteme (vgl. Benkler, The Wealth of Networks, 2006). Während das britische Blutspendesystem allein auf der Grundlage von freiwilligen und unvergüteten Blutspenden organisiert war, beruhte das US-amerikanische Blutspendesystem auf einem überwiegend marktbasierten (kommerziellen) Austausch von Blutpäckchen. Aus ökonomischer Sicht umso erstaunlicher ist es, dass in Großbritannien höherqualitatives Blut in Umlauf gebracht wurde, die Menge an verschwendetem Blut geringer war und in Krankenhäusern weniger Blutmangel herrschte. Woran liegt das? Sind BritInnen einfach nur die besseren Menschen? Die verhaltensökonomische Forschung, insbesondere der Ökonom Bruno Frey, führt den beschriebenen Effekt u. a. auf die komplexe Interaktion zwischen intrinsischer und extrinsischer Motivation zurück (Frey, Not Just for Money: An Economic Theory of Personal Motivation, 1997).
Während extrinsische Motivation durch externe Faktoren, etwa Belohnungen, Bestrafungen oder – subtiler – Preise, beeinflusst wird, speist sich intrinsische Motivation aus der Person selbst, aus ihrem Wunsch nach persönlicher Zufriedenstellung oder Spaß. Nicht selten führt eine Erhöhung extrinsischer Motivation dazu, dass die intrinsische Motivation gehemmt wird (sog. Crowding-out). Man stelle sich einmal vor, dass der eigene Partner oder die eigene Partnerin Geld dafür zahlt, dass man mit ihm oder ihr einen romantischen Abend verbringt. Solche Anreize bergen die Gefahr, dass die individuelle Selbstbestimmung oder die individuelle Selbstwertschätzung gehemmt wird, weil der einzelne Mensch gewissermaßen eine Überkompensation für das erhält, was er oder sie ohnehin tun würde, oder das Gefühl hat, dass seine oder ihre intrinsische Motivation nicht wertgeschätzt wird (Frey/Oberholzer-Gee, The Cost of Price Incentives: An Empirical Analysis of Motivation Crowding-Out, American Economic Review 87 (1997), S. 746 ff.). Der einzelne Mensch nimmt die extrinsische Motivation dann als Signal dafür wahr, dass er oder sie die gesellschaftlichen Erwartungen oder das sozial-normativ Gesollte fehlinterpretiert hat, und reduziert in der Folge seine oder ihre Anstrengung. Dass extrinsische Motivation durch Preisregulierung schädlich sein kann, belegt auch ein Experiment bezüglich des Abholungsverhaltens von Eltern (Gneezy/Rustichini, A Fine Is a Price, Journal of Legal Studies 29 (2000), S. 1 ff.): Nachdem es in einigen Kindergärten zu regelmäßigen Verspätungen der Eltern gekommen war, wurde eine Strafzahlung als Sanktion für verspätete Abholungen eingeführt. Die Einführung dieser Sanktion hatte zur Folge, dass die Eltern ihre Kinder noch später abholten. Ob monetäre Anreize in offenen digitalen Wertschöpfungsnetzen innovationsfördernd wirken, lässt sich daher nur auf der Grundlage einer präzisen Analyse des jeweiligen sozialen Normenbestandes beantworten.

b) Erleichterung von Innovation durch Absenkung der Investitionsschwellen und Stärkung von Interoperabilität
Die Wertschöpfung in offenen digitalen Netzwerken sieht sich aber noch mit einem anderen ökonomischen Problem konfrontiert: dem sog. Public-Goods-Problem. In der ökonomischen Theorie gilt das Bestehen öffentlicher Güter – äußere Sicherheit, Luft, Wissen – als eine Form des Marktversagens. Öffentliche Güter bergen das soziale Dilemma, dass die einzelne Person grundsätzlich keinen Anreiz hat, an der Bereitstellung eines solchen Guts zu partizipieren. Die rationale Strategie für die einzelne Person besteht darin, auf den Beiträgen der anderen „trittbrettzufahren“ („freeriden“), obwohl eine effiziente Bereitstellung des Gutes aus wohlfahrtstheoretischer Sicht einen kooperativen Beitrag aller NutzerInnen erfordern würde. Fehlende Kooperationsbereitschaft – darauf hat schon Garrett Hardin in seinem düsteren Porträt einer Tragödie der Allmende (tragedy of the commons) hingewiesen – mündet dann in die Überfischung der Meere, die Übernutzung von Weiden oder Defizite beim dezentralen Vollzug sozialer Normen. Nach der ökonomischen Theorie rechtfertigt dies staatliche Eingriffe.
Doch gilt das, was für natürliche Ökosysteme gilt, auch für offene Netzwerke in digitalen Ökosystemen? Kollaborative Wertschöpfungsprozesse in digitalen Netzwerken weisen eine ähnliche Anreizstruktur wie klassische öffentliche Güter auf. Wie Nobelpreisträgerin Elinor Ostrom gezeigt hat, sind NutzerIngemeinschaften bei der Bewirtschaftung gemeinsam geteilter Ressourcen allerdings durchaus in der Lage, potentiellen Bewirtschaftungskonflikten durch kooperative Regelsetzung und Regelunterwerfung vorzubeugen, ohne dass es auf die Zuweisung von Eigentumsrechten oder die Bepreisung von Gütern ankäme (Ostrom, Governing the Commons, 1990). Ob eine solche Commons-basierte Wertschöpfung funktioniert und die beteiligten AkteurInnen Anreize zur Kooperation haben, hängt aber stark davon ab, wie offen der Zugang zu den geteilten Ressourcen (z. B. dem digitalen Netzwerk) ist und welchen Regeln sich die AkteurInnen unterworfen haben (Benkler, The Wealth of Networks, 2006).
Die Offenheit digitaler Netzwerke kann sich interessanterweise in zwei diametral entgegengesetzte Richtungen auf Wertschöpfungsprozesse auswirken. Je offener und loser ein Netzwerk ist, desto schwieriger wird Kooperation. Eine Erklärung hierfür liegt im Reziprozitätsparadigma der konditionalen Kooperation bei der Bereitstellung öffentlicher Güter: In der Regel haben AkteurInnen einen strategischen Anreiz zu kooperieren, wenn sie bei Nichtkooperation mit einer Sanktionierung durch die anderen AkteurInnen rechnen müssen. Dies ist insbesondere dann der Fall, wenn die AkteurInnen wiederholt aufeinandertreffen und lernen können, wie die Regeln der Community funktionieren. Wie James Acheson in seinem Buch über The Lobster Gangs of Maine schreibt, beruht die Selbstorganisation der HummerfischerInnen im US-Bundesstaat Maine auf einem engen Netz sozialer Beziehungen und wiederholter sozialer Interaktion (vgl. Ellickson, Order Without Law, 1991). Im Internet führen die mit Netzwerkeffekten verbundenen Skaleneffekte oft zu einer Monopolisierung (z. B. Facebook auf dem Markt für soziale Netzwerke oder Google auf dem Suchmaschinenmarkt) und einer Herausbildung ummauerter Gärten (sog. Walled Gardens) mit klar definierten GartenbewohnerInnen (Produsern) und Reziprozitätsregeln, die Kooperation unter Umständen fördern können.
Die viel gewichtigere Kehrseite von Walled Gardens ist aber, dass sie oft die Investitionsschwellen erhöhen und sich dadurch abschreckend auf potentielle InnovatorInnen auswirken können. Da Kreativität und Wissen in kleinen Bündeln oft auf mehrere Zehntausend, Hunderttausend oder gar Millionen Produser verteilt ist, sind innovative Wertschöpfungsprozesse auf effiziente Mechanismen zur Aggregation dieses Wissens angewiesen. Aggregation kann nur funktionieren, wenn die mit ihr verbundenen Transaktionskosten geringer sind als der erwartete Nutzen der Innovation. Da sich der Nutzen von Innovation ex ante nie genau ermitteln lässt, treffen die Produser bei der kollaborativen Wertschöpfung eine Entscheidung unter Unsicherheitsbedingungen: Sie tragen Kosten (z. B. wenn sie Zeit investieren), ohne genau zu wissen, welcher Gewinn dieser Investition gegenübersteht. Dass die potentiellen Gewinne auf individueller Ebene so gering sind und es in offenen digitalen Netzwerken meist keine Vergütungsmechanismen gibt, ist wahrscheinlich nicht das schlagende Argument.
Problematisch ist die Kostenseite. Man stelle sich eine mittelgroße Produser-Community für soziale Applikationen bei Facebook vor. Wenn die Produser aus irgendeinem Grund außerhalb von Facebook kollaborieren möchten, wird der Wechsel aufgrund eines sog. Lock-ins und erhöhter Transaktionskosten für ein Verlassen des Walled Garden (Wechselkosten) erschwert (vgl. van Schewick, Internet Architecture and Innovation, 2010, S. 259 ff.). Wechselkosten beeinträchtigen die Entscheidungsfreiheit der Produser. Dies ist auch deshalb problematisch, weil Menschen in der Regel Verluste stärker gewichten als Gewinne in gleicher Höhe (sog. Verlustaversion) (Kahneman/Tversky, Prospect theory: An analysis of decision under risk, Econometrica 47 (1979), S. 263 ff.). Der Einwand, das Lock-in-Problem könne der Markt selbst lösen, ist vor diesem Hintergrund unzutreffend. Denn dafür müsste es einen Markt, also eine generelle Entscheidungsfreiheit der Produser und Wettbewerb der Plattformen, überhaupt geben. Geringe Wechselkosten sind mit anderen Worten nicht Folge marktlicher Selbstregulierung, sondern Voraussetzung eines funktionsfähigen Marktes und Wettbewerbs der Plattformanbieter. Da die BetreiberInnen von Walled Gardens in der Regel keinen Anreiz haben, den Produsern einen Wechsel zu erleichtern, dürfte das Problem nicht ohne Regulierung zu lösen sein.
Regulierung durch Code, wie sie von Lawrence Lessig vorgeschlagen wurde (Lessig, Code Version 2.0, 2006), kann die Kosten für die Benutzung technischer Infrastrukturen und digitaler Netzwerke erheblich reduzieren. Die Flexibilität und Autonomie, mit der Technik und Formate verwendet werden können, reduziert nicht nur Transaktions- und Wechselkosten. Sie senkt vor allem die Investitionsschwelle und fördert die Entscheidungsfreiheit. Wenn Regulierung eine granulare und flexible Verteilung der Kosten ermöglicht, kann der innovationshemmende Einfluss von Verlustaversion deutlich abgemildert werden. Dies kann einerseits durch Anforderungen an die Interoperabilität technischer Formate sichergestellt werden, etwa durch ein Recht auf Datenportabilität, wie es in Artikel 18 des Vorschlags über eine europäische Datenschutzverordnung verankert ist. Ein Recht auf Datenportabilität und kompatible technische Formate wird allerdings nicht ausreichen, um die Produser zu einem Wechsel zu bewegen. Denn die meisten Produser dürften trotz geringer oder gar inexistenter Wechselkosten aufgrund psychologisch zu erklärender Trägheit (sog. status quo bias) in den Walled Gardens verharren. Das Recht auf Datenportabilität kann durch flankierende Informationsvorschriften, die die Produser auf die Wechselmöglichkeit hinweisen, effektiviert werden. So könnten die Produser darüber informiert werden, dass ein Wechsel zu einer anderen Plattform mit Gewinnen oder ein Verharren auf der Plattform mit Verlusten verbunden ist.
Die Rechtsordnung kann andererseits auf die Modularität von Projekten Einfluss nehmen. Gemeint ist damit das Ausmaß, in dem ein Innovationsprojekt in kleinere Komponenten oder Module unterteilt werden kann, die zunächst unabhängig voneinander produziert werden können und erst am Ende des Wertschöpfungsprozesses zusammengefügt werden müssen (Benkler, The Wealth of Networks, 2006). Codewriter, die wissen, dass sie nur eine Zeile Code zu schreiben haben und dabei zeitlich und technisch flexibel sind, tragen geringere Kosten als vertraglich gebundene InvestorInnen, die innerhalb einer vereinbarten Zeit ein ganzes Softwarepaket entwickeln müssen. Wikipedia-EditorInnen sind schon mit der Aktualisierung einer Jahreszahl „dabei“. Gelingt es der Rechtsordnung die technisch bedingten Innovationskosten in digitalen Netzwerken granular zu halten und auf die NutzerInnen zu verteilen (Kostendispersion), kann der innovationshemmende Effekt von Verlustaversion abgemildert werden.

c) Die Gefahr von Framing-Effekten, Ankereffekten und Pfadabhängigkeiten
„Kollaborative Wertschöpfungsprozesse in digitalen Netzwerken bringen höherwertige Information hervor.“ So könnte die voreilige These vieler BefürworterInnen kollektiver Wertschöpfungsprozesse in offenen digitalen Netzwerken lauten. Digitale Netzwerke sind ein Instrument, durch das die Weisheit der Massen (vgl. Surowiecki, The Wisdom of Crowds, 2004) zusammengeführt werden kann. Doch ist das durch Crowdsourcing-Mechanismen „gepoolte“ Wissen tatsächlich und grundsätzlich besser als die Summe der Informationen, die über die Individuen verteilt sind? In seinem Buch Infotopia weist der US-amerikanische Rechtswissenschaftler Cass R. Sunstein darauf hin, dass dies u. a. davon abhängt, ob die Annahmen, die dem sog. Condorcet-Jury-Theorem zugrunde liegen, in der sozialen Wirklichkeit zutreffen (Sunstein, Infotopia, 2006). Die Kernaussage des Condorcet-Jury-Theorems ist, dass bei binär codierten Fragen (richtig/falsch) die Wahrscheinlichkeit einer richtigen Antwort mit steigender Anzahl der am Antwortprozess beteiligten AkteurInnen gegen 100 % geht. Dieses Theorem beruht allerdings auf der Annahme, dass jeder einzelne Akteur die Frage mit einer Wahrscheinlichkeit von mehr als 50 % zutreffend beantwortet und die Wahrscheinlichkeit, dass ein einzelner Akteur oder eine einzelne Akteurin die richtige Antwort kennt und gibt, statistisch unabhängig davon ist, ob die anderen AkteurInnen die richtige Antwort kennen und geben. Die Wahrscheinlichkeit einer richtigen Antwort geht umgekehrt gegen 0 %, wenn die Wahrscheinlichkeit, dass jeder einzelne Akteur und jeder einzelne Akteurin die richtige Antwort kennt, geringer als 50 % ist. Wir wollen anhand von zwei Problemtypen zeigen, weshalb dies insbesondere für kollaborative Wertschöpfungsprozesse problematisch sein kann.
Das erste Problem liegt darin, dass Menschen bei der richtigen Beantwortung von Fragen und der zutreffenden Einschätzung von Wahrscheinlichkeiten oft systematischen kognitiven Verzerrungen (Cognitive Biases) unterliegen. Derartige „Biases“ werden meist durch die Darstellung des Problems bedingt (sog. Framing Effects), z. B. bei der Einschätzung von Wahrscheinlichkeiten. Nehmen wir folgendes Beispiel: Linda ist 30 Jahre alt, Single, selbstbewusst und sehr intelligent. Sie hat einen Abschluss in Philosophie. Als Studentin war sie intensiv im Bereich Antidiskriminierung und soziale Gerechtigkeit engagiert und hat an Demonstrationen gegen Atomkraft teilgenommen. In zahlreichen Experimenten hielten es viele Probanden für wahrscheinlicher, dass Linda „Bankangestellte und in einer feministischen Bewegung aktiv“ ist, als dass sie „Bankangestellte“ ist (Tversky/Kahneman, Judgment under Uncertainty: Heuristics and Biases, in: Kahneman et al. (Hrsg.), Judgment under Uncertainty: Heuristics and Biases, 1982). Die kognitiv konstruierte Ähnlichkeit von Umständen führt dazu, dass viele Menschen irrtümlicherweise die Wahrscheinlichkeit einer Zugehörigkeit zu den unterschiedlichen Kategorien A und B zusammen für höher halten als nur die Wahrscheinlichkeit einer Zugehörigkeit zur Kategorie A, obwohl Kategorie B nicht Teilmenge von Kategorie A ist (sog. Conjunction Fallacy).
Das zweite Problem liegt darin, dass Wahrscheinlichkeitseinschätzungen und Antworten in Kollektiven, z. B. bei der Wertschöpfung in Blogs, selten statistisch unabhängig sind. Dies liegt in erster Linie am kommunikativen Austausch im Netzwerk. Man stelle sich vor, dass man nach der EinwohnerInnenzahl der Stadt Bonn gefragt und nebenbei darüber informiert wird, dass die PassagierInnen der größten deutschen Fluggesellschaft im Jahr rund 1,5 Millionen Liter Tomatensaft konsumieren. Obwohl die Information nichts mit der Frage zu tun hat, wird die Zahl „1,5 Millionen“ mit großer Wahrscheinlichkeit einen kognitiven Anker setzen und die Schätzung der Einwohnerzahl Bonns nach oben beeinflussen. Cass R. Sunstein hat davor gewarnt, dass sich solche Anker in Informationskaskaden fortsetzen können (Sunstein, a. a. O., S. 88 ff.). Kollektive teilen eine Einschätzung, weil sie sich von Anbeginn des Informationsproduktionsprozesses so eingebürgert hat – und obwohl sie unter Umständen falsch ist. Gruppen sind daher ebenso anfällig für Ankereffekte wie Individuen (Kerr et al., Bias in Judgment: Comparing Individuals and Groups, Psychological Review 103 (1996), S. 689 ff.). Manche Biases wie die Conjunction Fallacy treten in Kollektiven teilweise sogar stärker auf (Stasson et al., Group Consensus Approaches on Cognitive Bias Tasks: A Social Decision Scheme Approach, Japanese Psychological Research Journal 30 (1988), S 68 ff.). Problematisch ist vor diesem Hintergrund vor allem die automatisierte Datenaggregation (z. B. von Google). Natürlich ist automatisierte Aggregation ein Segen: Ohne sie wären Grippeepidemien viel schwieriger vorherzusehen. Sie ist aber auch ein Fluch, denn sie kann die aufgezeigten Probleme nicht durch einen einfachen Algorithmus lösen, da sie nicht in die Köpfe der Menschen blicken und die subtilen psychologischen Muster erkennen kann, die bei der kollektiven Informationsgenerierung am Werk sind und uns oft gemeinsam in die Irre führen.

d) Sozialer Druck und Groupthink
Was für Demokratie gilt, gilt bisweilen auch für Wertschöpfungsprozesse in digitalen Netzwerken. Wenn kein im Habermas’schen Sinne herrschaftsfreier Diskurs gewährleistet ist, können kommunikativer Austausch und Deliberation keine legitimen Outputs generieren. Doch kann kommunikativer Austausch wirklich als Katalysator kollektiver Wertschöpfung qualifiziert werden? In kollektiven Kommunikationsprozessen wirken oft unsichtbare Kräfte, die bisweilen verheerende Folgen haben. Wie die berühmten Experimente des Psychologen Solomon Asch zeigen, kann sozialer Druck dazu führen, dass vereinzelte Individuen wertvolle oder richtige Informationen nicht offenlegen, weil sie soziale Sanktionen befürchten (Groupthink). Doch wie funktionieren diese gruppenpsychologischen Kräfte eigentlich? Zunächst belegt die empirische Sozialforschung, dass Gruppenmitglieder dazu neigen, viel überzeugter von ihren Einschätzungen zu sein und extremere Positionen zu vertreten, nachdem sie miteinander gesprochen haben (Gruppenpolarisierung). Viele der in kollektiven Wertschöpfungsprozessen entstehenden Dynamiken, gerade in Blogs oder bei sich zusammenbrauenden Shitstorms im Netz, dürften dem Phänomen der Gruppenpolarisierung geschuldet sein. Cass R. Sunstein weist auf ein interessantes Polarisierungsexperiment in Colorado hin, bei dem ProbandInnen aus der liberalen Stadt Boulder und der konservativen Stadt Colorado Springs in homogene Gruppen eingeteilt wurden und in diesen diskutieren mussten (Sunstein, a. a. O., S. 45 ff.). Die ProbandInnen vertraten am Ende der Diskussion in fast jeder Gruppe eine extremere Meinung als zuvor. Kernaussage ist, dass ex ante bestehende Einschätzungen und kognitive Verzerrungen durch kommunikativen Austausch in homogenen Gruppen in vielen Fällen verstärkt werden (ebd., S. 57 ff.).
In der Gruppenpsychologie werden die unsichtbaren Kräfte, die auch in Andersens Märchen Des Kaisers neue Kleider am Werk sind, als Hidden-Profiles-Phänomen bezeichnet. Dieses Phänomen beschreibt den Umstand, dass Kollektive eine wertvolle oder richtige Information zwar erlangen könnten, dies aber aus psychologischen Gründen nicht geschieht. Nicht nur sozialer Druck ist hierfür verantwortlich. Von der Sozialforschung wird auch der Common-Knowledge-Effekt als Ursache angeführt (Gigone/Hastie, The Common Knowledge Effect: Information Sharing and Group Judgments, Journal of Personality and Social Psychology 65 (1993), S. 959 ff.). Danach hat Wissen, das alle Gruppenmitglieder von vornherein haben, stärkeren Einfluss auf die Gruppenentscheidung als Wissen, das nur bestimmte (periphere) Gruppenmitglieder haben. Kollektive Wertschöpfungsprozesse laufen dann Gefahr, das Wissen zu produzieren, das die allermeisten ohnehin schon hatten. Diese Gefahr besteht erst recht in kleineren Walled Gardens oder relativ homogenen Produser-Communitys. Auch die personalisierte Bereitstellung von Information auf der Grundlage der Informationsaggregation von Personen mit ähnlichen Präferenzen – wie sie von der personalisierten Informationsaggregation bei Amazon oder Google bekannt ist – kann zu einer solchen Verfestigung kognitiver Verzerrungen und einer „Radikalisierung“ führen.
Natürlich müssen Regulatoren auch diese verhaltensökonomischen Einsichten cum grano salis betrachten. Manche Wertschöpfungsprobleme können so strukturiert werden, dass Kollektive weniger anfällig für innovationshemmende Biases sind. Das gilt etwa dann, wenn ein Wertschöpfungsproblem als sog. Heureka-Problem strukturiert werden kann, es also eine offensichtliche Lösung des Problems gibt, die sich als solche erschließt, sobald sie in den Diskurs eingebracht wird. Das erfordert nicht zwingend archimedische Kreativität. So produzieren Jurys bisweilen mehr und bessere Informationen, wenn sie die Identität des Schuldigen „bestimmen“ müssen, als wenn sie den Verdächtigen ermitteln müssen, der „mit der höchsten Wahrscheinlichkeit den Mord begangen hat“ (Stasser/Stewart, Discovery of Hidden Profiles by Decision-Making Groups: Solving a Problem versus Making a Judgment, Journal of Personality and Social Psychology 63 (1992), S. 428 ff.). Kollektive sind eher bereit nach Information zu suchen, wenn sie wissen, dass es eine Lösung für das Problem gibt, als wenn sie davon ausgehen, dass ein Konsens erreicht werden muss. Schließlich kann die Rechtsordnung auch versuchen, auf das Problem der Selbstselektion (Umstand, dass sich Menschen mit ähnlichen Präferenzen zusammentun) in kleineren Produser-Communities einzuwirken, indem Rechtsvorschriften zur Wahrung von Anonymität in kollektiven Wertschöpfungsprozessen geschaffen und individuelle Informationen vor dem Austausch mit anderen Mitgliedern der Produser-Community dokumentiert werden. Eine offene, flexible und neutrale Netzwerkarchitektur (van Schewick, a. a. O., 2010) kann auch zufällige Innovationen (Serendipität) fördern: Menschen, die sich zufällig in unbekannten Gefilden bewegen, werden mit größerer Wahrscheinlichkeit Zufallsfunde machen, als wenn sie sich in ihnen bekannten abgeschotteten Netzwerken bewegten.

Impulse und Interventionen

Abschließend möchten wir basierend auf der Darstellung der Faktoren, die Wertschöpfung in digitalen Netzwerken beeinflussen, einige Impulse für mögliche Interventionen geben. Festzuhalten ist, dass das gegenwärtige Recht keine Instrumente zur Lösung des Produser-Lock-ins bereitstellt. Das Kartellrecht kann in den meisten Fällen nur bedingt Abhilfe schaffen, da Walled Gardens zwar i. d. R. eine marktbeherrschende Stellung (Art. 102 AEUV) besitzen, die Nutzung technisch inkompatibler Formate allein aber keinen Missbrauch dieser Stellung begründen dürfte. Auch das geltende Verbraucherschutzrecht ist hier ein stumpfes Schwert, da nicht gesichert ist, ob die Produser bzw. Prosumenten aufgrund ihrer hybriden Tätigkeit überhaupt als VerbraucherInnen qualifiziert werden können. Eine (rechtliche) Festlegung offener Standards unter Einbezug aller Stakeholder kann hier unter Umständen der Verfestigung von Monopolen (Walled Gardens) und damit der Notwendigkeit eines nachträglichen kartellrechtlichen Zugriffs vorbeugen. Einige grenzüberschreitende Online-Plattformen haben eine Monopolstellung und eine Vielzahl von BürgerInnen ist auf diese Plattformen angewiesen. Daher sind Überlegungen dahingehend erforderlich, ob diese Plattformen zukünftig wie EnergieversorgerInnen behandelt werden sollten („essential utilities doctrine“).
Wichtig ist begleitend dazu eine öffentliche Debatte, durch die das gesellschaftliche Bewusstsein für die Bedeutung von offenen Standards, Interoperabilität und Portabilität von NutzerIndatensätzen zwischen sozialen Netzwerken geschärft wird (nicht nur Datenportabilität von personenbezogenen Daten i. S. v. Artikel 4 des Vorschlags über eine europäische Datenschutzverordnung).
Die Darstellung der Faktoren, die Einfluss auf offene Wertschöpfungsnetzwerke haben, und die komplexen verhaltensökonomischen Wirkungsmuster zeigen, welche hohen Ansprüche an Medien- und Internetkompetenz der Zivilgesellschaft und der politischen EntscheidungsträgerInnen bestehen. Während einerseits die öffentliche Debatte zur Kompetenzbildung in dieser Frage gefördert werden muss, sollten darüber hinaus die besprochenen Aspekte in Bildungsangebote – von der schulischen Phase bis zur Erwachsenenbildung – integriert werden. Dazu gehört insbesondere eine Aufklärung über Chancen und Risiken automatischer Informationsaggregation und kollektiver Wissensgenerierung.


Literatur

Benkler, Yochai, The Wealth of Networks, 2006

Brynjolfsson, Erik et al., Consumer Surplus in the Digital Economy Estimating the Value of Increased Product Variety at Online Booksellers, 2003

Clulow, Val, Futures dilemmas for marketers: can stakeholder analysis add value?, European Journal of Marketing, 39 (9/10), 2005, S. 978–997

Daffara, Carlo, Transfer Summit, 2011

Ellickson, Robert, Order Without Law, 1991

Frey, Bruno S., Not Just for Money: An Economic Theory of Personal Motivation, 1997

Frey, Bruno S. /Oberholzer-Gee, Felix, The Cost of Price Incentives: An Empirical Analysis of Motivation Crowding-Out, American Economic Review 87, 1997, S. 746 ff.

Gigone, Daniel / Hastie, Reid, The Common Knowledge Effect: Information Sharing and Group Judgments, Journal of Personality and Social Psychology 65, 1993, S. 959 ff.

Gneezy, Uri /Rustichini, Aldo, A Fine Is a Price, Journal of Legal Studies 29, 2000, S. 1 ff

Holznagel, Bernd / Schumacher, Pascal, Die Freiheit der Internetdienste, MIND 1, Co:llaboratory Discussion Paper Series No. 1, Grundrecht Internetfreiheit, 2011S. 14 ff.

Hughes, Janet, Open Data Value Chain, 2011

Kahneman, Daniel /Tversky, Amos, Prospect theory: An analysis of decision under risk, Econometrica 47 (1979), S. 263 ff.

Kerr, Norbert L. et al., Bias in Judgment: Comparing Individuals and Groups, Psychological Review 103, 1996, S. 689 ff.

Klein, Ezra, What is Wikipedia worth, 2010

Lessig, Lawrence, Code Version 2.0, 2006

Orzech, Dan, Can You Make Money Selling Linux?, 2003

Ostrom, Elinor, Governing the Commons, 1990

Stasser, Garold / Stewart, Dennis, Discovery of Hidden Profiles by Decision-Making Groups: Solving a Problem versus Making a Judgment, Journal of Personality and Social Psychology 63, 1992, S. 428 ff.

Stasson, Mark et al., Group Consensus Approaches on Cognitive Bias Tasks: A Social Decision Scheme Approach, Japanese Psychological Research Journal 30, 1988, S 68 ff.

Sunstein, Cass R., Infotopia, 2006

Surowiecki, James, The Wisdom of Crowds, 2004

Tversky, Amos / Kahneman, Daniel, Judgment under Uncertainty: Heuristics and Biases, in: Kahneman, Daniel et al. (Hrsg.), Judgment under Uncertainty: Heuristics and Biases, 1982 van Schewick, Barbara, Internet Architecture and Innovation, 2010, S. 259 ff.

Wales, Jimmy, Wikipedia is “worth billions”, 2007

Wilkens, Andreas, HP setzte 2,5 Milliarden US-Dollar mit Linux um, 2004

Autoren
comments powered by Disqus