Anmelden Anmelden
MEHR

WIDGETS

Widgets

Gewünschte Seiten
Wer ist online?
Artikel-Werkzeuge

Free and Open Source, Open Access, Creative Commons und E-Learning – Open Access

Free and Open Source, Open Access, Creative Commons und E-Learning – Open Access

Wechseln zu: Navigation, Suche


Free and Open Source, Open Access, Creative Commons und E-Learning – Remix Culture für das Lernen mit digitalen Medien

Maik Stührenberg & Sebastian Seitz (14. März 2013) Dieses Werk bzw. Inhalt steht unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz

Open Access

Open Access bedeutet für den Bereich der Wissenschaft – und damit zu einem hohen Grade auch für die wissenschaftliche Lehre – das, wofür FOSS im Software-Bereich steht: freier Zugang zu wissenschaftlichen Informationen und Veröffentlichungen. Eine exakte Definition fehlt allerdings, wie auch Herb (2012) bemängelt. Bei beiden Modellen steht hinter dem Begriff eine Bewegung von Stakeholdern aus dem entsprechenden Bereich – bei OA sind es Wissenschaftler, die zum einen unzufrieden mit aktuellen Modellen der Verwertungsgesellschaften sind und zum anderen für eine freie Verfügbarkeit von Wissen als Resultat öffentlich geförderter Projekte einstehen – im Gegensatz zum aktuell noch vorherrschenden Modell des „Toll Access“, d.h. dem Zugriff auf wissenschaftliche Artikel gegen Zahlung einer Gebühr (Herb 2012, S. 12).

Historische Entwicklung

Die Anfänge der Bewegung lassen sich bis weit ins 20. Jahrhundert zurückverfolgen, auch wenn der Begriff „Open Access“ erst Anfang dieses Jahrhunderts aufkam. Auch wenn der genaue Zeitpunkt des Starts je nach Betrachtungsweise strittig ist (während Sietmann 2006, S. 197 erst 1991 als Anfang ansieht, nennt die deutlich umfangreichere Timeline of the open access movement 2013, weit frühere Ansätze), lässt sich festhalten, dass die Initiative originär von Akteuren der Wissenschaft ausging und auch heute noch ausgeht. Erste frei zugängliche wissenschaftliche Zeitschriftenartikel (die weiterhin vor der Veröffentlichung einem Peer-Review-Prozess unterworfen waren), finden sich bereits 1987 im Journal „New Horizons in Adult Education and Human Resource Development“ (Hugo and Newell 1991). Es folgten jährlich neue Zeitschriften in verschiedenen Disziplinen, die ihre begutachteten Beiträge auch oder ausschließlich über das Internet offen zugänglich machen, beispielsweise „LIBRES: Library and Information Science Research Electronic Journal“ der Curtin University of Technology 1991 oder „Jusline“ für deutsche juristische Texte 1995. Möglich gemacht wurden diese ersten Schritte auch durch die Veröffentlichung erster Webbrowser zu Beginn der 1990er Jahre sowie die Freilegung der Serversoftware durch das CERN als Open Source (Timeline of the open access movement 2013). Hierdurch konnten sowohl neue Anbieter (Angebot) als auch neue Leser (Nachfrage) entstehen, was ein wesentlicher Grund für die schnelle Verbreitung der Idee gewesen sein dürfte. Insofern hat die Open-Source-Idee einen nicht zu vernachlässigenden Anteil an Open Access.[1] Auch das beschließt 1994, seine Ergebnisse über das World Wide Web frei zugänglich zur Verfügung zu stelle, im selben Jahr starten in Deutschland und Europa die Dokumentenserver Math-Net und PhysDoc. 1999 starten die Open Archive Initiative (OAI) sowie das Open Citation Project. Erstere ist auch heute noch maßgeblich an der Entwicklung von Standards im Bereich Metadaten und Austausch von digitalen Assets beteiligt (vgl. Simons und Bird 2003), beispielsweise mit OAI-PMH, dem OAI Protocol for Metadata Harvesting, das die Interoperabilität zwischen verschiedenen Anbietern digitaler Informationen gewährleistet (Lagoze et al. 2008). Im Dezember 2001 findet in Budapest die erste Konferenz zum Thema statt. Ausgerichtet vom Open Society Institute ist sie die Initialzündung für die am 14. Februar veröffentlichte „Budapester Erklärung“ (Schirmbacher 2007, spricht auch von der „Geburtsurkunde der Open-Access-Initiative“). Der Aufruf, der von zahlreichen Wissenschaftlern und Organisationen mitgetragen wird, verfolgt das Ziel, begutachtete wissenschaftliche Beiträge vollständig frei elektronisch allen Interessierten zugänglich zu machen. Damit beschränkt er sich aber eben auf genau diesen klar definierten Teil wissenschaftlicher Informationsschöpfung und lässt beispielsweise Buchkapitel oder sonstige Arbeiten auf Honorarbasis – u. a. eben auch Lehrbücher –unberücksichtigt. Im April 2003 folgt in Bethesda, USA, die gleichnamige Erklärung, die Stellungnahmen seitens Institutionen und Förderorganisationen wissenschaftlicher Arbeiten, seitens Bibliotheken und Verlage und seitens der Wissenschaftler (als Autoren und Akteure im Begutachtungsprozess) zum Umgang mit Open Access umfasst.[2] Für wissenschaftliche Autoren bedeutet die Veröffentlichung ihrer Forschungsergebnisse in OA-Journalen oftmals, dass sie die Kosten für eine Publikation selbst aufbringen müssen. Daher ist als weiterer Durchbruch anzusehen, dass im Oktober 2003 der britische Wellcome Trust den von ihm geförderten Wissenschaftlern gestattet, Teile der Forschungsmittel für die Begleichung dieser Kosten einzusetzen. Im gleichen Monat wird in Berlin die „Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen“ verabschiedet. Als Ziel wird definiert:

Unsere Aufgabe Wissen weiterzugeben ist nur halb erfüllt, wenn diese Informationen für die Gesellschaft nicht in umfassender Weise und einfach zugänglich sind. Neben den konventionellen Methoden müssen zunehmend auch die neuen Möglichkeiten der Wissensverbreitung über das Internet nach dem Prinzip des offenen Zugangs (Open Access-Paradigma) gefördert werden. Wir definieren den offenen Zugang oder den „Open Access“ als eine umfassende Quelle menschlichen Wissens und kulturellen Erbes, die von der Wissenschaftsgemeinschaft bestätigt wurden. Die Vision von einer umfassenden und frei zugänglichen Repräsentation des Wissens lässt sich nur realisieren, wenn sich das Internet der Zukunft durch Nachhaltigkeit, Interaktivität und Transparenz auszeichnet. Inhalte und Software müssen offen zugänglich und kompatibel sein. (Berliner Erklärung 2003)

Damit greift die Berliner Erklärung nicht nur den Punkt auf, dass Wissen offen zugänglich sein soll; darüber hinaus wird noch festgehalten, dass Bausteine auf dem Weg zu diesem Ziel Netzneutralität und offene Standards sowohl im Bereich der Inhalte als auch der Software sind. Damit schließt sich argumentativ insofern der Kreis, als dass die von der FOSS-Idee ausgehende OA-Bewegung die Verwendung offener und frei zugänglicher Formate und Software einfordert.[3] Darüber hinaus erweitert die Berliner Erklärung den Begriff der Open-Access-Veröffentlichung auch auf die „Ursprungsdaten, Metadaten, Quellenmaterial, digitale Darstellungen von Bild- und Graphik-Material und wissenschaftliches Material in multimedialer Form“ (Berliner Erklärung 2003), was eine Grundvoraussetzung für die Wiederverwendung in anderen Kontexten und die Erstellung von abgeleiteten Werken darstellt (vgl. Abschnitt 8 und Herb 2012, S. 14). Im Januar 2006 empfiehlt die Deutsche Forschungsgemeinschaft (DFG) den von ihr geförderten Wissenschaftlern die Veröffentlichung ihrer Ergebnisse im Rahmen von OA und richtet ihre Fördermaßnahmen bis 2015 entsprechend aus (DFG-Positionspapier: Wissenschaftliche Literaturversorgungs- und Informationssysteme – Schwerpunkte der Förderung bis 2015 2006). Entsprechende Praxisregeln finden sich beispielsweise in Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS): DFG-Praxisregeln Digitalisierung 2009, Abschnitt 4.1. Mit der 2006 durch die Freie Universität Berlin, der Universität Bielefeld, der Georg-August-Universität Göttingen und der Universität Konstanz eingerichteten Informationsplattform „open-access.net“ (ursprünglich openaccess-germany) steht seitdem ein umfassendes deutschsprachiges Informationsangebot für interessierte Autoren, Herausgeber, Hochschulleitungen und andere Akteure zur Verfügung.[4]


Remix Culture – Aufgreifen vorhandener Inhalte

Open Access ist ähnlich wie der Open-Source-Gedanke ein Kind des Internetzeitalters. Erst seitdem es möglich ist, Inhalte dank digitaler Übertragung verlustfrei und fast zeitgleich an einen nahezu beliebigen Ort auf der Erde zu transferieren, sind Fragen nach den Kosten von Wissen und den Bedingungen, zu denen es zugänglich gemacht werden soll, losgelöst von technischen Fragestellungen:

The most dramatic are the changes in the costs of distribution; but just as important are the changes in the costs of production. Both are the consequences of going digital: digital technologies create and replicate reality much more efficiently than nondigital technology does. This will mean a world of change. These changes could have an effect in every sphere of social life. Begin with the creative sphere, and let’s start with creativity off-line, long before the law tried to regulate it through “copyright”. (Lessig 2001, S. 7f.)

Die kostenlose und freie Verfügbarmachung von wissenschaftlichen Ergebnissen befreit Nutzer auf der einen Seite von Zahlbarrieren, auf der anderen Seite wirft sie aber eine weitere Frage auf: In welchem Rahmen darf ein Leser, der auf der anderen Seite auch wieder Autor sein kann, die Inhalte verwenden? In der Wissenschaft ist das Zitierwesen eine Form der Anerkennung entsprechender Leistung, stellt es doch eine qualitative Einschätzung der Veröffentlichung dar (gegenüber der quantitativen, die sich durch die bloße Zahl von Veröffentlichungen eines Autors ermitteln lässt). Hier sind die Grenzen der Verwendung fremden Gedankenguts klar geregelt, Verstöße dagegen enden zu Recht mit entsprechender öffentlicher Empörung (als nur ein Beispiel seien hier die Umstände des Rücktritts des ehemaligen Verteidigungsministers Karl-Theodor zu Guttenberg Anfang 2011 genannt). Das Zitieren und Verwenden nicht eigener Inhalte im Kontext der Erschaffung neuer Arbeiten unterliegt den Einschränkungen des Urheber- und Verwertungsrechts – und liegt damit nicht unbedingt immer in der Hand des ursprünglichen Autors, denn oftmals gehen essenzielle Rechte am ursprünglich eigenen Werk bei der Publikation an einen Verlag über (sofern dieser nicht auf Open Access setzt). Aktuell lässt sich ein Trend ausmachen, dass die Rechteverwerter (Verlage, Musikindustrie etc.) sich durch entsprechende vertragliche Bestimmungen immer umfangreichere Rechte bzgl. der exklusiven Nutzung des Werkes einräumen lassen, was die Verhandlungsposition des Autoren schwächt (Tschmuck 2012). Auch hier wird das Problem durch den Einsatz digitaler Medien verschärft:

Digital technology could enable an extraordinary range of ordinary people to become part of a creative process. To move from the life of a “consumer” (just think about what that word means – passive, couch potato, fed) of music – and not just music, but film, and art, and commerce – to a life where one can individually and collectively participate in making something new.[...] Technology could enable a whole generation to create – remixed films, new forms of music, digital art, a new kind of storytelling, writing, a new technology for poetry, criticism, political activism – and then, through the infrastructure of the Internet, share that creativity with others. (Lessig 2001, S. 9)

Diese „Remix Culture“ oder auch „RW Culture“, wie sie Lessig (2008, S. 28) in Anlehnung an die Unterscheidung optischer Medien nennt (von „Read/Write“ im Gegensatz zu „RO, Read Only“), wird zum einen erst durch die digitalen Medien möglich gemacht, zum anderen aber durch sie erschwert (beispielsweise durch Methoden des Digital Rights Managements (DRM), die die Nutzung erworbener Inhalte auf bestimmte Abspielgeräte beschränken.[5] Hat die Industrie (und hier vorrangig die Musik- und Filmindustrie) zunächst versucht, digitale Inhalte nur unter restriktiven Bedingungen den Nutzern zu überlassen (wobei im Effekt digitale Medien nicht mehr gekauft, sondern nur noch ein – durchaus zeitlich beschränktes – Nutzungsrecht an ihnen erworben wird), werden zumindest Musikdateien seit einiger Zeit ohne DRM vertrieben. Nur solche freien Inhalte lassen sich ohne großen Aufwand in neuen Kontexten verwenden – die Offenheit der Formate ist also ein wichtiges Element für eine Gesellschaft, in der sowohl Autoren als auch Leser nicht nur auf eine Rolle als RO beschränkt sind – auch und gerade im Kontext des Lernens mit digitalen Medien (zur Modularisierung und Wiederverwertung von Lerninhalten vgl. Niegemann et al. 2008). Zudem lassen sich textuelle Inhalte nur dann im Sinne einer Remix Culture nutzen, wenn das Format, in dem sie vorliegen, mehrere Voraussetzungen erfüllt:

  • Es muss prinzipiell schreibbar sein, d.h. ein Format wie PDF, das vorrangig als Format zum Lesen verwendet wird, ist ungeeignet.[6]
  • Es sollte sich von mehr als einem einzigen Anwendungsprogramm öffnen lassen, d.h. die Spezifikation des Formats sollte offen vorliegen, sodass verschiedene Anbieter Importfilter dafür erstellen können.[7]
  • Es sollte nicht in einem Binärformat vorliegen. Binärformate sind proprietär, sie lassen sich nur mit den jeweiligen Programmen verarbeiten, deren Entwickler Einblick in die Spezifikation haben (siehe vorherigen Punkt). Im Gegensatz dazu können textbasierte Formate (wie HTML, oder XML, s.u.) mit beliebigen aktuellen Texteditoren bearbeitet werden (vgl. auch Niegemann u. a. 2008, Abschnitt 31.11.2).
  • Handelt es sich um ein textbasiertes Format, sollte die dazu gehörige Dokumentgrammatik offen vorliegen. Das betrifft darüber hinaus auch Fragen der Versionierung (wie die Abwärtskompatibilität).

Eine ausführliche Würdigung der Zusammenhänge von offenen Standards, Interoperabilität und Wettbewerb findet sich auch in Weston and Kretschmer (2012). Alle genannten Anforderungen erfüllen offene und standardisierte XML-basierte Formate. XML, die Extensible Markup Language (Bray et al. 2008), ist eine vom World Wide Web Consortium (W3C[8]) verabschiedete formale Sprache zur Definition von Auszeichnungssprachen. Eine solche wird durch eine Dokumentgrammatik (z.B. in Form einer XML-DTD, Document Type Definition oder eines XML-Schemas) formal eindeutig beschrieben. Die eigentlichen Instanzen dieser XML-basierten Auszeichnungssprache bestehen aus Textdateien, die neben dem eigentlichen Inhalt Anmerkungen in Form von Annotationen (eben Markup) enthalten, die durch eine spezielle Syntax vom Text getrennt werden. Mit Hilfe dieser Dokumentgrammatik können Instanzen dieser XML-basierten Auszeichnungssprache (üblicherweise Dateien) auf ihre Korrektheit hin überprüft werden (auch im Erstellungsprozess). Beispiele für solche auf XML-basierenden Formate sind neben XHTML (Pemberton et al. 2002) auch das zu Dokumentationszwecken weit verbreitete Docbook (Walsh 2010; Schraitle 2004) – interessanterweise wird der Aspekt der offenen Datenformate auch und gerade in Open-Access-Veröffentlichungen sträflich vernachlässigt (Herb 2012, S. 34).

Wünschenswert ist neben der formal eindeutigen Dokumentgrammatik,die vorrangig für die maschinelle Verarbeitung herangezogen wird, aber auch eine zusätzliche menschenlesbare Dokumentation, die den Aufbau des Formats und etwaige zulässige Datentypen umgangssprachlich erläutert. Für weniger technikaffine Autoren von Lerninhalten ist außerdem die Verwendung spezifischer Autorenwerkzeuge, die klassischen und gewohnten Textverarbeitungsprogrammen ähneln, empfohlen.

Beispiele für eine Sammlung solcher auf XML-basierender Formate ist das Sharable Content Object Reference Model (SCORM, Advanced Distributed Learning Initiative 2009), das neben der Sequenzierung von Inhaltsobjekten und dem Aufbau eines Exportformats auch die Spezifikation einer Laufzeitumgebung enthält und insgesamt auf einer Reihe von Standards, u.a. dem Metadatenstandard Learning Object Metadata, des IEEE (LOM, IEEE Learning Technology Standards Committee WG12 2002), bzw. IMS Metadata (IMS Global Learning Consortium 2006) aufbaut. Obwohl der Standard als solcher kostenfrei zu beziehen ist, darf die Dokumentation nur für nicht-kommerzielle Zwecke oder im Rahmen der Lehre genutzt werden. Dennoch liegt mit SCORM ein grundlegender Standard vor, der von einer Reihe von Learning Management Systemen (darunter auch Open-Source-Implementierungen wie z.B. ILIAS[9]) unterstützt wird – und so die Abhängigkeit von Anbietern auf Plattformseite zu verringern hilft. Davon abgesehen bieten die meisten Learning Management Systeme ebenfalls auf XML-basierende Exportformate an. Da diese allerdings abhängig von der jeweiligen Implementierung sind und oftmals nur unzureichend dokumentiert, dürfen sie nur als zweite Wahl angesehen werden.[10]

Um einen solchen offenen Umgang mit den Inhalten anderer zu ermöglichen ist neben der technischen Komponente allerdings eine rechtliche Komponente zu beachten: Der Autor, bzw. der Inhaber der Nutzungsrechte (Urheberrechte können in Deutschland nicht übertragen werden – es sei denn, sie werden vererbt, vgl. § 29 (1) UrhG) muss die freie Verwendung seiner Inhalte durch eine entsprechende Lizenz rechtlich einwandfrei ermöglichen (das klassische Urheberrecht kennt hier nur die das traditionelle „Alle Rechte vorbehalten“). Gerade beim Toll-Access-Verfahren (vgl. Abschnitt 3) überträgt der Autor seine Nutzungsrechte an den jeweiligen Herausgeber, „womit der Autor der Möglichkeit beraubt wird, seinen Text (sei es auch in ferner Zeit) an anderer Stelle zu publizieren oder etwa zu übersetzen“ (Herb 2012, S. 12). Selbst die im aktuellen Urheberrecht verankerten besonderen Freiheiten im Rahmen von Forschung und Lehre (die im § 52a UrhG formulierten Urheberrechtsschranken) erlauben nur die Verwendung „kleine[r] Teile eines Werkes, Werke[n] geringen Umfangs sowie einzelne[r] Beiträge aus Zeitungen oder Zeitschriften zur Veranschaulichung im Unterricht“ – und dies auch „ausschließlich für einen bestimmt abgegrenzten Kreis von Personen für deren eigene wissenschaftliche Forschung“. Zumal diese Sonderbehandlung zeitlich begrenzt ist und im Dezember 2012 gerade erneut (zum nunmehr vierten Mal im Verlauf von elf Jahren) um zwei Jahre verlängert wurde. Insgesamt betrachtet hält die Anpassung des Urheber- und Lizenzrechts mit der technischen Entwicklung nicht Schritt, so dass die rechtlich einwandfrei erlaubte Nutzung bei Weitem nicht den technischen Möglichkeiten entspricht[11]. Daher empfiehlt auch die Enquete-Kommission Internet und digitale Gesellschaft des Deutschen Bundestages: „[die] notwendige[...] Flexibilisierung der Schrankenregelungen, insbesondere im Bereich Bildung, Wissenschaft und Forschung“ (Enquete-Kommission Internet und digitale Gesellschaft – Projektgruppe Bildung und Forschung 2012, S. 8).

Das Lernen und Lehren mittels Cloud-basierter Lösungen, die „dazu dienen [können], lokale E-Learning-Angebote und hochschulübergreifende Forschungsinfrastrukturen miteinander zu verknüpfen und zu ergänzen“ (Enquete-Kommission Internet und digitale Gesellschaft – Projektgruppe Bildung und Forschung 2012, S. 11), wird ebenso durch fehlende rechtliche Voraussetzungen erschwert:

Einerseits müssen sich die beteiligten Institutionen bereit erklären, den Zugriff auf bereitgestellte Inhalte von anderen Institutionen zu erlauben und damit in gewisser Weise Einblick in die Lehrmaterialien zu geben. Andererseits müssen auch urheber- und lizenzrechtliche sowie finanzielle Aspekte geklärt werden, wie beispielsweise die „Verrechnung“ der von den Hochschulen gegenseitig bereitgestellten Ressourcen. (Enquete-Kommission Internet und digitale Gesellschaft – Projektgruppe Bildung und Forschung 2012, S. 12)

Aktuelle Lehr-/Lern-Projekte, die auf informelles Lernen mit Hilfe von Videos (etwa über die Onlineplattform YouTube oder ähnliche Angebote) setzen und vorrangig aus den USA nach Europa importiert werden, leiden unter den gleichen rechtlichen Einschränkungen. Angebote wie das der Khan Academy[12] oder auch Udacity[13], edx[14] oder Coursera[15] können als Testballone für eine zukünftig häufiger genutzte Form von Massive Open Online Courses (MOOC) gesehen werden, die es erlauben, Inhalte einem großen Publikum zukommen zu lassen. In diesem Bereich sind europäische – und besonders deutsche – Angebote nur selten anzutreffen, obwohl ähnlich konzipierte Angebote auch in Deutschland bei der bestehenden rechtlichen Lage denkbar wären, beispielsweise das Projekt iversity.org.[16] Anders wiederum sieht es bei kleineren Initiativen wie der Peer to Peer University (P2PU[17]) aus. Hier können Kleingruppen freie Lehrangebote anderen Nutzern unterbreiten (Muuß-Merholz 2012). Gerade hier sind die Nutzer den Fallstricken des deutschen Lizenz- und Urheberrecht ausgeliefert.

Ein Ausweg bieten freie Lizenzen, wie sie beispielsweise durch die 2001 gegründete Organisation Creative Commons seit 2002 entwickelt und öffentlich verfügbar gemacht wurden. Seit 2007 steht die aktuelle Version 3.0 der CC-Lizenzen (insgesamt sind sechs Unterlizenzen vorhanden) zur Verfügung. Sie ermöglichen dem Lizenzgeber, sein Werk unter bestimmten Auflagen wie die Nennung des Namens (CC BY) zu verbreiten. Dabei kann eine Bearbeitung (ein Remix) ausgeschlossen werden (CC BY-ND) und die Weitergabe unter gleichen Bedingungen gefordert werden (CC BY-SA), ebenso ist ein Ausschluss kommerzieller Nutzung realisierbar (CC BY-NC).[18]

Die einzelnen Bestandteile lassen sich kombinieren, sodass Lizenzmodelle wie CC BY-NC-SA (Namensnennung, keine kommerzielle Nutzung, Weitergabe unter gleichen Bedingungen) ebenso möglich sind. Die Weitergabe unter Nennung des Namens des ursprünglichen Lizenzgebers (CC BY) bildet dabei den kleinsten gemeinsamen Nenner.[19] Die Gültigkeit der CC-Lizenzen wurde bereits in verschiedenen Ländern gerichtlich bestätigt.[20]

Zu beachten ist, dass unter strenger Auslegung der „Open Definition“ nur die beiden CC-Varianten CC BY und CC BY-SA als wirklich offen zu bezeichnen sind.[21] „Offen“ im Sinne der genannten Definition sind Informationen („knowledge“ im englischen Original, „Wissen“ in der der deutschen Übersetzung), wenn folgende Bedingungen erfüllt sind:[22]

  • Das Werk ist in seiner Gesamtheit frei zugänglich in einem Format, das Modifikationen erlaubt. Dabei können Kosten anfallen, die nicht höher als die Reproduktionskosten sind.
  • Die Lizenz restringiert nicht die Weiterveräußerung des Werks, sei es in Form eines Geschenks oder in Form eines Verkaufs. Derivate oder andere Modifikationen dürfen nicht durch die Lizenz verhindert werden. Die Namensnennung des ursprünglichen Urhebers kann als nicht-behindernde Bedingung der Lizenz gestellt werden. Es kann durch die Lizenz verlangt werden, dass abgeleitete Werte unter einem anderen Namen bzw. einer anderen Versionsnummer veröffentlicht werden. Einzelpersonen oder Gruppen dürfen durch die Lizenz nicht diskriminiert werden. Ebenso darf die Lizenz nicht bestimmte Einsatzzwecke ausschließen (inkl. kommerzieller Verwendung) oder andere Werke beeinträchtigen oder beschränken.

Diese „Open Definition“ bzw. „Open Knowledge Definition“ erleichtert die Übertragung des Open-Source-Modells auf Informationen jeglicher Art und ist als ergänzender (und rechtlich nicht verbindlicher) Zusatz zu einzelnen Lizenzen zu sehen, der es erlauben soll, die Offenheit derselben zu beurteilen. Gegenüber klassischen Open Access-Vereinbarungen wird neben den rechtlichen Bedingungen zusätzlich auch die Verwendung technisch offener Formate angestrebt.



  1. Man könnte anmerken, dass zu diesem frühen Zeitpunkt des World Wide Web gar keine Möglichkeiten in Bezug auf Bezahlsysteme bestanden, so dass die freie Verfügbarkeit von Informationen fast schon gezwungenermaßen erfolgte. Dieses Argument lässt sich allerdings dadurch entkräften, dass der große Rückhalt der Bewegung erst mit der Einführung von Bezahlschranken erfolgte und ein Großteil der als Open Access-Journale auch weiterhin unter diesem Modell publiziert.
  2. Die Erklärung ist einzusehen unter http://www.earlham.edu/~peters/fos/bethesda.htm, Stand: 28.02.2013.
  3. Wie Herb (2012, S. 32f.) richtig anmerkt, unterscheiden sich Open Source- und Open Access-Paradigma weiterhin im Merkmal der Kollaboration, die bei ersterem sehr ausgeprägt und bei letzterem eher die Ausnahme als die Regel darstellt.
  4. Einzusehen unter http://www.open-access.net, Stand: 28.02.2013.
  5. Für eine ausführliche Diskussion von insgesamt neun Thesen zur Remix-Kultur vgl. Stalder (2009).
  6. Natürlich lassen sich auch Inhalte in PDF weiterverarbeiten. Aber zum einen sind die Werkzeuge dafür üblicherweise professionellen Nutzern vorbehalten (was die Zugangsschwelle erhöht), zum anderen ist es möglich PDF-Dokumente digital zu signieren bzw. mit einem Passwort zu versehen, sodass eine nachträgliche Änderung entweder nicht möglich ist, oder auffällt.
  7. Das PDF-Format wurde erst 2008 im vollen Umfang als offener Standard ISO 32000-1:2008 durch die ISO normiert, auch jetzt hält der ursprüngliche Entwickler Adobe Patente daran, die allerdings Entwicklern kostenfrei lizenziert werden.
  8. Informationen zum W3C finden sich unter http://www.w3.org, Stand: 28.02.2013.
  9. Nähere Informationen unter http://www.ilias.de, zuletzt Stand: 28.02.2013.
  10. Es ist zwar möglich, die Inhalte mit Hilfe von Transformationen (z.B. mittels XSLT), in andere Formate zu überführen – dazu ist aber Kenntnis über den Zweck der einzelnen Komponenten des Annotationsinventars zumindest hilfreich, wenn nicht gar erforderlich.
  11. Für eine allgemeine Betrachtung urheberrechtlicher Fragen sei auf Kreutzer (2008) verwiesen.
  12. Nähere Informationen unter http://www.khanacademy.org/, Stand: 28.02.2013.
  13. Nähere Informationen unter http://www.udacity.com/, Stand: 28.02.2013.
  14. Nähere Informationen unter https://www.edx.org/, Stand: 28.02.2013.
  15. Nähere Informationen unter https://www.coursera.org/, Stand: 28.02.2013.
  16. Weitere Informationen finden sich auf der Homepage unter http://www.iversity.org/, Stand: 28.02.2013.
  17. Nähere Informationen unter https://p2pu.org/en/, Stand: 28.02.2013.
  18. Dieser Ausschluss einer kommerziellen Nutzung kann allerdings unerwünschte Nebeneffekte mit sich bringen, eine detaillierte Darstellung findet sich in Möller (2006) oder auch in Seemann (2012) und Klimpel (2012).
  19. Nähere Informationen zu den Lizenzmodellen unter http://www.creativecommons.org, Stand: 28.02.2013. Eine ausführliche rechtliche Betrachtung des Urheberrechts unter besonderer Berücksichtigung des Immaterialgüterrechts findet sich in Enquete-Kommission Internet und digitale Gesellschaft (2011).
  20. Vgl. Picot (2008) für das deutsche Recht und allgemein http://wiki.creativecommons.org/Case_Law, zuletzt zugegriffen am 5.12.2012.
  21. Eine Übersicht erlaubt die URL http://licenses.opendefinition.org/, Stand: 28.02.2013.
  22. Der Originaltext ist einzusehen unter http://opendefinition.org/okd/ bzw. http://opendefinition.org/okd/deutsch/, Stand: 28.02.2013.
Autor
Kristin Narr
comments powered by Disqus