Lexikon der Phänomene

Zusammenfassung der letzten Bearbeitung

Es wurde keine Zusammenfassung angegeben.

Lexikon der Phänomene

Wechseln zu: Navigation, Suche

Ziel
Zu Beginn der Auseinandersetzung mit dem Wandel von Privatheit und Öffentlichkeit durch das Internet wurde deutlich, dass die Experten der vierten Co:llaboratory Initiative aufgrund ihrer veschiedenen Forschungs- und Arbeitschwerpunkte ein sehr unterschiedliches Verständniss von den Begrifflichkeiten und den wichtigsten Problemen, Chancen und Phäno-menen haben. Um sicherzustellen, dass alle Phänomene dieses Wandels zur Sprache kommen und um einen Großteil der Begriffe zu erläutern wurde das Lexikon der Phänomene erarbeitet.

Inhaltsverzeichnis

Grundlagen

Gleichgewicht und Spannung zwischen digitaler Privatheit und Öffentlichkeit
Phänomene, Szenarien und Denkanstöße
Inhaltsverzeichnis
PDF Download

Bericht4.jpg

Privatheit als informationelle Differenz

Privatheit und Öffentlichkeit sind zwei Begriffe, die wir ohne Zögern verwenden und deren Konzepte uns im Alltag geläufig zu sein scheinen. Was wir zuhause tun, ist privat, und was wir öffentlich tun, tun wir auf der Straße, vereinfacht gesagt. Schon die Griechen unterschieden vom Gehöft (Oikos) die Agora, auf der man sich versammelte und auf der Institutionen angesiedelt waren, die der Allgemeinheit dienten. Bei näherem Hinsehen werfen sich allerdings Fragen zu diesen geläufigen Konzepten auf.

In einer gedanklichen Versuchsanordnung befindet sich eine Person in einem Raum – wür-den wir hier von Privatheit schon sprechen, obwohl wir nichts über die Welt außerhalb des Raumes wissen? Wäre nämlich der Raum auf einer Insel und gäbe es außerhalb des besagten Raumes keine weitere Person, so hätten wir Robinson auf seiner Insel ganz allein aufgestellt. Hier würden wir zögern, zu sagen, der einsame Robinson sei „privat“ auf seiner Insel. Privatheit als Konzept hat also immer mit mehr als einer Person zu tun.

Wenn wir nun in einem zweiten Gedankenexperiment zwei Personen in einem Raum aufstellen und eine dritte außerhalb des Raumes, würden wir wohl noch sagen, die zwei im Raum seien „privat“. Aber wo ist hier die Öffentlichkeit? Ist die Person draußen allein „Öffentlichkeit“, obwohl sie nicht im Raum ist? Es wird also nicht einfacher, je länger man nachdenkt, und es ist so gesehen beim ersten unbelasteten Anlauf nicht so recht klar, was die beiden Begriffe genau bezeichnen: die Situation einer Person, eine jeweilige Situation zwischen Personen, echte Räume oder gedachte Sphären?

Im obigen Versuchsaufbau haben wir die Situation, in der sich unsere Personen befinden, nur als „Raum“ beschrieben und nicht erläutert, wie man sich die Situation genau vorzustellen habe. Ist das, was wir oben „Raum“ genannt haben, in dem zwei Personen sitzen, wirklich ein Gebäude moderner Bauart, oder ist es ein tief einsehbares Glasgebäude, in das der Dritte hineinsehen kann, oder ist es ein Zelt, durch das Laute dringen, die der Dritte hört? Wenn der Dritte diese Laute hört, ist es Sprache, die er inhaltlich versteht? Und würde Privatheit entstanden sein, wenn der eine die Sprache der anderen nicht verstehen würde – ein Kaspar Hauser mitten in New York? Oder ist die geschilderte Raumsituation vielleicht nur eine abgesteckte Fläche, ein Claim, in dessen Mitte zwei auf je einem Stuhl sitzen und weit entfernt am Horizont der Dritte, der beide weder hören noch richtig sehen kann? Was wäre hier privat und was öffentlich?

Bei näherem Nachdenken leuchtet ein, dass für diese Situationen der Aspekt der Information eine Rolle spielt: Mal hört der Dritte, mal sieht er – oder eben nicht. Und was er sieht und hört, das kann Bedeutung für ihn haben, mal nur für ihn, mal auch für andere. Die Konzepte von Privatheit und Öffentlichkeit sind also von Information und ihrem Trägermedium nicht zu lösen - und zwar weit bevor der Computer überhaupt erfunden wurde. Und wie wir am Beispiel Kaspar in New York gesehen haben, können sie auch nicht von der Bedeutung von Sprache und anderer Zeichen getrennt werden. Das Private und das Öffentliche unterscheiden sich hinsichtlich Information. Privatheit ist, wo informationelle Differenz besteht.

Medien

In dieser Situation unserer archaisch fiktiven Aufstellungen verändern nun Medien alles. Die Schrift, die als Information sichtbar macht, was vorher fast immer körperlich an Menschen gebunden war (menschliche Äußerungen gab es nicht ohne anwesende Menschen), ermöglicht Durchbrechungen des Privaten, weil Zugang zu den Schriftzeichen den Zugang zum Menschen ersetzt. Das Buch macht die Information so reproduzierbar, dass sie an beliebigen Orten zu Dritten gelangen kann. Der Fotoapparat konserviert auf Fotos das Äußere des Augenblicks, die Erscheinung der Dinge. Und diese nimmt auch die Fernsehkamera mit Halbfotos pro Sekunde auf, nur dass sie diese visuellen Augenblicke via Sender über Geräte zu Empfänger-Massen multipliziert. Und alle diese Medien tragen Information, die womöglich privat ist, hierhin, dorthin, in die Welt. Sie tragen im Extremfall nach Art des „Big Brother“-Fernsehformates das Intimste sofort in Echtzeit in die ganze Welt, mit oder ohne Zustimmung des Betroffenen und – im Unterschied zum TV-Format – nicht als inszenierte Handlung, sondern als echte.

Kenntnis als unwiderruflicher Kopiervorgang

Schon bei diesen alten Medien kann man die Verletzung des Privaten nicht ungeschehen machen und Schaden schwerlich kompensieren, weil der öffentliche Widerruf genauso wenig hilft wie eine Zahlung in Geld. Information, die den Empfänger erreicht hat, hat sich quasi in ihm fortgesetzt, so dass diese neben dem Substrat besteht, dessen Vernichtung oder Untersagung den Duplikationsprozess nicht mehr revidieren kann. Pointiert: Die Bücherverbrennung kommt zu spät, wenn die Bücher gelesen sind. Kenntnis ist ein unwiderruflicher Kopiervorgang.

Technik, Erwartung, soziale Normen

Natürlich sind heute Verletzungshandlungen nicht die Regel, weil wir gelernt haben, mit diesen technischen Innovationen umzugehen. Wir wissen heute, dass wir Plätze mit Menschen fotografieren dürfen, nicht aber das Gesicht des Einzelnen. Man kann sich also vorstellen, dass jede dieser Innovationen den Umgang von Menschen mit Privatheit und Öffentlichkeit verändert hat, dass sie also alte Verhaltensmuster verändert und neue soziale Normen geschaffen hat. Die Vorstellungen von Privatheit und Öffentlichkeit sind Erwartungshaltungen an unsere Umwelt in Bezug auf informatorische Sachverhalte. Denn anders als unsere Vorfahren wissen wir nämlich auch, dass wir auf öffentlichen Plätzen damit rechnen müssen, in gehörigem Abstand fotografiert zu werden, als Beiwerk nämlich. Der Fotoapparat hat auf unsere Vorstellung davon, wie weit wir mit Beobachtung rechnen, zurückgewirkt. Und in den heutigen Konzepten wie Privacy by Design (vgl. auch den Begriff des Informationsschutzes) zeigt sich die gegenläufige Entwicklung, dass Technik und Prozesse über Eigenschaften verfügen, mit denen Erwartungshaltungen erfüllt werden können. Diese Erwartungshaltungen zeigen sich auch bei den heutigen Schlüsselbegriffen Privacy by Default, Einwilligung, Datenvermeidung, Datensparsamkeit, Datenhoheit, Informationsrecht und Transparenz. Dabei sollte man nicht dem Irrtum unterliegen, dass Technik immer der Erwartungshaltung zuwiderlaufen muss: Schon der Beichtstuhl dient dem Schutz des Beichtgeheimnisses und er ist – zusammen mit Regelungen des kanonischen Rechts [1] – eine Entwicklung zu Barockzeiten, um den einfachen Stuhl des Priesters durch Technik und Norm auf ein höheres Schutzniveau zu heben.

Die Gesellschaft hat lange gebraucht, um auf Fragestellungen, die von neuer Technik ausgelöst wurden, Antworten zu finden. Nicht nur die Frage, in welcher Situation man Menschen fotografieren darf, war von Belang. Es ging beispielsweise auch darum, ob man Briefe an Fremde öffnen darf und, wenn ja, welche. Es ging um die Frage nach der Behandlung von Kommunikationsakten wie Ehrverletzungen und Gewaltaufrufen und solchen Akten, die sich gegen staatliche Rechtsgüter richten – und diese Diskussionen sind teilweise durch das Internet wieder entflammt. Wir haben das allgemeine Persönlichkeitsrecht weiterentwickelt, das Presserecht geschaffen, Betretungsrechte im Mietrecht geregelt und vieles andere mehr. Die Geschichte von Privatheit ist eine eigene, lange Geschichte. Was wir jedoch mit dieser Raffung zeigen können: Erstens sind die Strukturen von Privatheit und Öffentlichkeit schon früh in der Menschheitsgeschichte angelegt. Zweitens beruhen sie (mitsamt ihren Problemen) auf der Spannung zwischen Individuum, das sich selbst und die Grenze zwischen sich und Umwelt erfahren will, als etwas Getrenntem auf der einen Seite und seinen dafür notwendigen Kommunikationsbedürfnissen mit anderen Menschen (einzeln oder in Gemeinschaft) auf der anderen Seite. Und sie setzen sich, drittens, in den typischerweise gestiegenen Kommunikationsbedürfnissen der komplexer gewordenen Gesellschaft fort – Arbeitsteilung, Leistungsaustausch, Industrialisierung, Medien, Dienstleistungsgesellschaft und Urbanisierung seien als Schlagwörter genannt, um dieses Bedürfnis zu veranschaulichen. Plakativ: Der autarke Bauer auf seinem Oikos im Allgäu kann die Balance für sich meist leichter finden als der Kommunikationsberater in Berlin.

Das Hinzutreten des Computers

Vor rund 40 Jahren kommt der Computer in den Alltag und speichert Daten, was der Impuls für Datenschutz ist. Geregelt wird – wir müssen ab jetzt den Zeit- und Inhaltsraffer nutzen – zunächst der Kern: Ansprüche auf der Basis einer Vorstellung von „Herrschaft über Daten“, die regelmäßig „personenbezogen“ sind, in Prozess-Schritten erhoben und verarbeitet werden. Und sich von der Grundidee her in abgetrennten Systemen befinden, die von Staat und Privatunternehmen betrieben werden. Diesem Gedanken wiederum liegen Ideen aus dem späten 19. Jahrhundert zugrunde, vor allem das „Right to privacy“ von Warren/Brandeis, wonach jedem Individuum das Recht zustehe, selbst zu bestimmen, inwieweit seine „Gedanken, Meinungen und Gefühle“, mithin personenbezogene Informationen, anderen mitgeteilt werden sollten.

Autonomie und Gemeinwohl

Vor fast 30 Jahren wird dann angesichts der umstrittenen Volkszählung das „Recht auf informationelle Selbstbestimmung“ vom BVerfG geboren, genauer: aus dem allgemeinen Persönlichkeitsrecht abgeleitet. Dies ist das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen. Wer nicht wisse, was mit seinen Daten geschehe, werde aus Vorsicht sein Verhalten anpassen, argumentiert das Gericht. Dies erinnert uns an die Vorstellung eines Panoptismus (griech. Panoptes = „das alles Sehende“) nach dem Vorbild eines perfekten Gefängnisses, des „Panopticons“ von Jeremy Bentham, der im Grunde ein architektonisches Prinzip der Überwachung darstellt, bei dem die Beobachteten in der dystopischen Reinform permanent keine Privatsphäre haben, weil sie ihnen nicht gewährt wird. Dieser Aspekt des „Beobachtet-Fühlens“ bringt neben dem bisherigen individual-grundrechtlichen Aspekt den Gemeinwohl-Aspekt als neuen Gesichtspunkt ins Spiel. Hier geht es nämlich um eine vorsorgliche Maßnahme, um die Meinungsfreiheit und damit das Funktionieren der Demokratie zu sichern. Es spielen also in modernen Demokratien zwei Rechtsaspekte bei unserer Fragestellung mit:

  • Wie viel Privatheit braucht es, um das Grundrecht nicht zu verletzen? Und:
  • Inwieweit kann der Informationsfluss nicht nur gegenüber staatlichen Organen, sondern gegenüber allen gesellschaftlichen Teilen, so gestaltet werden, dass er den demokratischen Meinungsbildungsprozess unterstützt?

Wir sind hier wieder beim Zweck der Agora im (Stadt-)Staat der Polis angekommen.

Informationssysteme als Vermittler und Verdichter von sozialer Realität

Pointiert gesagt: Die Privatheit des einen darf nicht verletzt werden, für die Meinungsbildung muss aber Wissen über andere irgendwie gewonnen werden (auch durch eigene Anschauung), damit der politische Prozess funktioniert. Ein Paradoxon, das nur dadurch aufzulösen ist, dass gesellschaftliche Schutzsphären entstehen, welche Daten über andere möglichst in wissenschaftlichen Studiensituationen gekapselt, anonymisiert, mehrfach aggregiert und abstrahiert und in gesellschaftlichen Teilsystemen verarbeitet bzw. medial vermittelt an Dritte gelangen lassen, damit sie Meinung werden können, die nicht ohne Grund genau diese Meinung geworden ist und nicht nur aus der kleinen Welt des meinenden, wählenden Bürgers stammen. Am Beispiel erläutert: Wer etwa seine politische Wahlentscheidung auch von Sozialpolitik abhängig machen und Lösungsvorschläge zu sozialen Brandherden bewerten möchte, muss vorher empirisch und konkret gewonnene Erkenntnisse haben, damit seine gesamte Wahlentscheidung nicht auf Vermutungen beruht. Wie geht das heute? Mit Informationstechnik, die Daten erhebt und auf irgendeine Art auch zwischen den Beteiligten tauschen lässt. Der demokratische Aspekt gibt also einen Transparenzimpuls in gesellschaftliche Systeme, die sich in technischen Informationssystemen niederschlagen, die wiederum potentielle Gefahrenherde für die im selben Atemzug ausgerufene informationelle Selbstbestimmung sind. Auch hier zeigt sich also die Spannung, dass einerseits Information fließen soll, die andererseits aus der Realität menschlichen Handelns kommt und mitunter gar nicht anders als aus der Realität des Einzelnen abgeleitet werden kann.

Allgemeine Phänomene

Während also national die Systeme zur Vernetzung tendieren müssen, um Komplexität zu bewältigen, und weltweit die Globalisierung ihren Lauf nimmt, tritt vor 20 Jahren das Internet in die Welt. (Dass zehn Jahre zuvor, also gleich nach dem Volkszählungsurteil, die ersten Mailboxen in Deutschland entstanden, die Information weit weg, sogar an unbekannte physische Orte und das bis zur Einführung des Zeittaktes für Ortsgespräche sogar mit Flatrate transportierten, ist eine Pointe der Geschichte: Diese Infrastruktur war ja zum Teil bewusst geheim.) Mit dem Internet macht die Entwicklung wieder einen Sprung. Durch weltweite Kommunikation verwirklichen sich große Chancen für eine globale Kommunikation in Echtzeit, durch Kommunikation von Transaktionsdaten werden Wirtschaftsprozesse effizient ermöglicht und so der Wohlstand vermehrt.

Umgekehrt zeichnet sich das Internet durch eine Reihe von Eigenschaften und hierdurch hervorgerufenen Phänomenen aus, welche Konsequenzen für unser Thema „Privatsphäre und Öffentlichkeit“ haben.

  • Ubiquität: Beispielsweise sind durch die Allgegenwärtigkeit und Überallverfügbarkeit, die Ubiquität von Information, ihre Schriftlichkeit und die vielfältigen Vervielfältigungs- und Replikationsmechanismen drei starke Phänomene zu beobachten, welche die Trennung von Räumen oder Sphären entweder gefährden oder nur rudimentär abbildbar machen. Das Netz tendiert dazu, informatorische Differenz so auszugleichen, wie es auch die Finanzmärkte handhaben. Wir haben es hier mit einem Phänomen der Globalisierung zu tun: Nach den Waren, den Finanzen, den Umwelteigenschaften beginnt nun die Information global die Verhältnisse zu verändern.
  • Transaktion: Beispielsweise entstehen durch die Vermischung von Kommunikation und Transaktion Chancen und Risiken; dem Social Commerce der Empfehlungskäufe steht gegenüber, dass diese Transaktionen neue Daten generieren, die aus dem Privaten ins Öffentliche strömen können und zum Teil ja sogar sollen; was sonst ist denn der Beitrag eines Nutzers in einem sozialen Netzwerk, er habe soeben einen bestimmten Artikel gekauft? So ist also der Satz aus dem Cluetrain-Manifest, „Märkte sind Gespräche“, nur die halbe Wahrheit. Vollständig lautet der Satz der Zukunft: „Märkte sind Gespräche über Firmen, Produkte, Transaktion und Käufer“, wobei klar wird, dass nicht nur der Käufer unmittelbar über sich selbst erzählt, sondern mittelbar eben auch über die Transaktionen, die er getätigt hat.
  • Identität: Beispielsweise ist Information im Vergleich zum Buch sehr einfach, unbeschränkt und kostengünstig reproduzierbar, so dass sich in Kombination mit weitgehender Fälschbarkeit neue Probleme für den Schutz des Privaten ergeben, weil die Identität des Urhebers einer Information nicht gesichert ist. Ohne Identitätsmanagement kann es „innerhalb des Systems“ immer nur abgeleitete Vertrauensstellungen geben, welche aber „von außen“ prinzipiell gleichwertig sind.
  • Simulacrum: Beispielsweise repräsentiert das Internet Information der physischen Welt, so dass die Unterscheidung zwischen Original und Kopie, Vorbild und Abbild, Realität und Imagination schwierig geworden ist (Stichwörter „Simulacrum“ nach Baudrillard, „Virtualität“, „Hyperrealität“ und Ähnliches): Was unterscheidet „Einkaufen“ in der einen Welt von „Einkaufen“ in der anderen Welt? Aus der radikalen Sicht eines „Ich“ muss es in beiden Fällen physische Bewegung vornehmen, Kommunizieren, bis die Ware kommt. Jenseits solcher sehr theoretischer Überlegungen stellt sich aber immer dann, wenn ein Prozess sein Pendant in der digitalen Welt gefunden hat, immer die Frage nach den Datenspuren, dem Datenschatten. Schon Lukrez erklärte in De Rerum Natura die Sichtbarkeit der Dinge mit ihren feinen Schichten, die sie aussenden, bis sie auf unsere Netzhaut treffen; er versuchte so ohne das Konzept von Göttern zu erklären, dass unsere Wahrnehmung auf Atomen beruht, der unvergänglichen Urmaterie, die sich in ständiger Bewegung im leeren Raum befindet und durch Kollision Natur erschafft. Reicht heute die Digitalisierung bestimmter Vorgangsabschnitte aus, um wie selbstverständlich von ihrer Spurenfreiheit auszugehen, oder müssen wir uns wie in der physischen Welt damit anfreunden, dass manche Vorgänge genauso wenig unbeobachtet sind wie der Einkauf von Biolamm am Stand des Lieblingsbauern auf dem städtischen Biowochenmarkt? Und um wie oft stellt sich diese Frage, wenn unser Handeln auf Kommunikation ausgerichtet ist, also mit der Absicht durchgeführt wird, Information zu erzeugen?

Sphären und Personas

Die Vorstellung, den Menschen umgäben Ringe von Sphären, die wie Zwiebelhäute übereinandergeschichtet sind, ist zwar vor allem im Recht noch anzutreffen, das die Konzepte der „Intimsphäre“ und der „höchstpersönlichen“ Sphäre bzw. Handlungen innerhalb der Privatsphäre kennt. Das Sphärenmodell ist aber nicht nur sozialwissenschaftlich veraltet, es wird auch durch das Internet für jedermann sichtbar in Frage gestellt. Wir haben zwar eine personale Identität, bewegen uns aber in verschiedenen sozialen Strukturen mit verschiedenen Personas. Wir zeigen in der Familie, unter Freunden, „Surf-Freunden“, im Sportverein und so weiter unterschiedliche Seiten von uns. Eine Information, mit der wir in einem sozialen Umfeld freizügig umgehen, wollen wir in einem anderen nicht preisgeben. Typisch, sagt man, seien fünf Gruppen von bis zu zehn Personen.[2]

Diesem Konzept fehlt es an Praktikabilität. Unterstellt man, dass dasselbe Modell auch auf die Onlinenutzung übertragen werden kann, so muss man konstatieren, dass auch die besten Internetdienste die Personas bis heute nicht annähernd oder auch nur modellhaft umsetzen können, ganz zu schweigen davon, dass die Komplexität und die Bedienbarkeit nach heutigem Ermessen für normale Nutzer nicht beherrschbar wären. Es ginge eben nicht nur darum, die Suchabfragen oder -keywords, den sozialen Graphen, die Interessen, die Käufe, die Kalenderplanungen, die Geolokation und Ähnliches abzubilden. Es müsste darum gehen, auch Finanzdaten und Gesundheitsdaten und ähnliche große Bereiche flexibel abzubilden (vielleicht in einem geschützten Modul). Und all diese Daten auch noch Sphären zuzuordnen, damit jedermann praktikable Personas hat.
Die Schwächen der Personas als Konzept zeigt aber auch das Nachdenken darüber, dass sie nur eine Generalisierung von individuellem und relativem Vertrauen ist, das wir in unterschiedlichen Kontexten intuitiv anwenden. Dies soll sogleich gezeigt werden.

Kontext von Kommunikationsakten, Kommunikationsgeschichte als soziale Realität

Ein weiterer Aspekt ist der Kontext einer Information. Fehlender, unvollständiger oder gefälschter Kontext ist schon immer ein Thema menschlicher Kommunikation gewesen, weit vor der Erfindung des Computers. Wir kennen dies etwa aus vielfältigen Diskussionen um „aus dem Kontext gerissene“ Interviewzitate. Zum Kontext gehört auch, dass der Absender zu erkennen gibt, welche Vertraulichkeitsstufe sein Kommunikationsinhalt haben soll, z.B. durch Flüstern, Zwinkern, Zur-Seite-Nehmen, besondere Zeit- und Ortswahl („nachts am Grenzstein“) und Ähnliches. Hierzu fehlt es im digitalen Teil der Welt noch an Kultur, weil die Schriftform scheinbar wenig Differenzierung bietet.

Aber Kontext ist nicht nur ein Absenderthema. Schon immer setzte ein Erkenntnis- und Verstehensakt meist ein gewisses Vorverständnis, d.h. ein bestimmtes Wissen, beim Empfänger voraus. Jedes Medium hat idealerweise die Aufgabe, Kontext mit zu tragen und die Dinge nicht „herauszureißen“, aber wie soll es sicherstellen, dass der Empfänger über ausreichende Kontextinformation verfügt? Das ist kein abstraktes Wissenschaftsproblem, sondern eines der größten Probleme des heutigen Internets, nein: eines jeden digitalen Mediums.

Wie wollen wir beispielsweise damit umgehen, wenn einzelne Kommentarbeiträge bei Diskussionen in sozialen Netzwerken zu löschen wären, also z.B. Kommentar Nummer sieben, wenn acht und neun auf ihn Bezug nehmen und so notwendigen Kontext verlieren würden? Hier zeigt sich wie im Prismenglas, dass Gespräche mehrerer Personen aus einer höheren Warte ein „übergeordneter“ Kommunikationsakt sind, die entstellt und zerstört werden, wenn man sie reduktionistisch zerlegt und mit den zerlegten Teilen nach Belieben verfahren will. Darf man Nummer sieben löschen, wenn sie den wesentlichen Impuls zur Diskussion beigetragen hat? Es ist auffällig, dass in der Praxis des Internets über diesen Punkt häufig gestritten wird. Ist das Ergebnis nicht „gemeinsam“ erarbeitet, wird ein Folgebeitrag nicht entwertet, wenn man ihm den Kontext nimmt? Wir haben derzeit keine Lösung. Dass Information aus der Vergangenheit zerstört wird, dass sie vergessen wird, verschwindet, das kennen wir. Was wir nicht kennen, ist, dass einzelne Kommunikationsakte noch während des gemeinsamen Kommunikationsaktes unwiderruflich im Jetzt gelöscht werden, und dies auch noch durch einseitigen Akt eines Teilnehmers, der sich womöglich aus besten Gründen auf seine Rechte beruft. Nicht anders übrigens, wenn ein Dritter einen Beitrag geschrieben hat, der vom Betroffenen zur Löschung veranlasst wird. Das ist, etwa im Falle von Beleidigung und Volksverhetzung, ein ohne Zweifel richtiger Vorgang, doch taucht hier ein Phänomen auf, was auch unser Thema betrifft. Pointiert gesagt: Das Löschen als actus contrarius mag angemessen sein, aber in wessen „Sphäre“ ist das von der „Persona“ Gesagte, nachdem es weltweit verschriftlicht wurde? Man könnte, ganz gegen die herrschende Meinung, sagen: Was geschehen ist, ist geschehen – ganz so, als seien wir über eine Straße gegangen und wären dabei von einer Kamera aufgenommen worden. Die Strecke noch einmal rückwärts zu gehen, hilft hier nicht. Und so haben wir auch hier einen Konflikt, den das Internet im Vergleich zum Buchdruck verschärft, denn die Information im Internet können wir häufig nicht „verbrennen“ und es gibt gute Argumente, dass wir uns vielleicht sogar auf den Gedanken einlassen müssen, eine alte Falschinformation genauso als historische Schlechtleistung stehen zu lassen wie die Gräueltaten in unseren Geschichtsbüchern, die wir ebenfalls nicht löschen. Welche Kommentare der Individuen während der Kommunikation einander Kontext sind, ist eben auch das Ergebnis sozialer Interaktion und somit soziale Realität, die einfach ist, wie sie ist.

Relativität, Vertrauen, Kontextualität, Intuitivität

Wie auch immer man die kulturellen Wurzeln von Privatheit im Detail betrachten mag, sie haben mit Vertrauen zu tun: Wer darf was wissen? Und zwar entweder, ganz archaisch, weil wir befürchten müssen, dass uns der andere früher oder später Nachteile zufügt. Aber auch weil wir befürchten müssen, dass eine Information ohne unsere Zustimmung oder unser Wissen Dritten zur Kenntnis gereicht wird und uns daraus Nachteile erwachsen könnten. Schließlich, und hier wird das Problem des analogen und digitalen Informationsflusses wieder offenbar, wird durch den letzten Schritt des Austretens aus unserem Kenntnisbereich für uns nicht mehr klar, wen eine Information bereits erreicht hat.

Es ist also potentiell jedermann ein Wissender, was uns die Entscheidung darüber, wen wir was wissen lassen, vor allem von dem Vertrauen abhängig machen lässt, dass er erstens uns keine Nachteile zufügt und zweitens diese Information nicht „leakt“. Während man bis vor kurzem noch gesagt hätte: „Vorsicht ist die Mutter der Porzellankiste“, würde man seit kurzem sagen: „Vorsicht, jeder ist ein Wikileaks.“

Wegen der Bedeutung der Beziehung zu jedem Einzelnen mutet es also zu simpel an, von „der Privatsphäre“ oder „den Personas“ als einem Modell, einem statischen Gefüge zu sprechen. Vielmehr scheint es so, als handelte es sich erstens aus Sicht des Subjektes um das Kondensat aus einer Vielzahl einzelner Beziehungen zu anderen Personen (1:n) und zweitens als Denkmodell um die soziale Verdichtung des Verhaltens aller Personen (n:n) in einer Referenzgruppe, einem Land, einem Kulturkreis. Etwas zugespitzt: Wer empirisch messen will, was „das Konzept der Privatsphäre weltweit“ ist, braucht Daten über ein repräsentatives Set von sieben Milliarden Menschen und muss folglich n-Fakultät Beziehungen erfassen. Eine Aufgabe für die Soziologie, die keine kleine ist.

Zur personalen Relativität kommt eine weitere Dimension hinzu. Ein Mehr oder Weniger an Vertrauen zwischen Menschen ist kein statischer Zustand, sondern wird vergeben, erworben und kann verloren werden, ist also ein zeitlich gestreckter Prozess. Wer kennt nicht die Reue nach einem Vertrauensbruch, die Information überhaupt gegeben zu haben? Hinzu kommt noch mehr Komplexität. Es entsteht Vertrauen durch Kommunikationsakte, insbesondere dadurch, dass eine Information vertraulich gehalten wird, aber auch dadurch, dass zwei sich gegenseitig ins Vertrauen setzen, sich also gegenseitig Geheimnisse anvertrauen.

Auf Dauer ist tieferes Vertrauen aber nicht nur an Kommunikationsakte, sondern auch an tatsächliches Verhalten gebunden. Nur durch Nichterzählen über einen gewissen Zeitraum erweist sich, dass es richtig war, sich zu offenbaren. Umgekehrt werden Zweifel wach, wenn sich die Person, der man Vertrauen geschenkt hatte, sich in irgendeiner Weise gegen den Vertrauenden wandte, in extremo bei einem Angriff auf die körperliche Unversehrtheit. Sieht man einmal von einem naiven Urvertrauen ab, so können wir nie wissen, ob es eine Kraft gibt, die stärker ist als wir, den Vertrauensbruch zu erwirken (Beispiel: Erpresser E erpresst von A den Aufenthaltsort von B). Und wir können, da wir von außen auf andere schauen, rational kaum sicher sein, wie weit ihre innere Motivation reicht. Dieser Aspekt des Vertrauens und seiner zeitlichen, prozessualen Komponente ist kaum analysiert, geschweige denn in den heutigen Konzepten integriert, verstanden oder gar technisch implementiert. Dabei wäre es noch die einfachere Übung, unterschiedliche Vertrauensstellungen zwischen Personen abzubilden. Die große Schwierigkeit wird sein, aus äußeren Merkmalen des Kommunikationsverhaltens auf geänderte Vertrauensgrade zu schließen. Es werden, nach allen heutigen Erkenntnissen, immer Menschen sein, die über das Maß an Vertrauenswürdigkeit entscheiden, ob direkt oder indirekt durch die informationstechnische Abbildung des gewährten Maßes, unabhängig von seiner objektiven Gerechtfertigkeit. Und so werden wir es immer mit dem Phänomen zu tun haben, dass Informationen, die bereits verteilt wurden, nach einer Verminderung der Vertrauenswürdigkeit nicht mehr an die Stelle gehören, an die sie zuvor verteilt wurden. Dies ist ein weiteres Phänomen, was den Wunsch nach einem „Roll-Back“ auslöst.

Schließlich gibt es ein weiteres Problem mit dem Modell der Personas. Es berücksichtigt nicht die Systematik, nach der wir entscheiden, in welcher Sphäre wir uns befinden und welche Persona wir anwenden. Auch kann es sein, dass das Modell von Ausnahmen so durchlöchert ist, dass nicht mehr viel von ihm übrig bleibt. Fünf Beispiele aus der Fülle des Lebens: So wird das zusammenwohnende Ehepaar während des Trennungsjahres möglicherweise den Nullpunkt an Vertrauen erreicht haben („Familie“), während zweitens die Kinder des Ehepaares alle familiären Geschehnisse den Nachbarn erzählen und drittens die Mutter jeden Abend mit einem „Surfing Friend“ intime Geheimnisse austauscht. Auch wird die Frage, ob man seinen Wohnungsschlüssel seinem Nachbarn geben sollte, weniger von Sphären und Personas als von individuellem Vertrauen abhängen. Fünftens gibt es unter gutverdienenden Steuerberatern derselben Kanzlei („Arbeit“) möglicherweise die gleiche Freizügigkeit mit Einkommensinformationen wie sechstens unter Hartz-IV-Empfängern, die sich zum ersten Mal in ihrem Leben vor einem Amt treffen und schon von daher wissen, welche Einnahmen sie haben. Es gibt also keinesfalls allgemeingültige Regeln, sondern eine höchst komplexe „Business Logic“, nach der Menschen mit Information gegenüber anderen Menschen umgehen. Es kann gut sein, dass wir es hier mit nicht formalisierbarem, höchstem Wissen zu tun haben, das wir Intuition nennen, weil es das älteste Wissen des Menschen repräsentiert, das noch älter ist, als er selbst: Wem kann ich vertrauen und wie weit kann ich das – in dieser Sekunde? Schon der Fisch hatte vermutlich Erkennungsmuster, wie er feindliche Wesen erkannte.

Peer-to-Peer-Öffentlichkeit, handelnde Dritte, Publikation – Die Befreiung der Daten aus der Datenbank

Neue Komplexität ist auch entstanden, wenn wir die Struktur der Beteiligtenverhältnisse ansehen. Zwar hat es immer schon Konstellationen mit drei Beteiligten gegeben, etwa wenn A mit C über B spricht oder wenn A ein Foto von B gemacht und dieses C gegeben hat. Unsere heutigen Rechtskonzepte gehen jedoch als Prototyp von einer Beziehung Bürger-Staat oder Bürger-Unternehmen aus, mithin von Zweierbeziehungen. Durch das breite Auftreten von Möglichkeiten, für jedermann im Web zu schreiben („WriteWeb“ als Teil von „Web 2.0.“) sind jedoch einige der Massenphänomene Dreierbeziehungen, beispielsweise das Zuordnen von Personennamen und E-Mail-Adresse auf Fotos. Dieses „Tagging“ ist seit kurzem zum Normalfall geworden, und zwar nicht auf großen sozialen Netzwerken, sondern von Bilderdiensten, Bildbearbeitungsprogrammen und Spezialanwendungen. Auch die Möglichkeit, fremde Adressdaten hochzuladen, ist inzwischen auf dem Weg zum Standard. Hinzu kommen Dienste wie Bewertungsdienste, beispielsweise Spickmich.de (Lehrer) und docinsider.de (Ärzte), die darauf abzielen, dass Informationen über bestimmte Bürger (in ihrer beruflichen Funktion) publiziert werden. Noch weiter gehen Dienste, wie das inzwischen abgeschaltete rottenneighbour.com, auf denen anonym Cybermobbing betrieben werden kann. Zu diesem Zweck des Cybermobbings werden heutzutage viele Web-2.0-Plattformen genutzt, beispielsweise Videoportale, bis der Rechtsverstoß gemeldet wird. Wieder andere wie Jigsaw.com machen es zum Geschäftsmodell, dass Nutzer die verkäuflichen Kontaktdaten Dritter eingeben und hierfür einen Dollar erhalten – Micro-Datenhandel in Heimarbeit ist das. Und dazu, durch Dritte den Personen Orte zuzuweisen wie den Fotos bei where-is-this.com, ist es nur ein kleiner Schritt: Check deine Freunde ein und tu was für den ganzen Clan.

Wir beginnen uns damit zu befassen, dass Bürger Daten anderer Bürger erfassen. Dabei haben wir zusätzlich damit zu tun, dass diese Bürger eben keine Fachleute sind und folglich sich der Tragweite ihres Handelns häufig nicht klar sind, wenn dies nicht vorsätzlich wie beim Cybermobbing geschieht. Vom Gefühl, „mein Fotoalbum zu beschriften“, bis zur Vorstellung, auf einem fremden Dienst in der Cloud personenbezogene Daten Dritter abzulegen, ist es mitunter noch ein großer Schritt. „Privacy Violation by Crowdsourcing“ ist ein neues Phänomen. In diesem Zusammenhang ist auch das „Sprechen über einen Dritten“ zu erwähnen, dass es zwar schon in frühen Internetforen gab, mit der Möglichkeit maschineller Analysen werden aber auch hier quasi „harte“ Daten generiert: Es ist kein Problem, aus Tweets mit Geburtstagsgrüßen das Geburtsdatum beinahe aller Twitterer zu ermitteln. Weitere Fragen tun sich auf: Darf der Staat auf derart gewonnene Daten zugreifen oder besteht gegebenenfalls ein Verwertungsverbot? Lässt es sich dauerhaft wertungsmäßig unterscheiden, dass jedermann Fotos von Demonstrationen machen und diese im Internet veröffentlichen darf, wohingegen die Polizei an spezifische Voraussetzungen gebunden ist?

Schauen wir uns die IT-Systeme an, welche die Daten halten, sieht es nicht anders aus. Während der Datenaustausch zwischen Privatunternehmen mit Großrechnern der 70er unwahrscheinlich war, tauschen heute Unternehmen alle möglichen Daten in standardisierten Formaten. Dass überhaupt Unternehmen Daten in großem Umfang publizieren, ist ein Phänomen der Vernetzung. Wo man früher noch Daten mühsam standardisierte (von den ersten Ansätzen der EDI in den 60ern bis zum weltweiten UN/ISO-Standard EDIFACT), Datenträger tauschte und dann per DFÜ bewegte, erledigen heute APIs mit Webservices den Austausch standardisiert und in Echtzeit. Von der Öffentlichkeit kaum wahrgenommen sieht man dies im B2B-Bereich sehr gut, in dem beispielsweise das „Procurement“ Unternehmen verbindet. Aus den alten Solitären sind also vernetzte Solitäre geworden, ein Netz. Heute haben wir die nächste Stufe erreicht: Daten werden zwischen Onlinediensten ausgetauscht, nur dass es diesmal hauptsächlich Kommunikation von Endnutzern betrifft. Tweets landen in Suchmaschinen und auf Facebook oder Google+, Bilder des einen Fotodienstes werden in einem anderen angezeigt, Apps lesen Kontaktlisten aus und transferieren selbige so zwischen zwei Systemen. Aggregatoren wie FriendFeed oder rivva sammeln Kommunikation ein und zeigen sie an eigener Stelle an. Spezielle Ereignisdienste wie Pubsubhubbub sorgen dafür, dass andere Dienste über Änderungen informiert werden. Theoretisch sind wir heute so weit, dass jede Information überall sein könnte, was nicht nur Informatiker vor Herausforderungen stellt, sondern auch Endkunden verstört: Ehe man sich versieht, sind Daten in Drittsysteme repliziert. Ganz neue Dienste versuchen die allerorten verteilten digitalen Fotos an einer Stelle zu sammeln (Beispiel everpix.com), lösen aber weder die Ursache vielfach gleicher Inhalte noch unsystematisch verteilter Inhalte, sondern reparieren den Zustand mit einer Umgehungslösung. Die erste Konsequenz: Dem Laien ist nicht mehr klar, welches System eigentlich was wohin kopiert hat, die Vorstellung von getrennten Publikationen schwindet – das Internet ist eine einzige große Publikation Milliarden verlinkter Seiten, das neue Buch der Bücher. Die zweite Konsequenz: Wer ist hier eigentlich noch der Diensteanbieter erster Ordnung, der die Information als Erster ins Netz speiste, wer ist Anbieter zweiter Ordnung (der sie verbreitete) und wer hat technisch und rechtlich die Kontrolle über den Replikationsvorgang? Es wird schwieriger, dem Autor seine (Text-)Symbole zuzurechnen, und es wird auch schwieriger, die Institution zu identifizieren, der man vertrauen kann.

Institutionen, Gruppen, Un-Strukturen

Auffällig an den Veränderungen im modernen Internet ist auch, dass die festen Strukturen von Institutionen, die wir bisher kennen, um neue Strukturen und höchst amorphe Gebilde ergänzt werden, die neu für uns sind. Wo wir es gewohnt sind, einzelne Personen, privatwirtschaftliche Unternehmen und staatliche Organe sowie bestimmte Sonderfälle wie NGOs zu erkennen, finden wir nun Personenanordnungen, die für uns in der digitalen Welt neu sind und die wir im Recht nicht als eigenständige Phänomene sehen. Wenn Nutzer beispielsweise auf einem Fotodienst Fotos markieren, sprechen wir gern von ihnen als der „Crowd“. In manchen Konstellationen, wenn ein gemeinsam nutzbares Gut entsteht, wird neuerdings auch auf den Begriff der Allmende zurückgegriffen. Dieses Phänomen der Crowd ist neu in der digitalen Welt und es kann über Macht verfügen. Vielleicht muss man es in der Dichotomie zwischen Privatheit und Öffentlichkeit zu Letzterer zählen. Aber kann sie nicht zugleich auch ein neues soziales Gefüge sein, das eigene Informationen hat, die innerhalb der Crowd bleiben sollen? Und: Wer ist hier im klassischen Sinne der Autor des Inhalts, wer ist das Subjekt, dem wir vertrauen können? Offensichtlich verbindet die Personen nur ein abstraktes Ziel, dass man ihre Fotos mit bestimmten Schlüsselwörtern wiederfinden möge. Aber ein gemeinsames Zusammenwirken dieser Art ist neu in der digitalen Welt, obwohl wir bei genauem Hinsehen Ähnliches von den Wegzeichen der Wanderer kennen, die in Einzelarbeit und ohne Kenntnis voneinander an einem gemeinsamen Zweck arbeiten. Anders etwa bei einem Wiki, das der Entdeckung von Plagiaten dient: Hier verfolgen die Beteiligten einen klaren gemeinsamen Zweck, der ein Anfang und wohl auch ein Ende hat, und gehen arbeitsteilig vor. Entsprechendes gilt, wenn Nutzer gemeinsam an Landkarten arbeiten. Anders wieder, wenn sich ein sogenannter „Twitter-Shitstorm“ ad hoc bildet, sich binnen Stunden explosiv entwickelt, um sich sodann wieder niederzulegen. Hier gab es vielleicht keinen gemeinsamen Zweck und hier ist vielleicht nicht einmal ein Ende auszumachen – wann sind „Gespräche der Gesellschaft“ (z.B. über Staatsverschuldung) zu Ende? Ergebnis: Wir finden Anordnungen von kommunizierenden Menschen vor, deren Dauer sehr unterschiedlich sein kann, deren Zweck mehr oder weniger bestimmt ist, von Menschen, die mehr oder weniger voneinander wissen und deren soziale Bindung unterschiedlich stark sein kann. Auf der einen Seite bestehen beispielsweise langfristige Aktivitäten mit einem bestimmten klaren und gemeinsamen Zweck und enger sozialer Bindung der Beteiligten, man nehme nur das gemeinsame Hochladen von Bildern einer Feier und das Taggen dieser Bilder. Auf der anderen Seite finden wir Aktivitäten, die entweder kurz sind oder die gar kein definiertes Ende haben, die keinen definierten Zweck haben und bei denen die Beteiligten keinerlei Bindung eingehen und womöglich auch gar keine Kenntnis voneinander haben. Was wir im öffentlichen Raum noch als „Ansammlungen“ oder „Versammlungen“ kennen, zeigt sich in der digitalen Welt als amorphes „Etwas“, als dynamische „Un-Struktur“. Hinsichtlich dieser Beobachtungen ist unser Konzept von Sphären und Personas wohl noch nicht leistungsfähig genug. Und das, obwohl es dank Technik schon lange Lebenssituationen gibt, in denen Menschen soziale Strukturen wie in einer wissenschaftlichen Laborsituation herausbilden – beispielsweise 1.000 Personen, die als 1er-, 2er-, 6er-Gruppen an Bord eines Überseedampfers gehen und nach sechs Wochen mit veränderten Gruppenstrukturen das Schiff verlassen, um danach in einem „Melting Pot“ wiederum Veränderung zu erfahren. Im Extremfall wissen die Beteiligten nicht einmal, dass Daten gesammelt und bestimmten Zwecken zugeführt werden, beispielsweise bei Stauwarnern, die Bewegungsdaten übermitteln. Dieser Effekt wird sich mit dem Internet of Things verstärken, wenn noch mehr Dinge miteinander kommunizieren und erst recht niemand mehr weiß, warum und worüber und welche Schlüsse sie dabei ziehen. So wurde heute schon bekannt, dass sogenannte „Smart Meter“ über den Stromverbrauch sogar das abgerufene Fernsehprogramm erkennen lassen, wenn die Messung sehr genau ist.[3]

Mega-Öffentlichkeit, Query-Öffentlichkeit, Unsichtbarkeit

Die Öffentlichkeit, die durch das Internet entsteht, hat nie gekannte Ausmaße. Jede Webseite, die nicht explizit einem geschlossenen Benutzerkreis zugeordnet wurde, kann von Milliarden Menschen eingesehen werden. Zusätzlich überwindet sie unsere gelernten Erfahrungen von Distanz und Nähe: Wir können in Sekunden zwischen New York, Rio und Dänemark hin und her klicken. Und schließlich überwindet das Web auch zeitliche Vorstellungen, denn grundsätzlich muss man sich die Daten unbegrenzt haltbar vorstellen. Diese drei Phänomene kennzeichnen „Mega-Öffentlichkeit“, die uns noch fremd ist. Dabei ist paradox, dass auch die Öffentlichkeit unseres Hauses unbegrenzt ist: Es kann ja jeder US-Bürger, jeder Brasilianer und jeder Däne an ihm vorbeispazieren und uns ins Fenster schauen. Bezüglich unseres Hauses sind wir aber doch recht sicher, dass außer ein paar Nachbarn und Menschen, die nicht weit von uns wohnen, niemand vorbeischauen wird. Dieses Urvertrauen fehlt uns im Digitalen, obwohl die Verhältnisse dort nicht anders sind: Es kommt ja nur auf unsere Website, wer sie angesteuert hat (in der Regel über eine Suche, „Query/Anfrage-Öffentlichkeit“). Anders formuliert: Wie weit die Öffentlichkeit tatsächlich reicht, entscheidet der Empfänger. Im Unterschied zur alten Welt jedoch wird er, der Empfänger, normalerweise nicht gesehen, während er selbst sieht und beobachtet. Die Unsichtbarkeit des Sehenden ist also ein weiteres Phänomen.

Spezielle Phänomene

Große Kommunikationsdienste/Plattformen

Das Internet hat schon seit Anbeginn die Möglichkeit geboten, auf Basis definierter Protokolle und Formate (E-Mail, FTP, WWW …) eigenständige Serverapplikationen aufzusetzen, um anderen die Möglichkeit zur Kommunikation zu bieten. Die drei Datenstrukturen Kommunikationsdaten, Personendaten und Verhaltensdaten finden sich schon in den alten Foren (Bulletin Boards), in denen Nutzer kommunizierten. Dabei mussten sie sich häufig anmelden, was Nutzerdatenspeicherung zur Folge hatte, zudem wurden über Logfiles einfache Zugriffsprotokolle erstellt. Mit Auftreten der großen Web-2.0-Dienste, vor allem großer sozialer Netzwerke, kam es jedoch zu einer quantitativen Veränderung, die man als qualitativen Sprung ansehen muss: Wo jeder zweite Bürger der Onlinepopulation, zumeist unter Klarnamen, in einem einzigen großen Dienst mit anderen kommuniziert, entstehen zusätzlich zu den eigentlichen Kommunikationsinhalten aussagekräftige Interessensprofile und Muster der sozialen Interaktion und der Interaktion mit allen Systemteilen, die tiefe Analysen seines Verhaltens zulassen. +++ Umgekehrt prüfen die Anbieter der Dienste mit hohem Aufwand Beiträge von Nutzern auf verschiedene Rechtsverletzungen und Verletzungen von Nutzungsbestimmungen, und sie schalten Profile frei, erteilen Hinweise oder „Verwarnungen“ und deaktivieren Nutzerprofile. Dies erfolgt, um eigener Haftung zu entgehen und den Nutzen des Dienstes zu erhöhen. In kommunikativer Hinsicht nehmen diese Anbieter aber auch eine Sonderstellung in der Kommunikation ein und sind vielleicht als Letztinstanz in einem freiwilligen und somit privat-vorstaatlichen Mechanismus einer mehrstufigen Selbstkontrolle anzusehen. Man könnte sie also statt als potentielle Täter von Verletzungen der Privatheit ebenso als ordnendes und schlichtendes Element begreifen oder installieren. Diese Anbieter können auch als Treuhänder von Daten anzusehen sein, denen die Daten von Nutzern anvertraut werden. Es gelten jedoch drei Besonderheiten: Zum einen haben Anbieter zusätzlich generell vollen Zugriff auf Verhaltensdaten. Das Paradoxon ist daher, dass der Nutzer, indem er vertrauensvoll handelt, gerade hierdurch erst ein wesentliches Risiko schafft. Zum anderen haben die Anbieter für die Zukunft der Nutzung die Herrschaft über die Mechanismen der Plattform und können so faktisch (Änderung von Privatsphäre-Einstellungen, neues Funktionsmodul) oder rechtlich (Nutzungsbestimmungen) starken Einfluss auf die künftige Handhabung von Privatheit und Öffentlichkeit nehmen. Schließlich gibt es Schnittstellen- und Plattformkonzepte, bei denen die Anbieter Dritten eine gewisse Vertrauensstellung gewähren. Eine App, die auf Daten eines sozialen Netzwerks mit Zustimmung des Nutzers zugreift, holt sich zwar dessen Zustimmung, auf korrekte Funktion kann der Nutzer aber nur vertrauen, weil die App bis zu einem gewissen Punkt durch den (Plattform-)Anbieter zertifiziert ist. Es fällt auf, dass die Anbieter hinsichtlich des Gefährdungspotentials sehr ähnlich wie E-Mail-Hoster zu beurteilen sind. Wir haben uns nur bei Letzteren daran gewöhnt, dass unsere E-Mails über Server Dritter versandt werden (und das auch noch zumeist im Klartext), genauso wie wir uns längst daran gewöhnt haben, Transaktionsdaten an Banken und Kommunikations- oder Bewegungsdaten an Telekommunikationsunternehmen zu liefern. Die Besonderheit ist aber, dass die Anbieter der neuen digitalen Dienste erstens neuartige und noch nicht verstandene Funktionen entwickeln (Beispiel: Geokoordinaten über WLAN) und zweitens neue soziale Praktiken prägen (Beispiel: Check-ins, Foodspotting …) – und dies auch noch in einem atemberaubenden Tempo, denn soziale Netzwerke stießen erst 2007 auf Masseninteresse. Es kann daher nicht verwundern, dass es durch das Handeln der großen Internetdiensteanbieter zu gesellschaftlichen Friktionen kommt. Aus subjektiver Sicht der meisten Nutzer ist allerdings zweifelhaft, ob es wirklich ein Konzept von „Plattform“ im Sinne eines abgegrenzten Bereiches gibt. Zwar ist die Software eine geschlossene, abgegrenzte, doch ist für eine einzige Person völlig unklar, was außer der von ihr selbst bestimmten Daten öffentlich ist und was privat. Aufgrund komplexer Privatsphäre-Einstellungen wird ein greifbares Bild von „Räumen“ nämlich verhindert. Ebenso ist aufgrund von Datentransfers zwischen Plattformen manchmal nicht klar, welche Daten zu welcher Plattform „gehören“. Es gibt also kein genaues Bild von Systemgrenzen, „Plattformen fransen aus“, was uns den Umgang erschwert. Wo das Ziel der Plattform ist, mit granularen Einstellungen maximalen individuell-situativen Schutz zu erreichen, verhindert genau dieses aber ein klares Bild der Situation, weil man nicht „Herr Alles-Sieht“ ist.

Verschränkung von Kommunikation und Transaktion

In der heutigen Internetwelt sind Transaktionswebsites (insbesondere E-Commerce) von Kommunikationsdiensten getrennt und nur mit Links verknüpft (z.B. ein Facebook-Link auf einen Shopartikel). Zu den Sharing-Funktionen, die diese Links erzeugen, sind aber in jüngerer Zeit kaum merklich andere Daten hinzugekommen: Shares werden gezählt („Anzahl Tweets“), im E-Commerce-Umfeld tauchen über Social Plug-ins Kontaktlisten auf. Aufgrund der Kundenwünsche, die gern nach Empfehlung kaufen, und der Wünsche der Anbieter, die gern mehr verkaufen, werden sich diese beiden Welten in den nächsten Jahren stark verschränken. Wir wissen noch nicht, welche Formen dies genau annehmen wird. Es ist jedoch naheliegend (Phänomen blippy.com, iTunes-Käufe auf Ping), dass Käufer bestimmter Schichten und Produkte eine weitere Datenspur der Transaktionsdaten im Web hinterlassen werden. Dies bedeutet, dass ein bisher eher als privat empfundener Bereich nun teilweise öffentlich wird. Eventuell werden wirtschaftliche Anreize die Nutzung beschleunigen („3 % auf Ihren Kauf, wenn Sie ihn Ihren Freunden erzählen“). Bei Spezialanbietern in sensiblen Bereichen, aber auch bei Vollsortimentern kann es zu unerwünschter Veröffentlichung kommen, sei es technisch bedingt oder durch Fehlverhalten der Nutzer.

Daten als Tauschgut

Seit Einführung werbefinanzierter Internetangebote hat sich die Sicht geprägt, der Nutzer eines Dienstes bringe seine Daten gegen eine Leistung des Diensteanbieters ein. Dies gilt nicht nur, soweit die Auslieferung von Werbung in irgendeiner Weise maßgeschneidert ist, sondern auch wenn andere Verwertungsformen (z.B. Direktansprachemöglichkeit durch Headhunter) bestehen oder der Anbieter selbst wiederum Nutzerdaten handelt. Hier ist zum Teil ein komplexes ökonomisches Verwertungssystem entstanden, das auf diesem Grundmechanismus basiert. Außer den naheliegenden Perspektiven des klassischen Datenschutzes sind hierzu weitere Aspekte zu sehen, die unsere Gesellschaft künftig beschäftigen könnten. Erstens könnte es Menschen geben, die aus finanziellen Gründen faktisch gezwungen sind, ihre Daten zur Verwertung anzubieten. Der wohl geringe wirtschaftliche Wert von einigen Euros ist nach der gegenwärtigen Schutzsystematik kein Grund, das Problem zu geringschätzen, denn maßgebliche Konsequenz ist die Preisgabe eines Freiheitsrechtes. Zweitens könnte dieser Tauschaspekt den Umgang mit Daten im digitalen Zeitalter generell ändern. Drittens entstehen neue Geschäftsmodelle, z.B. treten Dritte als Treuhänder von Daten auf oder Anbieter veröffentlichen Kaufdaten und entgelten dies dem Käufer. Viertens könnte ein echtes „do ut des“ die Tätigkeit der Diensteanbieter selbst ändern – sei es, dass sie den Nutzer als Kunden begreifen, sei es, dass sie sich, um Kunden zu gewinnen, auch in dieser Hinsicht in Wettbewerb geben, beispielsweise dadurch, dass sie den Nutzern mehr Rechte in den Nutzungsbedingungen zuweisen.

De-Publizierung

Die Aussage „Das Internet vergisst nichts“ mag als pädagogisch intendierter Rat richtig sein, fachlich ist sie in ihrer Unbedingtheit falsch. Ganze Dienste werden vom Netz genommen, weil die Unternehmen insolvent sind. Ein Beispiel wäre die Community X. Einzelne Onlineprodukte rechnen sich nicht und werden eingestellt. Verlagspublikationen werden eingestellt. Bei technischen Relaunches werden Kommentare nicht übernommen. Nutzerkommentare von E-Commerce-Shops verschwinden, weil jährlich 30 % des Artikelstammes aus dem Sortiment genommen werden. Öffentlich-rechtliche Anstalten sind zur Depublikation verpflichtet. Unternehmen nehmen alte Websites vom Netz, weil sie einen Relaunch machen. Vorstände begrenzen Archivdauern der Websites auf gesetzliche Fristen, so dass ältere Pressemitteilungen verschwinden. Wer findet heute noch die Geschichten der sogenannten „New Economy“? Die Konsequenz dieser Erkenntnis ist, dass im digitalen Medium (genauso wie bisher auch) bestimmte Teile von Kommunikation verschwinden können, welche mit Privatheit zu tun haben. Zu denken ist an die oben genannte De-Kontextualisierung, zu denken ist aber auch daran, dass explizite Klarstellungen oder gezielte Störinformationen verschwinden. Wenn also – wie im „echten Leben“ auch – es dem Betroffenen gelang, seinen Aufenthaltsort vorzutäuschen, weil er hierzu Grund hatte, könnte es sein, dass genau diese Handlung durch De-Publikation verschwindet und somit die Ur-Darstellung allein steht.

Unfreiwillige Öffentlichkeit/Intentionalität

Wer kennt sie nicht, die vielen Geschichten versehentlich öffentlich geposteter Veranstaltungseinladungen oder die für privat bestimmten Statusmeldungen von Politikern. Hinzu kommt die Kategorie unverstandener Privatsphäre-Einstellungen sowie allgemein unverständliches Zusammenwirken verschiedener Software-Module (Geolokation auf OS-Ebene, auf Browser-Ebene, auf Dienste-Ebene). Zu den nicht intendierten Privatsphäre-Verletzungen gehören ebenso Daten, die ein anderer bereitstellt, beispielsweise Kontaktdaten bzw. Adressbücher, die Daten Dritter enthalten, von denen der Hochladende aber glaubt, sie seien „mein Adressbuch“, und die Rechtsverletzung gar nicht wahrnimmt. Ein drittes Phänomen stellen Daten dar, bei denen sich der Veröffentlichende nicht darüber im Klaren ist, dass diese Daten im Zusammenhang mit anderen Daten bestimmte Schlüsse zulassen. Beispielsweise könnte man aus einer Abfolge von Einkäufen und einem abendlichen Tweet schließen, dass der Akteur ein Candle-Light-Dinner mit einer Blondine hatte und was man hierbei aß. Ein viertes Phänomen liegt vor, wenn maschinelle Verfahren unser Verhalten analysieren und dabei Wahrscheinlichkeiten zutage fördern, die uns gar nicht bekannt waren. Beispielsweise lässt sich die Eigenschaft eines Mannes, dass er homosexuell ist, mit einer hohen Wahrscheinlichkeit aus seinem sozialen Graphen schließen, wenn unter seinen Freunden einige als homosexuell bekannt sind (MIT 2007). Auch die Trinkgewohnheiten lassen sich beispielsweise erfassen, wenn jemand häufig schreibt, was er gerade trinkt, welche alkoholischen Getränke er gerade gekauft hat, wenn er Bilder postet, unter denen Dritte Schlüsselwörter wie „betrunken“ posten.

Ausschluss, Verabseitigung, Anonymisierung, Verschlüsselung, Verstecken

Es gibt eine Reihe von bekannten Verfahren, wie im Internet Privatheit hergestellt wird. Das einfachste Verfahren besteht in der Wahl eines Kommunikationsmittels, das die Kommunikation prinzipiell nur mit definierten Empfängern voraussetzt, beispielsweise E-Mail oder Chat. Ausschluss undefinierter Teilnehmer findet aber auch statt bei geschlossenen Benutzergruppen, z.B. in Foren. Zu den IT-technischen Mitteln gehört ebenso, die gesamte Kommunikation in einen abseitigen Bereich zu verlegen, beispielsweise durch Benutzung eines seltenen Ports. Künftig kann auch eine Möglichkeit darin bestehen, sich ein eigenes Netzwerk aufzubauen – Ad-hoc-Mash-ups, neue Wireless-Dienste mit hoher Reichweite und Body-to-Body-Networks[4] können die gesamte Situation verschieben, indem sich viele Menschen für bestimmte Zwecke aus dem Internet ausschließen. Während der Inhalt auf den genannten Wegen jedoch leicht ermittelt werden kann, gehen zwei weitere Techniken weiter: Anonymisierung verschleiert die Identität der Teilnehmer, Verschlüsselung codiert die Kommunikationsinhalte selbst mit einem Schlüssel, der nur berechtigten Personen zur Verfügung stehen soll. Eine weitere Möglichkeit besteht darin, die Information zu verstecken. Das geht entweder mit hergebrachten Verfahren wie Geheimschriften und Geheimsprachen, aber auch mit neuen digitalen Mitteln, z.B. indem man die Information mit technischen Mitteln so in andere einbettet, dass sie nicht ohne Weiteres erkannt wird (Steganographie). Bei der Entwicklung dieser Techniken ist auffällig, dass es fast immer aufdeckende Gegenmittel gibt, vom Abhören unverschlüsselter Mails über den Port-Scanner bis hin zur Steganalyse und Kryptanalyse. Absolute Privatheit, die nicht gebrochen werden kann, gibt es im Internet nicht; selbst ein guter Anonymisierungsdienst kann nur dann nicht abgehört werden, wenn man ihn selbst betreibt. Es ist heute nicht vorhersehbar, wer im Kampf der Methoden und Gegen-Methoden die Oberhand haben wird. Vielleicht werden sogar aufdeckende, die Privatheit brechende Verfahren eines Tages jedermann zur Verfügung stehen.

Blockade, Desinformation, Noise

Neu bei den modernen Kommunikationsmitteln ist, dass man ihr Funktionieren durch Einflussnahme auf die Infrastruktur stören kann. Was man beim Handy schon als Störsender oder „Handy-Blocker“ kennt, geht auch bei Funksignalen aus WLANs und anderen Funknetzen, welche diese Internetprotokolle nutzen. In der Zukunft ließe sich so beispielsweise gezielt eine Nutzung an bestimmten Geokoordinaten unterbinden. Dies ist freilich eher ein Instrument digitaler Kriegsführung. Grundsätzlich ist dies aber auch für den Privatnutzer denkbar, die Kommunikation von Endgeräten anderer auf diese Weise mit einem „Internet-Blocker“ zu blockieren; in einem Café könnte man mit Störsender oder Internet-Blocker das Twittern nach außen blockieren und auf diese Weise eine Sphäre sichern. Ein ähnliches Phänomen zeigt sich bei einem Patent, wo das Handy aufgrund seiner Standortinformation die Kamera deaktivieren kann; dies könnte Aufnahmen von Musikveranstaltungen und Ähnliches verhindern und so also eine Sphäre Dritter schützen. Technologie spannt hier also einen Schutzschirm auf, der sowohl zum Schutz von Intellectual Property als auch zum „Sphären“-Schutz verwendet werden kann. Ein weiteres Phänomen ist gezielte Desinformation. So ist es ein Leichtes, durch alte Fotos ein falsches Bild zu vermitteln oder durch Software falsche Geokoordinaten zu generieren. In Zukunft sind Automaten und Robots für solche Tätigkeiten gut geeignet, um programmiert bestimmte desinformierende Datenstrukturen zu hinterlassen. Auf diese Weise können falsche und irreführende Daten erzeugt werden – nichts anderes macht ja heute schon derjenige, der bei Registrierungsformularen bewusste Falschangaben macht, um seine Privatsphäre zu schützen. Sobald Maschinen diese Aufgaben übernehmen, wird es auch möglich sein, ein Informationsrauschen zu erzeugen, das andere Informationen überdeckt. Um ein heute mögliches Verfahren zu nennen: Ein Browser-Plug-in könnte vordefiniert und automatisch so lange verschiedene Webseiten aufrufen, bis die vorgetäuschten Interessen von der Profiling-Engine des Werbevermittlers für die maßgeblichen gehalten werden. Nicht absichtsvoll, sondern zufällig erzeugte Desinformation könnte man als Informationsrauschen oder Noise bezeichnen. Zehn vom Nutzer eingegebene Abfragen gehen in 150 von der Maschine erzeugten Abfragen unter, die eine falsche Datenspur legen. So ähnlich arbeitet seit 2005 schon das Browser-Plug-in TrackMeNot, das die Interessen-Erkennungsmechanismen von Suchmaschinen irritieren soll, indem es maschinell neue Suchabfragen erstellt. Setzt man das Plug-in jedoch in Deutschland ein, wird eine Pointe deutlich: Aufgrund der falschen Abfragesprache können die Abfragen von der Suchmaschine erkannt und ignoriert werden. Die Tarnkappe funktioniert also nicht. Niemand weiß, ob es eines Tages gelingen kann, jegliche Datenspuren mit Fehlinformation zu verwischen. Sobald aber die Spuren Muster aufweisen, wird die Verdeckungsabsicht deutlich und der Nutzer ist enttarnt. Es ist ein Katz-und-Maus-Spiel der Algorithmen, Spion und Spion.

Algorithmik

Ein weiteres Phänomen ist die Gewinnung von Daten aus bestehenden Daten mit Hilfe von Logik oder Algorithmen in Verbindung mit anderen Daten. Man könnte hier neben den freiwillig abgegebenen Daten und den observierten Daten auch von abgeleiteten Daten sprechen. So können etwa Wahrscheinlichkeitswerte zu Bonität, Krankheiten und Kriminalität aus der Gesamtbetrachtung von Personendaten und Statistiken erstellt werden. Dies erfolgt mit Bonitätsdaten schon lange im E-Commerce zum Nutzen der Beteiligten. Ebenso lassen sich gesundheitliche Risiken aus Statistiken der Luftüberwachung ableiten. Über tiefe Textanalyse können beliebige Objekte analysiert werden, z.B. Reisedaten von Personen (vgl. recordedfuture.com) und anderes mehr. Wir können derzeit nicht absehen, wie leistungsfähig und aussagekräftig die Verfahren der Zukunft sein werden. Neben den vielen Chancen zeigen sich aber auch Risiken. Zum einen werden maschinelle Hinweise gegeben, hinsichtlich welchen Aspektes eine Person genauer zu betrachten ist, so dass die Chance, ein privates Faktum aufzudecken, deutlich steigt. Beispielsweise könnte man religiöse Minderheiten aufgrund ihres Einkaufsverhaltens eventuell gut erkennen. Und wo maschinelle Schlüsse plausibel sind, etwa hinsichtlich der Kriminalitätsrate einer Person, bewirken diese Hinweise tatsächlich ein Verhalten der Umwelt, das dieselben Konsequenzen wie die Aufdeckung eines tatsächlichen Faktums haben. Wer von einem Fraud-Detection-System der Zukunft als „wahrscheinlich ein Dieb“ klassifiziert wird, wird die Handschellen sehen, die er als Dieb erhalten hätte. Wir haben es also bei zutreffenden Schlüssen mit einer Aufdeckung des Ungewollten zu tun und bei falschen Schlüssen mit der Wiedergeburt des menschlichen Vorurteilswesens mit maschinellen Mitteln.

Inhalteüberwachung

Relativ jung ist die Inhalteüberwachung, die im digitalen Raum wegen maschineller Verfahren die Inhalte von Kommunikation weitgehend analysieren kann und die somit ein Sonderfall der Algorithmik ist. Schon bei der Untersuchung von Mails werden für werbliche Zwecke Interessensprofile erzeugt; dies ist kein Geheimnisbruch, da die „Einsicht“ durch „nichtsehende“ Maschinen geschieht und Informationen mit Kenntnis des Absenders in die Sphäre des Betreibers geraten, der diese Maschinen betreibt. Ein ähnliches Problem tritt bei maschineller Erkennung von Spam und Fake-Profilen auf, hier wird vor allem in sozialen Netzwerken die Kommunikation inhaltlich analysiert, was ebenso bei Social Media Monitoring Anwendung findet. Schließlich sind – neben Kriminellen – auch Staaten mit der maschinellen Inhalteanalyse befasst, wobei hierzu auch Schnittstellen bereitgestellt werden. Unter dem hier betrachteten Gesichtspunkt ist evident, dass alle diese Anwendungen eine Softwaregattung vorantreiben, die das Potential hat, sphärenüberschreitenden Informationsfluss auszulösen, der von Absendern und Betreibern nicht gewollt ist, und somit zu schwerwiegenden Konsequenzen führen kann. Beispielsweise ließe sich, um nur den Fall öffentlich verfügbarer Information zu betrachten, anhand gecrawlter Filmrezensionen und mit statistischen Daten über das Ausleihverhalten homosexueller Frauen die Homosexualität einer Autorin mit hoher Wahrscheinlichkeit vermuten.

Automatisierung

Ein neueres Phänomen sind auch Applikationen, die halb- oder vollautomatisch Daten sammeln, welche der herkömmlichen Privatsphäre zuzurechnen sind. Einige dieser Applikationen veröffentlichen diese Daten auch. Beispielsweise publiziert blippy.com Transaktionen, die mit Kreditkarten getätigt wurden (Vorläufer ist Apples Ping), voyuurl.com veröffentlicht URL-Folgen von Browsersessions, GPS-Tracker speichern Geokoordinaten für Dinge aller Art (insbesondere Autos) und Personen, Facebook zeichnet gelesene URLs sowie Bücher, Musik und Filme auf und veröffentlicht diese in der Timeline. Zusätzlich zu diesen technischen Phänomenen beginnen Menschen, mit Selftracking ihre Lebensgewohnheiten und Fähigkeiten zu messen und zu analysieren, wie im Portal quantifiedself.com. Beispielsweise werden Schlafgewohnheiten in Relation zu Lebensgewohnheiten gemessen, Wissenslücken bei Quizzes maschinell erkannt, Launen auf mögliche Ursachen geprüft, Surfverhalten optimiert und Sport sowie Essensgewohnheiten und Körpergewicht analysiert. Hierzu wird zum Teil spezialisierte Hardware (insbesondere Sensoren) verwendet, die künftig auch in Kleidung als Wearable eingebettet sein kann und für die ferne Zukunft als Implantat diskutiert wird. Diese modernen Ideen haben ihr unbestritten sozial adäquates Pendant im Gesundheitswesen (M-Health), bei dem Herzfrequenzen, Blutdruck, Position und andere medizinische Werte an Server übermittelt werden, beispielsweise bei Demenzpatienten.[5] Alle nicht medizinisch motivierten Verfahren sind gesellschaftlich umstritten. Viele Nutzer und Unternehmen erwarten neuartige Erkenntnisse und halten die aktuellen Phänomene für den Vorboten des Datenschattens, der uns künftig in der Ambient Intelligence begleiten wird, und halten diese Entwicklung für die logische Fortsetzung der Erfassung öffentlich zugänglicher Bilddaten. Erste Kritiker warnen vor einer Veränderung, die soziale Zwänge auslöst, ohne dass die Folgen absehbar wären.

Anonymität und Pseudonymität, De-Anonymisierung

Anonymität und Pseudonymität gibt es nicht erst seit Erfindung des Internets, doch auch sie bereiten strukturelle Probleme, je genauer man hinsieht. Denn beide Konzepte gibt es nicht isoliert, sondern es kann sie nur in Bezug auf andere Menschen geben: Während es einerseits dem Bergbauern vielleicht in seinem kleinen Umfeld gar nicht möglich ist, anonym aufzutreten, kann dies für denselben Bergbauern in einer fremden Stadt die Regel sein, da ihn dort niemand erkennt. Beide Konzepte setzen nämlich mindestens eine weitere Person voraus, den Wissenden bzw. Nicht-Wissenden. Dieser kann die Identifikation der Person entweder gar nicht vornehmen (Anonymität) oder er gehört als Wissender zu einem begrenzten Personenkreis, der die Identität dieser Person anhand von Merkmalen erkennen kann, während der Nicht-Wissende die Identität nicht erkennen kann. Dabei ist der Name der Person der naheliegendste Fall möglicher Merkmale: einen Anonymous scheinen wir nicht zuordnen zu können, einen Peter Pan hingegen schon. Was aber, wenn es nur eine Person gäbe, die sich Anonymous nennt, und zehn, die sich Peter Pan nennen? Wie man sieht, dreht sich auch die Identifizierbarkeit um, weswegen es genau genommen auf die Bedeutung des Namens nicht ankommt. Allein entscheidend ist, ob wir eine eindeutige Adressierung einer Person vornehmen können, und dabei kann es statt eines Namens auch ein ganz anderes Merkmal sein, z.B. einmalig eindeutige Kleidung, ein Apfel auf dem Kopf, ein roter Hahnenkamm, die jeweils als Adressierung dienen. Hinzu kommt, dass die Adressierung so weit von Dauer sein muss, dass ein Wiedererkennen möglich ist: Die Rose im Knopfloch hilft beim Blind Date, den Partner zu erkennen, hebt aber dessen Anonymität erst auf, wenn er sie bei einer weiteren Gelegenheit trägt, so dass wir die Person als bekannt erkennen. Adam und Eva wären also auch dann nicht anonym gewesen, wenn sie sich keine Namen gegeben hätten – ein Wiedersehen genügt. Vielleicht muss man also sagen, dass Anonymität der theoretische Urzustand ist, der so lange aufgehoben ist, wie sich eine Person innerhalb einer sozialen Struktur bewegt und mit anderen interagiert. Wer dann wieder anonym sein will, muss sich dorthin begeben, wo sich sein gewohntes Personenumfeld nicht befindet – und so ist das Weggehen in eine andere Stadt, ein anderes Land oder auf einen anderen Kontinent der typische Fall des bürgerlichen Neuanfanges, der mit Anonymität wieder beginnt. Im Internet dienen Anonymität und Pseudonymität zunächst dem Schutz der Person. Ihre Identität soll nicht für alle (= öffentlich) erkennbar sein – es entsteht also Privatheit als ein Für-sich-Sein bzw. Untereinander-Sein. Dabei taucht eine Reihe von Phänomenen auf. Erstens ist dieser Schutz unabhängig vom Zweck der Handlung, kann also auch böser Absicht dienen. Ein Beispiel: Derselbe Lehrer, dessen Pseudonymität ihn eben noch vor seinen Schülern schützte, kann diese eine logische Sekunde später nutzen, um verbotene Bilder von Schülerinnen herunterzuladen. Anonymität und Pseudonymität sind also zwangsläufig ambivalent, je nach Absicht der Person. Zweitens gibt es technische Mittel, die Anonymität aufzuheben, wie Gesichts-, Stimm- und Texterkennung, was im Nachhinein den Schaden stark erhöhen kann, weil der Betroffene sich gerade in der Annahme, geschützt zu sein, sehr klar artikuliert hat. Drittens kann man in der Komplexität des Internets schon einmal „versehentlich die Tarnkappe verlieren“, was zum selben Ergebnis führt. Viertens setzt Kommunikation ein Wiedererkennen von Absendern der Kommunikationsakte voraus, weswegen auch der anonyme Nutzer sich wiedererkennbar zeigen muss und so womöglich einzigartige Merkmale preisgibt, zumal Kommunikation auf ihre Fortsetzung angelegt ist. Und fünftens behaupten viele, mit anonymen Personen sei im Vergleich zu identifizierten Personen nur weniger Vertrauen zwischen den Beteiligten möglich. Gerade hier ist die Anonymität aber zugleich ein Stück „Privacy in Public“, in der die Beteiligten sich mehr anvertrauen können, weil sie sicher sein können, dass der Kontakt ohne ihr Zutun nicht das digitale Medium verlässt. Es scheint also die Schutzwirkung der Anonymität zum einen von der Absicht der Beteiligten und zum anderen von der Ein- bzw. Mehrseitigkeit der Beziehungen abzuhängen. Ein weiterer Aspekt ist, dass ein Identitätswechsel aufgrund einiger Phänomene zum Teil schwierig geworden ist. Zwar kann man im Extremfall für einen Neuanfang den Namen wechseln, doch machen öffentliche Fotos und bestimmte Profilinformationen es nötig, auch das Aussehen zu verändern. Von den ersten Fällen, in denen Polizisten ihren Aufgaben nicht mehr nachgehen können, weil sie aufgrund von Internetdaten gut identifizierbar sind, wird berichtet.[6] Auch anhand dieses Beispiels zeigt sich, wie ambivalent die Veränderungen sind, denn was der Erkennung von Tätern dienen kann, kann den Einsatz von Polizisten verhindern. Mittel- und langfristig ist es fraglich, ob es Anonymität und Identitätswechsel überhaupt geben kann für Personen, die im Internet kommunizieren. Es gibt eine Reihe von Technologien, welche die Aufdeckung bezwecken. Beispielsweise wird in der Autorenerkennung (aus der forensischen Linguistik) versucht, Merkmale von Autoren mit Wahrscheinlichkeitswerten zu versehen und Autorenidentität mit Textvergleichen zu erkennen. Neben diesem gern „sprachlicher Fingerabdruck“ genannten Prinzip gibt es auch den technischen Fingerabdruck, beispielsweise ergibt die Kombinatorik aus Browser- und Systemeigenschaften häufig eine eindeutige Identität (siehe panopticlick.com). Auch kann heute anhand sozialer Interaktionsmuster (wer kommuniziert wann mit wem worüber) eine Identität mit Wahrscheinlichkeiten versehen werden. Die Augmented ID befasst sich mit der Kombination aus Gesichtserkennung und zeigt dem Gegenüber Personendaten des Betrachteten. Fügt man nun noch die Erkenntnisse zu Algorithmen, Automatismen und Ambient Intelligence hinzu, sieht man die Entwicklung: Die Anzahl von Auslösern bzw. Sensoren steigt, die Einspeisung ins Internet nimmt zu, die Analysefähigkeiten von Software nehmen zu. Wer hier noch kommunizieren will, muss im Allgemeinen bleiben und sich in jeder Beziehung verwechselbar verhalten, so dass Kommunikationszwecke infrage gestellt werden. Wie soll ich meine Identität und ein Innen und Außen trennen, wenn ich mich nicht kommunikativ abgrenzen darf?

Big Data

Nach der mooreschen Faustregel verdoppelt sich die Anzahl der Transistoren je Chip in weniger als zwei Jahren. Grob gesagt verdoppelt sich Rechenleistung je Euro jährlich. Hinzu kommt leistungsfähigere Software, z.B. für Virtualisierung und Skalierung. Seit neuestem ist es möglich, 1 Petabyte (= 1.000 Gigabyte) an Daten innerhalb einer halben Stunde zu sortieren; für diesen Rekord wurde die Aufgabe auf einem System von 8.000 Servern verteilt.[7] Was Techniker „Big Data“ nennen, also neuerdings mögliche schnelle und günstige Auswertung sehr großer Datenmengen, bietet viele Chancen für die menschliche Gesellschaft. Einige davon sehen wir schon heute: etwa Live-Stauwarnungen auf Landkartendiensten, welche diese Daten aus den Positionsdaten der Fahrzeuge gewinnen, oder Statistiken und Prognosen über aufkommende Krankheiten mit regionalen und zeitlichen Angaben. Andere Dienste sind am Horizont sichtbar wie simultan funktionierende Echtzeit-Übersetzungen, die aus einer Vielzahl von Übersetzungen im Internet gespeist werden. Wieder andere, wie Hochrechnungen und Analysen gesellschaftlicher Trends (Beispiel: Berechnung makroökonomischer Trends) und politische Problemlösungen, können durch Kenntnis von Daten über komplexe Systeme und Strukturen erleichtert werden; die Gesetzgebung kann so empirisch fundiert werden (Stichwort: evidence-based policy). Aus einer gewissen Perspektive können hierunter eines Tages auch Abstimmungsdaten aus Bürgerbeteiligung und Ähnlichem fallen. Wir könnten aus vielen Quellen, insbesondere sozialen Netzwerken, neue empirische Daten erhalten und auswerten, um menschliches Sozialverhalten zu erforschen und so – pathetisch ausgedrückt – die „Soziologie 2.0“ begründen. Wir wissen heute noch nicht, wie hoch der Preis für solche Erkenntnisse sein wird. Wie auch sonst bei Datenbeständen bestehen hier Risiken, allen voran Missbrauch, fehlerhafte Anonymisierung und versehentlich oder absichtlich geleakte Veröffentlichung dieser Daten. Dabei könnte es sein, dass durch die Kumulation von Big Data mit anderen Phänomenen Probleme der De-Anonymisierung entstehen. Es ist nämlich nicht ganz klar, wie schädlich beispielsweise eine anonymisierte Liste aller ehemaligen Mieter eines Hauses ist (Wohnung, Zeitraum etc.), wenn das Haus nicht hundert, sondern nur vier Mietparteien hat. Würden nämlich hierzu nun weitere Big-Data-Töpfe zugemischt wie die Bonität und Krankheitsdaten, könnte man aussagekräftige Wahrscheinlichkeitsberechnungen darüber durchführen, wer als Rollstuhlfahrer im Erdgeschoss auszog und wer als „Besserverdiener“ im selben Monat das Penthouse anmietete. In jedem Fall bleibt eine – wenn auch sehr geringe – Wahrscheinlichkeit eines Datenunfalls, der möglicherweise ungekannte Auswirkungen auf die Privatsphäre von Millionen Menschen hat. Schon 1990 hatte der geplante Verkaufsstart von Lotus Marketplace, einer CD mit Datensätzen von 120 Millionen US-Haushalten, erhebliche Proteste ausgelöst. Big Data ist einerseits ein quantitatives Problem, hat aber auch eine qualitative Seite, weil auf neuen Anwendungsfeldern neue Daten genutzt werden, die Data Value haben, und weil Verschiebungen sozialer Strukturen denkbar sind, etwa wenn bei einer bestimmten Krankheit jeder erkrankte Bürger namentlich bekannt würde.

Raumüberwachung, Überwacher-Überwachung

Jedermann kennt heute das Thema der Videoüberwachung von Kunden und Mitarbeitern durch Privatunternehmen, aber auch durch Staatsorgane (vor allem an öffentlichen Plätzen), das vielerorts diskutiert wird. In jüngerer Zeit fügt sich hier ein neues Phänomen ein: Bürger überwachen Bürger. Auf der einen Seite sind Pennycams für jedermann günstig verfügbar (z.B. bei eBay und hier http://megaspy.net). Zum anderen werden Smartphones mit hochauflösenden Kameras der Regelfall sein, die bereits heute Videos (z.B. via UStream) live streamen können. Schließlich werden wir, getrieben durch die großen Internetanbieter, das Vordringen von Videotelefonie an den Arbeitsplatz und auch ins Heim erleben, so dass häufig Kameras mit Internetanschluss vorzufinden sein werden. Es ist nur noch eine Frage des Zeitpunktes, bis Kameras allerorts direkt ins Internet streamen können und auch von außen ansprechbar sind. Denn auch hier schreitet die Technik fort, WLAN-Technologie mit 16 Gigabit pro Sekunde ist noch in diesem Jahrzehnt zu erwarten.[8] Drahtlose Funknetze mit Reichweiten deutlich über die heutigen WLAN-Standards hinaus sind angekündigt. Hinzu kommen noch zwei weitere Phänomene. Die oben schon angesprochene GPS-Signal-Ermittlung findet nicht nur bei Handys statt, sondern auch bei Fahrzeugen und bei Dingen, die wir wiederfinden wollen, z.B. Laptops (übrigens inklusive Datenübermittlung und Nutzerfoto vom Dieb). Entsprechende Technologien kommen für die Ortsbestimmung von Personen zum Einsatz, z.B. für Kranke und Kinder. In Kombination mit Gesichtserkennung und Auto-ID-Verfahren im Zusammenhang mit RFID-Chips ist damit der nächste Schritt sichtbar: Zu den Videos und Ortsangaben kommen Personendaten hinzu. Was wie eine zufällig entstehende Dystopie aussieht, wird in Teilbereichen schon erprobt: So gibt es etwa in den Niederlanden einen Pilotversuch, bei Nahverkehrsmitteln die Videoüberwachung um Gesichtserkennung zu ergänzen, damit über Datenbankabfragen Personen mit Hausverbot maschinell erkannt werden können.[9] In den USA wird der erste Gerichtsbeschluss kontrovers diskutiert, wonach ein GPS-Empfänger für polizeiliche Ermittlungen ohne richterlichen Beschluss zur Ortsbestimmung des Verdächtigen eingesetzt werden darf.[10] Unabhängig davon kann es vorkommen, dass Sicherheitsmängel es Dritten ermöglichen, sich der technischen Infrastruktur zu bedienen, beispielsweise Stalker für die Ortsermittlung ihrer Opfer.[11] Neben diesen faktisch entstehenden oder beabsichtigten Veränderungen entwickeln sich weitere Phänomene: Unter Policing the Police wird das Phänomen verstanden, dass Bürger Polizisten überwachen (vgl. OpenWatch.net und den CopRecorder, „inverse Überwachung“). Ebenso entstehen Szenarien im Sinne einer Bürgerwehr oder militanten Gruppen, die andere Bürger überwachen („Türken überwachen Kurden“). Und schließlich bleibt am Ende die Frage, ob nicht durch massenhafte Datensammlung von Bürgern und Unternehmen sich nicht die Diskussionslage um staatliche Überwachung verschiebt: Outsourcing staatlicher Überwachung an die Bürger. Technische Entwicklungen verschieben also die Grenze des Möglichen. Ob es hierbei zu technischen Gegenmitteln kommen wird (siehe oben, z.B. Blockaden und Noise), ist unklar; bei der Videoüberwachung wird es kein sinnvolles Gegenmittel geben, da wir uns nicht ständig vermummen wollen. Es bleibt also eine Frage des Sollens und der Normsetzung, ob und an welcher Stelle des Entstehens diese Risiken eingedämmt werden sollen. Wir gehen derzeit davon aus, dass in zehn Jahren und mehr die faktischen Verhältnisse zu Veränderungen führen werden. Vielleicht müssen sich künftige Generationen sogar daran gewöhnen, dass sie außerhalb der von ihnen kontrollierten Räume ständig beobachtet werden können.

Schluss

Die Ausführungen der ersten Abschnitte haben gezeigt, dass das Internet als der dem Buch und den Massenmedien folgende mediale Umbruch nicht nur die Informationsverarbeitung der Menschheit allgemein verändert, sondern auch Auswirkungen auf Privatheit und Öffentlichkeit haben wird. Denn die Grenze zwischen beidem ist in vielerlei Hinsicht fließend und unscharf, und sie ist eine Grenze, die mit der Durchlässigkeit für Information unmittelbar zu tun hat. Wenn jede Information überall ist, gibt es keine Privatheit mehr. Private Information ist das, was im Innen ist und vom Außen getrennt ist; sie ist informatorische Differenz. Auch die bloße Erscheinung ist Information, sie kann mit Mitteln des Internets ebenso übertragen werden und diese Information wirft daher gleiche Fragen auf. Das Internet bringt Mechanismen mit sich, welche die informationelle Trennung von Innen und Außen aufheben, z.B. weil Information zwischen gesellschaftlichen und technischen Systemen kopiert werden kann. Man könnte daher annehmen, dass Internetmechanismen a priori die Grenze der Privatheit in dem Sinne verschieben, dass es mehr Öffentlichkeit und weniger Privatheit gibt. Doch ist diese Prognose völlig offen, solange nicht geklärt ist, ob die neuen Technologien nicht auch „Gegenmittel“ hervorbringen, beispielsweise spezielle und geschützte Endgeräte, Blockademechanismen, großflächige private Netze und Ähnliches – so wie Webanalyse-Software zur Entwicklung von Plug-ins geführt hat (Anzeige von Analyse-Software beim Surfen) und wie die Onlinewerbung den Ad-Blocker provozierte. Besorgniserregend, weil die Autonomie betreffend, sind eine Reihe von Technologien, welche Aussagen erzeugen können, die für den Nutzer nicht vorher erkennbar sind, namentlich Algorithmen zur Identitätsermittlung wie Autorenerkennung, aber auch Analysen von Verhaltensdaten. Kritisch sind auch identitätsaufdeckende Techniken, von der Gesichtserkennung bis zum Erstellen von „Fingerabdrücken“ aus aller Art von Informationen. Die Gefahren könnten sich durch die Ausdehnung ins Internet of Things und die Automatismen verstärken. Ambivalent ist auch die Frage nach Anonymität und Pseudonymität, weil diese zwar eine wünschenswerte Option darstellen, aber mit guter und mit schlechter Absicht eingesetzt werden können – und folglich sind auch die Entwicklungen ambivalent. Ebenso ist die Frage nach Privatheit nicht schlechthin mit einem „100 %“ zu beantworten, denn wo Information von Mensch zu Mensch unter Abwesenden nicht unmittelbar übertragen werden kann und mit Hilfsmitteln mittelbar nicht geschehen darf, gibt es kein komplexes soziale Gefüge, gibt es keine moderne Gesellschaft. Wir werden, weil viele Technologien von der Gesichtserkennung und der Geokoordinatenermittlung bis zur verschriftlichten Alltagskommunikation im Web („WriteWeb“) mit sozialen Graphen noch sehr jung sind oder sogar wie Big Data und Semantic Web noch am Anfang stehen, die Sachlage ständig beobachten und bewerten müssen und bei der Grenzsetzung flexibel bleiben müssen. Kurzfristige Überforderung im sozialen Gebrauch neuer Technik, korrekturbedürftige technische Fehlentwicklungen, unangemessene Reaktion der Beteiligten sind ebenso wahrscheinlich wie Über- oder Unterregulierung, weil das Tempo der Entwicklung alle Systeme der Gesellschaft berührt. Doch dieser Umbruch ist aus einer historisch-kulturellen Perspektive nicht der erste – und die hinter den Phänomenen verborgenen Konzepte, Strukturen, Probleme und Lösungen sind so alt, dass es überraschen würde, wenn die Menschheit die Vorteile des Umbruches nicht langfristig zu nutzen und die Nachteile zu beherrschen in der Lage wäre.

Verweise

  1. http://www.vatican.va/archive/DEU0036/__P3F.HTM – Beichtstuhl, Ort Kirche, Gitter und „Außerhalb des Beichtstuhls dürfen Beichten nur aus gerechtem Grund entgegengenommen werden“.
  2. http://www.thinkoutsidein.com/blog/2011/05/small-connected-groups/
  3. http://www.heise.de/newsticker/meldung/Smart-Meter-verraten-Fernsehprogramm-1346166.html
  4. http://www.wired.com/epicenter/2010/10/people-could-carry-future-phone-network-nodes/
  5. http://ne-na.de/medica-web-armbanduhr-fuer-demenz-patienten-sensoren-ueberpruefen-vitalfunktionen/001132
  6. http://blog.zdf.de/hyperland/2011/09/das-ende-der-anonymitaet-im-netz-auch-fuer-polizisten/
  7. http://business.chip.de/news/Google-So-werden-1-Petabyte-an-Daten-sortiert_51591014.html
  8. http://blog.infotech.com/analysts-angle/peering-ahead-multi-gigabit-wireless-will-replace-cables/
  9. http://www.ret.nl/over-ret/nieuws-en-pers/ret-start-proef-met-gezichtsherkenningscameras.aspx
  10. http://www.wired.com/threatlevel/2010/09/public-privacy/
  11. http://blogs.law.nyu.edu/privacyresearchgroup/2011/04/stalkers-exploit-cellphone-gps-the-wall-street-journal-august-3-2010/
Autoren dieses Artikels
Gordon Süß
Sebastian Haselbeck
comments powered by Disqus