spongebob squarepants wallpaper
Transcription
spongebob squarepants wallpaper
Zentrale Distribution statt Internet Zentralität im Internet, Videoplattformen als zentrale Distributionskanäle und die damit verbundenen Kontrollmöglichkeiten über „User Generated Content” Simon Griwatz Inhaltsverzeichnis Einleitung.....................................................................................................1 Videoplattformen.........................................................................................4 Das dezentrale Internet...............................................................................7 Geschichte.....................................................................................................................7 Wie dezentral ist das Internet?....................................................................................11 Peer-to-Peer.................................................................................................................14 Peer-to-Peer als Internet 2.0........................................................................................18 Das zentrale Internet.................................................................................20 Wie zentral ist das Internet?........................................................................................20 Zentralisierung durch Videoplattformen.....................................................................28 Zentralisierung durch Web 2.0...................................................................................31 Zentrale Struktur als Angriffspunkt.......................................................34 Netzsperren.................................................................................................................34 Nutzungsdaten.............................................................................................................36 Automatische Verarbeitung zur Nacktheitserkennung...............................................38 Nutzerbewertungen.....................................................................................................42 Fingerprint zur Erkennung von Audio und Video......................................................44 Rechtliche Rahmenbedingungen..............................................................47 Domainregistrierung, Anbieterkennzeichnung und Abmahnungen...........................47 Störerhaftung / Linkhaftung........................................................................................50 Das DCMA – urheberrechtliche Regularien im Internet............................................52 Vorratsdatenspeicherung.............................................................................................54 Fazit............................................................................................................56 Literaturverzeichnis...................................................................................... Einleitung "Der Rundfunk ist aus einem Distributionsapparat in einen Kommunikationsapparat zu verwandeln. Der Rundfunk wäre der denkbar großartigste Kommunikationsapparat des öffentlichen Lebens, ein ungeheures Kanalsystem, das heißt, er wäre es, wenn er es verstünde […] den Zuhörer nicht nur hören, sondern auch sprechen zu machen und ihn nicht zu isolieren, sondern ihn in Beziehung zu setzen."1 In der Frühgeschichte des Radios, also in der Zeit, zu der die Übertragung elektromagnetischer Wellen über die Luft noch nicht in die zwei Bereiche Funk und Rundfunk getrennt wurde, war dies im gewissen Sinne noch der Fall. 1888 fand die erste Funkübertragung statt, die erste telegraphische Funkübertragung 1895. 1902 entwickelte Reginald Fessenden die Technik Musik und Sprache zu senden und übertrug unregelmäßig Sendungen. Because he did not provide a regular schedule of programming for the public, Fessenden is not usually credited with having operated the first broadcasting station.2 1910 sendete Deforest Gesang von Enrico Caruso und begann noch vor dem ersten Weltkrieg mit täglichen Sendungen.3 1909 wurde der Junior Wireless Club von einem elfjährigen Jungen gegründet.4 Beide sahen im Funk weder direkte Kommunikation, noch ein zentrales Massenmedium, sondern eine Möglichkeit, durch die jeder senden kann. Yet, the Junior Wireless Club and other hams (such as inventor Lee Deforest) saw radio as something completely 1 Brecht, Bertolt. Der Rundfunk als Kommunikationsapparat. In: Über Politik und Kunst. Frankfurt am Main: Suhrkamp 1971. S. 19-24. 2 Scott, Carole. History of the Radio Industry in the United States to 1940. EH.Net Encyclopedia, edited by Robert Whaples. 26. März 2008. URL http://eh.net/encyclopedia/article/scott.radio.industry.history Stand 14. August 2009 3 Vgl. ebd. 4 Vgl. Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping and Innovating Radio and The Internet S. 3 URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009 Zentrale Distribution statt Internet 1/57 different – a way for any individual to broadcast a message that could be heard by whomever felt like tuning in. It was point-tomass communication on an individual level – akin, in theory, to everyone having access to their own newspaper press or film studio.5 1912 sank die Titanic und mutmaßliche Störungen des Funkverkehrs durch Funkamateure führten zum Beginn der Regulierung.6 Wenige Jahre später, mit Anfang des ersten Weltkriegs, wurde der Amateurfunk verboten, um die Frequenzen für militärischen Nutzung freizuhalten.7 Nach dem ersten Weltkrieg begann ein Radioboom, an dem auch viele Funkamateure beteiligt waren. 1927 wurde durch den Radio Act die Federal Radio Commision (FRC) und 1934 durch den Communications Act die Nachfolgeorganisation Federal Communication Commision (FCC) gegründet, die über die Vergabe von Frequenzen, die maximale Leistung und Übertragungsqualität entscheiden konnten.8 Der finanzielle Erfolg stand bei der Vergabe von Übertragungskapazitäten im Vordergrund9 und somit war die Trennung zwischen den Funkamateuren und den Radioproduzenten besiegelt, so dass keine 20 Jahre später, nach Ende des zweiten Weltkriegs, Medienunternehmen das Funkspektrum beherrschten. However, media corporations owned 85 percent of all frequencies, and there were fewer than 150 community stations left.10 Heute senden Funkamateure auf eigenen Frequenzen, für deren Empfang übliche Radios nicht ausgelegt sind. Prinzipiell kann jeder senden, beim CB-Funk noch wesentlich einfacher, aber empfangen können dies meist nur wenige. 5 Edb. S. 4. 6 Vgl. ebd. S. 4. 7 Vgl. ebd. S. 5. 8 Vgl. Messerre, Fritz. Encyclopedia of Radio: Regulation. S. 3-5. URL http://www.oswego.edu/~messere/RadioReg.pdf Stand 19. August 2009. 9 Vgl. Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping and Innovating Radio and The Internet S. 6. URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009. 10 Edb. S. 7. Zentrale Distribution statt Internet 2/57 In der Anfangszeit der breiten Internetnutzung schien es, als würde das Internet erfüllen, was der Rundfunk nicht schaffen konnte. Die Beschränkungen aufgrund der eingeschränkten Ressourcen und der Störmöglichkeit anderer Sender sollten mit dem Internet aufgehoben sein und die offene, dezentrale Struktur sollte Zensur und Unterdrückung im Internet unmöglich machen. Nun sollte es möglich sein, dass jeder selbst zum Sender wird und damit aus der Distribution, wie sie in Radio und Fernsehen üblich ist, Teilhabe wird. 20 Jahre nachdem das Internet für kommerzielle Betätigungen und damit für das Massenpublikum geöffnet wurde und ein Boom stattfand, der das Internet auch für den Massenmarkt interessant gemacht hat, kann verglichen werden, ob sich das Internet ähnlich entwickelt. Dazu werden im ersten Kapitel die Funktionsweise von Videoplattformen erläutert und an Hand von YouTube einige Details betrachtet. Im nächsten Kapitel wird insbesondere anhand seiner Entwicklung untersucht, wie dezentral das Internet ist. Als besonders dezentrale Anwendung des Internets wird im weiteren Peer-to-Peer als Fortentwicklung des Internetkonzepts betrachtet. Im Kapitel Das zentrale Internet hingegen wird auf die Zentralität eingegangen, die sich an einigen Aspekten des Internets zeigen lässt. Die Entwicklung von Videoplattformen und Web 2.0 Anwendungen wird in Bezug auf ihre zentralisierenden Effekte betrachtet. Das Kapitel Zentrale Struktur als Angriffspunkt soll aufzeigen, welche technischen Möglichkeiten bestehen, diese zentrale Struktur insbesondere in Bezug auf Videos zu benutzen, um mit intelligenten Algorithmen und leistungsstarken Rechnersystemen die Kontrolle über die gesendeten Inhalte zu behalten. Das nächste Kapitel soll einige der rechtlichen Grundlagen erörtern, um zu zeigen, dass es keine Frage der Technik ist, wie frei gesendet werden kann, sondern in großem Maße dadurch entschieden wird, auf was sich die Gesellschaft einigt. Das Fazit fasst die Erkenntnisse der verschiedenen Kapitel zusammen und soll das sich ergebende Bild des Internets zwischen freiem Senden und Distribution klären. Zentrale Distribution statt Internet 3/57 Videoplattformen Durch die starke Verbreitung von Kameras, insbesondere Web- und Handykameras, aber auch durch Mitschnitte aus dem Fernseher oder von DVD, ist die Zahl der Videoproduzenten stark gestiegen. Videoplattformen bieten die Möglichkeit, Videos auf einen Server zu laden und damit im Internet zu veröffentlichen. Andere Nutzer können diese Videos ansehen und meist auch bewerten, kommentieren oder beantworten. Die bekannteste Videoplattform ist YouTube und dient im folgenden oft als Beispiel. Das Anschauen der Videos ist häufig sehr einfach und ohne Registrierung möglich. Steht eine Breitbandinternetverbindung zur Verfügung, starten die Videos meist sofort und können ohne Verzögerung angeschaut werden. YouTube selbst preist sich mit den folgenden Worten an: Hier findet man Berichte zu aktuellen Geschehnissen aus erster Hand, Videos zu Hobbys und Interessen sowie skurrile und ungewöhnliche Videos.11 Zum Veröffentlichen von Videos ist in der Regel eine Anmeldung mit E-MailAdresse nötig. Alles weitere gestaltet sich so leicht wie möglich. So können zum Beispiel bei YouTube neun verschiedene Formate12 benutzt werden und nach nur sechs einfachen13 Schritten wird ein Video hochgeladen.14 So ist sowohl das Ansehen wie auch das Veröffentlichen von Videos auch für Personen möglich, die nur über wenig Erfahrung im Umgang mit Computer und Internet verfügen, so dass die Nutzer „mit YouTube […] zu den 'Sendern' von morgen [werden].“15 11 YouTube, LCC. Geschichte des Unternehmens. URL http://www.youtube.com/t/about Stand 14. August 2009. 12 Vgl. YouTube, LCC. Erste Schritte: Dateiformat. 24. Juli 2008. URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=55744 Stand 14. August 2009. 13 Z.B. die Auswahl der Datei auf der Festplatte oder auch nur der Klick auf einen Button sind hier mit einfachen Schritten gemeint. 14 Vgl. YouTube, LCC. Erste Schritte: Hochladen von Videos. 23. Juli 2009. URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=57924 Stand 14. August 2009. 15 YouTube, LCC. Geschichte des Unternehmens. URL http://www.youtube.com/t/about Stand 14. August 2009. Zentrale Distribution statt Internet 4/57 Bei vielen Videoplattformen gibt es die Möglichkeit, die hochgeladenen Videos in fremde Seiten zu integrieren. Die Nutzer können so zum einen eigenen Speicherplatz sparen und zum anderen Videos von verschiedenen Internetseiten aus promoten. Videoeinbettung: Nutzer können ein YouTube-Video in Facebook und MySpace, Blogs oder andere Websites einbetten, wo sie sich jeder ansehen kann.16 Darüber hinaus gibt es weitere Funktionen, die sich von Videoplattform zu Videoplattform unterscheiden. Beispielsweise kann zwischen öffentlichen und privaten Videos unterschieden, Playlists können angelegt oder Lieblingsnutzer abonniert werden. Um diesen Service bieten zu können, lassen sich Videoplattformen Nutzungsrechte an den hochgeladenen Videos und anderen Nutzerübermittlungen einräumen. Bei YouTube ist dies eine weltweite, nicht-exklusive und gebührenfreie Lizenz ein (mit dem Recht der Unterlizenzierung) bezüglich der Nutzung, der Reproduktion, dem Vertrieb, der Herstellung derivativer Werke, der Ausstellung Nutzerübermittlung Verfügung-Stellen im der und der Aufführung Zusammenhang mit Dienste anderweitig und dem der Zurim Zusammenhang mit dem Zur-Verfügung-Stellen der Webseite und YouTubes Geschäften, einschließlich, aber ohne Beschränkung auf Werbung für und den Weitervertrieb der ganzen oder von Teilen der Webseite (und auf ihr basierender derivativer Werke) in gleich welchem Medienformat und gleich über welche Verbreitungswege;17 Darüber hinaus behalten sich Videoplattformen vor, jedes Video oder jeden Nutzer aus ihrem Angebot entfernen zu können, wenn sie mit diesen nicht zufrieden sind. Bei YouTube gelten neben gesetzlichen Vorgaben auch ein Verstoß gegen irgendeine Vorschrift der YouTube-Bestimmungen oder auch nur ein Verhalten, dass darauf schließen lässt, man sei „nicht willens oder in der Lage dazu [ist], die Vorschriften der 16 YouTube, LCC. Überblick und Features. URL http://www.youtube.com/t/fact_sheet Stand 22. August 2009. 17 YouTube, LCC. Terms of Service. URL http://www.youtube.com/t/terms Stand 22. August 2009. Hervorhebungen im Original. Zentrale Distribution statt Internet 5/57 Bestimmungen einzuhalten“18. Außerdem beendet YouTube die Vertragsbeziehung, wenn „das Zur-Verfügung-Stellen der Dienste an Sie durch YouTube nach YouTubes Einschätzung wirtschaftlich nicht mehr rentabel ist“19. Videoplattformen bieten somit eine Präsentationsplattform für Videos im Internet und die Möglichkeit der Vernetzung mit Rezipienten und anderen Videoproduzenten. Der Videoproduzent räumt YouTube dafür unentgeltlich die wirtschaftliche Verwertung seines Werkes im Internet aber auch darüber hinaus ein. 18 Edb. 19 Edb. Zentrale Distribution statt Internet 6/57 Das dezentrale Internet Seitdem der Begriff Internet durch die Presse geistert, wird insbesondere der Aspekt der Dezentralität, ob im positiven oder negativen Sinne, hervorgehoben. Auf der einen Seite wird sie gepriesen, weil sie es jedem Regime unmöglich machen würde, weiterhin Informationen zu unterdrücken. Auf der anderen Seite wird sie verteufelt, weil Kriminelle nicht gestoppt oder zur Rechenschaft gezogen werden könnten. In diesem Kapitel möchte ich mich damit auseinandersetzen, wie dezentral das Internet ist. Dafür werden anhand der Entwicklungsgeschichte des Internet sowohl die Motivation, die Designentscheidungen und technische Umsetzung erläutert und in Zusammenhang gestellt. Außerdem wird die Entwicklung von Peer-to-Peer-Netzwerken betrachtet, die das grundlegende Design des Internets wieder aufgreifen und Gleichberechtigung und Dezentralität wieder in den Fokus der Kommunikation im Internet stellen. Geschichte Die Geschichte des Internet begann mit dem Start der Sputnik I im Jahr 1957 durch die Sowjetunion.20 Die USA unter der Führung von Dwight D. Eisenhower sahen sich nach diesem ersten Satellitenstart zwei gravierenden Problemen gegenüber. Zum einen machte der Start der Sputnik klar, dass die Sowjetunion über die Möglichkeiten verfügte über große Distanz einen schlagkräftigen Angriff zu führen. Zum andern machte er deutlich, dass die USA auf wissenschaftlichen Gebiet hinter der Sowjetunion zurücklag. Dieser Punkt war für die Amerikaner weit schmerzlicher, da sie von einem technologischen Vorsprung durch Demokratie und Marktwirtschaft ausgegangen waren. So wurde 1958 die ARPA gegründete, um die wissenschaftlichen Ressourcen zu vernetzen. 20 Vgl. Elon University School of Communications. Imaging the Internet´s: Quick Look at the Early History of the Internet. URL http://www.elon.edu/e-web/predictions/early90s/internethistory.xhtml Stand 14. August 2009. Zentrale Distribution statt Internet 7/57 Eisenhower believed in the great value of science, and formed ARPA in 1958 in a quest for "the scientific improvement" of U.S. Defense.21 Wichtige Arbeiten waren im folgenden 1961 „Informationsfluß in Netzwerken“ von Leonard Kleinrock, 1962 „Online-Kommunikation auf dezentraler EinzelcomputerBasis“ von J.C.R. Licklinder und W.Clark und 1964 „Organisierte KommunikationsNetzwerke“ von Paul Baran.22 Der für das RAND arbeitende Paul Baran beschäftigte sich in dieser Arbeit mit den Vorteilen von Redundanzen in Kommunikationsnetzwerken. In particular, the Memorandum is directed toward examining the use of redundancy as one means of building communications systems to withstand heavy enemy attacks.23 In diesem Zusammenhang vergleicht er zentralisierte, dezentralisierte und verteilte Netzwerke, die in Abbildung 1 dargestellt sind. Er kommt zu dem Schluss, dass ein verteiltes Netz die Anforderungen erfüllen kann. Diese Überlegungen fanden auch Eingang in die Entwicklung der ersten Netzwerke der ARPA. Dabei stand nicht die Widerstandsfähigkeit gegen feindliche Attacken im Vordergrund, sondern die Widerstandsfähigkeit gegen technische Defekte. Insbesondere wenn die technische Infrastruktur nicht zu teuer sein soll, sind die Komponenten oft fehleranfällig. Die ersten zwei Punkte in der Zusammenfassung der Arbeit von Paul Baran machen diese Ausrichtung schon deutlich. 1) It appear theoretically possible to build large networks able to withstand heavy damage whether caused by unreliability of components or by enemy attack. 2) Highly reliable and error-free digital communication systems using noisy links and unreliable components can be 21 Kaul, Michael. Die Geschichte des Internet. 04. März 2001. URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009. 22 Vgl. ebd. 23 Baran, Paul. On Distributed Communications: I. Introduction To Distributed Communications Networks. United States Air Force Project RAND, August 1964. S. iii. URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 8/57 built without exeeding the present-day state-of-the-art of electronic components – – provided we use digital modulation.24 Abbildung 1: Ein zentralisiertes (A), ein dezentralisiertes (B) und verteiltes Netzwerk (C) Quelle: BBaran, Paul. On Distributed Communications: I. Introduction To Distributed Communications Networks. United States Air Force Project RAND, August 1964. S. 2. URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf Stand 17. August 2009 1965 werden in der ARPA Studie „Kooperatives Netzwerk mit time-sharing Computern“ zwei Computer über eine Telefonleitung miteinander verbunden. Ein weiterer Computer wurde später angeschlossen, so dass das erste experimentelle Netzwerk entstand.25 1969 wird das ARPANET erstellt, welches zu Beginn aus vier Knoten bestand. Diese waren das UCLA, das Stanford Research Institute (SRI), die Universität von Californien (USBC) und die Universität von Utah.26 Die Abbildung 2 zeigt die Verbindung der Rechner. 24 Baran, Paul. On Distributed Communications: XI. Summary Overview. United States Air Force Project RAND, August 1964. S. v. URL http://www.rand.org/pubs/research_memoranda/2006/RM3767.pdf Stand 17. August 2009. 25 Vgl. Kaul, Michael. Die Geschichte des Internet. 04. März 2001. URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009. 26 Vgl. ebd. Zentrale Distribution statt Internet 9/57 Abbildung 2: ARPA Netzwerk vom Dezember 1969 URL http://www.michaelkaul.de/Geschichte/1969_4-node_map.gif Stand 17. August 2009. Zu sehen ist ein Ring aus drei Rechnern, von denen einer zusätzlich mit einem weiteren Rechner verbunden ist. Es handelt sich nicht um ein verteiltes Netzwerk, sondern ansatzweise um ein dezentrales Netzwerk. Störanfälligkeit aufgrund von nicht ausreichender Redundanz ist gegeben, insbesondere die Universität Utah kann leicht vom Netz getrennt werden. Das auch im weiteren Aufbau des Netzes nicht unbedingt darauf geachtet wurde, einen für starke Angriffe ausgelegtes Netz zu bauen, zeigt ein Vorfall im Jahr 1986. Neu England ( USA ) wurde komplett vom Netz getrennt, als AT&T einen Glasfaser-Kabel-Schaden zwischen Newark ( New Jersey ) und White Plains ( New York ) hatte. Das war eine erschütternde Tatsache, denn alle 7 Leitungen, die Neu England mit dem ARPANET verband, liefen durch ein einziges Kabel.27 In den weiteren Jahren wurden weitere Knoten an das Netzwerk angeschlossen und Anwendungen für das entstehende Netzwerk entwickelt. Als Meilensteine sind hier 1971 die Entwicklung von E-Mail, 1972 der erste Computer-Chat, 1979 USENET, 1984 Einführung des Namensystems für Domains (DNS) und 1988 IANA (Internet Assigned Numbers Authority) zu nennen.28 27 Edb. 28 Vgl. ebd. Zentrale Distribution statt Internet 10/57 Ab 1989 fand ein großer Umbruch im Netz statt. Kommerzielle Anbieter bekamen die Möglichkeit, Dienste zu betreiben und auch Umsätzen und Gewinne zu generieren. Von einem Forschungsnetzwerk, das Wissenschaftler und ihre Ressourcen über weite Räume zu einem Netzwerk zusammenschließen sollte, um nach dem Sputnik-Schock ein breites und tiefes wissenschaftliches Potential aufzubauen, wurde das Internet nun zu einem breiten Angebot, das sich mit Kommunikation und Information an das zahlungskräftige Publikum der Industrienationen richtete. 1990 hört das ARPANET auf zu existieren. Im selben Jahr ging der erste kommerzielle Provider online und bot eine Direkteinwahl ins Internet. 1991 wurde das World-Wide-Web (WWW) über CERN ins Netz gebracht, wird zum Erfolg und erreicht 1993 Wachstumsraten von 341.634%. 1994 ist WWW der zweitpopulärste Anbieterservice im Internet nach FTP-DATA. 1995 übertrifft es sogar dies.29 Mit dem auf WWW, E-Mail und Domainnamen zentrierten Internet sind wir bei dem Internet angekommen, dass der Großteil der Nutzer als Internet bezeichnet, beziehungsweise nutzt, aber nur einen Teil der Dienste darstellt, die im Internet vorhanden beziehungsweise möglich sind. Wie dezentral ist das Internet? Das Internet sollte es ermöglichen, die beschränkten Ressourcen einzelner Forschungseinrichtungen mit in Massen produzierbaren Komponenten ausfallsicher zu verbinden und so effizienter zu nutzen. Arbeiten, wie die von Paul Baran zu verteilten Netzen fanden Einfluss, so dass auf einen zentralen Netzknoten, einem Ort, an dem alle Verbindungen zusammenlaufen, verzichtet wurde. Jede Information kann so verschiedene Wege durch das Netz nehmen und sollte aufgrund von technischen Problemen oder Sperrmechanismen ein Weg ausfallen, stehen andere Wege zu Verfügung. How Stuff Works zeigt in einer Animation den Weg der Informationen durch das Internet (siehe Abbildung 3). Das Internet wird dabei als verteiltes Netzwerk dargestellt in dem einzelne ausfallende Knoten oder Leitungen keine Auswirkung auf das Restnetzwerk haben. Allerdings handelt es sich hierbei um eine vereinfachte Illustration, die dazu dienen soll das Internet zu verstehen. 29 Vgl. ebd. Zentrale Distribution statt Internet 11/57 Abbildung 3: So stellt sich How Stuff Works den Weg zwischen dem Nutzer und einem Internet Server vor. URL http://static.howstuffworks.com/flash/router-inet.swf Stand 17. August 2009. Anhand des ARPA Netzwerks von September 1971 (siehe Abbildung 4) mit 18 Knoten kann man diese Beobachtungen aber auch an einem Internet(-vorgänger) machen, der wirklich existierte. Es gibt keinen Knoten und keine Verbindung, dessen Ausfall dazu führen würde, dass ein anderer Knoten vom Netz getrennt wird. Zwischen SRI und UCLA bestehen vier voneinander unabhängige Verbindungen – es können also Abbildung 4: ARPA Netzwerk vom September 1971. URL http://www.let.leidenuniv.nl/history/ivh/arpanet1.gif Zentrale Distribution statt Internet 12/57 bis zu vier Verbindungen gestört werden, bis ein Kontakt unmöglich ist. Wege, die sich in mindestens einem Knoten unterscheiden gibt es sogar sieben, so dass zum Beispiel nach Ausfall des Knoten SDC immer noch vier Verbindungen zur Verfügung stehen. Mit steigender Größe des Netzwerks nehmen auch die Verbindungen zu, die sich in einem Knoten unterscheiden, so dass es immer einfacher wird einzelne Knoten zu entfernen ohne dass dies Auswirkungen auf eine spezielle Verbindung oder das Restnetzwerk haben. Die Redundanz führt dazu, dass ein Ausfall von einzelnen Knoten oder Verbindungen weniger dramatisch ist. Abbildung 5 zeigt das ARPANet im Oktober 1980, die Knoten und Verbindungen haben deutlich zugenommen. Die erhöhte Redundanz führt zu weiterer Ausfallsicherheit. Das heutige Internet besteht aus einer Vielzahl von Knoten und Verbindungen. Die Zunahme der an das Internet angeschlossenen Hosts von 12.881.000 im Juli 1996 auf 93.047.785 im Juli 2000 und einer weiter steigenden Tendenz, lässt darauf schließen, dass auch die Anzahl der Netzknoten stark gestiegen ist..30 Abbildung 5: ARPA Netzwerk vom Oktober 1980. URL http://www.let.leidenuniv.nl/history/ivh/arpanet2.gif Stand 17. August 2009. Als Nebeneffekt der Internetarchitektur ist die Kontrolle über das Internet allerdings erschwert. Als Beispiel kann die Nutzung von Proxys genannt werden. Durch die Verbindung mit einem Proxy-Server können Ziele, die über den Proxy hinaus gehen 30 Vgl. ebd. Zentrale Distribution statt Internet 13/57 verschleiert werden. Um Zugriffe auf ein bestimmtes Ziel im Internet (z.B.: Internetseite) zuverlässig zu verhindern, müssten also auch alle Verbindungen zu ProxyServern unterbunden werden. Eine sichere Möglichkeit, den Zugriff auf bestimmte Inhalte zu unterbinden, ist, diese zu entfernen. Dies kann, verstoßen die Inhalte gegen geltendes Recht des Landes, in dem sich der Server der Inhalte befindet, relativ leicht erfolgen, so lange es sich um einen „stationären“ Server31 handelt. Handelt es sich aber um Server, die sowohl zeitlich als auch räumlich variieren können32, ist die Entfernung der Inhalte schon schwerer. Peer-to-Peer Bei einem Peer-to-Peer-Netzwerk handelt es sich um ein Overlay-Netzwerk. Dies bedeutet, dass es auf einem anderen Netzwerk aufliegt.33 Es handelt sich also nicht um die physischen Verbindungen zwischen den einzelnen Rechnern, sondern um eine Organisationsstruktur für die Rechner eines Netzwerk mit dem Ziel, Ressourcen zu teilen, wie Speicherplatz, Bandbreite, Rechenleistung oder Inhalte. So wird zum Beispiel bei Seti@home zum größten Teil Rechenleistung zur Verfügung gestellt und bei Filesharing-Netzen werden insbesondere Speicherplatz, Bandbreite und Inhalte geteilt. Für Peer-to-Peer Netzwerke gibt es unterschiedliche Definitionen und die meisten Peer-to-Peer Netzwerke erfüllen nicht alle Kriterien. Ihnen ist aber gemein, dass sie sich vom Client-Server Modell abgrenzen und auf ein Domain Name System verzichten können. Statt aus Verbindungen zwischen einem Client und Server bestehen bei Peerto-Peer-Netzwerken Verbindungen zwischen gleichberechtigten Netzteilnehmern, so dass alle Netzteilnehmer sowohl Server- als auch Client-Aufgaben übernehmen, je nachdem, welche Funktion gebraucht wird. Es gibt viele Anwendungsmöglichkeiten und entsprechende Anpassungen und Skalierungen des Peer-to-Peer-Konzeptes. 31 Z.B. wenn es sich um einen kommerzieller Webserver zur Bereitstellung von Webspace handelt. 32 Z.B. wenn es sich um Peer-to-Peer-Netzteilnehmer oder Webserver, der in fremden, ungeschützten W-LANs betrieben wird, handelt. 33 Vgl. Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur. S. 2. URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009 Zentrale Distribution statt Internet 14/57 Abbildung 6: Client-Server- Quelle: Modell. Quelle: Abbildung 7: Peer-to-Peer-Modell Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 3. duisburg.de/courses/p2p_ws03/file sharing.pdf Stand 17. August 2009. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 4. URL http://www.is.informatik.uniduisburg.de/courses/p2p_ws03/filesha ring.pdf Stand 17. August 2009. Das wesentlichste Merkmal von Peer-to-Peer-Architekturen ist die Dezentralität. Dies umfasst sowohl Ressourcen wie Speicher, Rechenleistung und Inhalte, als auch Verwaltungsinformationen des Peer-to-Peer-Netzwerks. „Vorteile eines verteilten Systems sind verbesserte Erweiterbarkeit, höhere Verfügbarkeit und größere Flexibilität“34 Es kann aber auch zu Problemen führen, so dass das System sich nicht immer wie gewünscht verhält. Außerdem wird es insbesondere bei großen Netzwerken sehr schwer, eine globale Sicht auf das System zu erhalten und damit auch die Kontrolle über das gesamte Netzwerk zu behalten. Aber darüber hinaus „[sind] Skalierbarkeit und Fehlertoleranz […] zentrale Probleme in verteilten Systemen, die eine grundlegende Motivation für eine P2P-Architektur darstellen“35. Die Konzentration der Ressourcen auf einen oder wenige Netzknoten beim Client-Server-Modell führt dazu, dass diese hohe Rechen- und Netzwerkkapazitäten bereithalten müssen, um auch viele Anfragen in akzeptabler Zeit bearbeiten zu können. Sie stellen so Engpässe dar, deren Ausfall zu einem Ausfall des gesamten Dienstes führen kann. In Peer-to-Peer-Netzwerken werden hingegen sowohl Serverlast als auch 34 Seidemann, Christian. Seminar Verteilte Systeme P2P – Ein Überblick: Einstieg, Was ist P2P + Beschreibung verschiedener P2P-Systeme. 18. Dezember 2003. S. 5. URL http://www.mathematik.uni-marburg.de/~gitzi/studium/P2P-EinUeberblick.pdf Stand 18. August 2009. 35 Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur. S. 1. URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 15/57 Bandbreitenverbrauch möglichst gleichmäßig verteilt. Probleme, die sich im ClientServer-Modell durch ungleichmäßige Verteilung der Lasten zwischen Clients und Server ergeben, werden so strukturell beseitigt.36 Selbstorganisationsfähigkeit bezeichnet die Fähigkeit eines Systems ohne zentrale Koordination zu funktionieren und spielt auf allen Systemebenen von Peer-to-PeerNetzwerken eine Rolle. Die fehlende Kontrolle macht es nötig, dass die Aktionen der einzelnen Peers als gesamtes ein komplexes Systemverhalten ergeben. Auf Änderungen und Fehler kann so direkt und lokal reagiert werden, was die Ausfallsicherheit und die Flexibilität des Netzwerks verbessert.37 Peer-to-Peer mit zentralen Servern Schon bevor Napster 1998 als erstes Peer-toPeer-Netzwerk für Aufmerksamkeit gesorgt hat38, wurde mit dem 1996 veröffentlichten Instant Messaging Programm, ICQ, die erste Anwendung der Peer-to-Peer-Methode im Massenmarkt eingesetzt. In diesem Fall besteht eine Peer-to-Peer-Verbindung, wenn sich einzelne Clients Nachrichten zusenden. Der zentrale Server sorgt für die Verbindung der Clients, so dass es sich bei ICQ um ein Peer-to-Peer-Netzwerk mit zentralen Servern (Abbildung 8) handelt.39 Auch Napster war auf einen zentralen Server angewiesen, der die Lokalisation der Daten ermöglichte. Als Napster 1998 entwickelt wurde, reichte ein zentraler Server. Im Laufe des Bestehens wurde dieser durch einem Servercluster mit ca. 160 Servern ersetzt.40 Im Februar 2001 nutzten 80 Millionen Menschen weltweit den Dienst. Das Tauschvolumen betrug im Januar 2001 ca. zwei Milliarden Dateien. Aufgrund von 36 Vgl. ebd. 1f. 37 Vgl. ebd. S. 5. 38 Djordjevic, Valie; Kreutzer, Till und Spielkamp, Matthias. Urheberrecht im Alltag: Kopieren, Bearbeiten, Selber Machen. 2. Auflage. Bundeszentrale für politische Bildung, Bonn, 2008. S. 47. URL http://www.bpb.de/files/0GKFWO.pdf Stand 17. August 2009. 39 Schlott, Stefan. Peer to Peer – Technologien. URL http://www.ulm.ccc.de/old/chaos-seminar/p2p/P2P-pdf.pdf Stand 17. August 2009. 40 Vgl. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 9. URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 16/57 Urheberrechtsverletzungsklagen wurde der Betrieb des zentralen Napster-Servers eingestellt, obwohl versucht wurde, durch Blocken urheberrechtlich geschützter Dateien, die nötigen Vorgaben der „sicherer Hafen“-Regel des DMCA zu erfüllen.41 Abbildung 8: Peer-to-Peer mit zentralen Servern - Pfeile stellen Suchanfragen dar, Linien Datenübertragungen. Quelle: Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 9. URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf Stand 17. August 2009. Peer-to-Peer mit dezentralen Servern Die Abbildung 9 zeigt ein Peer-to-Peer-Netzwerk mit dezentralen Servern, wie das im März 2001 veröffentlichte KaZaA. Die dezentralen Server übernehmen Verwaltungsaufgaben, wie zum Beispiel die Bearbeitung von Suchanfragen. Diese verfügen über höhere Rechen- und Netzkapazitäten, um eine möglichst schnelle Verarbeitung zu gewährleisten. KaZaA macht Clients automatisch zu Servern, wenn diese Bedingungen erfüllt sind. Es gibt aber auch Peer-to-Peer-Netzwerke mit dezentralen Servern, in denen eine spezielle Software benötigt wird, um einen Server zu betreiben.42 41 Vgl. Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies. December 2008. S. 8. URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf Stand 17. August 2009. 42 Vgl. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 20-24. URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 17/57 Abbildung 9: Peer-to-Peer mit dezentralen Servern - Pfeile stellen Suchanfragen dar, Linien Datenübertragungen. Quelle: Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 15 URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf Stand 17. August 2009. Reines Peer-to-Peer Ein reines Peer-to-Peer-Netzwerk stellt Gnutella, das im Jahr 2000 veröffentlich wurde, dar. Reine Peer-to-Peer-Netzwerke erfüllen die für Peer-to-Peer-Netzwerke geltenden Merkmale fast komplett. Sie bauen ein verteiltes Netzwerk gleichberechtigter Teilnehmer auf, in dem auch die Organisation verteilt gelöst wird, so dass keiner der Teilnehmer eine zentrale Rolle spielt. Das entstehende Netzwerk ist in Abbildung 6 zu sehen. Peer-to-Peer als Internet 2.0 Peer-to-Peer greift den Grundgedanken des Internet wieder auf, dass jeder Internetknoten mit jedem anderen Internetknoten bidirektional kommunizieren, also sowohl als Client als auch als Server fungieren kann.43 Es ist nicht mehr nötig, Speicherplatz und Übertragungskapazität von fremden, meist kommerziellen Webspaceund Serveranbietern zu nutzen. Das zuvor mit Komplikationen, wie Administration, Zwangstrennung und wechselnde IP-Adressen verbundene Aufsetzen eines eigenen Webservers wird unnötig, um eigene Inhalte mit teils eigener Infrastruktur im Internet zu veröffentlichen. Dabei könnte auf die Nutzung der Ressourcen anderer Nutzer mit Ausnahme der Ressourcen für Verwaltungsaufgaben verzichtet werden, so dass direkt mit der Verbreitung eigener Inhalte begonnen werden kann, ohne dass ein anderer Nutzer explizit Ressourcen dafür freigeben muss. 43 Vgl. ebd. S. 1 Zentrale Distribution statt Internet 18/57 Das Nutzen fremder Ressourcen findet dabei auf einer Basis der Ressourcenteilung statt, so dass meist jeder Teilnehmer bestimmte Ressourcen zur Verfügung stellen muss44. Teilweise existieren aber auch speziellere Mechanismen, um die Bereitstellung von Ressourcen zu belohnen. Die zur Verfügung gestellten Ressourcen der einzelnen Nutzer bilden somit die Ressourcen des Peer-to-Peer-Netzes, die wiederum allen Nutzern zur Verfügung stehen. Dabei werden die benötigten Ressourcen selbst in den Mittelpunkt gestellt und nicht der spezifische Ort, an dem sich diese befinden. Internetnutzer, die ihren Zugang nur als Rezipienten nutzen, werden als Anbieter von Ressourcen Teil des Netzwerks und in verteilten Peer-to-Peer-Netzwerken auch Teil der Organisation des Netzwerks. Jeder Peer-to-Peer-Nutzer wird so zu einem Sender. Insbesondere an den Daten, die zur Organisation nötig sind, kann man aber auch sehen, dass man nicht immer Herr über die auf dem eigenen Sender gesendeten Informationen ist.45 Je nach Peer-to-Peer-Netzwerk gibt es verschiedene Möglichkeiten, auf die bereitgestellten Ressourcen und die damit übertragenen Daten Einfluss zu nehmen. Peer-to-Peer-Netzwerke erweitern also das Internetmodell auf die Endnutzer, wobei diese nicht die dezentrale Verbindung, sondern die dezentrale Organisation und dezentrale Bereitstellung von Ressourcen übernehmen. 44 Z.B. müssen bei vielen Torrent-Clients 5kb Upload freigegeben werden, um maximalen Download zu erhalten. 45 Z.B. ist es bei vielen Filesharing-Diensten üblich empfangene Inhalte auch weiter zu verbreiten. Zentrale Distribution statt Internet 19/57 Das zentrale Internet In diesem Kapitel möchte ich mich damit auseinandersetzen, wie zentral das Internet ist. Dafür werden verschiedene Elemente von der Netztopologie bis zur Organisation des Internets im Bezug auf ihren zentralisierenden Charakter untersucht. Im Weiteren wird untersucht, inwieweit Videoplattformen einen zentralisierenden Charakter haben und gezeigt, wie stark die Dominanz einer einzigen Videoplattform, YouTube, ist. Da Videoplattformen Teil des Web 2.0 sind, wird am Ende dieses Kapitels gezeigt, inwiefern sich die Beobachtungen bei Videoplattformen auf andere Web 2.0 Anwendungen übertragen lassen. Wie zentral ist das Internet? Das Internet ist aus technischer Sicht dezentral und auf theoretischer Ebene sogar verteilt. Die Komponenten sind entworfen worden, um dezentral funktionieren zu können. Es ist aber nicht zwingend notwendig, sie auch dezentral einzusetzen, so dass sich in der konkreten Implementierung Ansätze von Zentralität finden lassen. Zwar kann nicht der zentrale Punkt des Internet ausgemacht werden, aber einzelne hierarchisch strukturierte, besonders herausgehobene Zentralen. Deutlicher wird dies auf organisatorischer, administrativer Ebene. Die folgenden Abschnitte sollen einige Aspekte der Frage, wie zentral das Internet ist, beleuchten. Hierarchisch aufgebaute Netzwerke Beim Internet handelt es sich nicht um ein Netzwerk gleichberechtigter Netzknoten. Die spezifische Vernetzung jedes einzelnen Netzwerks kann sich stark unterscheiden. Üblicherweise werden solche Netzwerke hierarchisch aufgebaut, das heißt mehrere Benutzer verbinden sich über eines oder mehrere Gateways mit dem nächst größeren Netzwerk.46 46 Espenschied, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001. URL http://odem.org/insert_coin/mythen/dezentral.html Stand 17. August 2009. Zentrale Distribution statt Internet 20/57 So weist die vom Opte Projekt erstellte Karte des Internets (siehe Abbildung 10) sowohl stark vernetzte Bereiche auf, als auch Sternnetzwerke, die einen hohen Grad an Zentralität aufweisen. Abbildung 10: Vom Opte Projekt am 23.11.2003 veröffentlichte Karte des Internets. URL http://bitcasta.v1.o1.fra1.bitgravity.com/blyon/opte/maps/static/1069646562.LGL.2D.700x700.pn g Stand 17. August 2009. Eine Studie der Bar Ilan Universität hat sich näher mit den Unterschieden der Netzknoten befasst und stellte fest, dass es nur wenige sehr wichtige, aber auch eine große Zahl gleichberechtigter vernetzter Netzknoten gibt. In Abbildung 11 ist dieses Ergebnis grafisch aufbereitet. The researchers' results depict the Internet as consisting of a dense core of 80 or so critical nodes surrounded by an outer shell of 5,000 sparsely connected, isolated nodes that are very much dependent upon this core. Separating the core from the Zentrale Distribution statt Internet 21/57 outer shell are approximately 15,000 peer-connected and selfsufficient nodes.47 Bei Ausfall der wichtigsten Netzknoten würde 30% der äußeren Netzknoten getrennt und für das restliche Netzwerk würde die Geschwindigkeit stark eingeschränkt werden. Abbildung 11: Darstellung des Internet nach einer Studie der Bar Ilan Universität. URL http://www.technologyreview.com/files/11339/network_colored_x220.jpg Stand 17. August 2009. Betrachtet man die leistungsstarke Verbindungen in Abbildung 12, die das Backbone des Internet ausmachen, sieht man, dass es international einige sehr leistungsfähige Verbindungen gibt und zwischen einigen Bereichen der Welt nur wenige und leistungsschwache Verbindungen bestehen. Keine dieser drei Betrachtungsweisen stellt das Internet korrekt dar. Sie nähern sich dem Objekt jeweils von einem anderem Blickwinkel und durch unterschiedliche 47 Graham Rowe, Duncan. Mapping the Internet. 19. Juni 2007. URL http://www.technologyreview.com/communications/18944/page1/ Stand 17. August 2009. Zentrale Distribution statt Internet 22/57 Methoden. In allen drei Darstellungen sind aber Hierarchien und Zentralität zu erkennen. Abbildung 12: Die internationalen Internetverbindungen mit hohen Bandbreiten. URL http://www.telegeography.com/products/map_internet/wallpaper/InternetMap09_wa ll1.jpg Stand 17. August 2009. Provider Als einzelner Nutzer ist man darauf angewiesen, Zugang zum Internet zu erhalten. Zu diesem Zweck muss man sich bei einem Internet-Provider einloggen. Dieser stellt den Vermittlungspunkt zwischen dem einzelnen Nutzer und dem Internet her. In der Netzwerkarchitektur wäre dies ein zentrales Sternnetz, welches an das dezentrale Internet angeschlossen ist. Die Abbildung 13 stellt dies dar. Because the ISP is the gateway — the first hop — to the Internet, almost any communication sent to anybody online is accessible first by the ISP.48 Fällt der Provider weg, besteht weiterhin das Internet, die durch das Sternnetzwerk angeschlossenen Nutzer erhalten aber keine Verbindung mehr. Darüber hinaus erlaubt dieser zentrale Punkt eine umfassende Kontrolle über die von oder zu den angeschlossenen Rechner verlaufenden Daten. 48 Ohm, Paul. The Rise and Fall of Invasive ISP Surveillance. 09. September 2008. S. 26. URL http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1261344 Stand 17. August 2009. Zentrale Distribution statt Internet 23/57 Imagine that an ISP conducts complete monitoring on one user for one month. The data stored comprises a complete transcript of everything the user has done on the Internet for the month. It includes a replica copy of every web page visited and every e-mail message sent or received. It includes every instant message, video download, tweet, facebook update, file transfer, VoIP conversation, and more.49 Abbildung 13: Verbindung zwischen Nutzern, Provider und dem Internet. IP-Nummern-Vergabe Mit dem Erhalt einer IP-Adresse besteht die Möglichkeit das Internet zu nutzen. Wie eine Postadresse im Verteilernetz der Post dazu dient, dass ein Brief auf einen speziellen LKW geladen wird, dient die IP-Adresse dazu, dass Router die Datenpakete in die richtigen Teilnetze senden. Die Vergabe der IP-Adressen ist hierarchisch organisiert.50 Die Internet Assigned Numbers Authority (IANA), eine Unterorganisation der Internet Corporation for Assigned Numbers and Names (ICANN), ist für die Vergabe der IPAdressen zuständig.51 49 Edb. S. 26. 50 Vgl. IANA. Number Resources. URL http://www.iana.org/numbers/ Stand 15. August 2009. 51 Vgl. ebd. Zentrale Distribution statt Internet 24/57 Adressbereiche wurden vor 2005 auch direkt an Organisationen, Firmen oder Universitäten vergeben. Es bestanden aber auch schon drei regionale Vergabestellen, ARIN für Amerika und Teile Afrikas, RIPE NCC für Europa, den Mittleren Osten und Teile Afrikas sowie APNIC für den asiatisch-pazifischen Raum.I52 2002 kam LACNIC, zuständig für Leiteinamerika inklusive der Karibik, dazu53. Für Afrika wurde 2005 die regionale Vergabestelle AfriNIC anerkannt.54 Seit 2005 werden auch keine Adressbereiche mehr direkt vergeben, sondern nur noch über diese fünf regionalen Vergabestellen, wobei ARIN nur noch für Nordamerika und RIPE NCC für Europa, Naher Osten und Zentralasien zuständig ist. Sie vergeben wieder Adressbereiche an lokale Vergabestellen, in der Regel Internet Service Provider, die einzelne Adressen an ihre Kunden weitergeben.55 2008 kontrollierte RIPE NCC zum Beispiel ca. 6000 lokale Vergabestellen.56 Um sich als lokale Vergabestelle zu registrieren, muss man Mitglied der regionalen Vergabestellen werden. Bei RIPE NCC kostet dies neben einer einmaligen Gebühr von 2000,- € jährlich mindestens 1300,- €.57 Die regionalen Vergabestellen haben nicht nur die Möglichkeit, IP-Adressen zu vergeben, sondern auch diese wieder einzuziehen. Neben einem Verstoß gegen niederländisches Recht, reicht ein Verstoß gegen die Nutzungsbedingungen von RIPE NCC aus, um IP-Adressen zu entziehen.58 52 Vgl. ICANN. Criteris for Establishment of New Regional Internet Registries. 04. Juni 2001. URL http://www.icann.org/en/icp/icp-2.htm Stand 15. August 2009. 53 Vgl. IANA. IANA Report: Recognition of LACNIC as a Regional Internet Registry. 07. November 2002. URL http://www.iana.org/reports/2002/lacnic-report-07nov02.html Stand 15. August 2009. 54 Vgl. IANA. IANA Report: Recognition of AfriNIC as a Regional Internet Registry. 06. Mai 2005. URL http://www.iana.org/reports/2005/afrinic-report-05aug2005.pdf Stand 15. August 2009. 55 Vgl. IANA. Number Resources. URL http://www.iana.org/numbers/ Stand 15. August 2009. 56 Vgl. RIPE NCC. RIPE NCC Budget 2009. URL http://www.ripe.net/ripe/docs/ripe-440.html Stand 15. August 2009. 57 Vgl. RIPE NCC. Draft RIPE NCC Charging Scheme 2010. URL http://www.ripe.net/membership/billing/draft-charging-scheme-2010.html Stand 15. August 2009. 58 Vgl. Cima, Andrea, Fragkouli, Athina und Wijte, Ingrid. Independent Internet Number Resources – Contractual Relationship Changes between sponsoring LIR and END User. Juli 2009. URL http://www.ripe.net/ripe/docs/ripe-475.html Stand 15. August 2009. Zentrale Distribution statt Internet 25/57 IP-Adressen werden für den Endkunden meist als dynamische IP-Adresse vergeben, dass heißt mit jeder Einwahl in das Internet erhält der Kunde eine andere IP-Adresse. Um einen Server zu betreiben, ist dies sehr störend, da aufgrund von Zwangstrennung durch die Service Provider die Adresse wechselt. Will man auf einen solchen Server zugreifen, muss man immer wieder die neue Adresse in Erfahrung bringen. Nutzt man einen Domainnamen, muss dieser jeden Tag auf die neue IP-Adresse umgestellt werden. Es gibt aber auch die Möglichkeit eine feste IP-Adresse zugewiesen zu bekommen, was allerdings meist mit höheren Kosten verbunden ist. Domain Name System (DNS) Da es sich bei IP-Adressen um vier drei-stellige aufeinander folgende Zahlen handelt, kann der Mensch mit ihnen schlechter arbeiten, als mit Namen. Natürlich-sprachliche Namen, die mit der bezeichneten Internetressource in Verbindung stehen, können wesentlich einfacher erinnert oder ausgesprochen werden. Diese Vorteile führten dazu, dass das Domain Name System eingeführt wurde. Die natürlich-sprachlichen Namen werden von DNS-Servern in IP-Adressen übersetzt, so dass zur Verbindung mit einer Internetressource nur noch der Domainname benötigt wird. Dieses Namenssystem ist hierarchisch aufgebaut und wird auch hierarchisch verwaltet. Auf der obersten Stufe stehen 13 DNS-Root-Server, von denen einer in der Vergangenheit den anderen Root-Servern ihre Daten übermittelte. Durch diese herausgehobene Stellung war dieser Root-Server der zentrale Punkt des Domain Name Systems und damit eine Fehlerquelle und ein Angriffspunkt. In the past the zone file was distributed to the other operators from this server. This was recognized as a prominent single point of failure many years ago.59 Mittlerweile sind die Root-Server keine einzelnen Rechner mehr, sondern verteilte Rechner, die über die selbe IP angesprochen werden können.60 Dennoch werden die 59 Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008. URL http://www.isoc.org/briefings/020/ Stand 20. August 2009. 60 Vgl. Ermert, Monika und Kuri, Jürgen. DNS-Rootserver: Anycast für mehr Ausfallsicherheit. 18. November 2002. URL http://www.heise.de/newsticker/DNS-Rootserver-Anycast-fuer-mehrAusfallsicherheit--/meldung/32451 Stand 20. August 2009. Zentrale Distribution statt Internet 26/57 einzelnen Root-Server jeweils von einer61 Organisation betrieben.62 Darüber hinaus wird ein anderer Mechanismus genutzt, um die Root-Server mit Daten zu versorgen, so dass keiner der Root-Server eine herausgehobene Stellung hat. After being produced by the IANA according to the process described on the IANA web page the file is stored on a number of distribution servers. [...] The root name server operators fetch the file from these servers in a secure fashion. 63 Mit der Verwaltung und Bereitstellung der Daten für die Root-Server besitzt die IANA eine zentrale Funktion. Auch für die Einrichtung von Top-Level-Domains ist die IANA verantwortlich und kann die Verantwortlichkeit über diese Domains vergeben, so dass dem System der IP-Adressen ähnlich eine Hierarchie entsteht. 64 Die IANA ist damit die Autorität in Bezug auf IP-Adressen und Domainnamen, den wichtigsten Ressourcen des Internet. Die Organisationen ICANN und IANA sind im Moment noch vertraglich mit der US-Regierung verbunden. Diese Verträge laufen aber 2009 bzw. 2010 aus. Abgeordnete der US-Kongress fordern allerdings schon eine Verlängerung dieser Verträge.65 Diese Organisationen nehmen damit eine ähnlichen Stellung ein wie FRC und später FCC beim Radio. So wie auch bei der Vergabe von Frequenzen, stehen bei der Einrichtung neuer Top-Level-Domains der Vergabe von IP-Adressräumen und Domainnamen hauptsächlich wirtschaftliche Interessen im Vordergrund. 61 VeriSign Global Registry Services betreibt als einzige Organisation zwei Root-Server. Die anderen Betreiber sind: University of Southern California – Information Sciences Institute, Cogent Communications, University of Maryland, NASA Ames Research Center, Internet Systems Consortium, Inc., U.S. DOD Network Information Center, U.S. Army Research Lab, Autonomical/NORDUnet, RIPE NCC, ICANN, WIDE Project. Vgl. Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008. URL http://www.isoc.org/briefings/020/ Stand 20. August 2009. 62 Ebd. 63 Ebd. 64 Vgl. ebd. 65 Vgl. Ermert, Monika und Kuri, Jürgen. US-Abgeordnete fordern dauerhafte US-Kontrolle über Internet-Verwaltung. 06. August 2009. URL http://www.heise.de/netze/US-Abgeordnete-fordern-dauerhafte-US-Kontrolle-ueber-InternetVerwaltung--/news/meldung/143131 Stand 20. August 2009. Zentrale Distribution statt Internet 27/57 Im Zweifelsfall werden diese global eindeutigen Namen an denjenigen vergeben, der aus wirtschaftlicher Sicht den größten Anspruch darauf hat.66 Zentralisierung durch Videoplattformen Ziel des Internets war es, Ressourcen verschiedener an das Internet angeschlossener Rechner und die Forschungsleistung der involvierten Wissenschaftler gemeinsam und damit effizient zu nutzen. Bei Videoplattformen werden die Ressourcen des Einzelnen kaum genutzt. Insbesondere Speicherplatz und Übertragungskapazität werden fast ausschließlich durch die Videoplattformen zur Verfügung gestellt. Alleine die Kosten des Traffic von YouTube belaufen sich voraussichtlich auf 360 Millionen Dollar im Jahr 2009.67 Demgegenüber stehen Internetnutzer, die über beträchtliche Speicherkapazitäten68 und zum größten Teil über DSL-Zugängen verfügen, die von zwei Mbit bis zu 16 Mbit Downstream und von 192 KBit bis zu ein Mbit Upstream erlauben, und diese Ressourcen oftmals nicht ausnutzen. Laut einer Studie aus dem Jahr 2007 umfassen HTTP-Streaming-Video 16 Prozent der Internetkommunikation.69 Videoplattformen, die Nutzern die Möglichkeit eröffnen, ihre Videoinhalte auch in Webseiten einzubinden, haben dabei noch eine Sonderstellung. Sie führen dazu, dass die Speicher- und Traffic-intensiven Teile solcher Webseiten zentral gespeichert werden. Es liegt dann oft für viele Webseiten nur die zentral gespeicherte Kopie bei einer Videoplattform vor. 66 Espenscheid, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001. URL http://odem.org/insert_coin/mythen/dezentral.html Stand 20. August 2009. 67 Vgl. Ziegler, Peter-Michael. Credit-Suisse-Analyse: YouTube fährt 470 Millionen Dollar Verlust ein. 06. Mai 2009. URL http://www.heise.de/newsticker/Credit-Suisse-Analyse-YouTube-faehrt-470-Millionen-DollarVerlust-ein--/meldung/135824 Stand 15. August 2009. 68 Z.B. 150 GB Festplattenspeicher waren im August 2008 bei neuen Notebooks durchschnittlich. BFL Leasing GmbH. Aktuelle Marktanalyse: Wer hat die größeren Festplatten: Business- oder Konsumer-Notebooks? September 2008. URL http://www.bfl-it-index.de/LibraryDoc.aspx?DocID=4c3e78f7a74f499f9c0bdd08a3f6a09e Stand 18. August 2009 69 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007. URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009. Zentrale Distribution statt Internet 28/57 Dominiert werden die Videoplattformen von YouTube, das damit einen großen Teil der Video-basierten Internetkommunikation zentralisiert. At last count, there were more than 80 million videos available on YouTube, and that video library is growing by some 200,000 clips per day.70 Eine aktuelle Untersuchung von Nielsen Online zum US-Online Video Markt besagt, dass über YouTube im Mai 2009 6.048.666.000 Videos abgerufen wurden. Dem steht eine Gesamtzahl von 10.043.049.000 Videoabrufen gegenüber. Dies ergibt einen Anteil von 60% für YouTube. Hulu, eine Internetseite, auf der aktuelle Serien aus dem USProgramm für US-Bürger zur Verfügung stehen, kommt auf den zweiten Platz mit nur 382.322.000 Videos (3,8%). Da es sich dabei um Distributionsplattformen großer Medienunternehmen und nicht um Videoplattformen in dem hier behandelten Sinne handelt, wäre der Anteil YouTubes an Videoplattformen noch um einiges größer. Angesehen wurden diese Videos von 95.357.000, beim zweitplazierten Yahoo! von 25.224.000 einzelnen Zuschauer.71 Eine Studie aus dem Jahr 2008 zum Vergleich von Marktanteilen der USVideoportale auf Grundlage der Besuche der Seiten ergibt für YouTube einen Wert von 73,2 Prozent bei einer Steigerung von 32 Prozent. Zählt man den Videodienst der Mutter Google mit ein, ergeben sich sogar 81,6 Prozent. Mit 9,2 Prozent bei MySpaceTV und 2,6 Prozent bei Yahoo Video erreicht man 93,4 Prozent Marktanteil bei den größten vier Videoportalen der USA.72 In Bezug auf den Traffic besagt eine Studie aus dem Jahr 2007, dass YouTube 56 Prozent der HTTP-Streaming-Videos ausmacht. Das sind 20 Prozent des HTTP Traffic und fast 10 Prozent des gesamten Traffic im Internet.73 70 Enzweiler, Julie. Auto Industry´s Wild Ride is Getting Smoother. Juli 2009. URL http://en-us.nielsen.com/main/insights/consumer_insight/July_2009/auto_industry_wild Stand 22. August 2009 71 Nielsen Online. Media Alert. 11. Juni 2009. URL http://enus.nielsen.com/etc/medialib/nielsen_dotcom/en_us/documents/pdf/press_releases/2009/june.Par.190 41.File.pdf Stand 22. August 2009. 72 Vgl. Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008. URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537 Stand 15. August 2009. 73 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007. Zentrale Distribution statt Internet 29/57 Videoplattformen stehen dabei in direkter Konkurrenz zu Filesharing-Systemen auf Peer-to-Peer-Basis, da gerade große Datenmengen von der dezentralen Nutzung der Ressourcen profitieren können. Auch die Klage von Viacom, in der YouTube vorgeworfen wird, 150.000 urheberrechtlich geschützte Videos anzubieten,74 zeigt, dass auch die Inhalte von Videoplattformen und Filesharing-Systemen auf Peer-to-PeerBasis teilweise die gleichen sind. Seit der ersten Peer-to-Peer-Plattform im Jahr 1998 stieg die Nutzung von Peer-toPeer-Netzwerken stetig an. Der Anteil von Peer-to-Peer-Netzwerken am gesamten Konsumenten bezogenen Internettraffic überstieg im Jahr 2003 schon den des Web. Anfang 2006 lag der Anteil bei 60%.75 Eine Untersuchung über Breitbandtraffic aus dem Jahr 2007 sieht allerdings nur noch einen Anteil von 37%. Demgegenüber stehen 46% HTTP-Traffic und davon 36% durch Streaming-Videos. Auf HTTP-basierende Streaming-Videos verursachten somit 17% des Internettraffic.76 Chalk it up to YouTube and other Internet video sharing sites. The surge in HTTP traffic is largely a surge in the use of streaming media, mostly video.77 Videoplattformen haben damit eine Wende zurück zum WWW eingeleitet. Damit wird wieder mehr auf die traditionelle Server-Client-Struktur gesetzt. Statt auf dezentralen Ressourcen mit dezentraler Organisation werden Videos auch im Internet immer mehr über zentrale Strukturen verbreitet. Eine starke Konkurrenz unter vielen Videoplattformen könnte zumindest innerhalb dieses Systems eine gewisse Dezentralität erhalten, es zeigt sich aber, dass eine große Videoplattform den Markt beherrscht. URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009. 74 Vgl. Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles Google and YouTube. May 2007. S. 524. URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf Stand 17. August 2009. 75 Vgl. Ferguson, David. P2P File Sharing – The Evolving Distribution Chain. 22. Juni 2006. URL http://www.dcia.info/activities/p2pmswdc2006/ferguson.pdf Stand 19. August 2009. 76 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007. URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009. 77 Edb. Zentrale Distribution statt Internet 30/57 Zentralisierung durch Web 2.0 Videoplattformen sind ein Teil des Web 2.0 und werden wie dieses als Paradigmenwechsel im Internet bezeichnet. Die Struktur des WWW, „die Anbieter auf der einen, die Konsumenten auf der anderen Seite“78, solle sich wandeln zu einer Struktur, in der der Internetnutzer zum Produzenten wird. Verwendung des WWW, einfache Benutzersteuerung, Einbeziehung der Nutzer und eine Aufwertung der Daten sind einige Aspekte dieser Entwicklung. Web 2.0 ist demnach nicht als Momentaufnahme zu sehen, sondern als die Metapher für öffentliche Beteiligung im Netz (social software) und die dadurch ausgelöste Weiterentwicklung des Web.79 Videoplattformen sind Teil dieser Web-2.0-Welt, und was bei Videoplattformen festgestellt werden kann, lässt sich auch auf andere Web 2.0 Anwendungen erweitern. Was YouTube für Videos ist, ist zum Beispiel Flickr für Fotos, Twitter für Kurzmeldungen und Wikipedia für Lexikoneinträge. Die eigene private Homepage wird abgelöst von einer Sammlung an Daten bei verschiedenen Anbietern, die sich auf verschiedene Datentypen spezialisiert haben und die Daten ihres Typs zentralisieren. Eine Untersuchung zur Verbreitung zu Web 2.0 in Deutschland kommt zu dem Ergebnis, dass im Februar 2007 die Reichweite von Web 2.0 schon 54% betrug. 80 Auch hier zeigt sich wieder, dass einige große Webseiten den Markt dominieren. So wird explizit auf die „Giganten”, Wikipedia, YouTube und MySpace hingewiesen. Diese haben mit 39% nicht nur die größte Reich weite, sondern mit 67% im Durchschnitt die loyalsten Nutzer, das heißt, dass zwei Drittel der Besucher vom Januar 2007 im Februar 2007 auf diese Website zurückgekehrt waren.81 78 Albrecht, Dietmar, Arnold, Rolf, Bauerfeld, Wulf und weitere. Web 2.0: Strategievorschläge zur Stärkung von Bildung und Innovation in Deutschland. 12. März 2007. S. 2. URL http://www.bmbf.de/pub/expertenkommission_web20.pdf Stand 15. August 2009. 79 Edb. S. 3. 80 Nielsen//NetRatings. 54% der Deutschen nutzen Web 2.0 Websites – Dienste erfahren 32% Besucherzuwachs und hohe Markentreue. 21. Mai 2007. URL http://www.nielsen-online.com/pr/pr_070521_DE.pdf Stand 27. August 2009. 81 Edb. Zentrale Distribution statt Internet 31/57 Darüber hinaus hat sich gezeigt, „dass die Deutschen sich oft auf eine Website pro Segment beschränken”82. Am deutlichsten zeigt sich dies an Wissenswebseiten, bei denen 89% der Nutzer nur eine Webseite aufgesucht haben. Der Internetnutzer wird dabei nicht zum Sender, sondern zum Produzenten. Dies wird er schon durch die Produktion und nicht erst durch das Senden der Produktion. Die öffentliche Beteiligung stellt sich vielmehr so dar, dass die Produktionen der Internetnutzer möglichst kostenfrei an einen Distributor abgetreten werden, der diese Inhalte über seine Infrastruktur verbreitet. Der Internetnutzer soll seine Werke aber nicht nur kostenlos zu Verfügung stellen, er soll insbesondere bei kommerziellen Web 2.0-Plattformen, für das Einreichen oder Ansehen seiner eigenen Inhalte in Form von Werbekonsum bezahlen. Wikipedia, die wahrscheinlich bekanntesten Web 2.0 Anwendung, zeigt darüber hinaus, über welche Möglichkeiten marktbeherrschende Informationshändler im Informationszeitalter verfügen. So gibt es immer wieder Texte, die gelöscht oder stark verändert werden. Insbesondere das Löschen ganzer Artikel zeigt, dass hier eine Auswahl der eingereichten Informationen stattfindet. Zum Beispiel wurde der Artikel „The Zeitgeist Movement“ auf der deutschen Wikipedia gelöscht. Die Begründung dafür ist zumindest zwiespältig. Erläuterung: Außer dem einen NYT Artikel scheinbar keine Wahrnehmung durch relevante Medien. Nicht einmal der typische SPON-Artikel in dem die "Bewegung" erwähnt wird. Der einzige Beleg sind Nutzerzahlen in Foren, auf YouTube und so weiter. Das ist kein Beleg für die Bedeutung einer selbsternannten "Bewegung". Wenn ich mich in einem Forum anmelde, werde ich nicht Mitglied einer Bewegung. "besondere mediale Aufmerksamkeit" ist klar widerlegt. Und das ist für eine sich politisch gerierende "Bewegung" sicher der entscheidende Faktor.Karsten11 14:11, 13. Jun. 2009 (CEST)83 82 Edb. 83 Karsten11. Wikipedia:Löschkandidaten/6. Juni 2009: The Zeitgeist Movement (gelöscht). 13. Juni 2009. URL: http://de.wikipedia.org/wiki/Wikipedia:L%C3%B6schkandidaten/6._Juni_2009 Stand 15. August 2009. Zentrale Distribution statt Internet 32/57 Hier kommt zum Ausdruck, dass nur Relevanz erhält, was auch in Mainstreammedien gesendet wird. Die Nutzerbeteiligung, auf die bei Wikipedia eigentlich so viel wert gelegt wird, hat keinerlei Bedeutung mehr, zumindest wenn es sich um Nutzerbeteiligung auf anderen Plattformen handelt, wie zum Beispiel Videoplattformen, Foren und Social Communities. Dies kann man als Teilaspekt der Schwarmintelligenz verstehen, dessen Mechanismen sich Wikipedia zu eigen macht. Der Fall des entführten Reporters David Rohde zeigt aber, dass es sich nicht um gleichberechtigte Mitglieder handelt, sondern eine Hierarchie besteht, bei der der nicht angemeldete Wikipedia-Nutzer das kleinste Licht ist und Wikipedia-Gründer James Wales das größte. Also wandte sich die New York Times an den WikipediaGründer James Wales, der mit den ihm zur Verfügung stehenden Sonderrechten dafür sorgte, dass der Eintrag stets den Wünschen der Zeitung entsprach.84 Welchen Stellenwert die einfachen Wikipedia-Nutzer bei dieser sieben Monate andauernden Aktion der Desinformation hatten, zeigt dass Kommentare, die auf Berichte einer afghanischen Nachrichtenagentur verwiesen, wurden mit Verweisen auf deren angeblich mangelnde Verlässlichkeit abgebügelt, darob empörte Nutzer als Verschwörungstheoretiker gebrandmarkt.85 Auch Web 2.0 verhaftet im WWW und damit bei der Server-Client-Struktur. Das unter Peer-to-Peer-Aspekten unsinnige Domain-Name-System kann seine Stellung behaupten und so auch Domainnamen ihren Wert. Der Ort, an dem sich die Ressourcen befinden, steht im WWW im Fokus und nicht die Ressourcen selbst. Bei Videoplattformen und anderen Web 2.0 Anwendungen wird somit der Speicherort der Daten in den Mittelpunkt gestellt. Peer-to-Peer-Netzwerke hingegen bringen die Daten selbst in den Fokus, die dynamisch auf die zur Verfügung stehenden Ressourcen verteilt werden können. 84 Mühlbauer, Peter. Wikipedia als Neocon. 01. Juli 2009. URL http://www.heise.de/tp/r4/artikel/30/30641/1.html Stand 15. August 2009. 85 Edb. Zentrale Distribution statt Internet 33/57 Zentrale Struktur als Angriffspunkt In diesem Kapitel möchte ich mich mit den Möglichkeiten auseinandersetzen, die zentralen Strukturen des Web 2.0 und insbesondere der Videoplattformen zu nutzen, um Kontrolle über die Inhalte auszuüben. Die Entwicklung leistungsstarker Netzwerke hat dazu geführt, dass durch die Internetkommunikation immense Datenmassen anfallen, so dass eine manuelle Prüfung nicht möglich ist.86 Auch eine rechnergestützte Kontrolle erscheint kaum möglich, ohne die Internetkommunikation zu verlangsamen oder hohen Aufwand zu betreiben. In den letzten Jahren nahm allerdings auch die Leistungsfähigkeit der Rechner zu und durch die Verwendung von Multikernprozessoren sogar stärker, als die der Netzwerke. Darüber hinaus wurden auch für andere Forschungsrichtungen, insbesondere die Robotik, intelligente Algorithmen zur Wahrnehmung der Umwelt entwickelt. Sehr ähnliche Algorithmen können und werden auch von Videoplattformen eingesetzt. Netzsperren Die Sperrung von Internetseiten wird seit einigen Jahren in verschiedenen Ländern der Welt durchgeführt. Auch YouTube war davon in einigen Ländern betroffen. So kam es zu einer Sperre in Bangladesh wegen eines Audiomitschnitts zwischen dem Premierminister und Armee-Offiziellen87, in der Türkei wegen Verunglimpfung des Staatsgründers88, in Thailand wegen Parodierung des Königs89, in Pakistan wegen eines 86 Z.b. werden auf YouTube jede Minute zehn Stunden Videomaterial hochgeladen. YouTube, LCC. Über YouTube: Überblick und Features. URL http://www.youtube.com/t/fact_sheet Stand 19. August 2009. 87 Vgl. IT-Times. Zensur: Neben Türkei und Co. sperrt auch China YouTube. 25. März 2009. URL http://www.it-times.de/news/nachricht/datum/2009/03/25/zensur-neben-tuerkei-und-co-sperrtauch-china-youtube/ Stand 15. August 2009. 88 Vgl. Pluta, Werner. Türkisches Gericht hebt Youtube-Blockade auf. 27. August 2008. URL http://www.golem.de/0808/61999.html Stand 15. August 2009 89 Vgl. TOMORROW FOCUS Portal GmbH. Thailand blockiert YouTube. 04. April 2007. http://www.focus.de/digital/internet/majestaetsbeleidigung_aid_52667.html Stand 15. August 2009 Zentrale Distribution statt Internet 34/57 anti-koranischen Videos des Islamgegners Geert Wilders90 und in China regelmäßig zu besonderen Anlässen, wie den Protesten in Tibet91, oder dem Jubiläum des Massakers am Platz des himmlischen Friedens92. Die Sperrung von YouTube in diesen Ländern macht wieder deutlich, dass YouTube die Internet Kommunikation im Bereich der Videos zentralisiert. Mit einem Marktanteil in den USA von 73,2 Prozent, zählt man den Videodienst der Mutter Google mit ein, sogar 81,6 Prozent, ist es zunächst ausreichend, YouTube zu sperren, wenn ein missliebiges Video im Internet auftaucht. Sperrt man zusätzlich die Videoportale MySpaceTV mit 9,2 Prozent, Google Video mit 8,4 Prozent und Yahoo Video mit 2,6 Prozent, sind 93,4 Prozent der Videoportale gesperrt.93 Das Video wird über den Distributionskanal Videoplattform nicht mehr viele Zuschauer finden. Als Alternativen stehen dem Videoproduzenten die Veröffentlichung auf eigenem Webspace, einem eigenen Webserver oder in Peer-to-Peer-Netzwerken zur Verfügung. Bei allen Möglichkeiten wird es aber schwerer, das Video bekannt zu machen, da es sich nicht im durchsuchbaren Index einer Videoplattform befindet. In den Fällen Webspace und eigenen Webservers fallen außerdem zusätzliche Kosten an und es kann zu Problemen mit Speicher und Bandbreite kommen. Betreibt man einen Webserver in den eigenen vier Wänden oder in fremden WLANs, muss man sich um die Administration kümmern. Die Bandbreite ist in diesen Fällen meist sehr gering, da die üblichen Anbieter von Highspeed-Internet-Zugängen meist nur asynchrone DSL-Zugänge zur Verfügung stellen. Bei einem Upstream von beispielsweise 192 kbit/s könnten pro Tag maximal ca. 2.025 MB gesendet werden Der Upload eines 25 MB Videos dauert bei 192 kbit/s mindestens 18 Minuten. Laden mehrere Personen dieses Video gleichzeitig runter, verlängert sich diese Zeit, so dass es 90 Vgl. Wilkens, Andreas. Pakistan sperrt YouTube. 25. Februar 2008. URL http://www.heise.de/newsticker/Pakistan-sperrt-YouTube--/meldung/104028 Stand 15. August 2009. 91 Vgl. Rötzer, Florian. China blockiert nach den Protesten in Tibet YouTube. 17. März 2008. URL http://www.heise.de/newsticker/China-blockiert-nach-den-Protesten-in-TibetYouTube--/meldung/105127 Stand 15. August 2009. 92 Vgl. Metzger, Michael. Internet-Zensur: Web 0.0 in China. 05. Juni 2009. URL http://www.zeit.de/online/2009/23/web2.0-china-zensur Stand 15. August 2009. 93 Vgl. Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008. URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537 Stand 15. August 2009. Zentrale Distribution statt Internet 35/57 schon bei vier Nutzern über eine Stunde dauert, bis sie sich das Video ansehen können. Auf diese Weise könnte das Video maximal 81 mal pro Tag gesendet werden. Im Kontrast dazu „schauen YouTube-Nutzer täglich Hunderte von Millionen Videos“94. Nutzungsdaten Die zentrale Struktur kann auch genutzt werden, um Zugriffslisten zu allen Videos, die genaue Angaben darüber enthalten, wer wann welches Video wie lange angesehen hat, zu erstellen. Dass YouTube zum Beispiel solche Datensätze anlegt, wurde durch ein Gerichtsverfahren, in dem Viacom die Offenlegung dieser Daten fordert, auch der breiten Öffentlichkeit bekannt.95 Sie werden mittlerweile dafür genutzt, um Rechteinhabern über den Service YouTube Insight detaillierte Informationen über die Sehgewohnheiten seines Publikums mitzuteilen. Dies umfasst nicht nur die Möglichkeit zu sehen, an welchen Stellen ein Video beendet oder gespult wurde (Abbildung 14), sondern auch demographische Daten der Zuschauer abzurufen, wie zum Beispiel die Alterszusammensetzung oder das Geschlecht (Abbildung 15). Darüber hinaus erhalten die Rechteinhaber Informationen zu welcher Zeit oder an welchem Ort ein Video aufgerufen wurde (Abbildung 16) und einige mehr.96 Diese Daten werden den Rechteinhabern so zur Verfügung gestellt, dass keine Schlüsse auf einzelne Zuschauer möglich sind, sondern die Gesamtheit der Zuschauer betrachtet wird. YouTube hat aber auch die Möglichkeit, diese Daten personalisiert zu nutzen, um Nutzerprofilen zusammenzustellen, die Rückschlüsse auf das (Konsum-)Verhalten einzelner Nutzer zulassen oder potentiell gefährliche Personen identifizieren sollen, zum Beispiel im Rahmen einer Rasterfahndung. 94 Google, Inc. Erreichen Sie mehr als 10 Mio. Video-Nutzer. URL http://www.google.com/intl/de/adtoolkit/pdfs/products/op_youtube_de.pdf Stand 15. August 2009. 95 Vgl. Patalong, Frank. Urteil outet YouTube als Datenkraken. 04. Juli 2008. URL http://www.spiegel.de/netzwelt/web/0,1518,563821,00.html Stand 15. August 2009. 96 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt. 02. Dezenber 2008. URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009. Zentrale Distribution statt Internet 36/57 Abbildung 14: Darstellung der besonders beliebten Stellen eines Videos im Vergleich zu Videos ähnlicher Länge. URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight2.jpg Stand 25. August 2009. Abbildung 15: Darstellung der demografischen Daten. Unterscheidung nach Altersgruppen und Geschlecht. URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight.jpg Stand 25. August 2009. Abbildung 16: Darstellung der Videoaufrufe nach Zeit und Ort. URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight1.jpg Stand 25. August 2009. Zentrale Distribution statt Internet 37/57 Automatische Verarbeitung zur Nacktheitserkennung Schon Mitte der 1990er begann die Entwicklung von Filtertechnologien, die Eltern einsetzen konnten, um ihre Kinder von bestimmten Internetinhalten fernzuhalten. Sie wurden auf den eigenen Rechnern installiert und sollten an Hand von Schlüsselwörtern automatisch Internetseiten aussortieren, auf denen sich jugendgefährdende Inhalte befinden. Bei Bildern oder Videos können solche Filter nur die sie umgebende Internetseite oder ihre Beschreibungen untersuchen, was nicht immer den gewünschten Erfolg bringt und leicht zu umgehen ist. Heutige Filter können durch Skin-Detection Hautbereiche in Bildern oder Videos erkennen. Im ersten Schritt werden dabei Bereiche mit Hautfarben extrahiert.97 Verschiedene Methoden in unterschiedlichen Farbräumen können dazu genutzt werden. Die einfachste ist, explizite Regeln für die Farbwerte festzulegen, wie zum Beispiel: (R,G,B) is classified as skin if: R > 95 and G > 40 and B > 20 and max{R,G,B}−min{R,G,B} > 15 and |R−G| > 15 and R > G and R > B98 Der Vorteil dieser Methode ist, dass eine Bild sehr schnell auf Hautbereiche überprüft werden kann. Die Schwierigkeit ist es, diese Regeln aufzustellen und sie empirisch zu belegen.99 Auch ohne explizite Regeln, also ohne ein Modell der Hautfarben, können Hautbereiche erkannt werden. Einige Methoden erlauben mit Hilfe von Trainingsdaten eine Hautwahrscheinlichkeitskarte für den Farbraum zu erstellen, mit deren Hilfe die Pixel der zu bearbeitenden Bilder klassifiziert werden können. Die Genauigkeit dieser Methoden reichen von 78% bis 94,7%. Allerdings ist die Rate der fälschlicherweise als positiv erkannten (FP-Rate) Hautbereiche insbesondere bei den sehr genauen Methoden 97 Vgl. Geisendrees, Bärbel. Methoden zur Erkennung von Hautfarben in Farbbildern. September 2001. S. 3f. URL http://www.uni-weimar.de/medien/webis/publications/downloads/theses/geisendrees_2001.pdf Stand 17. August 2009. 98 Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin Color Detection Techniques. S. 3. URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009. 99 Vgl. ebd. S. 3. Zentrale Distribution statt Internet 38/57 sehr hoch. Sie liegen zwischen 8% und 33,3%. Das Maximum Entropy Model100 im RGB-Farbraum hat beispielsweise eine Genauigkeit von 80% bei einer FP-Rate von 8%.101 Die Abbildung 17 zeigt mögliche Ein- und die dazugehörigen Ausgaben einer Hauterkennung. Abbildung 17: Eingabebilder und Ausgabe der Hautbereiche. Quelle: Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on Statical Skin Detection. 20. September 2004. S. 7. URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009. Erfüllen die extrahierten Bereiche in einem Bild ein bestimmtes Kriterium, in den meisten Fällen das Verhältnis zum Gesamtbild, können diese Bilder weiterverarbeitet werden. Einfache Filter nutzen nur dieses Kriterium, was meist zu einem hohen Anteil an fälschlicherweise positiven Bildern führt. Komplexere Filter nutzen darüber hinaus verschiedene Methoden, die Faktoren wie die Lage, Größe und Segmentierung der hautfarbenen Bereiche berücksichtigen. Beispielsweise berücksichtigt der Ansatz von Huicheng Zheng, Mohamed Daoudi und Bruno Jedynak (Abbildung 18) zum Filtern von jugendgefährdenden Bildern neun Faktoren. Dazu werden die Global Fit Ellipse (GFE), die alle Hautbereiche umfasst, und die Local Fit Ellipse (LFE), die nur die Region des größten Hautbereichs umfasst, 100 Vgl. Jedynak, Bruno, Zheng, Huicheng, Daoudi, Mohamed und Barret Didier. Maximum Entropy Models for Skin Detection. URL http://www.ee.iitb.ac.in/~icvgip/PAPERS/250.pdf Stand 17. August 2009. 101 Vgl. Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin Color Detection Techniques. S. 5. URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 39/57 berechnet. Die genutzten Faktoren sind die durchschnittliche Hautwahrscheinlichkeit des gesamten Bildes, die durchschnittliche Hautwahrscheinlichkeit innerhalb der Global Fit Ellipse (GFE), die Anzahl der Hautbereiche im Bild, die Distanz vom Zentrum der Local Fit Ellipse (LFE) zum Mittelpunkt des Bildes, der Winkel der Hauptachse der LFE zum Horizont, das Verhältnis der Nebenachsen zur Hauptachse der LFE, das Verhältnis des Bereichs der LFE zum gesamten Bild, die durchschnittliche Hautwahrscheinlichkeit innerhalb der LFE und die durchschnittliche Hautwahrscheinlichkeit außerhalb der LFE.102 Abbildung 18: Eingabebild, Global Fit Ellipse (GFE) und Local Fit Ellipse (LFE). Quelle: Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on Statical Skin Detection. 20. September 2004. S. 9. URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009. Die Methoden dieser Nacktheitserkennung unterscheiden sich dabei nur unwesentlich von Methoden zum Finden von Personen unabhängig ihrer Kleidung.103 Für Online-Videos (Abbildung 19) ist es nötig, mit wenig Rechenlast möglichst gute Ergebnisse zu erreichen. Dazu können die Ergebnisse verbessert werden, indem sie mit der Möglichkeit, Gesichter zu finden (Face Detection), kombiniert werden.104 102 Vgl. Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on Statical Skin Detection. 20. September 2004. S. 8f. URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009. 103 Vgl. Jones, Michael J., Rehg, James M. Statistical Color Models with Application to Skin Detection. S. 14. URL http://www.cc.gatech.edu/~rehg/Papers/SkinDetect-IJCV.pdf Stand 17. August 2009. 104 Vgl. ebd. S. 15f. Zentrale Distribution statt Internet 40/57 We used face de-tector to dynamically adapt skin color model and use it to signicantly reduce the number of false positive detection.105 Abbildung 19: Ausgabe einer Videountersuchung. Der Graph gibt die erkannten Haut-Pixel pro Bild an. Quelle: Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive Multiple Model Approach for Fast Content-Based Skin Detection in On-Line Videos. 2008. S. 94. URL http://portal.acm.org/citation.cfm?id=1463557 Stand 17. August 2009. Bei der Face Detection handelt es sich um eine spezielle Form der Objekterkennung (Object Detection). This paper brings together new algorithms and insights to construct a framework for robust and extremely rapid object detection. This framework is demonstrated on, and in part motivated by, the task of face detection.106 Die technischen Grundlagen können also auch dafür verwendet werden, bestimmte Objekte in Videos zu erkennen, zum Beispiel verbotene Kennzeichen oder Firmenlogos. 105 Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive Multiple Model Approach for Fast Content-Based Skin Detection in On-Line Videos. 2008. S. 94. URL http://portal.acm.org/citation.cfm?id=1463557 Stand 17. August 2009. 106 Viola, Paul und Jones, Michael. Robust Real-time Object Detection. 13. Juli 2001. S. 1. URL http://research.microsoft.com/en-us/um/people/viola/pubs/detect/violajones_ijcv.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 41/57 Außerdem ist die Face Detection der erste Schritt zur Identifikation anhand des Gesichts. Das auf diese Weise aus dem Video extrahierte Gesicht einer Person wird dazu mit einer Vorlage verglichen. Diese kann beispielsweise aus der Datenbank für gesuchte Verbrecher entnommen werden, wie es schon seit den Jahr 2001 beim SuperBowl für die Videoüberwachung des Stadions gemacht wird.107 Darüber hinaus gibt es noch weitere Möglichkeiten, automatisch bestimmte Informationen aus einem Video zu filtern. Es können automatisch Schnitte sowie Aus-, Ein- und Überblendungen erkannt werden. The system can reliably segment a video into shots, which is a necessary step for any video-analysis task.108 Die Arbeit „Automatic identification of persons in TV series” von Mika Fischer zeigt nicht nur die Schnittanalyse, sondern auch weitreichende Methoden zur Extraktion und Identifikation von Personen in Videos. It has been shown that the system detects most of the persons in the video while the number of false detections stays reasonably low.109 Nutzerbewertungen YouTube geht beim Schutz vor jugendgefährdenden und anderen rechtlich oder moralisch bedenklichen Videos einen anderen Weg. Die Zuschauer haben die Möglichkeit, Videos zu melden, die fragwürdige Inhalte enthalten. Wird ein Video zu oft gemeldet, sieht sich ein Mitarbeiter von YouTube das Video an und kümmert sich darum.110 107 Spiegel Online. Super Bowl – Big Brother beim Football. 01. Februar 2001. URL http://www.spiegel.de/netzwelt/web/0,1518,115473,00.html Stand 23. August 2009. 108 Fischer, Mika. Automatic identification of persons in TV series. Mai 2008. S. 65. URL http://isl.ira.uka.de/~stiefel/diplomarbeiten/DA_MikaFischer.pdf Stand 17. August 2009. 109 Edb. S. 65. 110 Vgl. Schultz, Stefan. Google bastelt den Super-Filter. URL http://www.spiegel.de/netzwelt/web/0,1518,502558,00.html Stand 17. August 2009 Zentrale Distribution statt Internet 42/57 Dieses Vorgehen bereitet allerdings Probleme, weil „digitale Videos [...] beliebig kopiert und immer wieder neu ins Netzwerk geschleust werden [können]“ 111 und die Nutzer urheberrechtlich geschützte Werke nicht erkennen können oder wollen. Insbesondere das Zugänglichmachen von urheberrechtlich geschützten Material hat für Videoplattformen Konsequenzen. Wie Peer-to-Peer-Netzwerke wurden auch Videoplattformen aufgefordert, gegen Urheberrechtsverletzungen vorzugehen, andernfalls würden sie verklagt werden. Diese berufen sich aber im Gegensatz zu P2PNetzwerk-Anbietern bisher erfolgreich auf die „sicherer Hafen“-Regel im DCMA, die nur eine Entfernung der fragwürdigen Inhalte nach vorheriger Information durch den Rechteinhaber vorsieht. Am 13. März 2007 reicht Viacom Klage gegen YouTube und Google ein, weil sie nicht genug gegen die uneingeschränkten Urheberrechtsverletzungen auf der Videoplattform YouTube unternähmen. According to Viacom, it has identified more than 150,000 unauthorized postings of its movies and television programming such as The Daily Show with Jon Stewart, South Park, The Colbert Report, and SpongeBob SquarePants which have been viewed 1.5 billion times.112 Die Forderung der Rechteinhaber ist, dass YouTube und andere Videoplattformen urheberrechtlich geschütztes Material selber ausfindig machen und nicht mehr die Rechteinhaber geschützte Inhalte suchen und per Takedown-Notice entfernen lassen müssen. Dabei wisse Youtube sehr wohl, was auf seiner Website vorhanden ist, und habe auch das Recht und die Möglichkeit, dieses Angebot zu kontrollieren. Daher sei es auch fair, Youtube dazu zu verpflichten, diese Inhalte daraufhin zu untersuchen, ob sie Urheberrechte verletzen.113 111 Edb. 112 Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles Google and YouTube. May 2007. S. 524. URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf Stand 17. August 2009. 113 Spielkamp, Matthias. Google: Viacom greift Internet-Kommunikation an. 02. April 2007. URL http://www.irights.info/index.php?id=81&tx_ttnews[tt_news]=287&cHash=863f96a3fa Stand 15. August 2009. Zentrale Distribution statt Internet 43/57 Um diese Forderungen zu erfüllen, nutzt YouTube seit Februar 2007 ein InhalteErkennungssystem der kalifornischen Firma „Audible Magic“. Diese identifiziert allerdings nur Audiodaten. Fingerprint zur Erkennung von Audio und Video Automatische Inhalte-Erkennungssysteme bieten die Möglichkeit, anhand von Vergleichsdaten bestimmte Videos oder Audios zu identifizieren. Auf diese Weise können die genannten Probleme des eigentlich gut funktionierenden Systems der Nutzerbewertung gelöst werden. Rechteinhaber können Vergleichsdaten abgegeben, um ihre urheberrechtlich geschützten Inhalte auch bei YouTube zu schützen, und einmal entfernte Videos können als Grundlage für die Identifikation von rechtlich problematischen oder anderweitig störenden Inhalten genutzt werden.114 Fingerprint-Technologie basiert auf der Annahme, dass jede Audio- oder Videodatei eindeutige Attribute besitzt, an denen sie identifiziert werden kann. Ein Fingerprint ist dabei ein Hash. Dies ist eine übliche Möglichkeit, um eine große Datenmenge durch eine kleinere Datenmenge, dem Hash, auf Veränderung überprüfen zu können. Standard-Hash-Verfahren eignen sich allerdings nicht für die Erkennung von Audiound Videodateien, die auch dann noch erkannt werden sollen, wenn sie verändert wurden, es sich aber dennoch um die gleiche Audio- bzw. Videoinhalte handelt. Fingerprints bieten hier die Lösung, in dem bestimmte eindeutige Merkmale einer Audio- bzw. Videodatei extrahiert und für den Hash benutzt werden.115 Erste Audio-Fingerprint-Technologien wurden im Napster-P2P-Netzwerk benutzt, um den Klagen der Rechteinhaber zu entgehen, was aber nicht zum Erfolg führte, denn Napster wurde kurze Zeit später geschlossen. 114 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt. 02. Dezenber 2008. URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009. 115 Vgl. Lefebvre, Frederik, Chupeau, Bertrand, Massoudi, Ayoub und Diehl, Eric. Image and Video Fingerprinting: Forensic Applications. URL http://www.eric-diehl.com/publications/SPIE09Lefebvre.pdf Stand 15. August 2009. Zentrale Distribution statt Internet 44/57 In May 2001, Napster introduced an audio fingerprinting system by Relatable, which aimed at filtering out copyrighted material despite misspellings in tags and metadata.116 Die Technologie fand aber in kurzer Zeit eine breite Anwendung, wie zum Beispiel bei der Erkennung von Musik per Handy117. Audio fingerprinting, the process by which an audio sample is automatically identified or categorized based on its unique analog properties, is a technology that has been integrated quite rapidly into commercial and consumer music applications.118 MySpace setzt einen auf Fingerprints basierenden Audiofilter seit 2006 ein119, YouTube seit Februar 2007. Einen auf Fingerprints basierenden Videofilter hat Google als Mutterkonzern von YouTube selbst entwickelt und setzt ihn mittlerweile ein. Dieser berechnet aus Referenzdateien, die die Rechteinhaber zur Verfügung stellen, ID-Dateien, die Hashs, die dann relativ schnell mit den ID-Daten, die aus neu hochgeladenen Videos generiert werden, verglichen werden können. Dabei benötigt das System nur 15 Minuten, um aus der Referenzdatei die ID-Datei zu erstellen.120 116 Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies. December 2008. S. 8. URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf Stand 17. August 2009. 117 Z.B. der O2 Music Spy von der Telefónica O2 Germany GmbH & Co. OHG bietet diesen Service. URL http://www.o2online.de/nw/active/fun/spy/index.html Stand 15. August 2009. 118 Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies. December 2008. S. I. URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf Stand 17. August 2009. 119 Vgl. ebd. S. 8. 120 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt. 02. Dezenber 2008. URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009. Zentrale Distribution statt Internet 45/57 Abbildung 20: Funktionsweise des YouTube VideoID Systems. URL http://www.mr-gadget.de/wpcontent/uploads/2008/12/overview_youtube_videoid_system.jpg Stand 17. August 2009. In Abbildung 20 ist die Funktionsweise des YouTube Videoerkennungsprogramms dargestellt. Zentrale Distribution statt Internet 46/57 Rechtliche Rahmenbedingungen Wie in der Einleitung beschrieben, waren es auch rechtliche Regelungen, die dazu geführt haben, dass das Funknetz von einem Medium, in dem jeder senden konnte, zu einem Medium mit zentralen Strukturen, dem Radio, und zu einem Medium der direkten Kommunikation, dem Funk, wurde. Einen ähnlichen Weg beschreitet auch das Internet, so dass ich mich in diesem Kapitel mit einigen rechtlichen Rahmenbedingungen auseinandersetzten möchte. Zum größten Teil stelle ich die Situation in Deutschland vor. Im Bereich des Urheberrechts stelle ich aber explizit das amerikanische Recht vor, dass durch internationale Vereinbarungen in ähnlicher, teilweise verschärfter Form auch in anderen Ländern Anwendung findet. Domainregistrierung, Anbieterkennzeichnung und Abmahnungen Domainregistrierung Bei der Domainregistrierung müssen Name und Adresse angegeben werden, die dann auf den Seiten der Registraturen eingesehen werden können.121 Dies bildet eine erste Hürde bei der Publikation von Inhalten im Internet. Auch weil viele Daten- und Verbraucherschutzexperten empfehlen, den Name und die Adresse – generell personenbezogene Daten – nur sparsam im Internet preiszugeben.122 Immerhin können solche Daten missbraucht werden, um beispielsweise Werbung zuzusenden oder auch schlimmeres wie den Identitätsdiebstahl. 121 Z.B. bei der DENIC eG, der zentralen Registrierungsstelle für die Top Level Domain .de können diese Angaben abgerufen werden. URL http://www.denic.de/ Stand 18. August 2009. 122 Vgl. Verbraucherzentrale Bundesverband. Diditale Sicherheit: Internet vom Fair-Play weit entfernt. 12. Februar 2008. URL http://www.vzbv.de/start/index.php? page=themen&bereichs_id=8&themen_id=97&mit_id=975&task=mit Stand 18. August 2009. Zentrale Distribution statt Internet 47/57 Anbieterkennzeichnung - Impressumpflicht Zumindest in Deutschland besteht darüber hinaus die Pflicht zur Anbieterkennzeichnung, welche meistens durch ein Impressum erfüllt ist und nur bei ausschließlich privaten oder familiären Webseiten entfallen kann. Die Anbieterkennzeichnungspflicht muss praktisch von jedem, der ein Online-Angebot bereithält, erfüllt werden. Etwas anderes gilt nur bei Angeboten, die ausschließlich privaten oder familiären Zwecken dienen und die keine Auswirkung auf den Markt haben. Im Zweifel sollten Sie davon ausgehen, dass die Anbieterkennzeichnungspflicht besteht.123 Die Anbieterkennzeichnung muss in jedem Fall „den Namen und die Anschrift, unter der sie niedergelassen sind, bei juristischen Personen zusätzlich die Rechtsform, den Vertretungsberechtigten und, sofern Angaben über das Kapital der Gesellschaft gemacht werden, das Stamm- oder Grundkapital“124 und „Angaben, die eine schnelle elektronische Kontaktaufnahme und unmittelbare Kommunikation mit ihnen ermöglichen, einschließlich der Adresse der elektronischen Post“125. Weitere Angaben müssen nur in speziellen Fällen gemacht werden, wie zum Beispiel Angaben über die zuständige Aufsichtsbehörde oder die Umsatzsteueridentifikationsnummer. Wer vorsätzlich oder fahrlässig eine der geforderten Informationen nicht, nicht richtig oder nicht vollständig verfügbar hält, begeht eine Ordnungswidrigkeit, die mit einer Geldbuße von bis zu 50.000,- € geahndet werden kann. Darüber handelt es sich um Wettbewerbsverstöße, die Ansprüche anderer Wettbewerber nach sich ziehen können. Im Regelfall sind dies der Ansprüche auf Unterlassung, die mit Hilfe kostenpflichtiger Abmahnungen durchgesetzt werden.126 123 Bundesministerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im Internet („Impressumspflicht“). 18. Februar 2009. URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_barrierefr ei_090218.pdf Stand 15. August 2009. 124 Bundesministerium der Justiz. Telemediengesetz vom 26. Februar 2007, das durch Artikel 2 des Gesetzes vom 25. Dezember 2008 geändert worden ist. § 5 (1). URL http://www.gesetze-im-internet.de/bundesrecht/tmg/gesamt.pdf Stand 15. August 2009. 125 Edb. § 5 (1). 126 Vgl. Bundesministrerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im Internet („Impressumspflicht“). 18. Februar 2009. Zentrale Distribution statt Internet 48/57 Abmahnwelle „Die Abmahnung ist definiert als Aufforderung des Rechtsinhabers oder des Verletzten an den Störer, innerhalb einer angemessenen Frist eine strafbewehrte Unterlassungserklärung abzugeben.“127 Im Internet werden Abmahnungen am häufigsten aufgrund von Verstößen gegen das Urheberrecht und das Wettbewerbsrecht, insbesondere die Impressumspflicht, ausgesprochen. Die geltenden Rechtsnormen zum Wettbewerbsrecht finden sich im Gesetz gegen den unlauteren Wettbewerb, der Preisabgabenverordnung, dem Unterlassungsklagengesetz, dem Bürgerlichen Gesetzbuch, der Informationspflichtenverordnung, dem Telemediengesetz, dem Heilmittelwerbegesetz und dem Arzneimittelgesetz. Darüber hinaus gibt es noch weitere Rechtsvorschriften, die einzelne Regelungen zum Verhalten von Wettbewerbern am Markt regeln.128 Die Folge einer Abmahnung für die Betroffenen ist, dass sie die Rechtsverstöße abstellen, Schadensersatz leisten und die Kosten der Abmahnung tragen sollen. Darüber hinaus sollen sie eine Unterlassungserklärung abgeben, die bei einem weiteren, auch unbeabsichtigten, ähnlichen Rechtsverstoß zu hohen Strafzahlungen führt. Wehrt sich der Betroffene gegen die Abmahnung, kann eine gerichtliche Auseinandersetzung mit ungewissen Kosten folgen.129 Dies führt dazu, dass vor Veröffentlichung von Inhalten im Internet die Rechtslage studiert werden muss, um sich vor Abmahnungen zu schützen. Einige mag dies abschrecken, überhaupt Inhalte im Internet zu veröffentlichen. Andere werden zu drastischen Maßnahmen getrieben. Dies zeigt zum Beispiel der Blog von Horst Schulte, URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_barrierefr ei_090218.pdf Stand 15. August 2009 127 Oppermann, Bernd H. Unterlassungsanspruch und materielle Gerechtigkeit im Wettbewerbsprozess: zur Entstehung und Durchsetzung von Unterlassungsansprüchen im Wettbewerbsrecht und im gewerblichen Sonderrechtsschutz. Mohr Siebeck, 1993. S. 162. 128 Vgl. Zentrale zur Bekämpfung unlauteren Wettbewerbs e. V. Frankfurt/Main. Nationales Wettbewerbsrecht: Rechtsnomen. URL http://www.wettbewerbszentrale.de/de/recht/nationales/rechtsnormen/ Stand 15. August 2009. 129 Vgl. Obermair, Stefan. Der Schutz des Verbrauchers vor unlauterer Werbung in Deutschland und Grossbritanien. Tenea Verlag Ltd., 2004. S. 133f. Zentrale Distribution statt Internet 49/57 der sich aufgrund von Abmahnungen gezwungen sah, in seinem Blog über 3800 Beiträge und über 7000 Kommentare zu löschen.130 Störerhaftung / Linkhaftung Die Petitionsseite des Bundestages zeigt hier schon, wie die Zukunft aussehen kann. Im Forum ist es generell untersagt, Links zu setzen. Auch einfache Hinweise auf andere Seiten, die nicht im Hyperlink-Format erstellt wurden, sind nicht gestattet. Es wird zwar darauf hingewiesen, dass das Setzen von Links unabhängig der Gesetzeslage geschieht, die rechtliche Verpflichtung wird aber nicht verneint. Unabhängig von rechtlichen Verpflichtungen hat der Petitionsausschuss sich gegen die Möglichkeit der Setzung von Links (URLs) in seinen Foren entschieden.131 Diese Regel haben zwar auch einige kommerzielle Anbieter, da aber zumeist aus dem Grund, dass Werbung innerhalb der kommerziellen Foren nur dem Betreiber obliegt. Viele Blogs und andere freie Medien lassen aber Links auch in den Kommentaren zu. Rechtlich bewegen sie sich in einer Grauzone, obwohl der Bundesgerichtshof im konkreten Fall Linkhaftung schon abgelehnt hat.132 In anderen Fällen wurde aber auch auf eine Haftung für Links entschieden, so zum Beispiel ein Urteil des Landgerichts 130 Vgl. Schulte, Horst. Wahrgemacht: Bloginhalt und alle Kommentare gelöscht. 20 September 2007. URL http://www.finger.zeig.net/2007/09/20/wahrgemacht-bloginhalt-und-alle-kommentaregeloescht/ Stand 17. August 2009. 131 DBT_Moderator 6. Thema: Mit der Bitte um Beachtung! 06. Mai 2009. URL https://epetitionen.bundestag.de/index.php?topic=1277.0 Stand 17. August 2009. 132 Vgl. Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004. URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py? Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla nk=1.pdf Stand 17. August 2009. Zentrale Distribution statt Internet 50/57 Hamburg vom 12. Mai 1998133, vom 2. Januar 2001134, oder eine Entscheidung des Landgerichts Lübeck135. Ein wichtiger Unterschied ist zumindest bei diesen Fällen zu erkennen. Der Bundesgerichtshof entschied im Fall eines Verlagshauses. Die Beklagte gibt als Verlagshaus die Zeitung "W." und die Zeitschrift "WW." heraus. Presseerzeugnisse sind Die Teil Online-Ausgaben des Internetauftritts dieser der Beklagten.136 In den anderen Fällen handelt es sich nicht um Verlagshäuser oder anerkannte Mediendienstleister. Stellt man dazu einen der Entscheidungsgrundsätze des Landgerichts Lübeck in Beziehung, wird deutlich, dass es für Medienanbieter einfacher ist, diese Maßgabe zu erfüllen. Verantwortlichkeit für fremde Inhalte ist aber gegeben, wenn zusätzliche Umstände vorliegen, die verdeutlichen, daß der Anbieter der Seite, auf der sich der Hyperlink befindet, sich den Inhalt der fremden Seite geistig zu eigen macht.137 Mediendienstleister zeichnen sich gerade dadurch aus, dass sie sich Inhalte nicht geistig zu eigen machen, sondern unabhängig und umfassend berichten sollen. Bei Privatpersonen ist der Beweis, dass man sich die verlinkten Inhalte nicht geistig zu eigen macht, schwerer. 133 Vgl. Landgericht Hamburg. Az. 312 O 85/98. Ehrverletzende Äußerungen im Internet. 12. Mai 1998. URL http://www.jurpc.de/rechtspr/19980086.htm Stand 17. August 2009. 134 Vgl. Landgericht Hamburg. Az. 312 O 606/00. Wettbewerbswidrigkeit eines Links. URL http://www.jurpc.de/rechtspr/20010061.htm Stand 17. August 2009. 135 Vgl. Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998. URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009. 136 Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004. URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py? Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla nk=1.pdf Stand 17. August 2009. 137 Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998. URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009. Zentrale Distribution statt Internet 51/57 Mit ihrem Allgemeinheit Internetauftritt als stelle die Presseunternehmen Beklagte ein der umfassendes journalistisches Angebot zur Verfügung.138 Die Ungewissheit, die durch diese Rechtssprechung entsteht, führt dazu, dass private Homepages auf Links, zumindest wenn sie kritisch sind, verzichten und Links in Kommentaren nicht mehr zulassen. Wie verunsichert die Betreiber privater Homepages durch diese Entscheidungen sind, zeigt sich an der massenhaften Verbreitung von Disclaimern auf privaten Homepages, mit denen versucht wird, sich allgemein von allen Links, die auf der eigenen Seite sind, zu distanzieren.139 Das DCMA – urheberrechtliche Regularien im Internet Der Digital Millennium Copyright Act (DMCA) wurde am 28. Oktober 1998 unterzeichnet und beinhaltet weitreichende Bestimmungen zum Urheberrecht in den USA, wie das Verbot Kopierschutztechnologien zu umgehen. Der DMCA bietet aber auch Dienstanbietern, die urheberrechtlich geschütztes Material ausschließlich auf Anweisung der Nutzer speichern, bestimmte Haftungsprivilegien. Internet Service Provider / Hosting Services werden von der Haftung für Kopierschutzverletzungen von Usern befreit. Sie müssen allerdings, sobald eine Takedown Notice eingegangen ist, die entsprechenden Inhalte sofort entfernen. Ihnen wird damit ein sicherer Hafen geschaffen, der sie vor Klagen wegen CopyrightVerletzungen freistellt Darüber hinaus gilt in den USA das Communications Decency Act, welches ähnliche Immunität in Bezug auf nicht Urheberrecht betreffende Klagen gibt.140 138 Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004. URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py? Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla nk=1.pdf Stand 17. August 2009. 139 Vgl. Schneider, Daniel W. Das Märchen vom „Link-Urteil“. URL http://www.knetfeder.de/recht/linkurteil/ Stand 17. August 2009. 140 Vgl. Kravets, David. 10 Years Later, Misunderstood DMCA is the Law That Saved the Web. 27. Oktober 2008. URL http://www.wired.com/threatlevel/2008/10/ten-years-later/ Stand 17. August 2009. Zentrale Distribution statt Internet 52/57 "These two protections for intermediaries have been absolutely crucial for giving us the internet today," says Fred von Lohmann, an internet attorney with the Electronic Frontier Foundation, which just released its report on the DMCA. "You could not run a blog without these. You couldn’t run MySpace, AOL without these two things."141 Dieser Schutz gilt allerdings nur für die Dienstanbieter, wie Anbieter von Internetzugängen, Webspace, Videoplattformen, Blogplattformen und so weiter. Diese werden von der Haftung für die Inhalte ihrer Nutzer ausgenommen. Die Nutzer haben allerdings weiterhin die volle Verantwortung für die Inhalte. Im Normalfall werden diese aber nicht weiter belangt, wenn der Dienstanbieter die Inhalte entfernt. Somit wird es den Dienstanbietern ermöglicht, ihren Geschäften nachzugehen, ohne dass das Risiko für kostspielige Klagen aufgrund der zunehmenden Zahl an Nutzern unabsehbar wird.142 So können unrechtmäßige Inhalte einfach und ohne gerichtliche Auseinandersetzung entfernt werden. Die andere Seite der Medaille ist aber, dass auch missliebige Inhalte durch Takedown Notice einfach entfernt werden können. Um die Inhalte wieder herzustellen, muss man einen Gegenantrag stellen und geht das Risiko einer gerichtlichen Auseinandersetzung ein. Bei Videoplattformen wie YouTube häufen sich mittlerweile die Takedown Notices, wie man auf der Homepage des Projekts YouTomb des Massachusetts Institute of Technology sehen kann. YouTomb is currently monitoring 377863 videos, and has identified 14990 videos taken down for alleged copyright violation and 92586 videos taken down for other reasons.143 Das amerikanische Recht erlaubt unter bestimmten Umständen, als „fair use“, urheberrechtlich geschütztes Material zu verwenden. Insbesondere Persiflagen und Kritik, also die freie Meinungsäußerung, sollen dadurch geschützt werden. Takedown Notices werden auch dazu genutzt, diese legitime Form der Verwendung 141 Ebd. 142 Vgl. ebd. 143 MIT Free Culture. YouTomb. URL http://youtomb.mit.edu/ Stand 17. August 2009. Zentrale Distribution statt Internet 53/57 urheberrechtlich geschützten Materials und damit Kritik zu unterbinden.144 Zum Beispiel wurden viele Videos zu Scientology von YouTube entfernt. 145 Das eine solche Reaktion mittlerweile auch ohne Takedown Notice erfolgen kann, zeigt das Interview mit Jason Beghe, das aufgrund von Verletzungen der Nutzungsrechte entfernt wurde. Nachdem der Scientology-Kritiker Mark Bunker [...] das Video auf YouTube veröffentlichte, wurde es von YouTube noch am gleichen Tag entfernt und Bunkers Account gelöscht. 146 So kommt auch die Electronic Frontier Foundation (EEF) in ihrem unregelmäßig veröffentlichten Berichte zu Folgen des DMCA zu einer negativen Bewertung. Das Gesetz hat demnach den Rechten der Öffentlichkeit zur Nutzung geschützter Werke, der freien Meinungsäußerung, der Forschung sowie dem Wettbewerb in der Wirtschaft geschadet.147 Urheberrechteinhaber verlangen allerdings eine Verschärfung dieser Regelungen, so dass die Dienstanbieter helfen, müssen Urheberrechtsverletzungen aufzudecken. Vorratsdatenspeicherung Im November 2007 wurde das Gesetz zur Vorratsdatenspeicherung beschlossen, dass am 1. Januar 2008 in Kraft getreten ist. Seiddem ist 144 Vgl. Improbulus. Google & DMCA: copyright vs free speech. 06. August 2007. URL http://www.consumingexperience.com/2007/08/google-dmca-copyright-vs-free-speech.html Stand 17. August 2009. 145 Vgl. Galperin, Eva. Massive Takedown of Anti-Scientology Videos on YouTube. 05. September 2008. URL http://www.eff.org/deeplinks/2008/09/massive-takedown-anti-scientology-videos-youtube Stand 17. August 2009. 146 RainbowNet Blog Schweiz. Jason Beghe Video über Scientology – gefährliche zerstörerische Abzocke. 19. April 2008. URL http://blog.rainbownet.ch/religion/jason-beghe-video-uber-scientology-gefahrlichezerstorerische-abzocke Stand 17. August 2009. 147 Kuri, Jürgen. Zehn Jahre Digital Millennium Copyright Act: Recht fürs Internet? 28. Oktober 2008. URL http://www.heise.de/newsticker/Zehn-Jahre-Digital-Millennium-Copyright-Act-Recht-fuersInternet--/meldung/118043 Stand 17. August 2009. Zentrale Distribution statt Internet 54/57 nachvollziehbar, wer mit wem in den letzten sechs Monaten per Telefon, Handy oder E-Mail in Verbindung gestanden oder das Internet genutzt hat. Bei Handy-Telefonaten und SMS wird auch der jeweilige Standort des Benutzers festgehalten.148 Gespeichert wird dabei auch die IP, die im Internet benutzt wurde, so dass wenn die IP und der Zeitpunkt des Zugriffs bekannt sind, der Anschluss, von dem der Zugriff stattfand, identifiziert werden können. Oft kann so auch auf die Person zurück geschlossen werden, die den Rechner bedient hat. Internetnutzer können auf diese Weise verängstigt werden bestimmte oder unbekannte Internetseiten zu besuchen oder Peer-to-Peer-Netzwerke zu benutzen. Sie können ja nicht wissen, ob dort die eigene IP gespeichert wird und ob die besuchte Seite rechtlich relevante Inhalte enthält. Ist dies der Fall, kann man schnell identifiziert werden und ist unter Umständen mit Ermittlungsverfahren konfrontiert. Eine ForsaUmfrage nach Einführung der Vorratsdatenspeicherung hat ergeben, dass 52% der Befragten auf die Kontaktaufnahme per Telefon, Handy oder E-Mail verzichten würden, wenn „sie den Rat einer Eheberatungsstelle, eines Psychotherapeuten oder einer Drogenberatungsstelle benötigten“149. Darüber hinaus gaben 11% an, dass sie ihr Nutzungsverhalten in Bezug auf Telefon, Handy und E-Mail verändert hätten.150 148 Arbeitskreis Vorratsdatenspeicherung. 5-Minuten-Info: Vorratsdatenspeicherung. URL http://www.vorratsdatenspeicherung.de/content/view/46/42/lang,de/ Stand 17. August 2009. 149 forsa. Meinungen der Bundesbürger zur Vorratsdatenspeicherung. 02. Juni 2008. URL http://www.vorratsdatenspeicherung.de/images/forsa_2008-06-03.pdf Stand 17. August 2009. 150 Vgl. ebd. Zentrale Distribution statt Internet 55/57 Fazit Es zeigt sich, dass das rechtsfreie, unkontrollierbare und absolut dezentrale Internet nicht existiert. Es ist die Gesellschaft, die aus dem technischen Internet, einer Verbindung von Computernetzwerken, das soziale Internet, einen Raum der Kommunikation, des Austauschs und des Miteinanders macht. Es kann aber auch aufbauend auf dem technischen Internet ein Raum der Zensur, Einschüchterung und Desinformation etabliert werden, wie am Beispiel China zu sehen ist, oder auch ein Raum der Verwertbarkeit, wie es einige große Internet- und Medienfirmen anstreben. Die zugrunde liegende Struktur ermöglicht Freiheit und Kontrolle in unterschiedlichen Abstufungen und Ausprägungen. Wie in den frühen Jahren des Funks, sind es Gesetze und Vorschriften, die die Möglichkeit des Sendens erschweren. Direkte Kommunikation und das Empfangen und Einreichen von Daten bei den Distributoren, wie Videoplattformen, stellt immer mehr die normale Nutzung des Internets dar. Auch wenn Peer-to-Peer-Netzwerke noch immer einen beträchtlichen Anteil an der Internetkommunikation ausmachen, nimmt ihr Anteil stetig ab. Dies mag zum einen in den härteren rechtlichen Vorschriften, wie der Vorratsdatenspeicherung, liegen, aber auch an der Möglichkeit, ähnliche Inhalte bei Videoplattformen ohne rechtliche oder moralische Bedenken konsumieren zu können. Videoplattformen und andere Web 2.0 Anwendungen leiten so eine Rückbesinnung auf das WWW ein. Damit wird ein Paradigmenwechsel weg von den Orten, an denen sich Ressourcen befinden, hin zu den Ressourcen selbst gestoppt. Die zentralen Server einiger Distributoren, die über werbewirksame Domainnamen zu finden sind, bleiben weiterhin im Fokus. Wie bei einem Radiosender können zu diesen Distributoren Inhalte gesandt werden mit der Bitte nach Veröffentlichung. Es sind aber diese Distributoren, die sich alle Rechte, inklusive der Verwertungsrechte des Materials, vorbehalten. Sie sind Herren der Inhalte und können löschen oder für bestimmte Regionen oder Personen sperren. Selbst die Möglichkeit, Webspace auf nicht eigenen Rechnern zu mieten, ist übertragen nicht mehr, als einen Sendeslot im Radio zu mieten. Sollten die Inhalte nicht mit den Nutzungsbedingungen übereinstimmen, kann sofort gekündigt werden, sollten die Inhalte nur nicht gefallen, kann der Anbieter auf eine Vertragsverlängerung verzichten. Zum wirklichen Sender kann der Nutzer nur werden, wenn ihm eigene Zentrale Distribution statt Internet 56/57 Übertragungskapazitäten zur Verfügung stehen und er nicht darauf angewiesen ist, das die Distributoren ihm Übertragungskapazitäten überlassen. Videoplattformen spielen dabei eine hervorgehobene Rolle. Auf der einen Seite nimmt die Nutzung von Videos sowohl als Rezipient als auch als Produzent immer mehr zu. Auf der andern Seite benötigen Videos meist viel Speicher und damit bei der Übertragung auch die nötige Kapazität. Peer-to-Peer-Netzwerke bieten hier effiziente Lösungen, erschweren aber die Kontrolle. Die schiere Menge an Daten, die bei Videoplattformen hochgeladen wird, lässt erwarten, dass eine Kontrolle gar nicht möglich sei. Intelligente Algorithmen und leistungsfähige Rechnersysteme bieten aber mittlerweile die Möglichkeit auch diese Datenmassen zu beherrschen. Durch ihre Zentralität haben Videoplattformen dabei einen Vorteil, da es ausreicht, die Videos nach dem Hochladen zu überprüfen. Danach liegt das für gut befundene Video auf den Servern der Videoplattformen und kann ohne weitere Prüfung angesehen werden. Abschließend lässt sich feststellen, dass Videoplattformen und andere Web 2.0 Anwendungen nicht dafür sorgen, dass jeder Senden kann, wie es der Name YouTube suggeriert, sondern das sich Distributionsstrukturen etablieren, die sowohl Kontrolle als auch Kommerzialisierbarkeit gewährleisten können. Zentrale Distribution statt Internet 57/57 Literaturverzeichnis Albrecht, Dietmar, Arnold, Rolf, Bauerfeld, Wulf und weitere. Web 2.0: Strategievorschläge zur Stärkung von Bildung und Innovation in Deutschland. 12. März 2007. S. 2. URL http://www.bmbf.de/pub/expertenkommission_web20.pdf Stand 15. August 2009. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007. URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-noweclipses-p2p.ars Stand 15. August 2009. Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping and Innovating Radio and The Internet URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009 Arbeitskreis Vorratsdatenspeicherung. 5-Minuten-Info: Vorratsdatenspeicherung. URL http://www.vorratsdatenspeicherung.de/content/view/46/42/lang,de/ Stand 17. August 2009. Baran, Paul. On Distributed Communications: I. Introduction To Distributed Communications Networks. United States Air Force Project RAND, August 1964. S. iii. URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf Stand 17. August 2009. Baran, Paul. On Distributed Communications: XI. Summary Overview. United States Air Force Project RAND, August 1964. S. v. URL http://www.rand.org/pubs/research_memoranda/2006/RM3767.pdf Stand 17. August 2009. BFL Leasing GmbH. Aktuelle Marktanalyse: Wer hat die größeren Festplatten: Business- oder Konsumer-Notebooks? September 2008. URL http://www.bfl-it-index.de/LibraryDoc.aspx? DocID=4c3e78f7a74f499f9c0bdd08a3f6a09e Stand 18. August 2009 Brecht, Bertolt. Der Rundfunk als Kommunikationsapparat. In: Über Politik und Kunst. Suhrkamp 1971. Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004. URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py? Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz =1&Blank=1.pdf Stand 17. August 2009. Bundesministrerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im Internet („Impressumspflicht“). 18. Februar 2009. URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_b arrierefrei_090218.pdf Stand 15. August 2009. Bundesministerium der Justiz. Telemediengesetz vom 26. Februar 2007, das durch Artikel 2 des Gesetzes vom 25. Dezember 2008 geändert worden ist. § 5 (1). URL http://www.gesetze-im-internet.de/bundesrecht/tmg/gesamt.pdf Stand 15. August 2009. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt. 02. Dezenber 2008. URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009. Cima, Andrea, Fragkouli, Athina und Wijte, Ingrid. Independent Internet Number Resources – Contractual Relationship Changes between sponsoring LIR and END User. Juli 2009. URL http://www.ripe.net/ripe/docs/ripe-475.html Stand 15. August 2009. DBT_Moderator 6. Thema: Mit der Bitte um Beachtung! 06. Mai 2009. URL https://epetitionen.bundestag.de/index.php?topic=1277.0 Stand 17. August 2009. Djordjevic, Valie, Kreutzer, Till und Spielkamp, Matthias. Urheberrecht im Alltag: Kopieren, Bearbeiten, Selber Machen. 2. Auflage. Bundeszentrale für politische Bildung, Bonn, 2008. S. 47. URL http://www.bpb.de/files/0GKFWO.pdf Stand 17. August 2009. Elon University School of Communications. Imaging the Internet´s: Quick Look at the Early History of the Internet. URL http://www.elon.edu/e-web/predictions/early90s/internethistory.xhtml Stand 14. August 2009. Enzweiler, Julie. Auto Industry´s Wild Ride is Getting Smoother. Juli 2009. URL http://enus.nielsen.com/main/insights/consumer_insight/July_2009/auto_industry_wild Stand 22. August 2009 Ermert, Monika und Kuri, Jürgen. DNS-Rootserver: Anycast für mehr Ausfallsicherheit. 18. November 2002. URL http://www.heise.de/newsticker/DNS-Rootserver-Anycast-fuer-mehrAusfallsicherheit--/meldung/32451 Stand 20. August 2009. Ermert, Monika und Kuri, Jürgen. US-Abgeordnete fordern dauerhafte US-Kontrolle über Internet-Verwaltung. 06. August 2009. URL http://www.heise.de/netze/US-Abgeordnete-fordern-dauerhafte-US-Kontrolle-ueberInternet-Verwaltung--/news/meldung/143131 Stand 20. August 2009. Espenscheid, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001. URL http://odem.org/insert_coin/mythen/dezentral.html Stand 20. August 2009. Ferguson, David. P2P File Sharing – The Evolving Distribution Chain. 22. Juni 2006. URL http://www.dcia.info/activities/p2pmswdc2006/ferguson.pdf Stand 19. August 2009. Fischer, Mika. Automatic identification of persons in TV series. Mai 2008. S. 65. URL http://isl.ira.uka.de/~stiefel/diplomarbeiten/DA_MikaFischer.pdf Stand 17. August 2009. forsa. Meinungen der Bundesbürger zur Vorratsdatenspeicherung. 02. Juni 2008. URL http://www.vorratsdatenspeicherung.de/images/forsa_2008-06-03.pdf Stand 17. August 2009. Galperin, Eva. Massive Takedown of Anti-Scientology Videos on YouTube. 05. September 2008. URL http://www.eff.org/deeplinks/2008/09/massive-takedown-anti-scientology-videosyoutube Stand 17. August 2009. Geisendrees, Bärbel. Methoden zur Erkennung von Hautfarben in Farbbildern. September 2001. S. 3f. URL http://www.uniweimar.de/medien/webis/publications/downloads/theses/geisendrees_2001.pdf Stand 17. August 2009. Google, Inc. Erreichen Sie mehr als 10 Mio. Video-Nutzer. URL http://www.google.com/intl/de/adtoolkit/pdfs/products/op_youtube_de.pdf Stand 15. August 2009. Graham Rowe, Duncan. Mapping the Internet. 19. Juni 2007. URL http://www.technologyreview.com/communications/18944/page1/ Stand 17. August 2009. Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur. URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009 IANA. IANA Report: Recognition of AfriNIC as a Regional Internet Registry. 06. Mai 2005. URL http://www.iana.org/reports/2005/afrinic-report-05aug2005.pdf Stand 15. August 2009. IANA. IANA Report: Recognition of LACNIC as a Regional Internet Registry. 07. November 2002. URL http://www.iana.org/reports/2002/lacnic-report-07nov02.html Stand 15. August 2009. IANA. Number Resources. URL http://www.iana.org/numbers/ Stand 15. August 2009. ICANN. Criteris for Establishment of New Regional Internet Registries. 04. Juni 2001. URL http://www.icann.org/en/icp/icp-2.htm Stand 15. August 2009. Improbulus. Google & DMCA: copyright vs free speech. 06. August 2007. URL http://www.consumingexperience.com/2007/08/google-dmca-copyright-vs-freespeech.html Stand 17. August 2009. IT-Times. Zensur: Neben Türkei und Co. sperrt auch China YouTube. 25. März 2009. URL http://www.it-times.de/news/nachricht/datum/2009/03/25/zensur-neben-tuerkei-undco-sperrt-auch-china-youtube/ Stand 15. August 2009. Jedynak, Bruno, Zheng, Huicheng, Daoudi, Mohamed und Barret Didier. Maximum Entropy Models for Skin Detection. URL http://www.ee.iitb.ac.in/~icvgip/PAPERS/250.pdf Stand 17. August 2009. Jones, Michael J., Rehg, James M. Statistical Color Models with Application to Skin Detection. S. 14. URL http://www.cc.gatech.edu/~rehg/Papers/SkinDetect-IJCV.pdf Stand 17. August 2009. Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008. URL http://www.isoc.org/briefings/020/ Stand 20. August 2009. Karsten11. Wikipedia:Löschkandidaten/6. Juni 2009: The Zeitgeist Movement (gelöscht). 13. Juni 2009. URL: http://de.wikipedia.org/wiki/Wikipedia:L%C3%B6schkandidaten/6._Juni_2009 Stand 15. August 2009. Kaul, Michael. Die Geschichte des Internet. 04. März 2001. URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009. Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive Multiple Model Approach for Fast Content-Based Skin Detection in On-Line Videos. 2008. S. 94. URL http://portal.acm.org/citation.cfm?id=1463557 Stand 17. August 2009. Kravets, David. 10 Years Later, Misunderstood DMCA is the Law That Saved the Web. 27. Oktober 2008. URL http://www.wired.com/threatlevel/2008/10/ten-years-later/ Stand 17. August 2009. Kuri, Jürgen. Zehn Jahre Digital Millennium Copyright Act: Recht fürs Internet? 28. Oktober 2008. URL http://www.heise.de/newsticker/Zehn-Jahre-Digital-Millennium-Copyright-Act-Rechtfuers-Internet--/meldung/118043 Stand 17. August 2009. Landgericht Hamburg. Az. 312 O 85/98. Ehrverletzende Äußerungen im Internet. 12. Mai 1998. URL http://www.jurpc.de/rechtspr/19980086.htm Stand 17. August 2009. Landgericht Hamburg. Az. 312 O 606/00. Wettbewerbswidrigkeit eines Links. 02. Januar 2001. URL http://www.jurpc.de/rechtspr/20010061.htm Stand 17. August 2009. Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998. URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009. Lefebvre, Frederik, Chupeau, Bertrand, Massoudi, Ayoub und Diehl, Eric. Image and Video Fingerprinting: Forensic Applications. URL http://www.eric-diehl.com/publications/SPIE09Lefebvre.pdf Stand 15. August 2009. Messerre, Fritz. Encyclopedia of Radio: Regulation. URL http://www.oswego.edu/~messere/RadioReg.pdf Stand 19. August 2009. Metzger, Michael. Internet-Zensur: Web 0.0 in China. 05. Juni 2009. URL http://www.zeit.de/online/2009/23/web2.0-china-zensur Stand 15. August 2009. MIT Free Culture. YouTomb. URL http://youtomb.mit.edu/ Stand 17. August 2009. Mühlbauer, Peter. Wikipedia als Neocon. 01. Juli 2009. URL http://www.heise.de/tp/r4/artikel/30/30641/1.html Stand 15. August 2009. Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles Google and YouTube. May 2007. URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf Stand 17. August 2009. Nielsen//NetRatings. 54% der Deutschen nutzen Web 2.0 Websites – Dienste erfahren 32% Besucherzuwachs und hohe Markentreue. 21. Mai 2007. URL http://www.nielsen-online.com/pr/pr_070521_DE.pdf Stand 27. August 2009. Nielsen Online. Media Alert. 11. Juni 2009. URL http://enus.nielsen.com/etc/medialib/nielsen_dotcom/en_us/documents/pdf/press_releases/2009/june. Par.19041.File.pdf Stand 22. August 2009. Obermair, Stefan. Der Schutz des Verbrauchers vor unlauterer Werbung in Deutschland und Grossbritanien. Tenea Verlag Ltd., 2004. S. 133f. Ohm, Paul. The Rise and Fall of Invasive ISP Surveillance. 09. September 2008. S. 26. URL http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1261344 Stand 17. August 2009. Oppermann, Bernd H. Unterlassungsanspruch und materielle Gerechtigkeit im Wettbewerbsprozess: zur Entstehung und Durchsetzung von Unterlassungsansprüchen im Wettbewerbsrecht und im gewerblichen Sonderrechtsschutz. Mohr Siebeck, 1993. S. 162. Patalong, Frank. Urteil outet YouTube als Datenkraken. 04. Juli 2008. URL http://www.spiegel.de/netzwelt/web/0,1518,563821,00.html Stand 15. August 2009. Pluta, Werner. Türkisches Gericht hebt Youtube-Blockade auf. 27. August 2008. URL http://www.golem.de/0808/61999.html Stand 15. August 2009. RainbowNet Blog Schweiz. Jason Beghe Video über Scientology – gefährliche zerstörerische Abzocke. 19. April 2008. URL http://blog.rainbownet.ch/religion/jason-beghe-video-uber-scientology-gefahrlichezerstorerische-abzocke Stand 17. August 2009. RIPE NCC. RIPE NCC Budget 2009. URL http://www.ripe.net/ripe/docs/ripe-440.html Stand 15. August 2009. RIPE NCC. Draft RIPE NCC Charging Scheme 2010. URL http://www.ripe.net/membership/billing/draft-charging-scheme-2010.html Stand 15. August 2009. Rötzer, Florian. China blockiert nach den Protesten in Tibet YouTube. 17. März 2008. URL http://www.heise.de/newsticker/China-blockiert-nach-den-Protesten-in-TibetYouTube--/meldung/105127 Stand 15. August 2009. Seidemann, Christian. Seminar Verteilte Systeme P2P – Ein Überblick: Einstieg, Was ist P2P + Beschreibung verschiedener P2P-Systeme. 18. Dezember 2003. S. 5. URL http://www.mathematik.uni-marburg.de/~gitzi/studium/P2P-EinUeberblick.pdf Stand 18. August 2009. Schlott, Stefan. Peer to Peer – Technologien. URL http://www.ulm.ccc.de/old/chaos-seminar/p2p/P2P-pdf.pdf Stand 17. August 2009. Schneider, Daniel W. Das Märchen vom „Link-Urteil“. URL http://www.knetfeder.de/recht/linkurteil/ Stand 17. August 2009. Schulte, Horst. Wahrgemacht: Bloginhalt und alle Kommentare gelöscht. 20 September 2007. URL http://www.finger.zeig.net/2007/09/20/wahrgemacht-bloginhalt-und-alle-kommentaregeloescht/ Stand 17. August 2009. Schultz, Stefan. Google bastelt den Super-Filter. URL http://www.spiegel.de/netzwelt/web/0,1518,502558,00.html Stand 17. August 2009. Scott, Carole. History of the Radio Industry in the United States to 1940. EH.Net Encyclopedia, edited by Robert Whaples. 26. März 2008. URL http://eh.net/encyclopedia/article/scott.radio.industry.history Stand 14. August 2009Vgl. Spiegel Online. Super Bowl – Big Brother beim Football. 01. Februar 2001. URL http://www.spiegel.de/netzwelt/web/0,1518,115473,00.html Stand 23. August 2009. Spielkamp, Matthias. Google: Viacom greift Internet-Kommunikation an. 02. April 2007. URL http://www.irights.info/index.php? id=81&tx_ttnews[tt_news]=287&cHash=863f96a3fa Stand 15. August 2009. Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies. December 2008. S. 8. URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson++Masters+Paper.pdf Stand 17. August 2009. TOMORROW FOCUS Portal GmbH. Thailand blockiert YouTube. 04. April 2007. URL http://www.focus.de/digital/internet/majestaetsbeleidigung_aid_52667.html Stand 15. August 2009. Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin Color Detection Techniques. S. 5. URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009. Verbraucherzentrale Bundesverband. Digitale Sicherheit: Internet vom Fair-Play weit entfernt. 12. Februar 2008. URL http://www.vzbv.de/start/index.php? page=themen&bereichs_id=8&themen_id=97&mit_id=975&task=mit Stand 18. August 2009. Viola, Paul und Jones, Michael. Robust Real-time Object Detection. 13. Juli 2001. S. 1. URL http://research.microsoft.com/en-us/um/people/viola/pubs/detect/violajones_ijcv.pdf Stand 17. August 2009. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf Stand 17. August 2009. Wilkens, Andreas. Pakistan sperrt YouTube. 25. Februar 2008. URL http://www.heise.de/newsticker/Pakistan-sperrt-YouTube--/meldung/104028 Stand 15. August 2009. YouTube, LCC. Erste Schritte: Dateiformat. 24. Juli 2008. URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=55744 Stand 14. August 2009. YouTube, LCC. Erste Schritte: Hochladen von Videos. 23. Juli 2009. URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=57924 Stand 14. August 2009. YouTube, LCC. Geschichte des Unternehmens. URL http://www.youtube.com/t/about Stand 14. August 2009. YouTube, LCC. Terms of Service. URL http://www.youtube.com/t/terms Stand 22. August 2009. YouTube, LCC. Überblick und Features. URL http://www.youtube.com/t/fact_sheet Stand 22. August 2009. YouTube, LCC. Über YouTube: Überblick und Features. URL http://www.youtube.com/t/fact_sheet Stand 19. August 2009. Zentrale zur Bekämpfung unlauteren Wettbewerbs e. V. Frankfurt/Main. Nationales Wettbewerbsrecht: Rechtsnomen. URL http://www.wettbewerbszentrale.de/de/recht/nationales/rechtsnormen/ Stand 15. August 2009. Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on Statical Skin Detection. 20. September 2004. S. 8f. URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009. Ziegler, Peter-Michael. Credit-Suisse-Analyse: YouTube fährt 470 Millionen Dollar Verlust ein. 06. Mai 2009. URL http://www.heise.de/newsticker/Credit-Suisse-Analyse-YouTube-faehrt-470Millionen-Dollar-Verlust-ein--/meldung/135824 Stand 15. August 2009. Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008. URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537 Stand 15. August 2009.