spongebob squarepants wallpaper

Transcription

spongebob squarepants wallpaper
Zentrale Distribution statt Internet
Zentralität im Internet, Videoplattformen als zentrale
Distributionskanäle und die damit verbundenen
Kontrollmöglichkeiten über „User Generated Content”
Simon Griwatz
Inhaltsverzeichnis
Einleitung.....................................................................................................1
Videoplattformen.........................................................................................4
Das dezentrale Internet...............................................................................7
Geschichte.....................................................................................................................7
Wie dezentral ist das Internet?....................................................................................11
Peer-to-Peer.................................................................................................................14
Peer-to-Peer als Internet 2.0........................................................................................18
Das zentrale Internet.................................................................................20
Wie zentral ist das Internet?........................................................................................20
Zentralisierung durch Videoplattformen.....................................................................28
Zentralisierung durch Web 2.0...................................................................................31
Zentrale Struktur als Angriffspunkt.......................................................34
Netzsperren.................................................................................................................34
Nutzungsdaten.............................................................................................................36
Automatische Verarbeitung zur Nacktheitserkennung...............................................38
Nutzerbewertungen.....................................................................................................42
Fingerprint zur Erkennung von Audio und Video......................................................44
Rechtliche Rahmenbedingungen..............................................................47
Domainregistrierung, Anbieterkennzeichnung und Abmahnungen...........................47
Störerhaftung / Linkhaftung........................................................................................50
Das DCMA – urheberrechtliche Regularien im Internet............................................52
Vorratsdatenspeicherung.............................................................................................54
Fazit............................................................................................................56
Literaturverzeichnis......................................................................................
Einleitung
"Der Rundfunk ist aus einem Distributionsapparat in einen
Kommunikationsapparat zu verwandeln. Der Rundfunk wäre
der
denkbar
großartigste
Kommunikationsapparat
des
öffentlichen Lebens, ein ungeheures Kanalsystem, das heißt, er
wäre es, wenn er es verstünde […] den Zuhörer nicht nur hören,
sondern auch sprechen zu machen und ihn nicht zu isolieren,
sondern ihn in Beziehung zu setzen."1
In der Frühgeschichte des Radios, also in der Zeit, zu der die Übertragung
elektromagnetischer Wellen über die Luft noch nicht in die zwei Bereiche Funk und
Rundfunk getrennt wurde, war dies im gewissen Sinne noch der Fall. 1888 fand die
erste Funkübertragung statt, die erste telegraphische Funkübertragung 1895. 1902
entwickelte Reginald Fessenden die Technik Musik und Sprache zu senden und
übertrug unregelmäßig Sendungen.
Because he did not provide a regular schedule of
programming for the public, Fessenden is not usually credited
with having operated the first broadcasting station.2
1910 sendete Deforest Gesang von Enrico Caruso und begann noch vor dem ersten
Weltkrieg mit täglichen Sendungen.3 1909 wurde der Junior Wireless Club von einem
elfjährigen Jungen gegründet.4 Beide sahen im Funk weder direkte Kommunikation,
noch ein zentrales Massenmedium, sondern eine Möglichkeit, durch die jeder senden
kann.
Yet, the Junior Wireless Club and other hams (such as
inventor Lee Deforest) saw radio as something completely
1
Brecht, Bertolt. Der Rundfunk als Kommunikationsapparat. In: Über Politik und Kunst. Frankfurt
am Main: Suhrkamp 1971. S. 19-24.
2
Scott, Carole. History of the Radio Industry in the United States to 1940. EH.Net Encyclopedia,
edited by Robert Whaples. 26. März 2008.
URL http://eh.net/encyclopedia/article/scott.radio.industry.history Stand 14. August 2009
3
Vgl. ebd.
4
Vgl. Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping
and Innovating Radio and The Internet S. 3
URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009
Zentrale Distribution statt Internet
1/57
different – a way for any individual to broadcast a message that
could be heard by whomever felt like tuning in. It was point-tomass communication on an individual level – akin, in theory, to
everyone having access to their own newspaper press or film
studio.5
1912 sank die Titanic und mutmaßliche Störungen des Funkverkehrs durch
Funkamateure führten zum Beginn der Regulierung.6 Wenige Jahre später, mit Anfang
des ersten Weltkriegs, wurde der Amateurfunk verboten, um die Frequenzen für
militärischen Nutzung freizuhalten.7
Nach dem ersten Weltkrieg begann ein Radioboom, an dem auch viele Funkamateure
beteiligt waren. 1927 wurde durch den Radio Act die Federal Radio Commision (FRC)
und 1934 durch den Communications Act die Nachfolgeorganisation Federal
Communication Commision (FCC) gegründet, die über die Vergabe von Frequenzen,
die maximale Leistung und Übertragungsqualität entscheiden konnten.8 Der finanzielle
Erfolg stand bei der Vergabe von Übertragungskapazitäten im Vordergrund9 und somit
war die Trennung zwischen den Funkamateuren und den Radioproduzenten besiegelt,
so dass keine 20 Jahre später, nach Ende des zweiten Weltkriegs, Medienunternehmen
das Funkspektrum beherrschten.
However, media corporations owned 85 percent of all
frequencies, and there were fewer than 150 community stations
left.10
Heute senden Funkamateure auf eigenen Frequenzen, für deren Empfang übliche
Radios nicht ausgelegt sind. Prinzipiell kann jeder senden, beim CB-Funk noch
wesentlich einfacher, aber empfangen können dies meist nur wenige.
5
Edb. S. 4.
6
Vgl. ebd. S. 4.
7
Vgl. ebd. S. 5.
8
Vgl. Messerre, Fritz. Encyclopedia of Radio: Regulation. S. 3-5.
URL http://www.oswego.edu/~messere/RadioReg.pdf Stand 19. August 2009.
9
Vgl. Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping
and Innovating Radio and The Internet S. 6.
URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009.
10 Edb. S. 7.
Zentrale Distribution statt Internet
2/57
In der Anfangszeit der breiten Internetnutzung schien es, als würde das Internet
erfüllen, was der Rundfunk nicht schaffen konnte. Die Beschränkungen aufgrund der
eingeschränkten Ressourcen und der Störmöglichkeit anderer Sender sollten mit dem
Internet aufgehoben sein und die offene, dezentrale Struktur sollte Zensur und
Unterdrückung im Internet unmöglich machen. Nun sollte es möglich sein, dass jeder
selbst zum Sender wird und damit aus der Distribution, wie sie in Radio und Fernsehen
üblich ist, Teilhabe wird.
20 Jahre nachdem das Internet für kommerzielle Betätigungen und damit für das
Massenpublikum geöffnet wurde und ein Boom stattfand, der das Internet auch für den
Massenmarkt interessant gemacht hat, kann verglichen werden, ob sich das Internet
ähnlich entwickelt.
Dazu werden im ersten Kapitel die Funktionsweise von Videoplattformen erläutert
und an Hand von YouTube einige Details betrachtet.
Im nächsten Kapitel wird insbesondere anhand seiner Entwicklung untersucht, wie
dezentral das Internet ist. Als besonders dezentrale Anwendung des Internets wird im
weiteren Peer-to-Peer als Fortentwicklung des Internetkonzepts betrachtet.
Im Kapitel Das zentrale Internet hingegen wird auf die Zentralität eingegangen, die
sich an einigen Aspekten des Internets zeigen lässt. Die Entwicklung von
Videoplattformen und Web 2.0 Anwendungen wird in Bezug auf ihre zentralisierenden
Effekte betrachtet.
Das Kapitel Zentrale Struktur als Angriffspunkt soll aufzeigen, welche technischen
Möglichkeiten bestehen, diese zentrale Struktur insbesondere in Bezug auf Videos zu
benutzen, um mit intelligenten Algorithmen und leistungsstarken Rechnersystemen die
Kontrolle über die gesendeten Inhalte zu behalten.
Das nächste Kapitel soll einige der rechtlichen Grundlagen erörtern, um zu zeigen,
dass es keine Frage der Technik ist, wie frei gesendet werden kann, sondern in großem
Maße dadurch entschieden wird, auf was sich die Gesellschaft einigt.
Das Fazit fasst die Erkenntnisse der verschiedenen Kapitel zusammen und soll das
sich ergebende Bild des Internets zwischen freiem Senden und Distribution klären.
Zentrale Distribution statt Internet
3/57
Videoplattformen
Durch die starke Verbreitung von Kameras, insbesondere Web- und Handykameras,
aber auch durch Mitschnitte aus dem Fernseher oder von DVD, ist die Zahl der
Videoproduzenten stark gestiegen. Videoplattformen bieten die Möglichkeit, Videos auf
einen Server zu laden und damit im Internet zu veröffentlichen. Andere Nutzer können
diese Videos ansehen und meist auch bewerten, kommentieren oder beantworten. Die
bekannteste Videoplattform ist YouTube und dient im folgenden oft als Beispiel.
Das Anschauen der Videos ist häufig sehr einfach und ohne Registrierung möglich.
Steht eine Breitbandinternetverbindung zur Verfügung, starten die Videos meist sofort
und können ohne Verzögerung angeschaut werden. YouTube selbst preist sich mit den
folgenden Worten an:
Hier findet man Berichte zu aktuellen Geschehnissen aus
erster Hand, Videos zu Hobbys und Interessen sowie skurrile
und ungewöhnliche Videos.11
Zum Veröffentlichen von Videos ist in der Regel eine Anmeldung mit E-MailAdresse nötig. Alles weitere gestaltet sich so leicht wie möglich. So können zum
Beispiel bei YouTube neun verschiedene Formate12 benutzt werden und nach nur sechs
einfachen13 Schritten wird ein Video hochgeladen.14 So ist sowohl das Ansehen wie
auch das Veröffentlichen von Videos auch für Personen möglich, die nur über wenig
Erfahrung im Umgang mit Computer und Internet verfügen, so dass die Nutzer „mit
YouTube […] zu den 'Sendern' von morgen [werden].“15
11 YouTube, LCC. Geschichte des Unternehmens.
URL http://www.youtube.com/t/about Stand 14. August 2009.
12 Vgl. YouTube, LCC. Erste Schritte: Dateiformat. 24. Juli 2008.
URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=55744
Stand 14. August 2009.
13 Z.B. die Auswahl der Datei auf der Festplatte oder auch nur der Klick auf einen Button sind hier mit
einfachen Schritten gemeint.
14 Vgl. YouTube, LCC. Erste Schritte: Hochladen von Videos. 23. Juli 2009.
URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=57924
Stand 14. August 2009.
15 YouTube, LCC. Geschichte des Unternehmens.
URL http://www.youtube.com/t/about Stand 14. August 2009.
Zentrale Distribution statt Internet
4/57
Bei vielen Videoplattformen gibt es die Möglichkeit, die hochgeladenen Videos in
fremde Seiten zu integrieren. Die Nutzer können so zum einen eigenen Speicherplatz
sparen und zum anderen Videos von verschiedenen Internetseiten aus promoten.
Videoeinbettung: Nutzer können ein YouTube-Video in
Facebook und MySpace, Blogs oder andere Websites einbetten,
wo sie sich jeder ansehen kann.16
Darüber hinaus gibt es weitere Funktionen, die sich von Videoplattform zu
Videoplattform unterscheiden. Beispielsweise kann zwischen öffentlichen und privaten
Videos unterschieden, Playlists können angelegt oder Lieblingsnutzer abonniert werden.
Um diesen Service bieten zu können, lassen sich Videoplattformen Nutzungsrechte
an den hochgeladenen Videos und anderen Nutzerübermittlungen einräumen. Bei
YouTube ist dies
eine weltweite, nicht-exklusive und gebührenfreie Lizenz ein
(mit dem Recht der Unterlizenzierung) bezüglich der Nutzung,
der Reproduktion, dem Vertrieb, der Herstellung derivativer
Werke,
der
Ausstellung
Nutzerübermittlung
Verfügung-Stellen
im
der
und
der
Aufführung
Zusammenhang
mit
Dienste
anderweitig
und
dem
der
Zurim
Zusammenhang mit dem Zur-Verfügung-Stellen der Webseite
und
YouTubes
Geschäften,
einschließlich,
aber
ohne
Beschränkung auf Werbung für und den Weitervertrieb der
ganzen oder von Teilen der Webseite (und auf ihr basierender
derivativer Werke) in gleich welchem Medienformat und gleich
über welche Verbreitungswege;17
Darüber hinaus behalten sich Videoplattformen vor, jedes Video oder jeden Nutzer
aus ihrem Angebot entfernen zu können, wenn sie mit diesen nicht zufrieden sind. Bei
YouTube gelten neben gesetzlichen Vorgaben auch ein Verstoß gegen irgendeine
Vorschrift der YouTube-Bestimmungen oder auch nur ein Verhalten, dass darauf
schließen lässt, man sei „nicht willens oder in der Lage dazu [ist], die Vorschriften der
16 YouTube, LCC. Überblick und Features.
URL http://www.youtube.com/t/fact_sheet Stand 22. August 2009.
17 YouTube, LCC. Terms of Service.
URL http://www.youtube.com/t/terms Stand 22. August 2009. Hervorhebungen im Original.
Zentrale Distribution statt Internet
5/57
Bestimmungen einzuhalten“18. Außerdem beendet YouTube die Vertragsbeziehung,
wenn „das Zur-Verfügung-Stellen der Dienste an Sie durch YouTube nach YouTubes
Einschätzung wirtschaftlich nicht mehr rentabel ist“19.
Videoplattformen bieten somit eine Präsentationsplattform für Videos im Internet
und die Möglichkeit der Vernetzung mit Rezipienten und anderen Videoproduzenten.
Der Videoproduzent räumt YouTube dafür unentgeltlich die wirtschaftliche Verwertung
seines Werkes im Internet aber auch darüber hinaus ein.
18 Edb.
19 Edb.
Zentrale Distribution statt Internet
6/57
Das dezentrale Internet
Seitdem der Begriff Internet durch die Presse geistert, wird insbesondere der Aspekt
der Dezentralität, ob im positiven oder negativen Sinne, hervorgehoben. Auf der einen
Seite wird sie gepriesen, weil sie es jedem Regime unmöglich machen würde, weiterhin
Informationen zu unterdrücken. Auf der anderen Seite wird sie verteufelt, weil
Kriminelle nicht gestoppt oder zur Rechenschaft gezogen werden könnten.
In diesem Kapitel möchte ich mich damit auseinandersetzen, wie dezentral das
Internet ist. Dafür werden anhand der Entwicklungsgeschichte des Internet sowohl die
Motivation, die Designentscheidungen und technische Umsetzung erläutert und in
Zusammenhang gestellt. Außerdem wird die Entwicklung von Peer-to-Peer-Netzwerken
betrachtet, die das grundlegende Design des Internets wieder aufgreifen und
Gleichberechtigung und Dezentralität wieder in den Fokus der Kommunikation im
Internet stellen.
Geschichte
Die Geschichte des Internet begann mit dem Start der Sputnik I im Jahr 1957 durch
die Sowjetunion.20 Die USA unter der Führung von Dwight D. Eisenhower sahen sich
nach diesem ersten Satellitenstart zwei gravierenden Problemen gegenüber. Zum einen
machte der Start der Sputnik klar, dass die Sowjetunion über die Möglichkeiten verfügte
über große Distanz einen schlagkräftigen Angriff zu führen. Zum andern machte er
deutlich, dass die USA auf wissenschaftlichen Gebiet hinter der Sowjetunion zurücklag.
Dieser Punkt war für die Amerikaner weit schmerzlicher, da sie von einem
technologischen Vorsprung durch Demokratie und Marktwirtschaft ausgegangen waren.
So wurde 1958 die ARPA gegründete, um die wissenschaftlichen Ressourcen zu
vernetzen.
20 Vgl. Elon University School of Communications. Imaging the Internet´s: Quick Look at the Early
History of the Internet.
URL http://www.elon.edu/e-web/predictions/early90s/internethistory.xhtml Stand 14. August 2009.
Zentrale Distribution statt Internet
7/57
Eisenhower believed in the great value of science, and
formed ARPA in 1958 in a quest for "the scientific
improvement" of U.S. Defense.21
Wichtige Arbeiten waren im folgenden 1961 „Informationsfluß in Netzwerken“ von
Leonard Kleinrock, 1962 „Online-Kommunikation auf dezentraler EinzelcomputerBasis“ von J.C.R. Licklinder und W.Clark und 1964 „Organisierte KommunikationsNetzwerke“ von Paul Baran.22
Der für das RAND arbeitende Paul Baran beschäftigte sich in dieser Arbeit mit den
Vorteilen von Redundanzen in Kommunikationsnetzwerken.
In particular, the Memorandum is directed toward examining
the use of redundancy as one means of building communications
systems to withstand heavy enemy attacks.23
In diesem Zusammenhang vergleicht er zentralisierte, dezentralisierte und verteilte
Netzwerke, die in Abbildung 1 dargestellt sind. Er kommt zu dem Schluss, dass ein
verteiltes Netz die Anforderungen erfüllen kann.
Diese Überlegungen fanden auch Eingang in die Entwicklung der ersten Netzwerke
der ARPA. Dabei stand nicht die Widerstandsfähigkeit gegen feindliche Attacken im
Vordergrund, sondern die Widerstandsfähigkeit gegen technische Defekte. Insbesondere
wenn die technische Infrastruktur nicht zu teuer sein soll, sind die Komponenten oft
fehleranfällig. Die ersten zwei Punkte in der Zusammenfassung der Arbeit von Paul
Baran machen diese Ausrichtung schon deutlich.
1) It appear theoretically possible to build large networks
able to withstand heavy damage whether caused by unreliability
of components or by enemy attack.
2) Highly reliable and error-free digital communication
systems using noisy links and unreliable components can be
21 Kaul, Michael. Die Geschichte des Internet. 04. März 2001.
URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009.
22 Vgl. ebd.
23 Baran, Paul. On Distributed Communications: I. Introduction To Distributed Communications
Networks. United States Air Force Project RAND, August 1964. S. iii.
URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf Stand 17. August 2009.
Zentrale Distribution statt Internet
8/57
built without exeeding the present-day state-of-the-art of
electronic components – – provided we use digital modulation.24
Abbildung 1: Ein zentralisiertes (A), ein dezentralisiertes (B) und verteiltes
Netzwerk (C)
Quelle: BBaran, Paul. On Distributed Communications: I. Introduction To
Distributed Communications Networks. United States Air Force Project RAND,
August 1964. S. 2.
URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf
Stand 17. August 2009
1965 werden in der ARPA Studie „Kooperatives Netzwerk mit time-sharing
Computern“ zwei Computer über eine Telefonleitung miteinander verbunden. Ein
weiterer Computer wurde später angeschlossen, so dass das erste experimentelle
Netzwerk entstand.25
1969 wird das ARPANET erstellt, welches zu Beginn aus vier Knoten bestand. Diese
waren das UCLA, das Stanford Research Institute (SRI), die Universität von Californien
(USBC) und die Universität von Utah.26 Die Abbildung 2 zeigt die Verbindung der
Rechner.
24 Baran, Paul. On Distributed Communications: XI. Summary Overview. United States Air Force
Project RAND, August 1964. S. v.
URL http://www.rand.org/pubs/research_memoranda/2006/RM3767.pdf Stand 17. August 2009.
25 Vgl. Kaul, Michael. Die Geschichte des Internet. 04. März 2001.
URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009.
26 Vgl. ebd.
Zentrale Distribution statt Internet
9/57
Abbildung 2: ARPA Netzwerk vom Dezember 1969
URL http://www.michaelkaul.de/Geschichte/1969_4-node_map.gif
Stand 17. August 2009.
Zu sehen ist ein Ring aus drei Rechnern, von denen einer zusätzlich mit einem
weiteren Rechner verbunden ist. Es handelt sich nicht um ein verteiltes Netzwerk,
sondern ansatzweise um ein dezentrales Netzwerk. Störanfälligkeit aufgrund von nicht
ausreichender Redundanz ist gegeben, insbesondere die Universität Utah kann leicht
vom Netz getrennt werden. Das auch im weiteren Aufbau des Netzes nicht unbedingt
darauf geachtet wurde, einen für starke Angriffe ausgelegtes Netz zu bauen, zeigt ein
Vorfall im Jahr 1986.
Neu England ( USA ) wurde komplett vom Netz getrennt, als
AT&T einen Glasfaser-Kabel-Schaden zwischen Newark ( New
Jersey ) und White Plains ( New York ) hatte. Das war eine
erschütternde Tatsache, denn alle 7 Leitungen, die Neu England
mit dem ARPANET verband, liefen durch ein einziges Kabel.27
In den weiteren Jahren wurden weitere Knoten an das Netzwerk angeschlossen und
Anwendungen für das entstehende Netzwerk entwickelt. Als Meilensteine sind hier
1971 die Entwicklung von E-Mail, 1972 der erste Computer-Chat, 1979 USENET, 1984
Einführung des Namensystems für Domains (DNS) und 1988 IANA (Internet Assigned
Numbers Authority) zu nennen.28
27 Edb.
28 Vgl. ebd.
Zentrale Distribution statt Internet
10/57
Ab 1989 fand ein großer Umbruch im Netz statt. Kommerzielle Anbieter bekamen
die Möglichkeit, Dienste zu betreiben und auch Umsätzen und Gewinne zu generieren.
Von einem Forschungsnetzwerk, das Wissenschaftler und ihre Ressourcen über weite
Räume zu einem Netzwerk zusammenschließen sollte, um nach dem Sputnik-Schock
ein breites und tiefes wissenschaftliches Potential aufzubauen, wurde das Internet nun
zu einem breiten Angebot, das sich mit Kommunikation und Information an das
zahlungskräftige Publikum der Industrienationen richtete. 1990 hört das ARPANET auf
zu existieren. Im selben Jahr ging der erste kommerzielle Provider online und bot eine
Direkteinwahl ins Internet. 1991 wurde das World-Wide-Web (WWW) über CERN ins
Netz gebracht, wird zum Erfolg und erreicht 1993 Wachstumsraten von 341.634%.
1994 ist WWW der zweitpopulärste Anbieterservice im Internet nach FTP-DATA. 1995
übertrifft es sogar dies.29
Mit dem auf WWW, E-Mail und Domainnamen zentrierten Internet sind wir bei dem
Internet angekommen, dass der Großteil der Nutzer als Internet bezeichnet,
beziehungsweise nutzt, aber nur einen Teil der Dienste darstellt, die im Internet
vorhanden beziehungsweise möglich sind.
Wie dezentral ist das Internet?
Das Internet sollte es ermöglichen, die beschränkten Ressourcen einzelner
Forschungseinrichtungen mit in Massen produzierbaren Komponenten ausfallsicher zu
verbinden und so effizienter zu nutzen. Arbeiten, wie die von Paul Baran zu verteilten
Netzen fanden Einfluss, so dass auf einen zentralen Netzknoten, einem Ort, an dem alle
Verbindungen zusammenlaufen, verzichtet wurde. Jede Information kann so
verschiedene Wege durch das Netz nehmen und sollte aufgrund von technischen
Problemen oder Sperrmechanismen ein Weg ausfallen, stehen andere Wege zu
Verfügung.
How Stuff Works zeigt in einer Animation den Weg der Informationen durch das
Internet (siehe Abbildung 3). Das Internet wird dabei als verteiltes Netzwerk dargestellt
in dem einzelne ausfallende Knoten oder Leitungen keine Auswirkung auf das
Restnetzwerk haben. Allerdings handelt es sich hierbei um eine vereinfachte
Illustration, die dazu dienen soll das Internet zu verstehen.
29 Vgl. ebd.
Zentrale Distribution statt Internet
11/57
Abbildung 3: So stellt sich How Stuff Works den Weg zwischen dem Nutzer und
einem Internet Server vor.
URL http://static.howstuffworks.com/flash/router-inet.swf Stand 17. August 2009.
Anhand des ARPA Netzwerks von September 1971 (siehe Abbildung 4) mit 18
Knoten kann man diese Beobachtungen aber auch an einem Internet(-vorgänger)
machen, der wirklich existierte. Es gibt keinen Knoten und keine Verbindung, dessen
Ausfall dazu führen würde, dass ein anderer Knoten vom Netz getrennt wird. Zwischen
SRI und UCLA bestehen vier voneinander unabhängige Verbindungen – es können also
Abbildung 4: ARPA Netzwerk vom September 1971.
URL http://www.let.leidenuniv.nl/history/ivh/arpanet1.gif
Zentrale Distribution statt Internet
12/57
bis zu vier Verbindungen gestört werden, bis ein Kontakt unmöglich ist. Wege, die sich
in mindestens einem Knoten unterscheiden gibt es sogar sieben, so dass zum Beispiel
nach Ausfall des Knoten SDC immer noch vier Verbindungen zur Verfügung stehen.
Mit steigender Größe des Netzwerks nehmen auch die Verbindungen zu, die sich in
einem Knoten unterscheiden, so dass es immer einfacher wird einzelne Knoten zu
entfernen ohne dass dies Auswirkungen auf eine spezielle Verbindung oder das
Restnetzwerk haben. Die Redundanz führt dazu, dass ein Ausfall von einzelnen Knoten
oder Verbindungen weniger dramatisch ist.
Abbildung 5 zeigt das ARPANet im Oktober 1980, die Knoten und Verbindungen
haben
deutlich
zugenommen.
Die
erhöhte
Redundanz
führt
zu
weiterer
Ausfallsicherheit. Das heutige Internet besteht aus einer Vielzahl von Knoten und
Verbindungen. Die Zunahme der an das Internet angeschlossenen Hosts von 12.881.000
im Juli 1996 auf 93.047.785 im Juli 2000 und einer weiter steigenden Tendenz, lässt
darauf schließen, dass auch die Anzahl der Netzknoten stark gestiegen ist..30
Abbildung 5: ARPA Netzwerk vom Oktober 1980.
URL http://www.let.leidenuniv.nl/history/ivh/arpanet2.gif Stand 17. August 2009.
Als Nebeneffekt der Internetarchitektur ist die Kontrolle über das Internet allerdings
erschwert. Als Beispiel kann die Nutzung von Proxys genannt werden. Durch die
Verbindung mit einem Proxy-Server können Ziele, die über den Proxy hinaus gehen
30 Vgl. ebd.
Zentrale Distribution statt Internet
13/57
verschleiert werden. Um Zugriffe auf ein bestimmtes Ziel im Internet (z.B.:
Internetseite) zuverlässig zu verhindern, müssten also auch alle Verbindungen zu ProxyServern unterbunden werden.
Eine sichere Möglichkeit, den Zugriff auf bestimmte Inhalte zu unterbinden, ist,
diese zu entfernen. Dies kann, verstoßen die Inhalte gegen geltendes Recht des Landes,
in dem sich der Server der Inhalte befindet, relativ leicht erfolgen, so lange es sich um
einen „stationären“ Server31 handelt. Handelt es sich aber um Server, die sowohl zeitlich
als auch räumlich variieren können32, ist die Entfernung der Inhalte schon schwerer.
Peer-to-Peer
Bei einem Peer-to-Peer-Netzwerk handelt es sich um ein Overlay-Netzwerk. Dies
bedeutet, dass es auf einem anderen Netzwerk aufliegt.33 Es handelt sich also nicht um
die physischen Verbindungen zwischen den einzelnen Rechnern, sondern um eine
Organisationsstruktur für die Rechner eines Netzwerk mit dem Ziel, Ressourcen zu
teilen, wie Speicherplatz, Bandbreite, Rechenleistung oder Inhalte. So wird zum
Beispiel bei Seti@home zum größten Teil Rechenleistung zur Verfügung gestellt und
bei Filesharing-Netzen werden insbesondere Speicherplatz, Bandbreite und Inhalte
geteilt.
Für Peer-to-Peer Netzwerke gibt es unterschiedliche Definitionen und die meisten
Peer-to-Peer Netzwerke erfüllen nicht alle Kriterien. Ihnen ist aber gemein, dass sie sich
vom Client-Server Modell abgrenzen und auf ein Domain Name System verzichten
können. Statt aus Verbindungen zwischen einem Client und Server bestehen bei Peerto-Peer-Netzwerken Verbindungen zwischen gleichberechtigten Netzteilnehmern, so
dass alle Netzteilnehmer sowohl Server- als auch Client-Aufgaben übernehmen, je
nachdem, welche Funktion gebraucht wird. Es gibt viele Anwendungsmöglichkeiten
und entsprechende Anpassungen und Skalierungen des Peer-to-Peer-Konzeptes.
31 Z.B. wenn es sich um einen kommerzieller Webserver zur Bereitstellung von Webspace handelt.
32 Z.B. wenn es sich um Peer-to-Peer-Netzteilnehmer oder Webserver, der in fremden, ungeschützten
W-LANs betrieben wird, handelt.
33 Vgl. Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur. S. 2.
URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009
Zentrale Distribution statt Internet
14/57
Abbildung
6:
Client-Server-
Quelle:
Modell.
Quelle:
Abbildung 7: Peer-to-Peer-Modell
Weinbrenner, Stefan.
Filesharing-Systeme:
Napster,
Freenet, Gnutella, KaZaA. S. 3.
duisburg.de/courses/p2p_ws03/file
sharing.pdf Stand 17. August 2009.
Weinbrenner, Stefan.
Filesharing-Systeme:
Napster,
Freenet, Gnutella, KaZaA. S. 4.
URL http://www.is.informatik.uniduisburg.de/courses/p2p_ws03/filesha
ring.pdf Stand 17. August 2009.
Das wesentlichste Merkmal von Peer-to-Peer-Architekturen ist die Dezentralität.
Dies umfasst sowohl Ressourcen wie Speicher, Rechenleistung und Inhalte, als auch
Verwaltungsinformationen des Peer-to-Peer-Netzwerks. „Vorteile eines verteilten
Systems sind verbesserte Erweiterbarkeit, höhere Verfügbarkeit und größere
Flexibilität“34 Es kann aber auch zu Problemen führen, so dass das System sich nicht
immer wie gewünscht verhält. Außerdem wird es insbesondere bei großen Netzwerken
sehr schwer, eine globale Sicht auf das System zu erhalten und damit auch die Kontrolle
über das gesamte Netzwerk zu behalten.
Aber darüber hinaus „[sind] Skalierbarkeit und Fehlertoleranz […] zentrale Probleme
in verteilten Systemen, die eine grundlegende Motivation für eine P2P-Architektur
darstellen“35. Die Konzentration der Ressourcen auf einen oder wenige Netzknoten beim
Client-Server-Modell führt dazu, dass diese hohe Rechen- und Netzwerkkapazitäten
bereithalten müssen, um auch viele Anfragen in akzeptabler Zeit bearbeiten zu können.
Sie stellen so Engpässe dar, deren Ausfall zu einem Ausfall des gesamten Dienstes
führen kann. In Peer-to-Peer-Netzwerken werden hingegen sowohl Serverlast als auch
34 Seidemann, Christian. Seminar Verteilte Systeme P2P – Ein Überblick: Einstieg, Was ist P2P +
Beschreibung verschiedener P2P-Systeme. 18. Dezember 2003. S. 5.
URL http://www.mathematik.uni-marburg.de/~gitzi/studium/P2P-EinUeberblick.pdf
Stand 18. August 2009.
35 Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur. S. 1.
URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009.
Zentrale Distribution statt Internet
15/57
Bandbreitenverbrauch möglichst gleichmäßig verteilt. Probleme, die sich im ClientServer-Modell durch ungleichmäßige Verteilung der Lasten zwischen Clients und
Server ergeben, werden so strukturell beseitigt.36
Selbstorganisationsfähigkeit bezeichnet die Fähigkeit eines Systems ohne zentrale
Koordination zu funktionieren und spielt auf allen Systemebenen von Peer-to-PeerNetzwerken eine Rolle. Die fehlende Kontrolle macht es nötig, dass die Aktionen der
einzelnen Peers als gesamtes ein komplexes Systemverhalten ergeben. Auf Änderungen
und Fehler kann so direkt und lokal reagiert werden, was die Ausfallsicherheit und die
Flexibilität des Netzwerks verbessert.37
Peer-to-Peer mit zentralen Servern
Schon bevor Napster 1998 als erstes Peer-toPeer-Netzwerk für Aufmerksamkeit
gesorgt hat38, wurde mit dem 1996 veröffentlichten Instant Messaging Programm, ICQ,
die erste Anwendung der Peer-to-Peer-Methode im Massenmarkt eingesetzt. In diesem
Fall besteht eine Peer-to-Peer-Verbindung, wenn sich einzelne Clients Nachrichten
zusenden. Der zentrale Server sorgt für die Verbindung der Clients, so dass es sich bei
ICQ um ein Peer-to-Peer-Netzwerk mit zentralen Servern (Abbildung 8) handelt.39
Auch Napster war auf einen zentralen Server angewiesen, der die Lokalisation der
Daten ermöglichte. Als Napster 1998 entwickelt wurde, reichte ein zentraler Server. Im
Laufe des Bestehens wurde dieser durch einem Servercluster mit ca. 160 Servern
ersetzt.40 Im Februar 2001 nutzten 80 Millionen Menschen weltweit den Dienst. Das
Tauschvolumen betrug im Januar 2001 ca. zwei Milliarden Dateien. Aufgrund von
36 Vgl. ebd. 1f.
37 Vgl. ebd. S. 5.
38 Djordjevic, Valie; Kreutzer, Till und Spielkamp, Matthias. Urheberrecht im Alltag: Kopieren,
Bearbeiten, Selber Machen. 2. Auflage. Bundeszentrale für politische Bildung, Bonn, 2008. S. 47.
URL http://www.bpb.de/files/0GKFWO.pdf Stand 17. August 2009.
39 Schlott, Stefan. Peer to Peer – Technologien.
URL http://www.ulm.ccc.de/old/chaos-seminar/p2p/P2P-pdf.pdf Stand 17. August 2009.
40 Vgl. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 9.
URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf
Stand 17. August 2009.
Zentrale Distribution statt Internet
16/57
Urheberrechtsverletzungsklagen wurde der Betrieb des zentralen Napster-Servers
eingestellt, obwohl versucht wurde, durch Blocken urheberrechtlich geschützter
Dateien, die nötigen Vorgaben der „sicherer Hafen“-Regel des DMCA zu erfüllen.41
Abbildung 8: Peer-to-Peer mit zentralen Servern - Pfeile stellen Suchanfragen
dar, Linien Datenübertragungen.
Quelle: Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella,
KaZaA. S. 9.
URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf
Stand 17. August 2009.
Peer-to-Peer mit dezentralen Servern
Die Abbildung 9 zeigt ein Peer-to-Peer-Netzwerk mit dezentralen Servern, wie das
im März 2001 veröffentlichte KaZaA. Die dezentralen Server übernehmen
Verwaltungsaufgaben, wie zum Beispiel die Bearbeitung von Suchanfragen. Diese
verfügen über höhere Rechen- und Netzkapazitäten, um eine möglichst schnelle
Verarbeitung zu gewährleisten. KaZaA macht Clients automatisch zu Servern, wenn
diese Bedingungen erfüllt sind. Es gibt aber auch Peer-to-Peer-Netzwerke mit
dezentralen Servern, in denen eine spezielle Software benötigt wird, um einen Server zu
betreiben.42
41 Vgl. Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies.
December 2008. S. 8.
URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf
Stand 17. August 2009.
42 Vgl. Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA. S. 20-24.
URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf
Stand 17. August 2009.
Zentrale Distribution statt Internet
17/57
Abbildung 9: Peer-to-Peer mit dezentralen Servern - Pfeile stellen Suchanfragen
dar, Linien Datenübertragungen.
Quelle: Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella,
KaZaA. S. 15
URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf
Stand 17. August 2009.
Reines Peer-to-Peer
Ein reines Peer-to-Peer-Netzwerk stellt Gnutella, das im Jahr 2000 veröffentlich
wurde, dar. Reine Peer-to-Peer-Netzwerke erfüllen die für Peer-to-Peer-Netzwerke
geltenden Merkmale fast komplett. Sie bauen ein verteiltes Netzwerk gleichberechtigter
Teilnehmer auf, in dem auch die Organisation verteilt gelöst wird, so dass keiner der
Teilnehmer eine zentrale Rolle spielt. Das entstehende Netzwerk ist in Abbildung 6 zu
sehen.
Peer-to-Peer als Internet 2.0
Peer-to-Peer greift den Grundgedanken des Internet wieder auf, dass jeder
Internetknoten mit jedem anderen Internetknoten bidirektional kommunizieren, also
sowohl als Client als auch als Server fungieren kann.43 Es ist nicht mehr nötig,
Speicherplatz und Übertragungskapazität von fremden, meist kommerziellen Webspaceund Serveranbietern zu nutzen. Das zuvor mit Komplikationen, wie Administration,
Zwangstrennung und wechselnde IP-Adressen verbundene Aufsetzen eines eigenen
Webservers wird unnötig, um eigene Inhalte mit teils eigener Infrastruktur im Internet
zu veröffentlichen. Dabei könnte auf die Nutzung der Ressourcen anderer Nutzer mit
Ausnahme der Ressourcen für Verwaltungsaufgaben verzichtet werden, so dass direkt
mit der Verbreitung eigener Inhalte begonnen werden kann, ohne dass ein anderer
Nutzer explizit Ressourcen dafür freigeben muss.
43 Vgl. ebd. S. 1
Zentrale Distribution statt Internet
18/57
Das Nutzen fremder Ressourcen findet dabei auf einer Basis der Ressourcenteilung
statt, so dass meist jeder Teilnehmer bestimmte Ressourcen zur Verfügung stellen
muss44. Teilweise existieren aber auch speziellere Mechanismen, um die Bereitstellung
von Ressourcen zu belohnen. Die zur Verfügung gestellten Ressourcen der einzelnen
Nutzer bilden somit die Ressourcen des Peer-to-Peer-Netzes, die wiederum allen
Nutzern zur Verfügung stehen. Dabei werden die benötigten Ressourcen selbst in den
Mittelpunkt gestellt und nicht der spezifische Ort, an dem sich diese befinden.
Internetnutzer, die ihren Zugang nur als Rezipienten nutzen, werden als Anbieter von
Ressourcen Teil des Netzwerks und in verteilten Peer-to-Peer-Netzwerken auch Teil der
Organisation des Netzwerks. Jeder Peer-to-Peer-Nutzer wird so zu einem Sender.
Insbesondere an den Daten, die zur Organisation nötig sind, kann man aber auch
sehen, dass man nicht immer Herr über die auf dem eigenen Sender gesendeten
Informationen ist.45 Je nach Peer-to-Peer-Netzwerk gibt es verschiedene Möglichkeiten,
auf die bereitgestellten Ressourcen und die damit übertragenen Daten Einfluss zu
nehmen. Peer-to-Peer-Netzwerke erweitern also das Internetmodell auf die Endnutzer,
wobei diese nicht die dezentrale Verbindung, sondern die dezentrale Organisation und
dezentrale Bereitstellung von Ressourcen übernehmen.
44 Z.B. müssen bei vielen Torrent-Clients 5kb Upload freigegeben werden, um maximalen Download
zu erhalten.
45 Z.B. ist es bei vielen Filesharing-Diensten üblich empfangene Inhalte auch weiter zu verbreiten.
Zentrale Distribution statt Internet
19/57
Das zentrale Internet
In diesem Kapitel möchte ich mich damit auseinandersetzen, wie zentral das Internet
ist. Dafür werden verschiedene Elemente von der Netztopologie bis zur Organisation
des Internets im Bezug auf ihren zentralisierenden Charakter untersucht.
Im Weiteren wird untersucht, inwieweit Videoplattformen einen zentralisierenden
Charakter haben und gezeigt, wie stark die Dominanz einer einzigen Videoplattform,
YouTube, ist. Da Videoplattformen Teil des Web 2.0 sind, wird am Ende dieses
Kapitels gezeigt, inwiefern sich die Beobachtungen bei Videoplattformen auf andere
Web 2.0 Anwendungen übertragen lassen.
Wie zentral ist das Internet?
Das Internet ist aus technischer Sicht dezentral und auf theoretischer Ebene sogar
verteilt. Die Komponenten sind entworfen worden, um dezentral funktionieren zu
können. Es ist aber nicht zwingend notwendig, sie auch dezentral einzusetzen, so dass
sich in der konkreten Implementierung Ansätze von Zentralität finden lassen. Zwar
kann nicht der zentrale Punkt des Internet ausgemacht werden, aber einzelne
hierarchisch strukturierte, besonders herausgehobene Zentralen. Deutlicher wird dies
auf organisatorischer, administrativer Ebene. Die folgenden Abschnitte sollen einige
Aspekte der Frage, wie zentral das Internet ist, beleuchten.
Hierarchisch aufgebaute Netzwerke
Beim Internet handelt es sich nicht um ein Netzwerk gleichberechtigter Netzknoten.
Die spezifische Vernetzung jedes einzelnen Netzwerks kann sich stark unterscheiden.
Üblicherweise
werden
solche
Netzwerke
hierarchisch
aufgebaut, das heißt mehrere Benutzer verbinden sich über
eines oder mehrere Gateways mit dem nächst größeren
Netzwerk.46
46 Espenschied, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001.
URL http://odem.org/insert_coin/mythen/dezentral.html Stand 17. August 2009.
Zentrale Distribution statt Internet
20/57
So weist die vom Opte Projekt erstellte Karte des Internets (siehe Abbildung 10)
sowohl stark vernetzte Bereiche auf, als auch Sternnetzwerke, die einen hohen Grad an
Zentralität aufweisen.
Abbildung 10: Vom Opte Projekt am 23.11.2003 veröffentlichte Karte des
Internets.
URL http://bitcasta.v1.o1.fra1.bitgravity.com/blyon/opte/maps/static/1069646562.LGL.2D.700x700.pn
g Stand 17. August 2009.
Eine Studie der Bar Ilan Universität hat sich näher mit den Unterschieden der
Netzknoten befasst und stellte fest, dass es nur wenige sehr wichtige, aber auch eine
große Zahl gleichberechtigter vernetzter Netzknoten gibt. In Abbildung 11 ist dieses
Ergebnis grafisch aufbereitet.
The researchers' results depict the Internet as consisting of a
dense core of 80 or so critical nodes surrounded by an outer
shell of 5,000 sparsely connected, isolated nodes that are very
much dependent upon this core. Separating the core from the
Zentrale Distribution statt Internet
21/57
outer shell are approximately 15,000 peer-connected and selfsufficient nodes.47
Bei Ausfall der wichtigsten Netzknoten würde 30% der äußeren Netzknoten getrennt
und für das restliche Netzwerk würde die Geschwindigkeit stark eingeschränkt werden.
Abbildung 11: Darstellung des Internet nach einer Studie der Bar Ilan
Universität.
URL
http://www.technologyreview.com/files/11339/network_colored_x220.jpg
Stand 17. August 2009.
Betrachtet man die leistungsstarke Verbindungen in Abbildung 12, die das Backbone
des Internet ausmachen, sieht man, dass es international einige sehr leistungsfähige
Verbindungen gibt und zwischen einigen Bereichen der Welt nur wenige und
leistungsschwache Verbindungen bestehen.
Keine dieser drei Betrachtungsweisen stellt das Internet korrekt dar. Sie nähern sich
dem Objekt jeweils von einem anderem Blickwinkel und durch unterschiedliche
47 Graham Rowe, Duncan. Mapping the Internet. 19. Juni 2007.
URL http://www.technologyreview.com/communications/18944/page1/ Stand 17. August 2009.
Zentrale Distribution statt Internet
22/57
Methoden. In allen drei Darstellungen sind aber Hierarchien und Zentralität zu
erkennen.
Abbildung 12: Die internationalen Internetverbindungen mit hohen Bandbreiten.
URL
http://www.telegeography.com/products/map_internet/wallpaper/InternetMap09_wa
ll1.jpg Stand 17. August 2009.
Provider
Als einzelner Nutzer ist man darauf angewiesen, Zugang zum Internet zu erhalten.
Zu diesem Zweck muss man sich bei einem Internet-Provider einloggen. Dieser stellt
den Vermittlungspunkt zwischen dem einzelnen Nutzer und dem Internet her. In der
Netzwerkarchitektur wäre dies ein zentrales Sternnetz, welches an das dezentrale
Internet angeschlossen ist. Die Abbildung 13 stellt dies dar.
Because the ISP is the gateway — the first hop — to the
Internet, almost any communication sent to anybody online is
accessible first by the ISP.48
Fällt der Provider weg, besteht weiterhin das Internet, die durch das Sternnetzwerk
angeschlossenen Nutzer erhalten aber keine Verbindung mehr. Darüber hinaus erlaubt
dieser zentrale Punkt eine umfassende Kontrolle über die von oder zu den
angeschlossenen Rechner verlaufenden Daten.
48 Ohm, Paul. The Rise and Fall of Invasive ISP Surveillance. 09. September 2008. S. 26.
URL http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1261344 Stand 17. August 2009.
Zentrale Distribution statt Internet
23/57
Imagine that an ISP conducts complete monitoring on one
user for one month. The data stored comprises a complete
transcript of everything the user has done on the Internet for the
month. It includes a replica copy of every web page visited and
every e-mail message sent or received. It includes every instant
message, video download, tweet, facebook update, file transfer,
VoIP conversation, and more.49
Abbildung 13: Verbindung zwischen Nutzern, Provider und dem Internet.
IP-Nummern-Vergabe
Mit dem Erhalt einer IP-Adresse besteht die Möglichkeit das Internet zu nutzen. Wie
eine Postadresse im Verteilernetz der Post dazu dient, dass ein Brief auf einen speziellen
LKW geladen wird, dient die IP-Adresse dazu, dass Router die Datenpakete in die
richtigen Teilnetze senden. Die Vergabe der IP-Adressen ist hierarchisch organisiert.50
Die Internet Assigned Numbers Authority (IANA), eine Unterorganisation der Internet
Corporation for Assigned Numbers and Names (ICANN), ist für die Vergabe der IPAdressen zuständig.51
49 Edb. S. 26.
50 Vgl. IANA. Number Resources.
URL http://www.iana.org/numbers/ Stand 15. August 2009.
51 Vgl. ebd.
Zentrale Distribution statt Internet
24/57
Adressbereiche wurden vor 2005 auch direkt an Organisationen, Firmen oder
Universitäten vergeben. Es bestanden aber auch schon drei regionale Vergabestellen,
ARIN für Amerika und Teile Afrikas, RIPE NCC für Europa, den Mittleren Osten und
Teile Afrikas sowie APNIC für den asiatisch-pazifischen Raum.I52 2002 kam LACNIC,
zuständig für Leiteinamerika inklusive der Karibik, dazu53. Für Afrika wurde 2005 die
regionale Vergabestelle AfriNIC anerkannt.54
Seit 2005 werden auch keine Adressbereiche mehr direkt vergeben, sondern nur noch
über diese fünf regionalen Vergabestellen, wobei ARIN nur noch für Nordamerika und
RIPE NCC für Europa, Naher Osten und Zentralasien zuständig ist. Sie vergeben
wieder Adressbereiche an lokale Vergabestellen, in der Regel Internet Service Provider,
die einzelne Adressen an ihre Kunden weitergeben.55 2008 kontrollierte RIPE NCC zum
Beispiel ca. 6000 lokale Vergabestellen.56 Um sich als lokale Vergabestelle zu
registrieren, muss man Mitglied der regionalen Vergabestellen werden. Bei RIPE NCC
kostet dies neben einer einmaligen Gebühr von 2000,- € jährlich mindestens 1300,- €.57
Die regionalen Vergabestellen haben nicht nur die Möglichkeit, IP-Adressen zu
vergeben, sondern auch diese wieder einzuziehen. Neben einem Verstoß gegen
niederländisches Recht, reicht ein Verstoß gegen die Nutzungsbedingungen von RIPE
NCC aus, um IP-Adressen zu entziehen.58
52 Vgl. ICANN. Criteris for Establishment of New Regional Internet Registries. 04. Juni 2001.
URL http://www.icann.org/en/icp/icp-2.htm Stand 15. August 2009.
53 Vgl. IANA. IANA Report: Recognition of LACNIC as a Regional Internet Registry.
07. November 2002.
URL http://www.iana.org/reports/2002/lacnic-report-07nov02.html Stand 15. August 2009.
54 Vgl. IANA. IANA Report: Recognition of AfriNIC as a Regional Internet Registry. 06. Mai 2005.
URL http://www.iana.org/reports/2005/afrinic-report-05aug2005.pdf Stand 15. August 2009.
55 Vgl. IANA. Number Resources.
URL http://www.iana.org/numbers/ Stand 15. August 2009.
56 Vgl. RIPE NCC. RIPE NCC Budget 2009.
URL http://www.ripe.net/ripe/docs/ripe-440.html Stand 15. August 2009.
57 Vgl. RIPE NCC. Draft RIPE NCC Charging Scheme 2010.
URL http://www.ripe.net/membership/billing/draft-charging-scheme-2010.html
Stand 15. August 2009.
58 Vgl. Cima, Andrea, Fragkouli, Athina und Wijte, Ingrid. Independent Internet Number Resources –
Contractual Relationship Changes between sponsoring LIR and END User. Juli 2009.
URL http://www.ripe.net/ripe/docs/ripe-475.html Stand 15. August 2009.
Zentrale Distribution statt Internet
25/57
IP-Adressen werden für den Endkunden meist als dynamische IP-Adresse vergeben,
dass heißt mit jeder Einwahl in das Internet erhält der Kunde eine andere IP-Adresse.
Um einen Server zu betreiben, ist dies sehr störend, da aufgrund von Zwangstrennung
durch die Service Provider die Adresse wechselt. Will man auf einen solchen Server
zugreifen, muss man immer wieder die neue Adresse in Erfahrung bringen. Nutzt man
einen Domainnamen, muss dieser jeden Tag auf die neue IP-Adresse umgestellt werden.
Es gibt aber auch die Möglichkeit eine feste IP-Adresse zugewiesen zu bekommen, was
allerdings meist mit höheren Kosten verbunden ist.
Domain Name System (DNS)
Da es sich bei IP-Adressen um vier drei-stellige aufeinander folgende Zahlen
handelt, kann der Mensch mit ihnen schlechter arbeiten, als mit Namen.
Natürlich-sprachliche Namen, die mit der bezeichneten Internetressource in Verbindung
stehen, können wesentlich einfacher erinnert oder ausgesprochen werden. Diese
Vorteile führten dazu, dass das Domain Name System eingeführt wurde. Die
natürlich-sprachlichen Namen werden von DNS-Servern in IP-Adressen übersetzt, so
dass zur Verbindung mit einer Internetressource nur noch der Domainname benötigt
wird. Dieses Namenssystem ist hierarchisch aufgebaut und wird auch hierarchisch
verwaltet.
Auf der obersten Stufe stehen 13 DNS-Root-Server, von denen einer in der
Vergangenheit den anderen Root-Servern ihre Daten übermittelte. Durch diese
herausgehobene Stellung war dieser Root-Server der zentrale Punkt des Domain Name
Systems und damit eine Fehlerquelle und ein Angriffspunkt.
In the past the zone file was distributed to the other operators
from this server. This was recognized as a prominent single
point of failure many years ago.59
Mittlerweile sind die Root-Server keine einzelnen Rechner mehr, sondern verteilte
Rechner, die über die selbe IP angesprochen werden können.60 Dennoch werden die
59 Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008.
URL http://www.isoc.org/briefings/020/ Stand 20. August 2009.
60 Vgl. Ermert, Monika und Kuri, Jürgen. DNS-Rootserver: Anycast für mehr Ausfallsicherheit.
18. November 2002.
URL http://www.heise.de/newsticker/DNS-Rootserver-Anycast-fuer-mehrAusfallsicherheit--/meldung/32451 Stand 20. August 2009.
Zentrale Distribution statt Internet
26/57
einzelnen Root-Server jeweils von einer61 Organisation betrieben.62 Darüber hinaus wird
ein anderer Mechanismus genutzt, um die Root-Server mit Daten zu versorgen, so dass
keiner der Root-Server eine herausgehobene Stellung hat.
After being produced by the IANA according to the process
described on the IANA web page the file is stored on a number
of distribution servers. [...] The root name server operators
fetch the file from these servers in a secure fashion. 63
Mit der Verwaltung und Bereitstellung der Daten für die Root-Server besitzt die
IANA eine zentrale Funktion. Auch für die Einrichtung von Top-Level-Domains ist die
IANA verantwortlich und kann die Verantwortlichkeit über diese Domains vergeben, so
dass dem System der IP-Adressen ähnlich eine Hierarchie entsteht. 64 Die IANA ist
damit die Autorität in Bezug auf IP-Adressen und Domainnamen, den wichtigsten
Ressourcen des Internet.
Die Organisationen ICANN und IANA sind im Moment noch vertraglich mit der
US-Regierung verbunden. Diese Verträge laufen aber 2009 bzw. 2010 aus. Abgeordnete
der US-Kongress fordern allerdings schon eine Verlängerung dieser Verträge.65
Diese Organisationen nehmen damit eine ähnlichen Stellung ein wie FRC und später
FCC beim Radio. So wie auch bei der Vergabe von Frequenzen, stehen bei der
Einrichtung neuer Top-Level-Domains der Vergabe von IP-Adressräumen und
Domainnamen hauptsächlich wirtschaftliche Interessen im Vordergrund.
61 VeriSign Global Registry Services betreibt als einzige Organisation zwei Root-Server. Die anderen
Betreiber sind: University of Southern California – Information Sciences Institute, Cogent
Communications, University of Maryland, NASA Ames Research Center, Internet Systems
Consortium, Inc., U.S. DOD Network Information Center, U.S. Army Research Lab,
Autonomical/NORDUnet, RIPE NCC, ICANN, WIDE Project.
Vgl. Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008.
URL http://www.isoc.org/briefings/020/ Stand 20. August 2009.
62 Ebd.
63 Ebd.
64 Vgl. ebd.
65 Vgl. Ermert, Monika und Kuri, Jürgen. US-Abgeordnete fordern dauerhafte US-Kontrolle über
Internet-Verwaltung. 06. August 2009.
URL http://www.heise.de/netze/US-Abgeordnete-fordern-dauerhafte-US-Kontrolle-ueber-InternetVerwaltung--/news/meldung/143131 Stand 20. August 2009.
Zentrale Distribution statt Internet
27/57
Im Zweifelsfall werden diese global eindeutigen Namen an
denjenigen vergeben, der aus wirtschaftlicher Sicht den größten
Anspruch darauf hat.66
Zentralisierung durch Videoplattformen
Ziel des Internets war es, Ressourcen verschiedener an das Internet angeschlossener
Rechner und die Forschungsleistung der involvierten Wissenschaftler gemeinsam und
damit effizient zu nutzen. Bei Videoplattformen werden die Ressourcen des Einzelnen
kaum genutzt. Insbesondere Speicherplatz und Übertragungskapazität werden fast
ausschließlich durch die Videoplattformen zur Verfügung gestellt. Alleine die Kosten
des Traffic von YouTube belaufen sich voraussichtlich auf 360 Millionen Dollar im
Jahr
2009.67
Demgegenüber
stehen
Internetnutzer,
die
über
beträchtliche
Speicherkapazitäten68 und zum größten Teil über DSL-Zugängen verfügen, die von
zwei Mbit bis zu 16 Mbit Downstream und von 192 KBit bis zu ein Mbit Upstream
erlauben, und diese Ressourcen oftmals nicht ausnutzen. Laut einer Studie aus dem Jahr
2007 umfassen HTTP-Streaming-Video 16 Prozent der Internetkommunikation.69
Videoplattformen, die Nutzern die Möglichkeit eröffnen, ihre Videoinhalte auch in
Webseiten einzubinden, haben dabei noch eine Sonderstellung. Sie führen dazu, dass
die Speicher- und Traffic-intensiven Teile solcher Webseiten zentral gespeichert
werden. Es liegt dann oft für viele Webseiten nur die zentral gespeicherte Kopie bei
einer Videoplattform vor.
66 Espenscheid, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001.
URL http://odem.org/insert_coin/mythen/dezentral.html Stand 20. August 2009.
67 Vgl. Ziegler, Peter-Michael. Credit-Suisse-Analyse: YouTube fährt 470 Millionen Dollar Verlust
ein. 06. Mai 2009.
URL http://www.heise.de/newsticker/Credit-Suisse-Analyse-YouTube-faehrt-470-Millionen-DollarVerlust-ein--/meldung/135824 Stand 15. August 2009.
68 Z.B. 150 GB Festplattenspeicher waren im August 2008 bei neuen Notebooks durchschnittlich.
BFL Leasing GmbH. Aktuelle Marktanalyse: Wer hat die größeren Festplatten: Business- oder
Konsumer-Notebooks? September 2008.
URL http://www.bfl-it-index.de/LibraryDoc.aspx?DocID=4c3e78f7a74f499f9c0bdd08a3f6a09e
Stand 18. August 2009
69 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007.
URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009.
Zentrale Distribution statt Internet
28/57
Dominiert werden die Videoplattformen von YouTube, das damit einen großen Teil
der Video-basierten Internetkommunikation zentralisiert.
At last count, there were more than 80 million videos
available on YouTube, and that video library is growing by
some 200,000 clips per day.70
Eine aktuelle Untersuchung von Nielsen Online zum US-Online Video Markt besagt,
dass über YouTube im Mai 2009 6.048.666.000 Videos abgerufen wurden. Dem steht
eine Gesamtzahl von 10.043.049.000 Videoabrufen gegenüber. Dies ergibt einen Anteil
von 60% für YouTube. Hulu, eine Internetseite, auf der aktuelle Serien aus dem USProgramm für US-Bürger zur Verfügung stehen, kommt auf den zweiten Platz mit nur
382.322.000 Videos (3,8%). Da es sich dabei um Distributionsplattformen großer
Medienunternehmen und nicht um Videoplattformen in dem hier behandelten Sinne
handelt, wäre der Anteil YouTubes an Videoplattformen noch um einiges größer.
Angesehen wurden diese Videos von 95.357.000, beim zweitplazierten Yahoo! von
25.224.000 einzelnen Zuschauer.71
Eine Studie aus dem Jahr 2008 zum Vergleich von Marktanteilen der USVideoportale auf Grundlage der Besuche der Seiten ergibt für YouTube einen Wert von
73,2 Prozent bei einer Steigerung von 32 Prozent. Zählt man den Videodienst der
Mutter Google mit ein, ergeben sich sogar 81,6 Prozent. Mit 9,2 Prozent bei
MySpaceTV und 2,6 Prozent bei Yahoo Video erreicht man 93,4 Prozent Marktanteil
bei den größten vier Videoportalen der USA.72
In Bezug auf den Traffic besagt eine Studie aus dem Jahr 2007, dass YouTube 56
Prozent der HTTP-Streaming-Videos ausmacht. Das sind 20 Prozent des HTTP Traffic
und fast 10 Prozent des gesamten Traffic im Internet.73
70 Enzweiler, Julie. Auto Industry´s Wild Ride is Getting Smoother. Juli 2009.
URL http://en-us.nielsen.com/main/insights/consumer_insight/July_2009/auto_industry_wild
Stand 22. August 2009
71 Nielsen Online. Media Alert. 11. Juni 2009.
URL http://enus.nielsen.com/etc/medialib/nielsen_dotcom/en_us/documents/pdf/press_releases/2009/june.Par.190
41.File.pdf Stand 22. August 2009.
72 Vgl. Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008.
URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537
Stand 15. August 2009.
73 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007.
Zentrale Distribution statt Internet
29/57
Videoplattformen stehen dabei in direkter Konkurrenz zu Filesharing-Systemen auf
Peer-to-Peer-Basis, da gerade große Datenmengen von der dezentralen Nutzung der
Ressourcen profitieren können. Auch die Klage von Viacom, in der YouTube
vorgeworfen wird, 150.000 urheberrechtlich geschützte Videos anzubieten,74 zeigt, dass
auch die Inhalte von Videoplattformen und Filesharing-Systemen auf Peer-to-PeerBasis teilweise die gleichen sind.
Seit der ersten Peer-to-Peer-Plattform im Jahr 1998 stieg die Nutzung von Peer-toPeer-Netzwerken stetig an. Der Anteil von Peer-to-Peer-Netzwerken am gesamten
Konsumenten bezogenen Internettraffic überstieg im Jahr 2003 schon den des Web.
Anfang 2006 lag der Anteil bei 60%.75 Eine Untersuchung über Breitbandtraffic aus
dem Jahr 2007 sieht allerdings nur noch einen Anteil von 37%. Demgegenüber stehen
46% HTTP-Traffic und davon 36% durch Streaming-Videos. Auf HTTP-basierende
Streaming-Videos verursachten somit 17% des Internettraffic.76
Chalk it up to YouTube and other Internet video sharing
sites. The surge in HTTP traffic is largely a surge in the use of
streaming media, mostly video.77
Videoplattformen haben damit eine Wende zurück zum WWW eingeleitet. Damit
wird wieder mehr auf die traditionelle Server-Client-Struktur gesetzt. Statt auf
dezentralen Ressourcen mit dezentraler Organisation werden Videos auch im Internet
immer mehr über zentrale Strukturen verbreitet. Eine starke Konkurrenz unter vielen
Videoplattformen
könnte
zumindest
innerhalb
dieses
Systems
eine
gewisse
Dezentralität erhalten, es zeigt sich aber, dass eine große Videoplattform den Markt
beherrscht.
URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009.
74 Vgl. Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles
Google and YouTube. May 2007. S. 524.
URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf
Stand 17. August 2009.
75 Vgl. Ferguson, David. P2P File Sharing – The Evolving Distribution Chain. 22. Juni 2006.
URL http://www.dcia.info/activities/p2pmswdc2006/ferguson.pdf Stand 19. August 2009.
76 Vgl. Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007.
URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-now-eclipsesp2p.ars Stand 15. August 2009.
77 Edb.
Zentrale Distribution statt Internet
30/57
Zentralisierung durch Web 2.0
Videoplattformen sind ein Teil des Web 2.0 und werden wie dieses als
Paradigmenwechsel im Internet bezeichnet. Die Struktur des WWW, „die Anbieter auf
der einen, die Konsumenten auf der anderen Seite“78, solle sich wandeln zu einer
Struktur, in der der Internetnutzer zum Produzenten wird. Verwendung des WWW,
einfache Benutzersteuerung, Einbeziehung der Nutzer und eine Aufwertung der Daten
sind einige Aspekte dieser Entwicklung.
Web 2.0 ist demnach nicht als Momentaufnahme zu sehen,
sondern als die Metapher für öffentliche Beteiligung im Netz
(social software) und die dadurch ausgelöste Weiterentwicklung
des Web.79
Videoplattformen sind Teil dieser Web-2.0-Welt, und was bei Videoplattformen
festgestellt werden kann, lässt sich auch auf andere Web 2.0 Anwendungen erweitern.
Was YouTube für Videos ist, ist zum Beispiel Flickr für Fotos, Twitter für
Kurzmeldungen und Wikipedia für Lexikoneinträge. Die eigene private Homepage wird
abgelöst von einer Sammlung an Daten bei verschiedenen Anbietern, die sich auf
verschiedene Datentypen spezialisiert haben und die Daten ihres Typs zentralisieren.
Eine Untersuchung zur Verbreitung zu Web 2.0 in Deutschland kommt zu dem
Ergebnis, dass im Februar 2007 die Reichweite von Web 2.0 schon 54% betrug. 80 Auch
hier zeigt sich wieder, dass einige große Webseiten den Markt dominieren. So wird
explizit auf die „Giganten”, Wikipedia, YouTube und MySpace hingewiesen. Diese
haben mit 39% nicht nur die größte Reich weite, sondern
mit 67% im Durchschnitt die loyalsten Nutzer, das heißt,
dass zwei Drittel der Besucher vom Januar 2007 im Februar
2007 auf diese Website zurückgekehrt waren.81
78 Albrecht, Dietmar, Arnold, Rolf, Bauerfeld, Wulf und weitere. Web 2.0: Strategievorschläge zur
Stärkung von Bildung und Innovation in Deutschland. 12. März 2007. S. 2.
URL http://www.bmbf.de/pub/expertenkommission_web20.pdf Stand 15. August 2009.
79 Edb. S. 3.
80 Nielsen//NetRatings. 54% der Deutschen nutzen Web 2.0 Websites – Dienste erfahren 32%
Besucherzuwachs und hohe Markentreue. 21. Mai 2007.
URL http://www.nielsen-online.com/pr/pr_070521_DE.pdf Stand 27. August 2009.
81 Edb.
Zentrale Distribution statt Internet
31/57
Darüber hinaus hat sich gezeigt, „dass die Deutschen sich oft auf eine Website pro
Segment beschränken”82. Am deutlichsten zeigt sich dies an Wissenswebseiten, bei
denen 89% der Nutzer nur eine Webseite aufgesucht haben.
Der Internetnutzer wird dabei nicht zum Sender, sondern zum Produzenten. Dies
wird er schon durch die Produktion und nicht erst durch das Senden der Produktion. Die
öffentliche Beteiligung stellt sich vielmehr so dar, dass die Produktionen der
Internetnutzer möglichst kostenfrei an einen Distributor abgetreten werden, der diese
Inhalte über seine Infrastruktur verbreitet. Der Internetnutzer soll seine Werke aber
nicht nur kostenlos zu Verfügung stellen, er soll insbesondere bei kommerziellen
Web 2.0-Plattformen, für das Einreichen oder Ansehen seiner eigenen Inhalte in Form
von Werbekonsum bezahlen.
Wikipedia, die wahrscheinlich bekanntesten Web 2.0 Anwendung, zeigt darüber
hinaus, über welche Möglichkeiten marktbeherrschende Informationshändler im
Informationszeitalter verfügen. So gibt es immer wieder Texte, die gelöscht oder stark
verändert werden. Insbesondere das Löschen ganzer Artikel zeigt, dass hier eine
Auswahl der eingereichten Informationen stattfindet. Zum Beispiel wurde der Artikel
„The Zeitgeist Movement“ auf der deutschen Wikipedia gelöscht. Die Begründung
dafür ist zumindest zwiespältig.
Erläuterung: Außer dem einen NYT Artikel scheinbar keine
Wahrnehmung durch relevante Medien. Nicht einmal der
typische SPON-Artikel in dem die "Bewegung" erwähnt wird.
Der einzige Beleg sind Nutzerzahlen in Foren, auf YouTube und
so weiter. Das ist kein Beleg für die Bedeutung einer
selbsternannten "Bewegung". Wenn ich mich in einem Forum
anmelde, werde ich nicht Mitglied einer Bewegung. "besondere
mediale Aufmerksamkeit" ist klar widerlegt. Und das ist für eine
sich politisch gerierende "Bewegung" sicher der entscheidende
Faktor.Karsten11 14:11, 13. Jun. 2009 (CEST)83
82 Edb.
83 Karsten11. Wikipedia:Löschkandidaten/6. Juni 2009: The Zeitgeist Movement (gelöscht).
13. Juni 2009.
URL: http://de.wikipedia.org/wiki/Wikipedia:L%C3%B6schkandidaten/6._Juni_2009
Stand 15. August 2009.
Zentrale Distribution statt Internet
32/57
Hier
kommt
zum
Ausdruck,
dass
nur
Relevanz
erhält,
was
auch
in
Mainstreammedien gesendet wird. Die Nutzerbeteiligung, auf die bei Wikipedia
eigentlich so viel wert gelegt wird, hat keinerlei Bedeutung mehr, zumindest wenn es
sich um Nutzerbeteiligung auf anderen Plattformen handelt, wie zum Beispiel
Videoplattformen, Foren und Social Communities.
Dies kann man als Teilaspekt der Schwarmintelligenz verstehen, dessen
Mechanismen sich Wikipedia zu eigen macht. Der Fall des entführten Reporters David
Rohde zeigt aber, dass es sich nicht um gleichberechtigte Mitglieder handelt, sondern
eine Hierarchie besteht, bei der der nicht angemeldete Wikipedia-Nutzer das kleinste
Licht ist und Wikipedia-Gründer James Wales das größte.
Also wandte sich die New York Times an den WikipediaGründer James Wales, der mit den ihm zur Verfügung
stehenden Sonderrechten dafür sorgte, dass der Eintrag stets
den Wünschen der Zeitung entsprach.84
Welchen Stellenwert die einfachen Wikipedia-Nutzer bei dieser sieben Monate
andauernden Aktion der Desinformation hatten, zeigt dass
Kommentare,
die
auf
Berichte
einer
afghanischen
Nachrichtenagentur verwiesen, wurden mit Verweisen auf deren
angeblich mangelnde Verlässlichkeit abgebügelt, darob empörte
Nutzer als Verschwörungstheoretiker gebrandmarkt.85
Auch Web 2.0 verhaftet im WWW und damit bei der Server-Client-Struktur. Das
unter Peer-to-Peer-Aspekten unsinnige Domain-Name-System kann seine Stellung
behaupten und so auch Domainnamen ihren Wert. Der Ort, an dem sich die Ressourcen
befinden, steht im WWW im Fokus und nicht die Ressourcen selbst. Bei
Videoplattformen und anderen Web 2.0 Anwendungen wird somit der Speicherort der
Daten in den Mittelpunkt gestellt. Peer-to-Peer-Netzwerke hingegen bringen die Daten
selbst in den Fokus, die dynamisch auf die zur Verfügung stehenden Ressourcen verteilt
werden können.
84 Mühlbauer, Peter. Wikipedia als Neocon. 01. Juli 2009.
URL http://www.heise.de/tp/r4/artikel/30/30641/1.html Stand 15. August 2009.
85 Edb.
Zentrale Distribution statt Internet
33/57
Zentrale Struktur als Angriffspunkt
In diesem Kapitel möchte ich mich mit den Möglichkeiten auseinandersetzen, die
zentralen Strukturen des Web 2.0 und insbesondere der Videoplattformen zu nutzen, um
Kontrolle über die Inhalte auszuüben.
Die Entwicklung leistungsstarker Netzwerke hat dazu geführt, dass durch die
Internetkommunikation immense Datenmassen anfallen, so dass eine manuelle Prüfung
nicht möglich ist.86 Auch eine rechnergestützte Kontrolle erscheint kaum möglich, ohne
die Internetkommunikation zu verlangsamen oder hohen Aufwand zu betreiben.
In den letzten Jahren nahm allerdings auch die Leistungsfähigkeit der Rechner zu
und durch die Verwendung von Multikernprozessoren sogar stärker, als die der
Netzwerke.
Darüber
hinaus
wurden
auch
für
andere
Forschungsrichtungen,
insbesondere die Robotik, intelligente Algorithmen zur Wahrnehmung der Umwelt
entwickelt. Sehr ähnliche Algorithmen können und werden auch von Videoplattformen
eingesetzt.
Netzsperren
Die Sperrung von Internetseiten wird seit einigen Jahren in verschiedenen Ländern
der Welt durchgeführt. Auch YouTube war davon in einigen Ländern betroffen. So kam
es zu einer Sperre in Bangladesh wegen eines Audiomitschnitts zwischen dem
Premierminister und Armee-Offiziellen87, in der Türkei wegen Verunglimpfung des
Staatsgründers88, in Thailand wegen Parodierung des Königs89, in Pakistan wegen eines
86 Z.b. werden auf YouTube jede Minute zehn Stunden Videomaterial hochgeladen.
YouTube, LCC. Über YouTube: Überblick und Features.
URL http://www.youtube.com/t/fact_sheet Stand 19. August 2009.
87 Vgl. IT-Times. Zensur: Neben Türkei und Co. sperrt auch China YouTube. 25. März 2009.
URL http://www.it-times.de/news/nachricht/datum/2009/03/25/zensur-neben-tuerkei-und-co-sperrtauch-china-youtube/ Stand 15. August 2009.
88 Vgl. Pluta, Werner. Türkisches Gericht hebt Youtube-Blockade auf. 27. August 2008.
URL http://www.golem.de/0808/61999.html Stand 15. August 2009
89 Vgl. TOMORROW FOCUS Portal GmbH. Thailand blockiert YouTube. 04. April 2007.
http://www.focus.de/digital/internet/majestaetsbeleidigung_aid_52667.html Stand 15. August 2009
Zentrale Distribution statt Internet
34/57
anti-koranischen Videos des Islamgegners Geert Wilders90 und in China regelmäßig zu
besonderen Anlässen, wie den Protesten in Tibet91, oder dem Jubiläum des Massakers
am Platz des himmlischen Friedens92.
Die Sperrung von YouTube in diesen Ländern macht wieder deutlich, dass YouTube
die Internet Kommunikation im Bereich der Videos zentralisiert. Mit einem Marktanteil
in den USA von 73,2 Prozent, zählt man den Videodienst der Mutter Google mit ein,
sogar 81,6 Prozent, ist es zunächst ausreichend, YouTube zu sperren, wenn ein
missliebiges Video im Internet auftaucht. Sperrt man zusätzlich die Videoportale
MySpaceTV mit 9,2 Prozent, Google Video mit 8,4 Prozent und Yahoo Video mit 2,6
Prozent, sind 93,4 Prozent der Videoportale gesperrt.93 Das Video wird über den
Distributionskanal Videoplattform nicht mehr viele Zuschauer finden.
Als Alternativen stehen dem Videoproduzenten die Veröffentlichung auf eigenem
Webspace, einem eigenen Webserver oder in Peer-to-Peer-Netzwerken zur Verfügung.
Bei allen Möglichkeiten wird es aber schwerer, das Video bekannt zu machen, da es
sich nicht im durchsuchbaren Index einer Videoplattform befindet. In den Fällen
Webspace und eigenen Webservers fallen außerdem zusätzliche Kosten an und es kann
zu Problemen mit Speicher und Bandbreite kommen.
Betreibt man einen Webserver in den eigenen vier Wänden oder in fremden WLANs,
muss man sich um die Administration kümmern. Die Bandbreite ist in diesen Fällen
meist sehr gering, da die üblichen Anbieter von Highspeed-Internet-Zugängen meist nur
asynchrone DSL-Zugänge zur Verfügung stellen. Bei einem Upstream von
beispielsweise 192 kbit/s könnten pro Tag maximal ca. 2.025 MB gesendet werden Der
Upload eines 25 MB Videos dauert bei 192 kbit/s mindestens 18 Minuten. Laden
mehrere Personen dieses Video gleichzeitig runter, verlängert sich diese Zeit, so dass es
90 Vgl. Wilkens, Andreas. Pakistan sperrt YouTube. 25. Februar 2008.
URL http://www.heise.de/newsticker/Pakistan-sperrt-YouTube--/meldung/104028
Stand 15. August 2009.
91 Vgl. Rötzer, Florian. China blockiert nach den Protesten in Tibet YouTube. 17. März 2008.
URL http://www.heise.de/newsticker/China-blockiert-nach-den-Protesten-in-TibetYouTube--/meldung/105127 Stand 15. August 2009.
92 Vgl. Metzger, Michael. Internet-Zensur: Web 0.0 in China. 05. Juni 2009.
URL http://www.zeit.de/online/2009/23/web2.0-china-zensur Stand 15. August 2009.
93 Vgl. Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008.
URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537
Stand 15. August 2009.
Zentrale Distribution statt Internet
35/57
schon bei vier Nutzern über eine Stunde dauert, bis sie sich das Video ansehen können.
Auf diese Weise könnte das Video maximal 81 mal pro Tag gesendet werden. Im
Kontrast dazu „schauen YouTube-Nutzer täglich Hunderte von Millionen Videos“94.
Nutzungsdaten
Die zentrale Struktur kann auch genutzt werden, um Zugriffslisten zu allen Videos,
die genaue Angaben darüber enthalten, wer wann welches Video wie lange angesehen
hat, zu erstellen. Dass YouTube zum Beispiel solche Datensätze anlegt, wurde durch ein
Gerichtsverfahren, in dem Viacom die Offenlegung dieser Daten fordert, auch der
breiten Öffentlichkeit bekannt.95
Sie werden mittlerweile dafür genutzt, um Rechteinhabern über den Service
YouTube Insight detaillierte Informationen über die Sehgewohnheiten seines Publikums
mitzuteilen. Dies umfasst nicht nur die Möglichkeit zu sehen, an welchen Stellen ein
Video beendet oder gespult wurde (Abbildung 14), sondern auch demographische Daten
der Zuschauer abzurufen, wie zum Beispiel die Alterszusammensetzung oder das
Geschlecht (Abbildung 15). Darüber hinaus erhalten die Rechteinhaber Informationen
zu welcher Zeit oder an welchem Ort ein Video aufgerufen wurde (Abbildung 16) und
einige mehr.96
Diese Daten werden den Rechteinhabern so zur Verfügung gestellt, dass keine
Schlüsse auf einzelne Zuschauer möglich sind, sondern die Gesamtheit der Zuschauer
betrachtet wird. YouTube hat aber auch die Möglichkeit, diese Daten personalisiert zu
nutzen,
um
Nutzerprofilen
zusammenzustellen,
die
Rückschlüsse
auf
das
(Konsum-)Verhalten einzelner Nutzer zulassen oder potentiell gefährliche Personen
identifizieren sollen, zum Beispiel im Rahmen einer Rasterfahndung.
94 Google, Inc. Erreichen Sie mehr als 10 Mio. Video-Nutzer.
URL http://www.google.com/intl/de/adtoolkit/pdfs/products/op_youtube_de.pdf
Stand 15. August 2009.
95 Vgl. Patalong, Frank. Urteil outet YouTube als Datenkraken. 04. Juli 2008.
URL http://www.spiegel.de/netzwelt/web/0,1518,563821,00.html Stand 15. August 2009.
96 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt.
02. Dezenber 2008.
URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009.
Zentrale Distribution statt Internet
36/57
Abbildung 14: Darstellung der besonders beliebten Stellen eines Videos im
Vergleich zu Videos ähnlicher Länge.
URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight2.jpg
Stand 25. August 2009.
Abbildung 15: Darstellung der demografischen Daten. Unterscheidung nach
Altersgruppen und Geschlecht.
URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight.jpg
Stand 25. August 2009.
Abbildung 16: Darstellung der Videoaufrufe nach Zeit und Ort.
URL http://www.mr-gadget.de/wp-content/uploads/2008/12/youtube_insight1.jpg
Stand 25. August 2009.
Zentrale Distribution statt Internet
37/57
Automatische Verarbeitung zur Nacktheitserkennung
Schon Mitte der 1990er begann die Entwicklung von Filtertechnologien, die Eltern
einsetzen konnten, um ihre Kinder von bestimmten Internetinhalten fernzuhalten. Sie
wurden auf den eigenen Rechnern installiert und sollten an Hand von Schlüsselwörtern
automatisch Internetseiten aussortieren, auf denen sich jugendgefährdende Inhalte
befinden. Bei Bildern oder Videos können solche Filter nur die sie umgebende
Internetseite oder ihre Beschreibungen untersuchen, was nicht immer den gewünschten
Erfolg bringt und leicht zu umgehen ist. Heutige Filter können durch Skin-Detection
Hautbereiche in Bildern oder Videos erkennen.
Im ersten Schritt werden dabei Bereiche mit Hautfarben extrahiert.97 Verschiedene
Methoden in unterschiedlichen Farbräumen können dazu genutzt werden. Die einfachste
ist, explizite Regeln für die Farbwerte festzulegen, wie zum Beispiel:
(R,G,B) is classified as skin if:
R > 95 and G > 40 and B > 20 and
max{R,G,B}−min{R,G,B} > 15 and
|R−G| > 15 and R > G and R > B98
Der Vorteil dieser Methode ist, dass eine Bild sehr schnell auf Hautbereiche
überprüft werden kann. Die Schwierigkeit ist es, diese Regeln aufzustellen und sie
empirisch zu belegen.99
Auch ohne explizite Regeln, also ohne ein Modell der Hautfarben, können
Hautbereiche erkannt werden. Einige Methoden erlauben mit Hilfe von Trainingsdaten
eine Hautwahrscheinlichkeitskarte für den Farbraum zu erstellen, mit deren Hilfe die
Pixel der zu bearbeitenden Bilder klassifiziert werden können. Die Genauigkeit dieser
Methoden reichen von 78% bis 94,7%. Allerdings ist die Rate der fälschlicherweise als
positiv erkannten (FP-Rate) Hautbereiche insbesondere bei den sehr genauen Methoden
97 Vgl. Geisendrees, Bärbel. Methoden zur Erkennung von Hautfarben in Farbbildern. September 2001.
S. 3f.
URL http://www.uni-weimar.de/medien/webis/publications/downloads/theses/geisendrees_2001.pdf
Stand 17. August 2009.
98 Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin Color
Detection Techniques. S. 3.
URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009.
99 Vgl. ebd. S. 3.
Zentrale Distribution statt Internet
38/57
sehr hoch. Sie liegen zwischen 8% und 33,3%. Das Maximum Entropy Model100 im
RGB-Farbraum hat beispielsweise eine Genauigkeit von 80% bei einer FP-Rate von
8%.101 Die Abbildung 17 zeigt mögliche Ein- und die dazugehörigen Ausgaben einer
Hauterkennung.
Abbildung 17: Eingabebilder und Ausgabe der Hautbereiche.
Quelle: Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking
Adult Images Based on Statical Skin Detection. 20. September 2004. S. 7.
URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009.
Erfüllen die extrahierten Bereiche in einem Bild ein bestimmtes Kriterium, in den
meisten Fällen das Verhältnis zum Gesamtbild, können diese Bilder weiterverarbeitet
werden. Einfache Filter nutzen nur dieses Kriterium, was meist zu einem hohen Anteil
an fälschlicherweise positiven Bildern führt. Komplexere Filter nutzen darüber hinaus
verschiedene Methoden, die Faktoren wie die Lage, Größe und Segmentierung der
hautfarbenen Bereiche berücksichtigen.
Beispielsweise berücksichtigt der Ansatz von Huicheng Zheng, Mohamed Daoudi
und Bruno Jedynak (Abbildung 18) zum Filtern von jugendgefährdenden Bildern neun
Faktoren. Dazu werden die Global Fit Ellipse (GFE), die alle Hautbereiche umfasst, und
die Local Fit Ellipse (LFE), die nur die Region des größten Hautbereichs umfasst,
100 Vgl. Jedynak, Bruno, Zheng, Huicheng, Daoudi, Mohamed und Barret Didier. Maximum Entropy
Models for Skin Detection.
URL http://www.ee.iitb.ac.in/~icvgip/PAPERS/250.pdf Stand 17. August 2009.
101 Vgl. Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin
Color Detection Techniques. S. 5.
URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009.
Zentrale Distribution statt Internet
39/57
berechnet. Die genutzten Faktoren sind die durchschnittliche Hautwahrscheinlichkeit
des gesamten Bildes, die durchschnittliche Hautwahrscheinlichkeit innerhalb der Global
Fit Ellipse (GFE), die Anzahl der Hautbereiche im Bild, die Distanz vom Zentrum der
Local Fit Ellipse (LFE) zum Mittelpunkt des Bildes, der Winkel der Hauptachse der
LFE zum Horizont, das Verhältnis der Nebenachsen zur Hauptachse der LFE, das
Verhältnis des Bereichs der LFE zum gesamten Bild, die durchschnittliche
Hautwahrscheinlichkeit
innerhalb
der
LFE
und
die
durchschnittliche
Hautwahrscheinlichkeit außerhalb der LFE.102
Abbildung 18: Eingabebild, Global Fit Ellipse (GFE) und Local Fit Ellipse
(LFE).
Quelle: Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking
Adult Images Based on Statical Skin Detection. 20. September 2004. S. 9.
URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009.
Die
Methoden
dieser
Nacktheitserkennung
unterscheiden
sich
dabei
nur
unwesentlich von Methoden zum Finden von Personen unabhängig ihrer Kleidung.103
Für Online-Videos (Abbildung 19) ist es nötig, mit wenig Rechenlast möglichst gute
Ergebnisse zu erreichen. Dazu können die Ergebnisse verbessert werden, indem sie mit
der Möglichkeit, Gesichter zu finden (Face Detection), kombiniert werden.104
102 Vgl. Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on
Statical Skin Detection. 20. September 2004. S. 8f.
URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009.
103 Vgl. Jones, Michael J., Rehg, James M. Statistical Color Models with Application to Skin Detection.
S. 14.
URL http://www.cc.gatech.edu/~rehg/Papers/SkinDetect-IJCV.pdf Stand 17. August 2009.
104 Vgl. ebd. S. 15f.
Zentrale Distribution statt Internet
40/57
We used face de-tector to dynamically adapt skin color
model and use it to signicantly reduce the number of false
positive detection.105
Abbildung 19: Ausgabe einer Videountersuchung. Der Graph gibt die erkannten
Haut-Pixel pro Bild an.
Quelle: Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive
Multiple Model Approach for Fast Content-Based Skin Detection in On-Line Videos.
2008.
S. 94.
URL http://portal.acm.org/citation.cfm?id=1463557
Stand 17. August 2009.
Bei der Face Detection handelt es sich um eine spezielle Form der Objekterkennung
(Object Detection).
This paper brings together new algorithms and insights to
construct a framework for robust and extremely rapid object
detection. This framework is demonstrated on, and in part
motivated by, the task of face detection.106
Die technischen Grundlagen können also auch dafür verwendet werden, bestimmte
Objekte in Videos zu erkennen, zum Beispiel verbotene Kennzeichen oder Firmenlogos.
105 Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive Multiple Model Approach
for Fast Content-Based Skin Detection in On-Line Videos. 2008. S. 94.
URL http://portal.acm.org/citation.cfm?id=1463557 Stand 17. August 2009.
106 Viola, Paul und Jones, Michael. Robust Real-time Object Detection. 13. Juli 2001. S. 1.
URL http://research.microsoft.com/en-us/um/people/viola/pubs/detect/violajones_ijcv.pdf
Stand 17. August 2009.
Zentrale Distribution statt Internet
41/57
Außerdem ist die Face Detection der erste Schritt zur Identifikation anhand des
Gesichts. Das auf diese Weise aus dem Video extrahierte Gesicht einer Person wird
dazu mit einer Vorlage verglichen. Diese kann beispielsweise aus der Datenbank für
gesuchte Verbrecher entnommen werden, wie es schon seit den Jahr 2001 beim
SuperBowl für die Videoüberwachung des Stadions gemacht wird.107
Darüber hinaus gibt es noch weitere Möglichkeiten, automatisch bestimmte
Informationen aus einem Video zu filtern. Es können automatisch Schnitte sowie Aus-,
Ein- und Überblendungen erkannt werden.
The system can reliably segment a video into shots, which is
a necessary step for any video-analysis task.108
Die Arbeit „Automatic identification of persons in TV series” von Mika Fischer zeigt
nicht nur die Schnittanalyse, sondern auch weitreichende Methoden zur Extraktion und
Identifikation von Personen in Videos.
It has been shown that the system detects most of the persons
in the video while the number of false detections stays
reasonably low.109
Nutzerbewertungen
YouTube geht beim Schutz vor jugendgefährdenden und anderen rechtlich oder
moralisch bedenklichen Videos einen anderen Weg. Die Zuschauer haben die
Möglichkeit, Videos zu melden, die fragwürdige Inhalte enthalten. Wird ein Video zu
oft gemeldet, sieht sich ein Mitarbeiter von YouTube das Video an und kümmert sich
darum.110
107 Spiegel Online. Super Bowl – Big Brother beim Football. 01. Februar 2001.
URL http://www.spiegel.de/netzwelt/web/0,1518,115473,00.html Stand 23. August 2009.
108 Fischer, Mika. Automatic identification of persons in TV series. Mai 2008. S. 65.
URL http://isl.ira.uka.de/~stiefel/diplomarbeiten/DA_MikaFischer.pdf Stand 17. August 2009.
109 Edb. S. 65.
110 Vgl. Schultz, Stefan. Google bastelt den Super-Filter.
URL http://www.spiegel.de/netzwelt/web/0,1518,502558,00.html Stand 17. August 2009
Zentrale Distribution statt Internet
42/57
Dieses Vorgehen bereitet allerdings Probleme, weil „digitale Videos [...] beliebig
kopiert und immer wieder neu ins Netzwerk geschleust werden [können]“ 111 und die
Nutzer urheberrechtlich geschützte Werke nicht erkennen können oder wollen.
Insbesondere das Zugänglichmachen von urheberrechtlich geschützten Material hat
für Videoplattformen Konsequenzen. Wie Peer-to-Peer-Netzwerke wurden auch
Videoplattformen
aufgefordert,
gegen
Urheberrechtsverletzungen
vorzugehen,
andernfalls würden sie verklagt werden. Diese berufen sich aber im Gegensatz zu P2PNetzwerk-Anbietern bisher erfolgreich auf die „sicherer Hafen“-Regel im DCMA, die
nur eine Entfernung der fragwürdigen Inhalte nach vorheriger Information durch den
Rechteinhaber vorsieht. Am 13. März 2007 reicht Viacom Klage gegen YouTube und
Google
ein,
weil
sie
nicht
genug
gegen
die
uneingeschränkten
Urheberrechtsverletzungen auf der Videoplattform YouTube unternähmen.
According to Viacom, it has identified more than 150,000
unauthorized postings of its movies and television programming
such as The Daily Show with Jon Stewart, South Park, The
Colbert Report, and SpongeBob SquarePants which have been
viewed 1.5 billion times.112
Die Forderung der Rechteinhaber ist, dass YouTube und andere Videoplattformen
urheberrechtlich geschütztes Material selber ausfindig machen und nicht mehr die
Rechteinhaber geschützte Inhalte suchen und per Takedown-Notice entfernen lassen
müssen.
Dabei wisse Youtube sehr wohl, was auf seiner Website
vorhanden ist, und habe auch das Recht und die Möglichkeit,
dieses Angebot zu kontrollieren. Daher sei es auch fair, Youtube
dazu zu verpflichten, diese Inhalte daraufhin zu untersuchen, ob
sie Urheberrechte verletzen.113
111 Edb.
112 Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles
Google and YouTube. May 2007. S. 524.
URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf
Stand 17. August 2009.
113 Spielkamp, Matthias. Google: Viacom greift Internet-Kommunikation an. 02. April 2007.
URL http://www.irights.info/index.php?id=81&tx_ttnews[tt_news]=287&cHash=863f96a3fa
Stand 15. August 2009.
Zentrale Distribution statt Internet
43/57
Um diese Forderungen zu erfüllen, nutzt YouTube seit Februar 2007 ein InhalteErkennungssystem der kalifornischen Firma „Audible Magic“. Diese identifiziert
allerdings nur Audiodaten.
Fingerprint zur Erkennung von Audio und Video
Automatische Inhalte-Erkennungssysteme bieten die Möglichkeit, anhand von
Vergleichsdaten bestimmte Videos oder Audios zu identifizieren. Auf diese Weise
können die genannten Probleme des eigentlich gut funktionierenden Systems der
Nutzerbewertung gelöst werden. Rechteinhaber können Vergleichsdaten abgegeben, um
ihre urheberrechtlich geschützten Inhalte auch bei YouTube zu schützen, und einmal
entfernte Videos können als Grundlage für die Identifikation von rechtlich
problematischen oder anderweitig störenden Inhalten genutzt werden.114
Fingerprint-Technologie basiert auf der Annahme, dass jede Audio- oder Videodatei
eindeutige Attribute besitzt, an denen sie identifiziert werden kann. Ein Fingerprint ist
dabei ein Hash. Dies ist eine übliche Möglichkeit, um eine große Datenmenge durch
eine kleinere Datenmenge, dem Hash, auf Veränderung überprüfen zu können.
Standard-Hash-Verfahren eignen sich allerdings nicht für die Erkennung von Audiound Videodateien, die auch dann noch erkannt werden sollen, wenn sie verändert
wurden, es sich aber dennoch um die gleiche Audio- bzw. Videoinhalte handelt.
Fingerprints bieten hier die Lösung, in dem bestimmte eindeutige Merkmale einer
Audio- bzw. Videodatei extrahiert und für den Hash benutzt werden.115
Erste Audio-Fingerprint-Technologien wurden im Napster-P2P-Netzwerk benutzt,
um den Klagen der Rechteinhaber zu entgehen, was aber nicht zum Erfolg führte, denn
Napster wurde kurze Zeit später geschlossen.
114 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt.
02. Dezenber 2008.
URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009.
115 Vgl. Lefebvre, Frederik, Chupeau, Bertrand, Massoudi, Ayoub und Diehl, Eric. Image and Video
Fingerprinting: Forensic Applications.
URL http://www.eric-diehl.com/publications/SPIE09Lefebvre.pdf Stand 15. August 2009.
Zentrale Distribution statt Internet
44/57
In May 2001, Napster introduced an audio fingerprinting
system by Relatable, which aimed at filtering out copyrighted
material despite misspellings in tags and metadata.116
Die Technologie fand aber in kurzer Zeit eine breite Anwendung, wie zum Beispiel
bei der Erkennung von Musik per Handy117.
Audio fingerprinting, the process by which an audio sample
is automatically identified or categorized based on its unique
analog properties, is a technology that has been integrated quite
rapidly into commercial and consumer music applications.118
MySpace setzt einen auf Fingerprints basierenden Audiofilter seit 2006 ein119,
YouTube seit Februar 2007. Einen auf Fingerprints basierenden Videofilter hat Google
als Mutterkonzern von YouTube selbst entwickelt und setzt ihn mittlerweile ein.
Dieser berechnet aus Referenzdateien, die die Rechteinhaber zur Verfügung stellen,
ID-Dateien, die Hashs, die dann relativ schnell mit den ID-Daten, die aus neu
hochgeladenen Videos generiert werden, verglichen werden können. Dabei benötigt das
System nur 15 Minuten, um aus der Referenzdatei die ID-Datei zu erstellen.120
116 Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies.
December 2008. S. 8.
URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf
Stand 17. August 2009.
117 Z.B. der O2 Music Spy von der Telefónica O2 Germany GmbH & Co. OHG bietet diesen Service.
URL http://www.o2online.de/nw/active/fun/spy/index.html Stand 15. August 2009.
118 Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies.
December 2008. S. I.
URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson+-+Masters+Paper.pdf
Stand 17. August 2009.
119 Vgl. ebd. S. 8.
120 Vgl. Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt.
02. Dezenber 2008.
URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009.
Zentrale Distribution statt Internet
45/57
Abbildung 20: Funktionsweise des YouTube VideoID Systems.
URL http://www.mr-gadget.de/wpcontent/uploads/2008/12/overview_youtube_videoid_system.jpg
Stand 17. August 2009.
In Abbildung 20 ist die Funktionsweise des YouTube Videoerkennungsprogramms
dargestellt.
Zentrale Distribution statt Internet
46/57
Rechtliche Rahmenbedingungen
Wie in der Einleitung beschrieben, waren es auch rechtliche Regelungen, die dazu
geführt haben, dass das Funknetz von einem Medium, in dem jeder senden konnte, zu
einem Medium mit zentralen Strukturen, dem Radio, und zu einem Medium der
direkten Kommunikation, dem Funk, wurde.
Einen ähnlichen Weg beschreitet auch das Internet, so dass ich mich in diesem
Kapitel mit einigen rechtlichen Rahmenbedingungen auseinandersetzten möchte. Zum
größten Teil stelle ich die Situation in Deutschland vor. Im Bereich des Urheberrechts
stelle ich aber explizit das amerikanische Recht vor, dass durch internationale
Vereinbarungen in ähnlicher, teilweise verschärfter Form auch in anderen Ländern
Anwendung findet.
Domainregistrierung,
Anbieterkennzeichnung
und
Abmahnungen
Domainregistrierung
Bei der Domainregistrierung müssen Name und Adresse angegeben werden, die dann
auf den Seiten der Registraturen eingesehen werden können.121 Dies bildet eine erste
Hürde bei der Publikation von Inhalten im Internet. Auch weil viele Daten- und
Verbraucherschutzexperten empfehlen, den Name und die Adresse – generell
personenbezogene Daten – nur sparsam im Internet preiszugeben.122 Immerhin können
solche Daten missbraucht werden, um beispielsweise Werbung zuzusenden oder auch
schlimmeres wie den Identitätsdiebstahl.
121 Z.B. bei der DENIC eG, der zentralen Registrierungsstelle für die Top Level Domain .de können
diese Angaben abgerufen werden.
URL http://www.denic.de/ Stand 18. August 2009.
122 Vgl. Verbraucherzentrale Bundesverband. Diditale Sicherheit: Internet vom Fair-Play weit entfernt.
12. Februar 2008.
URL http://www.vzbv.de/start/index.php?
page=themen&bereichs_id=8&themen_id=97&mit_id=975&task=mit Stand 18. August 2009.
Zentrale Distribution statt Internet
47/57
Anbieterkennzeichnung - Impressumpflicht
Zumindest
in
Deutschland
besteht
darüber
hinaus
die
Pflicht
zur
Anbieterkennzeichnung, welche meistens durch ein Impressum erfüllt ist und nur bei
ausschließlich privaten oder familiären Webseiten entfallen kann.
Die Anbieterkennzeichnungspflicht muss praktisch von
jedem, der ein Online-Angebot bereithält, erfüllt werden. Etwas
anderes gilt nur bei Angeboten, die ausschließlich privaten oder
familiären Zwecken dienen und die keine Auswirkung auf den
Markt haben. Im Zweifel sollten Sie davon ausgehen, dass die
Anbieterkennzeichnungspflicht besteht.123
Die Anbieterkennzeichnung muss in jedem Fall „den Namen und die Anschrift, unter
der sie niedergelassen sind, bei juristischen Personen zusätzlich die Rechtsform, den
Vertretungsberechtigten und, sofern Angaben über das Kapital der Gesellschaft gemacht
werden, das Stamm- oder Grundkapital“124 und „Angaben, die eine schnelle
elektronische
Kontaktaufnahme
und
unmittelbare
Kommunikation
mit
ihnen
ermöglichen, einschließlich der Adresse der elektronischen Post“125. Weitere Angaben
müssen nur in speziellen Fällen gemacht werden, wie zum Beispiel Angaben über die
zuständige Aufsichtsbehörde oder die Umsatzsteueridentifikationsnummer.
Wer vorsätzlich oder fahrlässig eine der geforderten Informationen nicht, nicht
richtig oder nicht vollständig verfügbar hält, begeht eine Ordnungswidrigkeit, die mit
einer Geldbuße von bis zu 50.000,- € geahndet werden kann. Darüber handelt es sich
um Wettbewerbsverstöße, die Ansprüche anderer Wettbewerber nach sich ziehen
können. Im Regelfall sind dies der Ansprüche auf Unterlassung, die mit Hilfe
kostenpflichtiger Abmahnungen durchgesetzt werden.126
123 Bundesministerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im Internet
(„Impressumspflicht“). 18. Februar 2009.
URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_barrierefr
ei_090218.pdf Stand 15. August 2009.
124 Bundesministerium der Justiz. Telemediengesetz vom 26. Februar 2007, das durch Artikel 2 des
Gesetzes vom 25. Dezember 2008 geändert worden ist. § 5 (1).
URL http://www.gesetze-im-internet.de/bundesrecht/tmg/gesamt.pdf Stand 15. August 2009.
125 Edb. § 5 (1).
126 Vgl. Bundesministrerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im
Internet („Impressumspflicht“). 18. Februar 2009.
Zentrale Distribution statt Internet
48/57
Abmahnwelle
„Die Abmahnung ist definiert als Aufforderung des
Rechtsinhabers oder des Verletzten an den Störer, innerhalb
einer
angemessenen
Frist
eine
strafbewehrte
Unterlassungserklärung abzugeben.“127
Im Internet werden Abmahnungen am häufigsten aufgrund von Verstößen gegen das
Urheberrecht und das Wettbewerbsrecht, insbesondere die Impressumspflicht,
ausgesprochen. Die geltenden Rechtsnormen zum Wettbewerbsrecht finden sich im
Gesetz gegen den unlauteren Wettbewerb, der Preisabgabenverordnung, dem
Unterlassungsklagengesetz,
dem
Bürgerlichen
Gesetzbuch,
der
Informationspflichtenverordnung, dem Telemediengesetz, dem Heilmittelwerbegesetz
und dem Arzneimittelgesetz. Darüber hinaus gibt es noch weitere Rechtsvorschriften,
die einzelne Regelungen zum Verhalten von Wettbewerbern am Markt regeln.128
Die Folge einer Abmahnung für die Betroffenen ist, dass sie die Rechtsverstöße
abstellen, Schadensersatz leisten und die Kosten der Abmahnung tragen sollen. Darüber
hinaus sollen sie eine Unterlassungserklärung abgeben, die bei einem weiteren, auch
unbeabsichtigten, ähnlichen Rechtsverstoß zu hohen Strafzahlungen führt. Wehrt sich
der Betroffene gegen die Abmahnung, kann eine gerichtliche Auseinandersetzung mit
ungewissen Kosten folgen.129
Dies führt dazu, dass vor Veröffentlichung von Inhalten im Internet die Rechtslage
studiert werden muss, um sich vor Abmahnungen zu schützen. Einige mag dies
abschrecken, überhaupt Inhalte im Internet zu veröffentlichen. Andere werden zu
drastischen Maßnahmen getrieben. Dies zeigt zum Beispiel der Blog von Horst Schulte,
URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_barrierefr
ei_090218.pdf Stand 15. August 2009
127 Oppermann, Bernd H. Unterlassungsanspruch und materielle Gerechtigkeit im Wettbewerbsprozess:
zur Entstehung und Durchsetzung von Unterlassungsansprüchen im Wettbewerbsrecht und im
gewerblichen Sonderrechtsschutz. Mohr Siebeck, 1993. S. 162.
128 Vgl. Zentrale zur Bekämpfung unlauteren Wettbewerbs e. V. Frankfurt/Main. Nationales
Wettbewerbsrecht: Rechtsnomen.
URL http://www.wettbewerbszentrale.de/de/recht/nationales/rechtsnormen/ Stand 15. August 2009.
129 Vgl. Obermair, Stefan. Der Schutz des Verbrauchers vor unlauterer Werbung in Deutschland und
Grossbritanien. Tenea Verlag Ltd., 2004. S. 133f.
Zentrale Distribution statt Internet
49/57
der sich aufgrund von Abmahnungen gezwungen sah, in seinem Blog über 3800
Beiträge und über 7000 Kommentare zu löschen.130
Störerhaftung / Linkhaftung
Die Petitionsseite des Bundestages zeigt hier schon, wie die Zukunft aussehen kann.
Im Forum ist es generell untersagt, Links zu setzen. Auch einfache Hinweise auf andere
Seiten, die nicht im Hyperlink-Format erstellt wurden, sind nicht gestattet. Es wird zwar
darauf hingewiesen, dass das Setzen von Links unabhängig der Gesetzeslage geschieht,
die rechtliche Verpflichtung wird aber nicht verneint.
Unabhängig von rechtlichen Verpflichtungen hat der
Petitionsausschuss sich gegen die Möglichkeit der Setzung von
Links (URLs) in seinen Foren entschieden.131
Diese Regel haben zwar auch einige kommerzielle Anbieter, da aber zumeist aus
dem Grund, dass Werbung innerhalb der kommerziellen Foren nur dem Betreiber
obliegt. Viele Blogs und andere freie Medien lassen aber Links auch in den
Kommentaren zu.
Rechtlich bewegen sie sich in einer Grauzone, obwohl der Bundesgerichtshof im
konkreten Fall Linkhaftung schon abgelehnt hat.132 In anderen Fällen wurde aber auch
auf eine Haftung für Links entschieden, so zum Beispiel ein Urteil des Landgerichts
130 Vgl. Schulte, Horst. Wahrgemacht: Bloginhalt und alle Kommentare gelöscht. 20 September 2007.
URL http://www.finger.zeig.net/2007/09/20/wahrgemacht-bloginhalt-und-alle-kommentaregeloescht/ Stand 17. August 2009.
131 DBT_Moderator 6. Thema: Mit der Bitte um Beachtung! 06. Mai 2009.
URL https://epetitionen.bundestag.de/index.php?topic=1277.0 Stand 17. August 2009.
132 Vgl. Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004.
URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?
Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla
nk=1.pdf Stand 17. August 2009.
Zentrale Distribution statt Internet
50/57
Hamburg vom 12. Mai 1998133, vom 2. Januar 2001134, oder eine Entscheidung des
Landgerichts Lübeck135.
Ein wichtiger Unterschied ist zumindest bei diesen Fällen zu erkennen. Der
Bundesgerichtshof entschied im Fall eines Verlagshauses.
Die Beklagte gibt als Verlagshaus die Zeitung "W." und die
Zeitschrift
"WW."
heraus.
Presseerzeugnisse
sind
Die
Teil
Online-Ausgaben
des
Internetauftritts
dieser
der
Beklagten.136
In den anderen Fällen handelt es sich nicht um Verlagshäuser oder anerkannte
Mediendienstleister. Stellt man dazu einen der Entscheidungsgrundsätze des
Landgerichts Lübeck in Beziehung, wird deutlich, dass es für Medienanbieter einfacher
ist, diese Maßgabe zu erfüllen.
Verantwortlichkeit für fremde Inhalte ist aber gegeben, wenn
zusätzliche Umstände vorliegen, die verdeutlichen, daß der
Anbieter der Seite, auf der sich der Hyperlink befindet, sich den
Inhalt der fremden Seite geistig zu eigen macht.137
Mediendienstleister zeichnen sich gerade dadurch aus, dass sie sich Inhalte nicht
geistig zu eigen machen, sondern unabhängig und umfassend berichten sollen. Bei
Privatpersonen ist der Beweis, dass man sich die verlinkten Inhalte nicht geistig zu
eigen macht, schwerer.
133 Vgl.
Landgericht Hamburg.
Az. 312 O 85/98.
Ehrverletzende
Äußerungen
im
Internet.
12. Mai 1998.
URL http://www.jurpc.de/rechtspr/19980086.htm Stand 17. August 2009.
134 Vgl. Landgericht Hamburg. Az. 312 O 606/00. Wettbewerbswidrigkeit eines Links.
URL http://www.jurpc.de/rechtspr/20010061.htm Stand 17. August 2009.
135 Vgl. Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998.
URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009.
136 Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004.
URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?
Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla
nk=1.pdf Stand 17. August 2009.
137 Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998.
URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009.
Zentrale Distribution statt Internet
51/57
Mit
ihrem
Allgemeinheit
Internetauftritt
als
stelle
die
Presseunternehmen
Beklagte
ein
der
umfassendes
journalistisches Angebot zur Verfügung.138
Die Ungewissheit, die durch diese Rechtssprechung entsteht, führt dazu, dass private
Homepages auf Links, zumindest wenn sie kritisch sind, verzichten und Links in
Kommentaren nicht mehr zulassen. Wie verunsichert die Betreiber privater Homepages
durch diese Entscheidungen sind, zeigt sich an der massenhaften Verbreitung von
Disclaimern auf privaten Homepages, mit denen versucht wird, sich allgemein von allen
Links, die auf der eigenen Seite sind, zu distanzieren.139
Das DCMA – urheberrechtliche Regularien im
Internet
Der Digital Millennium Copyright Act (DMCA) wurde am 28. Oktober 1998
unterzeichnet und beinhaltet weitreichende Bestimmungen zum Urheberrecht in den
USA, wie das Verbot Kopierschutztechnologien zu umgehen.
Der DMCA bietet aber auch Dienstanbietern, die urheberrechtlich geschütztes
Material
ausschließlich
auf
Anweisung
der
Nutzer
speichern,
bestimmte
Haftungsprivilegien. Internet Service Provider / Hosting Services werden von der
Haftung für Kopierschutzverletzungen von Usern befreit. Sie müssen allerdings, sobald
eine Takedown Notice eingegangen ist, die entsprechenden Inhalte sofort entfernen.
Ihnen wird damit ein sicherer Hafen geschaffen, der sie vor Klagen wegen CopyrightVerletzungen freistellt Darüber hinaus gilt in den USA das Communications Decency
Act, welches ähnliche Immunität in Bezug auf nicht Urheberrecht betreffende Klagen
gibt.140
138 Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004.
URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?
Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz=1&Bla
nk=1.pdf Stand 17. August 2009.
139 Vgl. Schneider, Daniel W. Das Märchen vom „Link-Urteil“.
URL http://www.knetfeder.de/recht/linkurteil/ Stand 17. August 2009.
140 Vgl. Kravets, David. 10 Years Later, Misunderstood DMCA is the Law That Saved the Web.
27. Oktober 2008.
URL http://www.wired.com/threatlevel/2008/10/ten-years-later/ Stand 17. August 2009.
Zentrale Distribution statt Internet
52/57
"These two protections for intermediaries have been
absolutely crucial for giving us the internet today," says Fred
von Lohmann, an internet attorney with the Electronic Frontier
Foundation, which just released its report on the DMCA. "You
could not run a blog without these. You couldn’t run MySpace,
AOL without these two things."141
Dieser Schutz gilt allerdings nur für die Dienstanbieter, wie Anbieter von
Internetzugängen, Webspace, Videoplattformen, Blogplattformen und so weiter. Diese
werden von der Haftung für die Inhalte ihrer Nutzer ausgenommen. Die Nutzer haben
allerdings weiterhin die volle Verantwortung für die Inhalte. Im Normalfall werden
diese aber nicht weiter belangt, wenn der Dienstanbieter die Inhalte entfernt. Somit wird
es den Dienstanbietern ermöglicht, ihren Geschäften nachzugehen, ohne dass das Risiko
für kostspielige Klagen aufgrund der zunehmenden Zahl an Nutzern unabsehbar wird.142
So können unrechtmäßige Inhalte einfach und ohne gerichtliche Auseinandersetzung
entfernt werden. Die andere Seite der Medaille ist aber, dass auch missliebige Inhalte
durch Takedown Notice einfach entfernt werden können. Um die Inhalte wieder
herzustellen, muss man einen Gegenantrag stellen und geht das Risiko einer
gerichtlichen Auseinandersetzung ein.
Bei Videoplattformen wie YouTube häufen sich mittlerweile die Takedown Notices,
wie man auf der Homepage des Projekts YouTomb des Massachusetts Institute of
Technology sehen kann.
YouTomb is currently monitoring 377863 videos, and has
identified 14990 videos taken down for alleged copyright
violation and 92586 videos taken down for other reasons.143
Das amerikanische Recht erlaubt unter bestimmten Umständen, als „fair use“,
urheberrechtlich geschütztes Material zu verwenden. Insbesondere Persiflagen und
Kritik, also die freie Meinungsäußerung, sollen dadurch geschützt werden. Takedown
Notices werden auch dazu genutzt, diese legitime Form der Verwendung
141 Ebd.
142 Vgl. ebd.
143 MIT Free Culture. YouTomb.
URL http://youtomb.mit.edu/ Stand 17. August 2009.
Zentrale Distribution statt Internet
53/57
urheberrechtlich geschützten Materials und damit Kritik zu unterbinden.144 Zum
Beispiel wurden viele Videos zu Scientology von YouTube entfernt. 145 Das eine solche
Reaktion mittlerweile auch ohne Takedown Notice erfolgen kann, zeigt das Interview
mit Jason Beghe, das aufgrund von Verletzungen der Nutzungsrechte entfernt wurde.
Nachdem der Scientology-Kritiker Mark Bunker [...] das
Video auf YouTube veröffentlichte, wurde es von YouTube noch
am gleichen Tag entfernt und Bunkers Account gelöscht. 146
So kommt auch die Electronic Frontier Foundation (EEF) in ihrem unregelmäßig
veröffentlichten Berichte zu Folgen des DMCA zu einer negativen Bewertung.
Das Gesetz hat demnach den Rechten der Öffentlichkeit zur
Nutzung geschützter Werke, der freien Meinungsäußerung, der
Forschung
sowie
dem
Wettbewerb
in
der
Wirtschaft
geschadet.147
Urheberrechteinhaber verlangen allerdings eine Verschärfung dieser Regelungen, so
dass die Dienstanbieter helfen, müssen Urheberrechtsverletzungen aufzudecken.
Vorratsdatenspeicherung
Im November 2007 wurde das Gesetz zur Vorratsdatenspeicherung beschlossen, dass
am 1. Januar 2008 in Kraft getreten ist. Seiddem ist
144 Vgl. Improbulus. Google & DMCA: copyright vs free speech. 06. August 2007.
URL http://www.consumingexperience.com/2007/08/google-dmca-copyright-vs-free-speech.html
Stand 17. August 2009.
145 Vgl.
Galperin, Eva.
Massive
Takedown
of
Anti-Scientology
Videos
on
YouTube.
05. September 2008.
URL http://www.eff.org/deeplinks/2008/09/massive-takedown-anti-scientology-videos-youtube
Stand 17. August 2009.
146 RainbowNet Blog Schweiz. Jason Beghe Video über Scientology – gefährliche zerstörerische
Abzocke. 19. April 2008.
URL http://blog.rainbownet.ch/religion/jason-beghe-video-uber-scientology-gefahrlichezerstorerische-abzocke Stand 17. August 2009.
147 Kuri, Jürgen. Zehn Jahre Digital Millennium Copyright Act: Recht fürs Internet? 28. Oktober 2008.
URL http://www.heise.de/newsticker/Zehn-Jahre-Digital-Millennium-Copyright-Act-Recht-fuersInternet--/meldung/118043 Stand 17. August 2009.
Zentrale Distribution statt Internet
54/57
nachvollziehbar, wer mit wem in den letzten sechs Monaten
per Telefon, Handy oder E-Mail in Verbindung gestanden oder
das Internet genutzt hat. Bei Handy-Telefonaten und SMS wird
auch der jeweilige Standort des Benutzers festgehalten.148
Gespeichert wird dabei auch die IP, die im Internet benutzt wurde, so dass wenn die
IP und der Zeitpunkt des Zugriffs bekannt sind, der Anschluss, von dem der Zugriff
stattfand, identifiziert werden können. Oft kann so auch auf die Person zurück
geschlossen werden, die den Rechner bedient hat.
Internetnutzer können auf diese Weise verängstigt werden bestimmte oder
unbekannte Internetseiten zu besuchen oder Peer-to-Peer-Netzwerke zu benutzen. Sie
können ja nicht wissen, ob dort die eigene IP gespeichert wird und ob die besuchte Seite
rechtlich relevante Inhalte enthält. Ist dies der Fall, kann man schnell identifiziert
werden und ist unter Umständen mit Ermittlungsverfahren konfrontiert. Eine ForsaUmfrage nach Einführung der Vorratsdatenspeicherung hat ergeben, dass 52% der
Befragten auf die Kontaktaufnahme per Telefon, Handy oder E-Mail verzichten würden,
wenn „sie den Rat einer Eheberatungsstelle, eines Psychotherapeuten oder einer
Drogenberatungsstelle benötigten“149. Darüber hinaus gaben 11% an, dass sie ihr
Nutzungsverhalten in Bezug auf Telefon, Handy und E-Mail verändert hätten.150
148 Arbeitskreis Vorratsdatenspeicherung. 5-Minuten-Info: Vorratsdatenspeicherung.
URL http://www.vorratsdatenspeicherung.de/content/view/46/42/lang,de/ Stand 17. August 2009.
149 forsa. Meinungen der Bundesbürger zur Vorratsdatenspeicherung. 02. Juni 2008.
URL http://www.vorratsdatenspeicherung.de/images/forsa_2008-06-03.pdf Stand 17. August 2009.
150 Vgl. ebd.
Zentrale Distribution statt Internet
55/57
Fazit
Es zeigt sich, dass das rechtsfreie, unkontrollierbare und absolut dezentrale Internet
nicht existiert. Es ist die Gesellschaft, die aus dem technischen Internet, einer
Verbindung von Computernetzwerken, das soziale Internet, einen Raum der
Kommunikation, des Austauschs und des Miteinanders macht. Es kann aber auch
aufbauend auf dem technischen Internet ein Raum der Zensur, Einschüchterung und
Desinformation etabliert werden, wie am Beispiel China zu sehen ist, oder auch ein
Raum der Verwertbarkeit, wie es einige große Internet- und Medienfirmen anstreben.
Die zugrunde liegende Struktur ermöglicht Freiheit und Kontrolle in unterschiedlichen
Abstufungen und Ausprägungen.
Wie in den frühen Jahren des Funks, sind es Gesetze und Vorschriften, die die
Möglichkeit des Sendens erschweren. Direkte Kommunikation und das Empfangen und
Einreichen von Daten bei den Distributoren, wie Videoplattformen, stellt immer mehr
die normale Nutzung des Internets dar. Auch wenn Peer-to-Peer-Netzwerke noch immer
einen beträchtlichen Anteil an der Internetkommunikation ausmachen, nimmt ihr Anteil
stetig ab. Dies mag zum einen in den härteren rechtlichen Vorschriften, wie der
Vorratsdatenspeicherung, liegen, aber auch an der Möglichkeit, ähnliche Inhalte bei
Videoplattformen ohne rechtliche oder moralische Bedenken konsumieren zu können.
Videoplattformen und andere Web 2.0 Anwendungen leiten so eine Rückbesinnung auf
das WWW ein. Damit wird ein Paradigmenwechsel weg von den Orten, an denen sich
Ressourcen befinden, hin zu den Ressourcen selbst gestoppt. Die zentralen Server
einiger Distributoren, die über werbewirksame Domainnamen zu finden sind, bleiben
weiterhin im Fokus.
Wie bei einem Radiosender können zu diesen Distributoren Inhalte gesandt werden
mit der Bitte nach Veröffentlichung. Es sind aber diese Distributoren, die sich alle
Rechte, inklusive der Verwertungsrechte des Materials, vorbehalten. Sie sind Herren der
Inhalte und können löschen oder für bestimmte Regionen oder Personen sperren. Selbst
die Möglichkeit, Webspace auf nicht eigenen Rechnern zu mieten, ist übertragen nicht
mehr, als einen Sendeslot im Radio zu mieten. Sollten die Inhalte nicht mit den
Nutzungsbedingungen übereinstimmen, kann sofort gekündigt werden, sollten die
Inhalte nur nicht gefallen, kann der Anbieter auf eine Vertragsverlängerung verzichten.
Zum wirklichen Sender kann der Nutzer nur werden, wenn ihm eigene
Zentrale Distribution statt Internet
56/57
Übertragungskapazitäten zur Verfügung stehen und er nicht darauf angewiesen ist, das
die Distributoren ihm Übertragungskapazitäten überlassen.
Videoplattformen spielen dabei eine hervorgehobene Rolle. Auf der einen Seite
nimmt die Nutzung von Videos sowohl als Rezipient als auch als Produzent immer
mehr zu. Auf der andern Seite benötigen Videos meist viel Speicher und damit bei der
Übertragung auch die nötige Kapazität. Peer-to-Peer-Netzwerke bieten hier effiziente
Lösungen, erschweren aber die Kontrolle.
Die schiere Menge an Daten, die bei Videoplattformen hochgeladen wird, lässt
erwarten, dass eine Kontrolle gar nicht möglich sei. Intelligente Algorithmen und
leistungsfähige Rechnersysteme bieten aber mittlerweile die Möglichkeit auch diese
Datenmassen zu beherrschen. Durch ihre Zentralität haben Videoplattformen dabei
einen Vorteil, da es ausreicht, die Videos nach dem Hochladen zu überprüfen. Danach
liegt das für gut befundene Video auf den Servern der Videoplattformen und kann ohne
weitere Prüfung angesehen werden.
Abschließend lässt sich feststellen, dass Videoplattformen und andere Web 2.0
Anwendungen nicht dafür sorgen, dass jeder Senden kann, wie es der Name YouTube
suggeriert, sondern das sich Distributionsstrukturen etablieren, die sowohl Kontrolle als
auch Kommerzialisierbarkeit gewährleisten können.
Zentrale Distribution statt Internet
57/57
Literaturverzeichnis
Albrecht, Dietmar, Arnold, Rolf, Bauerfeld, Wulf und weitere. Web 2.0: Strategievorschläge
zur Stärkung von Bildung und Innovation in Deutschland. 12. März 2007. S. 2.
URL http://www.bmbf.de/pub/expertenkommission_web20.pdf Stand 15. August 2009.
Anderson, Nate. The YouTube effekt: HTTP traffic now eclipse P2P. 19. Juni 2007.
URL http://arstechnica.com/old/content/2007/06/the-youtube-effect-http-traffic-noweclipses-p2p.ars Stand 15. August 2009.
Andres, Charles R. „For the Freedom Of Information“ The Importance of Amateurs in Shaping
and Innovating Radio and The Internet
URL www.veleth.com/Prose/Radio%20Vs.%20The%20Internet.pdf Stand 14. August 2009
Arbeitskreis Vorratsdatenspeicherung. 5-Minuten-Info: Vorratsdatenspeicherung.
URL http://www.vorratsdatenspeicherung.de/content/view/46/42/lang,de/
Stand 17. August 2009.
Baran, Paul. On Distributed Communications: I. Introduction To Distributed Communications
Networks. United States Air Force Project RAND, August 1964. S. iii.
URL http://www.rand.org/pubs/research_memoranda/2006/RM3420.pdf
Stand 17. August 2009.
Baran, Paul. On Distributed Communications: XI. Summary Overview. United States Air Force
Project RAND, August 1964. S. v.
URL http://www.rand.org/pubs/research_memoranda/2006/RM3767.pdf
Stand 17. August 2009.
BFL Leasing GmbH. Aktuelle Marktanalyse: Wer hat die größeren Festplatten: Business- oder
Konsumer-Notebooks? September 2008.
URL http://www.bfl-it-index.de/LibraryDoc.aspx?
DocID=4c3e78f7a74f499f9c0bdd08a3f6a09e Stand 18. August 2009
Brecht, Bertolt. Der Rundfunk als Kommunikationsapparat. In: Über Politik und Kunst.
Suhrkamp 1971.
Bundesgerichtshof. Az. I ZR 317/01. 01. April 2004.
URL http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?
Gericht=bgh&Art=en&sid=4be55139100a7ce362ab6b5c39e551bd&nr=29367&pos=0&anz
=1&Blank=1.pdf Stand 17. August 2009.
Bundesministrerium der Justiz. Allgemeine Hinweise zur Anbieterkennzeichungspflicht im
Internet („Impressumspflicht“). 18. Februar 2009.
URL http://www.bmj.de/files/-/3283/leitfaden_impressum_anbieterkennzeichnungspflicht_b
arrierefrei_090218.pdf Stand 15. August 2009.
Bundesministerium der Justiz. Telemediengesetz vom 26. Februar 2007, das durch Artikel 2 des
Gesetzes vom 25. Dezember 2008 geändert worden ist. § 5 (1).
URL http://www.gesetze-im-internet.de/bundesrecht/tmg/gesamt.pdf Stand 15. August 2009.
Christoph. YouTube-VideoID-System – Wie Google die Simpsons-Videos entfernt.
02. Dezenber 2008.
URL http://www.mr-gadget.de/medien/2008-12-02/youtube-videoid-system-wie-google-diesimpsons-videos-entfernt/#comment-528 Stand 15. August 2009.
Cima, Andrea, Fragkouli, Athina und Wijte, Ingrid. Independent Internet Number Resources –
Contractual Relationship Changes between sponsoring LIR and END User. Juli 2009.
URL http://www.ripe.net/ripe/docs/ripe-475.html Stand 15. August 2009.
DBT_Moderator 6. Thema: Mit der Bitte um Beachtung! 06. Mai 2009.
URL https://epetitionen.bundestag.de/index.php?topic=1277.0 Stand 17. August 2009.
Djordjevic, Valie, Kreutzer, Till und Spielkamp, Matthias. Urheberrecht im Alltag: Kopieren,
Bearbeiten, Selber Machen. 2. Auflage. Bundeszentrale für politische Bildung, Bonn, 2008.
S. 47.
URL http://www.bpb.de/files/0GKFWO.pdf Stand 17. August 2009.
Elon University School of Communications. Imaging the Internet´s: Quick Look at the Early
History of the Internet.
URL http://www.elon.edu/e-web/predictions/early90s/internethistory.xhtml
Stand 14. August 2009.
Enzweiler, Julie. Auto Industry´s Wild Ride is Getting Smoother. Juli 2009.
URL http://enus.nielsen.com/main/insights/consumer_insight/July_2009/auto_industry_wild
Stand 22. August 2009
Ermert, Monika und Kuri, Jürgen. DNS-Rootserver: Anycast für mehr Ausfallsicherheit.
18. November 2002.
URL http://www.heise.de/newsticker/DNS-Rootserver-Anycast-fuer-mehrAusfallsicherheit--/meldung/32451 Stand 20. August 2009.
Ermert, Monika und Kuri, Jürgen. US-Abgeordnete fordern dauerhafte US-Kontrolle über
Internet-Verwaltung. 06. August 2009.
URL http://www.heise.de/netze/US-Abgeordnete-fordern-dauerhafte-US-Kontrolle-ueberInternet-Verwaltung--/news/meldung/143131 Stand 20. August 2009.
Espenscheid, Dragan und Freude, Alvar C.H. Das Netzwerk ist dezentral. 19. Januar 2001.
URL http://odem.org/insert_coin/mythen/dezentral.html Stand 20. August 2009.
Ferguson, David. P2P File Sharing – The Evolving Distribution Chain. 22. Juni 2006.
URL http://www.dcia.info/activities/p2pmswdc2006/ferguson.pdf Stand 19. August 2009.
Fischer, Mika. Automatic identification of persons in TV series. Mai 2008. S. 65.
URL http://isl.ira.uka.de/~stiefel/diplomarbeiten/DA_MikaFischer.pdf
Stand 17. August 2009.
forsa. Meinungen der Bundesbürger zur Vorratsdatenspeicherung. 02. Juni 2008.
URL http://www.vorratsdatenspeicherung.de/images/forsa_2008-06-03.pdf
Stand 17. August 2009.
Galperin, Eva.
Massive
Takedown
of
Anti-Scientology
Videos
on
YouTube.
05. September 2008.
URL http://www.eff.org/deeplinks/2008/09/massive-takedown-anti-scientology-videosyoutube Stand 17. August 2009.
Geisendrees, Bärbel. Methoden zur Erkennung von Hautfarben in Farbbildern. September 2001.
S. 3f.
URL http://www.uniweimar.de/medien/webis/publications/downloads/theses/geisendrees_2001.pdf
Stand 17. August 2009.
Google, Inc. Erreichen Sie mehr als 10 Mio. Video-Nutzer.
URL http://www.google.com/intl/de/adtoolkit/pdfs/products/op_youtube_de.pdf
Stand 15. August 2009.
Graham Rowe, Duncan. Mapping the Internet. 19. Juni 2007.
URL http://www.technologyreview.com/communications/18944/page1/
Stand 17. August 2009.
Hauswirth, Manfred und Dusidar, Schahram. Peer-to-Peer: Grundlagen und Architektur.
URL http://lsirpeople.epfl.ch/hauswirth/papers/DBS-P2P.pdf Stand 17. August 2009
IANA. IANA Report: Recognition of AfriNIC as a Regional Internet Registry. 06. Mai 2005.
URL http://www.iana.org/reports/2005/afrinic-report-05aug2005.pdf Stand 15. August 2009.
IANA. IANA Report: Recognition of LACNIC as a Regional Internet Registry.
07. November 2002.
URL http://www.iana.org/reports/2002/lacnic-report-07nov02.html Stand 15. August 2009.
IANA. Number Resources.
URL http://www.iana.org/numbers/ Stand 15. August 2009.
ICANN. Criteris for Establishment of New Regional Internet Registries. 04. Juni 2001.
URL http://www.icann.org/en/icp/icp-2.htm Stand 15. August 2009.
Improbulus. Google & DMCA: copyright vs free speech. 06. August 2007.
URL http://www.consumingexperience.com/2007/08/google-dmca-copyright-vs-freespeech.html Stand 17. August 2009.
IT-Times. Zensur: Neben Türkei und Co. sperrt auch China YouTube. 25. März 2009.
URL http://www.it-times.de/news/nachricht/datum/2009/03/25/zensur-neben-tuerkei-undco-sperrt-auch-china-youtube/ Stand 15. August 2009.
Jedynak, Bruno, Zheng, Huicheng, Daoudi, Mohamed und Barret Didier. Maximum Entropy
Models for Skin Detection.
URL http://www.ee.iitb.ac.in/~icvgip/PAPERS/250.pdf Stand 17. August 2009.
Jones, Michael J., Rehg, James M. Statistical Color Models with Application to Skin Detection.
S. 14.
URL http://www.cc.gatech.edu/~rehg/Papers/SkinDetect-IJCV.pdf Stand 17. August 2009.
Karrenberg, Daniel. DNS Root Name Server FAQ. Februar 2008.
URL http://www.isoc.org/briefings/020/ Stand 20. August 2009.
Karsten11. Wikipedia:Löschkandidaten/6. Juni 2009: The Zeitgeist Movement (gelöscht).
13. Juni 2009.
URL: http://de.wikipedia.org/wiki/Wikipedia:L%C3%B6schkandidaten/6._Juni_2009
Stand 15. August 2009.
Kaul, Michael. Die Geschichte des Internet. 04. März 2001.
URL http://www.michaelkaul.de/Geschichte/geschichte.html Stand 14. August 2009.
Khan, Rehanullah, Stöttinger, Julian und Kampel, Martin. An Adaptive Multiple Model
Approach for Fast Content-Based Skin Detection in On-Line Videos. 2008. S. 94.
URL http://portal.acm.org/citation.cfm?id=1463557 Stand 17. August 2009.
Kravets, David. 10 Years Later, Misunderstood DMCA is the Law That Saved the Web.
27. Oktober 2008.
URL http://www.wired.com/threatlevel/2008/10/ten-years-later/ Stand 17. August 2009.
Kuri, Jürgen. Zehn Jahre Digital Millennium Copyright Act: Recht fürs Internet?
28. Oktober 2008.
URL http://www.heise.de/newsticker/Zehn-Jahre-Digital-Millennium-Copyright-Act-Rechtfuers-Internet--/meldung/118043 Stand 17. August 2009.
Landgericht Hamburg. Az. 312 O 85/98. Ehrverletzende Äußerungen im Internet. 12. Mai 1998.
URL http://www.jurpc.de/rechtspr/19980086.htm Stand 17. August 2009.
Landgericht Hamburg. Az. 312 O 606/00. Wettbewerbswidrigkeit eines Links. 02. Januar 2001.
URL http://www.jurpc.de/rechtspr/20010061.htm Stand 17. August 2009.
Landgericht Lübeck. Az. 11 S 4/98. Haftung für Links II. 24. November 1998.
URL http://www.jurpc.de/rechtspr/19990128.htm Stand 17. August 2009.
Lefebvre, Frederik, Chupeau, Bertrand, Massoudi, Ayoub und Diehl, Eric. Image and Video
Fingerprinting: Forensic Applications.
URL http://www.eric-diehl.com/publications/SPIE09Lefebvre.pdf Stand 15. August 2009.
Messerre, Fritz. Encyclopedia of Radio: Regulation.
URL http://www.oswego.edu/~messere/RadioReg.pdf Stand 19. August 2009.
Metzger, Michael. Internet-Zensur: Web 0.0 in China. 05. Juni 2009.
URL http://www.zeit.de/online/2009/23/web2.0-china-zensur Stand 15. August 2009.
MIT Free Culture. YouTomb.
URL http://youtomb.mit.edu/ Stand 17. August 2009.
Mühlbauer, Peter. Wikipedia als Neocon. 01. Juli 2009.
URL http://www.heise.de/tp/r4/artikel/30/30641/1.html Stand 15. August 2009.
Newkirk, Christopher D. und Forker Thomas A. Well, That Didn´t Take Long! Viacom Battles
Google and YouTube. May 2007.
URL http://www.arthurchapman.com/CM/Publications/Privary%20Article%205-07.pdf
Stand 17. August 2009.
Nielsen//NetRatings. 54% der Deutschen nutzen Web 2.0 Websites – Dienste erfahren 32%
Besucherzuwachs und hohe Markentreue. 21. Mai 2007.
URL http://www.nielsen-online.com/pr/pr_070521_DE.pdf Stand 27. August 2009.
Nielsen Online. Media Alert. 11. Juni 2009.
URL http://enus.nielsen.com/etc/medialib/nielsen_dotcom/en_us/documents/pdf/press_releases/2009/june.
Par.19041.File.pdf Stand 22. August 2009.
Obermair, Stefan. Der Schutz des Verbrauchers vor unlauterer Werbung in Deutschland und
Grossbritanien. Tenea Verlag Ltd., 2004. S. 133f.
Ohm, Paul. The Rise and Fall of Invasive ISP Surveillance. 09. September 2008. S. 26.
URL http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1261344 Stand 17. August 2009.
Oppermann, Bernd H.
Unterlassungsanspruch
und
materielle
Gerechtigkeit
im
Wettbewerbsprozess: zur Entstehung und Durchsetzung von Unterlassungsansprüchen im
Wettbewerbsrecht und im gewerblichen Sonderrechtsschutz. Mohr Siebeck, 1993. S. 162.
Patalong, Frank. Urteil outet YouTube als Datenkraken. 04. Juli 2008.
URL http://www.spiegel.de/netzwelt/web/0,1518,563821,00.html Stand 15. August 2009.
Pluta, Werner. Türkisches Gericht hebt Youtube-Blockade auf. 27. August 2008.
URL http://www.golem.de/0808/61999.html Stand 15. August 2009.
RainbowNet Blog Schweiz. Jason Beghe Video über Scientology – gefährliche zerstörerische
Abzocke. 19. April 2008.
URL http://blog.rainbownet.ch/religion/jason-beghe-video-uber-scientology-gefahrlichezerstorerische-abzocke Stand 17. August 2009.
RIPE NCC. RIPE NCC Budget 2009.
URL http://www.ripe.net/ripe/docs/ripe-440.html Stand 15. August 2009.
RIPE NCC. Draft RIPE NCC Charging Scheme 2010.
URL http://www.ripe.net/membership/billing/draft-charging-scheme-2010.html
Stand 15. August 2009.
Rötzer, Florian. China blockiert nach den Protesten in Tibet YouTube. 17. März 2008.
URL http://www.heise.de/newsticker/China-blockiert-nach-den-Protesten-in-TibetYouTube--/meldung/105127 Stand 15. August 2009.
Seidemann, Christian. Seminar Verteilte Systeme P2P – Ein Überblick: Einstieg, Was ist P2P +
Beschreibung verschiedener P2P-Systeme. 18. Dezember 2003. S. 5.
URL http://www.mathematik.uni-marburg.de/~gitzi/studium/P2P-EinUeberblick.pdf
Stand 18. August 2009.
Schlott, Stefan. Peer to Peer – Technologien.
URL http://www.ulm.ccc.de/old/chaos-seminar/p2p/P2P-pdf.pdf Stand 17. August 2009.
Schneider, Daniel W. Das Märchen vom „Link-Urteil“.
URL http://www.knetfeder.de/recht/linkurteil/ Stand 17. August 2009.
Schulte, Horst. Wahrgemacht: Bloginhalt und alle Kommentare gelöscht. 20 September 2007.
URL http://www.finger.zeig.net/2007/09/20/wahrgemacht-bloginhalt-und-alle-kommentaregeloescht/ Stand 17. August 2009.
Schultz, Stefan. Google bastelt den Super-Filter.
URL http://www.spiegel.de/netzwelt/web/0,1518,502558,00.html Stand 17. August 2009.
Scott, Carole. History of the Radio Industry in the United States to 1940. EH.Net Encyclopedia,
edited by Robert Whaples. 26. März 2008.
URL http://eh.net/encyclopedia/article/scott.radio.industry.history
Stand 14. August 2009Vgl.
Spiegel Online. Super Bowl – Big Brother beim Football. 01. Februar 2001.
URL http://www.spiegel.de/netzwelt/web/0,1518,115473,00.html Stand 23. August 2009.
Spielkamp, Matthias. Google: Viacom greift Internet-Kommunikation an. 02. April 2007.
URL http://www.irights.info/index.php?
id=81&tx_ttnews[tt_news]=287&cHash=863f96a3fa Stand 15. August 2009.
Thompson, Julia C. Evaluating User Perspectives Of Audio Fingerprinting Technologies.
December 2008. S. 8.
URL http://etd.ils.unc.edu/dspace/bitstream/1901/581/1/Julia+Thompson++Masters+Paper.pdf Stand 17. August 2009.
TOMORROW FOCUS Portal GmbH. Thailand blockiert YouTube. 04. April 2007.
URL http://www.focus.de/digital/internet/majestaetsbeleidigung_aid_52667.html
Stand 15. August 2009.
Vezhnevets, Vladimir, Sazonow, Vassili und Andreeva, Alla. A Survey on Pixel-Based Skin
Color Detection Techniques. S. 5.
URL http://graphics.cs.msu.ru/en/publications/text/gc2003vsa.pdf Stand 17. August 2009.
Verbraucherzentrale Bundesverband. Digitale Sicherheit: Internet vom Fair-Play weit entfernt.
12. Februar 2008.
URL http://www.vzbv.de/start/index.php?
page=themen&bereichs_id=8&themen_id=97&mit_id=975&task=mit
Stand 18. August 2009.
Viola, Paul und Jones, Michael. Robust Real-time Object Detection. 13. Juli 2001. S. 1.
URL http://research.microsoft.com/en-us/um/people/viola/pubs/detect/violajones_ijcv.pdf
Stand 17. August 2009.
Weinbrenner, Stefan. Filesharing-Systeme: Napster, Freenet, Gnutella, KaZaA.
URL http://www.is.informatik.uni-duisburg.de/courses/p2p_ws03/filesharing.pdf
Stand 17. August 2009.
Wilkens, Andreas. Pakistan sperrt YouTube. 25. Februar 2008.
URL http://www.heise.de/newsticker/Pakistan-sperrt-YouTube--/meldung/104028
Stand 15. August 2009.
YouTube, LCC. Erste Schritte: Dateiformat. 24. Juli 2008.
URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=55744
Stand 14. August 2009.
YouTube, LCC. Erste Schritte: Hochladen von Videos. 23. Juli 2009.
URL http://www.google.com/support/youtube/bin/answer.py?hl=de&answer=57924
Stand 14. August 2009.
YouTube, LCC. Geschichte des Unternehmens.
URL http://www.youtube.com/t/about Stand 14. August 2009.
YouTube, LCC. Terms of Service.
URL http://www.youtube.com/t/terms Stand 22. August 2009.
YouTube, LCC. Überblick und Features.
URL http://www.youtube.com/t/fact_sheet Stand 22. August 2009.
YouTube, LCC. Über YouTube: Überblick und Features.
URL http://www.youtube.com/t/fact_sheet Stand 19. August 2009.
Zentrale zur Bekämpfung unlauteren Wettbewerbs e. V. Frankfurt/Main. Nationales
Wettbewerbsrecht: Rechtsnomen.
URL http://www.wettbewerbszentrale.de/de/recht/nationales/rechtsnormen/
Stand 15. August 2009.
Zheng, Huicheng, Daoudi, Mohamed und Jedynak, Bruno. Blocking Adult Images Based on
Statical Skin Detection. 20. September 2004. S. 8f.
URL http://cis.jhu.edu/~bruno/ZhengELCVIA2004.pdf Stand 17. August 2009.
Ziegler, Peter-Michael. Credit-Suisse-Analyse: YouTube fährt 470 Millionen Dollar Verlust
ein. 06. Mai 2009.
URL http://www.heise.de/newsticker/Credit-Suisse-Analyse-YouTube-faehrt-470Millionen-Dollar-Verlust-ein--/meldung/135824 Stand 15. August 2009.
Ziegler, Perter-Michael. YouTube boomt weiter. 15. April 2008.
URL http://www.heise.de/newsticker/YouTube-boomt-weiter--/meldung/106537
Stand 15. August 2009.