Seminarausarbeitung Filesharing

Transcription

Seminarausarbeitung Filesharing
Seminarausarbeitung
Filesharing
Seminararbeit im Seminar
Neue Technologien in Internet und WWW
Wintersemester 2003/04
Universität Jena
vorgelegt von
Marcus Lenzner
Februar 2004
Abstract
Gerade in den letzten Jahren, in der sich das Internet dank neuer
Technologien bei der breiten Masse etablieren konnte, erlangten viele neue
Entwicklungen an Bedeutsamkeit. Allesamt entspringen diese im Grunde
genommen den Bedürfnissen der Personen, die sich Tag für Tag im Internet
bewegen. Dazu gehören auch die ständig zunehmenden Benutzer von so
genannten Peer-to-Peer-Systemen. Eben diese Systeme sollen anhand
einiger ausgewählter Beispiele näher betrachtet werden. Dazu gehört zum
einen die Erläuterung deren Funktionweisen, als auch die Möglichkeiten,
die Sie im Bezug auf den Informationsaustausch bieten. Ebenfalls behandelt
werden weiterführende Aspekt in Richtung Wirtschaft, Recht und
Gesellschaft, denn neue Entwicklungen ziehen ebenso neue Konsequenzen
in dieser Hinsicht nach sich.
Die vorliegende Seminararbeit soll lediglich einen Einblick gewähren, jedoch keine Referenz darstellen für technische oder rechtliche Gesichtspunkte.
1
Inhaltsverzeichnis
1
2
Das Internet - Wurzeln des Peer-to-Peer................................................ 3
Was ist Peer-to-Peer ? ............................................................................ 5
2.1
Grundlagen..................................................................................... 5
2.1.1
Aber was ist nun dieses P2P eigentlich? ................................ 5
2.1.2
Technische Herausforderungen.............................................. 6
2.1.3
Vergleich zu Client/Server-basierten Systemen..................... 8
2.1.4
Was wird getauscht ................................................................ 8
2.2
Hybrides Peer-to-Peer / Zentrale Systeme ..................................... 9
2.2.1
Napster ................................................................................. 11
2.2.2
Audiogalaxy ......................................................................... 12
2.2.3
Edonkey ............................................................................... 13
2.2.4
Emule ................................................................................... 15
2.2.5
Alternativen.......................................................................... 16
2.3
Pures Peer-to-Peer / Dezentrale Systeme..................................... 20
2.3.1
Gnutella................................................................................ 21
2.3.2
FastTrack.............................................................................. 23
2.3.3
Overnet................................................................................. 25
2.3.4
Alternativen.......................................................................... 26
3
Auswirkungen auf die Gesellschaft ..................................................... 29
3.1
Raubkopieren - ein Kavaliersdelikt ?!.......................................... 29
3.2
Rechtliche Aspekte....................................................................... 31
3.3
Wirtschaftliche Aspekte ............................................................... 33
3.3.1
Schadensreport ..................................................................... 33
3.3.2
Möge die Jagd beginnen ...................................................... 33
3.3.3
Sonstige Maßnahmen ........................................................... 34
4
Abschließende Bewertung beider P2P- Systeme ................................. 36
A Glossar ................................................................................................. 37
B Weiterführende Literatur...................................................................... 39
C Abkürzungen und Akronyme............................................................... 41
D Literatur................................................................................................ 42
E Index..................................................................................................... 44
2
1 Das Internet - Wurzeln des Peer-to-Peer
Bevor ich in meiner Arbeit nun zur genaueren Beschreibung verschiedener
P2P-Systeme kommen will, möchte ich einige Gedanken zur zugrunde liegenden Vorraussetzung erklären - konkret: zum Internet.
In den 60er Jahren sollte die ARPA (Advanced Research Projects Agency)
herausfinden, wie man Computer miteinander vernetzten kann (um auf evtl.
Atomangriffe reagieren zu können). Als Lösung entschied man sich für ein
"Dynamic Rerouting". Das heißt nichts anderes, als dass ein System eingesetzt wurde, das trotz der partiellen Zerstörung einiger Datenleitungen weiterhin operabel sein konnte. Um zudem noch die nötige Zuverlässigkeit gewährleisten zu können, fiel die Wahl auf ein "packet-switched network".
Das erste solcher Netzwerke wurde von Bolt Beranek & Newman Inc. installiert (das sog. ARPANET). Darin waren die ersten 4 Hosts als gleichberechtigte Teilnehmer zusammengeschaltet und nicht als Client/Server bzw.
Master/ Slave [MH01].
Mitte der 70er waren dann schließlich aufgrund Kapazitätsmangels - bis
jetzt umfasste das Netz etwa 50 Rechner - neue Netzwerke nötig.
Außerdem kam es 1983 zur Aufspaltung des ARPANET in das MILNET
(Militär) und das zivile ARPANET. Ab Mitte der 70er übernahm dann die
U.S. Defense Communication Agency (DCA) die Kontrolle über das
ARPANET und entwickelt das heute weitverbreitete und bekannte TCP/IP,
welches Mitte der 80er schlussendlich zum Standart avancierte.
Das wichtigste Netzwerk neben dem ARPANET war das NSFnet, welches
zudem noch schneller war und eine preiswertere und unkompliziertere Infrastruktur besaß - weshalb das ARPANET schließlich 1989 abgeschaltet
wurde.
Im großen und ganzen sollte damit das entstanden sein, was heute als Internet bezeichnet wird.
Natürlich stoppte die Entwicklung nicht an diesem Punkt. Weitere Netzwerke entstanden, die alle per TCP/IP verbunden wurden. Ich möchte hier nur
einige anführen:
• Computer Science Network
• High Energy Physics Network
• National Science Foundation Network
• Japanese Computer Network usw.
Leider wird heutzutage oftmals das Internet mit dem World-Wide-Web
(WWW) gleichgesetzt. Letzteres ist im Grunde genommen lediglich das,
was der Großteil der Benutzer in Form von HTML-Seiten zu sehen bekommt. Das dies ganz offensichtlich nicht der Fall ist, soll diese Arbeit hier
auch noch einmal verdeutlichen. Das Internet in Form von HTML-Seiten
3
kennt mit Sicherheit der Großteil der Bevölkerung. Einer weiteren Facette das Filesharing in P2P-Systemen - soll die Aufmerksamkeit dieser Arbeit
gelten.
Eng damit verbunden ist auch das sogenannte Grid Computing. Wer sich für
diese Art des P2P-Computing interessiert, der sei an die Arbeit von André
Hoffmann verwiesen, welche ebenfalls in diesem Seminar angefertigt wurde.
In meiner Arbeit möchte ich nun in Abschnitt 2 erklären, inwiefern das
Peer-to-Peer im Internet eine Rolle spielt. Dabei gehe ich zunächst auf den
grundlegenden Aufbau dieser Netze ein, und erläutere dann die beiden großen Systemen anhand von Beispielen näher. Natürlich bringen die Möglichkeiten solcher Systeme auch Folgen mit sich, die unmittelbar mit der Gesellschaft und Wirtschaft zu tun haben. Darauf werde ich in Abschnitt 3
näher eingehen. Ein Überblick bzw. eine abschließende Bewertung ist in
Abschnitt 4 zu finden.
4
2 Was ist Peer-to-Peer ?
Wie im vorigen Abschnitt schon erwähnt, bestand das damalige ARPANET
anfangs aus gleichberechtigt zusammen geschalteten Teilnehmern. Wie wir
noch sehen werden, ist gerade das eine grundlegende Eigenschaft des Peerto-Peer-Prinzips (im folgenden P2P genannt). Offenbar ist P2P also ein "alter Hut". Seine Renaissance, wenn man das so sagen kann, erlebte es aber
erst in Verbindung mit der massentauglich gewordenen Umsetzung namens
Napster. Doch dazu später mehr.
In Abschnitt 1 hatte ich bereits erwähnt, dass P2P keinesfalls nur für
Filesharing interessant ist. Weitere Anwendungsgebiete wären etwa:
• Instant Messaging (alle kennen ICQ, AOL Messenger...)
• P2P Groupware (Software zur Unterstützung von Arbeitsgruppen)
• Grid Computing (DNET, SETI@home...), siehe Arbeit von
André Hoffmann
2.1 Grundlagen
2.1.1 Aber was ist nun dieses P2P eigentlich?
Bezug nehmend auf die eben angeführten Beispiele scheint folgendes offensichtlich: Daten, Speicher, Informationen, CPU-Rechenzeit usw. werden
getauscht. Dazu folgendes Zitat:
Intel P2P Working Group: P2P ist …
"[…]the sharing of computer resources and services by direct exchange between systems [...] " [UOI].
Nach dieser Definition wäre also P2P das Teilen von Ressourcen und
Dienstleistungen in einem direkten Austausch zwischen den Systemen.
Weiterhin kann offensichtlich jeder quasi "geben und nehmen".
Alex Weytsel: P2P ist …
“[…]the use of devices on the internet periphery in a non client capacity […]” [UOI].
Laut Alex Weytsel steht also das "Nicht-Client"- Verhältnis im Mittelpunkt.
5
Außerdem ist zu beachten, dass die IP- Adressen der Internetuser, die zur
"Navigation" im Internet von Nöten sind, nicht zwingend statisch sein müssen (Dial-Up-User). Von daher muss das P2P-System außerhalb des DNSSystems operieren, da nicht gewährleistet werden kann, dass User zum einen ständig online sind, und zum anderen auch immer dieselbe IP- Adresse
haben.
Clay Shirky: P2P ist …
"[…]a class of applications that takes advantage of resources –
storage, cycles, content, human presence – available at the edges of
the Internet. Because accessing these decentralized resources means
operating in an environment of unstable connectivity and unpredictable IP addresses, P2P nodes must operate outside the DNS system
and have significant or total autonomy from central servers […]”
[UOI].
Clay Shirky betont damit die Nutzung von dezentralisierten Ressourcen in
einem System, dass unabhängig von zentralen Servern operiert.
Als Fazit bleibt somit folgendes:
1. P2P-Anwendungen tauschen Daten direkt aus, d.h. ohne verzögernde/ filternde/ zensierende Zwischenserver. Eventuelle Server dienen
lediglich zur Hilfestellung als Vermittler.
2. P2P-Anwendungen sind gleichzeitig Client und Server, d.h. jeder
nimmt und gibt Ressourcen. Damit sind alle Knoten im Idealfall
gleichberechtigt.
3. P2P-Anwendungen sind autonom, d.h. sie bestimmen was sie in
welchem Umfang wann wohin übertragen. Um das angesprochene
Problem des DNS lösen zu können, muss das P2P- Netzwerk das
Kommen und Gehen einzelner Knoten in Echtzeit tolerieren und
verarbeiten.
Im Falle des Filesharing kann man sich ein solches Netz im Idealfall als
vollständig verbundenen Graphen vorstellen, in dem jeder mit jedem Daten
tauscht. Zu einem späteren Zeitpunkt möchte ich dies jedoch wieder etwas
relativieren - eine Unterscheidung in hybrides und pures Peer-to-Peer wird
nötig werden.
2.1.2 Technische Herausforderungen
Gerade diese "Ungebundenheit" stellt ein nicht zu unterschätzendes Problem
dar. Im Großen und Ganzen lassen sich 5 zentrale Herausforderungen finden, denen sich ein P2P- Netz stellen muss.
6
1. Adressierung
Wie nun schon mehrmals erwähnt, sind die IP-Adressen bei "eingewählten" Teilnehmern (Modem, DSL) nicht statisch. Momentan steht als Lösung eigentlich nur ein statischer Zugangsknoten zum P2P- Netz zur
Verfügung. Das heißt dieser muss eine feste IP- Adresse haben. Damit
ist er immer lokalisierbar. In Zukunft wird aber wahrscheinlich dank
IPv6 ohnehin jeder User eine statische IP haben, da die Adressierung auf
einem 128Bit Schlüssel basiert, welcher mehr als genug Kombinationen
bietet, ohne dass sich Adressbereiche zu Überschneiden drohen.
2. Routing
Dies übernehmen entweder Server (hybrides/zentrales P2P) oder alle
Knoten (pures/dezentrales P2P) gleichermaßen. Es gibt diverse verschiedene Routingverfahren. Deren Behandlung würde aber jetzt hier zu
weit führen. Vor- und Nachteile betreffend Geschwindigkeit und Bandbreite haben sie alle. Beim Gnutella- Netz unter Punkt 2.3.1 werde ich
kurz darauf zurückkommen.
3. Suchfunktion
Hier offenbaren sich ähnliche Problematiken wie beim Routing. Übernimmt in den zentralen Systemen noch ein Server die Suchaufgaben, so
sind im dezentralen System alle Knoten dafür zuständig. Damit liegt sofort auf der Hand, dass die Implementierung in beiden System auch
grundlegend verschieden ist. Später auch hierzu mehr beim GnutellaNetz.
4. Bandbreite
Zwar haben Breitbandsysteme wie DSL, Cable oder ähnlich mittlerweile
eine ganz gute Verbreitung erreicht, aber trotzdem sind noch einige User
mit Modems unterwegs. Auch dies ist nicht zu unterschätzen. Die
stärkste Kette ist immer nur so stark wie ihr schwächstes Glied - das ist
hier nicht anders. Auch wenn man selbst ausreichend Bandbreite hat, so
können die geringen Bandbreiten von Modem- Usern doch zu erheblichen Performanceeinbrüchen führen, schließlich müssen sie unter Umständen dieselben "bandbreitenbedürftigen" Routing- und Suchfunktionen ausführen wie DSL- User.
5. Sicherheit
Damit ist zum einen die Stabilität gemeint, zum anderen auch die Sicherheit vor Hackern oder gar zu neugierigen Teilnehmern. In diesem
Zusammenhang spielt Verschlüsselung und der nicht zu freigiebige
Umgang mit IP- Adressen und ähnlichen empfindlichen Daten eine Rolle.
7
2.1.3 Vergleich zu Client/Server-basierten Systemen
Unter dem Client-Server-System (oder Paradigma) versteht man folgendes:
der Server ist ein Prozess, der auf eine Verbindung wartet (meist in einer
Endlosschleife), der Client hingegen übernimmt den aktiven Teil des Verbindungsaufbaus und bestimmt dessen Zeitpunkt.
Offenbar sind die Autonomie und der direkte Datenaustausch allerdings
nicht die Schlüsselkomponente von P2P-Anwendungen. Das Besondere ist
die Funktionalität, gleichzeitig Client und Server sein zu können.
Am Beispiel FTP ist das Client-Server-Modell deutlich zu erkennen. Der
Server wartet, dass Clients zu ihm verbinden. Der Client selbst gibt zu einem von ihm gewählten Zeitpunkt das Signal, nun verbinden zu wollen.
Nicht ganz so eindeutig ist das Beispiel IRC: Internet Relay Chat. Zwar
existieren Server und Clients, wobei der Server gerade Filter- und
Vermittlungsaufgaben übernimmt, und auch der Chat rel. eindeutig als
Client-Server-Modell zu identifizieren ist - die Unterstützung von
Fileservern/ Filetransfers ist aber P2P-typisch. Dateiangebote werden im
Chat gezeigt, die Dateiübertragung erfolgt per DCC (Direct Client to Client
Protocol) und sogenanntem Trigger in Verbindung mit der Nummer der
gewünschten Datei und dem Namen des Benutzers. Das Prinzip ähnelt dem
später noch besprochenen Direct Connect. Es besteht lediglich immer die
Notwendigkeit die entsprechende IP bzw. Server bzw. Channel zu kennen
und zu finden. Dies geschieht z.B. per Links auf Seiten wie
www.packetnews.com (enthält eine große Liste von Dateien/ Channels).
Grundsätzlich übernimmt beim Client-Server-System der Server die Rolle
des Anbietenden, der Client ist hingegen der Suchende. Der Server ist dabei
nicht in der Lage, sich selbständig Daten vom Client zu holen, welcher wiederum nicht selbständig Daten anbieten kann. Client und Server haben unterschiedlich Aufgaben, sie sind nicht gleichberechtigt.
Dort setzt das P2P-Prinzip an. Jeder Knoten/Anwender bietet Dienste/Daten
an und nimmt sie gleichzeitig in Anspruch. Alle Knoten sind gleichberechtigt.
In den folgenden Abschnitten wird es nun nicht mehr allgemein um P2P
gehen, sondern um Filesharing. Dazu gehört vor allem die Erläuterung der
zentralen und dezentralen Systeme anhand von Beispielen.
2.1.4 Was wird getauscht
Schon an den Filtern der Suchfunktionen erkennt man die einschlägigen
Tauschformate:
• Musik/Audio
• Filme/Video
• Bilder
• Programme
• Archive usw.
8
Da unkomprimierte Bilder, Musik, Archive und Filme viel zu groß sind,
sind gerade die bekannten Formate mp3, DivX, SVCD(MPEG4), jpeg usw.
sehr beliebt (nähere Informationen zu diesen Formaten sind in den entsprechenden anderen Vorträgen dieses Seminars zu finden).
Aus der langjährigen Erfahrung im Umgang mit Filesharingtools postuliere
ich folgendes: getauscht werden meist illegale Inhalte (sog. Warez) wie Musikalben, DVD-Rips, Kinomitschnitte (sog. Screener) oder Software jeder
Art (Spiele, Betriebssysteme ...), sowie gescannte Bücher usw. Der Anteil
legaler Inhalte ist verschwindend gering.
2.2 Hybrides Peer-to-Peer / Zentrale Systeme
Grundlage sind ein oder mehrere zentrale Server, die Dateien indexieren.
Meist dienen sie auch als Login. Der geführte Dateiindex dient als Übersicht
der Ressourcen für die Clients, stellt also quasi eine Art Inhaltsverzeichnis
aller vorhandenen Daten dar. Die Übertragung der Daten findet aber P2Ptypisch auch hier letztendlich direkt zwischen den Clients statt, ohne dass
sich der Server weiter darum kümmern muss. Hybride P2P- Systeme sind
also eine Art Zwischenstück zwischen purem P2P und Client/ServerSystemen.
Als Beispiel für so ein zentrales System sei hier Napster genannt (siehe
2.2.1), deren zentraler Server später einige Umstände bereiten sollte, als es
Probleme mit dem Gesetz gab. Die Problematik zentraler Server im Hinblick auf die Jurisdiktion wird noch in Abschnitt 3 zur Sprache kommen.
Der Ablauf der Kommunikation in solchen zentralen Systemen sieht prinzipiell so aus. Ein Client verbindet zu einem der Server und übermittelt ihm
seinen Metadaten-Bestand (Metadaten = Daten über Daten). Dieser trägt die
Metadaten in seinen Index ein. Erreicht den Server nun zu einem späteren
Zeitpunkt eine Suchanfrage, so durchsucht er seine Datenbank (also den
Index) und erzeugt eine Liste, welche die gewünschten Dateien als Ergebnis
enthält. Natürlich nicht die Dateien an sich, sondern sozusagen die Quellen
(also andere Clients). Diese Liste bekommt nun der suchende Client zugeschickt und kann sich mittels derer die Dateien direkt vom entsprechenden
Client laden, ohne dass ihn der Server ab jetzt weiter unterstützen müsste.
Beim Verbindungsabbruch eines Clients werden seine Metadaten aus dem
Index wieder gelöscht.
Anschaulich muss sich das Netz etwa folgendermaßen vorstellen (siehe
Abb. 1).
9
Abbildung 1: Grundlegender Aufbau zentraler/ hybrider Systeme
Der Index ist meist als so genannter inverser Index aufgebaut. Man muss
sich das so vorstellen, dass zu jedem Wort (zum Beispiel ein Wort aus dem
Name einer mp3-Datei, eben die Metadaten) eine Liste erstellt wird, welche
die Orte enthält, an denen das Wort zu finden ist (und ggf. noch die Stelle an
jenem Ort). Dies entspricht quasi dem Aufbau einer Hash-Tabelle, in der an
jedem Feld der Tabelle (das sind die Wörter) eine Liste (das sind die Orte)
hängt.
Sind sehr viele User im Filesharing-Netz aktiv, dann kann es aus Performancegründen nötig sein, mehrere Server zu betreiben, die ggf. miteinander
kommunizieren müssen, um die Indexdaten auszutauschen. Die verschiedenen Kommunikationsarten möchte ich hier auch nur am Rande erwähnen:
• Chained/Unchained Architecture
• Full Replication Architiecture
• Hash Architecture
Ein ganz offensichtlicher Vorteil und gleichzeitig Nachteil solcher zentralen
Systeme ist der zentrale Server. Durch ihn wird zwar eine effiziente Suche
dank der Indexdatei möglich, und eine zentrale Kontrolle ist auch möglich
(z.B. ist damit das Einschleusen manipulierter Server unmöglich oder ein
kostenkontrolliertes System ist denkbar), jedoch bezahlt man dies mit einem
erhöhten Bandbreitenbedarf für Suchanfragen und der Anfälligkeit für
Hackerangriffe und Juristen.
10
2.2.1 Napster
(a) Allgemeines
Napster hat das Kind P2P gesellschaftsfähig gemacht. Zu Bestzeiten benutzten es bis zu 50 Mio. User. Die 1999 von Shawn Fanning entwickelte mp3Tauschbörse sollte aber bald Probleme mit der RIAA (Recording Industry
Association of America) bekommen aufgrund von Urheberrechtsverletzungen. Diverse Klagen und Berufungen folgten, schließlich versuchte man
dem drohenden Aus mit einer Kooperation im November 2000 mit der Bertelsmann eCommerce Group zu entgehen. Ohne Erfolg. Mitte 2001 verschwand Napster mehr oder weniger von der Bildfläche, nachdem es die
Auflage erhalten hatte, nur noch online sein zu dürfen, wenn keine urheberrechtlich geschützten Lieder mehr im Netz sind (Filter scheiterten) [SF].
(b) Funktionsweise
Zunächst versucht man zu einem festen Reconnect- Server zu verbinden,
welcher einen dann auf einen der Indexserver weiterleitet, auf denen dann
erst der Dateiindex liegt. Eine manuelle Auswahl der Indexserver ist hingegen nicht möglich. Das ist eines der Probleme. Ein anderes ist, dass die Indexserver nicht synchronisiert sind, d.h. Napster besteht quasi aus mehreren
Teilnetzen, die nicht miteinander kommunizieren. Damit sind Dateien, die
auf einem Server verfügbar sind, dies vielleicht nicht auf einem anderen.
Gemäß dem P2P-Prinzip werden die Dateien aus der zurückgelieferten Indexliste dann direkt von einem Benutzer zum anderen geladen. Genutzt wird
dazu Port 6699.
(c) Kommentare
Sicherheitstechnisch ist es um Napster nicht allzu gut bestellt. Das eingesetzte Protokoll überträgt Logins und Passwörter unverschlüsselt, bei der
Suche wird der Benutzername zusammen mit der IP-Adresse übertragen.
Dies macht das System für Attacken auf Server und Clients anfällig.
Das in Verbindung mit den zentralen Reconnect- und Indexservern hat es
der Justiz ebenfalls leicht gemacht, Napster zu zerschlagen, sodass es heute
eigentlich keine Bedeutung mehr hat.
Allerdings erschienen nach Offenlegung des Protokolls einige
Erweiterungen, die das System komfortabler machen sollten. Diese sind
noch nicht alle von der Bildfläche verschwunden. Zum Beispiel ermöglichte
Napigator ab diesem Zeitpunkt die freie Auswahl der Indexserver,
außerdem schossen einige freie napsterkompatible Indexserver wie
OpenNap oder Jnerve aus dem Boden. Weiterhin gab es neue Clients mit
mehr Funktionalität. Hier sei Aimster und WinMX erwähnt. Letzteres
funktioniert momentan auch noch recht gut und bietet neben mp3 auch noch
andere Formate an. Komfortabler ist es allein schon deshalb, weil jetzt eine
Datei gleichzeitig von mehreren Benutzern geladen werden kann. Die Datei
11
wird dabei in kleine Teile zerlegt, wobei nun jedes dieser Teile von einem
unterschiedlichen Benutzer geladen werden kann. Dies bringt angenehme
Geschwindigkeitszuwächse mit sich. Außerdem sind mehrere Suchanfragen
gleichzeitig möglich. Allerdings muss man erwähnen, dass später zum
eigenen "WinMX Peer Network" gewechselt wurde, auf dem das System
auch jetzt noch basiert. WinMX ist nicht nur auf Port 6699 beschränkt,
sondern erlaubt auf das Firewall- taugliche Tunneling .
2.2.2 Audiogalaxy
(a) Allgemeines
Nach dem Aus von Napster wurde Audiogalaxy zum beliebten Tool für
mp3-Downloads. Ursprünglich sollte es nur wie www.mp3.com eine
Tauschbörse für unbekannte Musiker sein.
2001 wurde auch Audiogalaxy, ähnlich wie Napster, von der RIAA verklagt, da die Filter nicht richtig funktionierten, d.h. urheberrechtlich geschützte Werke wurden nicht zufriedenstellend aussortiert. Nach verschärften Restriktionen waren bald kaum noch Titel erhältlich.
(b) Funktionsweise
Hauptsächlich wird Audiogalaxy über ein Webinterface (also eine Benutzeroberfläche auf HTML-Basis) auf www.audiogalaxy.com gesteuert. Nach
dem Login sucht man sich auf der Seite das gewünschte Lied und legt es
damit in eine Downloadwarteschlange. Auf dem eigenen Rechner startet
man nun das kleine Programm "Satellite", dieses sorgt dann für die Downund Uploads (hat nur geringe Funktionalität). Das Gute an dem Webinterface ist, dass Suche und Download getrennt bedient werden können. Damit
wird die Steuerung von unterschiedlichen Rechnern möglich, ohne per
Fernzugriff auf dem Heimrechner arbeiten zu müssen. Als Audiogalaxy
noch aktuell war sprachen gute und schnelle Suchergebnisse, sowie die für
damalige gängige ISDN-Leitungen ausreichende Transfergeschwindigkeit
für die große Beliebtheit. Weiterhin behielten die Server auch Offline- Angebote im Index, womit man ein ggf. später wieder online stehendes Angebot bereits in die Downloadqueue legen konnte.
(c) Kommentare
Probleme bereitete jedoch die mitinstallierte Adware Gator. Wie auch bei
weiteren Tauschbörsen stieß dies nicht auf Zustimmung bei den Usern.
Momentan ist das Audiogalaxy Peer-to-Peer-Netzwerk für den Satellite
ganz abgeschaltet. Stattdessen ist der kostenpflichtige "on demand music
subscription service" Rhapsody online. Dort kann man jetzt für ca. 10$
(monatliche Pauschalkosten) Lieder herunterladen. Einige Titel können auf
CD gebrannt werden für 0,79$ pro Lied, allerdings existiert dieser Client
12
momentan nur für Windows und auch nur in den USA wegen der Copyright-Problematik [AG].
2.2.3 Edonkey
(a) Allgemeines
Sehr beliebt unter den Tauschbörsen ist momentan Edonkey2000 (im folgenden als ED2k bezeichnet). Besonders geeignet für große Dateien wie
DivX- Filme, Programme, Spiele, Musikalben usw. ist eine große Bandbreite sehr förderlich, um die großen Datenmenge zu bewältigen. Für kleine
Dateien wie mp3-Dateien eignet sich WinMX oder Kazaa nämlich um einiges besser, da derartige Dateien dort stärker verbreitet sind.
(b) Funktionsweise
ED2k verwendet das Protokoll MFTP (Multisource File Transfer Protocol).
Die Verbindung zum Server wird über TCP- Port 4661 hergestellt, die Verbindung zu den Clients über TCP- Port 4662 und für den Messagetransfer
wird letztendlich UDP-Port 4665 genutzt. Die Ports können jedoch auch frei
gewählt werden. Ein Tunneling für Firewalls gibt es jedoch nicht, hierfür
müssen die Ports freigeschalten werden, ansonsten macht ED2k Probleme.
ED2k enthält übrigens auch den Overnet-Kern (siehe 2.3.3) - damit kann
gleichzeitig auf das eDonkey- und das Overnet- Netz zugegriffen werden.
Um freigegebene Dateien eindeutig identifizieren zu können, werden HashWerte generiert. Bei den heutigen Festplattenkapazitäten stellt sich folgendes Problem jedoch nicht mehr wirklich: begonnene Dateien werden sofort
in voller Größe auf der Platte angelegt.
Beim Download einer Datei kann der Originaldateiname nach Wunsch live
geändert werden. Dies ist gerade für die aktuelle Rechtslage interessant, da
mit dieser Funktion ganz schnell der Dateiname geändert werden kann, und
es nicht mehr offensichtlich ist, ob eine Datei aus einer illegalen Quelle (identifiziert anhand eines Dateinamens wie "...cracked....") stammt (siehe
Abschnitt 3)
Der Verbindungsaufbau erfolgt zu einem ED2k- Server, diese sind über eine
Serverliste bekannt (die auf diversen Seiten angeboten wird, wie z.B.
www.esel-paradies.de). Ist man einmal verbunden, so können die Serverlisten über die Server weiter aktualisiert werden. Somit ist man immer auf dem
neuesten Stand. Wie für hybride Systeme typisch teilt der Client dem Server
seine Metadaten mit, womit dieser wieder eine Liste verfügbarer Dateien
der verfügbaren Clients hat. Die normale Suche nach Dateien findet auf dem
Server statt, zu dem man verbunden ist. Die globale Suche geht an alle Server, ist jedoch unbeliebt bei Serveranbietern, da dadurch ein enormer Traffic
und viel Aufwand für die Server entstehen kann, wenn man bedenkt was
passiert, wenn alle User immer mit globaler Suche suchen. Der Vorteile
liegt natürlich in mehr Suchergebnissen.
13
ED2k erlaubt auch mehrere Suchanfragen gleichzeitig. Hat man nun eine
Datei gefunden und wählt diese aus, so folgt dieser Auswahl zuerst die Anfrage an den Server, zu dem man verbunden ist, und dann an alle anderen
Server, um die Teile der Datei nachzufragen.
Damit ist die globale Suche eigentlich nur bei seltenen Dateien nötig, die
man auf dem aktuellen Server nicht gleich gefunden hat. Meist bringt die
Suche aber schnell viele Ergebnisse mit diversen Informationen zu den
Quellen .
Die folgende Grafik veranschaulicht die Vorgänge noch einmal (siehe Abb.
2).
Abbildung 2: Funktionsweise von Edonkey
Zusätzlich zum normalen Download gibt es noch das Download-System
"Horde". Es sucht eine Gruppe von Usern, die die gleiche Datei herunterladen. Innerhalb dieser Gruppe versorgen sich die User nun gegenseitig mit
Uploads, um den Download zu beschleunigen. Andererseits dient dieses
System als "Leech- Killer" (wenn alle User Horde verwenden findet jemand, der nur wenig Upload hat, keine Tauschpartner mehr). Die Effektivität wird sich jedoch erst noch zeigen müssen.
(c) Kommentare
Das Stichwort "Leech- Killer" deutet bereits das hauptsächliche Problem
von ED2k an. Da ab 10kb/s Uploadlimit (d.h. es werden nicht mehr als
10kb/s Daten versendet) mit unbegrenztem Downloadlimit gezogen werden
kann - selbst wenn man keine Dateien anbietet - bieten damit auch nur sehr
wenige User etwas an, aber alle wollen laden/leechen. Beim Uploadlimit bis
zu 5kb ergibt sich das Downloadlimit = Uploadlimit*3 und beim
Uploadlimit von 5kb bis 10kb ergibt es sich als Downloadlimit =
Uploadlimit*4.
14
Um nun hohe Downloadgeschwindigkeiten zu erreichen, müssen meist viele
Dateien in der Downloadliste sein, um in der Summe eben diese großen
Geschwindigkeiten zu erreichen. Zudem dauert es deshalb auch ziemlich
lang, um z.B. zu allen 20 Dateien der Download-Queue die nötigen Quellen
ausfindig zu machen (es dauert etwa 1 bis 2h bis der Download richtig gut
läuft).
Die Stärken von ED2k liegen im Multisource- Download (kein Problem von
vielen Leuten gleichzeitig Teile derselben Datei zu laden), im partiellen
Download/Upload (schnellere Raten dank Zerlegung der Dateien) sowie vor
allem auch in den ED2k-Links auf diversen Seiten wie Sharereactor.com
oder eselfilme.de (damit erspart man sich die Suche in ED2k selbst und ggf.
das versehentliche Laden von Fakes). Dank eines riesigen Angebotes an
Dateien, ist es auch kein Problem auch ältere und ausgefallene Sachen zu
finden.
Unter Umständen erhält man also bei verbreiteten Sachen sehr gute Downloadgeschwindigkeiten und bekommt mit nur genügend Ausdauer so gut
wie alles, was man sucht.
2.2.4 Emule
Die Funktionalität dieses beliebten Edonkey2000-Clone (der immerhin
schon 1 Mio. Nutzer umfasst [SED]) ist prinzipiell so wie von ED2k, allerdings um einige Funktionen erweitert. Zum Beispiel erlaubt es ein Webserver, dass Emule über ein Webinterface überwacht werden kann (über Port
4711 oder Port freier Wahl, siehe Abb. 3). Die so genannte MobileMuleFunktion erlaubt es sogar über WAP/GPRS per Handy das Emule zu überwachen.
Für die anfängliche Konfiguration (man kann sehr viele Details einstellen)
gibt es einen Config-Wizard. Bei Filmdownloads ermöglicht Emule nun
eine Videovorschau - damit kann man sich schon nach einiger Zeit versichern, dass man auch tatsächlich nicht einem Fake aufgesessen ist.
Ausführlichste Statistiken, sowie ICH (Intelligent Corruption Handling) für
fehlerhafte Dateien runden Emule ab, und machen es in meinen Augen zu
einem komfortableren Edonkey- Client als ED2k.
Mit einer eigenen "Anitleecher"- Strategie versucht man außerdem, der Unart, nie etwas hoch zu laden, Einhalt zu gebieten. Emule merkt sich die IDs
(die sich übrigens über eine einfache Formel aus der IP berechnen) von
Clients, von denen man herunterlädt oder denen man Dateien sendet. Über
eine Formel steigt oder fällt ein Multiplikator, der Auswirkung darauf hat,
wie lange man bei dem Gegenüber in der Warteschlange hängt:
Ratio1 = Uploaded Total* 2 / Downloaded Total
Ratio2 = SQRT(Uploaded Total + 2)
Der niedrigere der beiden Multiplikatoren wird als endgültiger Multiplikator
gewählt (er bewegt sich immer zwischen 1 und 10).
15
Abbildung 3: Das Emule Webinterface
2.2.5 Alternativen
DIRECT CONNECT
(a) Allgemeines
Zwar ist auch Direct Connect ein zentrales System, aber es hat den Vorteil,
dass es keinen Hauptserver gibt wie bei Napster, den man leicht sperren
oder filtern kann. Stattdessen gibt es unterschiedliche Communities, in denen die Benutzer, indem sie sich mit der Community verbinden, einen eigenen Server (sog. HUB) erstellen. Damit liegt eine direkte Verbindung zwischen Anbieter und Konsument liegt vor, in die sich keiner einmischen
kann.
Wichtig ist, dass jeder Benutzer nicht nur herunterlädt, sondern auch selbst
Dateien anbietet. Die Communities haben oft Mindestanforderungen an Angebot und Bandbreite, die man mitbringen muss, sowie unter Umständen
Passwörter. Richtig gute Communities (also mit großen Datenbestand und
schnellen Transferraten) erreicht man erst mit T1-Leitung und min. 50GB
Angebot. Zum einen ist dies eine gute Leecher- Vorbeuge und zum anderen
eben auch eine Art Sicherheit vor gar zu neugierigen Teilnehmern.
Direct Connect enthält eine detaillierte Suchfunktion mit sehr guten Ergebnissen, auch ausgefallene Sachen sind zu finden. Größtenteils ist es aber vor
allem für englische Inhalte geeignet aufgrund überwiegend "internationaler"
16
Verwendung von Direct Connect. Weiterhin gibt es einen Chat und eine
Favoritenliste für komfortables Kommunizieren und Downloaden. Zwar
werden Werbebanner eingeblendet, aber diese kommen von einer eigenen
Adware, die diese lediglich als HTML-Banner innerhalb des Programms
ohne Pop-Ups anzeigt.
(b) Funktionsweise
Prinzipiell funktioniert Direct Connect ähnlich wie das bereits erläuterte
IRC. Bringt man die nötigen Anforderungen mit, so erhält man Zugang zu
Channels, in denen der erwähnte Chat möglich ist. Eine Liste aller ChannelUser wird angezeigt, die das Browsen durch deren Angebot möglich macht.
Geladen wird die Datei aber immer nur von einem User.
Trotzdem erreicht man hervorragende Downloadraten, da ohnehin meist nur
Leute mit hoher Bandbreite (wegen den Anforderungen) anwesend sind.
(c) Kommentare
Fazit: Direct Connect ist schnell, komfortabel und hat einen großen Datenbestand (ca.1 Petabyte trotz "nur" 400.000 Nutzer [SDC]). Wirklich geeignet ist es aufgrund der hohen Anforderungen an Bandbreite und Angebot
nur für Benutzer mit schneller Leitung und großem Angebot an Dateien.
BITTORRENT
(a) Allgemeines
Der von Bram Cohen entwickelte "Bit-Sturzbach" ist kein FilesharingClient im klassischen Sinne, sondern eher ein "Filesharing-Browser-Plugin".
Es besteht aus 2 Komponenten. Zum einen aus dem Tracker, der koordiniert
bzw. vermittelt als Server den Transfer, und zum anderen aus dem Client,
dieser dient zum eigentlichen Filetransfer.
(b) Funktionsweise
Im Gegensatz zu anderen Filesharingtools ist es bei BitTorrent nun unerlässlich auf eine Website nach Links zu suchen, da nur dort ggf. eine Suchmaschine für solche Files existiert - in BitTorrent selbst ist nämliche keine Suche integriert.
Hat man einen solchen .torrent- Link (diese enthalten Prüfsummen und Adresse eines Trackers) gefunden und angeklickt, aktiviert sich der BitTorrentClient und verbindet sich mit dem Tracker. Dieser schickt per HTTP den
anfragenden Clients eine zufällig Liste (IPs) von anderen bereits ladenden
Clients. Diese Clients stellen daraufhin Verbindungen zueinander her, der
Transfer startet. Multisource und partielle Downloads werden auch hier unterstützt. Im Unterschied zum Uploadlimit-System bei Emule ist es bei BitTorrent so, dass je mehr Uploadgeschwindigkeit gegeben wird, desto mehr
Downloadgeschwindigkeit ist möglich. Dies bezeichnet Bram Cohen selbst
als "leech resistance" (nur wer viel gibt bekommt auch viel).
17
BitTorrent ist vor allem für große Dateien geeignet, für kleinere lohnt der
Aufwand kaum. Innerhalb kurzer Zeit erreicht der Download meist hohe
Geschwindigkeiten, da sich viele User auf eine Datei konzentrieren. Allerdings ist dieses Prinzip nicht wirklich neu (ED2k verfolgt ein ähnliches
Prinzip), trotzdem ist BitTorrent schneller als z.B. Emule. Folglich muss die
hohe Effizienz und Robustheit auf der Implementierung dieses Verfahrens
beruhen. Die nachfolgenden Punkte sind neben obigen Argumenten ebenfalls für diese Effizienz und Robustheit verantwortlich:
• Die Erzeugung zufälliger IP-Listen durch den Tracker. Dieses
Verfahren weißt bessere Ergebnisse auf, als die Erstellung z.B. auf
der Grundlage von Geschwindigkeiten einzelner User.
• Die Auswahl der Teile (schließlich werden die Dateien von BitTorrent zerteilt). Hier sind 4 Verfahren zu unterscheiden.
1. Strict priority
Subpieces eines Teils erhalten den Vorrang vor anderen Subpieces, damit ein Teil möglichst schnell vervollständigt wird.
2. Rarest first
Wie der Name schon sagt, werden seltene Teile zuerst geladen, damit die Datei nicht ausstirbt.
3. Radom first
Beim Start wird nicht der seltenste Teil zuerst geladen, da
dies zu langsam wäre für den Anfang. Der Download soll
möglichst schnell beginnen. Ist der erste Teil fertig wird zu
Rarest first gewechselt.
4. Endgame mode
Zum Vermeiden eines langsamen Downloads am Schluss,
wird die Nachfrage nach den fehlenden restlichen Subpieces
an alle Peers gestellt.
• Pipelining. Es werden immer um die 5 Request (und damit Subpieces) in der Warteschlange/ Pipeline gehalten, damit es nicht zu Verzögerungen bei Anfragen kommt.
• Choking Algorithmen. Diese sind nötig für die "leech-resistance"
und konsistente Übertragungsraten. Choke steht dafür, dass einem
anderen User der Upload verwehrt wird, Unchoke heißt, dass der
Upload wieder gewährt wird. Bevorzugt werden Transfers ins beide
Richtungen. BitTorrent bewirkt, dass alle 10 sec das Choking und
Unchoking neu vergeben wird. Weiterhin existiert ein sogenanntes
"Optimistic Unchoking", welches alle 30 sec ausgeführt wird, um
ggf. bessere Transferraten ausfindig zu machen.
Ist man mit dem Download eines Teiles von einem Peer fertig, dann
erhält man einen Choke von ihm. Dies führt unter Umständen bei
vielen Chokes dazu, dass die Rate einbricht. Dauert dies über mehr
als 1 min an, tritt das so genannte "Anti-snubbing" in Aktion. Nun
werden die Partner ebenfalls "gechoked", was die Chance erhöht, ei-
18
nen Optimistic Unchoke zu erhalten, womit der Download wieder
weitergehen würde.
Ist man ganz und gar fertig mit dem Download, so stellt sich die
Frage, wohin weiter hochgeladen werden soll - schließlich sind jetzt
keine Download-Partner mehr da, die anhand obiger Algorithmen
entscheiden, wie übertragen wird. In diesem "Upload only"- Abschnitt wird nun zu denen übertragen, wo z.B. die besten Raten zustande kommen.
(c) Kommentare
Gut geeignet ist BitTorrent für das Verbreiten von Dateien, die auf
Webspace liegen. Durch dessen Einsatz und vielen gleichzeitigen Usern
erhöht sich die Geschwindigkeit für alle Beteiligten, und es entlastet den
Server. BitTorrent ist also auch eher ein "Download-Booster" statt
Filesharing- Netz.
Als Nachteil stellt sich die nicht vorhandene Suchfunktion bzw. das nicht
vorhandene "Gedächtnis" a la ED2k oder Kazaa dar. Damit sind komplette
Quellen auf dem Tracker nötig, sonst droht die Gefahr, dass die Datei nie
fertig wird. Da oft nur sehr aktuelle Dateien vorhanden sind, stehen die
Chancen zudem schlecht bei seltenen Dateien. Benutzerfreundlichkeit ist im
Moment aufgrund recht spartanischer grafischer Oberflächen im Vergleich
zu Emule auch nicht wirklich gegeben.
Im Endeffekt ist BitTorrent also vor allem wie auch Direct Connect für Benutzer geeignet, die immer die aktuellsten Daten wollen. Für kleine oder
ausgefallene Dateien ist auch hier ED2k oder Kazaa die bessere Wahl.
19
2.3 Pures Peer-to-Peer / Dezentrale Systeme
Grundlage von purem P2P sind gleichberechtigte Nodes, also keine zentralen Einheiten und keine Hierarchie unter den Knoten. Jeder Knoten erledigt
dieselben Aufgaben. Für den Login muss natürlich trotzdem ein Einstiegspunkt bekannt sein.
Die Kommunikation läuft grob folgendermaßen ab: Rechner A nimmt Verbindung mit Rechner B, der bereits im Netzwerk hängt, auf, und meldet,
dass er aktiv ist. Rechner B gibt diese Information an die restlichen im Netz
befindlichen Rechner (um genau zu sein an seine Nachbarn) weiter, welche
die Information wieder weitergeben usw., bis alle verständigt sind. Nach
einem ähnlichen Prinzip läuft die Suchanfrage ab. Die Unterschiede liegen
hier im Detail und werden bei den einzelnen Systemen näher erläutert. Der
Datentransfer an sich läuft dann wieder direkt ab, ohne Zwischenknoten.
Da die Systeme z.T. sehr unterschiedlich funktionieren, sind dort weitere
Grafiken zur Veranschaulichung zu finden (für den allgemeinen Aufbau
siehe Abb. 4)
Abbildung 4: Grundlegender Aufbau dezentraler Systeme
Interessant sind auch die Suchmethoden, denn hier steht kein zentraler Index
zur Verfügung. Man unterscheidet nun in die Suche ohne und mit Routing
Indices.
Zu der Suche ohne Routing Indices gehört z.B. das Non-Indexed-Flooding
(Schneeballprinzip, im folgenden Abschnitt 2.3.1 beschrieben) und "Iterative Deepening". Letzteres geht so vor, dass sukzessive tiefer ins Netz vorgedrungen wird, allerdings nur solange, wie man nicht genügend Ergebnisse
bekommt. Hat man genug, kann evtl. weiteres unnötiges Suchen vermieden
20
werden. Ein weiteres Prinzip ist das "Directed Breadth first Search", eine
Breitensuche, die jedoch nur bei manchen Nachbarn sucht, die gewissen
Kriterien (z.B. Geschwindigkeit) entsprechen müssen. Zu guter Letzt gibt es
noch die Suche mit "Local Indices", d.h. die Knoten haben bereits einige
Daten aus dem Umkreis vorliegen, das erspart das unnötige erneute Durchsuchen. Wenn Knoten das Netz verlassen oder betreten, müssen diese Local
Indices auf den neuesten Stand gebracht werden. Offenbar ähnelt dieses
Prinzip also dem des zentralen Index der Hybridsysteme.
Bei der Suche mit Routing Indices gibt es zum Beispiel das Compound
Routing, eine Erweiterung der Local Indices um Kategorien - damit entfallen wieder einige unnötige Suchen. Das Hop-Count-Routing erweitert wiederum das Compound-Routing um ein Maß für die Entfernung der Zielhosts, die in der Tabelle eingetragen sind.
Von Vorteil bei dezentralen Netzen ist, dass bei Ausfall eines Knotens der
Rest des Netzes normal weiterfunktioniert. Zudem ist ein solches System
juristisch schwer zu belangen, da keine zentralen, abschaltbaren Einheiten
existieren. Gegen derlei Bedrohungen ist die dezentrale Struktur also ziemlich robust.
Nachteil dieses Systems ist, dass jeder Knoten sich mit Routing- und Suchalgorithmen auseinandersetzen muss. Darunter leidet zum einen die Performance des Netzes, zum anderen ist die Belastung der Bandbreite sehr hoch.
Unter Umständen kann das Netz zudem in Teilnetze zerfallen, wenn Knoten
ausfallen, die an einer "Engstelle" größere Teile des Netzes verbinden. Wie
auch bei den zentralen Netzen stellt der Login-Knoten immer noch ein Risiko dar, denn um diesen kommt man nicht herum. Entweder ist das ein fester
Beacon-Knoten (die sind dann wieder anfällig für Hacker und Juristen),
oder man durchsucht bestimmte Netzbereiche (auch ungünstig, da dieses
Flooding das Netz stark belastet).
Kommen wir nun zu bekannten Vertretern dezentrale P2P-Systeme.
2.3.1 Gnutella
(a) Allgemeines
Das von Justin Frankel entwickelte Gnutella-Netzwerk gilt unter Peer-toPeer-Nutzern als etwas angestaubt, da es einige Mängel hat (siehe c).
(b) Funktionsweise
Das auf TCP aufsetzende Protokoll ist vollständig dokumentiert [GPS] und
funktioniert folgendermaßen: zunächst einmal braucht man einen Andockpunkt ans Netzwerk. Dieser wird von einem bekannten Host-Cache geholt.
Nun sendet man ein "Connect" zu einem der Punkte und hofft, dass ein
"Ok" zurückgesendet wird. Die weitere Kommunikation läuft über spezielle
Pakete ab, welche aus einem 22 Byte großen Header und dem Body/Payload
21
bestehen. Der Header besteht aus Descriptor ID, Payload Descriptor (mögliche Werte sind: Ping, Pong, Query, Query Hit, Push), TTL, Hops und Payload Length.
Die Suche erfolgt nun per Query/ Query Hit, die Anfrage breitet sich von
Servant zu Servant (so heißen hier die Nodes) aus. Der Body dieser Anfrage
enthält den Suchstring und die geforderte Mindestgeschwindigkeit. Bei
jedem Sprung/Hop wird die TTL um 1 dekrementiert. Diese "viral propagation/ Schneeballprinzip" (= Suchprinzip des Non-Indexed Flooding) hat den
Zweck, dass Suchanfragen nicht auf immer und ewig im Netz kreisen, jedoch werden deshalb auch nur Teile des Netzes sichtbar, bis TTL=0 ist. Je
nach Einstiegspunkt ergeben sich so ggf. unterschiedliche Ergebnisse. Landet man nun einen Treffer bei der Suche, so nimmt die IP- Adresse des Ziels
denselben Weg zurück, der Transfer erfolgt danach direkt über das HTTPProtokoll (siehe Abb. 5).
Die Push-Funktion dient für Verbindungen für Servants hinter Firewalls und
ist an dieser Stelle eher nebensächlich.
Ich möchte nun noch einmal auf den erwähnten Host Cache zurückkommen,
dieser spielt nämlich eine entscheidende Rolle im Gnutella- Netz. Alle Servants senden regelmäßig Pings, welche ähnlich der Suche behandelt werden.
Zurück kommen diesmal Pongs (enthalten IP, Port und statistische Infos)
von den einzelnen Servants. Wozu dient dieses Verfahren? Mit den Daten
soll der Host Cache gefüllt werden, damit er immer aktuelle Daten der möglichen Einstiegsknoten enthält.
Abbildung 5: Funktionsweise von Gnutella
(c) Kommentare
Unglücklicherweise hat das eben erwähnte Verfahren nur einen großen
Nachteil. Der Bandbreitenbedarf ist enorm (mehr als die Suchanfragen in
der Summe), allein 70% des gesamten Datentransfers im Netz sind
Overhead. Für Besitzer eines Breitbandsystems ist dieses Problem nicht zu
22
gravierend, anders jedoch bei Dial-Up-Usern, welche oftmals Modems
nutzen. Diese können die Bandbreitenanforderung nicht gewährleisten. Geht
man von der nicht unrealistischen Annahme aus, dass sich 10.000 Knoten
im Netz befinden, und jeder Knoten 4 Nachbarn hat, so ergibt sich ein
Bandbreitenbedarf von etwa 167kbit/s - eindeutig zu viel für ModemBesitzer. Außerdem kann es bei Dial-Up-Usern passieren, dass durch deren
Kommen und Gehen, gerade die Knoten ausfallen die an kritischen Stellen
das Netz zusammenhalten - ein Zerfall in Teilnetze ist die Folge. Natürlich
wäre eine einfache aber genauso sinnlose Lösung, das Netz dichter zu
weben. Sinnlos deshalb weil der Bandbreitenbedarf damit nochmals in die
Höhe schnellt.
Der Bandbreitenbedarf kann auch bei Suchanfragen zu Problemen führen.
Erhält man viele Suchergebnisse, so schnellt der Bandbreitenbedarf in die
Höhe - eine Filterung ist also unerlässlich. Diese braucht man auch, um gefälschte Antworten (Werbung) auszusondern. Weiterhin ist eine einfache
Sabotage des Netzes durch Flooding möglich. Von Anonymität kann zudem
auch keine Rede sein (daran mangelt es bei so gut wie allen Systemen),
schließlich werden die IPs beim Transfer bekannt, außerdem sind sie im
Host-Cache gespeichert.
Zum Schluss seien noch einige bekannte Vertreter genannt: Limewire,
BearShare und Morpheus (wechselte von FastTrack zu Gnutella).
2.3.2 FastTrack
(a) Allgemeines
FastTrack war ein niederländisches Unternehmen, das sich auf die Produktion von Peer-to-Peer-Technologien spezialisiert hat (Firmengründer sind
Niklas Zennstrom, CEO, und Janis Friis) und deren Kernprodukt der
"Fasttrack P2P-Stack" war, dessen Lizenzen an verschiedene Unternehmen
vergeben wurde - z.B. an MusicCity.com (Entwickler von Morpheus). Nach
einer Änderung 2002 im Protokoll fand jedoch der erwähnte Wechsel von
Morpheus von FastTrack zu Gnutella statt.
Das FastTrack- Netzwerk wurde ursprünglich von Kazaa, Morpheus und
Grokster genutzt und bildete ein gemeinsames Netzwerk. Mittlerweile bietet Fasttrack mehr Daten als damals Napster an und hat ca. 4 Mio. Nutzer
[SFT]. Es setzt auf die Infrastruktur des Internet auf und legt ein eigenes
Routing- System darüber. Das Protokoll hierfür ist aufgrund der Lizenzierungen jedoch nicht öffentlich.
(b) Funktionsweise
Der Verbindungsaufbau erfolgt zu einem zentralen Loginknoten, der eine
Liste von SuperPeers zurückliefert. Eben jene SuperPeers/ SuperNodes sind
das Kernstück dieses semi-zentralen Netzes, denn sie fungieren als
Vermittlungsstellen bzw. Meta-Clients, die das eigentliche Netzwerk bilden.
23
Was aber ist ein solcher Superpeer?! Die Ernennung eines "normalen" Peers
zum SuperPeer erfolgt dynamisch je nach Performanz/Anbindung. Zu den
SuperPeers werden nun die Listen von Dateien der verbundenen "normalen"
Peers geladen. Sie dienen dann als Server für Suchanfragen, welche sich
über die SuperPeers ausbreiten. Die Ergebnisse enthalten schließlich die IPs
des Ziels.
Der Download selbst erfolgt wieder direkt, diesmal über HTTP-Protokoll
(siehe Abb. 6). Wie Emule wird der parallele und partielle Download unterstützt.
(c) Kommentare
Dieses System hat eine hohe Performanz zum einen als Vorteil, zum anderen aber den Nachteil, dass wieder Alias und IP- Adressen übertragen werden.
Die gestellten Suchanfragen des Systems haben recht gute Ergebnisse (d.h.
eine große Anzahl und Auswahl) und erfolgen schnell, man kann sich aber
nicht immer auf die angegebene Bandbreite der Benutzer verlassen, was
eigentlich als Indikator dafür dienen soll, wo man die besten Chancen für
einen schnellen Download sieht. Genauso auch die Angabe für die erwartete
Downloaddauer - sie ist unzuverlässig.
Der Download startet dann aber angenehmerweise meist sofort, und ist bei
entsprechend vielen Usern mit großer Bandbreite auch sehr gut. Das Angebot von Filmen oder Programmen ist dem von Emule aber unterlegen, hier
wird mehr Wert auf kleine Dateien wie etwa mp3-Dateien gelegt.
An dieser Stelle möchte ich auch noch ein paar Worte zu bekannten Vertretern verlieren, da bis jetzt nur die grundlegende Funktionsweise des Netzes
betrachtet wurde.
Der bekannteste Client des FastTrack- Netzes ist wohl Kazaa. Der Port kann
hier frei gewählt werden, alternativ steht ein Tunneling über Port 80 zur
Verfügung. Allerdings ist dieser Client unbeliebt geworden, da er Adwareverseucht ist (New.net, Bonzi Buddy, SaveNow, b3e projector, Cydoor,
Altnet). Stattdessen etablierte sich der inoffizielle Kazaa-Lite-Client, denn
er enthält keine Adware und ist zudem um einige Funktionen erweitert (deren Nutzen für die Community mal dahingestellt sei). Nützlich ist aber allemal das integrierte Zusatztool Sig2Dat, welches auf dem Hash-Code basiert, der für alle Dateien erzeugt wird (ähnlich Emule). Damit können Links
erzeugt und eingelesen werden und es offenbart sich der schon von Emule
bekannte Vorteil, dass langwieriges Suchen per Suchfunktion nicht nötig ist,
und die Gefahr Fakes aufzusitzen deutlich verringert wurde.
An dieser Stelle sei anhand der Tabelle 1 auf die wichtigsten Unterschiede
zwischen Kazaa und Kazaa-Lite hingewiesen.
24
Tabelle 1: Vergleich Kazaa vs. Kazaa Lite [SFK]
Kazaa Media Desktop
Limitiertes “Suche fortsetzen” (steigert sich mit steigender Teilnahmestufe)
Teilnahmestufe steigert sich
Kann nur von 8 Quellen gleichzeitig
laden
Adware/ Spyware
AltNet/Topsearch Resultate werden
angezeigt
Pop-Ups und Bannerwerbung
Kazaa Lite K++
Unlimitiertes “Suche forsetzen”
Teilnahmestufe dauerhaft auf 1000
Kann von bis zu 40 Quellen laden
Keine Adware/ Spyware
AltNet Resultate werden geblockt
Keine Pop-Ups und Bannerwerbung
Zu guter Letzt noch einige Anmerkungen zu Grokster. Bis auf das Logo ist
es von der Funktionalität quasi eine Kopie von Kazaa, nur mit einem Unterschied - es enthält noch mehr Adware, die sich da auf 3 Änderungen im Internet-Explorer, 6 mitinstallierte Third-Party- Programme sowie 8 Icons auf
dem Desktop (die auf Casinos verweisen) belaufen [SFG].
Im FastTrack- Netz ist also offenbar der Kazaa-Lite- Client der eindeutige
Favorit.
Abbildung 6: Funktionsweise von FastTrack
2.3.3 Overnet
Das schon bei Edonkey2000 erwähnte Filesharingtool basiert auf dem
ED2k-Netzwerk, und hat dementsprechend auch Zugang zu diesem Netz. Es
wurde von den Entwicklern von ED2k als Weiterentwicklung von ED2k
entworfen, um die Probleme der zentralen Server zu umgehen.
25
Es existieren 2 Versionen - eine mit Kommandozeile und eine grafische. Für
die grafische Version wird das Microsoft .NET-Framework benötigt, welches kostenlos heruntergeladen werden kann.
Informationen über freigegebene Dateien sind speziell sortiert, so dass
Suchanfragen gezielter gesendet werden und somit schneller Ergebnisse
liefern als z.B. im Gnutella- Netz.
Trotz der mehr oder weniger vorteilhaften dezentralen Struktur, ist es bei
weitem nicht so beliebt wie etwa Emule, da zum einen die User sich an
Emule gewöhnt haben, und andere sich auch durchaus aufgrund der
Prestige, einen Server mit großem Angebot zu betreiben, nicht so recht von
der zentralen Struktur des ED2k bzw. Emule trennen können.
2.3.4 Alternativen
IMESH
(a) Allgemeines
Auch hier ist das Protokoll nicht öffentlich. Das liegt daran, dass es eine
Mischform aus FastTrack und einem eigenem Protokoll ist. Anfangs hatte
man massive Probleme, da die Server andauernd überlastet waren.
(b) Funktionsweise
Der über Port 1214 laufende Client unterstützt Multitsource- Downloads
und Proxy-Server, auch können einzelnen Downloads verschiedene Prioritäten zugeordnet werden (was aber nicht unbedingt eine Besonderheit ist, im
Edonkey- Netz ist das auch problemlos möglich).
Die Suche bietet meist eine hohe Trefferquote, weitere Features sind z.B.
Wiederaufnahme abgebrochener Downloads (das können aber auch die
meisten anderen), Skins, Player mit Playlisten, Media Manager, Chat Client.
(c) Kommentare
Wie einigen Foren zu entnehmen ist, sind die Benutzer geteilter Meinung.
Einige schwören auf schnelle Downloads bei Musik und Keys (serial numbers, verwendet für die Freischaltung von kostenpflichtigen Programmen),
andere fühlen sich durch Adware belästigt.
Offensichtlich scheint Adware eine beliebte Möglichkeit für die Finanzierung solcher Systeme zu sein. Im Falle iMesh wird dies durch Module der
Firma Cydoor realisiert, offenbar ein einschlägiger Name in Sachen Ad- und
Spyware. Dabei werden Werbebanner innerhalb von iMesh eingeblendet, in
der neuesten Version dienen die Module jedoch "nur" noch als Popup- und
Bannermanager. Das Problem an der Sache ist, dass es von einer Website
eine Liste von Adware- Servern lädt, und von dieser dann Banner und Code
ins System bringt. Gerade letzteres ist bedenklich.
26
FREENET
(a) Allgemeines
Einen komplett anderen Weg schlägt das von Ian Clarke entwickelte Freenet
ein. Es wurde entworfen, um durch eine Art paralleles Internet die Zensur
zu umgehen, die die australische Regierung 1999 bezüglich des Internet
beschloss. Freenet sollte also eher dem Contentsharing statt Filesharing dienen.
Freenet ist kein Client, sondern nur die Netzwerk-Infrastruktur, die OpenSource ist, also zugänglich für Jedermann. Auf die Clients an sich, wie z.B.
Espra und Frost, möchte ich hier nicht eingehen, sondern mich mehr auf die
grundlegende Funktionsweise konzentrieren.
(b) Funktionsweise
Dateien in Freenet erhalten einen Key, ähnlich einer URL, mit dem sie identifiziert werden können. Nur darüber können sie angesprochen werden, eine
Suchfunktion gibt es nicht. Der Key lässt keine Rückschlüsse bezüglich des
Dateiinhalts zu. Es existieren aber einige Seiten im WWW, die Keylisten
enthalten, um das Auffinden der gesuchten Dateien zu erleichtern/ermöglichen.
Die Übertragung im Freenet läuft paketorientiert mit Handshakes (request
und reply) und Routingtables ab. Die Knotenadressen bestehen aus Übertragungsmethode (z.B. TCP) und einem transportspezifischen Identifikator (IP
+ Port) , also z.B. "tcp/192.168.1.1:19114". Jede Datei im Freenet hat eine
GUID (Global-Unique-ID, das ist der erwähnte Key), die Nachrichten selbst
eine 64bit-Transaktions-ID, einen Hops-to-live- Zähler und einen TiefenZähler. Aus Sicherheitsgründen hört aber die Nachricht nicht unbedingt bei
htl=0 auf weitergeleitet zu werden (ähnlich bei der Tiefe), damit keine
Rückschlüsse auf den Ursprung möglich sind.
Nun zur GUID: wie erwähnt wird jede Datei in Freenet über einen Key eindeutig identifiziert (GUID-Key). Erzeugt werden diese mit dem SecureHash-Verfahren (SHA-1). Es gibt nun unterschiedliche Key- Arten. Der
einfachste Typ ist der Content-Hash-Key (CHK), der aus dem Inhalt der
Datei erzeugt wird. Sollten zwei User genau dieselbe Datei einstellen, dann
sind logischerweise auch die Hashwerte gleich (das ist quasi sowas wie eine
URL im WWW). Etwas komplexer ist der Signed-Subspace-Key (SSK).
Damit kann man eigenen Dateien einen Namensbereich zuordnen, den jeder
lesen, aber nur der Besitzer auch schreiben kann. Dieser SSK besteht aus
einem zufällig gewähltem public/ private Keypaar. Damit ist zuerst also eine
kurze Beschreibung zu wählen. Diese wird unabhängig vom public-Teil des
Keys gehasht, dann mit einem XOR zusammengefügt und wieder gehasht.
Mit dem privaten Teil des Keys wird eine Signatur zum Integritätscheck
bereitgestellt. Der öffentliche Teil des Keys dient für andere Benutzer zur
Verifikation der Datei - zum Einstellen der Datei und Erzeugung der passenden Signatur ist der private Teil nötig. Gängig ist es also, mit einem SSK
27
den CHK einer Datei zu speichern, wobei man mit letzterem die Datei auffinden kann. Dies ist also mit einer Stichwortverzeichnissuche zu vergleichen, dort bekommt man über die Seitenzahl dann die passende Information.
Gehen wir nun davon aus, dass der User einen Key zur Verfügung hat. Für
die Datennachfrage sendet er nun ein "request.data" mit Transaktions-ID,
HTL (Hops to live), Tiefe und Such-Key. Knoten, die nun diese Anfrage
erhalten, schauen nach, ob sich ein solcher Key in ihrem Datenbestand befindet. Falls nein, dann leiten sie die Anfrage an Knoten mit einem ähnlichem Key weiter. (An dieser Stelle sei bemerkt, dass aufgrund des Hashings
Keys, die sich nur an z.B. einer Stelle unterscheiden, trotzdem etwas vollkommen anderes enthalten können.) Falls ja, dann schickt er ein "send.data"
mit den Daten darin und der Adresse des Ursprungs. Zusätzlich, und das ist
bei Freenet gerade die Besonderheit, legt er die Daten selbst einen Cache
auf seiner eigenen Festplatte und macht einen neuen Eintrag in seine Routing-Tabelle, um die Daten in Verbindung mit der Quelladresse zu bringen.
Die Daten gelangen also von Knoten zu Knoten bis zum Ziel und werden
jedes Mal ausgelagert auf den Zwischenknoten (siehe Abb. 7).
Dabei wissen die User selbst nicht, was in ihrem Cache gespeichert wird, da
selbst die Daten verschlüsselt werden. Dies hat zur Folge, dass Daten aber
auch nicht mehr gelöscht werden können, lediglich ein "Aussterben" ist
möglich.
(c) Kommentare
Dieses Verfahren hat den entscheidenden Vorteil eine Anonymität/Zensurresistenz, Redundanz sowie dynamische Lastverteilung durch
dynamisches Routing (mit der Zeit verteilen sich die Daten in Bereiche, in
denen sie öfters angefordert werden) zu gewährleisten.
Problematisch ist ganz klar die fehlende Suchfunktion. Dial-Up-User könnten natürlich auch wieder einen Strich durch die Rechnung machen (Bandbreite). Zudem stellt die Java-Implementierung die Massentauglichkeit in
Frage. Die hohe Sicherheit des Routings macht das System außerdem langsam, und es ist nur optimiert auf das Finden kurzer Routen.
Hinzu kommt der moralische Aspekt - unter Umständen sind im Cache auf
der eigenen Festplatte evtl. Daten gespeichert, von denen man sich eigentlich distanziert (Kinderpornographie ...). Dies wird auch oft als Kritikpunkt
gegen Freenet ins Feld geführt.
28
Abbildung 7: Funktionsweise von Freenet
3 Auswirkungen auf die Gesellschaft
3.1 Raubkopieren - ein Kavaliersdelikt ?!
Laut einer Gamestar-Umfrage des Sommers 2003 besitzt nur ca. ¼ der Befragten KEINE Raubkopien, 11 % geben gar ungeniert zu, NUR Raubkopien zu spielen [GS1].
Eine andere Umfrage vom Marktforschungsunternehmen staconsult ergab,
dass 48% von rund 2400 befragten Surfern regelmäßig Musik über das Internet tauschen, wobei sich mehr als zwei Drittel von ihnen dabei nicht
schuldig fühlten [SPO].
Warum aber überhaupt Raubkopieren? Die Gründe sind schnell gefunden.
Spiele und Filme mit Anschaffungskosten um die 40€, sowie andere Software und Betriebssysteme mit teilweise horrenden Preisen sind ganz offensichtlich Grund genug, sich ein wenig Geld zu sparen. Um genau zu sein,
reichen 25 Cent unter Umständen aus, um sich das Programm etc. selbst auf
einen Rohling zu brennen, wenn man einmal die Anschaffungskosten für
Brenner und Breitband- Flatrate außer Acht lässt. Programme wie "DaemonTools" in Verbindung mit den immer günstiger werdenden, riesigen
Festplatte machen ein Brennen vielleicht sogar ganz unnötig. Die weite
29
Verbreitung von Filesharingtools leistet ihren Beitrag, alles schnellstmöglich in alle Welt zu verbreiten. Fakt ist also, dass die billige und einfache
Möglichkeit in Verbindung mit der schnellen "Lieferung der Ware" per Filesharing ausreichend Attraktivität besitzt, diesen Kavaliersdelikt zu begehen. Dass unter diversen Releasegruppen (Deviance, Fairlight…) ein regelrechter Wettkampf/ Konkurrenz entbrennt, sei dabei nur am Rande erwähnt
(www.vcdquality.com oder www.nforce.nl sind Seiten, die eine Übersicht
der neuesten Releases dieser und anderer Gruppen bieten).
Wie eben erwähnt wird Raubkopieren oft als Kavaliersdelikt verstanden wieso?
Auch hier liegen die Gründe auf der Hand. Es wird zum einen nicht als
Diebstahl im herkömmlichen Sinne betrachtet, schließlich geht man nicht in
den Laden und stiehlt eine "handfeste" CD (damit gewinnt es an "Unpersönlichkeit"), zum anderen "machen es alle". Genauso klar sollte eigentlich
sein, dass Raubkopieren - also die Nutzung ohne Lizenz des Herstellers eine Straftat ist. Gemäß § 106 Urhebergesetz wird die Nutzung und Verbreitung von Raubkopien mit einer Freiheitsstrafe von bis zu 3 Jahren oder mit
Geldstrafe bestraft, werden die Raubkopien gemäß § 108 a Urhebergesetz
gewerbsmäßig verbreitet, droht sogar eine Freiheitsstrafe von bis zu 5 Jahren. Weiterhin drohen Schadensersatzansprüche wie nachhaltige Lizenzierung der raubkopierten Software, Anwalts- und Gerichtsgebühren sowie
Herausgabe des gewerblichen Gewinns der damit erzielt wurde.
Das gilt auch für den, der die Raubkopie wissentlich entgegen nimmt. Hier
zwei Beispiele [GS2]: ein PC-Händler verkaufte über 5000 PCs mit nichtlizenzierter Microsoft-Software und erhielt eine Strafanzeige plus Schadensersatzforderungen in sechsstelliger Höhe. Ein anderer Mann meinte, über
Kleinanzeigen Microsoft-Office verkaufen zu müssen. Dass er erwischt
wurde und eine Geldstrafe zahlen musste, schien ihn nicht davon abzuhalten, 2 Wochen später erneute Kleinanzeigen aufzugeben. Das hielt den
Richter diesmal allerdings gleichermaßen nicht davon ab, ihn für 11 Monate
auf Bewährung zu verurteilen.
Wie gut sich ein Eintrag im polizeilichen Führungszeugnis macht bei zukünftigen Bewerbungen, muss an dieser Stelle nicht weiter erwähnt werden.
Ebenso unangenehm sollte sich das Einziehen der kompletten ComputerAnlage samt Peripherie auswirken, was bei der Hausdurchsuchung durch
die Polizei ggf. droht. Dafür muss jedoch zunächst ein begründeter Verdacht
vorliegen - grundlos kann die Polizei nicht in Ihr Haus. Interessant an der
Raubkopiererei ist, dass der Besitz von Raubkopien theoretisch nicht strafbar ist, sondern nur deren Nutzung. Die Ausrede des "Sammelns" wird vor
Gericht aber als lebensfremd eingestuft.
30
3.2 Rechtliche Aspekte
Am 13. September 2003 trat das "Gesetz zur Regelung des Urheberrechts in
der Informationsgesellschaft" in Kraft, welches die EU-Richtlinie
2001/29/EG zur "Harmonisierung bestimmter Aspekte des Urheberrechts
und der verwandten Schutzrechte in der Informationsgesellschaft" umsetzen
soll. Folgende sind die wichtigsten Punkte, die es zu beachten gilt:
1. Es besteht jetzt das Verbot, einen Kopierschutz zu überwinden oder
zu umgehen. Gewerbetreibenden droht eine Straf- und Zivilrechtliche Verfolgung, Privatanwendern "nur" eine zivilrechtliche Verfolgung (also Bußgeld). Die Lösung: kopieren Sie Ihre Film-DVD oder
Audio-CD doch analog, denn das gilt momentan noch nicht als Verstoß.
2. Der Vertrieb von Tools zur "Umgehung wirksamer technischer
Maßnahmen zum Schutz eines Werks" (§92a) ist ab nun verboten.
3. Der Upload von urheberrechtlich geschützten Werken in
Filesharingnetze usw. bleibt natürlich rechtswidrig, da dies als
öffentliche Aufführung gewertet wird.
4. Der Download von "offensichtlich rechtswidrig hergestellten Vorlagen" ist jetzt verboten. Dies war früher nicht so. Jedoch kann auch
jetzt vom "Downloader" nicht verlangt werden, zu ergründen, ob er
eine rechtmäßig hergestellte Vorlage zieht. Bei Titeln wie z.B.
"...cracked.version..." ist es aber offensichtlich und damit verboten.
Kurioserweise sind aber auch legale Kopien von "rechtswidrig hergestellten Vorlagen" denkbar. Wenn die Vorlage eine unauffällige
Kopie eines copyrightgeschützten Werkes ist, das nicht durch einen
Zusatz wie "cracked" gekennzeichnet ist, sind die Merkmale für eine
Strafbarkeit nicht erfüllt.
5. Filesharing an sich ist damit nicht gesetzeswidrig, wie es gern von
einigen Medien dargestellt wird.
6. Das Gesetz gilt nicht rückwirkend, alte rechtmäßige Kopien dürfen
behalten werden. [TPG]
Tabelle 2 stellt noch einmal zusammen, was es generell noch zu beachten
gilt, schließlich wurde das alte Urheberrechtsgesetz nicht komplett neu geschrieben.
Damit stellt sich nun auch das Problem dar, was mit den ganzen
Programmen, die eben jene Kopierschütze umgehen können passiert.
Programme, die vermutlich somit noch erlaubt sind, sind etwa Clone DVD,
Nero, WinOn CD, Easy CD und Feurio CD Writer, denn bei Ihnen steht
nicht das Umgehen des Kopierschutzes im Mittelpunkt. Anders hingegen
31
bei folgenden Programmen, die wohl auf einer "Blacklist" landen dürften:
Alcohol120%, CloneCD plus ClonyXXL, Movie Jack und Any DVD.
Das größte Problem am neuen Gesetzt ist aber, dass die rechtliche Situation
noch unklar ist, da es noch keine Urteile gibt, an denen man sich orientieren
könnte.
Zum Beispiel stellen sich die Fragen:
1. Was ist ein "technisch wirksamer Schutz" ?
Es ist nur von "Verzerrung" und "Verschlüsselung" die Rede.
2. Was ist eine "offensichtlich rechtswidrig hergestellt Vorlage" ?
Dies zu Erkennen kann nicht dem Verbraucher obliegen.
3. Wann ist ein Werk gemeinfrei?
Dies ist nur schwammig definiert, selbst 4 Juristen konnten
sich über 5 Werke nicht einigen [TPG], wie soll das dann
Verbraucher erkennen?
Somit existieren statt Klarheiten weiterhin Unklarheiten.
Tabelle 2: Neue und alte Regelungen im Urheberrechtsgesetz [COM03]
ERLAUBT
- Kopien von eigenen Musik- und
Film-CDs ohne Kopierschutz in begrenztem Rahmen zum Privatgebrauch
=> dies gilt nicht für Software (§53)
- von nichtkopiergeschützter Software darf eine einzige Kopie gemacht
werden ($69d Abs.2)
- Zusammenstellen eigener CDs aus
Songs von CDs die nicht kopiergeschützt sind (§53)
- Verbreiten von Software die das
Umgehen von Kopierschützen nur als
Nebeneffekt hat
(§95a Abs.3)
- Download gemeinfreier Werke
32
VERBOTEN
- Kopien von kopiergeschützten CDs
und DVDs
=> sonst Zivilverfahren auf Schadensersatz bzw. Unterlassungsklage
(§95a Abs.1)
- Verkauf von rechtmäßig hergestellten Kopien von Musik-CDs
- Kopierschutz nur zum Anhören
außer Kraft setzen (§95a Abs.1)
- Verbreiten , Herstellen, Verkaufen
von Programmen zur Umgehung
von Kopierschützen (§95a Abs.3)
- Weitergabe urheberrechtlich geschützter Software (§69c)
- Downloaden von "offensichtlich
rechtswidrig hergestellten Vorlagen"
(§53)
3.3 Wirtschaftliche Aspekte
61 Millionen US-Amerikaner nutzen P2P-Systeme. Das sind mehr Menschen, als den amerikanischen Präsidenten G. W. Bush gewählt haben
[TPM].
3.3.1 Schadensreport
In der ersten Hälfte des Jahres 2003 beklagte der Bundesverband bei Tonträgern einen Umsatzrückgang von 16,3 %. Besonders signifikant waren die
Einbußen mit 47,5 % bei Hitsamplern, bei den Singles wurden 21,3% weniger CDs verkauft.
Laut einer GfK-Studie wurden im Jahr 2002 259 Millionen CD-Rohlinge
mit Musik bespielt, aber nur 165,7 Millionen CD-Alben verkauft. Interessanterweise fand jedoch die Studie des Marktforschungsinstituts Frost &
Sullivan aus New York heraus, dass in den USA zu keiner Zeit so viele CDs
verkauft wurden wie zu Napsters Hochzeiten im Jahr 2000 [ZDN].
Etwa 3,5 Milliarden € jährlicher Verlust auf dem amerikanischen Videomarkt sind zu beklagen. Und das ist nur ein teilweiser Schaden, der durch
die schätzungsweise 500.000 pro Tag aus dem Netz geladenen Filme in den
USA entsteht.
Bei Software wird der wirtschaftliche Schaden gar auf weltweit 12 Milliarden € jährlich geschätzt [KLA].
Was einige Firmen jedoch bei einer solchen Argumentationsweise (also mit
solchen Statistiken) nicht beachten, ist, dass nicht jede heruntergeladene
Kopie heißt, dass man sich die CD andernfalls auch gekauft hätte oder ins
Kino gegangen wäre.
3.3.2 Möge die Jagd beginnen
Gejagte vs. Jäger, P2P-Nutzer vs. Kläger - so könnte das Motto folgender
namenhafter amerikanischer Institutionen lauten: Motion Picture Association (MPA), Recording Industry Association of America (RIAA), International Federation of the Phonographic Industry (IFPI) und Business Software
Alliance (BSA).
In Deutschland gab es bislang noch keine Klagewellen, dafür aber in Amerika.
• 2000: RIAA verklagt Napster
Napster verschwindet später von der Bildfläche.
• Oktober 2001: RIAA verklagt Grokster und Morpheus
Grokster und Morpheus gewinnen im April 2003, da sie ein
dezentrales Netz sind und nicht für Urheberrechtsverletzun-
33
•
•
•
gen belangt werden können, da sie aufgrund der Struktur eben jene Verletzungen nicht unterbinden können.
Anfang April 2003: RIAA verklagt 4 US-Studenten
Diese erklären sich zu je bis zu 17.500$ Geldstrafe bereit.
8.9.2003: RIAA verklagt 261 Tauschbörsen-Nutzer
Strafen von bis 250.000$ sind möglich. Allerdings wurde ein
Amnestieangebote namens "Clean Slate Program" ausgetüftelt. Nicht angeklagte User können sich vermerken lassen, alle Lieder löschen und werden damit nicht bestraft. Dafür sind
sie aber für alle Zeiten in Akten vermerkt, eine überaus fragwürdiges Programm. Mittlerweile haben sich bereits 52 der
angeklagten außergerichtlich geeinigt (Stand 8.10.2003).
Ein Beispiel für die fragwürdige Politik der RIAA sei noch
angemerkt: eine 65jährige Rentnerin, welche lediglich einen
Apple-Computer besitzt, soll laut RIAA bis zu 2000 Songs
über Kazaa getauscht haben. Sehr interessant in anbetracht
der Tatsache, dass Kazaa gar nicht auf dem Apple-Computer
funktioniert ...
18.9.2003: RIAA verklagt Tauschbörse iMesh
3.3.3 Sonstige Maßnahmen
Vor geraumer Zeit hat der Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom) mit der Zentralstelle für
private Überspielungsrechte (ZPÜ) einen Gesamtvertrag für DVD-Brenner
abgeschlossen [DR]. Demnach müssen Unternehmen, die DVD-Brenner
herstellen oder importieren, seit 1. Januar 2003 für in Deutschland verkaufte
Geräte 9,21 € Urheberrechtsabgabe bezahlen. Für jeden seit Juli 2001 verkauften CD-Brenner müssen die Hersteller 6 € an die Verwertungsgesellschaften zahlen [HEI]. Diese Abgaben sollen Künstler für den wirtschaftlichen Verlust entschädigen, der ihnen durch so genannte "erlaubte Privatkopien" entsteht.
Geplant ist momentan auch die Überarbeitung einer EU-Richtlinie zur
Durchsetzung der Interessen der Verwerter geistigen Eigentums. Dies hat
die Streichung einer Klausel, die eine Ahndung von privaten Urheberrechtsverletzungen nur bei nachhaltigem Schaden vorsieht, als Ziel. Damit werden
dann nicht nur gewerbliche Raubkopierer, sondern auch private das volle
Strafmaß erhalten können.
Eine eher hoffnungslose Methode von Seiten der Musiker z.B. ist das
Einstreuen von Fakes in die P2P-Netze. So brachte etwa Madonna Fakes
von Songs ihres neuen Albums in Umlauf, auf denen nur ein "What the fuck
do you think are you doing" zu hören ist. Die Antwort von Seiten einiger
ambitionierter Computerfreaks folgte prompt: kurz darauf wurde ihre Web-
34
site gehackt und einige unveröffentlichte Lieder angeboten, sowie die Nachricht " This is what the fuck I think I'm doing" hinterlassen [SFT].
35
4 Abschließende Bewertung beider P2P- Systeme
Meiner Meinung nach ist das Bandbreitenmanagement zwar wichtig, aber
aufgrund neuer schneller Leitungen und den bisherigen P2P-Verfahren (die
nicht schlecht funktionieren) würde ich das für eine Pro-ContraEntscheidung eher als nebensächlich betrachten.
Was für mich als P2P-Nutzer wichtig ist, ist dass die Suche schnell und erfolgreich ist - dies spricht für ein zentrales System.
Ebenso müssen die erreichten Download-Raten hoch sein - dies würde keines der beiden Systeme wirklich bevorzugen.
Weiterhin muss eine Robustheit gewährleistet sein, d.h. erstens muss der
Transfer stabil sein, und zweitens muss die ganze Sache auch einen gewissen Grad an Sicherheit bieten - dies spricht vor allem für die dezentralen
Netze, denn hier ist man weitaus besser gegen Justiz, Zensur und Hacker
gefeit.
Das zur Theorie. In der Praxis bewähren sich beide Systeme gut (Emule/DC
vs. Kazaa), deshalb fällt es schwer eine Entscheidung zu treffen. Darum
würde ich als Fazit folgenden Schluss abgeben: "so dezentral wie möglich
(Sicherheit/Zensurresistenz) und so zentral wie nötig (Sucheffizienz)". Ich
denke aber, dass dezentrale Systeme gerade wegen der Rechtssprechungsproblematik mehr an Bedeutung gewinnen und zentrale Systeme eher verschwinden. Letztere sind einfach zu verwundbar.
Allerdings wären zentrale Systeme aufgrund ihrer zentralen Verwaltung
auch die einzige Möglichkeit, eine "sinnvolle" und rechtlich unbedenkliche
Umsetzung eines Filesharingsystems zu erlauben.
Am schönsten wäre selbstverständlich ein System mit der Sicherheit/Anonymität eines Freenet, dem Komfort und Umfang eines Emule und
der Geschwindigkeit eines BitTorrent - ob das ein Wunschtraum bleibt, das
wird wohl erst die Zukunft zeigen.
36
A Glossar
Adware: Dies sind Programmstücke, die zur Darstellung von Werbung
dienen.
Client: Ist ein Programm, das den aktiven Teil des Verbindungsaufbaus
bestimmt, d.h. den Wunsch auf Verbindung äußert und Daten anfordert. Siehe auch Server.
Community: Meist eine größere Gruppe von Personen, die z.B. im
DirectConnect einen eigenen HUB unterhalten.
Config-Wizard: Ist eine Menüführung innerhalb eines Programms, die
meist beim ersten Start aufgerufen wird, und dem Benutzer helfen
soll, die wichtigsten Einstellungen vorzunehmen.
DNS: Dieser Domain Name Service dient dazu, IP- Adressen in
Zusammenhang zu bringen mit einfacheren Bezeichnungen wie
URLs (Links).
Fake: Fälschung
Filesharing: Das ist im Idealfall das uneigennützige Austauschen von
Dateien, d.h. jeder gibt und nimmt gleichermaßen Daten. Dies wird
meist durch eine P2P- Technologie verwirklicht.
Hashing: Dies ist eine abstrakte Datenstruktur. Hash-Tabellen sind eine
effiziente Implementierung der Datenstruktur Dictionary, d.h. das
Entfernen, Einfügen und Suchen kann effizient behandelt werden.
HTML: Diese Hyper Text Mark Language wird verwendet, um die aus dem
World Wide Web bekannten Internetseiten zu erstellen.
ICH: Intelligent Corruption Handling, wird von Emule verwendet und dient
dazu, das Neuladen defekter Dateifragmente zu optimieren, d.h. es
versucht unnötigen Traffic zu vermeiden.
IP: Darunter ist ein Protokoll zu verstehen, dass in Zusammenhang mit TCP
den Großteil der Kommunikation im Internet regelt. Oftmals wird
darunter auch die IP- Adresse verstanden. Dies ist eine Zuweisung
einer 4- gliedrigen 32Bit- Zahl (= Adresse) zu einem Rechner im
Netzwerk.
37
Leecher: Damit wird meist eine Person bezeichnet, die eigennützig im P2PNetzwerk nur Daten herunterlädt, jedoch selbst keine zur Verfügung
stellt.
Multisource: Das bedeutet nichts anderes, als dass beim Filesharing von
mehreren Quellen gleichzeitig heruntergeladen werden kann, statt
wie üblich nur von einer. Dies hat den Zweck, den Download zu beschleunigen.
Node: Bezeichnet einen sog. Knoten im Netzwerk, speziell im P2PNetzwerk.
Packet Switched Network: In einem solchen paketorientierten Netzwerk
werden die zu übertragenden Daten in kleine Pakete zerlegt und mit
zusätzlichen Informationen (wie z.B. Zieladresse) versehen. Diese
kleinen Pakete werden nun nacheinander übertragen und am Ziel
wieder zusammengesetzt.
Peer-to-Peer: Peer-to-Peer (auch P2P) Anwendungen tauschen Daten direkt
aus, sind gleichzeitig Client und Server, sowie autonom. Diese Art
von Netz eignet sich z.B. zum Filesharing und Distributed Computing. Es ist zu unterscheiden in hybrides bzw. zentrales sowie pures
bzw. dezentrales Peer-to-Peer, welche sich durch eine zentrale oder
dezentrale Struktur unterscheiden.
Server: Das ist ein Prozess, der auf eine Verbindung wartet (meist in einer
Endlosschleife), um Informationen zu liefern. Meist wird darunter
der ausführende Rechner verstanden.
TCP: Siehe IP.
Traffic: Datenverkehr im Netzwerk.
TTL: Time to live, gibt an nach welcher Zeit ein Datenpaket "verfällt".
Webinterface: Ist eine Schnittstelle (meist auf HTML-Basis), die die
Kontrolle eines Programms auf einem lokalen Rechner über das
Internet erlaubt.
Webspace: Ist Speicher, der im Internet verfügbar ist z.B. in der Form
virtueller Festplatten.
38
B Weiterführende Literatur
Für weiteres Interesse empfehle ich folgende URLs und Werke:
Thematik Filesharingsysteme:
• http://ntrg.cs.tcd.ie/undergrad/4ba2.02-03/Intro.html
• http://www.mouthshut.com/readreview/7490-1.html
• http://www.mp3world.net/d/workshop/filesharing/imesh_cydoor.shtml
• http://www.freenet.de/freenet/computer/internet/filesharing/index.ht
ml
• http://www.kefk.net/P2P/Akteure/Unternehmen/FastTrack/index.asp
• http://www.kefk.net/P2P/Infrastruktur/Netzwerke/Virtuell/FastTrack
/index.asp
• http://www.slyck.com/ft.php
• http://www.afterdawn.com/news/archive/4421.cfm
• http://www.sims.berkeley.edu/~rachna/courses/cs261/paper.html
• http://bitconjurer.org/BitTorrent/bittorrentecon.pdf
• http://www.oreillynet.com/pub/a/network/2000/05/12/magazine/
gnutella.html?page=2
• http://www4.informatik.uni-erlangen.de/Lehre/SS02/HS_DOOS/pdf/
folien-sialhaus.pdf
• http://www4.informatik.uni-erlangen.de/Lehre/SS02/HS_DOOS/pdf/
handout-sialhaus.pdf
Thematik P2P allgemein:
• http://www.iwi.uni-hannover.de/lv/seminar_ss03/Linck/
• Peer-to-Peer (Anwendungsbereiche und Herausforderungen) von
Detlef Schoder und Kai Fischenbach
Thematik gesellschaftliche Auswirkung:
• http://193.99.144.71/newsticker/data/mw-20.09.03-006/
• http://www.heise.de/newsticker/data/anw-08.09.03-006/
• http://www.heise.de/newsticker/data/anw-22.07.03-004/
• http://www.heise.de/newsticker/data/anw-30.09.03-000/
• http://193.99.144.71/newsticker/result.xhtml?url=/newsticker/data/
dab-27.05.03-000/default.shtml&words=iMesh
• http://www.mp3world.net/d/workshop/filesharing/amnestiefiraa.shtml
39
•
•
•
•
•
•
•
•
http://www.heise.de/tp/deutsch/html/result.xhtml?url=/tp/deutsch/sp
ecial/
copy/15718/1.html&words=Urheberrecht
http://www.heise.de/tp/deutsch/special/copy/15718/1.html
http://www.heise.de/newsticker/data/jk-04.07.03-003/
http://www.internetrecht-rostock.de/PC-Welt/Kopierschutz.htm
http://www.spiegel.de/netzwelt/politik/0,1518,265328,00.html
http://www.freenet.de/freenet/computer/software/multimedia/legal_k
opieren/
index.html
http://www.zdnet.de/news/business/0,39023142,39116064,00.htm
http://www.klassenarbeiten.de/referate/sonstige/docs/tcgbericht.doc
40
C Abkürzungen und Akronyme
Bitkom
BSA
CHK
ED2k
FTP
GUID
HTML
HTTP
IFPI
IP
JPEG
MFTP
MP3
MPA
MPEG
P2P
RIAA
SHA-1
SQRT
SSK
TCP
UDP
UrhG
ZPÜ
Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V.
Business Software Alliance
Content Hash Key
Edonkey 2000
File Transfer Protocol
Global Unique ID
Hyper Text Mark Language
Hyper Text Transfer Protocol
International Federation of the Phonographic Industry
Internet Protocol
Joint Photographic Expert Group
Multisource File Transfer Protocol
MPEG1 Layer3
Motion Picture Association
Motion Picture Expert Group
Peer-to-Peer oder Peer to Peer
Recording Industry Association of America
Secure Hashing Algorithm
Square Root, dt. Wurzel
Signed Subspace Key
Transmission Control Protocol
User Datagram Protocol
Urheberrechtsgesetz
Zentralstelle für private Überspielungsrechte
41
D Literatur
[AG]
Audiogalaxy
http://www.audiogalaxy.com
[COM03] COM!, Ausgabe 10/ 2003, Neue Mediengesellschaft Ulm mbH
[DR]
Kanzlei RA Dr. Bahr # Infos: BITKOM: Einigung über Urheberabgaben für DVD-Brenner:
http://www.dr-bahr.com/news/news_det_20030812000130.html,
29.01.04
[GPS]
The Gnutella Protocol Specification v0.4, Document Revision 1.2:
http://www9.limewire.com/developer/gnutella_protocol_0.4.pdf,
29.01.04
[GS1]
Gamestar.de -- Raubkopien 2003:
http://www.gamestar.de/magazin/reports/12080/, 29.01.04
[GS2]
Gamestar.de -- Raubkopien 2003 : PC ade:
http://www.gamestar.de/magazin/reports/13017/2.html, 29.01.04
[HEI]
Heise News-Ticker: CD-Brenner werden teurer:
http://www.heise.de/newsticker/data/tig-01.08.02-000/, 29.01.04
[KLA]
Michael Hicke: TCG/(TCPA) – Die (sinnvolle?) Zukunft des Computers?, 15.06.2003:
http://www.klassenarbeiten.de/referate/sonstige/docs/tcgbericht.doc,
29.01.04
[MH01] Minar, N.; Hedlund, M. (2001): A Network of Peers, Peer-to-Peer
Models Through the History of the Internet, Oram Verlag
[SDC]
Slyck's Guide to DirectConnect - Home:
http://www.slyck.com/dc.php, 29.01.04
[SED]
Slyck's Guide to eDonkey2000 - Home:
http://www.slyck.com/edonkey2k.php, 29.01.04
[SF]
Schoder, D.; Fischenbach, K.: Peer-to-Peer (Anwendungsbereiche
und Herausforderungen), Springer Verlag
[SFG]
Slyck's Guide to FastTrack - Grokster:
http://www.slyck.com/ft.php?page=5, 29.01.04
[SFK]
Slyck's Guide to FastTrack - Kazaa Lite:
http://www.slyck.com/ft.php?page=2, 29.01.04
[SFT]
Slyck's Guide to FastTrack - Home:
http://www.slyck.com/ft.php, 29.01.04
[SPO]
Musiktausch im Internet - Die meisten haben kein schlechtes Gewissen - Netzwelt - SPIEGEL ONLINE:
http://www.spiegel.de/netzwelt/politik/0,1518,265228,00.html,
29.01.04
[TPG]
TP: Gesetzbuch zu ... und alle Fragen offen:
http://www.heise.de/tp/deutsch/special/copy/15690/1.html, 29.01.04
[TPM]
TP: Sieg für Grokster und Morpheus:
42
[UOI]
[ZDN]
http://www.heise.de/tp/deutsch/inhalt/musik/14685/1.html, 29.01.04
Autor unbekannt:
http://www.cs.uoi.gr/~pitoura/courses/ds03_gr/assign/assgn5/AK.pdf
ZDNet.de - Neue Regeln für Musiktauschbörsen:
http://www.zdnet.de/news/tkomm/0,39023151,2138848,00.htm,
29.01.04
43
E Index
Audiogalaxy ........................12, 42
IRC........................................ 8, 17
Bandbreite ....7, 13, 16, 17, 21, 24,
28
BearShare ..................................23
BITTORRENT ......17, 18, 19, 36, 39
Kazaa ... 13, 19, 23, 24, 25, 34, 36,
42
CHK ....................................27, 41
Client ..3, 5, 6, 8, 9, 12, 13, 15, 17,
24, 25, 26, 27, 37, 38
Morpheus ...................... 23, 33, 42
mp3 ..................... 9, 10, 11, 12, 39
Multisource ....... 13, 15, 17, 38, 41
Dial-Up-User.........................6, 28
Direct Connect ..........8, 16, 17, 19
DivX......................................9, 13
DNS.......................................6, 37
Napster...... 5, 9, 11, 12, 16, 23, 33
Node.................................... 20, 38
ED2k .....13, 14, 15, 19, 25, 26, 41
Edonkey ............13, 14, 15, 26, 41
Emule ...15, 16, 17, 18, 19, 24, 26,
36
P2P... 3, 4, 5, 6, 7, 8, 9, 11, 20, 21,
23, 33, 34, 36, 37, 38, 39, 41
Peer-2-Peer .... 1, 3, 5, 6, 9, 12, 20,
38, 41
Pures ......................................... 20
Limewire................................... 23
OVERNET ............................. 13, 25
FastTrack.....23, 24, 25, 26, 39, 42
Filesharing..4, 5, 6, 17, 19, 27, 30,
31, 37, 38
FREENET ..................27, 28, 29, 36
FTP........................................8, 41
Raubkopieren...................... 29, 30
RIAA................. 11, 12, 33, 34, 41
Routing ............... 7, 20, 21, 23, 28
Server. 3, 6, 7, 8, 9, 10, 11, 12, 13,
14, 16, 17, 19, 24, 25, 26, 37,
38
SHA-1 ................................. 27, 41
Sicherheit .............. 4, 7, 16, 28, 36
SSK ..................................... 27, 41
Gnutella .........7, 21, 22, 23, 26, 42
Grokster...................23, 25, 33, 42
GUID.........................................27
Hash ..................10, 13, 24, 27, 37
Host Cache ................................22
HTTP.......................17, 22, 24, 41
hybrides .............................6, 7, 38
Hybrides ......................................9
Tauschbörse .................. 11, 12, 34
TCP ......... 3, 13, 21, 27, 37, 38, 41
TCP/IP ........................................ 3
Urheberrecht ............................. 40
IMESH ............................26, 34, 39
Index..............9, 10, 12, 20, 21, 44
Internet ...1, 3, 6, 8, 23, 25, 27, 29,
37, 41, 42
zentrales ................ 7, 9, 16, 36, 38
44