Grooming - Youth Protection Roundtable YPRT

Transcription

Grooming - Youth Protection Roundtable YPRT
YPRT Toolkit
Ein Werkzeugkoffer für den Jugendmedienschutz
Inhaltsverzeichnis
Einführung in das YPRT Toolkit...............................................................................................3
Vorwort...................................................................................................................................4
A ·Risiken für Kinder und Jugendliche bei der Nutzung
von Online-Dienstleistungen .......................................................................................7
A 1 · Mit Online-Inhalten verbundene Risiken........................................................................9
A 2 · Mit Online-Kontakten verbundene Risiken.................................................................. 12
B ·Überblick über verfügbare Technologien zur Unterstützung
des Jugendschutzes......................................................................................................15
B 1 · Filter-Software.............................................................................................................. 17
B 2 · Überwachungs- und Kontrollmechanismen.................................................................20
B 3 · Altersverifikation...........................................................................................................21
B 4 · Andere technische Instrumente...................................................................................23
2
C ·
Verbesserung des Jugendschutzes im Internet..................................................25
C 1 · Verbesserung unterstützender Technologien und Infrastrukturen...............................26
C 2 · Verbesserung der Nutzbarkeit von Filtersoftware.......................................................27
C 3 · Verbesserung von Internetanwendungen – technische Grundlagen und
Implementierung von Zusatzmodulen..............................................................................29
C 4 · Vereinbarung von Richtlinien durch die Anbieter und Betreiber
von Internetdiensten und ‑anwendungen.........................................................................31
C 5 · Medienkompetenz.......................................................................................................32
C 6 · Aufklärung und Bewusstseinsbildung..........................................................................34
C 7 · Forschung....................................................................................................................35
C 8 · Rechtliche Regelungen................................................................................................35
D ·
Ressourcen........................................................................................................................36
E ·
Bestandsaufnahme Selbstregulierung....................................................................38
E 1 · Organisationen.............................................................................................................38
E 2 · Instrumente ................................................................................................................. 41
F ·
Bestandsaufnahme rechtlicher Regelungen.........................................................45
Einführung in das YPRT Toolkit
Dieses Toolkit wurde vom Youth Protection Roundtable im Rahmen des Safer Internet
Programms der Europäischen Kommission entwickelt.
Der Youth Protection Roundtable wurde im Jahr 2006 ins Leben gerufen, um technische
Experten1 und Kinderwohlfahrtsorganisationen miteinander ins Gespräch zu bringen. Ziel
war es, den optimalen Mix effektiver, technik-gestützter Strategien einerseits und pädagogischer Strategien andererseits zu erarbeiten, damit Jugendliche – und bei Minderjährigen
die verantwortlichen Erwachsenen – zu einer sicheren Nutzung des Internet befähigt werden. 32 Partnerorganisationen aus 13 europäischen Ländern arbeiteten 30 Monate lang zusammen und trafen sich zu vier Konferenzen. Im Rahmen des so genannten Young Roundtable wirkten außerdem Jugendliche
selbst an der Entwicklung des YPRT
Toolkits mit.
Adopt, Adapt, Improve –
Auf der Grundlage der Projektergebnisse und der Einblicke in das OnlineVerhalten von Jugendlichen entwickelte der Youth Protection Roundtable
diesen Katalog von Ideen und
Vorschlägen zur Verbesserung des
Jugendmedienschutzes im Internet.
Annehmen, Anpassen, Verbessern
Diesen Slogan, den der Duke of Windsor prägte, als er im
Jahr 1927 die Idee eines Runden Tisches in der Britischen
Clubtradition einführte, hat der YPRT aufgegriffen. Junge
Menschen unterschiedlicher Profession kamen auf Einladung
des Duke zusammen, um etablierte Handlungsweisen im
Licht neuer Entwicklungen gemeinsam zu diskutieren und so
die jeweiligen Ansichten besser zu verstehen. Auch der Youth
Protection Roundtable hat in den vergangenen zweieinhalb
Jahren einen solchen Diskussionsprozess zwischen den
Vertretern der verschiedenen am Jugendmedienschutz betei­
ligten Institutionen und Unternehmen initiiert. Jeder, der nun
die Ideen und Empfehlungen dieses Toolkits annimmt, an
seine eigenen Angebote anpasst und versucht diese zu ver­
bessern, ist eingeladen, künftig am virtuellen Youth Protection
Roundtable platzzunehmen und seine Erfahrungen und
Perspektiven mit anderen unter www.yprt.eu zu teilen.
Herbert Kubicek, Wissenschaftlicher Direktor der Stiftung Digitale Chancen
1-D
as Toolkit wurde durch die Stiftung Digitale Chancen aus dem Englischen übersetzt. Im Interesse einer gendergerechten Sprache werden wo möglich
geschlechtsneutrale Begriffe verwendet, in einigen Fällen wird aus Gründen der Textökonomie der maskulinen Form der Vorzug gegeben.
3
Vorwort
Die Teilhabe an der Informationsgesellschaft ist für Menschen aller Altersgruppen von großer Bedeutung. Das Internet bietet umfangreiche Möglichkeiten für alle Nutzerinnen und
Nutzer. Es hat positive Auswirkungen auf die Bildung, die Arbeitswelt und das wirtschaft­
liche Wachstum. Insbesondere Kinder und Jugendliche kennen seine Anwendungen sehr
gut und können von der Internetnutzung profitieren, aber sie sind auch besonders verletzlich. Die positive Entwicklung durch das Internet wird begleitet von Risiken und Bedrohungen, die den Gefahren der realen Umwelt oft ähnlich sind.
Der sinnvolle Einsatz von technischen Instrumenten kann dazu beitragen, diesem Problem
zu begegnen. Aber die Effektivität technischer Werkzeuge zur Bekämpfung von Risiken
wird durch ihre komplizierte Handhabbarkeit einerseits und die rasante technische Entwicklung im Internet anderseits beeinträchtigt. Es ist daher ist nicht zu empfehlen, sich
allein auf die Technik zu verlassen. Kinder und Jugendliche müssen stark gemacht werden
für einen sicheren Umgang mit dem Internet und sie müssen lernen, Risiken zu vermeiden oder zu beherrschen. Technik kann dabei eine nützliche und unterstützende Rolle
spielen, insbesondere wenn es um jüngere Kinder geht.
Deshalb hat der Youth Protection Roundtable mit Bezug auf
das Vereinte Nationen Übereinkommen über die Rechte des Kindes von 1989,
rt. 10 der Europ. Menschenrechtskonvention, der das Recht auf freie Meinungs­
A
äußerung und die Freiheit, Informationen und Ideen ohne behördliche Eingriffe und
ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben, garantiert,
ie Erklärung des Ministerkomitees über die Achtung der Menschenrechte und der
d
Rechtsstaatlichkeit in der Informationsgesellschaft, die am 13. Mai 2005 vom
Ministerkomitee des Europarats beschlossen wurde, wonach die Mitgliedstaaten
juristische und praktische Maßnahmen erhalten und verbessern sollen, um private
oder staatliche Zensur zu verhindern,
ie Erklärung zur Kommunikationsfreiheit im Internet des Ministerkomitees vom
d
28. Mai 2003,
ie Empfehlung Rec(2007)11 des Ministerkomitees an die Mitgliedstaaten zur Förded
rung der Meinungs- und Informationsfreiheit in den neuen Informations- und Kommunikationsmedien,
4
ie Empfehlung Rec(2007)16 des Ministerkomitees an die Mitgliedstaaten über
d
Maßnahmen zur Förderung der Internet-Grundversorgung,
ie Empfehlung Rec(2008)6 des Ministerkomitees an die Mitgliedstaaten zu Maß­
d
nahmen zur Wahrung der Meinungs- und Informationsfreiheit in Bezug auf Internet­
filter (vom Ministerkomitee beschlossen am 26. März 2008 auf der 1022. Sitzung
der Ministervertreter),
einen Katalog von Ideen und Vorschlägen erarbeitet
technische Entwicklungen unter Berücksichtigung pädagogischer Aspekte
für
und
f ür die Anwendung von Filtertechnik und pädagogischen Maßnahmen im
öffentlichen und privaten Bereich.
Das YPRT-Toolkit ist ein Katalog nicht bindender Empfehlungen für die Verbesserung des
Jugendmedienschutzes im Internet.
Das vom YPRT entwickelte Toolkit unterstützt die Akteure, die durch die Bereitstellung
von Dienstleistungen und Inhalten im Internet, die Entwicklung von Internet-Hardware und
-Software, die Beratung von Eltern, die Erziehung von Kindern und Jugendlichen, die
Ausbildung von Multiplikatoren und durch politische Entscheidungen einen Beitrag zum
Jugendmedienschutz leisten können.
Massnahmen
Für Den Jugendschutz
3,5
3
2,5
2
1,5
Kinder (bis 13 Jahre)
Jugendliche (14-17 Jahre)
*Ø Prioritätspunkte 1-6
(höchste Priorität 6)
1
0,5*
0
nz
lle)
lizei
ers
iten
men
pete
Nutz e-Kontro hten Se
ie Po
ram
des
nkom
c
il
rch d ilterprog
f
r
e
ie
u
r
g
e
d
d
e
o
n
e
g
ech
er L
nF
rnet
er M
lters
mR
ielle
n od
Inte
zu a
ng d
des
spez e auf de bei sitze
nur
deru
g
it
r
g
n
ö
n
n=126
m
r
u
F
a
a
a
r
g
ch
e
h
(d
w
r Zu
r wa
durc
ser v
soft
olle
Übe
nkte
der
ontr
roxy B. Filter
ä
K
P
r
in
h
.
K
e
esc
z. B
der
rlich
ie z.
Eing
wie
Elte
nw
kung
YPRT Survey On Matters Of Safer Internet And Youth Protection
Stär
ngen ösunge
u
s
ö
© Youth Protection Roundtable - Stiftung Digitale Chancen
L
are-L ftwarew
d
r
o
S
Ha
5
Die Vorschläge für technische Entwicklungen im Hinblick auf pädagogische
Maßnahmen
informieren Provider und Entwickler über die Risiken, mit denen Kinder und Jugend­
liche bei der Nutzung von Online-Dienstleistungen konfrontiert sind (Kapitel A),
eben einen Überblick über die zurzeit vorhandenen Technologien zur Unterstützung
g
des Jugendschutzes (Kapitel B),
eschreiben, wie man diese Technologien effizient anwendet (z. B. dass Filter auf
b
den Endnutzergeräten einerseits effektiv und andererseits für Erziehungsverantwort­
liche leicht handhabbar sein sollten) (Kapitel C1-C4),
eschreiben die allgemeinen Bedingungen des Jugendschutzes (d. h. geben Hinweise
b
auf nationale und internationale Rahmenwerke und Gesetze).
Damit sollen Techniker in die Lage versetzt werden abzuschätzen, welche Auswirkungen
neu entwickelte Technologien auf Kinder und Jugendliche haben können.
Die Vorschläge für den Einsatz von Filtertechnologien und pädagogischen
Maßnahmen im öffentlichen und privaten Bereich
informieren Multiplikatoren (Pädagogen und Erziehungsverantwortliche) über die Beziehung zwischen bestimmten Online-Anwendungen und -Produkten und den damit
verbundenen Risiken (Kapitel A),
eschreiben geeignete unterstützenb
de Technologien,
z eigen auf, wo zusätzliche pädagogische Maßnahmen erforderlich sind,
um das Potential der Technologien
für den Jugendschutz zu erhöhen
(Kapitel C2-C7).
Der Youth Protection Roundtable hat großartige
Arbeit geleistet, indem er einen bereichsübergreifen­
den Dialog angestoßen hat zwischen technischen
Spezialisten, Experten der Kinderwohlfahrtspflege
und Managern von Safer-Internet-Projekten. Das
Ergebnis der gemeinsamen Arbeit ist besonders
wertvoll für Menschen, die mit Kindern und Jugend­
lichen arbeiten und sie im Umgang mit dem Internet
stärken möchten. Das Toolkit ist ein geeignetes
Instrument für den Einsatz in der täglichen Praxis.
Ing. Pavel Vichtera, Saferinternet CZ Projektkoordinator
6
A·R
isiken für Kinder und Jugendliche bei der Nutzung
von Online-Dienstleistungen
Die Mitgliedsorganisationen des Youth Protection Roundtable haben verschiedene Risiken
und Bedrohungen als relevant für den Jugendmedienschutz im Internet identifiziert und
in einer Matrix geordnet nach vier Kategorien dargestellt. Nicht alle in der YPRT-Matrix
genannten Risiken sind für alle Altersgruppen gleichermaßen relevant, sie müssen aber
dennoch alle in geeigneter Weise angesprochen und thematisiert werden.
Die Risiken wurden zunächst differenziert in solche, die sich bei der Nutzung von OnlineInhalten ergeben können, und andere, die mit Online-Kontakten verbunden sind.
In beiden Bereichen sind einige Risiken die Folge des eigenen Verhaltens der Nutzer,
während andere Risiken aus dem Verhalten anderer Nutzer resultieren. Wo die Risiken
angesiedelt sind, hängt davon ab, ob man die Perspektive des Konsumenten von Inhalten
oder die des Produzenten von Inhalten einnimmt, dies gilt insbesondere für so genannte
nutzergenerierte Inhalte (user generated content). Deshalb ist eine gewisse Durchlässigkeit zwischen den Bereichen der Matrix wichtig. Darüber hinaus sind einige Risiken nur
für bestimmte Altersgruppen von Bedeutung und können daher nur mit Maßnahmen bekämpft werden, die speziell auf die Bedürfnisse dieser Nutzergruppen zugeschnitten sind.
Unsere Organisation arbeitet in erster
Linie mit Menschen, die aus sozial
benachteiligenden Verhältnissen kom­
men. Deshalb sind wir besonders
daran interessiert, die jungen Men­
schen zu fördern, denen sonst keine
Unterstützung zuteil wird und die auf
unsere Hilfe im Umgang mit den Risi­
ken des Internet angewiesen sind.
John Fisher, Citizens Online
7
Matrix der Risiken und Bedrohungen
Überwachungs- und
Kontrollmechanismen
Online-Schule für ein
sicheres Internet
Mediation
Aufklärung und Bewusstseinsbildung
Instanz, die Inhalte überwacht
„Internetschutz­
polizei“
Weltweiter kabelloser
Zugang zum Internet
Internet Bereich
Rowdytum
USB Sticks mit
universeller Filtersoftware
Inhaltebezogen
Verletzung des
Urheberrechts
Nicht-altersgemäße
Inhalte
Gewaltdarstellungen
Verstöße gegen die Menschenrechte / Verleumdungen
Datenbeständigkeit
Internetsucht
Falschinformationen
und fehlerhafte Inhalte
Anstiftung zur
Selbstschädigung
Illegale Inhalte,
z.B. Rassismus,
Kinderpornografie
Datenportabilität
PC-Sicherheit, Viren,
Trojaner
Preisgabe privater Daten, vor allem
auf Social Community Plattformen
Unangemessene
Werbung für
Kinder
Ungeeignete
Ratschläge
Identitätsdiebstahl
Geldverlust / Phishing
Bullying /
Schikanieren
Wirtschaftlicher
Betrug
Kontaktanbahnung
durch Pädophile
Profilbildung
Alkohol
Glücks­
spiele
Terrorismus
Beschränkung für
Chaträume: Nutzung nur
mit Webcam
Altersverifikation
Kontaktbezogen
Magersucht
Reale Umgebung
© Stiftung Digitale Chancen
8
Filtersoftware
Ausbeutung und sexueller Missbrauch durch Aufnehmen
und Verbreiten von Bildern von Kindern
Risiken in Folge des Verhaltens anderer
Internetsicherheit als Unterrichtsfach in der Schule
Internetsicherheit als
Gegenstand der
Ausbildung von Lehrern
Junge Internetexperten
in Schulen
Ausbildung jüngerer
Schüler
Stärkung/Befähigung
Risiken in Folge des eigenen Verhaltens
Medienkompetenz
Möglichkeit, persönliche Daten in sozialen
Netzwerken für immer zu löschen
Drogen
Selbstmord
Ausbeutung und sexueller Missbrauch
Antivirus Software
A 1 Mit Online-Inhalten verbundene Risiken
Bei Online-Inhalten muss man zwischen illegalen und schädlichen Inhalten unterscheiden.
In den Ländern Europas gibt es keine einheitliche Festlegung, welche Inhalte als illegal,
schädlich oder als ungeeignet anzusehen sind. Jedoch sind einige Inhalte wie z. B. Kinder­
pornographie in vielen Ländern der Welt verboten.
A 1.1 Nicht-altersgemäße Inhalte
Das Internet bietet große Mengen an Inhalten für alle Nutzergruppen. Allgemeine Interessen werden ebenso bedient wie spezielle Themen. Für Kinder und Jugendliche sollten bestimmte Inhalte nicht zugänglich sein. Welche Inhalte für welche Altersgruppen geeignet
sind, muss sorgfältig abgewogen werden. Besondere Aufmerksamkeit ist den Inhalten zu
widmen, die nicht generell illegal sind, jedoch schädlich für Jüngere sein können. Die
Begegnung mit unangemessenen Inhalten wie Pornographie kann z. B. jüngeren Kindern
schaden, wenn sie unbeabsichtigt damit konfrontiert werden. Nutzer können mit nichtaltersgemäßen Inhalten in Kontakt kommen, wenn sie gezielt danach suchen oder wenn
sie zufällig auf diese Inhalte stoßen. Nicht-altersgemäße Inhalte werden aus kommerziellen Gründen angeboten, können jedoch auch von Nutzern selbst produziert werden. Während der Zugang zu den kommerziellen nicht-altersgemäßen Inhalten auf geschlossene
Nutzergruppen beschränkt werden könnte, sind nutzergenerierte Inhalte meistens öffentlich verfügbar und erfordern daher besondere Aufmerksamkeit. Ein hoher Prozentsatz der
Kinder und Jugendlichen verfügt heute über ein Mobiltelefon mit Multimedia-Funktionalitäten und Internetzugang, daher ist auch zu bedenken, dass sie mit diesen Geräten auf
nicht-altersgemäße Inhalte zugreifen können, wenn sie allein sind und kein Erwachsener
sie beaufsichtigt oder anleitet. Mobilgeräte ermöglichen es den Kindern auch, in jeder
Lebenslage ihre eigenen digitalen Inhalte zu produzieren und damit zu der immer größer
werdenden Menge von nutzergenerierten Inhalten beizutragen.
A 1.2 Gewaltdarstellungen
Gewaltdarstellungen sind eine weitere Art ungeeigneter Inhalte – ihre Wirkung auf den Zuschauer hängt zum größten Teil vom Alter des Zuschauers, seinen Konsumgewohnheiten
hinsichtlich Internetinhalten und seinen Lebensumständen ab. Insbesondere jüngere Kinder sollten davor geschützt werden, zufällig auf Gewaltdarstellungen zu stoßen. Aber auch
die absichtliche Suche nach solchen Inhalten, die ihnen auch auf anderen Medien oder in
Läden nicht zugänglich gemacht werden dürfen, ist zu verhindern. Ein weiterer Schwerpunkt sollte auf nutzergenerierte Inhalte gelegt werden, insbesondere weil Kinder und
Jugendliche auch Gewaltdarstellungen produzieren und verbreiten können und sich nicht
darüber im Klaren sind, welchen Schaden diese Inhalte bei anderen anrichten können.
9
Seit mehr als zehn Jahren spielen
der Jugendmedienschutz im Inter­
net und der Ansatz der Selbst­
regulierung eine wichtige Rolle in
der Arbeit von eco, insbesondere
durch das Betreiben einer Hotline
zur Meldung von illegalen und
Minderjährige gefährdenden
Inhalten. Darüber hinaus ist eco
Gründungsmitglied von INHOPE
und beteiligt sich an verschiede­
nen Aktivitäten des Jugendme­
dienschutzes wie z. B. der Vertre­
tung von ICRADeutschland/fosi.
A 1.3Illegale Inhalte, z. B. Rassismus
oder Kinderpornographie
Welche Inhalte als illegal zu klassifizieren sind, wird durch die nationale Gesetzgebung der Länder bestimmt. Einige Arten von Inhalten gelten in vielen Ländern gleichermaßen als illegal. Trotzdem stehen diese Inhalte online zur Verfügung und Kinder und
Jugendliche können absichtlich oder unabsichtlich darauf stoßen.
Bei der Herstellung und Verbreitung von Darstellungen des Kindesmissbrauchs sind Kinder und Jugendliche als Opfer Gegenstand von illegalen Inhalten.
A 1.4 Falschinformationen und fehlerhafte Inhalte
Das Risiko fehlerhafter Inhalte, z. B. in kollaborativ erstellten
Webangeboten wie Wikipedia oder wenn gefälschte Produkte
Alexandra Koch, eco Verband der
deutschen Internetwirtschaft
beworben werden, resultiert hauptsächlich aus den Handlungen
anderer Nutzer. Es multipliziert sich mit der zunehmenden Anzahl
von Web 2.0 Anwendungen, wo die Richtigkeit der Inhalte zumeist nur durch die Nutzer
selbst kontrolliert wird und nicht durch eine Redaktion. Gerade unerfahrene junge Internetnutzer können durch bewusste Fehlinformationen, d. h. Inhalte, die eine bestimmte Botschaft transportieren sollen, in ihrer Meinungsbildung manipuliert werden.
A 1.5 Anstiftung zur Selbstschädigung
Es gibt viele Webseiten, die z. B. für Selbstmord, Magersucht oder Sektierertum werben
und die Nutzer dazu anstiften, sich selbst zu schädigen. Durch Web 2.0 und die wachsenden Möglichkeiten der Nutzer, eigene Inhalte zu veröffentlichen, wächst auch das Risiko,
auf Inhalte zu stoßen, die zu schädigendem Verhalten aufrufen. Besonders Kinder und Jugendliche sind in vielen Fällen nicht in der Lage, die Risiken richtig einzuschätzen, die aus
der Befolgung solcher Anleitungen resultieren.
A 1.6 Verstöße gegen die Menschenrechte / Verleumdungen
In der Anonymität des Internet kann Propaganda, die sich gegen bestimmte Bevölkerungsgruppen oder Einzelpersonen richtet, leicht verbreitet werden. Hinzu kommt, dass
die Menschen sich im Netz, wo sie die Reaktionen ihrer Gegner oder Opfer nicht sehen
und daher nicht unmittelbar mit den Konsequenzen ihres Verhaltens konfrontiert sind, häufig anders verhalten als in der Realität. Deshalb ist das Risiko eines Verstoßes gegen die
Menschenrechte oder einer Verleumdung online sehr viel wahrscheinlicher als offline. Ver-
10
leumderische Inhalte stellen insbesondere ein Risiko für Kinder und Jugendliche dar, deren Weltbild noch nicht gefestigt ist und von irreführenden Informationen leicht beeinflusst
werden kann.
A 1.7 Unangemessene, an Kinder gerichtete Werbung und Marketing
Werbung ist unangemessen, wenn sie sich an Kinder richtet und Produkte und/oder
Dienstleistungen propagiert, die für diese ungeeignet sind, wie z. B. Schönheitschirurgie.
Je mehr private Informationen die Nutzer im Internet preisgeben, z. B. Name, Alter oder
Geschlecht, desto wahrscheinlicher ist es, dass sie personenbezogene Werbung erhalten
oder z. B. persönlich aufgefordert werden, an Gewinnspielen teilzunehmen. Da Kinder
kaum abschätzen können, welche Folgen das Eintragen ihres Namens in Formulare und
das Anklicken von Kästchen im Netz haben kann, wächst für sie das Risiko, persönlich adressierte Werbung zu erhalten. Mobiltelefone sind ein zusätzlicher Kanal, über den diese
Art von Werbung Kinder und Jugendliche erreichen kann.
A 1.8 Datenpersistenz / Datenbeständigkeit
Im Netz veröffentlichte Inhalte gehen schnell um die Welt. Aufgrund der Möglichkeiten
der digitalen Weiterverbreitung und Duplizierung ist es nahezu ausgeschlossen, einmal
veröffentlichte Daten vollständig zu löschen. Besonders Kinder und Jugendliche sind sich
der kurz- und langfristigen Konsequenzen nicht bewusst und veröffentlichen leichtfertig
Texte und Bilder, die sie später vielleicht lieber zurücknehmen möchten. Daher betrifft das
Risiko der Datenpersistenz besonders arglose junge Leute.
A 1.9 Datenportabilität
Wenn Daten auf einem Server oder einer Plattform im Internet gespeichert werden, können sie leicht von dort auf andere Server übertragen werden. Internetnutzer, die sich dessen nicht bewusst sind, gefährden ihre Privatsphäre. Die
technischen Möglichkeiten des Netzes sind vielen jungen Menschen bekannt.
Aber die meisten können nicht annähernd abschätzen, welche Konsequenzen es
hat, wenn private Daten, die sie im Internet preisgeben, mit anderen Daten über
ihre Person technisch zusammengeführt und ausgewertet werden.
A 1.10Verletzung des Urheberrechts
Das Risiko einer Verletzung des Urheberrechts resultiert häufig aus dem Verhalten der Nutzer selbst. Unabhängig davon, ob das Urheberrecht eines anderen absichtlich oder unabsichtlich verletzt wurde, handelt es sich um Betrug, der strafrechtlich verfolgt werden kann.
11
A 2 Mit Online-Kontakten verbundene Risiken
A 2.1 Ungeeignete Ratschläge
Foren, Blogs oder andere Kontaktbereiche des Internet bieten eine Plattform für den Austausch von Ratschlägen der Nutzer untereinander. Das kann eine wertvolle Hilfe sein, ermöglicht aber auch den Kontakt zu zweifelhaften Ratgebern, die riskante Tipps verbreiten.
Das Risiko, dass Kinder und Jugendliche ungeeignete Ratschläge erhalten, ist auf Gemeinschaftsplattformen2 oder anderen interaktiven Web 2.0 Anwendungen größer als auf klassischen Webseiten.
A 2.2 Internetsucht
Da die Menschen immer mehr Zeit online verbringen, wächst auch die Gefahr der so genannten Internetsucht. Insbesondere junge Menschen riskieren, dass die Internetnutzung
zur ständigen Gewohnheit wird und sie den Computer nicht mehr abschalten können.
Dieses Risiko ist daher hauptsächlich mit dem eigenen Verhalten verbunden.
A 2.3 Identitätsdiebstahl
Identitätsdiebstahl im Internet ist die Beschaffung und Nutzung der elektronischen Identität anderer Personen (z. B. Nutzername und Passwort), um diesen damit wirtschaftlichen
oder anderen Schaden zuzufügen und davon zu profitieren. Mit der wachsenden Anzahl
der Nutzer von personalisierten Online-Dienstleistungen nimmt auch die Anzahl der virtuellen Identitäten zu – damit erhöht sich auch das Risiko des Identitätsdiebstahls.
A 2.4 Geldverlust / Phishing
Phishing bezeichnet das Abfangen von Bankangaben, insbesondere PINs und TANs, um
auf die Bankkonten anderer zuzugreifen. Bei unerfahrenen Nutzern, insbesondere Jugendlichen besteht eine höhere Gefahr, dass sie eine gefälschte Webseite nicht erkennen, ihre
Bankangaben eintragen und so Opfer von Phishing werden.
A 2.5 Wirtschaftlicher Betrug
Wenn Waren oder Dienstleistungen online verkauft werden, die entweder nicht die angegebenen Eigenschaften aufweisen oder überhaupt nicht geliefert werden, handelt es sich
um wirtschaftlichen Betrug. Dieser kann auch aus Identitätsdiebstahl und Phishing resultieren oder beim Verkauf digitaler Dienstleistungen, z. B. einem Klingelton, auftreten: Im
Betrugsfall wird ein unangemessener Preis verlangt oder der Kauf ist mit einem – nicht
gewünschten – Abonnement für eine Dienstleistung verbunden, ohne dass der Kunde
deutlich darauf hingewiesen wurde. Für Kinder und Jugendliche ist die Unterscheidung
12
2-A
ls Gemeinschaftsplattformen werden so genannte Social Community Networks bezeichnet, bei denen
die Nutzer Mitglied werden und sich mit einem persönlichen Profil der Gemeinschaft der Nutzer vorstellen.
zwischen seriösen Online-Verträgen und solchen mit einem Betrugsrisiko besonders
schwierig.
A 2.6 Grooming / Kontaktanbahnung durch Pädophile
Pädophile nutzen das Internet, um Kinder und Jugendliche zu kontaktieren und verbergen
dabei ihre erwachsene Identität. Ihre Strategie stützt sich auf das Bedürfnis von Kindern
nach Freundschaft und Vertrautheit. Alle Bereiche des Internet, wo Möglichkeiten des persönlichen Kontakts und Austauschs angeboten werden, können auch als Basis für Grooming
dienen. Das Mobiltelefon muss als zusätzlicher Weg, mit anderen in Kontakt zu treten und
sich Zugang z. B. zu Gemeinschaftsplattformen zu verschaffen, mit berücksichtigt werden. Gerade Kinder betrachten ihr Mobiltelefon als einen Teil ihrer Privatsphäre und sind
häufig allein, wenn sie es benutzen. Das Risiko, Opfer von Grooming zu werden und einer
gefährlichen Einladung zu folgen, ist dann noch größer.
„Child on the Web“ Kampagne,
2004, Nobody’s Children
Foundation und VA Strategic
Communications Agency
13
A 2.7 Bullying / Schikanieren
Gemeinheiten und Belästigungen gehören in gewisser Weise zum Alltag von
Kindern und Jugendlichen. Die Anonymität, die das Internet bietet, kann derartiges Verhalten noch bestärken. Kinder und
Jugendliche können sowohl Opfer als
auch Täter sein. Das Bullying ist also sowohl mit dem eigenen als auch dem Verhalten anderer verbunden. Die Veröffent­
lichung z. B. von diffamierenden Bildern kann eine Form des Bullyings sein, hauptsächlich
tritt das Phänomen jedoch in der Online-Kommunikation auf. Oft werden multifunktionale
Mobiltelefone benutzt, um Fotos zu machen und sie ins Internet zu stellen oder sie per
MMS an andere zu schicken. Durch die weite Verbreitung von Mobiltelefonen mit Digitalkamera bei Kindern und Jugendlichen wird Bullying vereinfacht.
A 2.8 Preisgabe privater Informationen
Beim Einstellen eines Profils auf einer Gemeinschaftsplattform werden private Informationen preisgegeben, weil der Nutzer sich der Gemeinschaft vorstellen will. Auch in Chat­
rooms3 und Foren teilen viele Nutzer anderen ihre privaten Daten wie Adresse oder Telefonnummer mit. Besonders junge Menschen können oft die Folgen nicht abschätzen, die
die Preisgabe von persönlichen Daten haben kann. Sie sind sich zumeist nicht bewusst,
dass ein Chatroom kein privater, sondern ein öffentlicher Bereich ist.
A 2.9. Profilbildung
Mit der zunehmenden Anzahl von Profilen, durch die eine Person persönliche Informationen auf verschiedenen Plattformen veröffentlicht, erhöht sich das Risiko, dass diese Daten von anderen zusammengeführt oder weitergegeben werden. So können Profile gebildet werden, mit denen man die Person direkt ansprechen kann, sei es mit unerwünschten
Inhalten, Dienstleistungen oder Werbung. Profilbildung kann von der Webseite aus erfolgen, auf der die persönlichen Daten öffentlich gemacht wurden. Noch gefährlicher ist es,
wenn die Profile der Nutzer oder Teile davon gezielt aus der Datenbank, die hinter der
Webseite steht, abgegriffen und an Dritte weiterverkauft werden.
3 - Wörtlich ‘Schwatzraum’, Bereich des Internet, in dem mehrere Nutzer gleichzeitig in Echtzeit miteinander kommunizieren
14
B·Ü
berblick über verfügbare Technologien zur
Unterstützung des Jugendschutzes
Die YPRT-Mitgliedsorganisationen haben sich mit den verfügbaren Technologien für den
Jugendmedienschutz befasst, dabei aktuelle Forschungsergebnisse berücksichtigt und die
Effektivität der hier aufgeführten technischen Instrumente auf der Grundlage ihrer eigenen
Expertise eingeschätzt. Diese Einschätzungen wurden gemeinsam erörtert, überprüft und
gegebenenfalls noch einmal revidiert. Das führte zu einer Validierung und zunehmenden
Übereinstimmung des Urteils der Expertinnen und Experten.4
Die Mitglieder des YPRT kamen durch diesen Prozess zu der Erkenntnis, dass alle technischen Instrumente durch zusätzliche Maßnahmen wie z. B. die Förderung der Medienkompetenz ergänzt werden müssen, um wirklich effektiv zu sein. Technische Instrumente
werden daher in diesem Handbuch nicht als Lösungen, sondern als unterstützende Technologien für den Jugendschutz bezeichnet.
Die folgende Version der Matrix der Risiken und Bedrohungen zeigt, in welchen Bereichen
diese Technologien wirksam sein und damit die Bemühungen um den Jugendschutz im
Internet unterstützen können.
4-N
otiz des Herausgebers: Der folgende Abschnitt basiert auf der zweiten Effektivitätsabschätzung der Instrumente
durch die YPRT-Mitgliedsorganisationen während des 4. YPRT-Treffens im November 2008 in London.
15
Matrix der Risiken und Bedrohungen
Filter software
Medienkompetenz
Junge Internetexperten
in Schulen
Ausbildung jüngerer
Schüler
Online-Schule für ein
sicheres Internet
Alkohol
Stärkung/Befähigung
Rowdytum
Mediation
Verletzung des
Urheberrechts
Nicht-altersgemäße
Inhalte
Datenpersistenz
GewaltFalschinformationen
darstellungen und fehlerhafte Inhalte
Verstöße gegen die
Menschenrechte /
Verleumdungen
Internetsucht
Anstiftung zur
Selbstschädigung
Illegale Inhalte,
z.B. Rassismus,
Kinderpornografie
Datenportabilität
PC-Sicherheit, Viren,
Trojaner
Unangemessene
Werbung für
Kinder
Preisgabe privater Daten, vor allem
auf Social Community Plattformen
Ungeeignete
Ratschläge
Identitätsdiebstahl
Wirtschaftlicher
Betrug
Geldverlust / Phishing
Bullying /
Schikanieren
Kontaktanbahnung
durch Pädophile
Profil­
bildung
Risiken in Folge des Verhaltens anderer
Weltweiter kabelloser
Zugang zum Internet
Ausbeutung und sexueller Missbrauch durch Aufnehmen
und Verbreiten von Bildern von Kindern
Kontaktbezogen
Magersucht
Internet Bereich
Reale Umgebung
© Stiftung Digitale Chancen
16
„Internetschutz­
polizei“
Instanz, die Inhalte überwacht
Inhaltebezogen
Risiken in Folge des eigenen Verhaltens
Aufklärung und Bewusstseinsbildung
Überwachungs- und
Kontrollmechanismen
Internetsicherheit als Gegenstand Internetsicherheit als Unterrichtsfach in der Schule
der Ausbildung von Lehrern
Drogen
Selbstmord
Ausbeutung und sexueller Missbrauch
Möglichkeit, persönliche
Daten in sozialen Netzwer­
ken für immer zu löschen
Beschränkung für
Chaträume: Nutzung nur
mit Webcam
Glücks­
spiele
Altersverifikation
Terrorismus
Anti-Grooming
Maschine
USB Sticks mit
universeller Filtersoftware
Spam Filter
Antivirus Software
B 1 Filter-Software
B 1.1 Beschreibung von Filtersoftware und Filterprozessen
Filtersoftware ist eine elektronische Anwendung, die es erlaubt, Internetinhalte auszuwählen und auszusortieren. Filtersoftware kann Kinder und Jugendliche davor schützen, absichtlich oder unabsichtlich mit schädlichen, illegalen oder unangemessenen Inhalten in
Kontakt zu kommen. Allerdings sind gerade junge Leute technisch versiert und häufig in
der Lage, Filtersoftware zu umgehen. Filterprogramme arbeiten zumeist auf der Basis von
Listen mit klassifizierten Inhalten oder sie analysieren den Inhalt von Webseiten mit semantischen oder statistischen Methoden. Sie können als Programme oder Module auf
dem Endnutzer-Gerät laufen oder auf einem zentralen Internetzugangspunkt wie einem
Proxy-Server oder beim Provider betrieben werden. Die Inhalte können durch folgende
Klassifizierungen eingestuft werden: eine redaktionelle Klassifizierung (schwarze und weiße Listen5 ), eine automatische Klassifizierung (Schlagwort-Blockierung) oder eine InhalteKlassifizierung, die von einer unabhängigen Agentur geprüft wird (z. B. NICAM als Administrator von PEGI oder vom Inhalte-Anbieter selbst, z. B. ICRA-Kennzeichnung). Bei den
meisten Filterprogrammen wirken verschiedene Klassifizierungsmethoden zusammen.6
Laut SIP Benchmark7 kann das Filtern auf verschiedenen Ebenen erfolgen. Filtersoftware
kann an folgenden Stellen installiert werden: im PC des Endnutzers, auf einem lokalen
Server, beim Internet-Service-Provider oder an anderer Stelle im Internet, d. h. einem Internet-Filterservice auf der Basis eines Proxy-Servers. Folgende technische Formen der
Filterung sind möglich:
lockierung einer Anfrage an eine
•B
URL, die in einer vom Anbieter der
Software gelieferten schwarzen
Liste aufgeführt ist (lokale schwarze Liste) oder die auf einer schwarzen Liste auf der Webseite des Anbieters steht (Fernwirkung der
schwarzen Liste)
• Blockierung einer Anfrage an eine
URL, die nicht auf einer vom Anbieter der Software gelieferten weißen Liste aufgeführt ist (lokal oder
Fernabfrage der weißen Liste)
The convenience of filtering solutions has
improved between 2006 and 2008
5-B
lacklists oder schwarze Listen verzeichnen unerwünschte URLs oder Begriffe, während Whitelists
oder weiße Listen die erwünschten URLs oder Begriffe enthalten, die den Filter passieren dürfen.
6 - Quelle: http://www.lusi.lu/index.php?id=16&L=1
7 - Quelle: Deloitte: http://www.sip-bench.eu/Reports2007/SIP%20Bench%202007%20-%20Synthesis%20Report.pdf
© Deloitte 2008
17
•B
lockierung einer Anfrage an eine URL, die einen oder mehrere Schlüsselbegriffe enthält, die der Nutzer selbst auf eine schwarze Liste gesetzt hat
• Blockierung von Inhalten, die einen oder mehrere Schlüsselbegriffe enthalten, die der
Nutzer selbst auf eine schwarze Liste gesetzt hat
• Löschen von Teilen des Inhalts, die Schlüsselbegriffen ähneln, die der Erziehungs­
berechtigte auf die schwarze Liste gesetzt hat
• Blockierung einer Anfrage an eine URL mit ICRA-Kennzeichnung, die vom Nutzer selbst
auf die schwarze Liste gesetzt wurde (ICRA-Ferncheck)
• Blockierung einer Seite mit ICRA-Kennzeichnung, die vom Nutzer selbst auf die
schwarze Liste gesetzt wurde (lokaler ICRA-Check)
• Abschaltung spezieller Anwendungen (während bestimmter Zeiträume)
• Abschaltung spezieller Anwendungen außerhalb eines vom Nutzer spezifizierten Zeitraums
• Abschaltung bestimmter Ports.
Das Family Online Safety Institute (FOSI) ist
eine internationale Non-Profit-Organisation,
die daran arbeitet, die Onlinewelt für Kinder
und ihre Familien sicherer zu machen durch
die Förderung von Beispielen guter Praxis
sowie Instrumenten für die Internetsicher­
heit, die auch das Recht auf freie Meinungs­
äußerung respektieren. Einen besseren
Jugendmedienschutz voranzubringen ist ein
wesentliches Element unserer Strategie,
und durch Initiativen wie den Youth Protec­
tion Roundtable können wir die Positionen
unserer Mitglieder mit einer größeren
Gemeinschaft von Vertretern des Jugend­
medienschutzes teilen.
David Miles, European Director of the
Family Online Safety Institute
18
Für eine hohe Effektivität des Filterns werden meistens mehrere technische Lösungen kombiniert.
Der Einsatz von Filtersoftware kann Nebenwirkungen haben – sowohl im Hinblick auf freie Meinungsäußerung und unbeabsichtigte Zensur als
auch durch das Problem von fehlerhaften Positivmeldungen, d. h. der Filter schlägt an, ohne dass
es sich tatsächlich um zu filternde Inhalte handelt.
Darüber hinaus sind durch den Filterprozess negative Auswirkungen auf die Infrastruktur und die Qualität der Dienstleistungen möglich.
B 1.2 Effektivität der Filtersoftware
Filtersoftware wird als Mittel zur Lösung einer Reihe von Problemen angesehen. Im Hinblick auf die
verschiedenen in Abschnitt A aufgeführten Risiken
wird deutlich: Je konkreter eine Art von Inhalten
oder eine Art von Online-Verhalten definiert werden
kann, desto wahrscheinlicher ist deren Entdeckung
durch die eingesetzte Filtersoftware. Filtersoftware
ist demzufolge weniger effektiv für weniger konkret definierbare Inhalte und Online-Verhaltensweisen.
Filtersoftware blockiert nach Einschätzung der Experten des YPRT die Hälfte aller Webseiten mit nicht-altersgemäßen Inhalten und Gewaltdarstellungen. Bei illegalen Inhalten
erreicht Filtersoftware einen geringfügig höheren Effektivitätsgrad. Illegale Inhalte können
i. d. R. konkret definiert werden, deshalb können sie durch Filtersoftware leichter erkannt
werden als andere Arten von Inhalten und Online-Verhalten. Umgekehrt versagt Filtersoftware bei den schwerer zu definierenden fehlerhaften Inhalten; hier wird die Effektivität
durch den YPRT als gering eingeschätzt.
Verstärkt wird der Eindruck, dass Filtersoftware am ehesten bei konkret definierbaren
Inhalten und Verhaltensweisen wirksam wird, durch die Ergebnisse, die Filtersoftware
bei unangemessener Werbung für Kinder und bei Anstiftung zu schädigendem Verhalten
erzielt. Beide Arten von Inhalten können nach Expertenansicht in einem Drittel der Fälle
definiert und daher von der Filtersoftware als zu blockierende Inhalte entdeckt werden.
Schwieriger ist es, ungeeignete Ratschläge zu entdecken, die oft in direktem Kontakt
zwischen den Nutzern gegeben werden; daher wird geschätzt, dass nur einer von sieben
Fällen durch Filtersoftware identifiziert werden kann. Auch Grooming kann von Filtersoftware nicht in ausreichendem Maße erkannt werden; die Experten schätzen, dass dies nur
in einem von fünf Fällen möglich ist.
Dem Risiko der Preisgabe privater Informationen, das eher in den Kontaktbereichen des
Internet auftritt, kann nur in einem von zehn Fällen durch Filtersoftware begegnet werden,
so die Meinung der Experten.
Mit dem eigenen Verhalten der Nutzer verbundene Risiken wie Verletzung des Urheber­
rechts und Internetsucht sowie die mit dem Verhalten anderer Nutzer verbundenen
Risiken wie Identitätsdiebstahl und Bullying können durch Filtersoftware nur in geringem
Umfang aufgedeckt und verhindert werden. Auch bei der Verletzung der Menschenrechte
und Verleumdung, die beide aus dem eigenen und dem Verhalten anderer resultieren können, kann Filtersoftware nach Expertenschätzungen nur einen von zehn Fällen erkennen.
Weiterhin sind sie der Meinung, dass Filtersoftware nur einem Sechstel der Fälle von wirt­
schaftlichem Betrug und Phishing entgegenwirken kann; im Hinblick auf die Verhinderung
von Profilbildung ist die Effektivität von Filtersoftware noch geringer, für Datenportabilität
und Datenpersistenz wird Filtersoftware als nahezu ineffizient eingeschätzt.
19
B 2 Überwachungs- und Kontrollmechanismen
B 2.1Beschreibung von Überwachungs- und Kontrollmechanismen und
deren Arbeitsabläufen
Überwachungs‑ und Kontrollmechanismen basieren in der Regel auf einer Software, die
den Inhalt und das Nutzerverhalten im Internet kontrolliert und die Ergebnisse einer zuständigen Person mitteilt. Überwachungs- und Kontrollsysteme sind Instrumente für die
systematische Suche nach Online-Inhalten, die anschließend kategorisiert werden,8 z. B.
in harmlose Inhalte und bedenkliche Inhalte. Als Überwachungsmechanismus bezeichnet man die automatische Abfrage oder Überprüfung von Systemen und
Dienstleistungen in einer Online-Umgebung 9 durch
einen Filtermechanismus. Zur Verbesserung der Ergebnisse findet anschließend an den technischen Vorgang eine menschliche Prüfung statt, um zu entscheiden, welche Inhalte gefiltert oder entfernt werden
müssen. Diese Prüfung wird üblicherweise als Stichprobenerhebung der untersuchten Inhalte ausgeführt.
Überwachungs- und Kontrollsysteme ermöglichen u. a. die Prüfung von Chat-Sitzungen,
Blog-Eintragungen oder den Upload und Austausch von Bildern. Technisch können Überwachungs‑ und Kontrollmechanismen auf der Ebene des Internet Service Providers (ISP)
oder des Betreibers eines Online-Service installiert sein. Einige Überwachungsverfahren
überprüfen die Inhalte, bevor diese online gestellt werden. Andere Überwachungsverfahren basieren auf dem Notice-and-take-down-Verfahren, bei dem Online-Inhalte entfernt
werden, sobald sie entdeckt wurden.10 Im Hinblick auf Online-Kommunikation führt dieser
Ansatz zu einer Löschung oder Deaktivierung von Nutzerprofilen, sobald eine Verletzung
des Verhaltenskodex gemeldet oder entdeckt wird.
B 2.2 Effektivität von Überwachungs‑ und Kontrollmechanismen
Durch Überwachungs‑ und Kontrollmechanismen können Inhalte und die Kommunikation
im Internet in gewissem Umfang überprüft werden. Dies geschieht in verschiedenen Phasen der Inhaltespeicherung und des Hosting sowie während des Prozesses der Zugangsgewährung. Unter der Voraussetzung, dass sich die Entscheidung, ob Online-Inhalte entfernt werden und ob Onlinekommunikation gefiltert und gegebenenfalls unterbrochen wird,
auf die zusätzliche Prüfung durch einen Menschen stützt, wird die Effektivität von Überwachungs‑ und Kontrollmechanismen höher eingeschätzt als die von Filtersoftware allein.
20
8 - Quelle: Wikipedia Wikipedia http://de.wikipedia.org/wiki/Webmonitoring
9 - Quelle: SiteScope193.138.212.37/SiteScope/docs/SiteScopeTerms.htm
10 - Der PEGI Online Safety Code schreibt z. B. vor, dass ein effektives Alarmsystem
vorhanden sein muss, um berechtigt zu sein, das PEGI Online Label zu tragen.
©T
echnogroup
IT-Service
GmbH
Überwachungs‑ und Kontrollmechanismen können nach Einschätzung der Experten die
Hälfte aller Fälle von nicht-altersgemäßen Inhalten aufdecken. Die Effektivität bei Gewalt­
darstellungen und illegalen Inhalten sowie im Hinblick auf die Anstiftung zur Selbstschädi­
gung wird mit 40 % aller Fälle nur wenig geringer beurteilt.
Es wird geschätzt, dass durch Überwachungs‑ und Kontrollmechanismen mindestens jeder
dritte Fall von ungeeigneten Ratschlägen, Verletzungen der Menschenrechte und Verleum­
dung sowie Grooming und unangemessener Werbung für Kinder aufgedeckt werden kann.
Mehr als jeder vierte Fall von Phishing und mehr als jeder dritte Fall von Bullying kann
nach Beurteilung der Experten durch Überwachungs‑ und Kontrollmechanismen entdeckt
werden. Bei fehlerhaften Inhalten, Verletzungen des Urheberrechts, wirtschaftlichem
Betrug, Identitätsdiebstahl und Preisgabe privater Informationen liegt die Effektivität bei
ca. jedem fünften Fall. Die Möglichkeit, Internetsucht durch Überwachung aufzudecken,
ist nach Ansicht der Experten mit einem von sechs Fällen eher gering.
Überwachungs‑ und Kontrollmechanismen schneiden bei Datenpersistenz, Datenportabili­
tät und Profilbildung etwas besser ab als Filtersoftware, dennoch liegt die Effektivität hier
nur bei weniger als einem von zehn Fällen.
B 3 Altersverifikation
B 3.1Beschreibung von Altersverifikationssystemen und
deren Arbeitsabläufen
Es gibt verschiedene Systeme, um das Alter der Nutzer von Onlinediensten zu verifizieren
und sicherzustellen, dass bestimmten Altersgruppen nur für diese geeignete Inhalte und
Dienstleistungen bereitgestellt werden. Ein Altersnachweis kann durch eine einmalige persönliche Autorisierung außerhalb des Internet stattfinden.
Abfrage der Altersgrenze ohne
Übermittlung des Geburtsdatums
Das heißt, nach einer persönlichen Identifizierung und dem
Abfrage-Altersgrenze (z.B. 12+ / 14+)
Nachweis seines Alters durch ein geeignetes Dokument
bekommt der Nutzer seine Zugangsdaten, z. B. Passwort
Ohne PIN-Abfrage?
oder PIN. Diese umfassen üblicherweise auch ZahlungsMit PIN-Abfrage?
funktionen – so soll sichergestellt werden, dass der Besitzer selbst seine Zugangsdaten sicher verwahrt, um GeldPIN durch Erwach­
PIN durch Minderjähriverluste zu vermeiden. Fortschrittliche Identifizierungs- und
senen einzugeben?
gen einzugeben?
Altersnachweissysteme basieren auf dem Konzept der
21
Zusammengehörigkeit von Token (Karte oder Stick) und Wissen (PIN oder Passwort).
Nur die Person, die über beides verfügt, kann darlegen, dass sie der legitime Besitzer der
Identität ist und damit beweisen, dass sie zu einer bestimmten Altersgruppe gehört.
Diese Art der technischen Altersverifikation bietet einen hohen Grad an Effektivität, erfordert allerdings spezielle technische Geräte (z. B. einen Kartenleser) und entsprechende
rechtliche Regelungen.
Zurzeit gibt es in vielen europäischen Ländern Gesetze, die einen Altersnachweis für Erwachsene vorsehen, um ihnen den Zugriff auf Inhalte, die nur für Erwachsene geeignet
sind, zu ermöglichen und den Zugang von Minderjährigen zu diesen Inhalten zu verhindern. Allerdings sind nur wenige Konzepte der Altersverifikation für Minderjährige verfügbar, die dazu dienen, nachzuweisen, dass die Nutzer unterhalb einer festgelegten Altersgrenze liegen. Durch derartige Konzepte kann sichergestellt werden, dass nur Kinder und
Jugendliche Zugang zu speziellen Internetbereichen wie z. B. Chatrooms für Kinder bekommen; die Kids Card in Belgien ist ein Beispiel.
Das von den in Kapitel A beschriebenen Risiken ausgehende Gefährdungspotential hängt
vielfach entscheidend vom Alter der Nutzer ab. Daher spielt die Altersverifikation eine
wichtige Rolle im Hinblick auf die Zugangsbeschränkung für Minderjährige zu bestimmten
Inhalten oder Plattformen mit Kontaktmöglichkeiten.
B 3.2 Effektivität der Altersverifikation
Wie beschrieben, ist die Altersverifikation ein Instrument, um den Zugang zu bestimmten
Inhalten oder Bereichen des Internet zu beschränken. Daher überrascht es nicht, dass
Altersverifikation bei nicht-altersgemäßen Inhalten (fast die Hälfte der Fälle) und Gewalt­
darstellungen effektiver ist als bei anderen Risiken. Bei illegalen Inhalten und für Kinder
ungeeigneter Werbung wird von den Experten angenommen, dass jeder vierte bis fünfte
Fall durch Altersverifikation verhindert werden kann.
Altersverifikation kann nach Experteneinschätzung einen von sieben Fällen von Grooming
aufdecken, hat also in Bezug auf dieses Risiko eine geringe Effektivität.
Auch die Anstiftung zu selbstschädigendem Verhalten kann mit dieser Technik nicht wirksam bekämpft werden. Wenig effektiv ist sie ebenfalls bei ungeeigneten Ratschlägen,
Phishing und wirtschaftlichem Betrug; bei anderen Risiken ist Altersverifikation nahezu ineffektiv.
22
B 4 Andere technische Instrumente
B 4.1Beschreibung anderer Instrumente, der zugrundeliegenden
Verfahren und deren Effektivität
Wie Altersverifikation gibt es weitere Instrumente, die ganz bestimmte Risikobereiche
adressieren.
Durch Zeitkontrollmechanismen kann die Nutzung eines Computers auf eine bestimmte
Zeitspanne beschränkt werden, nach deren Ablauf der Computer abgeschaltet wird. Zeit­
kontrollmechanismen können zur Bekämpfung von Internetsucht hilfreich sein, auch wenn
sie nicht explizit für diesen Zweck entwickelt wurden. Nach Expertenansicht könnten sie
jedem zweiten Fall von Internetsucht entgegenwirken.
Automatische Authentifizierungsprozesse basieren normalerweise auf personenbezogenen
Authentifizierungsfaktoren, d. h. etwas, das die Person besitzt (wie einen Personalausweis), etwas, das eine Person weiß (wie eine PIN oder ein Passwort) oder etwas, das
eine Person ist oder tut (wie ein Fingerabdruck). Authentifizierungsprozesse, die hohen
Sicherheitsanforderungen entsprechen müssen, basieren oft auf asymmetrischer Kryptographie wie die digitale Signatur. Nach Meinung der Experten können automatische
Authentifizierungsprozesse mehr als ein Drittel der Fälle von Identitätsdiebstahl verhindern.
Anti-Phishing-Software ist eine spezielle Art der Filtersoftware, um Phishing aufzudecken
und zu verhindern. Die Effektivität wird unterschiedlich beurteilt: Einige der Experten am
YPRT halten sie für hoch mit zwei Drittel aller Fälle, während andere nur ein Viertel annehmen.
Digitale Wasserzeichen11 können eine Lösung sein, um Verletzungen des
Urheberrechts zu verhindern. Per Wasserzeichentechnik kann ein bestimmter Code in digitale Inhalte eingefügt werden. Um aufzudecken, wo sich die
Inhalte befinden, dupliziert oder verteilt werden, wird zusätzlich ein Überwachungstool benötigt, das das Wasserzeichen erkennt. Man nimmt an,
dass eine von vier Verletzungen des Urheberrechts durch Wasserzeichentechnik verhindert werden kann.
Datenpersistenz und Datenportabilität müssen nicht a priori als Risiko betrachtet werden.
Beide sind nützlich, wenn sichergestellt werden soll, dass Daten unverändert bleiben
und dass sie in ein anderes System übertragen werden können. Trotzdem können Daten11 - Source: http://www.copyrightinfo.eu/
23
persistenz und Datenportabilität den Nutzern Probleme bereiten. Nicht jeder möchte,
dass alle persönlichen Daten für immer wiederauffindbar gespeichert werden. Wie oben
beschrieben, versagen fast alle bekannten technischen Instrumente im Hinblick auf –
unerwünschte – Datenpersistenz und Datenportabilität.
Kodierung ist der Prozess der Transformation von Informationen von einem Format in ein
anderes und kann ein Instrument sein, um die unerwünschte Portierung von Daten zu verhindern. Bevor die kodierten Daten in ein anderes System portiert und z. B. mit anderen
Daten zusammengeführt werden können, müssen sie dekodiert werden. Kodierung kann
nach Expertenmeinung in etwa der Hälfte der Fälle die unerwünschte Portierung von Daten verhindern.
Die generelle Festlegung eines Ablaufdatums bei allen nutzergenerierten Inhalten kann
nach Experteneinschätzung in einem Viertel aller Fälle das Risiko der Datenpersistenz reduzieren. Auch eine nicht zu entfernende Kennzeichnung der Inhalte mit einem Ablaufdatum kann unerwünschte Datenpersistenz vermeiden helfen. Eine permanent angebotene
Option, persönliche Daten zu löschen, kann den Experten zufolge in einem von fünf Fällen
das Risiko der unerwünschten Vervielfältigung von Daten minimieren.
Eine so genannte Anti-Grooming-Maschine12 ist ein Tool, in dem mehrere Methoden kombiniert sind, um ungewöhnliches Verhalten aufzuspüren und damit Grooming-Angriffe auf
Kinder in Chatrooms zu verhindern. Die Maschine arbeitet mit einer Datenbank, die Profile
des bei Pädophilen üblichen Verhaltens und des Verhaltens von Kindern enthält. Diese
Profile basieren auf einer Analyse der Kommunikation im Hinblick auf Vokabular, Zeichensetzung, Satzlänge, Tippgeschwindigkeit und Aggressionsniveau. Die Profile werden regelmäßig auf den neuesten Stand gebracht; damit soll die Maschine imstande sein, zwischen
geeigneten und unpassenden Kontakten zu
unterscheiden. Im Falle von Hinweisen auf
eine verdächtige Beziehung wird per SMS,
E-Mail oder durch ein aktivierbares Kontrollfeld auf dem PC ein Alarm an den verantwortlichen Erwachsenen geschickt. Dieses
Tool wird in zwei Fünftel aller Fälle für effektiv gehalten, d. h. es wird bei Grooming
für ebenso effektiv wie Überwachungsund Kontrollmechanismen erachtet.
© crisp Thinking Group Ltd.
12 - Quelle: http://www.crispthinking.com
24
C · Verbesserung des Jugendschutzes im Internet
Die Vorschläge des YPRT zur Verbesserung des Jugendschutzes im Internet betreffen
folgende Aspekte:
• Maßnahmen zur effizienten Anwendung unterstützender Technologien
•p
ädagogische Maßnahmen, kombiniert mit unterstützenden Technologien abgestimmt
auf die unterschiedlichen Altersgruppen
• allgemeine Rahmenbedingungen des Jugendschutzes
Das vom YPRT entwickelte Toolkit unterstützt die Akteure, die durch die Bereitstellung
von Dienstleistungen und Inhalten im Internet, die Entwicklung von Internet-Hardware
und -Software, die Beratung von Eltern, die Erziehung von Kindern und Jugendlichen, die
Ausbildung von Multiplikatoren und durch politische Entscheidungen einen Beitrag zum
Jugendmedienschutz leisten können.
Die vorgeschlagenen Maßnahmen sind verschiedenen Kategorien zugeordnet, von denen
jede unterschiedliche Akteure anspricht.
25
C 1 Verbesserung unterstützender Technologien
und Infrastrukturen
Unterstützende Technologien und Infrastrukturen wie z. B. Filtersoftware, Überwa-
chungs- und Kontrollmechanismen sowie Identifizierungs- und Verifizierungssysteme
entfalten nicht immer ihr volles Potential für den Jugendschutz. Es ist daher erforderlich, sie sowohl technisch zu verbessern als auch die Zusammenarbeit zwischen den
verschiedenen beteiligten Akteuren wie Service‑Provider, Hardware-Hersteller und
Software-Entwickler, Forschungsgruppen und Regulierungsstellen zu intensivieren. Der
YPRT tritt dafür ein, dass das Potential unterstützender Technologien und Infrastruk-
turen stärker genutzt wird, indem einzelne Lösungen technisch verbessert werden und
das Zusammenwirken der verschiedenen unterstützenden Technologien optimiert wird.
Der YPRT tritt weiter dafür ein, dass Verfahren für die Zusammenarbeit und die ge-
meinsame Nutzung von Ressourcen durch die beteiligten Akteure etabliert werden. Der
YPRT fordert diese Akteure dazu auf, folgende Verbesserungen in Erwägung zu ziehen:
C 1.1 Regelmäßige Aktualisierung der sogenannten Black- und Whitelists
C 1.2 Implementierung bereits vorhandener Listen von illegalen und ungeeigneten Inhalten, die von den nationalen Behörden genehmigt und in den jeweiligen Ländern
bereits implementiert wurden, z. B. das so genannte BPJM-Modul in Deutschland.
(Um Missbrauch zu vermeiden, dürfen diese Listen der Öffentlichkeit jedoch nicht
zugänglich sein.)
C 1.3 Förderung der Interoperabilität von Klassifizierungssystemen
C 1.4 Förderung der nutzerbasierten Klassifizierung von Inhalten, gespeichert in einer
Datenbank, die allen Akteuren zur Verwendung – in guter Absicht – zugänglich ist
C 1.5 Ordnungsgemäße Protokollierung aller Filteraktivitäten in Logfiles
C 1.6 Verbesserung der Nutzbarkeit von Logfiles (softwaregestützte Logfile-Analyse)
C 1.7 Förderung und Verbesserung von Lernsoftware und Nutzung künstlicher Intelligenz zur Verbesserung von Filterprozessen
C 1.8 Verbesserung der Robustheit von Filtersoftware im Hinblick auf die verwendeten
Browser
C 1.9 Sicherstellung des einwandfreien Funktionierens von unterstützenden Technolo­
gien unabhängig von dem Gerät, mit dem auf das Internet zugegriffen wird (PC,
Handy, Spielkonsole usw.)
26
C 2 Verbesserung der Nutzbarkeit von Filtersoftware
Die Effektivität von Filtersoftware hängt stark davon ab, dass die Nutzer in der
Lage sind, die Software zu installieren, zu konfigurieren und an ihren Bedarf und ihre
Lebens­umstände anzupassen. Der YPRT empfiehlt, die Nutzbarkeit von Filtersoftware
durch die Überprüfung der technischen Voraussetzungen und der Nutzungsbedingungen
zu verbessern und dabei insbesondere die Verständlichkeit sowie die Transparenz des
Filterprozesses und der Filterentscheidung zu berücksichtigen.
C 2.1 V
orinstallation von Filtersoftware auf der Hardware, die für den Zugang zum Internet benutzt wird (PC, Spielkonsole oder Mobilgerät) oder die mit der Dienstleistung zusammen angeboten wird (vorzugsweise standardmäßig aktiviert, d. h. mit
der Option sie zu deaktivieren anstatt aktivieren zu müssen)
C 2.2 Vermeidung von Konflikten mit anderer Software (z. B. Anti-Virus-Software)
C 2.3 Verhinderung des Umgehens der Filtersoftware am Gerät des Endnutzers (z. B.
keine Umgehung der Filter durch falsche Orthographie, Nutzung anderer Sprachen
oder alternativer Infrastrukturen und Netze)
C 2.4 Anpassung der Installations- und Aktualisierungsverfahren an die Erwartungen von Eltern
C 2.5 Bereitstellung eines verständlichen Nutzerdialogs und einer Anleitung, die auf das Alter des
Nutzers abgestimmt sind
C 2.6 Vollständige Transparenz und Verständlichkeit
der Filterentscheidung für den Nutzer, angepasst
an dessen Alter
Im Zeitalter des Web 2.0 wächst die Ver­
antwortung der Betreiber, ihre Dienste
möglichst sicher zu gestalten und Risiken
für Kinder und Jugendliche zu reduzieren.
Gleichzeitig wird es immer wichtiger,
Eltern, Pädagoginnen und Pädagogen
Wissen und Werkzeuge an die Hand zu ge­
ben, mit denen sie Kinder und Jugendliche
vor gefährlichen Inhalten und riskanten
Kontakten schützen können. Technische
Schutzmaßnahmen und Jugendschutzsoft­
ware müssen verbessert werden, damit
sie Eltern bei der Medienerziehung wirk­
sam helfen und entlasten können.
Mark Bootz, jugendschutz.net
27
C 2.7 Bereitstellung von Informationen zum Filterprozess, im Einzelnen
C 2.7.1 dass Filterverfahren implementiert sind
C 2.7.2 auf welcher Basis die Filtersoftware arbeitet (z. B. Black- oder Whitelists
mit URLs oder Wörtern)
C 2.7.3 über die Filterkriterien generell
C 2.7.4 warum ein bestimmter Inhalt gefiltert wurde
C 2.7.5 über die geschätzte Effektivität der Filtersoftware im Hinblick auf die verschiedenen Arten von Inhalt und Kommunikation
C 2.7.6 wie die Blockierung von Inhalten und das Filtern außer Kraft gesetzt werden können
C 2.7.7 wohin Beschwerden wegen ungerechtfertigter Blockierung von Inhalten
gerichtet werden können
C 2.8 Bereitstellung von einfach zu handhabenden Anpassungsmechanismen für die
Filtersoftware und Informationen für den Nutzer, wie der Filter an eigene Bedürfnisse oder die der Kinder angepasst werden kann
C 2.9 Bereitstellung der Option, Filtermethoden zu importieren oder zu exportieren, um
die gemeinsame Verwendung der Methoden für Lehrer und Eltern zu vereinfachen
C 2.10 B
erücksichtigung der Erfordernisse für Konsistenz, Transparenz und Verständlichkeit der Filterverfahren, insbesondere Vermeidung von Inkonsistenz bei Filter­
ergebnissen
Beinahe 30 % der Meldungen auf unserer Internetsicherheits-Helpline betreffen Fälle von Cyber­
bullying. In den vergangenen zwei Jahren haben wir uns in Polen darauf konzentriert, den verantwor­
tungsbewussten Umgang mit neuen Technologien bei den Jugendlichen zu fördern. Eltern sprechen
nur selten mit ihren Kindern über deren Internet- und Handynutzung, und sie sind sich kaum darüber
im Klaren, dass ihre Kinder ebenso gut Täter wie Opfer von Cyberbullying sein können. Durch
landesweite Trainingskampagnen versuchen wir, das Bewusstsein dafür zu wecken, dass Familie
und Schule eine wichtige Rolle bei der Vorbeugung und im Umgang mit Cyberbullying zukommt.
´ Nobody’s Children Foundation
Agnieszka Wrzesien,
28
C 3 Verbesserung von Internetanwendungen –
technische Grundlagen und Implementierung von
Zusatzmodulen (sog. Widgets), die den Nutzer
dabei unterstützen, sich selbst zu schützen
Medienkompetenz ist der Schlüssel für eine sichere Nutzung des Internet. Pädago-
gische Maßnahmen können jedoch von verschiedenen Technologien begleitet und unterstützt werden. Dadurch kann beispielsweise sichergestellt
werden, dass die Nutzer einen vorhandenen Verhaltenskodex
akzeptieren und unangemessenes sowie die Sicherheit ge-
fährdendes Verhalten vermeiden. Unter Berücksichtigung der
technischen Machbarkeit empfiehlt der YPRT, die Sicherheit
von Internetanwendungen durch die Implementierung von
unterstützenden Zusatzmodulen zu verbessern und so den
Selbstschutz der Nutzer zu befördern.
C 3.1Status ‚privat‘ als Standardeinstellung von Profilen (mit
der Option zum Deaktivieren anstatt zum Aktivieren)
C 3.2Unterstützung der Nutzer beim Passwort-Management
(d. h. Sicherheitsfrage, Erinnerung, Passwortmanager)
C 3.3Möglichkeit, so genannte Tags13 von eigenen Inhalten zu
entfernen und ebenso von Inhalten, die von anderen erstellt wurden
C 3.4Implementierung eines Meldebuttons auf Webseiten mit nutzergenerierten Inhalten,
bei denen Konflikte entstehen und schädliche Inhalte auftreten können; die Meldungen sollten vorzugsweise an bereits existierende Hotlines und Helplines erfolgen
C 3.5Pop-Up- oder Mouse-Over-Effekte14 mit Warnhinweisen vor der
Preisgabe von privaten Informationen
C 3.6Pop-Up- oder Mouse-Over-Effekte mit Warnhinweisen gegen
die Verletzung von Menschenrechten oder die Verleumdung,
z. B. beim Upload von Bildern
„Bist Du sicher, dass dieses
Bild für jeden sichtbar im
Internet erscheinen soll?“
C 3.7Automatische Löschung von Inhalten nach dem vom Nutzer angegebenen Ablaufdatum
13 - Tags erlauben die Kennzeichnung von Inhalten mit einer inhaltlichen Zuordnung zu anderen im Netz verfügbaren Inhalten
14 - Mouse-Over-Effekte bewirken, dass ein Textfenster angezeigt wird, wenn der Mauszeiger bestimmte Inhalte der Webseite berührt
29
C 3.8Bereitstellung einer Löschfunktion auf allen Webseiten mit nutzergenerierten privaten Daten, durch die der Nutzer von ihm selbst erstellte Inhalte löschen kann
(wohlwissend, dass eine vollständige Löschung veröffentlichter Inhalte aufgrund
der Möglichkeiten digitaler Vervielfältigung nicht grundsätzlich möglich ist)
C 3.9Dauerhafte und nicht entfernbare Auszeichnung von nutzergenerierten Inhalten
durch ein Ablaufdatum, das dazu führt, dass der Inhalt automatisch gelöscht wird,
selbst dann, wenn er dupliziert oder verschoben wurde
C 3.10Bereitstellung von technischer Unterstützung zur Verhinderung des unerwünschten Duplizierens von online veröffentlichten Texten und Bildern
C 3.11Hinweis des Nutzers auf die technische Möglichkeit, vor dem Upload von Bildern
deren GPS-Daten (so genannte exif-files) zu entfernen, um die ungewollte Preisgabe von zur Lokalisierung geeigneten Daten zu vermeiden
C 3.12Sicherstellung, dass passive Lokalisierungsdienste mit GPS-Daten durch Dritte nur
mit Genehmigung des Dateninhabers möglich sind
C 3.13Deutliche Hinweise für die Nutzer über den Status von Kommunikationsbereichen
(privat oder öffentlich)
C 3.14Bereitstellung von Wortfiltern für die direkte Kommunikation zwischen den Nutzern (Foren, eCards) in Bereichen, die sich explizit an Kinder als Nutzer richten
C 3.15Bereitstellung einer technischen Option für Eltern, das Nutzungsverhalten ihrer
Kinder in Bezug auf Zeit, Inhalte und Kommunikation – unter Berücksichtigung der
Privatsphäre der Kinder – zu kontrollieren
C 3.16Bereitstellung einer Möglichkeit zur Verschlüsselung persönlicher Daten innerhalb
einer Anwendung
C 3.17Dauerhafte Kennzeichnung für Daten von Nutzern, die bereits generell gegen die
Speicherung und Nutzung ihrer Daten Widerspruch eingelegt haben, um sicherzustellen, dass auf diese Daten nicht von einer anderen Quelle aus zugegriffen wird
und sie erneut gespeichert werden
C 3.18Textbeschreibungen von Werbebannern, damit diese für die Wortlisten von Filtern
erkennbar sind
C 3.19Einbeziehung der Nutzer-Community in den Prozess der Entwicklung und Implementierung von Sicherheitstools und -maßnahmen
30
C 4 Vereinbarung von Richtlinien durch die Anbieter und
Betreiber von Internetdiensten und ‑anwendungen
Der YPRT empfiehlt Inhalteanbietern und Betreibern, interne Richtlinien zu vereinbaren,
die eine sichere Nutzung ihrer Angebote durch Kinder und Jugendliche gewährleisten.
Diese Richtlinien sollten angepasst an ihre Dienstleistungen entwickelt und gemäß den
finanziellen, technischen und organisatorischen Möglichkeiten implementiert werden.
C 4.1 Richtlinien im Hinblick auf die Nachverfolgung von Nutzermeldungen, einschließlich der Festlegung von Fristen, innerhalb derer
eine Reaktion oder Löschung – soweit erforderlich – erfolgen soll
© Pixelio
C 4.2 Richtlinien im Hinblick auf die Nachverfolgung der Bearbeitung
von Nutzerbeschwerden
C 4.3 Richtlinien im Hinblick auf den Einsatz von Moderatoren in allen
Bereichen einer Plattform, die die direkte Kommunikation mit anderen Nutzern ermöglichen
C 4.4 Richtlinien im Hinblick auf den Umgang mit Hilfe‑ und Unterstützungsseiten für die Nutzer, z. B. sollten bei der Suche nach kritischen Begriffen wie Magersucht Hilfeseiten an erster Stelle der
Suchergebnisse rangieren
C 4.5 Richtlinien zur Kooperation mit
Wohlfahrts- und Hilfsorganisationen
C 4.6 Richtlinien zur Kooperation zwischen
Hotlines, Polizei und Anbietern
C 4.7 Richtlinien im Hinblick auf die Speicherung, Vervielfältigung und Verbreitung von Nutzerdaten
C 4.8 Richtlinien im Bezug auf den Einsatz
und die Verwendung von Werbung
C 4.9 Vereinbarungen über die Durchführung von unabhängigen oder internen Kontrollen über die Einhaltung
der zuvor genannten Richtlinien
Adiconsum engagiert sich im Jugendmedienschutz
durch die Unterstützung und den Schutz der Rechte
von jugendlichen Nutzern des Internet. Wir führen
Aufklärungskampagnen für einen verantwortungs­
bewussten Umgang mit dem Medium und anderen
neuen Technologien für Jugendliche, Eltern und
Lehrer durch und geben Broschüren und Materialien
zur Onlinesicherheit heraus. Institutionen und Unter­
nehmen, die direkten Einfluss auf die angemessene
Mediennutzung von Jugendlichen nehmen können,
erinnern wir im permanenten Dialog daran, dass sie
ihre Verantwortung wahrnehmen und einen Beitrag
zu mehr Internetsicherheit leisten.
Paola Pendenza, Adiconsum
31
C 5 Medienkompetenz
Der YPRT fordert die Verbesserung der Medienkompetenz von Kindern und Jugend-
lichen sowie von Eltern und anderen Erziehungsverantwortlichen. Medienkompetenz
umfasst die Kenntnis von digitalen Medien und unterstützenden Technologien für den
Jugendschutz sowie die Fähigkeit, diese nutzbringend einzusetzen. Die Förderung der
Medienkompetenz ist der beste Schutzschild für Kinder und Jugendliche im Informa-
tionszeitalter. Der YPRT empfiehlt, pädagogische Maßnahmen
zur Verbesserung der Medienkompetenz im Hinblick auf alle
Um Kinder vor problematischen In­
halten und Angeboten im Internet
effektiv schützen zu können, ist es
neben technischen Maßnahmen
des Jugendschutzes aus Sicht des
Internet-ABC vor allem wichtig,
Kinder in ihrer Online-Kompetenz
zu stärken. Nur wenn Kinder zum
Beispiel wissen, wie sie sich sicher
im Chat verhalten, sie ihre Daten
schützen und Angebote kennen,
die für sie spannend und gleichzei­
tig kindgerecht sind, können sie die
Potentiale, die das Internet bietet,
ausschöpfen. Das Internet-ABC will
mit seinen Angeboten Kinder und
ihre Eltern und Pädagogen stärken,
sich das Netz kompetent zu
erobern und Risiken zu vermeiden.
Mechthild Appelhoff, Internet-ABC
technischen Geräte für den Internetzugang und alle unterstützenden Technologien zu fördern.
C 5.1
Verbesserung der Medienkompetenz im Hinblick auf alle
technischen Geräte für den Internetzugang (mit besonderem Augenmerk auf sich neu entwickelnde Bereiche
wie zurzeit der mobile Zugang)
C 5.2 V
erbesserung der Medienkompetenz durch unterstützende Technologien und die Nutzung unterstützender
Zusatzmodule, so genannter Widgets
C 5.3 V
erbesserung der Medienkompetenz im Hinblick auf die
Meldung von illegalen, schädlichen oder unerwünschten
Inhalten und Belästigungen an Hotlines und Helplines
C 5.4 V
erbesserung der Medienkompetenz im Hinblick auf die
kritische Reflektion von Inhalten
C 5.5
erbesserung der Medienkompetenz im Hinblick auf den
V
Schutz der Privatsphäre und der persönlichen Daten
C 5.6 E
inrichtung einer ‚Online-Schule für ein sicheres Internet‘ (Webseite und Online-Lerntools) in enger Zusammenarbeit mit bereits vorhandenen Online-Angeboten
C 5.7 Ausbildung junger Internetexperten in Schulen und Einrichtungen der sozialen Jugendarbeit
C 5.8 Sicherheit im Internet als Unterrichtsfach in der Schule / fächerübergreifende Einbindung des Themas Internetsicherheit in den Unterricht
32
C 5.9 Einrichtung von Mediationsprozessen für Bullying Opfer und Täter
C 5.10 Bildungsangebote für eine digitale Bürgergesellschaft, d. h. Befähigung zur autonomen und verantwortungsbewussten Nutzung der Technologie
C 5.11 Internetsicherheit als Gegenstand der Ausbildung von Lehrern und Jugendsozialarbeitern
C 5.12 Ausbildungs‑ und Trainingsangebote für Mediatoren und Moderatoren
C 5.13 Ausbildungs‑ und Trainingsangebote für Menschen, die in leitender Funktion an
Schulen oder in anderen Bereichen mit Kindern und Jugendlichen arbeiten
C 5.14 W
eiterbildung für Schulleiter zum Aufbau eines Sicherheitskonzepts an ihren Schulen und zur Implementierung der Voraussetzungen für Sicherheit, Wahrung der Privatsphäre, Datenschutz und Medienkompetenz in allen Arbeitsprozessen
C 5.15 Entwicklung und Implementierung von Hausregeln hinsichtlich der Nutzung von digitalen Medien in pädagogischen In­
stitutionen und öffentlichen Internetzugangsorten unter Einbeziehung von Jugendlichen in den Prozess der Entwicklung
C 5.16 Bereitstellung von geeignetem Material für die Verbesserung der Medienkompetenz in enger Zusammenarbeit mit
bereits vorhandenen Angeboten
C 5.17 Motivierung von Kindern und Jugendlichen, sich bei Themen der Sicherheit im
Internet zu engagieren, z. B durch die Beteiligung an Wettbewerben und an der
Entwicklung von Materialien
Aufklärungsarbeit zum Thema Internetsicherheit ist von großer Bedeutung für die Mannerheim
League for Child Welfare. Um die digitale Spaltung zwischen den Generationen zu überwin­
den, verfolgen wir den Ansatz eines generationenübergreifenden Dialogs. Ein wesentliches
Merkmal unserer Strategie ist es, Erwachsene mit den neuen Möglichkeiten der Online- und
Mobilkommunikation vertraut zu machen und das Verständnis für die damit potentiell verbun­
denen Risiken und negativen Auswirkungen zu fördern. Wir setzen dabei auf junge Menschen
als Trainer für Eltern und Lehrer und den Austausch von Wissen und Erfahrungen.
Sanna Harakkamäki , The Mannerheim League for Child Welfare
33
C 6 Aufklärung und Bewusstseinsbildung
Für die Kompetenzverbesserung von Bürgern im Informationszeitalter sind Aufklä-
rung und Bewusstseinsbildung von entscheidender Bedeutung. Die Sensibilisierung für
die Risiken und Bedrohungen, aber auch für die Möglichkeiten, die das Internet bietet,
muss für alle selbstverständlich sein. Die YPRT-Mitgliedsorganisationen betonen ganz
besonders die positiven Wirkungen der Internetnutzung für die Entwicklung junger
Menschen und verpflichten sich, in allen gesellschaftlichen Gruppen unabhängig von
Alter, Geschlecht und ethnischer Zugehörigkeit die Aufklärung und Bewusstseinsbildung
zu fördern.
C 6.1 Besondere Betonung der positiven Wirkungen der Internetnutzung auf die
Entwicklung junger Menschen
C 6.2 Durchführung von Aufklärungs‑ und Informationstagen wie dem Safer Internet Day
unter Einbeziehung von Jugendlichen
C 6.3 Bereitstellung von Aufklärungsmaterialien, gedruckt und online für
• Kinder und Jugendliche
• Erziehungsverantwortliche
• Personen mit Migrationshintergrund
• Internet Service Provider
• Inhalteanbieter
• Anbieter von Gemeinschaftsplattformen
C 6.4 Durchführung von Kampagnen zur Aufklärung und Bewusstseinsbildung unter Einbeziehung junger Leute
C 6.5 Bekanntmachung der Angebote von Hotlines und Helplines
C 6.6 Aufklärung und Bewusstseinsbildung im Hinblick auf die Bildung der digitalen Bürgergesellschaft
34
C 7 Forschung
Forschung ist die Grundlage für die Entwicklung technischer Instrumente
und pädagogischer Strategien. Daher tritt der YPRT dafür ein, die aktuelle
Forschung für alle Aktivitäten im Hinblick auf die Internetsicherheit zu
unterstützen, zu fördern und zu berücksichtigen.
C 7.1 U
nterstützung quantitativer und qualitativer Studien über das
Online-Verhalten von Kindern und Jugendlichen
C 7.2 Förderung der vorhandenen Forschung
und Unterstützung des europaweiten
Austauschs von Wissenschaftlern im
Bereich der Medienaneignung durch
Kinder und Jugendliche
C 7.3 U
nterstützung von Studien zur Medien­
anpassung von Kindern und Jugendlichen
C 7.4 Formative Evaluation der Nutzung
digitaler Medien
C 8 Rechtliche Regelungen
Jugendmedienschutz wird durch die Konvergenz
der Medien auch in Zukunft weiter an Bedeutung
gewinnen. Wir glauben, dass Selbstkontrolle der
Unternehmen dabei ein ganz wesentlicher Bau­
stein ist. So hat die FSM mit ihren Mitgliedern in
den vergangen Jahren zahlreiche branchenspezifi­
sche Verhaltenskodizes entwickelt, um den jeweili­
gen Anforderungen an den Jugendmedienschutz
gemeinsam gerecht werden zu können.
Sabine Frank, Geschäftsführerin der Freiwilligen Selbstkontrolle
Multimedia – FSM
Auf der Grundlage bereits vorhandener Gesetze und unter Berücksichtigung der Unterschiede nationalen Rechts und des kulturellen Hintergrunds empfiehlt der YPRT, vor-
handene Gesetze und Regelungen im Hinblick auf die Definition von illegalen Inhalten
und für Kinder schädlichen Inhalten, Datenschutz bzw. Regelungen des Rechts auf Löschung nutzergenerierter Inhalte und Profile zu harmonisieren und konkretisieren.
C 8.1 Regelung des Rechts auf die Löschung von nutzergenerierten Inhalten und Profilen
C 8.2 Regelung des Rechts auf Schutz der Privatsphäre
C 8.3 Regelung der Verfolgung von Online-Straftätern
C 8.4 Harmonisierung der juristischen Definition
von illegalen Inhalten
35
D · Ressourcen
Code for the ChatCheck Badge by the Association of
Danish Internet Media (2007)
Comparing Children’s Online Activities and Risks
across Europe. A Preliminary Report Comparing
Findings for Poland, Portugal and UK, June 2007
Crisp Thinking Group Ltd. (2005). Anti-Grooming
Engine™. Retrieved January 21, 2009 from http://
www.crispthinking.com/anti-grooming-engine.htm
Internet Filters, a Public Policy Report by the Brennan
Center for Justice, 2006
ENISA - Children on virtual worlds – What parents
should know, September 2008
JFF – Institut für Medienpädagogik in Forschung und
Praxis. Untersuchung der Akzeptanz des Jugendmedienschutzes aus der Perspektive von Eltern, Jugend­
lichen und pädagogischen Fachkräften. Eigenständige
Teilstudie des JFF zur Analyse des Jugendmedien­
schutzsystems, München, August 2007
ENISA - Photo Sharing, Wikis, Social Networks –Web
2.0 and Malware 2.0, EU Agency issues Position Paper on security for the next generation web, December 2008
Luxembourg Safer Internet Helpline Project 2006,
para.1, Definition von Filtersoftware [Electronic version]. Retrieved January 21, 2009 from http://www.
lusi.lu/index.php?id=16&L=1
ENISA Position Paper No.1: Security Issues and Recommendations for Online Social Networks, October
2007
Media Literacy – An Alternative to censorship by the
Free Expression Policy Project, 2003
ENISA - Technology-induced challenges in Privacy &
Data Protection in Europe, October 2008
Euro Media Literacy: Charter for Media Literacy
(2005)
EurActiv.com (2008). Web 2.0: New opportunities,
new risks. Retrieved September 4, 2008 from
http://www.euractiv.com/en/infosociety/web-20new-opportunities-new-risks/article-171600
Eurobarometer (2006). Eurobarometer on Safer Internet: quantitative surveys 2005-2006. Retrieved January 27, 2009 from http://ec.europa.eu/information_
society/activities/sip/eurobarometer/index_en.htm
Eurobarometer (2007). Eurobarometer on Safer Internet for Children: qualitative study 2007. Retrieved January 21, 2009 from http://ec.europa.eu/information_
society/activities/sip/eurobarometer/index_en.htm
Flash Eurobarometer survey (2008). Towards a Safer
Use of the Internet for children in the EU – a parents’
perspective. Retrieved January 27, 2009 from http://
ec.europa.eu/information_society/activities/sip/eurobarometer/index_en.htm
36
Institute for Public Policy Research (ippr): Behind the
Screen, the hidden life of youth online, March 200810-20
Mercury Interactive Corporation (2004). SiteScope
User‘s Guide, Version 7.9.5.0. para. 14, Monitoring.
Retrieved January 21, 2009 from http://mon15ny450.
doubleclick.net/SiteScope/docs/SiteScopeTerms.htm
Niedersächsische Landesmedienanstalt. Helmut
Volpers (Hrsg.). Funktionsweise des Internets und
sein Gefährdungspotenzial für Kinder und Jugendliche.
Ein Handbuch zur Medienkompetenzvermittlung.
NLM-Band 17, 2004
Ofcom. Social Networking. A quantitative and qualitative research report into attitudes, behaviours and
use, April 2008
Paris Agenda or 12 Recommendations for Media
Education, Paris, UNESCO, 21-22 June 2007
Photopatrol (2007). Mehr Schutz und Erfolg für Ihre
Bilder durch digitale Signaturen. Retrieved January 21,
2009 from http://www.photopatrol.eu/fileadmin/templates/Hilfe_Texte/Informationen_ueber_Photopatrol_
Download_-_V.1.pdf
Protecting Children Using the Internet – Opinion by
the European and Social Committee, May 2008
Public consultation of the European Commission in
regard to Age Verification, Cross Media Rating and
Classification, Online Social Networking, July 2008
Universität Leipzig. Medienkonvergenz Monitoring
Report 2008, Jugendliche in konvergierenden
Medien­welten
Recommendation CM/Rec (2008) 6 of the Committee of Ministers to member states on measures to
promote the respect for freedom of expression and
information with regard to Internet filters (May 2008)
Wikipedia Encyclopaedia (2009). Webmonitoring. Retrieved January 21, 2009 from http://de.wikipedia.org/
wiki/Webmonitoring
Resolution on Children’s Online Privacy (30th International Conference of Data Protection and Privacy
Commissioners – Strasbourg), October 17, 2008
Resolution on Privacy Protection in Social Network
Services (30th International Conference of Data Protection and Privacy Commissioners – Strasbourg),
October 17, 2008
Safer Children in a Digital World – The report of the
Byron Review, March 2008
Schulen ans Netz e.V. IT works. Jugendmedienschutz
Filterlösungen im schulischen Umfeld, Bonn 2005
SIP Benchmark Synthesis Report 2007 Edition by
Deloitte Enterprise Risk Services, December 2007
SIP Benchmark Synthesis Report 2008 Edition by
Deloitte Enterprise Risk Services, November 2008
Good practice guidance for the providers of social
networking and other user interactive services 2008,
March 2008
Good Practice Guidance for Moderation of Interactive
Services for Children, December 2005
Good practice guidance for search service providers
and advice to the public on how to search safely,
December 2005
Good Practice Models and Guidance for the Internet
Industry On: Chat Services, Instant Messaging,
Web-based Services, January 2003
United Nations Convention on the Rights of the Child
signed 1989
37
E·
Bestandsaufnahme Selbstregulierung
E 1 Organisationen der Selbstregulierung in Europa
Name der
Organisation
Typ der
Organisation
geografischer inhaltlicher URL*
WirkungsWirkungsbereich
bereich
Austrian E-Commerce
Trust Mark
Association
Austria
web
Internet Ombudsmann
Association
Austria
web
http://www.ombudsmann.at/
Asociace provozovatelu˚
mobilních sítí
Association of Mobile
Network Operators
Czech
Republic
mobile
http://www.apms.cz/Default.
aspx?ModuleId=379&ID=156
Sdružení pro internetovou
ˇ z.s.p.o.
reklamu v CR,
(SPIR)
Association of Internet
advertising
Czech
Republic
web
http://www.spir.cz
Association of eCommerce
Association
Czech
Republic
web
http://www.certifikovanyobchod.cz/o-apek-certifikaci
Media Council for Children
and Young People
Association
Denmark
movies
http://www.medieraadet.dk/
European Internet
Coregulation Network
Association
Europe
web
http://network.foruminternet.
org/
Interactive Software Federation of Europe (ISFE)
Association of
Companies
Europe
interactive
software
http://www.isfe-eu.org/
Freiwillige Selbstkontrolle
Multimedia-Dienste­
anbieter e.V.
Association of
Companies
Germany
web
www.fsm.de
Freiwillige Selbstkontrolle
Fernsehen e.V.
Association of
Companies
Germany
TV
www.fsf.de
Spitzenorganisation der
Filmwirtschaft e.V.
Association of
Companies
Germany
movies
www.spio.de
Unterhaltungssoftware
Selbstkontrolle
Association of
Companies
Germany
interactive
software
www.usk.de
Deutscher Presserat
Association of
Companies
Germany
all media
http://www.presserat.de/
Deutscher Werberat
Association of
Companies
Germany
advertisement http://www.werberat.de/
Freiwillige Selbstkontrolle
Telefonmehrwertdienste
e.V.
Association of
Companies
Germany
Beschwerdestelle /
Deutschland sicher im
Netz
Working group of AsGermany
sociation of Companies
http://www.fst-ev.org/
web
*Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung.
38
http://www.guetezeichen.at/
http://www.eco.de/servlet/
PB/menu/1020202_l1/index.
html
Name der
Organisation
Typ der
Organisation
geografischer inhaltlicher URL
WirkungsWirkungsbereich
bereich
ICRA Deutschland
Association of
Companies
Germany
web
http://www.eco.de/servlet/
PB/menu/1211767_l1/index.
html
Kommission für
Jugendmedienschutz
Authority
Germany
all media
http://www.kjm-online.de/
public/kjm/
Bundesprüfstelle für
jugendgefährdende
Medien
Federal Authority
Germany
all media
http://www.bundespruefstelle.
de/
Freiwillige Selbstkontrolle
der Chatbetreiber
Association of
Companies
Germany
web
http://www.fsm.de/de/Chat
Automaten-SelbstKontrolle (ASK)
Association
Germany
interactive
software
http://www.automaten-selbstkontrolle.de
Arbeitsgemeinschaft der
Landesmedienanstalten
(ALM)
Association
Germany
all media
http://www.alm.de
Greek Self-Regulating
Organisation for Internet
Content - SAFENET
NGO
Greece
web
http://www.safenet.org.gr/
National Committee
of Users (CNU)
Association
Italy
all media
http://www.agcom.it/cnu/
ADUC - Associazione
per i Diritti degli Utenti
e Consumatori
Association for the
Rights of Consumers
Italy
all media
http://www.aduc.it/
Netherlands Institute
for the Classification of
Audio-visual Media
Association of
Companies
Netherlands
all media
http://www.kijkwijzer.nl/
ECP.NL
Public-private not for
profit organisation
Netherlands
Stichting Reclame Code
(SRC)
Advertising Code
Foundation
Netherlands
advertisement http://www.reclamecode.nl/
Rada Reklamy (Advertising Council)
Polish Advertising
Industry
Poland
advertisement http://www.radareklamy.org
hotline Spletno oko
Non-profit project
(Internet)
Slovenia
web
https://www.spletno-oko.si/
Slovenian Consumers’
Association
Non-profit organisation
(Consumers’ rights
using Internet, mobile
phones and computers)
Slovenia
all media
http://www.zps.si/
APEK (Post and Electronic
Communications
Agency of the Republic
of Slovenia)
Independent Regulatory Body (electronic
communications and
postal market)
Slovenia
all media
http://www.apek.si/
http://www.ecp.nl/
39
40
Name der
Organisation
Typ der
Organisation
geografischer inhaltlicher URL
WirkungsWirkungsbereich
bereich
Association Vita Activa
Association
Slovenia
all media
Slovenian Advertising
Chamber
Non-profit association
of legal and physical
persons (companies
and individuals) regulation of media advertising
Slovenia
advertisement http://www.soz.si/
Asociación Española de
Distribuidores y Editores
de Software de Entretenimiento
Spain
Spanish Association
of Editors and Whole­
salers of Entertainment
Software
Asociación para la
Autoregulación de la
Comunicación Comercial
“Autocontrol”.
Spanish advertising
self-regulation organisation
Spain
advertisement http://www.autocontrol.es/
Agencia de Calidad de
Internet
Internet Quality
Agency
Spain
web
interactive
software
http://www.drustvo-vitaactiva.
si/401.html
http://www.adese.es
http://www.iqua.net
Internet Watch Foundation
Charity
UK
web
http://www.iwf.org.uk/
OFCOM - Office of
Communication
Public regulation
Authority
UK
all media
http://www.ofcom.org.uk/
about/csg/ofcom_board/code/
Home Office Task Force
on Child Protection on the
Internet
Task Force
UK
web
http://police.homeoffice.gov.
uk/operational-policing/crimedisorder/child-protectiontaskforce
Family Online Safety
Institute
Association
UK
web
http://www.fosi.org/icra
E 2 Instrumente der Selbstregulierung in Europa
Name des
Instruments
Typ des
Dokuments
geografischer inhaltlicher
WirkungsWirkungsbereich
bereich
URL*
Spam code of conduct of
ISPA
Code of
Conduct
Austria
web
http://www.ispa.at/downloads/COC_
spam_english.pdf
Journalists’ Code of
Conduct
Code of
Conduct
Cyprus
journalistic
ethics
http://www.mmc2000.net/docs/
leggi/CYPRUS.pdf
Kodex Etického Nákupu
Vodafonu
Code of ethical purchase
Czech
Republic
mobile
http://www.vodafone.cz/pdf/kodex_cz.pdf
ˇ
Etický kodex o užívání vereˇ
jných informacních
služeb
ˇ
pro šírení
sázkových služeb
Code of
Conduct
Czech
Republic
gambling
http://web01.sazka.cz/LoterieAHry/
docDetail.aspx?docid=19015601&d
octype=ART&&cpi=1&highlight=eti
ck_%20kodex
Evropská Asociace Státních
ˇ
Loteríi A Toto Spolecností
Code of
Conduct
Czech
Republic
web
http://www.sazka.cz/o-nas/vice-osazka/zakony/kodex.php
Code for the ChatCheck
Badge
Code of
Conduct
Denmark
web
http://www.fdim.dk/?pageid=52
European Framework
for Safer Mobile Use by
Younger Teenagers and
Children
Framework
Europe
mobile
http://www.gsmworld.com/gsmeurope/documents/eur.pdf
Rec. on measures to
promote the freedom of
expression and information with regard to Internet
filters
Recommendations
Europe
web
http://www.coe.int/
Journalists’ Code of
Conduct
Code of
Conduct
Europe
all media
http://www.presswise.org.uk
ISPA Code of Conduct
Code of
Conduct
Europe
journalistic
ethics
http://www.ispa.org.za/code/code_
of_conduct.shtml
Code of Conduct for search
engines / Verhaltenssubkodex für Suchmaschinenanbieter der FSM
Sub - Code
of Conduct
Germany
web
http://www.fsm.de/en/SubCoC_
Search_Engines
Code of Conduct of Mobile
Phone Service Providers in
Germany for the Protection
of Minors Using Mobile
Phones
Sub - Code
of Conduct
Germany
mobile
http://www.fsm.de/en/Subcode_of_
Conduct_mobile
Code of Conduct of Chat
Providers in the FSM
Sub - Code of
Conduct
Germany
web
http://www.fsm.de/inhalt.doc/SubCode_Chat.pdf
NICAMs regulations for
film, DVD, TV and Mobile
Operators
Sub Statutes
Netherlands
all media
http://www.kijkwijzer.nl/
*Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung.
41
42
Name des
Instruments
Typ des
Dokuments
geografischer inhaltlicher
WirkungsWirkungsbereich
bereich
URL
Richtlijn voor chatrooms
Guidelines
Netherlands
web
http://www.chatinfo.nl/
Dutch Advertising Code
Code
Netherlands
advertisement
http://www.reclamecodecommissie.
nl/bijlagen/dutch_advertising_code.pdf
Code of Ethics in
Advertising
Code of
Conduct
Poland
advertisement
http://www.radareklamy.pl/img_in//
PLIKI/Kodeks%20Etyki%20Reklamy%20Eng.pdf
Slovenian Code of
Advertising Practice
Code of
Conduct
Slovenia
advertisement
http://www.soz.si/oglasevalsko_razsodisce/slovenski_oglasevalski_kodeks/
Internet Service
Providers’ Association
Code of Conduct
Code of
Conduct
South Africa
web
http://www.ispa.org.za/code/code_
of_conduct.shtml
Convenio Marco De
Colaboración Para La
Promoción Del Uso Seguro
De Internet Por La Infancia
Y La Juventud
Agreement
Spain
web
not digitally available
Código de autorregulación
de la publicidad de alimentos dirigida a menores,
prevención de la obesidad
y salud
Food advertis- Spain
ing for children
and obesity prevention
self-regulation
code
advertisement
http://www.fiab.es/datos/1/PAOS_1676.pdf
Código de conducta de la
industria europea del software interactivo relativo a
la clasificación por edades,
el etiquetado, la promoción
y la publicidad de productos de software interactivo.
Code of
Conduct
Spain
interactive software
http://www.adese.es/web/criterios_
autoregulacion.asp
Código de Conducta
Publicitaria
Code of
Conduct
Spain
journalistic
ethics
http://www.autocontrol.es/pdfs/
Cod_conducta_publicitaria.pdf
Código Ético de Comercio
Electrónico y Publicidad
Interactiva
Code of
Conduct
Spain
web
http://www.confianzaonline.org/codigoetico/codigoetico.php
Código Deontológico para
Publicidad Infantil de la
Asociación Española de
Fabricantes de Juguetes,
y Unión de Consumidores
de España
Consumers
Code of
Ethics
Spain
advertisement
http://www.aefj.es/template.
php?id=91
Código de Autorregulación
sobre contenidos
televisivos e infancia.
Self-regulation code on
TV content
for children
Spain
TV
http://www.tvinfancia.es/Textos/
CodigoAutorregulacion/Codigo.htm
Name des
Instruments
Typ des
Dokuments
geografischer inhaltlicher
WirkungsWirkungsbereich
bereich
URL
Convenio de Autorregulación para promover el
buen uso de Internet en
España
Self-regulation code for
the promotion of an appropriate use
of Internet in
Spain
Spain
web
http://www.aui.es/../biblio/documentos/legislacion/proteccion_menores/
convenio/tex_conv.htm
Código deontológico de
la Agencia de Calidad de
Internet
Internet
Quality
Agency Code
of Ethics
Spain
web
http://www.iqua.net/Codigos_de_
conducta/Codigo_de_conducta/?go
=WWiW6aWP3cIUyUj7fiM3LUP2T
C+M0m3NphIdSA2vOCaqmvpV3B
PkG0o8
Convenio Marco De Colaboración Para La Seguridad
Del Menor
Committment
Spain
Code of Practice for the
self-regulation of new
forms of content on
mobiles
Code of
Practice
UK
mobile
http://www.mobilebroadbandgroup.
com/content-code.pdf
Self-regulatory Code for
the responsible selling of
mobile telephony
Code of
Practice
UK
mobile
http://www.mobilebroadbandgroup.com/documents/mbg_cop_
sm_250707_f.pdf
Industry Code of Practice
for the use of mobile
phone technology to
provide passive location
services in the UK
Code of
Practice
UK
mobile
http://www.mobilebroadbandgroup.
com/documents/UKCoP_location_
servs_210706v_pub_clean.pdf
Good Practice Guidance for
the Moderation of Interactive Services for Children
Guidelines
UK
web
http://police.homeoffice.gov.uk/
news-and-publications/publication/
operational-policing/moderation-document-final.pdf?view=Binary
Good practice guidance for
search service providers
and advice to the public on
how to search safely
Guidelines
UK
web
http://police.homeoffice.gov.uk/
news-and-publications/publication/
operational-policing/search-andadvice-public.pdf?view=Binary
Promoting Internet Safety
Through Public Awareness
Campaigns Guidance for
Using Real Life Examples
Involving Children or Young
People
Guidelines
UK
web
http://police.homeoffice.gov.uk/
news-and-publications/publication/
operational-policing/RealLifeExamples.pdf?view=Binary
Good Practice Models and
Guidance for the Internet
Industry On: Chat
Services, Instant Messaging, Web-based Services
Guidelines
UK
web
http://police.homeoffice.gov.uk/
news-and-publications/publication/
operational-policing/ho_model.
pdf?view=Binary
43
44
Name des
Instruments
Typ des
Dokuments
geografischer inhaltlicher
WirkungsWirkungsbereich
bereich
URL
Television Advertising of
Food and Drink Products to
Children”
Code
UK
advertisement
http://www.ofcom.org.uk/consult/
condocs/foodads_new/statement/
BCAP Spread Betting Advertising Rules and BCAP
Radio Advertising Code
Code
UK
advertisement
http://www.cap.org.uk/NR/
rdonlyres/6C6CECA6-CCCB-44B7A146-460D2726BC48/0/BCAPSpreadBettingRadioAdvertisingRules.
pdf
BCAP Rules on the Scheduling of Advertising
Rules
UK
advertisement
http://www.asa.org.uk/NR/
rdonlyres/7F763788-6A51-4A73B35B-C60346FD5F6C/0/BCAPRulesontheSchedulingofTelevisionAdvertisements_20080108.pdf
Advertising Standards
Code for Text Services
Code
UK
BCAP Guidance to Broadcasters on the Regulation
of Interactive Television
Services
Guidelines
UK
TV
http://www.asa.org.uk/NR/rdonlyres/D41345A2-31B5-4149-879B69A08A64879C/0/BCAP_Guidance_
on_Interactive_TV.pdf
BCAP Advertising Guidance Notes
Notes to
Guidlines
UK
advertisement
http://www.clearcast.co.uk/clearcast/
notes_of_guidance/Appendix+3+Guid
elines+for+Superimposed+Text+from
+BCAP+Guidance+on+Text+and+Su
btitling+in+Television.htm
Good practice guidance
for the providers of social
networking and other user
interactive services 2008
Guidance
UK
web
http://police.homeoffice.gov.uk/
Editors’ Code of Practice
Code of
Practice
UK
journalistic
ethics
http://www.pcc.org.uk/
CAP and BCAP Gambling
Advertising Rules and
BCAP Spread Betting
Rules
Rules
UK
web
http://www.cap.org.uk/NR/
rdonlyres/8C9D2140-EE00-424F9E67-CE1914B3DA71/0/FINALCAPBCAPGamblingRules.pdf
http://www.asa.org.uk/NR/
rdonlyres/3B4358E5-85CC-40EEA2DD-EE883BBABB6E/0/BCAPCodeforTextServices_20080108.pdf
F·
Bestandsaufnahme rechtlicher Regelungen in Europa
EU Mit- Jugendschutz /
glieds- Jugendmedienschutz
staaten
Quelle *
Austria
Pornografiegesetz
http://www.ris.bka.gv.at/Dokumente/Bundesnormen/NOR12058546/
NOR12058546.pdf
9 different youth protection laws (including youth
media protection) of the Federal States
http://www.bmwfj.gv.at/BMWA/Schwerpunkte/Jugend/Jugendschutz/
default.htm
Anti-Stalkinggesetz § 107a Strafgesetzbuch.
Tatbestand der “beharrlichen Verfolgung“
http://www.ris.bka.gv.at/GeltendeFassung.wxe?QueryID=Bundesnormen
&Gesetzesnummer=10002296
Belgium
Belgian Penal Code Articles 380 till 383
http://www.stopchildporno.be/index.php?pid=13
Bulgaria
Child protection Act from 03.04.2003
http://www.sacp.government.bg/index_en.htm
Cyprus
Czech
Republic
Denmark
Estonia
Finland
France
http://www.lexadin.nl/wlg/legis/nofr/eur/lxwecyp.htm
Act No. 359/1999 Coll., on the socio-legal protection
of children, as amended (Act No. 501/2004 Coll.,
comes into effect 1.1.2006)
http://www.czso.cz/csu/cizinci.nsf/engo/gender_odkazy-links_with_legislative
Act No. 94/1963 on family
http://mujweb.cz/www/vaske/rodina.htm
Act No. 108/2006 on social services
http://www.ilo.org/dyn/natlex/natlex_browse.details?p_lang=en&p_
country=CZE&p_classification=15.05&p_origin=COUNTRY&p_
sortby=SORTBY_COUNTRY
Act No. 218/2003 on legal responsibility of youth
and judicature in cases of youth
http://unpan1.un.org/intradoc/groups/public/documents/NISPAcee/UNPAN012622.pdf
Act No. 140/1961 Criminal law
§ 205a „Receiving of child pornography“
§ 205b „Misuse of children for pornography
production“
http://web.mvcr.cz/archiv2008/prevence/priority/kszd/english.html
Act No. 500/2004 Administrative law
http://www.nssoud.cz/default.aspx?cls=art&art_id=1
The Marketing Practices Act No. 1389 of
21. December 2005, latest amended in 2007
http://www.forbrug.dk/english/dco/lawsandacts/marketing-practises-act/
Radio and Television Broadcasting Act No. 338 of
11 April 2007
http://www.kum.dk/sw4507.asp
Youth Work Act
http://www.hm.ee/index.php?148615
Juvenile Sanctions Act
http://www.hm.ee/index.php?149399
Hobby Schools Act
http://www.hm.ee/index.php?149396
Child Welfare Act from 05.08.1983
http://www.finlex.fi/pdf/saadkaan/E9830683.PDF
Act on the Classification of Audiovisual Programmes
(L 775/2000) from 25.08.2000
http://www.vet.fi/english/lait_kuvaohjelmien_tarkastaminen.php
Finish Government’s Child and Youth Policy
Programme 2007–2011 (Finish Ministry of Education)
http://www.minedu.fi/OPM/Julkaisut/2007/Lapsija_nuorisopolitiikan_
kehittamisohjelma_2007-2011?lang=en
Penal code
http://www.legifrance.gouv.fr/html/codes_traduits/code_penal_textan.htm
separate bills regarding youth protection for different
media. No specific regulation for youth media
protection
http://www.legifrance.gouv.fr/
*Das Verzeichnis steht im Internet unter www.yprt.eu mit anklickbaren URLs zur Verfügung.
45
EU Mit- Jugendschutz /
glieds- Jugendmedienschutz
staaten
Quelle
Germany
Youth Protection Act (2002)
http://www.bmfsfj.de/bmfsfj/generator/Kategorien/Service/themenlotse,did=12862.html
Interstate Treaty for the Protection of Minors from
Harmful Content in the Media (2003)
http://www.bmfsfj.de/bmfsfj/generator/Kategorien/Service/themenlotse,did=12862.html
LAW NO. 1729 Combat against the spread of drugs,
protection of youth and other provisions
http://www.unodc.org/enl/showDocument.do?documentUid= 446&node=
docs&country=GRE&cmd=add
Penal Code
http://www.interpol.int/Public/Children/SexualAbuse/NationalLaws/CsaGreece.pdf
separate bill for youth protection from the National
Radio and TV Council
No source
General information on legal regulation
http://www.kep.gov.gr/portal/page/portal/MyNewPortal?lng=us
http://old.mfa.gr/english/greece/today/media/internet.html
Hungary
Act I of 1996
on Radio and Television Broadcasting (Media Act)
http://www.helsinki.hu/docs/Act%20I%20of%201996.pdf
Ireland
Criminal Justice Act 2008
http://www.bailii.org/cgi-bin/markup.cgi?doc=/ie/legis/num_act/2008/
a0708.html&query=Youth+Media+Protection&method=all
Italy
Codice del consumo (D.lgs. 206/2005)
http://www.altalex.com/index.php?idstr=39&idnot=33366
Gentiloni’s decree (against online pedo-pornographic
materials through a blocking filter on the basis of
a national black list provided by LEA to ISP (Italian
Ministry of Communication)
http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0707/it3.
htm
http://www.comunicazioni.it/361-381.html
http://www.lexadin.nl/wlg/legis/nofr/eur/lxweita.htm
Bill on video games
http://www.comunicazioni.it/binary/min_comunicazioni/news_eng/Parliamentary%20Bill%20on%20Regulations%20for%20the%20Protection%20
of%20Children%20in%20Film%20Viewing%20and%20use%20of%20
Videogames.pdf
Personal Data Protection Code, Legislative Decree
no. 196 dated 30 June 2003
http://www.garanteprivacy.it/garante/document?ID=1219452
Legislative Decree No. 345 Of 4 August 1999 Implementing The Directive No. 94/33 EC On The Protection Of Young People At Work
http://www.ilo.org/dyn/natlex/docs/WEBTEXT/54507/65185/E99ITA01.
htm
bill 6 February 2006, n. 38 against pedo- pornography
and child sex abuse (the bill affords also online aspect
of these issues),
http://www.edri.org/edrigram/number5.1/italy_blocking
Greece
bill 3 august 1998 n. 269 against child prostitution,
child pornography and sexual tourism
bill 15 February 1996 n. 66 on sex violence against
children
Latvia
Lithuania
46
Children’s Rights Protection Law
http://www.humanrights.lv/doc/latlik/bern.htm
Advertising Law (20.12.1999)
http://www.kp.gov.lv/uploaded_files/ENG/E_likumR.pdf
Youth Law
http://www.bm.gov.lv/eng/regulatory_enactment/regulatory_
enactment/?doc=10753
Law On Fundamentals Of Protection Of The Rights
Of The Child
http://www.litlex.lt/Litlex/Eng/Frames/Laws/Documents/359.HTM
EU Mit- Jugendschutz /
glieds- Jugendmedienschutz
staaten
Quelle
Luxembourg
Loi sur la liberté d’expression dans les medias
(Juni 2004): Chapitre V/Section 5: De la protection
des mineurs
http://www.legilux.public.lu/leg/textescoordonnes/compilation/recueil_
lois_speciales/MEDIAS.pdf
Malta
Criminal Code
http://docs.justice.gov.mt/lom/legislation/english/leg/vol_1/chapt9.pdf
Electronic Commerce Act: Article 25.1.i
http://www.lexadin.nl/wlg/legis/nofr/eur/lxwemal.htm
Broadcasting Code for the Protection of Minors
(Sept.2001) (350.05: subsidiary legislation on
broadcasting act)
http://docs.justice.gov.mt/lom/Legislation/English/SubLeg/350/05.pdf
Dutch Media Act
http://www.lexadin.nl/wlg/legis/nofr/eur/arch/ned/mediaact.pdf
The Media Decree
http://www.lexadin.nl/wlg/legis/nofr/eur/arch/ned/mediadecree.pdf
Dutch Advertising Code: B: Code for advertising
directed at children or young people (Article 5 and 6)
http://www.reclamecode.nl/bijlagen/dutch_advertising_code.pdf
Criminal Code; Article 240a
http://www.thefuturegroup.org/youwillbecaught/law_Netherlands.html
Polish Penal Code 202
http://www.internationalresourcecentre.org/missingkids/servlet/
PageServlet?LanguageCountry=en_X2&PageId=3428
Netherlands
Poland
http://www.era.int/domains/corpus-juris/public_pdf/polish_penal_code2.
pdf
Portugal
http://www.lexadin.nl/wlg/legis/nofr/eur/lxwepor.htm
Romania
http://www.lexadin.nl/wlg/legis/nofr/eur/lxwerom.htm
Slovakia
Slovenia
http://www.lexadin.nl/wlg/legis/nofr/eur/lxweslw.htm
Constitution of the Republic of Slovenia; Article 56
http://www.up-rs.si/up-rs/uprs‑eng.nsf/dokumentiweb/063E5907BE5B67
9CC1256FB20037658C?OpenDocument
Public Media Act
http://www.mk.gov.si/si/postopki/mediji/vpis_v_register_tujih_dopisnikov_in_dopisnistev/navodila_eng/?type=98
Spain
Ley Organica 1/1996 de 15/1/96
http://vlex.com/vid/ley-organica-codigo-penal-126987
Sweden
The Children’s Ombudsman Act
http://www.bo.se/adfinity.aspx?pageid=86
United
Kingdom
Protection of Children Act 1978 (England and Wales) http://www.iwf.org.uk/police/page.22.htm
Sex Offences Act 2003 (SOA 2003):
http://www.iwf.org.uk/police/page.22.htm
Civic Government (Scotland) Act, 1982
http://www.iwf.org.uk/police/page.22.htm
Obscene Publications Act 1959 & 1964
http://www.iwf.org.uk/police/page.22.htm
Police and Justice Act 2006 (Section 39 and
Schedule 11)
http://www.iwf.org.uk/police/page.22.htm
Public Order Act 1986
http://www.iwf.org.uk/police/page.22.htm
47
Europäische Regulierungen
Jugendschutz /
Jugendmedienschutz
48
Quelle
Framework decision on combating the sexual exploitation
of children and child pornography
http://europa.eu/scadplus/leg/en/lvb/l33138.htm
Green Paper: Protection of minors and human dignity in
audiovisual and information services (from 1996)
http://europa.eu/scadplus/leg/en/lvb/l24030b.htm
Cybercrime Convention from 23.11.2001 (Council of Europe)
http://conventions.coe.int/Treaty/Commun/QueVoulezVous.
asp?NT=185&CL=ENG
Stockholm Agenda for Action regarding child pornography
from 1996
http://www.ilo.org/public/english/comp/child/standards/resolution/stockholm.htm
Council of Europe Convention on the Protection of Children
against Sexual Exploitation and Sexual abuse, signed on the
25th October 2007
http://www.nspcc.org.uk/Inform/policyandpublicaffairs/Europe/
Briefings/councilofeurope_wdf51232.pdf
Communication (COM (2000) 890): Creating a safer
information society by improving the security of information
infrastructures and combating computer-related crime
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:5
2000DC0890:EN:HTML
Council Decision of 29 May 2000 to combat child
pornography on the Internet.
http://europa.eu/scadplus/leg/en/lvb/l33116.htm
Joint action to combat trafficking in human beings and
sexual exploitation of children
http://europa.eu/scadplus/leg/en/lvb/l33072.htm
Communication on Illegal and Harmful Content on the
Internet (1996)
http://www.copacommission.org/meetings/hearing3/eu.test.pdf
UN Convention on the Rights of the Child
http://www.unicef.org/crc/
Charter of Fundamental Rights (2000)
http://europa.eu/scadplus/leg/en/lvb/l33501.htm
Council framework Decision 2004/68/JHA of 22 December
2003 on combating the sexual exploitation of children and
child pornography
http://europa.eu/scadplus/leg/en/lvb/l33138.htm
Television without Frontiers Directive (03.10.1989)
http://eur-lex.europa.eu/LexUriServ/site/en/consleg/1989/
L/01989L0552-19970730-en.pdf
Audiovisual Media Services Directive (11 December 2007)
http://eur-lex.europa.eu/LexUriServ/LexUriServ.
do?uri=CELEX:32007L0065:EN:NOT
Eigene Notizen
49
Eigene Notizen
50
Projektkoordinator
So erreichen Sie uns:
Stiftung Digitale Chancen
Geschäftsführung
Jutta Croll
Fasanenstraße 3
10623 Berlin
Tel.: ++49-30-43727730
Fax: ++49-30-43727739
email: [email protected]
Projekt im Rahmen des Safer Internet Programms
der Europäischen Kommission
Gefördert durch
© Youth Protection Roundtable – Stiftung Digitale Chancen 2009
Design und Layout: Barbara Kloth, Hamburg
51
52