30 Jahre Mauerfall Mehr erfahren
zurück 
28.9.2018

Im Mittelpunkt das Kind. Eine kinderrechtliche Perspektive auf den Kinder- und Jugendschutz im Internet

Die Verabschiedung der Kinderrechtskonvention (KRK) durch die Vollversammlung der Vereinten Nationen jährt sich im November 2019 zum 30. Mal. Diese weltweit am häufigsten ratifizierte Vereinbarung setzt den Rahmen für die Umsetzung der Rechte von Kindern durch die 196 Unterzeichnerstaaten sowie für die Wahrnehmung dieser Rechte durch die Kinder selbst. Die UN-Kinderrechtskonvention versteht Kinder als Menschen, die das 18. Lebensjahr noch nicht vollendet haben. Dieser Altersgruppe gesteht die UN-KRK einen besonderen Schutzbedarf im Hinblick auf ihre Rechte zu und formuliert in Artikel 3 Absatz 1 den Vorrang des Kindeswohls: Maßnahmen und Entscheidungen, die Kinder betreffen, sollen von der Überlegung geprägt sein, wie die Interessen des Kindes am besten gewahrt werden können. Eine entsprechende Formulierung enthält auch die Charta der Grundrechte der Europäischen Union aus dem Jahr 2000 in Artikel 24 Absatz 2.

Ebenfalls 1989 entwickelte Tim Berners-Lee am CERN-Kernforschungszentrum in der Schweiz den Quellcode, der als World Wide Web das Internet für jede und jeden zugänglich macht. Seinerzeit war nicht absehbar, dass und in welchem Ausmaß Kinder das Internet künftig nutzen würden. Entsprechend fand das Internet bei der Formulierung der Kinderrechtskonvention keine Berücksichtigung. Seitdem hat sich die Welt in vielerlei Hinsicht verändert, und die Digitalisierung hat massiven Einfluss auch auf die Lebenswelten von Kindern genommen.

Dennoch bieten die UN-KRK und die Europäische Grundrechtecharta verschiedene Ansatzpunkte, die Rechte von Kindern im Internet zu gewährleisten. Ein besonderer Fokus liegt dabei auf den Rechtsbereichen Zugang; Meinungs- und Informationsfreiheit; Versammlung, Vereinigung, Teilhabe und Spiel; Privatsphäre und Datenschutz; Bildung sowie Schutz und Sicherheit, die durch die 41 inhaltlichen Artikel im ersten Teil der UN-KRK als Freiheits- und Schutzrechte ausgeführt werden. Den rechtlichen Rahmen für den Kinder- und Jugendschutz im Bereich der Medien setzt in Deutschland das Jugendschutzgesetz auf Bundesebene sowie der Jugendmedienschutz-Staatsvertrag der Länder. Darüber hinaus liegt mit der im Mai 2018 in Kraft getretenen EU-Datenschutz-Grundverordnung eine europaweit gültige Rechtsordnung vor, die erstmals ausdrücklich den besonderen Schutzbedarf von Kindern im Hinblick auf die Verarbeitung ihrer Daten benennt und entsprechende Regelungen vorsieht. Schließlich ist auch das im Oktober 2017 in Kraft getretene Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken unter Jugendschutzaspekten zu berücksichtigen.

Die Wirksamkeit der Regelungen für den Kinder- und Jugendschutz im Internet und der politische Handlungsdruck für eine Neugestaltung dieses Bereichs werden im Folgenden diskutiert.

Technische und regulatorische Antworten



Seit die Nutzung des Internets ab den frühen 1990er Jahren in der Bevölkerung Verbreitung gefunden hat, wird auch das Gefährdungspotenzial des Mediums insbesondere im Hinblick auf den Kinder- und Jugendschutz erörtert.

Anfangs konzentrierte sich die Aufmerksamkeit darauf, den Zugang zu Inhalten zu verhindern, die als ungeeignet für Kinder und Jugendliche bestimmter Altersgruppen erachtet werden. Dabei wird unterschieden nach unzulässigen und entwicklungsbeeinträchtigenden Inhalten. Unzulässige Inhalte unterliegen in Deutschland entweder einem absoluten Verbreitungsverbot unter Bezugnahme auf die entsprechenden Regelungen des Strafgesetzbuches – das betrifft zum Beispiel Kennzeichen verfassungswidriger Organisationen im Sinne des Paragrafen 86 StGB oder Darstellungen des sexuellen Kindesmissbrauchs im Sinne des Paragrafen 184b StGB – oder einem Verbreitungsverbot im Rundfunk und an Kinder im Internet. Das heißt, dass Inhalte wie etwa Pornografie nur geschlossenen Benutzergruppen, in der Regel unter Anwendung von sogenannten Altersverifikationssystemen, zugänglich gemacht werden dürfen. Als entwicklungsbeeinträchtigend gelten solche Inhalte, die gemäß Jugendschutzgesetz für Kinder oder Jugendliche bestimmter Altersstufen nicht freigegeben sind. Anbieter von entwicklungsbeeinträchtigenden Inhalten müssen durch geeignete Maßnahmen sicherstellen, dass die Wahrnehmung des Angebots durch Kinder und Jugendliche der betroffenen Altersstufe unmöglich gemacht oder wesentlich erschwert wird.

Bei dem Versuch, den Zugang von Kindern zu solchen Inhalten zu verhindern, erwiesen sich für die zeitlich und weitgehend auch räumlich uneingeschränkt verfügbaren Inhalte im Internet die Sendezeitbeschränkungen, die im Jugendmedienschutz-Staatsvertrag für im Rundfunk linear ausgestrahlte Inhalte definiert sind, als untauglich. Auch die durch das Jugendschutzgesetz vorgesehene Prüfung und gegebenenfalls Indizierung von medialen Inhalten durch die Bundesprüfstelle für jugendgefährdende Medien ist für das Internet mit seinen schnellen Möglichkeiten der Veröffentlichung und Veränderung von Inhalten allenfalls bedingt geeignet. Zunächst galten daher Filterprogramme als Instrument der Wahl: Software, die mittels Algorithmen bestimmte Inhalte identifiziert und den Zugang dazu sperrt. Die Filterung der Inhalte erfolgt auf der Basis von Wortlisten einerseits und URL- oder Domainnamenlisten andererseits.


Die im Interesse des Jugendschutzes erfolgende Verhinderung des Zugangs wird oft als Zensur kritisiert und als Einfallstor für eine weiterreichende Einschränkung des Rechts auf Informationsfreiheit erachtet. Diese Kontroverse lässt sich auch an der Entwicklung der Bezeichnung entsprechender Softwareprodukte nachvollziehen: Im Beschluss des Europäischen Parlaments über ein mehrjähriges Gemeinschaftsprogramm zur Förderung der sicheren Nutzung des Internets und neuer Online-Technologien (854/2005/EG) von 2005 wurden Filtertechnologien als Instrument zur "Bekämpfung unerwünschter und schädlicher Inhalte" ausdrücklich so benannt. Als die EU-Kommission 2009 das im Zuge der Umsetzung des Programms vorgesehene vergleichende Testverfahren für diese Technologien, "Safer Internet Programme Benchmark" (SIP-Bench), zum zweiten Mal ausschrieb, wurden die zu evaluierenden Softwareprodukte als "Parental Control Tools" bezeichnet, also als Instrumente der elterlichen Kontrolle. Bei dieser neuen Wortwahl liegt die Assoziation zur Zensur weniger nahe; außerdem wird der elterlichen Verantwortung für den Schutz der Kinder bei der Internetnutzung eine höhere Priorität eingeräumt. Zugleich waren die Benchmark-Untersuchungen der zweiten und dritten Programmphase stärker darauf ausgerichtet, technischen und erzieherischen Jugendschutz zu vereinen und Eltern sowie andere pädagogisch verantwortliche Personen bei ihrer Erziehungsaufgabe zu unterstützen.[1]

Neben der Filterwirkung wurde auch geprüft, ob die Software leicht zu umgehen ist, welche Funktionalitäten sie zusätzlich zur Filterung bietet und wie gut ihre Bedienbarkeit ist. Bei den meisten Produkten konnte eine gute Filterwirkung nur für englischsprachige Inhalte mit sexueller Konnotation festgestellt werden. Dabei ist anzunehmen, dass dies sowohl auf die Ausrichtung der Hersteller auf den US-amerikanischen Markt als auch auf den ursprünglichen Zweck der Produkte zurückzuführen ist.[2] Gewalthaltige oder sonstige problematische Inhalte werden von den Programmen weniger gut identifiziert; vielfach werden auch eigentlich erwünschte Inhalte von den Programmen fälschlich blockiert.

Parallel zu Bemühungen, die Filterleistung zu verbessern, entwickelten die Hersteller im Laufe der Jahre ihre Produkte auch technisch weiter und ergänzten Funktionalitäten wie Kontrolle und Einschränkung von Nutzungszeiten oder Monitoring des Nutzungsverhaltens. Dennoch ist festzuhalten, dass die bekannten technischen Schutzinstrumente mit der rasanten Innovation digitaler Anwendungen meist nicht schnell genug mitkommen. Das aus anderen Bereichen technischer Entwicklungen bekannte Instrument der Technikfolgenabschätzung, das heißt der expertengestützten Befassung mit den möglichen gesellschaftlichen Auswirkungen der Nutzung einer neuen Technologie, wurde im Bereich der Informations- und Kommunikationstechnologien kaum eingesetzt und spielt in der Gestaltung medienpolitischer Maßnahmen bisher keine Rolle.[3]

Durch den Jugendmedienschutz-Staatsvertrag (JMStV) wird den Anbietern von entwicklungsbeeinträchtigenden Inhalten in Deutschland auferlegt, Inhalte mit Alterskennzeichnungen zu versehen, die durch ein geeignetes Jugendschutzprogramm ausgelesen werden können. Nach dem Prinzip der Co-Regulierung, auch als regulierte Selbstregulierung bezeichnet, erfolgt die Altersbewertung durch eine anerkannte Einrichtung der Freiwilligen Selbstkontrolle und kann auf Antrag durch die Kommission für Jugendmedienschutz bestätigt werden. Während im JMStV in der Fassung von April 2003 die Anerkennung von geeigneten Jugendschutzprogrammen der Kommission für Jugendmedienschutz übertragen wurde, obliegt diese Aufgabe in der neuen, seit Oktober 2016 geltenden Fassung den Einrichtungen der Freiwilligen Selbstkontrolle, etwa der Multimedia-Dienste-Anbieter (FSM) oder der Fernsehsender (FSF), deren Rolle damit gestärkt wurde.

Ungeachtet dieser Zuständigkeiten unterliegt der effiziente Einsatz von Jugendschutzprogrammen zur Verhinderung des Zugangs zu entwicklungsbeeinträchtigenden Inhalten den zuvor beschriebenen, im Rahmen der SIP-Benchmark-Untersuchungen nachgewiesenen Schwierigkeiten. Die Wirksamkeit der gesetzlichen Regelungen ist darüber hinaus in zweierlei Hinsicht kritisch zu hinterfragen. Zum einen ist die Zahl der Endgeräte mit Zugangsmöglichkeit zum Internet, auf denen ein Jugendschutzprogramm installiert und gemäß dem Alter der nutzenden Kinder konfiguriert wurde, unverändert niedrig. Eine Untersuchung des Hans-Bredow-Instituts hat 2012 unter Berufung auf weitere Quellen eine Rate von 21 bis 27 Prozent der Eltern, deren Kinder das Internet nutzen, als Anwender von Jugendschutzprogrammen ermittelt.[4] Hinzu kommt, dass Kinder das Internet heute fast ausschließlich über das Smartphone nutzen; für mobile Endgeräte sind aber kaum effiziente Jugendschutzprogramme verfügbar. Zum anderen ist die nationale Gesetzgebung in Deutschland gegenüber den Anbietern von im Ausland gehosteten Inhalten oftmals nicht durchsetzbar. In Zeiten des globalen Internets ist der Jugendschutz nicht länger eine national zu bewältigende Aufgabe.[5] Vielmehr muss sich die Politik der Gestaltung eines transnational kohärenten Rechtsrahmens annehmen.


Politische Handlungsoptionen



Um die Jahrtausendwende Geborene sind die erste Generation, die quasi von Geburt an mit digitalen Medien aufgewachsen ist. Sie sind mit den neuen Möglichkeiten der Kommunikation und Gestaltung von Inhalten über das Internet vertraut, die ab Mitte der 2000er Jahre zunächst als Web 2.0 bezeichnet und unter dem Begriff "‚User Generated Content‘" diskutiert wurden. Sie stellen auch die Hauptnutzergruppe von Social-Media-Anwendungen dar, die heute im Wesentlichen die Plattformen für digitale Interaktionen von Menschen bereitstellen. Neuere, für den Jugendschutz ebenfalls relevante Phänomene wie Hatespeech oder Fake News sind durch Social-Media-Plattformen im derzeit beobachteten Ausmaß überhaupt erst möglich geworden. Technischer Jugendschutz kann auch mittels künstlicher Intelligenz weder den großen Mengen an Inhalten gerecht werden noch Interaktionsrisiken, die aus der Kommunikation resultieren, angemessen begegnen. Im Kontakt zu Menschen, die weder persönlich bekannt noch für die Kommunikationspartner auf digitalem Wege eindeutig identifizierbar sind, liegt ein Gefährdungspotenzial, das eine große Herausforderung für den Jugendschutz im Internet darstellt. Durch technische Entwicklungen im Bereich des Internet der Dinge wie etwa vernetzte Spielzeuge, Puppen und Kuscheltiere oder sprachgesteuerte Assistenzsysteme, die in privaten Haushalten immer häufiger zu finden sind, verstärkt sich das Risiko der Preisgabe persönlicher Informationen in potenziell ungesicherte oder unbefugt auslesbare Kanäle.[6] Gleichzeitig darf bei der Abwägung des Gefährdungspotenzials nicht außer Acht gelassen werden, dass in der Regel nur ein Bruchteil der vorhandenen Risiken tatsächlich eintritt und zu einer für Kinder problembehafteten Situation führt.[7]

Legt man den Vorrang des Kindeswohls gemäß Artikel 3 Absatz 1 der UN-KRK und Artikel 24 Absatz 2 der Europäischen Grundrechtecharta zugrunde, soll die Verantwortung für den Schutz von Kindern und die Ermöglichung der Wahrnehmung ihrer Rechte von Politik, Wirtschaft, Verwaltung und Zivilgesellschaft gleichermaßen getragen werden. Beide völkerrechtlichen Verträge sind mit der Ratifizierung durch die deutsche Bundesregierung Teil der deutschen Rechtsordnung geworden und innerstaatlich in Geltung getreten.

Die Regelungen der UN-KRK beziehen sich auf Lebensbereiche von Kindern, die durch die Digitalisierung starken Veränderungen unterliegen. Daraus ergeben sich Chancen, aber auch Risiken für die Wahrnehmung der Kinderrechte. So entstehen im Zuge der Digitalisierung vielfältige neue Möglichkeiten, sich Informationen zu beschaffen, die eigene Meinung gegenüber einer Vielzahl von Menschen kundzutun und damit das Recht auf Meinungs- und Informationsfreiheit nach Artikel 13 UN-KRK auszuüben. Auch das Recht, sich frei mit anderen zusammenzuschließen und sich friedlich zu versammeln (Artikel 15 UN-KRK), erfährt dort, wo sich der öffentliche Raum in die digitale Welt beispielsweise durch soziale Netzwerke und andere digitale Versammlungsräume erweitert, neue Möglichkeiten der Ausübung. Grundlage der Wahrnehmung ist das Recht auf diskriminierungsfreien Zugang zu Massenmedien (Artikel 17 UN-KRK).

Gleichzeitig stellen aber gesellschaftliche Phänomene wie Fake News oder Hatespeech auch eine Gefährdung für die Ausübung dieser Freiheitsrechte dar. Unter Jugendschutzaspekten sind insbesondere die Artikel 19 (Schutz vor Gewaltanwendung, Misshandlung, Verwahrlosung) und Artikel 34 (Schutz vor sexuellem Missbrauch) zu nennen, die angesichts der Digitalisierung einer erweiterten Auslegung und Anwendung bedürfen, um einen angemessenen Schutz von Kindern vor potenziellen neuen Gefährdungen im digitalen Raum zu gewährleisten.

Das bisherige gesetzliche Jugendschutzsystem aus Jugendmedienschutz-Staatsvertrag und Jugendschutzgesetz bedarf einer "grundsätzlichen Neukonzeption",[8] um den aktuellen Herausforderungen wirksam begegnen zu können, schreibt der Jurist Murad Erdemir. Und auch dem Netzwerkdurchsetzungsgesetz bescheinigt er, dass es seiner Aufgabe nicht gerecht werde.[9] Ende Juli 2018 wurden von den Plattformbetreibern erstmals Berichte über die nach den Vorgaben des Netzwerkdurchsetzungsgesetzes bearbeiteten Beschwerden und vorgenommenen Löschungen vorgelegt. Erste publizistische Reaktionen darauf sehen angesichts der großen Diskrepanz zwischen der Zahl der eingegangenen Meldungen etwa bei Youtube und Twitter und den niedrigen Löschquoten die Notwendigkeit des Gesetzes nicht bestätigt.[10] Für eine genauere Einschätzung der Wirkungen des Gesetzes bedarf es jedoch eines längeren Berichtszeitraumes und weiterer Zahlen. Zudem kann nicht ausgeschlossen werden, dass allein in der Folge des Gesetzes die Plattformbetreiber ihre Verfahren an die neuen Regelungen angepasst haben und nicht nur reaktiv nach Meldung löschen, was in der Folge zu einem geringeren Umfang an inkriminierten Inhalten geführt haben dürfte.

Mit dem Netzwerkdurchsetzungsgesetz hat der Gesetzgeber ein Instrument gewählt, das von dem bisher gegenüber den Anbietern verfolgten Weg der Anreizsetzung zur Verwirklichung des Jugendschutzes (etwa durch die Freistellung der Mitglieder der Einrichtungen der Freiwilligen Selbstkontrolle von der Verpflichtung, einen Jugendschutzbeauftragten zu bestellen) abweicht und bei Nichteinhaltung der gesetzlichen Vorgaben mit teilweise drakonischen Strafgeldzahlungen droht. Auch die EU-Datenschutz-Grundverordnung ist ähnlich ausgestaltet und versucht, durch hohe Bußgeldandrohungen die Anbieter zur Einhaltung der europaweit geltenden Regelungen zu verpflichten.

Verantwortung tragen aber auch die Eltern für den Schutz und die Wahrung der Rechte ihrer Kinder. Auch der erzieherische Jugendschutz[11] muss sich den neuen Herausforderungen stellen; die notwendigen Voraussetzungen dafür zu schaffen, ist eine Aufgabe der Politik. Die Jugend- und Familienministerkonferenz (JFMK) hat dazu im Mai 2018 formuliert: "Das Wächteramt auf Basis von Art. 6 Abs. 2 Satz 2 GG verpflichtet den Staat auch bei der Medienerziehung zur Unterstützung der Eltern, zum Schutz vor Gefährdungen und zum Schutz des Kindeswohls."[12]

Neben den Eltern müssen pädagogische Fachkräfte in die Lage versetzt werden, die Mediennutzungspraktiken von Kindern und Jugendlichen zu verstehen und zu begleiten sowie Maßnahmen zu ihrem Schutz ergreifen zu können. Für ein informiertes und qualifiziertes erzieherisches Handeln bedarf es der Aufklärung über potenzielle Risiken und der Qualifizierung für einen präventiven Umgang damit sowie für eine angemessene Reaktion auf bereits eingetretene Gefährdungen. Die Datenschutz-Grundverordnung sieht in Artikel 8 Absatz 1 ausdrücklich die Zustimmung der Eltern zur Nutzung von Diensten der Informationsgesellschaft durch ihre Kinder vor, wenn diese die von den nationalstaatlichen Regierungen in einem Korridor zwischen 13 und 16 Jahren festzusetzende Altersgrenze noch nicht erreicht haben. Damit Eltern hier eine bewusste und fundierte Entscheidung treffen können, müssen sie die von den Kindern genutzten Dienste und deren Gefährdungspotenzial kennen.

Erzieherischer Jugendschutz muss im Einklang mit Artikel 12 Absatz 1 UN-KRK auch die Mitwirkung der Kinder und Jugendlichen an allen sie betreffenden Entscheidungen berücksichtigen und sie dazu befähigen, sich im digitalen Umfeld selbst zu schützen.[13]


Fazit



Zeitgemäßer Kinder- und Jugendschutz stellt das Kind in den Mittelpunkt eines Dreiecks aus Förderung, Schutz und Teilhabe. Technische Entwicklungen, pädagogisches Handeln und politische Entscheidungen für den Jugendschutz sind dabei grundsätzlich vom Kind aus zu denken.

Bei der Entwicklung und Bereitstellung von digitalen Diensten und Endgeräten sind junge Menschen folglich nicht eine nur zusätzlich zu berücksichtigende Gruppe potenzieller Nutzer, sondern die vorrangig zu beachtende Zielgruppe. Sie gehören in der Regel zu den frühen Anwendern, den sogenannten Early Adopters, und sind damit noch nicht erkannten Risiken möglicherweise als Erste ausgesetzt. Nach dem Prinzip "Safety by Design" sollte daher jede Entwicklung im Bereich der Informations- und Kommunikationstechnologien Kinder als Nutzerinnen und Nutzer von Beginn an in den Blick nehmen, mögliche Gefährdungspotenziale analysieren und etwaige Schutzbedarfe durch angemessene technische Maßnahmen adressieren.

Pädagogisches Handeln für einen zeitgemäßen Jugendschutz muss Förderung, Schutz und Teilhabe gleichermaßen gewährleisten. Vielfach konzentriert sich die Perspektive von Eltern und pädagogischen Fachkräften noch immer auf den Aspekt des Schutzes. Das darf angesichts alarmierender Meldungen über Fälle von Cybermobbing oder sogenanntem grooming, also der Kontaktaufnahme mit dem Ziel der sexuellen Belästigung oder gar des Missbrauchs, aber auch in Anbetracht von Berichten über politische Radikalisierung oder kommerzielle Ausbeutung zunächst nicht verwundern. Maßnahmen, die nur auf Schutz durch Verhindern fokussieren, werden alleine jedoch nicht ein gutes und sicheres Aufwachsen mit Medien garantieren. Deshalb ist es notwendig, einen regelmäßig aktualisierten Überblick über potenzielle Gefährdungen zu gewinnen, auf dieser Grundlage eine Abschätzung des Risikos ihres tatsächlichen Eintretens vorzunehmen und gegebenenfalls geeignete Schutzmaßnahmen zu implementieren.

Die Bundesprüfstelle für jugendgefährdende Medien wird gemäß dem Beschluss der JFMK von Mai 2018 modernisiert und, basierend unter anderem auf den im Projekt "I-KiZ – Zentrum für Kinderschutz im Internet" erarbeiteten Erkenntnissen, mit einem neuen Auftrag ausgestattet.[14] Um der Feststellung der JFMK Rechnung zu tragen, dass "der gesetzliche Jugendmedienschutz nicht mehr zeitgemäß [ist] und dem Anspruch nicht gerecht [wird], die mit der Digitalisierung einhergehenden Risiken für Kinder und Jugendliche abzudecken", koordiniert die Behörde derzeit einen jugendpolitischen Strategieprozess von Bund und Ländern.[15]

Im Bereich der Jugendpolitik ist mit dieser Entscheidung eine wesentliche Voraussetzung geschaffen worden, um den heutigen und auch künftigen Herausforderungen des Jugendschutzes durch die Digitalisierung mit geeigneten Maßnahmen und einer Novellierung des Jugendschutzgesetzes angemessen begegnen zu können. Die dem Begriff Jugendmedienschutz inhärente Zweideutigkeit darf nicht den Blick darauf verstellen, dass es um den Schutz von Kindern und Jugendlichen vor den mit der Mediennutzung potenziell einhergehenden Risiken geht. Jugendschutz ist eine originäre Aufgabe der Jugendpolitik und zählt gerade nicht zu den beispielsweise durch den Kommunikationswissenschaftler Otfried Jarren formulierten Strukturelementen der Medienpolitik.[16]

Jugendschutz auf der Basis der UN-KRK braucht als Querschnittsaufgabe die Mitwirkung weiterer Politikfelder, um den Vorrang des Kindeswohls zu gewährleisten. Politik für einen zeitgemäßen Jugendschutz manifestiert sich auch im Bereich der Datenschutzgesetzgebung oder etwa bei der Regulierung zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken. Unter Berufung auf Artikel 32 der UN-KRK können nicht zuletzt auch Verbraucherschutz- und Wirtschaftspolitik einen Beitrag zum Jugendschutz leisten, indem sie der wirtschaftlichen Ausbeutung von Kindern, die auf der Analyse ihres Nutzungsverhaltens und der kommerziellen Verwertung ihrer Daten basiert, regulatorische Maßnahmen entgegensetzen.

Mit der im April 2016 vom Europarat verabschiedeten Sofia-Strategie zur Umsetzung der UN-Kinderrechtskonvention wurde zum ersten Mal die Stärkung der Kinderrechte in der digitalen Welt berücksichtigt und als eine der fünf Säulen der Strategie verankert. Wie die Rechte des Kindes im digitalen Umfeld besser geachtet, geschützt und erfüllt werden können, steht nun im Mittelpunkt der Empfehlung, die im Auftrag des Europarates von einer Expertengruppe erarbeitet und im Juli 2018 vom Ministerkomitee des Europarates angenommen wurde.[17] Damit liegt erstmals ein völker- und europarechtlich unterlegtes Instrument vor, um den digitalen Wandel im Hinblick auf ein gutes Aufwachsen mit digitalen Medien zu begleiten. Angesichts des schnell voranschreitenden Prozesses der Digitalisierung des Lebensalltags von Kindern ist dies ein wichtiger Schritt, um zu gewährleisten, dass Kinderrechte auch im digitalen Umfeld respektiert werden. Aufbauend auf internationalen und europäischen Rechtsinstrumenten enthält der Text umfassende Leitlinien für das Handeln der europäischen Regierungen. Die Empfehlungen bieten den Akteurinnen und Akteuren der Politik eine Grundlage dafür, eine kinderrechtliche Perspektive einzunehmen, das Kind in den Mittelpunkt zu stellen und geeignete Maßnahmen für Schutz, Befähigung und Teilhabe von Kindern in der digitalen Welt umzusetzen.

Dieser Text entstand unter Mitarbeit von Michael Raeder, wissenschaftlicher Mitarbeiter bei der Stiftung Digitale Chancen.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Jutta Croll für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Fußnoten

1.
Vgl. http://www.sipbench.eu«.
2.
Solche Programme waren ursprünglich nicht zum Zweck des Jugendschutzes entwickelt worden, sondern vielmehr, um in Unternehmen die unerwünschte Nutzung von z.B. pornografischen Webseiten durch die Mitarbeitenden während der Arbeitszeit zu verhindern.
3.
Vgl. Michaela Evers-Wölk, Technikfolgenabschätzung zum Gegenstand "mobile Internetnutzung von Kindern und Jugendlichen im Alter von 1 bis 16 Jahren in den kommenden 3 bis 5 Jahren", in: Zentrum für Kinderschutz im Internet (I-KiZ), I-KiZ Jahresbericht 2014, S. 61–66, http://www.kinderrechte.digital/hintergrund/index.cfm/topic.279/key.1562«.
4.
Vgl. z.B. Stephan Dreyer et al., Jugendschutzsoftware im Elternhaus – Kenntnisse, Erwartungen und Nutzung. Stand der Forschung, Arbeitspapiere des Hans-Bredow-Instituts 23/2012, S. 25, http://www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/687a72d0530767639bb10e24d08561809ff5931b.pdf«.
5.
Vgl. Jutta Croll/Herbert Kubicek, Wer vertraut wem beim Jugendmedienschutz?, in: Dieter Klumpp et al. (Hrsg.), Informationelles Vertrauen für die Informationsgesellschaft, Berlin 2008, S. 247–266.
6.
Vgl. Jutta Croll, Let’s Play It Safe – Children and Youths in the Digital World, White Paper for the ICT Coalition for Children Online, Januar 2016, S. 4f., http://www.ictcoalition.eu/medias/uploads/source/available%20here.pdf«.
7.
Vgl. Sonia Livingstone et al., EU Kids Online – Findings, Methods, Recommendations, London 2015, S. 19, http://eprints.lse.ac.uk/60512/1/EU%20Kids%20onlinie%20III%20.pdf«.
8.
Murad Erdemir, Zeitgemäßer Jugendmedienschutz: Eine Frage der Kompetenz, in: Kinder- und Jugendschutz in Wissenschaft und Praxis 2/2018, S. 39–44, hier S. 40.
9.
Vgl. ebd., S. 39.
10.
Vgl. z.B. Alexander Fanta, Facebook löscht vor allem nach eigenen Regeln statt nach dem NetzDG, 27.7.2018, https://netzpolitik.org/2018/facebook-loescht-vor-allem-nach-eigenen-regeln-statt-nach-dem-netzdg«; Patrick Beuth, Viele beschweren sich über Hass, aber kaum etwas wird gesperrt, 27.7.2018, http://www.spiegel.de/netzwelt/web/a-1220371.html«.
11.
Vgl. Christa Gebel/Nils Brüggen/Kathrin Demmler, Erzieherischer Jugendmedienschutz – Herausforderungen und Anforderungen aus medienpädagogischer Perspektive, in: Kinder- und Jugendschutz in Wissenschaft und Praxis 2/2018, S. 50–55.
12.
Beschluss der JFMK am 3./4. Mai 2018 in Kiel zu TOP 7.1 Jugendmedienschutz, S. 1, http://www.jfmk.de/index.cfm?uuid=82067F7EBC45AB0DA54E06D9621EE408«.
13.
Dem trägt etwa das am Zentrum für Kinderschutz im Internet (I-KiZ) entwickelte Modell des Intelligenten Risikomanagements Rechnung, indem es medienerzieherische Begleitung für jüngere Kinder und eine mit zunehmendem Alter stärker werdende Eigenverantwortung junger Menschen vorsieht. Vgl. Jutta Croll/Tilman Gräter, Das Modell des Intelligenten Risikomanagements – Blaupause für die Arbeit des I-KiZ, in: I-KiZ Jahresbericht 2015, S. 29–33, http://www.kinderrechte.digital/hintergrund/index.cfm/topic.279/key.1496«; Jutta Croll, "Parents, Please Supervise Your Children Closely All the Times"? Kinder- und Jugendschutz im Internet als "Intelligentes Risikomanagement", in: Diskurs Kindheits- und Jugendforschung 1/2015, S. 107–112.
14.
Vgl. Martina Hannak/Thomas Salzmann, Zukunftswerkstatt zur Weiterentwicklung des Kinder- und Jugendmedienschutzes bei der BPjM, in: Kinder- und Jugendschutz in Wissenschaft und Praxis 2/2018, S. 45–49.
15.
JFMK (Anm. 12), S. 2.
16.
Vgl. Otfried Jarren, Medienpolitische Kommunikation, in: ders. et.al., Politische Kommunikation in der demokratischen Gesellschaft. Ein Handbuch, Wiesbaden 1998, S. 616–629.
17.
Vgl. Jutta Croll, Empfehlung des Ministerkomitees des Europarats zu Kinderrechten im digitalen Umfeld, 5.7.2018, http://www.kinderrechte.digital/fokus/index.cfm/key.3382«.

Jutta Croll

Zur Person

Jutta Croll

ist Vorstandsvorsitzende der Stiftung Digitale Chancen und dort Projektleiterin Kinderschutz und Kinderrechte in der digitalen Welt.
jcroll@digitale-chancen.de


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln