KJM | 12/2019 |

Mit moderner Technik Kinder in Social Media absichern

Künstliche Intelligenz nutzbar machen | Wirksamer Schutz auf Smartphones nötig | Anbieter müssen Verantwortung übernehmen | Lagebericht „Technischer Jugendmedienschutz“ von jugendschutz.net veröffentlicht

Kinder nutzen immer früher Social-Media-Dienste wie YouTube, Instagram oder Snapchat und sind dabei Risiken wie Mobbing, Hass, Belästigungen oder Gewalt ausgesetzt. Aktuelle Jugendschutzlösungen sind dort aber nahezu wirkungslos, da sie Inhalte nicht differenziert filtern können. Deshalb müssen auch moderne Technologien wie maschinelles Lernen zum Schutz der Jüngsten eingesetzt und fortentwickelt werden. Zu diesem Ergebnis kommt der aktuelle Lagebericht „Technischer Jugendmedienschutz. Zeitgemäße Entwicklung und zukunftsfähiges Schutzkonzept“ von jugendschutz.net, dem gemeinsamen Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet.

„Gerade in Social Media finden sich viele Beiträge, die sexuelle Gewalt zeigen, zum Hass anstacheln oder die persönliche Integrität von Kindern gefährden. Um die Jüngsten vor solchen Konfrontationen zu schützen, ist ein Konzept nötig, das auch auf moderne Mechanismen zur Inhalts-erkennung setzt“, sagt Stefan Glaser, Leiter von jugendschutz.net. Eltern benötigen zudem Schutzoptionen, die auf Smartphones wirken und leicht zu konfigurieren sind.

„Es liegt in der Verantwortung der Anbieter, existierende Techniken endlich gewinnbringend auch für den Jugendmedienschutz einzusetzen“, fordert Dr. Wolfgang Kreißig, Vorsitzender der Kommission für Jugendmedienschutz (KJM). Um Schutz und Teilhabe junger Userinnen und User zu gewährleisten, brauche es altersdifferenzierte Systeme, die leicht verfügbar und unkompliziert nutzbar seien. In anderen Feldern wie z. B. zur Verhinderung von Urheberrechtsverletzungen würden moderne technische Ansätze längst erfolgreich angewendet.

Veraltete Erkennungsverfahren in den aktuellen Jugendschutzprogrammen führen bei Social-Media-Angeboten nicht zu zufriedenstellenden Ergebnissen. Moderne Methoden der automatischen Inhaltserkennung nutzen dagegen Techniken des maschinellen Lernens (KI - künstliche Intelligenz), um schnell große Mengen von Daten zu klassifizieren. jugendschutz.net prüfte 2017 und 2018 die automatische Erkennung von jugendschutzrelevanten Inhalten. Getestet wurden ein bereits trainiertes, voll einsatzbereites System (Google Cloud Vision) und Programme, die das Training eines Erkennungsmechanismus ermöglichen (Facebook fastText und Google TensorFlow). Dabei waren Erkennungsquoten erzielt worden, die die Wirksamkeit gängiger Jugendschutzprogramme (ca. 80 % Trefferquote) mit vergleichsweise geringem Aufwand erreichen und teilweise sogar übertreffen.

Der Bericht „Technischer Jugendmedienschutz. Zeitgemäße Entwicklung und zukunftsfähiges Schutzkonzept“ steht zum Download bereit unter: https://www.jugendschutz.net/pdf/Bericht_2019_Technischer_Jugendmedienschutz.pdf

Pressemitteilungen - Archiv

Pressemitteilungen 2022

Pressemitteilungen 2021

Pressemitteilungen 2020

Pressemitteilungen 2019

Pressemitteilungen 2018

Pressemitteilungen 2017

Pressemitteilungen 2016

Pressemitteilungen 2015

Pressemitteilungen 2014

Pressemitteilungen 2013

Pressemitteilungen 2012

Pressemitteilungen 2011

Pressemitteilungen 2010

Pressemitteilungen 2009

Pressemitteilungen 2008

Pressemitteilungen 2007

Pressemitteilungen 2006

Pressemitteilungen 2005

Pressemitteilungen 2004

Pressemitteilungen 2003

Pressemitteilungen 2002

Pressemitteilungen 2001

Pressemitteilungen 2000

Pressemitteilungen 1999

Pressemitteilungen 1998

Pressemitteilungen 1997

RSS Feed